东西问丨邵怡蕾:为什么人形机器人将引发人类对自身的重新思考?
近年来,全球科技巨头纷纷入局人形机器人研发。接连亮相的人形机器人,让科幻故事逐步照进现实,不仅在技术层面上取得了重大突破,还在各个领域展现出巨大的应用潜力,其引发的伦理与法律思考也日渐受到关注。为什么人形机器人将引发人类对自身的重新思考?日前,在2024世界人工智能大会上,华东师范大学上海人工智能金融学院院长邵怡蕾教授就此接受中新社“东西问”专访。
现将访谈实录摘要如下:
中新社记者:您认为人工智能时代必须“两条腿走路”:“一条腿”是人工智能技术;“另一条腿”是人文社科对于人工智能社会的研究。应该如何理解?
邵怡蕾:人工智能对齐(the AI alignment problem)就是确保人工智能系统的目标、决策和行为与人类的价值观和利益相一致。人工智能对齐不仅需要技术进步,更涉及深层的伦理和道德问题,目前已成为人工智能领域中最为核心和紧迫的议题之一。
自诞生以来,人工智能的技术发展和技术迭代速度非常快。以ChatGPT为例,自2022年11月30日对外发布以来,它“成长”的速度甚至不是以月,而是以天计的。人工智能技术发展的“这条腿”无疑是长得很快的,但与之相对应的“另一条腿”——人文社会学科对人工智能社会的研究也需快速跟上。“两条腿”同步成长,我们才能更稳健地迈入人工智能时代。
如果说,人工智能是刚出生的“孩子”,人工智能研究者则是“父亲”的角色:从技术层面鞭策它“更快、更强”。然而,要培养出“健全的小孩”少不了“母亲”的角色。如何和人类社会相处?如何和人类更好地“沟通”?这是人文社会学科需要“教会”人工智能的。
实际上,科学界和人文社会学界已意识到这一需求。许多人工智能领域的专家发现,在研究中遇到的许多问题不仅仅是技术层面上的问题,更是社会学、人类学,甚至是哲学层面的问题。所以,人工智能研究人员开始向人文社会学界寻求支持。比如,在技术发展引发的生产力迭代的进程中,如何维护人类社会的公平?如何保护人们生活的隐私?对于人文社会学科这些并不是新问题。100多年来,这些问题已经在人文社会学科中被广泛讨论,并产出了一系列的理论体系和架构。