“过度依赖ChatGPT技术,会将‘常人’的意见建制化与机械化,使社会意识形态‘板结’现象更为严重,并加剧人类‘自欺’现象的泛滥。”近日,在复旦大学庆祝建校118周年系列学术报告中,该校哲学学院教授徐英瑾以《从人工智能哲学的角度看ChatGPT》为题,剖析了ChatGPT技术可能存在的弊端。
运用人类语言顺畅聊天,并非认定智能的必要条件。
在史蒂文·斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。这背后隐含了一个深刻的哲学问题——机器能够思考吗?
探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了“人工智能之父”阿兰·图灵提出的行为 主义 标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。
没有通过图灵测试,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,提出与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。
对于人工智能的发展,社会各界的观点目前大致可分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、美国斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段。对此,徐英瑾表示赞成。
真正识别人类精神内核,人工智能仍在路上。
“理解ChatGPT的本质并不困难。”徐英瑾介绍,Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测试的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗地说,就是通过数学建模建造出一个简易的人工神经元网络结构。
尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是不断迭代的大规模数据集和人工语料训练“野蛮投入”的结果。因此,纵使ChatGPT看到“路遥知马力”后能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。
从海德格尔哲学的角度看,这种人工智能系统训练方式不得不把“常人”的意见建制化与机械化,由此使得社会意识形态的“板结”现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤。
“这需要我们提高警惕。”徐英瑾强调,“假若ChatGPT技术出现在托勒密的时代,哥白尼的‘日心说’恐怕永远会被判定为错误答案。”
人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。
人工智能未来到底走向何处?在徐英瑾看来,要想真正走通人工智能这条路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装、真正识别人类的精神内核,人工智能仍在路上。
(李晨阳)