欢迎您阅览陕西科技报!
通版阅读请点击:
展开通版
收缩通版
当前版:06版
发布日期:
论ChatGPT与社会意识形态

  “过度依赖ChatGPT技术,会将‘常人’的意见建制化与机械化,使社会意识形态‘板结’现象更为严重,并加剧人类‘自欺’现象的泛滥。”近日,在复旦大学庆祝建校118周年系列学术报告中,该校哲学学院教授徐英瑾以《从人工智能哲学的角度看ChatGPT》为题,剖析了ChatGPT技术可能存在的弊端。
  运用人类语言顺畅聊天,并非认定智能的必要条件。
  在史蒂文·斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。这背后隐含了一个深刻的哲学问题——机器能够思考吗?
  探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了“人工智能之父”阿兰·图灵提出的行为 主义 标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。
  没有通过图灵测试,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,提出与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。
  对于人工智能的发展,社会各界的观点目前大致可分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、美国斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段。对此,徐英瑾表示赞成。
  真正识别人类精神内核,人工智能仍在路上。
  “理解ChatGPT的本质并不困难。”徐英瑾介绍,Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测试的一项发明——早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗地说,就是通过数学建模建造出一个简易的人工神经元网络结构。
  尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是不断迭代的大规模数据集和人工语料训练“野蛮投入”的结果。因此,纵使ChatGPT看到“路遥知马力”后能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。
  从海德格尔哲学的角度看,这种人工智能系统训练方式不得不把“常人”的意见建制化与机械化,由此使得社会意识形态的“板结”现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤。
  “这需要我们提高警惕。”徐英瑾强调,“假若ChatGPT技术出现在托勒密的时代,哥白尼的‘日心说’恐怕永远会被判定为错误答案。”
  人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。
  人工智能未来到底走向何处?在徐英瑾看来,要想真正走通人工智能这条路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装、真正识别人类的精神内核,人工智能仍在路上。

(李晨阳)


社址:西安市药王洞155号 邮编:710003 电话/编辑部:029-87345421
广告部:029-87347875 投稿信箱:sxkjb169@aliyun.com 版权所有:陕西科技报社 技术支持:锦华科技