欢迎您阅览陕西科技报!
通版阅读请点击:
展开通版
收缩通版
当前版:03版
发布日期:
科普视点
ChatGPT不可能一蹴而就
  近期,ChatGPT成为科技热点,频上热搜。大家纷纷通过各种渠道体验,中国计算机学会常务理事、之江实验室副主任鲍虎军就是其中之一。
  跟ChatGPT“聊”下来,鲍虎军感受到其强大,甚至觉得它有些“圆滑”:它不仅能多轮对话,拒绝回答不恰当的提问,还“懂得承认错误”,调整后续答案。“这说明它背后的信息学习和整合机制是非常完善的。”鲍虎军说。
  ■解决“对齐”问题,ChatGPT更“丝滑”
  对话机器人早已不是新鲜事物,ChatGPT何以能一骑绝尘?这恐怕要从其给人“丝滑”的对话体验及其超常表现说起。这类机器人的本质是人工智能机器学习模型。在开发之初,开发者通常会输入大量贴有“标签”的数据,对模型系统进行训练,让系统通过算法自动输出结果。
  如果只靠自动输出结果,ChatGPT也许和其他聊天机器人无异。它的横空出世,离不开至少两样东西:大型语言模型(LLM)和一种名为“人在回路”的强化学习机制。
  众所周知ChatGPT脱胎于OpenAI的GPT3(升级后为GPT3.5),但OpenAI的开发团队对它的训练才是更动人心魄的:在系统训练过程中,团队先用少量的问答标注数据,微调预训练大模型GPT3.5;然后让训练者接入系统不断提出大量问题,由GPT3.5模型对每个问题给出若干答案,人工对答案满意度进行打分排序,并建立奖惩模型;最后不断循环、强化学习,才得到了最终的问答模型。
  这种训练机制又被称为人类反馈强化学习(RLHF)。鲍虎军表示,这种训练机制解决了大模型回答问题与人类认知和需求“对齐”的问题,在工程实现上实现了重要的创新。这就是ChatGPT的答案常常能够“引人舒适”的关键因素之一。“这让系统给出的答案和人类的常识、认知、需求、价值观更加贴合。”鲍虎军说,正是引入人工反馈这一步,让系统预测能力实现了“对齐”。
  在过去,人们对大模型的使用,往往更关注于面向专业领域进行开发,这也催动着基础大模型逐渐形成面向专业的行业大模型。但是,基础模型在不同专业领域应用过程中,开发者需要用它对该领域标记的关键数据进行微调训练,而此后模型的使用并不开放,这导致模型的应用效能并不高。
  ChatGPT与此不同。它的参数部署之后,模型不再变改,而是通过广泛的用户使用,不断汇聚相关信息、不断进行新的内容学习和整合,让优化也在“回路”。按照ChatGPT目前月活跃用户一亿计,它的变化与日俱增。
  “一亿用户不断为它提供数据采集,让它不断变得强大。”鲍虎军认为,Chat-GPT从能力和模式上,解决了多年来人机对话交流难以逾越的重大挑战,正是这种大规模模型预训练和拟人问答“对齐”技术的变革,它才引发了各界的共鸣。
  ■要复刻ChatGPT,先闯三关
  ChatGPT的爆火,搅动了人们对AI产业实现期望的一池春水。在不断加码OpenAI之后,微软发布全新“必应”(Bing)搜索工具,让人们可以在Edge浏览器上上体验ChatGPT。感受到危机的谷歌也动作频频,并在2月7日发布了下一代对话AI系统Bard,只是首战“出师不利”。
  国内也一派奋起直追的景象。2月7日,百度宣布推出生成式对话产品“文心一言”(英文名ERNIEBot),并约定“3月和大家正式见面”;2月10日,美团联合创始人王慧文高调宣布自带5000万美元入局AI,目前已成再创业之势,放言希望“打造中国OpenAI”;360集团也称有200多亿的资金能够支持360进行类ChatGPT 技术的研究和投入,创始人周鸿祎更直言“不会放弃对ChatGPT相关技术的研究和跟踪”……
  ChatGPT引发的这波热潮,让人直呼“有点梦回2016的意思”。那一年的AI头条是:李世石大战AlphaGo。
  这一切的发生,鲍虎军认为,ChatGPT等AI工具的进一步广泛应用,有望极大提升内容创作和人机交互的能力,它们也会成为像互联网平台一样的基础设施,给人类带来生产能力的提升。随着图像、文本、声音等多模态类型计算的互通转换的引入,还将带来更大的想象空间。
  不过,要在中国复刻OpenAI、打造国产化的ChatGPT绝非易事。鲍虎军认为,机器学习模型开发者很多,要做好ChatGPT类项目,工程实现是“重头戏”。
  “一个好的机器学习模型,并不是开发完成就结束了,而是要真正找到一种便捷的使用模式,让人工智能为更多人解决实际问题。”鲍虎军说,当业界对ChatGPT奋起直追时,也要看到,Chat-GPT的诞生不是一蹴而就的。ChatGPT的成功,离不开强大的技术创新、工程实现能力以及投资人的勇气。
  而要闯这“三关”之前,还要看自身技术和资源的积累。公开数据显示,OpenAI于2018年6月发布GPT1,迄今迭代至GPT3.5,已经历了多年的技术积累。ChatGPT模型的前身语言模型GPT3,其参数规模达到了1750亿,使用超45TB数据进行训练;后期研发不仅引入了微软的资本加持,还投入了大量时间与精力……
  “做好一个成果,需要构想、研发、商业等多方力量投入,无论从哪个层面,都不能浮躁,而是需要更多的耐心与坚持。”鲍虎军说。

(赵广立)


社址:西安市药王洞155号 邮编:710003 电话/编辑部:029-87345421
广告部:029-87347875 投稿信箱:sxkjb169@aliyun.com 版权所有:陕西科技报社 技术支持:锦华科技