欢迎您阅览陕西科技报!
通版阅读请点击:
展开通版
收缩通版
当前版:02版
发布日期:
算法“黑箱”下人工智能安全存疑
可解释性让AI更透明
  “AI的应用落地在不断提速,但在算法‘黑箱’下,AI的不可解释性让‘黑箱’很难释明,进而让人们对AI的安全难言放心。”日前,在2022年科技向善创新周上,与会专家围绕AI的透明和可解释难题从技术角度直指产业痛点。
  与此同时,由腾讯研究院、优图实验室等多家机构组成的跨学科研究团队历时一年完成的《可解释AI发展报告2022》也引发热议。报告从可解释AI的概念、监管趋势、行业实践等热点问题出发,抽丝剥茧地呈现可解释AI产业的现状和发展趋势,以期能为产业解决AI“黑箱”释明难题提供一份参考和借鉴。
  可解释AI已成热点
  目前,部分人工智能应用已成为通用型的技术,而人类对AI则一直有更高的期待。不少人坚信,科幻电影《Her》中的AI机器人可对行为作出解释,从而帮助人类作出决策,甚至与人类产生深度交流的一幕,迟早也会出现在人们的日常生活中。
  虽然产业的发展已经起步并快速成为行业热点,但这些过于理想化的场景目前还只能存在于科幻作品中,实践中可解释AI不论在技术上还是体验上都还没达标。
  如今,金融机构的贷款审批都是基于AI作出决策,如果这一复杂的算法风控系统拒绝申请,那么贷款人就没办法获得贷款。这只是AI在众多日常场景应用中的一幕,只要是AI做出了决策,公众就必须接受结果,至于什么原因,算法没有也不可能给出解释。
  “有时候连开发人员都不能很好地理解AI算法‘黑箱’运作的具体细节,这就导致了AI模型的透明度和可解释性的问题。”腾讯研究院秘书长张钦坤表示,如果不解决这两个问题,不仅影响用户对AI应用的信任,而且也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。
  其实,人工智能的可解释以及科技伦理等问题已经成为AI领域的必选项,2021年起始的“十四五”规划里面也明确强调要健全科技伦理的体系。
  厦门大学人文学院院长朱菁认为,AI可解释性问题之所以受到重视,主要因为AI的发展虽然变得越来越强大,但也变得越来越“黑”,再者AI虽然变得越来越实用,其可靠性和应用范围也得到提高。“在一些重要的应用领域,对于AI可信任性、安全性等方面的要求也越来越高,可解释性就是满足上述要求的认知基础。”
  目前来看,国内企业在可解释AI实践方面还比较零碎,没有达到系统化的程度,但就整体而言,产业一直都是朝着可解释的方向发展。
  鱼和熊掌不可兼得
  AI快速深入日常生活,既带来了兴奋和期待,也带来一些忧虑,甚至恐慌。AI到底是人类的好帮手,还是会成为人类强劲的对手?其实这很大程度上取决于人类对AI的理解。只有打开了人工智能的黑箱,了解到AI背后的机制,并认为它是可解释、可理解的,人类在这种共识下才能真正达成对AI的信任。
  然而,当前的AI可解释性及透明度与算法的高效率还是一个矛盾体。微众银行首席人工智能官杨强认为,AI算法高效率的同时,可解释性就很差。同样,AI线性模型的准确率没有那么高,它的可解释性相对就会强一些。“这就意味着我们要在可解释和高效率两个维度上做一个取舍,但目前并没有两个维度都高的AI算法。目前可解释AI在各个行业都是一个起步,也都不可或缺,但如何做好AI可解释的量化,才是当前业界该考虑的重点。”
  “不同人群、不同应用场景对AI算法的可解释性期待是不一样的,不应该搞一刀切。现阶段深度学习普遍缺乏可解释性的情况下,AI透明度就尤其重要。”腾讯天衍实验室负责人郑冶枫表示,AI算法应尽可能详尽披露模型、训练数据分布等情况。
  朱菁也认为,目前来说,AI的可解释性和预测的准确性二者不可兼得,既提高预测准确性,同时还要把可解释性提高,要实现这件两全其美的事情难度比较大。其次,解释的多元化除了怎么都行的这种形态以外,还有孤岛式的、互动式的以及整合性的形态。“这些只是同一个整体的不同侧面,AI能不能做到这些,现在其实并不是很清楚。”
  推动可解释模型构建
  可解释是可信AI的重要组成部分,也是可信的前提条件之一,它有很强的独特性。当前可解释AI研究思路很多,但并没有一个明确的框架,毕竟解释对象的不同,框架也难统一。
  香港中文大学(深圳)吴保元副教授认为,与其说AI的可解释性,还不如称之为AI的可解释力。“可解释性可能会让人们误认为这是一种性质,而可解释力就是一种可解释的能力,就如同人们常说的理解力、领导力,是一种手段,一种行为,一种操作的存在。”
  《可解释AI发展报告2022》从科技向善的角度出发,认为需要找到一个平衡的可解释AI路径来实现可信AI,确保科技向善。张钦坤解释说,就是在设计可解释性要求时,需要充分考虑可解释性要求和其他重要的伦理价值和目的,可解释本身不是目的而是手段。“在设计可解释AI的时候,首先需要考虑实现什么样的目标,其次才是思考在特定的情境下如何更好地匹配这些目标。”
  对于AI研究里的解释性问题的基本立场,朱菁的建议是解释的多元化:“针对不同的问题,哪怕是在同一个领域里,也不能指望只有唯一的解释方式或模式,要允许多种多样的解释模型存在。”

(陈杰)


社址:西安市药王洞155号 邮编:710003 电话/编辑部:029-87345421
广告部:029-87347875 投稿信箱:sxkjb169@aliyun.com 版权所有:陕西科技报社 技术支持:锦华科技