算法“黑箱”下人工智能安全存疑,可解释性让AI更透明

日期:2022-01-25 16:49

       “AI 的应用落地在不断提速,但在算法‘黑箱’下,AI 的不可解释性让‘黑箱’很难释明,进而让人们对AI的安全难言放心。”日前,在 2022 年科技向善创新周上,与会专家围绕AI的透明和可解释难题从技术角度直指产业痛点。与此同时,由腾讯研究院、优图实验室等多家机构组成的跨学科研究团队历时一年完成的《可解释AI发展报告2022》也引发热议。报告从可解释AI的概念、监管趋势、行业实践、发展建议等热点问题出发,抽丝剥茧地呈现可解释AI产业的现状和发展趋势,以期能为产业解决 AI“黑箱”释明难题提供一份参考和借鉴。


可解释AI已成热点

      目前,部分人工智能应用已成为通用型的技术,而人类对AI则一直有更高的期待。不少人坚信,科幻电影《Her》中的AI机器人可对行为作出解释,从而帮助人类作出决策,甚至与人类产生深度交流的一幕,迟早也会出现在人们的日常生活中。虽然产业的发展已经起步并快速成为行业热点,但这些过于理想化的场景目前还只能存在于科幻作品中,实践中可解释 AI 不论在技术上还是体验上都还没达标。如今,金融机构的贷款审批都是基于AI 作出决策,如果这一复杂的算法风控系统拒绝申请,那么贷款人就没办法获得贷款。这只是 AI 在众多日常场景应用中的一幕,只要是 AI 做出了决策,公众就必须接受结果,至于什么原因,算法没有也不可能给出解释。“有时候连开发人员都不能很好地理解AI 算法‘黑箱’运作的具体细节,这就导致 了 AI 模 型 的 透 明 度 和 可 解 释 性 的 问题。”腾讯研究院秘书长张钦坤表示,如果不解决这两个问题,不仅影响用户对 AI应用的信任,而且也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。其实,人工智能的可解释以及科技伦理等问题已经成为 AI 领域的必选项,2021年起始的“十四五”规划里面也明确强调要健全科技伦理的体系。厦门大学人文学院院长朱菁认为,AI可解释性问题之所以受到重视,主要因为AI 的发展虽然变得越来越强大,但也变得越来越“黑”,再者 AI 虽然变得越来越实用,其可靠性和应用范围也得到提高。“在一些重要的应用领域,对于 AI 可信任性、安全性等方面的要求也越来越高,可解释性就是满足上述要求的认知基础。”目前来看,国内企业在可解释 AI 实践方面还比较零碎,没有达到系统化的程度,但就整体而言,产业一直都是朝着可解释的方向发展。


鱼和熊掌不可兼得

      AI 快速深入日常生活,既带来了兴奋和期待,也带来一些忧虑,甚至恐慌。AI到底是人类的好帮手,还是会成为人类强劲的对手?其实这很大程度上取决于人类对 AI 的理解。只有打开了人工智能的黑箱,了解到AI背后的机制,并认为它是可解释、可理解的,人类在这种共识下才能真正达成对AI的信任。然而,当前的 AI 可解释性及透明度与算法的高效率还是一个矛盾体。微众银行首席人工智能官杨强认为,AI算法高效率的同时,可解释性就很差。同样,AI线性模型的准确率没有那么高,它的可解释性相对就会强一些。“这就意味着我们要在可解释和高效率两个维度上做一个取舍,但目前并没有两个维度都高的AI算法。目前可解释AI在各个行业都是一个起步,也都不可或缺,但如何做好AI可解释的量化,才是当前业界该考虑的重点。”不同人群、不同应用场景对 AI 算法的可解释性期待是不一样的,不应该搞一刀切。现阶段深度学习普遍缺乏可解释性的情况下,AI 透明度就尤其重要。”腾讯天衍实验室负责人郑冶枫表示,AI 算法应尽可能详尽披露模型、训练数据分布等情况。朱菁也认为,目前来说,AI 的可解释性和预测的准确性二者不可兼得,既提高预测准确性,同时还要把可解释性提高,要实现这件两全其美的事情难度比较大。其次,解释的多元化除了怎么都行的这种形态以外,还有孤岛式的、互动式的以及整合性的形态。“这些只是同一个整体的不同侧面,AI 能不能做到这些,现在其实并不是很清楚。”


推动可解释模型构建

      可解释是可信 AI 的重要组成部分,也是可信的前提条件之一,它有很强的独特性。当前可解释AI研究思路很多,但并没有一个明确的框架,毕竟解释对象的不同,框架也难统一。香港中文大学 (深圳) 吴保元副教授认为,与其说AI的可解释性,还不如称之为 AI 的可解释力。“可解释性可能会让人们误认为这是一种性质,而可解释力就是一种可解释的能力,就如同人们常说的理解力、领导力,是一种手段,一种行为,一种操作的存在。”《可解释 AI 发展报告 2022》 从科技向善的角度出发,认为需要找到一个平衡的可解释AI路径来实现可信AI,确保科技向善。张钦坤解释说,就是在设计可解释性要求时,需要充分考虑可解释性要求和其他重要的伦理价值和目的,可解释本身不是目的而是手段。“在设计可解释 AI 的时候,首先需要考虑实现什么样的目标,其次才是思考在特定的情境下如何更好地匹配这些目标。”对于 AI 研究里的解释性问题的基本立场,朱菁的建议是解释的多元化:“针对不同的问题,哪怕是在同一个领域里,也不能指望只有唯一的解释方式或模式,要允许多种多样的解释模型存在。”

来源:科技日报