1/0
如何应对AI可解释性危机,解释和验证更应关注哪个?
澎湃新闻2022-03-25 20:40:00

当前人工智能落地应用的繁荣很大程度上来自于机器学习(Machine Learning)尤其是深度学习(Deap Learning)的技术发展,但智能背后空茫的无法理解不可解释始终让人们质疑人工智能是否必须可解释才能用于一些高风险场景,尤其是在医疗保健、金融和政府等关键领域。

深度学习即深度神经网络(Deap Neural Network),其特征在于无需经过特点人为干预设计就能自主从大量数据中学习并构建规律体系。然而在AI深度学习模型输入数据和输出结果之间,在复杂结构层级的人工神经网络中,是大量人类难以理解的代码和数值,无法准确解释AI在特定情况下做出特定预测的缘由。

这就是很多人听说过的“AI可解释性危机”。

3月23日,《Fortune》在一篇文章中指出,人工智能存在可解释性危机,但它可能不是你想的那样。在其文章末尾更是表达了“当谈到现实世界中的人工智能时,我们应该关心的不是解释而是验证”的观点。

所以,对可解释人工智能的追求有什么问题呢?

“我们认为,通过当前的可解释性方法建立信任的愿望代表了一种虚假的希望:即个人用户或受人工智能影响的用户能够通过审查解释(即特定于该单个决定的解释)来判断人工智能决策的质量。那些使用此类系统的人可能误解了当代可解释性技术的能力——它们可以在一般意义上产生对人工智能系统如何工作的广泛描述,但对于单个决策,这些解释是不可靠的,或者在某些情况下,只能提供肤浅的解释水平。”近日,麻省理工学院计算机科学家Marzyeh Ghassemi,澳大利亚机器学习研究所放射科医生兼研究员Luke Oakden-Rayner和哈佛大学公共卫生学院流行病学系研究员Andrew Beam在医学杂志《柳叶刀数字健康》上发表的一篇论文中写道。

为机器学习决策产生人类可理解的解释的尝试通常分为两类:固有可解释性和事后可解释性。

对于输入数据复杂性有限且易于理解的机器学习模型,量化这些简单输入与模型输出之间的关系称为固有可解释性。比如从一开始就训练AI来识别某种疾病的原型特征,像肺部存在“毛玻璃”图案,然后告诉医生它认为检查的图像与原型的匹配程度有多接近。

这看起来直观简单,但作者发现,这也很大程度上取决于人类的解释——是否选择了正确的原型特征,并在得出结论时对每个特征进行了适当的加权。

即使是固有可解释模型也会因存在无法识别的混杂因素而难以真正生效。更别说在许多现代人工智能用例中,数据和模型过于复杂和高维,不能用输入和输出之间的简单关系来解释。

事后可解释性思路是通过各种途径剖析其决策过程。一种流行的事后可解释性形式称为热图,热图突出图像的每个区域对给定决策的贡献程度,并且具有说明性,常用在医学成像模型中。

图说:用于检测胸部X光肺炎的深度学习模型的事后解释方法生成的热图 (根据深度神经网络,较亮的红色表示重要性级别较高的区域,较深的蓝色表示重要性级别较低的区域)

图说:用于检测胸部X光肺炎的深度学习模型的事后解释方法生成的热图(根据深度神经网络,较亮的红色表示重要性级别较高的区域,较深的蓝色表示重要性级别较低的区域)

但Ghassemi等研究发现,本应解释为什么AI将患者归类为肺炎的热图,即使是图中“最热区域”(最影响判断区域)也包含着在医生看来有用和无用的信息,简单地定位该区域并不能准确揭示模型认为有用区域的确切内容。

“临床医生不知道该模型是否恰当地确定了空域混浊的存在在决定中很重要,心脏边界或左肺动脉的形状是否是决定因素,或者该模型是否依赖于与人类不相关的特征,例如特定的像素值或纹理,可能与图像采集过程有关,而不是潜在疾病,” Ghassemi、Oakden-Rayner和Beam写道。

他们指出,在缺乏此类信息的情况下,人类倾向于假设人工智能正在研究人类临床医生会发现的重要特征。这种认知偏差会使医生对机器学习算法可能犯的错误视而不见。

研究人员还发现了其他流行的可解释性方法的缺陷,如GradCam、LIME和Shapley Values。其中一些方法通过改变输入的数据点,直到算法做出不同的预测,然后假设这些数据点对原来做的预测来说一定是最重要的。

但这些方法与热图有同样的问题——它们可能会识别出对决策很重要的特征,但它们不能准确告诉医生为什么算法认为这些特征很重要。如果这个特征让医生觉得违反直觉,医生该怎么做?断定算法是错误的,还是断定它发现了以前医学未知的临床重要线索?任何一个都有可能。

更糟糕的是,不同的最新解释方法在对算法结论的解释上经常存在分歧。在2月8日发表的《可解释机器学习中的分歧问题:从业者的视角》论文中,来自哈佛大学、麻省理工学院、卡内基梅隆大学和德雷克塞尔大学的研究人员发现,在现实世界中,大多数使用算法的人都无法解决这些差异,而且通常,正如Ghassemi等学者所建议的那样,他们只是简单地选择了最符合他们现有想法的解释。

卡内基梅隆大学计算机科学教授Zachary Lipton在接受《Fortune》采访时表示,“医疗保健领域领域每个认真的人都知道,当今大多数可解释的AI都是无稽之谈。”Lipton表示,在他们的医院部署了一个据称可解释的AI系统来解释医学图像后,已经有许多放射科医生向他寻求帮助,这些图像的解释没有意义——或者至少,与放射科医生真正想要的东西无关。

然而,公司继续将他们的AI系统推销为“可解释的”,Lipton表示,因为他们认为他们必须这样做才能进行销售,“他们说,‘如果没有解释,医生不会相信它。’ 但也许他们不应该相信它。”

根据《英国医学杂志》(The BMJ)2020年发表的一项研究,在最坏的情况下,提供解释是为了掩盖医学成像中使用的大多数深度学习算法都没有受到严格的双盲随机对照试验,而这些实验在新药被批准之前是必须的。

“我们建议可解释AI的最终用户,包括临床医生、立法者和监管机构,要意识到当前存在的可解释AI的局限性。我们认为,如果希望确保人工智能系统能够安全可靠地运行,那么重点应该放在严格和彻底的验证程序上。”Ghassemi、Oakden-Rayner和Beam得出了一个有点违反直觉的结论,即医生不应该专注于解释,而应该关注AI的作用效果,以及其是否经过了严格、科学的测试。

他们指出,医学充满了医生使用的药物和技术,因为它们起作用,尽管没有人知道为什么——对乙酰氨基酚已被用于治疗疼痛和炎症一个世纪,尽管我们仍然不完全了解其潜在机制。 

作者:澎湃新闻记者 邵文
知识产权、免责声明以及媒体合作联系
继续了解
知识产权声明

【知识产权声明】

除本司(指上海东方网股份有限公司)另行声明外,本司网页及客户端产品(以下简称“本网”),包括但不限于东方新闻、翱翔、东方头条等,所涉及的任何资料(包括但不限于文字、图标、图片、照片、音频、视频、图表、色彩组合、版面设计、商标、商号、域名等)的知识产权均属本司和资料提供者所有。未经本司书面许可,任何人不得复制、转载、摘编、修改、链接、镜像或以其他任何方式非法使用东方网的上述内容。对于有上述行为者,本司将保留追究其法律责任的权利。

东方网、东方新闻、翱翔,以上均为本司享有权利之合法商标,未经本司书面授权,任何单位或个人不得使用上述商标,或将上述商标用作网站、媒体名称等。

【免责声明】

1、凡本网注明来源“东方网”或“东方新闻”或带有东方网LOGO、水印的所有内容,包括但不限于文字、图片、音频视频,版权均属本司所有,任何媒体、网站或其他任何形式的法律实体和个人未经本司书面授权均不得转载、链接或以其他方式复制传播。与我司签订有关协议或已经获得本司书面授权许可的媒体、网站或其他任何形式的法律实体和个人,应在授权范围内使用,且必须注明来源“东方网”。其目的在于传递更多信息,并不意味着本司赞同其观点或认可其内容的真实性。如果其他媒体、网站或其他任何形式的法律实体和个人使用,必须保留本司注明的“稿件来源”,并自负全部法律责任。如擅自篡改为“稿件来源:东方网”,本司将依法追究责任。

2、擅自使用东方网名义转载不规范来源的信息、版权不明的资讯,或盗用东方网名义发布信息,设立媒体账号等,本司将依法追究其法律责任。

3、鉴于本网发布主体、发布稿件来源广泛,数量较多,如因作者联系方式不详或其他原因未能及时与著作权拥有者取得联系,或著作权人发现本网转载了其拥有著作权的作品时,请主动来函、来电与本司联系,或与本司授权的中国文字著作权协会联系,提供相关证明材料,我方将及时处理。
中国文字著作权协会联系方式:
联系人:赵洪波 唐亚静
地 址:北京西城区珠市口西大街120号太丰惠中大厦1027-1036室
联系电话:010-65978917
邮 箱:wenzhuxie@126.com

4、本网所有声明以及其修改权、更新权及最终解释权均属本司所有。

【媒体合作】

本司为尊重保护著作权,鼓励有益于社会主义精神文明、物质文明建设的作品的创作和传播,促进互联网良性发展,本着平等互惠、资源共享的原则,诚邀各类媒体、网站、单位、个人与本网建立友好的合作关系。
媒体合作、内容转载请联系
联系人:杨老师
联系电话:021-22899781