a&s专业的自动化&安全生态服务平台
公众号
安全自动化

安全自动化

安防知识网

安防知识网

手机站
手机站

手机站

大安防供需平台
大安防供需平台

大安防供需平台

资讯频道横幅A1
首页 > 资讯 > 正文

腾讯发布国内首份可解释AI报告!层层分析“套娃式”AI算法

报告总共分为五部分,主要内容分别为可解释 AI 的概述、发展趋势、行业实践、对未来发展的看法以及最后总结。
资讯频道文章B

      腾讯刚发布不久的《可解释AI发展报告 2022——打开算法黑箱的理念与实践》,正应验了大厂治理 AI 的迫切性。

     报告链接:https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu


      报告总共分为五部分,主要内容分别为可解释 AI 的概述、发展趋势、行业实践、对未来发展的看法以及最后总结。

       可解释 AI 的概述部分,主要概述了机器学习模型所面临的可解释性挑战,可解释 AI 的意义,可解释 AI 与透明度、问责制,以及可解释 AI 局部和全局可解释的两个维度。

        可解释 AI 发展趋势部分,主要解释了AI的透明性和可解释性逐渐成为立法和监管关注的焦点,对政府公共部门使用的 AI 系统提出较高的透明度与可解释性要求,对商业领域的AI系统在可解释性方面避免作“一刀切”要求,行业积极探索可解释AI的技术解决方案。

        在可解释 AI 的行业实践部分,主要介绍了谷歌模型卡片(Model Cards)机制,IBM 的 AI 事实清单(AI Fact Sheets)机制,微软的数据集数据清单(datasheets for datasets)机制,其他可解释性AI工具以及可解释AI的腾讯实践。

        在第四部分,主要讲述了对可解释AI未来发展的几点看法,包括立法和监督宜遵循基于风险的分级分类分场景治理思路;探索建立合理适度的、适应不同行业与应用场景的AI可解释性标准;探索可解释的替代性机制,形成对AI算法的有效约束;引导、支持行业加强可解释AI研究与落地,确保科技向善;增强社会公众的算法素养,探索人机协同的智能范式。

        作为业内首份AI报告,获得学界和业界专家普遍一致好评。

        在数据隐私保护一块颇有耕耘的微众银行首席人工智能官杨强评价:

        「可解释 AI 是一个庞杂的领域,这份报告起了一个非常好的头,在这个基础上需要开展长期的研究。现在的各种算法还无法在效率和可解释性两方面都达到很高的要求,需要根据不同需要进行取舍。而且 AI 的可解释性是一个长期的问题,不会很快有一个通用的可解释框架,可以在一些比较重要的领域先行探索解决方法,指明未来的发展方向。」

         杨强教授十分关注数据隐私保护的内容,近年来在国内大力推举强调具有「数据可用不可见」特征的联邦学习技术的研究与应用,促进联邦学习框架的开源与研究。去年3月,由微众银行发起制定的国内首个联邦学习标准正式通过 IEEE 认证,构成了国内研究者对数据保护所做的诸多努力中的一环。

         除了杨强,时任南方科技大学计算机科学与工程系系主任、历史上首位获得神经网络最高奖「IEEE Frank Rosenblatt Award」的华人学者姚新教授也对该报告进行了附议。他谈道:

        「对 AI 系统落地来说,透明性和可解释性是必不可少的,研究前景非常好;但 AI 的透明性、可解释性和性能之间存在固有的矛盾,一个可能的方向是根据不同的场景、可解释的目的,寻找不同的折中方案,以此促进 AI 技术的落地。」

         什么是「可信AI」?在去年的一次对话中,姚新教授也曾向 AI 科技评论分享过自己的看法。其中,他提出,检验人工智能是否可信、可落地的一个最直接的方法,就是「研究人员敢不敢用」。比如 AI 制药,如果负责项目的科研人员敢用,那用户对 AI 的信任度也会提高。但事实是如今的许多 AI 产品由于未充分完善,科研人员也是不敢用的。

         由此可见,尽管各大厂开始重视 AI 的治理与落地安全性,但要从技术层面解决当前人工智能模型可解释性差、不够稳定的缺点,还是需要做好打长久战役的准备。

         正如这份报告所指出:

         即使AI系统并非完全可解释,我们也可以利用AI系统来提高决策的透明度。对人类决策的解释,也许不能准确反映出影响人类决策的因素或无意识偏见。实际上,即使 AI 系统所做出的决策并不能被完全解释,但相比理解人类如何做出类似决策,我们也可以更好地理解AI系统在整体上是如何做出决策的。而且,AI的最大价值在于可以在复杂情形中发现、识别超出人类理解的模式( pattern ),因此根据定义,这样的AI系统不会以人类可以理解的方式具有完全的可解释性。就像取得驾照,相信汽车可以安全驾驶,并不需要人人都成为专业的汽车工程师一样,当使用AI系统时,解释并不总是必须的。长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释AI落地方案及相关的保障与防护机制,推动科技问雪。

         只有各界共同正确审视人工智能研究出现的问题,并做出合理的解决方案,才能推动AI技术持久稳定的发展,可解释AI未来发展如何,让我们拭目以待!

参与评论
回复:
0/300
文明上网理性发言,评论区仅供其表达个人看法,并不表明a&s观点。
0
关于我们

a&s是国际知名展览公司——德国法兰克福展览集团旗下专业的自动化&安全生态服务平台,为智慧安防、智慧生活、智能交通、智能建筑、IT通讯&网络等从业者提供市场分析、技术资讯、方案评估、行业预测等,为读者搭建专业的行业交流平台。

免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
© 2020 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法兰克福展览(深圳)有限公司版权所有 粤ICP备12072668号 粤公网安备 44030402000264号
用户
反馈