首页 » 早鸟 » 早鸟头条 » 正文

打开黑匣子,谷歌服务_“可解释人工智能xAI”

放大字体  缩小字体 发布日期:2019-12-29  来源:来自互联网  作者:来自互联网  浏览次数:147
导读

· 了解用户心理和行为——将行为模型与统计学习结合在一起,并在过程中生成数据,整合解释 甚至连DARPA也启动了一个完整的程序来构建和设计未来的AI/ML驱动的防御系统的XAI原理和算法。 安德…

全文共3239字,预计学习时长10分钟

全文共3239字,预计学习时长10分钟

图源:Unsplash

对于国外人而言,谷歌是最擅长回答问题的公司,Facebook最初是寻找朋友和家人的最佳场所,亚马逊是最好的购物场所,YouTube是查找任何内容视频的最好地方。

其中,且不论管理方面的诟病,谷歌在全球,无论是科研能力还是创新能力都远远超过了其他企业,一直处于高新科技研发前列,这一点大家都是有目共睹,并心服口服的。 目前,针对人工智能发展大潮流,谷歌已经开始着手为“可解释的人工智能”(又叫XAI)提供一项新的服务。目前提供的工具并不多,但大方向正确。

人工智能具有可解释性

人工智能将提高全球生产力,同时也会改变工作模式和生活方式,创造巨大财富。 据全球领先的信息技术研究与顾问公司Gartner预测,到2022年,全球人工智能经济将从去年的约1.2万亿美元增长到约3.9万亿美元,而麦肯锡认为到2030年全球人工智能经济将达到13万亿美元左右。 人工智能技术,特别是深度学习(DL)模型,正在一个个应用领域用令人瞠目结舌的性能对商业和技术进行革新——图像分类、对象检测、对象跟踪、姿势识别、视频分析、合成图像生成——这些都只是冰山一角。

图源:freelang.blog.sohu

此技术可以应用于医疗保健、信息技术服务、金融、制造业、自动驾驶、电子游戏、科学发现,甚至刑事司法系统等领域。 然而,深度学习与经典的机器学习(ML)算法/技术不同。

深度学习模型使用数以百万计的参数,并且会创建内部表示极其复杂的高度非线性图像或数据集。 因此,我们通常称其为完美的黑盒ML技术。在用大数据集对其进行训练后,可以从中得到非常精准的预测。然而,想利用理解模型将特定图像分类,使其成为一类数据的内部特征和表示方式,还是非常困难。

图源: CMU ML博客

什么是可解释人工智能(xAI)?

顾名思义,很简单,你希望模型不仅能给出预测,还能给出一些解释,解释为什么预测结果是这样的。

但为什么需要呢? 人工智能系统提供可解释功能的主要原因是:

· 提高可读性

· 确定机器所做决定的合理性

· 有助于确定责任和义务,从而做出良好决策

· 避免歧视

· 减少社会偏见

关于这一点仍有很多争论,但人们正在达成一种共识:事后再考虑合理性并不正确。可解释性的目标应该是在核心设计阶段作为一个组成部分构建到人工智能模型/系统中,而不是作为附件。

这里提出一些常用的方法:

· 充分理解数据——使区别特征显示更加直观

· 全面理解模型——激活可视化神经网络层的

· 了解用户心理和行为——将行为模型与统计学习结合在一起,并在过程中生成数据,整合解释 甚至连DARPA也启动了一个完整的程序来构建和设计未来的AI/ML驱动的防御系统的XAI原理和算法。

在核心设计阶段,应将可解释性目标植入到人工智能模型/系统中。

谷歌已推出一项新服务来解决此问题

正如商业分析师和经济学家所预测的那样,谷歌(或其母公司Alphabet)在庞大的人工智能经济的正轨上占有很大的股份。 早在2017年,谷歌就以“人工智能先行”战略而闻名。 因此,谷歌可能感受到了成为行业领头羊的压力,因为他们提供可解释的人工智能服务,使人工智能不再那么神秘,更适合一般用户群使用。

图源:faelecfans

谷歌云:希望引领xAI技术

谷歌在吸引人工智能和多用途语言人才方面处于领先地位,是当今世界信息经济中无可争议的巨头。然而,与亚马逊和微软相比,它的云服务仅排名第三。

图源: Top cloud providers

2019 然而,正如本文指出,尽管传统的“基础设施即服务”战争已经基本上定性,但是人工智能和多用途语言之类的新技术,已经为用户开辟了新的主题、策略和尝试方法。 基于上述思路,本周在伦敦举行的一次活动上,谷歌云计算部门推出了一项新服务,希望能超过微软和亚马逊。 著名的人工智能研究者安德鲁·摩尔(Andrew Moore)教授在伦敦介绍了这项服务。

安德鲁·摩尔(Andrew Moore)教授在伦敦为谷歌云解释人工智能服务发布(来源:谷歌官方博客) “可解释的人工智能是一套工具和框架,帮助你开发可解释和包容性机器学习模型,并有信心对其进行部署。由此,您可以了解AutoML表和AI平台中的特性属性,并使用假设工具直观地研究模型行为。”

伊始——目标限制

最初,目标和范围相当有限。该服务将提供一些有关人脸和目标检测模型的性能和潜在缺陷的信息。

然而,随着时间的推移,GCP希望能提供更广泛的见解和可视性,使人工智能系统的内部工作方式不再那么神秘,让每个人都更加信任它。

人工智能和机器学习这些新技术,为云服务提供商开辟了新的主题、策略和尝试方法。 摩尔教授坦承,谷歌在进入研究可解释性问题的低谷时,人工智能让他们柳暗花明。 “谷歌让我们着迷的一点是,我们会建立准确而实际的机器学习模型,但必须理解它。在许多大型系统中,我们为智能手机、排名搜索系统或问答系统去构建模型,试图理解其内涵。” 谷歌希望通过“模型卡”给用户一个更好的解释。

谷歌人脸检测模型卡(来源:ZDNet)

谷歌曾推出一个情景分析What-If工具,鼓励用户将新的可解释性工具与这个场景分析框架结合起来。 “可以将人工智能的解释功能与What-If工具结合起来,以获得模型行为的完整图像,”谷歌云战略总监特雷西·弗雷(Tracy Frey)说。

谷歌人工智能的What-If工具

目前它是一个免费的附加组件。向AutoML表或AI平台的用户免费提供可解释的AI工具。 总的来说,这似乎是个好的开始。然而,即使是在谷歌内部,也并不是所有人都对xAI充满热情。

更大的问题:偏见

图源:Unsplash

在之前,谷歌研究主管彼得·诺维格(Peter Norvig)就提到过可解释的人工智能, “你可以寻求他人帮助,但是认知心理学家发现,当你这样做时,表示你并没有真正进入决策过程。他们先做决定,接着你提出问题,然后他们就做出解释,这可能不是真正的解释。” 所以,本质上,决策过程会受到心理学的限制,放到机器身上,也不会有什么不同。

我们真的需要为了机器智能而改变这些机制吗?如果做出了改变,对用户来说不合适怎么办? 相反,他认为,应该多加考虑,重视机器决策过程中的偏差和公平性的追踪识别。 要做到这一点,观察模型的内部工作方式不一定是最好的点。我们可以对一段时间内系统所做的所有输出决策进行观察,去识别隐藏偏差机制的特定模式。 对于未来的人工智能系统,比起单一的解释,是否应该更重视偏见和公平呢?

如果你申请贷款被拒绝,一个可解释的人工智能服务可能会弹出这样一个声明:“因为缺乏充足的收入证明,你的贷款申请被拒绝。”。然而,任何建立过ML模型的人都知道,这个过程并不是一维的,做出这种决定的数学模型都是依赖于收集的数据集来得出整体的特定结构和权重,这可能会对社会中某些阶层的人产生偏见,因为在这个社会中,收入和经济问题的流动很重要。

因此,关于此问题的争论应围绕相对重要性展开,也就是说,只需让一个系统呈现出初步的、淡化的解释,并建立一个偏见更少、公平程度更高的系统。

图源:Unsplash

这看似容易,实现起来难度却不小,先不论公平的标准和程度,由于每个人对事物的观点和敏感点不同,加之受天时地利人和、情绪等影响,偏见总会莫名无形而生。想要它趋于零的减少,实现公平真的很难。 还是等等谷歌的下一步操作吧……

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

如需转载,请后台留言,遵守转载规范

 
 
免责声明
• 
本文为会员发布,作者: 来自互联网。欢迎转载,转载请注明原文出处:http://www.zneh.com/znkb/show-219980.html 。本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们。