您现在的位置是:首页 >宏观 > 2021-06-04 18:39:37 来源:

Facebook的Captum为机器学习带来了可解释性

导读 Face book今天推出了Captum,这是一个用深度学习框架Py解释神经网络决策的图书馆。 Captum旨在实现AI模型的最新版本,如集成梯度、深度LI

Face book今天推出了Captum,这是一个用深度学习框架Py解释神经网络决策的图书馆。 Captum旨在实现AI模型的最新版本,如集成梯度、深度LIFT和行为。 Captum允许研究人员和开发人员解释在多模态环境中做出的决策,这些环境结合了文本、图像和视频,并允许他们将结果与图书馆内的现有模型进行比较。

开发人员还可以使用Captum来理解特征重要性,或者对神经网络进行深入研究,以了解神经元和层属性。

该工具还将推出CaptumInsights,这是一个可视化工具,用于对Captum结果进行可视化表示。 Face book在一篇博客文章中说,Insights的推出支持了集成梯度,并支持了即将推出的更多模型。

Py Torch的产品经理乔·斯皮萨克在接受Venture Beat Ina电话采访时表示:“还有其他一些图书馆更注重上下文,但深入学习确实是最难解决的难题,因为要解释这种模式的实际想法,可以这么说,特别是在这些多式联运技术问题上。

这个消息今天在旧金山中途举行的火炬开发者大会上公布。

今天的其他新版本包括带有量化和GoogleCloud TPU支持的Py火炬1.3、从Android和iOS设备开始的嵌入式设备的Py火炬移动,以及对象检测模型检测器2的发布。

在今天开放源码之前,Captum在Face book内部被使用,以更好地理解在多式环境中做出的决定,Spisak说。

“你可以看任何Face book页面,它有文本,它有音频,它有视频和链接,还有许多不同类型的模式嵌入。 因此,我们基本上是从这个前提开始的,我们想了解为什么模型预测他们预测的是什么,但我们想以一种视觉的方式来做,这给了用户一种直觉,以及具体的统计数据和信息,让他们能够自信地说,这就是为什么模型正在进行这种预测,“他说。

解释性,即理解人工智能模型为什么做出决定的能力,对于开发人员能够传达模型为什么做出某种决定是很重要的。 它使人工智能能够应用于需要解释的企业,以符合监管法律。

缺乏理解深度学习所做决定的能力使“黑匣子”这个词流行起来。

在今年夏天与Venture Beat的KyleWiggers的一次谈话中,OpenA ICTO GregBrockman和首席科学家IlyaSutskever建议,未来的模型制作应该以解释性和理性为基础。

今年发布的其他帮助解释人工智能推理的工具包括IBM的人工智能解释360工具包和微软5月份发布的解释ML。