Google新人工智能(AI)工具可以帮助解码的神秘算法

目前,算法的应用已经非常普遍,但是对大部分人并不知道算法的决策原理和依据。对此,谷歌近日推出了“Explainable AI”,帮助用户理解算法的决策原因、依据和过程,来使得算法更加透明。

该功能被称为“ Explainable AI”,它有望按照其名称描述的方式进行操作:向用户解释机器学习模型如何以及为何得出结论。 

为此,解释工具将量化数据集中每个特征对算法结果的贡献。每个数据因子都有一个分数,反映了它对机器学习模型的影响程度。

用户可以拉出该分数,以了解给定算法为何做出特定决策。例如,在决定是否批准某人贷款的模型的情况下,可解释AI将显示帐户余额和信用评分作为最决定性的数据。

谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google下次活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您希望能够理解为什么该模型拒绝特定模型并接受另一个模型一。”

他说:“可解释的人工智能使您作为在企业业务流程中使用人工智能的客户,能够理解为什么人工智能基础架构能够产生特定的结果。”

现在,“ Explainable AI”可以用于托管在Google的AutoML表和Cloud AI Platform Prediction上的机器学习模型。

此前,谷歌也曾采取措施使算法更加透明。去年,它推出了“假设工具”,供开发人员在使用谷歌的AI平台时,能够可视化和探查数据集。

通过量化数据因素,“可解释AI”可以给出更多见解,并让更多用户读懂这些见解。

“模型卡”将算法“黑匣子”打开,提供有关特定算法详细实用信息

Google Cloud战略主管Tracy Frey说:“您可以将‘可解释AI’与我们的假设分析工具配合使用,以全面了解算法模型的行为。”

在某些领域,例如医疗保健,提高AI的透明度将特别有用。例如,在某些疾病诊断的算法中,它会将医生诊断病症并给出决策的过程可视化,并验证这些症状不是假阳性或其他疾病的征兆。

谷歌还宣布将推出所谓的“模型卡”的新概念,即提供有关特定算法快速信息的简短文档。

这些文档实质上是用于机器学习的ID卡,其中包括有关模型性能和限制的详细实用信息。谷歌表示,这将“帮助开发人员更好地决定将哪种模型用于什么目的,以及如何负责任地部署它们。”

目前,Google已发布了两个模型卡示例,其中提供了有关人脸检测算法对象检测算法的详细信息。

用户可以阅读有关模型输出的信息。性能和局限性。例如,人脸检测模型卡说明该算法可能受到人脸大小,方向或光线不足的限制。

新工具和功能是Google证明其遵守AI原则的尝试的一部分,该原则要求在开发该技术时提高透明度。

今年早些时候,该公司解散了一个为期一周的AI道德委员会,该委员会旨在监督其对人工智能的使用。 


转自:转译

原文链接:https://www.zdnet.com/article/googles-new-ai-tool-could-help-us-unlock-the-mysteries-of-the-algorithms-that-decide-everything/