Microsoft如何建立对人工智能的信任

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

Azure机器学习自动跟踪数据集的谱系,因此客户可以在中央注册表中维护其机器学习资产的审计跟踪,包括历史记录、培训和模型描述。这为数据科学家、机器学习工程师和开发人员提供了工作流中更高的可见性和可审核性。

会议期间,微软提供了如何使用Azure机器学习中的自定义标签来实现机器学习模型的数据表的指南,以便客户可以改进其数据集的文档和元数据。自定义标签基于微软和AI之间的合作伙伴关系及其关于机器学习生命周期的理解和透明度的注释和基准(About ML)项目,该项目旨在提高机器学习系统文档的透明度和问责制。

微软的另一个关键领域是能够更好地理解机器学习模型、评估和减轻数据不公平的工具。在过去的几个月里,它一直在大量投资不公平和可解释的建模工具。这些领域对于当前的机器学习从业者来说尤其重要。

2019年,微软发布了评估机器学习模型公平性的开源工具包Fairlearn。在今年的Build中,微软宣布将在6月份将该工具包本地集成到Azure机器学习中。

Fairlearn工具包提供了多达15个“公平指标”,可用于评估和重新训练模型。它还提供了一个可视化的仪表板,向从业者展示模型在为客户选择的特定群体(如年龄、性别或种族)方面的表现。随着该领域研究的进展,微软计划增加这些功能。

它还在使用一个名为“解释ML”的工具来解决可解释人工智能(AI)问题,该工具提供了一组交互式仪表盘,这些仪表盘使用各种技术来提供模型的可解释性。对于不同类型的模型,解释性语言可以帮助实践者更好地理解确定模型输出的最重要功能,执行“假设分析”并探索数据趋势。

微软还宣布,将在工具集中增加一个新的用户界面,该界面配备了一套可视化功能,以实现可解释性,支持基于文本的分类和反事实示例分析。

视觉客户的可解释性

人工智能中这些关键领域的新兴性质使得一些早期企业很难理解技术在实践中是如何工作的,尤其是对他们的客户而言。

微软在这方面做了很多视觉上的改进,尤其是对于数据科学家和机器学习工程师来说。在expert ml的演示中,微软展示了零售商如何在他们的行动中应用可解释性,例如支持他们在网站上为消费者提供的人工智能驱动的产品推荐。在客户之间建立AI的透明性和信任是目前该技术面临的最大障碍之一。

事实上,对技术的信任(或缺乏信任)已经成为企业采用机器学习的最大障碍。在2019年的CCS Insight调查中,39%的IT决策者认为信任是采用组织的最大障碍。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。