人工智能系统如何做出对自己决策的解释

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

人工智能经常被提及的挑战之一是,它无法得到关于人工智能系统如何做出决策的充分理解的解释。尽管这对机器学习应用程序(如产品推荐或个性化解决方案)来说可能不是一个挑战,但在需要理解决策的关键应用程序中使用AI将面临透明度和可解释性问题。

斯坦福大学计算机科学系战略研究项目主任史蒂夫埃格莱什(Steve Eglash)在《今日人工智能》(AI Today)播客的一集里分享了他对透明和负责任的人工智能进化的见解和研究。埃格莱什教授是计算机科学系的一名职员。他与一小群人一起开展研究项目,并与大学以外的公司合作。这个小组帮助公司与学生分享想法和技术,并与公司分享技术。在斯坦福工作之前,史蒂夫是一名电气工程师。在这个位置上,他介于技术和科学之间。在进入学术界之前,他还在投资、政府和研究部门工作。

由于AI几乎应用于各个行业和各级政府,深入研究AI用例的机会为斯坦福大学的学生提供了许多探索新领域的机会。充分了解AI的工作原理是非常重要的,因为我们在一系列应用中越来越依赖它的应用。人工智能正在发挥关键作用,例如自动驾驶汽车。在这些情况下,错误可能是致命的,或者会导致严重的伤害。因此,对透明和可解释的人工智能系统进行更深入的研究,可以使这些系统更加可信和可靠。保障自动驾驶汽车等AI技术的安全非常重要。因此,我们需要能够理解计算机是如何以及为什么做出决策的。同时,

很多现代AI系统都运行在神经网络上,但我们只知道它们的基础知识,因为算法本身很少提供解释。缺乏解释往往被称为AI系统的“黑箱”。一些研究人员专注于神经网络工作的细节。由于神经网络的规模,很难检查它们的错误,因为神经元之间的每个连接及其权重都会增加复杂性,这使得事后检查决策非常困难。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。