防止人工智能做出不道德决定的新数学公式

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

英国和瑞士的研究人员发现了一种数学方法,可以帮助监管机构和企业在监管人工智能系统时做出不道德、潜在昂贵和破坏性的选择。

来自华威大学、伦敦帝国理工学院和洛桑EPFL的合伙人、战略公司Sciteb Ltd认为,在没有人为干预决策的环境中,有一种非常强烈的动机,即想知道在什么情况下人工智能系统可能会采取不道德的策略,如果可能的话,发现并降低这种风险,或者完全消除这种风险。

人工智能越来越多地应用于商业环境。例如,考虑使用人工智能来设置要销售给特定客户的保险产品的价格。为不同的人设定不同的价格是合理的,但做出最终损害公司利益的某些决定可能更有利可图。

人工智能有大量潜在的策略可供选择,但其中一些是不道德的。如果监管机构处以巨额罚款或客户抵制你,或者两者兼而有之,不仅会招致道德成本,还会招致巨大的潜在处罚。

这就是为什么这些数学家和统计学家聚集在一起,通过创造一个新的“不道德优化原则”来帮助企业和监管者,这将提供一个简单的公式来估计人工智能决策的影响。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。