建立负责任的AI系统并非始于技术团队

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

马尔科姆马尔科姆格拉德威尔在他的书《与陌生人交谈》中讨论了一项人工智能实验,该实验研究了纽约法官进行的554689次保释听证会。正如一份在线出版物指出的那样:“在被释放的40万人中,超过40%的人没有出现在随后的审判中,或者因另一条线而被捕。”但是,扣留或释放机器学习算法推荐的对象的决定将导致减少25%。这是一个比人类偏见更少的人工智能系统的例子。然而,情况并非总是如此。

人工智能系统越来越多地用于决策。例子包括刑事司法、信贷/贷款、招聘、教育和临床诊断。在AI出现之前,联邦、州和地方法律主导着这些决定,因此它们是公平、透明和公正的。由于AI算法是从大量数据中学习出来的,因此AI构建的机器学习模型会放大数据中的一些固有偏差。这就导致了道德上合理的人工智能系统的问题,其输出不会覆盖人类的判断。

联合国教科文组织将“道德人工智能”定义为“尊重人权和基本自由应被视为基本价值观之一,因为人工智能技术必须根据国际人权标准进行开发、部署和采用。”提到的其他原则包括关于歧视和偏见的包容性大赦国际,以及保障社会和文化多样性、不同价值体系、不同年龄组、残疾人、妇女和女孩以及弱势、边缘化和弱势群体的特殊需求。

人工智能和机器学习的快速发展不仅提供了创新的解决方案,也给理解和确定系统的道德意义带来了挑战。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。