专家和AI必须共同努力减轻风险

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

美国等政府应该加入GPAI和类似的伙伴关系,开始在AI框架上合作,从而积极应对这一强大新技术带来的未来挑战。

到目前为止,最有前途的AI框架是“流通中的专家(EITL)”的概念,这是一种AI和机器学习的方法,可以将主题专家放在AI决策过程中的关键监管点。

信任AI可以处理人类难以完成的杂务,例如处理大量信息或检查非常大的数据集。一般来说,AI算法还可以管理下一级分析,查找模式,对照现有数据库交叉引用信息,甚至基于复杂的统计模型计算风险。

然后,在EITL模型中,由AI工具生成的见解被交给专家来验证准确性,并进行AI不能(或不应该)进行的高级分析,例如验证拥有最终决定权并被AI标记为禁飞名单的人的身份。

EITL的主要优势在于,协作可以减少错误,降低风险,并提高基于人工智能的判断和决策的透明度。基于人工智能的算法和专家在同一决策中犯同样错误的几率比单独操作时低得多。EITL减少了危险情况,并对人工智能提供了更多的监督。

没有专家驱动的制衡,组织将无法验证或影响人工智能系统的决策。技术领导者一致认为,我们需要智能、灵活且经过现场测试的模板和法律来指导人工智能的开发和部署。我们开始明智地听取他们的意见。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。