现在的我们比以往任何时候都更需要人工智能
新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。
机器学习模型训练人类行为,善于突出可预测或“正常”的行为和模式。然而,全球疫情的突然到来,在人类行为的一些巨大变化中,已经导致自动化进入“急剧下降”,暴露了我们所依赖的集成系统的脆弱性。
这些漏洞的规模和范围(从库存管理到全球供应链物流的运作)的实现,与我们比以往任何时候都更需要人工智能(AI)的时刻不谋而合。例如,人工智能技术正在启用联系人跟踪应用程序,这可能有助于减少传播。在普遍的测试短缺中,医院已经开始使用人工智能技术来帮助诊断患者。
然而,人工智能在医疗领域的扩展可能会对隐私和公民自由造成深远的威胁。即使AI系统相对精准,但在复杂的社会环境中实施,也会带来意想不到、意想不到的问题,比如过度测试,给患者带来不便,给资源稀缺的医疗机构带来沉重负担。与负责任地开发和实施人工智能技术相关的挑战要求从一开始就采用一套实践、机制和政策。
加州大学伯克利分校长期网络安全中心的一份新报告及时概述了一些负责任地推广人工智能技术的方法。这些技术从监控和文档技术到可以在人工智能开发过程的不同阶段使用的标准和组织结构。该报告包括三个案例研究,可以为其他人工智能利益相关者(无论是公司、研究实验室还是国家政府)提供指导,以应对在不确定时期如何促进负责任的人工智能创新的决策。
第一个案例研究讨论了微软的人工智能、工程和研究中的道德和影响(AETHER)委员会,并强调了将人工智能原则整合到一家主要技术公司中需要什么。众所周知,谷歌试图在一周内解散AI伦理委员会。然而,尽管取得了一些显著的成功,但最初于2018年成立的AETHER委员会相对落后。AETHER在微软内部建立了一个机制,有利于对有争议的AI用例进行结构化审查,从而为高管和员工报告问题、提出建议和制定新的全公司政策提供了途径。
本文就为大家讲解到这里了。