您可以信任您的人工智能吗
新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。
人工智能是当代最具革命性的技术之一。在技术开始征服世界之前,我们应该预见和明确安全风险和相关问题。这就是为什么与人工智能安全相关的考虑是至关重要的。
一旦新的创新出现,人们就会开始担心安全问题——有时已经太晚了。看看80年代网络发展以来的各种技术进步。网络安全解决方案的发展始于20世纪90年代。从那时起,个人电脑和反病毒软件的时代开始于2000年代。然后,在2010年代,出现了应用和应用安全的热潮。至于人工智能,由于2010年下半年是智能技术的时代,我们很可能会在2020年看到对AI安全的需求。
问题是我们今天应该关心这个可能的未来。发生了很多重大事件,比如特斯拉车祸,发表了数千篇研究论文。我最近发表了几篇技术文章,描述了为什么AI安全目前如此重要,但让我们看看在规划和监管领域已经采取的不同步骤。蒙特利尔和多伦多已经成为人工智能研究的热点。加拿大对道德的重视很快导致了一些最早的国际AI道德原则。在加拿大高级研究院(CIFAR)的领导下,“泛加拿大人工智能战略”于2017年3月22日发布。
接下来是日本。2017年3月31日,日本在“人工智能技术战略”中重点关注人工智能发展的文化和社会层面,将安全列为生产力、健康和移动性四大优先领域之一。
人工智能安全措施
2019年第一季度,美国和欧盟推出了许多AI安全计划:
2019年2月2日:“安全可靠的智能学习系统(SAILS)和人工智能木马(TrojAI)”(美国)
2019年2月6日:“保证AI对欺骗的鲁棒性(GARD)”(美国)
2019年2月:“恶意使用人工智能:预测、预防和缓解”(美国)
2019年4月4日:“可信人工智能道德准则”(欧盟)
2019年6月26日:“欧盟人工智能伦理指南:背景与实施”(欧盟)
这些文档考虑了创建一个强大的机器学习模型来抵御攻击的理论,并研究了可能的人工智能威胁的情况以及防止或更好地减轻这些风险的方法。不同的政策和治理领域适用于人工智能及其实施,包括技术和数据保护。
预计AI安全文档将在2020年和2021年全球发布。可以进行进一步的研究来分析新兴的人工智能安全解决方案和计划。除了了解AI安全计划,我们还需要遵循实施建议,对AI开发人员、网络安全专家和IT团队进行如何在组织中实施AI安全的培训,或者采取AI安全评估等更实际的步骤。
如上所述,倡议的数量正在增加,预计未来还会增加更多。考虑到早期采用者于2017年开始公布策略,并准备在两年后的2019年才展示关于AI可靠性和安全性的详细文档,我们可以预测,许多后来加入AI计划的国家也会以同样的方式行动。
本文就为大家讲解到这里了。