网络中的AI需要复杂的成本与收益分析
新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。
它可能指示攻击或由于攻击而丢失的数据量,这要求监控级别超过人类网络安全专家团队可以达到的级别。威胁和异常检测(TAD)的精确定义是自动化的秘密:在数据集中寻找异常值是模式识别的重复任务。
使用AI来自动化一些网络安全任务具有明显的优势。对这些模式的识别有助于建立一个预测模型,以便在攻击之前进行识别,或者在攻击期间提供决策支持。
这些人工智能应用程序通常可以从无监督学习中收集它们的见解,用于模型开发或神经网络,从而产生非常有前途的结果。然而,他们缺乏为个人决策提供透明解释的能力。
人工智能在网络安全方面有两个主要缺点
自动化给网络安全带来了争议。我们证明自动化的方法本质上需要信任。如果目标是将有价值的人员从重复和耗时的任务中解放出来,那么我们从根本上希望将人员从这些任务中解放出来,这意味着我们必须相信系统会产生比团队负责的结果更好或更好的结果。
有一个基线假设,就是当我们实现自动化的时候,是因为我们相信系统能够令人满意地完成任务。网络安全自动化的很多好处来自于AI应用,长期以来AI应用无法调用信任。
将人工智能应用程序应用于预测性和自动化网络安全为赢得公司和受保护利益相关者的信任带来了两大挑战。
首先,这些预测性网络安全实现中的许多依赖于无监督学习技术或神经网络,目前无法提供人类可读的本地化解释。
其次,这些应用程序还显示出黑客可能利用的新漏洞,从而增加了公司的攻击载体。对人工智能应用程序的攻击有不同于传统攻击的形式。对AI应用的攻击不是窃取有效载荷,而是试图改变或影响AI应用的行为,这对黑客有利。尽管在开发回溯应用的解释模型方面已经做出了努力并取得了一些成功,但是当人工智能用于自动网络安全策略时,仍然不可能建立高信任。
AI在网络安全上付出了代价
这两个方面——AI非常适合很多网络安全任务,而目前在不熟悉的环境中无法信任不熟悉的技术——意味着当信任仍然存在时,我们将无法管理AI。我们需要不同的人工智能管理策略,尤其是网络安全。我们需要不断地监控、基准化、评估和改进这些系统,而不是信任它们。
由于我们不能可靠地相信我们的人工智能网络安全工具提供解释或不受后门攻击或数据中毒的影响,我们必须对用于训练模型的框架保持怀疑,包括输入数据、产生的结果和我们对成功的衡量。
本文就为大家讲解到这里了。