1. 首页
  2. 人工智能

如何预防黑客攻击人工智能和机器学习

  阻止勒索软件已成为许多组织的优先事项。因此,他们正在转向人工智能(AI)和机器学习(ML)作为他们的防御选择。然而,威胁者也正在转向人工智能和ML来发动他们的攻击。一种特定类型的攻击,即数据中毒,就利用了这一点。

  阻止勒索软件已成为许多组织的优先事项。因此,他们正在转向人工智能(AI)和机器学习(ML)作为他们的防御选择。然而,威胁者也正在转向人工智能和ML来发动他们的攻击。一种特定类型的攻击,即数据中毒,就利用了这一点。

  为什么AI和ML有风险

  像任何其他技术一样,人工智能是一个双刃剑。YouAttest的首席执行官Garret Grajek在一次电子邮件采访中说,人工智能模型擅长处理大量数据并得出 “最佳猜测”。

  他说:“黑客已经使用AI来攻击身份验证和身份验证,包括语音和可视化黑客攻击。” ““武器化的AI”致力于获取访问密钥。”

  康奈尔大学的研究人员解释说:“专业数据中毒是对机器学习的有效攻击,并且通过将中毒数据引入训练数据集来威胁模型完整性。”

  是什么使通过AI和ML进行的攻击不同于典型的“系统中的错误”攻击?Marcus Comiter在哈佛大学Belfer科学与国际事务中心的论文中说,这些算法存在固有的局限性和弱点,无法解决。

  “ AI攻击从根本上扩展了可用于执行网络攻击的实体的集合,” Comiter补充说。“有史以来第一次,物理对象现在可以用于网络攻击。还可以使用这些攻击以新的方式将数据武器化,要求改变数据的收集,存储和使用方式。”

  人为错误

  为了更好地了解威胁者如何利用AI和ML作为数据中毒和其他攻击的攻击载体,我们需要更清楚地了解他们在保护数据和网络方面的作用。

  问问首席信息安全官,对一个组织的数据最大的威胁是什么,他们往往会告诉你是人性。

  员工并不打算成为网络风险,但他们是人。人是可以分心的。他们今天错过了一个昨天就能轻易避免的威胁。一个急于赶截稿并期待得到一份重要文件的员工可能最终点击了一个受感染的附件,误以为那是他们需要的文件。或者,员工可能根本没有意识到,因为他们的安全意识培训太不连贯,没有留下印象。威胁者知道这一点,并且像任何好的罪犯一样,他们正在寻找进入网络和获取数据的最简单方法。网络钓鱼攻击之所以如此普遍,是因为它们非常好用。

  使用异常行为作为风险因素

  这就是AI和ML恶意软件检测发挥作用的地方。这些技术找到模式并分析用户行为,在其变成问题之前嗅出奇怪的行为。通过应用生成的算法,ML识别出人类不可能做到的异常行为。例如,它可以检测到一个员工的正常工作日或他们的击键节奏,并为不正常的事情设置警报。

  当然,这并不完美。有人可能在正常工作时间之外工作,或者有影响他们打字方式的伤病。但这些工具的设计是为了捕捉一些不寻常的东西,例如威胁者使用被盗的证书。

  充其量,我们可以使用AI通过告诉无监督计算机和网络上真实文件与恶意文件之间的区别,阻止对不良文件的访问来更好地保护网络免受勒索软件攻击。AI可以嗅探影子IT,告诉威胁的授权连接,并深入了解员工使用的端点数量。

  为了使AI和ML成功应对网络威胁,他们依赖于在指定时间段内创建的数据和算法。这样一来,他们就可以有效地发现问题(并使安全团队腾出时间来执行其他任务)。这也是威胁。AI和ML的上升直接导致了数据中毒的潜在威胁。

  了解数据中毒

  有两种毒害数据的方法。一种是将信息注入系统,以便它返回错误的分类。从表面上看,对算法进行毒化看起来并不那么困难。毕竟,AI和ML只知道人们教给他们什么。想象一下,您正在训练一种算法来识别马匹。您可能会显示数百张棕色马的图片。同时,您教它通过看数百张黑白母牛的图片来识别母牛。但是,当一头棕色的母牛滑入数据集中时,机器会将其标记为一匹马。对于该算法,棕色动物就是一匹马。人类将能够识别出差异,但是除非算法指定母牛也可以是棕色,否则机器将无法识别。

  如果威胁行动者访问了训练数据,则他们可以操纵该信息以向AI和ML讲授他们想要的任何东西。他们可以使他们将良好的软件代码视为恶意代码,反之亦然。攻击者可以重建人类行为数据,以发起社会工程学攻击或确定使用勒索软件攻击的目标。

  威胁参与者的第二种方式可以利用训练数据来生成后门。

  黑客可能会使用AI来帮助选择最值得利用的漏洞。因此,可以将恶意软件放置在企业中,在这些企业中,恶意软件本身可以决定攻击的时间以及最佳的攻击媒介。这些攻击(根据设计,是可变的),使得检测起来更加困难和时间更长。” Grajek说。

  攻击者如何使用数据中毒

  数据中毒需要注意的重要一点是,威胁参与者需要访问数据培训程序。因此,您可能正在面对内部攻击,商业竞争对手或民族国家的攻击。

  Bruce Draper博士在DARPA研究项目中写道: “对抗性AI的当前研究重点在于那些无法感知的ML输入扰动可能欺骗ML分类器,从而改变其响应的方法。” “尽管对抗性AI领域还比较年轻,但已经提出了数十种攻击和防御措施,目前还缺乏对ML漏洞的全面理论理解。”

  攻击者还可以使用数据中毒来使恶意软件更智能。威胁参与者使用它克隆短语来欺骗算法来破坏电子邮件。现在,它甚至进入了生物识别技术,攻击者可以在其中锁定合法用户并潜入。

  数据中毒和深度伪造

  深度欺诈是一种数据中毒的水平,许多人预计这将是数字犯罪的下一波浪潮。攻击者编辑视频,图片和录音以制作逼真的图像。因为它们可能被很多人误认为是真实的照片或视频,所以它们是勒索或尴尬的成熟技术。正如科米特指出的那样,在公司层面使用这种方法的一种变体也可能导致人身危险。

  他写道:“人工智能攻击可以在自动驾驶汽车的眼睛上将停车标志变成绿灯,只需在停车标志本身上放几条胶带即可。”

  假新闻也属于数据中毒。社交媒体中的算法已损坏,以允许不正确的信息上升到一个人的新闻提要的顶部,从而取代了真实的新闻来源。

  阻止数据中毒攻击

  数据中毒仍处于起步阶段,因此网络防御专家仍在学习如何最好地防御这种威胁。渗透测试和进攻性安全测试可能会导致发现漏洞,使外部人员可以访问数据培训模型。一些研究人员还正在考虑设计AI和ML的第二层,以捕获数据训练中的潜在错误。当然,具有讽刺意味的是,我们需要一个人来测试AI算法,并检查一头母牛是一头母牛而不是一匹马。

  “人工智能只是攻击者武器库中的又一武器,”格雷厄克说。黑客仍将希望在整个企业范围内迁移,提升其执行任务的特权。持续不断的实时特权升级监控对于帮助缓解是否由AI造成的攻击至关重要。”
责编AJX

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/rengongzhineng/20801.html

发表评论

邮箱地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code