网络安全领导者正面临着生成 A 带来的挑战。随着他们的组织尝试这种可以大幅提高整个企业生产力的变革性技术,他们必须管理生成 A 可能带来的潜在风险和威胁。这些风险和威胁包括意外数据泄露以及黑客操纵 A 执行恶意任务。
约 48% 的高管预计,未来一年内,近一半的员工将使用生成式 AI 来协助日常工作。不过,几乎所有企业领导者 (9,696) 都表示,未来三年内,这项技术的使用可能会给其组织带来安全漏洞。
去年,全球数据泄露的平均成本为 445 万美元,美国为 948 万美元。企业需要降低风险,而不是增加风险。
更糟糕的是,黑客有望采用生成式 A,获得生成式 A 为企业带来的相同速度、规模和复杂性。使用生成式 A1,黑客可以创建更有针对性的网络钓鱼电子邮件,模仿受信任用户的声音,创建恶意软件并窃取数据。
幸运的是,已经投资于机器学习 (ML) 等传统 A1 解决方案以最大限度地利用时间和人才的网络安全领导者可以用 A 进行反击。他们可以使用生成式 AI 工具来保护数据和用户,并检测和阻止潜在的攻击。
这是一件大事。我们创建了本指南,以帮助您为 Peach War 做好准备并利用生成式 AI 的弹性。我们探讨了攻击者可能使用生成式 AI 攻击您的方式,以及您如何使用这些技术更好地保护自己。最后,我们提供了一个框架来帮助您保护整个企业的 AI 训练数据、模型和应用程序。
使用大型语言模型 (LLM),网络犯罪分子可以更快地发起更多攻击,从电子邮件网络钓鱼活动到创建恶意软件代码。虽然这些威胁已经存在,但通过将手动任务转移到 LLM,黑客获得的速度和规模可能会让已经面临持续人员和技能短缺的网络安全团队不堪重负。
人工智能设计的网络钓鱼研究人员证明,使用生成式 A1,只需几分钟即可创建逼真的网络钓鱼电子邮件。他们还发现,这些电子邮件几乎与经验丰富的人类创建的电子邮件一样有效。这些电子邮件非常令人信服,甚至可以挑战准备最充分的组织。
网络钓鱼越多,点击次数越多:尽管精心设计的网络钓鱼旨在实现与人为设计的网络钓鱼相同的目标,但它却成为攻击者加速和增加网络钓鱼活动的工具。这种情况增加了用户误点击恶意电子邮件的可能性。有针对性的网络钓鱼:攻击者可以使用生成式 AI 聊天机器人来研究受害者的在线资料,从而深入了解目标收件人的生活方式。这些聊天机器人还可以生成极具说服力的网络钓鱼电子邮件,模仿目标受害者的语言风格。
深度伪造音频网络安全领导者担心生成式 A1 深度伪造音频的威胁。在这些攻击中,犯罪分子可以将在线获取的说话者声音录音输入 LLM,后者可以生成他们想要的任何音频。例如,他们可以使用公司 CEO 的声音给 CFO 留言,指示他们向攻击者控制的银行账户支付虚假发票。
IBM 已证明攻击者可以实时进行“音频捕获”。IBM 的一名研究人员表示,攻击者可以通过拦截实时通话、实时破坏说话者的声音以及生成可以诱骗听者透露敏感信息(如银行帐号和网络密码)的话语来实现此目的。
这种新攻击方法的术语是“网络钓鱼 3.0”,你听到的可能听起来合法,但事实并非如此。网络安全专业人员可能需要使用个人之间用于确认身份的一系列安全代码来对抗这种形式的网络攻击。这种方法将为员工的生活增加另一层网络安全提醒。
评论(0)