网站搜索

黑客可以以可怕的新方式使用 5 种 AI 技术


人工智能技术可能正在颠覆众多行业,但至少在大多数情况下,从长远来看,我们可以看到它们将如何利大于弊。然而,这些新工具也为不法分子提供了许多新机会。

用于增压网络钓鱼攻击的自然语言 AI

从早期开始,能够理解和产生自然的人类语言一直是人工智能研究的主要目标之一。今天,我们拥有合成语音制作、高度复杂的聊天机器人、自然语言文本生成器以及更多相关的人工智能驱动技术。

这些应用程序非常适合网络钓鱼攻击,黑客伪装成合法实体及其代表,以此从人们那里获取敏感信息。借助这些新技术,您可以让 AI 代理通过电子邮件、电话、即时消息或人类通过计算机系统相互交谈的任何其他方式冒充成群结队的人。

与我们所知道的网络钓鱼不同,这就像涡轮增压的“鱼叉式”网络钓鱼,其尝试针对特定的个人并提供有关他们的信息,特别是为了使骗局更有效。例如,AI 软件可以伪装成某人的老板,并要求将钱存入被称为 CEO 欺诈的网络钓鱼变体中的帐户。

Deepfake 社会工程学

社会工程学是黑客攻击的一种做法,它针对人类心理和行为的弱点,以绕过严格的技术安全措施。例如,黑客可能会冒充环卫工人给重要人物的秘书打电话,询问他们目前的垃圾丢在哪里。然后犯罪分子前往该地点寻找丢弃的文件或其他可以拼凑起来以创造漏洞的线索。

可以复制面部和声音的深度学习系统(称为 deepfakes)已经发展到可以实时使用的程度。在某些服务中,您可以提交自己的声音样本,然后将文字转为语音,听起来就像您一样。原则上,像这样的技术可以用来克隆任何人的声音。然后,您所要做的就是打电话或视频通话,冒充您喜欢的任何人,而公众人物是最容易成为目标的人。

例如,Podcastle Revoice 就是这样一种服务,它承诺根据您提交的语音样本“创建您自己语音的数字副本”。 Podcastle 向我们传递了一份关于它如何解决这些问题的声明:

使用语音克隆进行深度造假和社会工程的可能性很大,这就是为什么公司必须减少滥用的可能性。 Podcastle 的 Revoice 技术可用于创建您声音的数字副本,因此我们有关于如何创建声音的明确指南,以及防止滥用的检查。为了在我们的平台上生成数字语音,用户必须提交包含 70 个不同(即由 Podcastle 确定)句子的现场录音——这意味着用户不能简单地使用预先录制别人的声音。这 70 条录音随后由我们的团队手动检查以确保单个语音的准确性,然后通过我们的 AI 模型对录音进行处理。

更智能的代码破解和自动漏洞发现

人们需要花费数小时的时间来搜索代码行以查找漏洞,以修复它们或利用它们。现在我们已经看到,ChatGPT 等机器学习模型既可以编写代码,也可以识别提交代码中的漏洞,这开启了 AI 编写恶意软件的可能性,宜早不宜迟。

通过机器学习学习和适应的恶意软件

机器学习的关键优势在于它如何获取大量数据并从中提取有用的规则和见解。可以合理地预期未来的恶意软件可能会利用这个通用概念来快速适应对策。

这可能会导致恶意软件和反恶意软件系统有效地成为交战机器学习系统的情况,这些系统会迅速推动彼此达到更高的复杂程度。

生成假数据的生成人工智能

人工智能技术现在可以凭空生成图像、视频、文本和音频。这些技术已经达到专家无法分辨它们是假的(至少一眼看不出来)的地步。这意味着您可以预料到未来互联网上会出现大量虚假数据。

例如,现在可以很容易地发现虚假的社交媒体资料,因此对于知情的受众来说,避免 cat 钓鱼诈骗或简单的机器人活动来传播虚假信息并不难。然而,这些新的 AI 技术可能会生成与真实配置文件无法区分的虚假配置文件。

具有独特面孔的“人”,生成了他们整个虚假生活的照片,独特的连贯个人资料信息,以及由其他假人组成的整个朋友和家庭网络。所有人都像真人一样互相交谈。借助诸如此类的虚假在线代理网络,恶意行为者可以实施各种诈骗和虚假信息活动。

人工智能既是治疗方法也是疾病?

有些人出于恶意尝试和使用任何新技术是不可避免的。新一代人工智能技术的不同之处在于它如何迅速超越人类的检测能力。

具有讽刺意味的是,这意味着我们抵御这些 AI 增强型攻击途径的最佳方法将是其他以牙还牙的 AI 技术。这似乎让你别无选择,只能看着他们决一死战,并希望“好人”能脱颖而出。不过,您可以采取多种措施来保持在线保护、避免勒索软件并发现 Facebook、Facebook Marketplace、PayPal 和 LinkedIn 等流行平台上的诈骗。