即将到来的AI大战

  • A+
所属分类:流行资讯

即将到来的AI大战

伊隆·马斯克(Elon Musk)表示,无论哪个组织管理“掌握”人工智能,都将获得全球控制权。这不仅是夸张。如果没有适当的保护措施,真正自主和自学的人工智能将能够通过我们超链接的数字世界自由移动,适应新的数字环境,调集前所未有的资源,并获取几乎任何数字资源。

这听起来像是一部科幻电影,但是越来越多的专家看到人工智能带来的真实风险,特别是在一个连通性超过安全性的世界里,他们呼吁制定法规和控制措施。当你把这看作是白帽和黑帽战士之间的军备竞赛的时候,尤其如此。

部分风险与AI系统能够学习的方式有关。高度监督的孵化器花了数年精心培养的人工智能与战略学习任务,旨在教导它以可预测的方式执行特定的任务。一旦完成,这些系统被释放成一个“Centaur模型”,人类与自动化和人工智能一起工作。这样,随着AI系统变得更加精密,可以对系统进行监控和修正,然而,网络罪犯并没有仔细的训练这些。他们在开发基于AI的攻击时可能使用的无监督学习模型,其发展速度比可预测性更重要,这是特别危险的,可能具有破坏性。今天,许多网络犯罪分子经常将攻击的迭代作为开发周期的一部分。由于这种“real world”的测试方法,我们经常观看版本的攻击变得更加精炼和有效。然而,当快速发展的自我学习和基于人工智能的攻击系统在无人监管的情况下被释放时,事情很可能很快就会发生。

在未来的几年里,即使只有基本的人工智能,我们也将看到网络犯罪工具开始利用自动化的漏洞检测和复杂的数据分析,根据完全由机器编写的目标系统的独特特性开发定制的漏洞。这是已经存在的技术的自然演进。随着这些技术变得越来越复杂,攻击方法变得越来越智能化和自主化,组织乃至民族国家都将面临潜在的重大损害,而这些损害是不可阻挡的。

例如,目前的多态恶意软件已经存在了数十年。它已经使用预先编码的算法来采取新的形式来逃避安全控制,每天可以产生超过一百万个病毒变种。但是到目前为止,这个过程只是基于一个算法,而对输出的复杂性或控制却很少。然而,围绕AI构建的下一代多态恶意软件将能够自发地创建全新的自定义攻击,而不仅仅是基于静态算法的变体。相反,他们将采用自动化和机器学习来设计自定义攻击,以快速破坏目标系统。最大的区别是纪律和主动性的结合。

我们不是在谈论未来的愿景,也不是在路上。我们已经看到了利用自动化前端挖掘信息和漏洞的攻击,并结合基于AI的分析来关联大量被窃取的结构化和非结构化数据。当然,这些策略需要大量的计算能力。这就是为什么网络犯罪分子也瞄准云服务和公共基础设施来启动和管理他们的攻击活动。现在许多网络犯罪组织正在使用高性能计算(HPC)进行CPU密集型攻击,比如硬币挖掘或云密码破解。他们还使用分布式计算和处理模式来自主发现和了解安全系统的薄弱环节。

 

不管喜不喜欢,这都是赢家通吃的比赛。一旦这个比赛进入下一个复杂的水平, 现在没有准备好的组织可能无法赶上。

牧某人

发表评论

您必须登录才能发表评论!