美国智库:2040年AI或引发核战
4月15日,美国兰德公司(Rand Corporation)发布了一项研究报告,并警告称,到2040年,人工智能(AI)可能会发动一场灾难性的核战争。
兰德公司是美国最重要的以军事为主的综合性战略研究机构,它先以研究军事尖端科学技术和重大军事战略而著称于世,继而又扩展到内外政策各方面。在本月的研究报告中,技术人员列出了人工智能的最终目标将是核武器。
自几十年前,各国在核武器的使用问题上达成共识后,世界各地好不容易换来了短暂的和平。那时,每个国家都承认,核武器会给彼此都带来巨大灾难。如今,AI高速发展,一旦它被运用在军事行动中,那各国好不容易换来的和平肯定会被打破。因为,AI领域中,传感技术的提高可能会对潜水艇以及机动导弹等武器造成巨大伤害。
兰德还表示,这甚至会催生“世界末日”的到来,毕竟,使用人工智能发动军事攻击比无人机和所谓的“杀人机器人”的杀伤力要大的多。
到最后,即使原本不想使用发动战争的国家,也会因为想在战争中获得主导权而被迫“先发制人”。
“有些专家担心人们对人工智能越来越依赖,最后可能会引发新的灾难。”兰德公司研究院Andrew Lohn如是说。“但其实各国现在人工智能领域还没有完全成熟,使用它时都会面临巨大的压力。”
未来数十年要保持战略稳定性极其困难,所有核大国必须齐力建造新体系,以降低核风险。
报告还称,另一种令人担忧的情况是,人工智能助手在军事上发出的军事命令好建议有时可能发生错误,而且这种错误还可能是致命的。1983年,发生在前苏联军事指挥官Stanislav Petrov身上的事情就是一个很好的例子。
当时,在战争中,电脑向他们发出紧急警告,警告表示美国向他们发送了几发导弹。但Petrov也没有轻信这个信息向美国发射核导弹,后来事实证明,这个信息确实是错误。而他的伟大举动也拯救了不可计数的生命。
除了糟糕的建议外,这样的系统也容易受到黑客攻击,从而恶意引发第三方发动第三次世界大战的可能性。
尽管尽管如此,有人认为人工智能可以通过提高情报收集和分析的准确性,来提高未来的战略稳定性。专家表示,通过提高监测和分析对手行为的程序,可以减少因计算措施而造成的伤害。
鉴于未来AI的发展空间很大,最终人工智能系统可能会克服一切缺点,以完美的姿态呈现。