历史的尘埃还未完全落定,原子时代的余晖仍在照耀,一个新的技术前沿正在洛斯阿拉莫斯国家实验室迅速展开,引发了对潜在军备竞赛的担忧——这一次,是在人工智能领域。曾经与第一批原子弹的研制工作紧密相连的实验室,如今正大力投资人工智能项目,这让人联想到“第二个曼哈顿计划”。这种活动的复苏不仅仅是科学进步,它与国家安全、大国竞争以及现代战争的演变紧密交织在一起。
历史背景至关重要。在原子弹问世后,美国曾短暂地享受过技术垄断的地位。然而,仅仅四年之内,苏联科学家就实现了技术上的对等,从而引发了冷战时期的核军备竞赛。如今,当分析人士和政策制定者努力应对人工智能的潜在影响时,这段历史先例再次被提及。人工智能技术的发展速度之快,再加上其在防御和进攻方面的潜力,引发了人们对类似情景重演的焦虑。然而,目前的情况有所不同,潜在应用的范围之广令人惊叹。与相对集中于核武器发展的目标相比,人工智能几乎渗透到现代生活的方方面面,从经济系统到社交媒体,这使得对其进行控制和监管变得更加复杂。洛斯阿拉莫斯最近安装了Venado超级计算机,并投入数百万美元用于人工智能研究,这凸显了实验室对这一挑战的重视程度。
将人工智能融入国家安全的努力并不仅限于洛斯阿拉莫斯。一位26岁的技术大亨亚历山大·王最近与五角大楼官员进行了会谈,讨论了美中人工智能军备竞赛及其影响。这凸显出人们认识到,人工智能不仅仅是一个技术问题,而是地缘政治战略的核心组成部分。关注的重点不仅仅是匹配或超越对手的人工智能能力,还包括理解人工智能如何从根本上改变战争的性质。这包括开发用于增强情报收集、自主武器系统和改进网络安全防御的人工智能驱动系统。此外,实验室正在积极探索人工智能如何“超级充电”原子研究,从而可能推动核武器安全和库存管理方面的进步。 OpenAI 和洛斯阿拉莫斯之间的这种合作虽然在安全增强方面很有希望,但却唤起了人们对科幻场景的联想,引发了人们对潜在的意外后果的伦理担忧。在钚坑生产方面的巨额投资——30 年内超过 600 亿美元,仅洛斯阿拉莫斯的核武器项目最近的预算就为 35 亿美元——表明了维护强大核武库的决心,人工智能越来越被视为这项工作中的关键工具。
然而,将核武器与人工智能进行比较并不完全恰当。与人工智能相关的风险,特别是与超级智能人工智能相关的风险,在性质上有所不同。虽然核武器通过直接的破坏构成生存威胁,但来自人工智能的风险更为细微,并且可能更具隐蔽性。人们的担忧包括从算法偏差和意外后果的可能性,到自主武器系统将冲突升级到人类无法控制的程度。新兴的人工智能使能工具领域已经导致了人员受伤,甚至死亡,促使人们讨论对人工智能开发商和制造商实施严格责任。此外,围绕有效利他主义及其对新兴技术安全的影响的辩论表明,即使是出于良好意图加速人工智能发展的努力,也可能产生意想不到的、潜在有害的影响。全面禁止核试验条约(CTBT)已进入第 30 个年头,这也突显了军备控制机制在全球迅速拥抱新技术的背景下所扮演的日益衰弱的角色。关于是否应该与潜在的对手(如俄罗斯或中国)共享通用人工智能 (AGI) 的问题,进一步使局势复杂化,并提出了深刻的地缘政治问题。
总而言之,洛斯阿拉莫斯的情况反映了一种更广泛的全球趋势:人工智能与国家安全的融合。实验室对人工智能的重新关注,反映了其在核武器发展方面的历史作用,预示着一场潜在的新军备竞赛。虽然与核时代的相似之处具有启发意义,但人工智能的独特特征——其普遍性、可能造成的意外后果以及它所带来的伦理困境——要求采取谨慎和细致入微的方法。挑战不仅在于开发和部署人工智能能力,还在于建立健全的保障措施、促进国际合作,并确保这项强大的技术被负责任地使用,以增强而非危害全球安全。在世界驾驭这一新的技术前沿之际,必须吸取过去的教训,尤其是冷战军备竞赛的迅速升级。
发表回复