专家警告:AI武器化风险加剧 需“铁证级”安全保障

人工智能(AI)技术日益融入武器系统,全球安全隐忧加剧。AI安全伦理专家、伯克利大学计算机科学教授斯图尔特·拉塞尔(Stuart Russell)强调,各国政府必须要求AI系统提供“铁证级”安全保障,以防止大规模危害人类。
科技巨头态度转变 AI军事化风险上升
法新社报道,拉塞尔指出,美国科技巨头谷歌(Google)近期似乎放宽了其AI武器化禁令,不再严格限制AI在军事与监控领域的应用。这一变化引发广泛关注,他表示:“谷歌员工曾因担忧AI被用于武器而抗议,如今公司决定无视员工和公众的反对声音。”
他认为,谷歌此举并非出于商业利益,而是为了与美国政府加强合作。随着新一届美国政府撤销拜登政府时期的AI监管措施,并大力推动AI在军事领域的发展,科技公司正调整策略,以提升自身在政府合同谈判中的话语权。
AI武器的主要威胁:自动化屠杀与滥用
谈及AI武器的主要风险,拉塞尔指出,小型自主武器系统尤为危险。它们价格低廉、易获取,可能被恐怖组织或非国家武装力量大规模使用,造成毁灭性屠杀。
“例如,AI武器可能被设定执行‘消灭符合以下描述的所有人’这样的任务。目标可能按年龄、性别、族群、宗教甚至具体个人来定义,这将导致前所未有的暴力事件。”
乌克兰战争加速AI武器发展
目前,全球至少75个国家已研发或正在使用远程操控武器,大部分正计划向完全自主武器系统转型。乌克兰战争进一步加速了这类武器的发展,全球各国都在关注其作战表现并加快跟进。
拉塞尔警告,未来的战争可能主要依赖自主武器,而国际社会尚未建立有效的监管框架,这将给平民带来难以想象的灾难性后果。
国际反对声音增强 或推动AI武器禁令
尽管AI军事化进程加速,但超过100个国家已明确表示反对自主武器。拉塞尔认为,联合国大会可能很快会形成多数共识,通过呼吁禁止AI武器的决议。
AI监管亟需升级 保障人类安全
除了武器化风险,AI技术总体发展也面临潜在威胁。拉塞尔警告称,如果AI系统变得比人类更智能,并具备影响世界的能力,人类可能面临生存危机。
“政府必须要求AI系统提供可检查、可验证的安全保障,无论是统计证据还是数学证明,任何低于此标准的措施都将为灾难埋下隐患。”