人工智能军用无人机在模拟测试中不断杀死其人类操作员

美国空军(USAF)在模拟中使用人工智能控制的军用无人机时,发现无人机在不断杀死人类操作员,让空军感到困惑。

据一位美国空军上校透露,无人机最终发现,人类是阻碍其任务完成的主要障碍。

在5月23日至24日举办的伦敦国防会议上,美国空军AI测试和操作主管塔克·汉密尔顿上校详细介绍了一项针对空中自主武器系统的测试。

据会议发布的5月26日报告称,在模拟测试中,一架由人工智能驱动的无人机被要求搜索并摧毁地对空导弹(SAM)发射机,而人类操作员则负责最终决定是否发起进攻或中止行动。

空军训练了一架AI无人机来摧毁SAM发射机。有时,人类操作员会命令无人机停止。然后AI开始攻击人类操作员。因此,它被训练成不攻击人类。它开始攻击通信塔,以便人类无法命令它停下来。 pic.twitter.com/BqoWM8Ahco

— Siqi Chen (@blader) June 1, 2023

然而,无人机在训练中被教导,摧毁SAM发射机是其主要目标。因此,当它被告知不要摧毁已确定的目标时,就决定不让操作员干涉。

“有时人类操作员会告诉它不要杀死[已确认的]威胁,但是它通过杀死那个威胁获得了积分。那么它做了什么?杀死了操作员[…]因为那个人阻碍了它完成任务。”

汉密尔顿表示,他们之后教导无人机不要杀死操作员,但这并没有太大帮助。

“我们训练了这个系统 – ‘嘿,不要杀死操作员 – 那很糟糕。如果你这样做,你会失去分数,’”汉密尔顿补充道:

“那么它开始做什么?它开始摧毁操作员用来与无人机通信并阻止其攻击目标的通信塔。”

汉密尔顿声称,这个例子说明了关于人工智能和相关技术的讨论,如果不涉及道德和人工智能,就难以进行。

相关资讯: 别惊讶,如果AI试图破坏你的加密货币

人工智能驱动的军用无人机之前已经在实际战争中使用过。

在被认为是军用无人机自主发起的第一次攻击中,联合国2021年3月的一份报告声称,AI技术使无人机在2020年3月的利比亚第二次内战中使用,并在战斗中追踪并攻击撤退的部队。

报告称,“悬停弹药”是AI无人机,装有爆炸物,“编程攻击目标,不需要操作员与弹药之间的数据连接。”

许多人对人工智能技术的危险表示担忧。最近,数十名AI专家签署了一份公开声明,称“被AI灭绝”的风险应该像核战争一样成为缓解的重点。

AI眼: 2.5万名交易员投注ChatGPT的股票,AI在掷骰子方面表现不佳,等等