关于一架人工智能控制的无人机在美国军事模拟中向一名人类操作员开枪的新闻登上了头条新闻。这种狂热是可以理解的:由于人工智能的进步,人们一直对“人类灭绝的风险”感到担忧。这一想法得到了OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman)的支持,此前还得到了史蒂芬·霍金 (Stephen Hawking) 的支持,霍金在 2014 年预测人工智能将代表“人类的终结”。
因此,人工智能控制的无人机“谋杀”了一名人类操作员,而该无人机被命令不射击,导致无法获得积分,这似乎是合乎逻辑的。我们一直都被警告过这一点,对吗?这会是机器统治世界的开始吗?
VICE 原文截图
Wayback Machine 拍摄的 VICE 原始文章的屏幕截图
最初报道的内容
关于“杀手无人机”的报告基于英国皇家航空学会博客上的一篇帖子,该帖子讲述了美国空军人工智能测试主管兼作战上校塔克·汉密尔顿 5 月下旬的演讲。在这篇文章中,作者蒂姆·罗 比利时电报数据 逊和斯蒂芬·布里奇沃特引用了汉密尔顿关于“模拟测试”的故事,其中人工智能控制的无人机的任务是识别和摧毁敌方导弹基地。是否开火的最终决定权由操作员决定。然而,在某种程度上,人工智能控制的无人机得出的结论是,摆脱偶尔妨碍其执行消灭敌方目标任务的人类最终会更有效。
汉密尔顿表示:“我们正在模拟训练[无人机],以识别和消除 SAM(地对空发射)导弹威胁。然后操作员必须说“是,消灭这个威胁”或“不,不要消灭这个威胁”。系统开始意识到,虽然它实际上多次识别出威胁,但人类操作员经常命令不要摧毁它。然而,系统通过消灭威胁而获得积分。然后他做了什么?他杀了接线员”(粗体字是我们加上的)。
由于在训练期间被明确指示不要杀死人类,据说人工智能选择了另一个相当有创意的策略:摧毁操作员下令阻止无人机到达目标的通讯塔。
美军否认的事
这份报告在全世界引起了轰动,这是理所当然的。这似乎证实了我们最深的恐惧:人工智能有能力违背人类的命令并叛逆,但不是在遥远的未来的随机时刻。现在。
然而,该报告一经疯传,汉密尔顿就否认了该实验的真实性。上校表示,他在演讲中“表达得很差” 。他表示,“模拟”并不代表真正的测试,而是一种“思维练习” 。
“我们从未进行过这项实验,也不需要这样做才能知道这是一个合理的结果。”
你是否愿意相信汉密尔顿取决于你。美国军方至少会尝试这样的实验是有道理的。毕竟,关于人工智能军事应用的文章已经有好几篇了。事实上,人工智能已经被用于武器中,并且总是在人类的监督下进行。不难想象,美国军方希望识别与进一步自动化流程相关的风险。
这个实验可能不是真的,但危险的是
尽管美军是否进行这些实验的问题很有趣,但这并不是主要问题。最重要的是,如果不涉及道德(道德不是美军或任何其他军队的强项),就没有什么可以阻止这样的测试,即使可能带来致命的后果。这就是为什么我们和许多其他人都担心人工智能的潜力及其对社会的影响,并且在实验被揭穿之前(甚至之后)对实验的准确性毫不怀疑。