你比霍金教授聪明吗?”
作者: 梅雷尔·埃克霍夫 (Merel Ekelhof)
“霍金教授说,不受控制的人工智能可能会导致人类灭绝”,一名中国代表在 2016 年 4 月 11 日至 15 日在日内瓦联合国举行的《常规武器公约》专家会议上就“绘制自主性”问题发表讲话。《常规武器公约》召开了第三次专家会议,继续讨论致命自主武器系统 (LAWS) 领域新兴技术的相关问题,我有幸参加了此次会议。
LAWS 通常被描述为能够在无人干预的情况下选择和攻击目标的武器;会议上讨论的一个关键问题是这到底意味着什么。根据与会大多数评论员的说法,LAWS 尚不存在,然而,使用自主武器进行目标决策的可能性引发了涉及道德和伦理、法律、政策、安全和技术问题的多学科问题。会议讨论了所有这些问题,首先是旨在绘制自主性的技术会议。
小组的六位技术专家没有表达他们对禁令的立场,而是对当前自主武 德国 WhatsApp 号码 器技术的现状和未来发展道路提出了细致入微的看法。中国是第一批回应小组的代表团之一,代表们似乎很吃惊;他们所说的一些内容似乎与霍金教授等人得出的结论相矛盾。中国阅读了未来生命研究所 (FLI) 发布的公开信,该信由数千名人工智能 (AI) 和机器人研究人员以及包括著名的斯蒂芬霍金教授在内的许多其他支持者签署。公开信呼吁禁止超出人类有效控制的进攻性自主武器,声称这些武器将在几年内而不是几十年内实现。这封公开信引起了广泛关注,主要是因为它是由许多知名人士签署的,包括特斯拉首席执行官埃隆马斯克、苹果联合创始人史蒂夫沃兹尼亚克以及前面提到的斯蒂芬霍金教授。
专家小组成员对公开信中的主张和预测提出了一些不同的看法。对此,中国问小组成员“你认为你比霍金教授聪明吗?”许多代表、学者、非政府组织成员和小组成员似乎对中国提出的挑衅性问题感到很有趣。谁敢不同意霍金的观点?幸运的是,一些专家敢于反对。一位小组成员问道:“霍金不是物理学家,而不是人工智能专家吗?”另一位专家自信地说:“是的,我比史蒂芬霍金聪明。”为什么?“因为,像柏拉图一样,我知道我不知道。”这场辩论很有趣,但也有点麻烦。受人尊敬的人物对自主武器系统的讨论有什么影响?我对此思考了几分钟,直到中国代表再次发言。他说的话让我意识到,在这场复杂的辩论中,更高的力量、公众人物、信仰和直觉极大地影响了辩论。该代表开头说道:“霍金……是更高级的知识力量”,言下之意是霍金是不容争论的。
霍金教授和支持 FLI 呼吁的数千名研究人员可能是正确的,但这不是重点。中国代表的言论表明,根据提出这些言论的人的权威地位,某些言论可能被当作真理而不加深思熟虑。如果史蒂芬·霍金真的是一位更强大的力量,能够在一页纸的信中解决自主武器的困境,那么我们为什么还在争论自主武器?我们应该停止争论,只听霍金的吗?