【AI星球(微信ID:ai_xingqiu)】8月21日报道(编译:福尔摩望)
今天,马斯克、谷歌DeepMind联合创始人Mustafa Suleyman以及其他114位AI和机器人专家联名签署公开信,要求联合国禁止机器人杀手的研发和使用。
该团队对致命自动化武器的潜在使用和应用表示关切,并且提供了未来生命研究所发布的一段简短说明。这份公开信是在澳大利亚墨尔本举办的国际人工智能联合会议(IJCAI 2014)上发布的。
“致命自动化武器”指的是在下一代战场上由AI控制的无人机、自动化机枪、坦克和其他形式的武器。马斯克一直以来都对AI的潜力保持警惕,并声称AI是人类文明面临的最大威胁,威胁程度甚至超过了核武器。但是这份公开信则是众多AI和机器人公司首次联合向联合国提出对自动化武器的关切。
联合国“常规武器公约”审议大会一致同意就禁止自动化武器展开正式讨论,目前已经有19个成员国支持机器人杀手禁令。据外媒报道,该团队曾计划于8月21日召开会议,但因某些原因推迟到了11月。
签署这份公开信的公司覆盖26个国家,总价值达到数十亿美元。这份公开信为联合国通过该禁令施加了更大的压力。
这份公开信的大致内容如下:
致命自动化武器正在带来第三次战争革命。一旦发展起来,它们将会带来比以往更大规模的武装冲突,其发展速度也远超人类的理解能力。这些致命武器很可能会被恐怖分子所利用,成为恐怖分子杀害无辜平民的帮手。我们必须立马行动。一旦潘多拉盒子被打开,将再难以关上。
联合签署人Yoshua Bengio是一名深度学习专家,创办了Element AI,他对致命自动化武器可能引起的直接损失表示关切。他认为应该关注AI对战争和武器技术的影响,避免扼杀AI好的一面的发展。
未来生命研究所于2015年发布了类似的公开信,主要由马斯克、霍金等人签署,公开信内容主要是提醒人们警惕AI可能造成的危险。
由于非军事类的AI威胁并不是那么紧迫,所以很多人觉得马斯克的一些言论很夸张、很荒谬。但是正如公开信中所述,致命性自动化武器的破坏潜力已经显现。真心希望联合国会认真听取专家们的意见。