AI中国网 https://www.cnaiplus.com

▲联合国再次向「杀人机器人」说不。
据外媒报导, 4 月9 日,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,专项讨论「杀人机器人」可能带来的影响。据称,此次的会议跟此前韩国科学技术学院宣布开发「杀人机器人」有关。
据了解,今年2月份,韩国科学技术学院宣布将与韩国防务公司Hanwha Systems联合建立一个研究中心,专注于开发应用于军事武器的人工智能(AI)技术,以便在无人控制的情况下搜索并消除目标。
消息一经宣布,就引起来全球众多人工智能专业人士的抵制。上周三, 50 多名来自全球30 个国家的顶尖人工智能研究员向韩国科学技术院发起抵制,他们表示将不再访问韩国科学技术院,招待来自这所大学的访客,或者与它的研究项目合作,直到该校承诺不开发无需人类控制的人工智能武器为止。
发出呼吁的是人工智能研究领域著名的澳大利亚学者Toby Walsh ,近60 名从事机器人研究的专家表示赞同。其中有最著名的Geoffrey Hinton 教授、 Yoshua Bengio 教授和JürgenSchmidhuber 教授。
人工智能迅速发展给社会各个领域带来深远影响,对军事作战系统研发也带来全新理念。然而,人工智能界的专家学者及防务分析人士认为,机器人暴动仅是科幻小说式的终极噩梦,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否,才是人们亟须担忧和讨论的现实问题。
大多数专家学者一直认为,使用致命武器时,人应当是负责启动的关键要素。对什么样的人工控制才是最适宜的讨论还未结束,相关的政策制定又已被人工智能技术的飞速发展甩在身后。随着具有认知能力人工智能系统的出现,更复杂的问题出现了。
新美国基金会研究人员、防务政策分析人士Singer 在其著作《连线战争: 21 世纪机器人革命和冲突》中指出,地缘政治、知识前沿领域不断前进的动力甚至是追求利益的科技企业,都是人工智能发展不可阻挡的力量。简单来说,大部分人现在最感到恐惧的是该不该让能够“思考”的人工智能系统决定是否杀人。
新美国安全中心技术和国家安全项目主管Scharre 表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。自主武器系统的可靠性难以测试,会“思考”的机器系统可能以人类操控者从未想像到的方式行事。
美国国防部前副部长Miller 认为,自主武器系统在战事激烈的地区执行任务,让机器全权负责的诱惑可能会难以抵制,技术上的可能总是让人们作出利于形势的选择。
对于自主武器系统,人工智能界的专家学者频频说「不」,拒绝进行相关领域的研发。例如,韩国科学技术院研制的机器人曾经赢得2015 年美国国防部高级研究项目局机器人挑战赛的冠军。
尽管在遭到抵制数小时后,韩国科学技术院就回应称其「并不打算参与致命武器系统和杀人机器人的开发」。韩国科学技术院校长Sung-Chul Shin 亦表示,该校“相当清楚”人工智能的伦理问题,他「再次重申,韩国科学技术院不会从事任何与人类尊严相违背的研究活动,包括无需人类控制的自主化武器。」并称新的「国防和人工智能融合研究中心」将专注于利用AI 命令和控制系统,对大型无人驾驶潜水器进行导航,以及利用AI 进行智能飞行器训练,追踪和识别物体等。
但发起此次抵制的Toby Walsh 表示,在取消抵制前,他必须与所有签署抵制信的研究员进行沟通。因为目前仍不清楚,当无人潜水艇在水下且无法通信时,人类如何能够进行有效的控制。
反对「杀人机器人」的研发和使用是大部分AI 届人士的共识,在2017 年人工智能国际会议上,有硅谷「钢铁侠」之称的马斯克、苹果联合创始人之一沃兹尼亚克、研发「阿尔法围棋」的深度思维公司哈萨比斯等人,都曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和「杀手机器人」。
联合国此前曾多次开会讨论是否应该封杀「杀人机器人」,但实际上至今都没讨论出个结果来,尽管目前使用的无人机还需要士兵的操作,但随着人工智能技术的进一步发展,它独立操作似乎已不遥远,封杀「杀人机器人」已迫在眉睫。
AI中国网 https://www.cnaiplus.com
本文网址: