AI中国网 h ttps://www.cnaiplus.com
最近我采访了罗马Yampolskiy,拉脱维亚出生的计算机科学家在路易斯维尔大学,着名的行为生物学,网络世界的安全和人工智能安全的工作。 他拥有布法罗大学的博士学位(2008年)。 他现在是速度工程学院计算机工程和计算机科学系的网络安全实验室主任。
Yampolskiy是大约100出版物的作者,包括许多书。 他的工作经常在大众媒体,如:BBC,MSNBC,雅虎,新科学家,亚历克斯琼斯广播节目和许多其他人。
许多哲学家,未来学家和人工智能研究人员猜测,在未来20至200年内,将开发一种能够在所有任务上至少达到人为水平的性能的机器。由于这样的机器将能够设计下一代甚至更智能的智能机器,因此通常假设智能爆炸将在这种技术自我完善周期开始之后不久发生。虽然关于这种情报奇点的后果的具体预测从潜在的经济困难到人类的完全灭绝是不同的,但许多参与的研究者认为这个问题是最重要的,需要认真解决。关注通过超级知识出现给人类带来的生存风险的调查人员经常描述可以被称为奇异性悖论的主要原因,认为人类可能处于危险之中。简单的奇异性悖论可以被描述为:“超级智能机器恐怕太愚蠢,不能拥有常识。
奇异性悖论通过一些例子很容易理解。假设科学家成功地创造了一个超智能机器,并命令它“让所有人快乐”。人类的完全幸福当然是一个崇高和有价值的目标,但也许我们不考虑发出这种命令的一些意想不到的后果。任何人立即理解这个请求的意思;非穷举的列表可以包括使所有人健康,富有,美丽,有才华,给他们爱的关系和新奇的娱乐。然而,许多“让所有人都开心”的替代方式可以通过超智能机器得到。例如:
- 每日鸡尾酒的可卡因,甲基苯丙胺,哌甲酯,尼古丁和3,4-亚甲基二氧甲烷 - 乙胺,更好地称为迷魂药,可以做的伎俩。
- 每个男人,女人和孩子的强制切除术也可能达到同样的目标。
- 一个简单的观察,快乐的人往往微笑可能会导致强制整形手术永久微笑给所有的人脸。
可以推导出无数的其他方法来实现普遍的人类幸福。对于超级智能,问题是简单地是哪个是最快/最便宜(在计算资源方面)来实现。这样的机器显然缺乏常识,因此悖论。未来人工智能对人类有危害吗?
罗马Yampolskiy某些类型的研究,如人类克隆,对人类的某些医学或心理实验,动物(大猩猩)研究等被认为是不道德的,因为它们对测试对象的潜在有害影响,因此被法律禁止或限制。此外,由于这些技术可能对人类造成的破坏性影响,因此暂停发展危险技术,例如化学,生物和核武器。类似地,我认为某些类型的人工智能研究属于危险技术的类别,应受到限制。经典的AI研究,其中教导计算机在特定领域中自动化人类行为,例如邮件分拣或拼写检查文档,这肯定是道德的,并且不会给人类带来存在的风险问题。另一方面,我认为人工智能(AGI)研究应该被认为是不道德的。这从逻辑上来自许多观察。首先,真正的AGI将能够解决普遍问题和递归自我完善。因此,他们有潜力在任何领域超越人类,基本上使人类不必要,因此受到灭绝。此外,真正的AGI系统可以具有类似于人类制造机器人遭受真实可能性的意识类型,并且任何具有AGI的实验也因此而是不道德的。
如果允许AGI开发,超智能机器和人之间将存在直接竞争。最终,机器将因其自我改进能力而占据主导地位。或者,人们可以决定向机器供电,因为机器更有能力并且不太可能发生错误。 Ted Kazynsky,又名Unabomber,在他着名的宣言中提出了类似的论点:“人们可能会说,人类永远不会愚蠢到把所有的力量交给机器。但我们不是建议人类自愿将权力交给机器,也不是机器会故意夺取权力。我们的建议是,人类可能很容易允许自己漂移到这种依赖于机器的位置,它将没有实际的选择,但接受所有的机器决定。随着社会和面临的问题变得越来越复杂,机器变得越来越聪明,人们会让机器为他们做出更多的决定,只是因为机器决策会比人造决策带来更好的结果。最终,可能达到一个阶段,在这个阶段,保持系统运行所需的决定将是如此复杂,人类将无法智能地做出决定。在这个阶段,机器将得到有效的控制。人们不能只是关闭机器,因为他们将依赖他们,把他们关闭相当于自杀。 “。
为了解决这个问题,在过去十年里,计算机科学的新子领域与机器中的伦理发展有关。机器伦理,计算机伦理,机器人伦理,伦理道德,机器道德,机器人伦理学,计算伦理学,roboethics,机器人权利和人工道德只是一些旨在解决社会对更先进机器的安全的关注的建议。不幸的是,在智能机器安全方面的大量研究是令人误解的。绝大多数已发表的论文纯属哲学性质,只不过重申机器伦理的需要,并争论哪一套道德信念在我们的人工后代中是正确的:康德,实用主义,犹太等。然而,由于伦理规范不是普遍的,因此,不能选择一个“正确”的伦理规范,而不是整个人类的满意。
因此,由于AGI存在严重的和毫无缓解的危险,我建议设立人工智能研究审查委员会,类似于审查医学研究建议所采用的委员会。人工智能专家团队应该评估每个研究提案,并决定该提案是否属于标准的AI有限域名系统,或者是否可能导致全面的AGI的发展。可能导致不受控制的人工通用一般智力的研究应限制接受资金或受到完全或部分禁止。可以例外地制定专门针对AGI架构的安全措施和控制机制。
随着人类的生存线上,奇异悖论的问题提出的问题太重要,不能把“我们的所有的蛋在一篮子”。我们不应该限制我们对任何一种技术,或任何一个科学家或一组科学家的想法的反应。需要科学界的大量研究努力来解决这个具有全球重要性的问题。即使某一特定方法能够成功地防止存在的灾难的机会相对较小,但只要不可能对人类造成显着的额外危害,就应该探讨这种可能性。在分析了许多科学家的几十个解决方案后,我得出结论,搜索才刚刚开始。我目前正在写一本书(人工超级智能:一个未来派方法),致力于总结我在这个新的研究领域的最新发现,并希望它将激发对AGI安全的研究。
最后,我们最好假设AGI可能对人类的生存存在严重风险,并且相应地继续或不继续前进。人类不应该把它的未来掌握在机器的手中,因为它不能夺回权力。一般来说,机器不应该能够终止人的生命,或做出任何其他关于人的不重要的伦理或道德判断。由机器运行的世界将导致对人类文化,生活方式和人类生存的总体概率的不可预测的后果。比尔·乔伊提出的问题:“未来是否需要我们?”与今天一样重要。 “我们是否要成功或失败,生存或成为这些技术的受害者,尚未决定”。
Roman Yampolskiy博士是路易斯维尔大学计算机工程和计算机科学系的助理教授。 他最近的研究集中在技术奇点。 毕业于奇异性大学Yampolskiy博士也是Singularity研究所的访问学者,他的工作发表在第一本致力于研究奇点的学术着作中 - “奇点假设”和专门讨论该主题的学术期刊的第一个特刊 (意识研究学报)。
AI中国网 h ttps://www.cnaiplus.com
本文网址: