[转载]机器人能做出伦理选择么?

高智能化的机器人能做出伦理选择么?又为什么不能呢?人工智能的发展已经使得人们迫切需要面对这个问题,而这将不再是一个轻松的谈资,它将现实地出现在人们眼前。

机器人和计算机通常是自动的,也就是说,不需要人类的干预。然而,一部自动化的机器有可能做出与人类价值取向相符的伦理选择吗?

这个问题引发了对机器伦理道德的讨论。从实践角度出发,一个机器人或一台计算机能被设定成依据伦理规范来运作吗?一部机器能被制造成有道德的吗?

艾萨克.艾西莫夫的著名奠基性作品《机器人规范》就试图将伦理行为加之于自动化的机器身上。而在诸如1982年的电影《银翼杀手》之中,我们也能见到关于 此类伦理行为的探讨:当复制人Roy Batty有机会除掉他的敌人——人类侦探Rick Deckard时,Batty却选择救了他。

最近发表在国际期刊《理性智能系统》上的一篇论文描绘了一种方式,它使得计算机通过一系列假定的伦理选择而能够有希望计划未来。

这篇论文《伴随着未来逻辑的模拟道德》,出自于葡萄牙新里斯本大学的 Luís Moniz Pereira和印度尼西亚大学的Ari Saptawijaya之手。两位作者宣称伦理学不再是人类哲学家们的独占领域。

Pereira和Saptawijaya认为他们既成功地模拟了存在于“电车问题”之中伦理困境,又成功地创造了一个机械系统,它能做出与人类价值取向相一致的伦理选择。

背景:有一辆电车,它的驾驶员晕了过去。这辆车正冲向有着五个行人的轨道,而站台太高使得这些人不可能及时脱离险境。

旁观者情境:汉克正站在电闸旁边,他可以扳动开关使电车驶向平行的另一条轨道,从而避免杀死五个人的惨剧。然而,那条轨道上却立着一个背对电车的人。汉克可以扳动开关杀了他,或者选择让另外五个人死。

伦理是否允许汉克去扳动开关?

你怎样认为?就这个问题在各种文化中展开了大量的调查。越过文化樊篱而言,大多数人都认为扳动开关以挽救更多的人是符合伦理要求的。

这里还有另一种情境,在同样的背景之下:

人行天桥情境:伊恩站在轨道上方的人行天桥上。他旁边有一个重物,他可以把它推下去堵塞轨道从而阻止电车继续前进,这样就能挽救那五个人的性命。可这重物是个男人,正背对着伊恩。伊恩可以把他推下去让他去死,也可以不这么做,而让另外五个人死。

伦理是否允许伊恩把这个男人推下去?

你又怎样认为?就这个问题同样也在各种文化中展开了调查,却得到了相反的答案:伦理不允许这么做。

现在,我们有了两个案例,人们做出了相反的伦理判断。自动化机械系统或是机器人有可能也做出同样的判断吗?

论文的两位作者宣称他们已经成功地在计算机逻辑中模拟了这类复杂的伦理问题。通过分解人们在进行伦理判断时所使用的潜规则并使用未来逻辑程序在计算机中进行模拟,他们完成了这项业绩。

在文学作品中,机器人的伦理困境与机器人这个概念相伴而生。在1921年捷克剧作家Karel Capek的话剧《罗素姆的万能机器人》的尾声中,机器人的伦理行为(自我牺牲)就出现了。而这部话剧也创造了“机器人”这个说法。

科幻作家们不断地给我们灌输了这样的观念,自动化系统也再不仅仅只是科幻小说中的事物了。举例而言,掠食者那样在战场上的机械系统已经被赋予了高水平的自动化能力。它们是否也应该在何时开火的问题上被允许自作主张呢?

H-II运载飞船——一架完全自动化的太空飞行器,在上个星期刚刚由日本空间机构JAXA发射升空。人类在空间站中是否应该由自动化的机械系统来安排生存必需品,比如食物,水及其它?

最终,我们将不得不调和机械系统的便利和它们的行为后果。我们必须充分利用科幻小说家们给我们创造的时间来思考自动化机器人和计算机的道德伦理问题,离做出决定的日子并不远了。

来源:

翻译:泠芷汀兰. 机器人能做出伦理选择么?

原文:Bill Christensen. Can Robots Make Ethical Decisions?

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.