[转载]机器人的伦理抉择

在战场上命悬一线之际,人们的心智往往为恐惧、愤怒或仇恨所蒙蔽,即使是训练有素的士兵也难免违反日内瓦公约之类的战争法则。科学家认为,在战场上,自动机器人可以作出更符合伦理道德的决定。

道德机器人的必要

经美国军方委托,佐治亚理工大学的计算机科学家罗纳德·艾金(Ronald Arkin)已经开始为战斗机器人编写软件。如今,飞行器、探雷器和传感装置等早已在战场上大显身手,形形色色的飞行器更是成为纵横伊拉克和阿富汗的战场 新秀。不过,艾金及其同事的目标是制造全自动的机器人。他认为,杀伤性自动机器人的诞生只是时间的问题,它不仅成本低廉,而且便于大量生产。根据其研究假 定,机器人在战场上的表现比人类士兵更符合道义。

英国谢菲尔德大学(University of Sheffield)的计算机科学家诺埃·夏基(Noel Sharkey)在专业杂志《创新技术》(Innovative Technology)上撰文指出,战斗机器人的开发应用并不仅仅存在于《终结者》之类的科幻小说中,而是业已成为严峻的现实。不少国家已将武装机器人部 队派往边境,其中包括韩国和以色列。他认为,在其道德判断能力得到证明之前,杀伤性自动机器人都应当被禁止。鉴于这一目标仍是遥遥无期,夏基担心,杀伤性机器人的支持者会利用这项研究来消除反对的声音。

《道德机器:培养机器人的是非观》(Moral Machines: Teaching Robots Right From Wrong)的作者之一,美国印第安纳大学的哲学家科林·艾伦(Colin Allen)亦对此表示赞同,因为如今不少国家正竞相开发自动机器人,这将在世界范围内掀起新一轮的高科技武器竞赛。不过在《道德机器》一书中,艾伦亦强调,尽管追求功能最大化的工程师与伦理学家的目标似乎相悖,然而在某种程度上,提高机器人对于道德决定的敏感度与创建稳定、高效、安全的系统还是可以兼容 的。这是一个应当引起所有人思考的伦理问题。

艾金的研究得到了美国陆军研究办公室信息科学局的资助。科学局局长兰迪·扎克瑞(Randy Zachery)表示,军方希望“基础科学”可以回答以下问题:士兵应当如何使用自动系统并与之进行互动,软件程序如何使自动系统在发挥作用的同时遵守战 争法则。目前,科学家尚未开发出具体的产品或程序,其目标在于为未来的研究奠定基础。

在去年提交给军方的报告中,艾金介绍了战斗型自动机器人的潜在好处:他们没有自我保护的本能,不会变得愤怒或莽撞,亦不会因恐惧而失控。不仅如此,他们还 可避免“情景实现”(scenario fulfillment)所带来的问题——人类更倾向于接受与自身知识体系相契合的新信息。

冷静的“战争助理”

2006年美军卫生局的一次调查为艾金的报告提供了有力的佐证。调查结果显示:只有不到一半的伊拉克驻军认为,应予以非战斗人员应有的待遇和尊重;17% 的士兵将所有的伊拉克公民都视为叛乱分子;超过三分之一的人认为在特殊情况下,虐俘是可以接受的;近一半的士兵表示不会告发同僚的不道德行为。调查人员发 现,被沮丧、愤怒、焦虑等负面情绪困扰或是沉浸在丧友之痛中的士兵更倾向于虐待非战斗人员。

艾金指出,作为“战争助理”,自动机器人可以完成各种危险任务,如参加反阻击战、清除恐怖分子隐匿点等。在类似环境中,机器人通常难以向人类操作者传送声 音或图像,因而无法获得相应的指令。根据计划,他所编写的机器人程序将包括战争法的种种规定以及一些复杂的伦理问题:何时可以向坦克开火,如何区分平民、 伤患、投降者和恐怖分子等等。

艾金的模拟系统在电脑屏幕上呈现为黑白两色。其中“飞行员”拥有人类飞行员可能拥有的所有资料,例如可以显示教堂、墓地、公寓、学校、医院或居民区等地点 的详尽地图,其他信息还包括敌方军队和物质的安置地点。系统将不断发出指令,告知他们在何种情况下发起或完成攻击,并使其进一步明确首要目标。艾金表示, 研究目标即是将战争法的原则和军事实用目的结合在一起。

为此,艾金设计了一种智能环境(intellectual landscape),各种行动都会发生在特定的空间。在响应环境(landscape of all responses)中还存在着杀伤性响应的次空间,后者被进一步细分为道德和不道德的行为空间,如向进攻的坦克发射炮弹属于前者,而向救护车开火则不符 合道义。在某个案例中,一架飞行器在掠过公墓时检测到潜在的攻击目标——一辆坦克。然而与此同时亦有一小群平民在此扫墓。因此,飞行器决定继续前行,此时 它发现田野里停着一辆孤零零的坦克,于是便开火摧毁了对方。

在艾金的机器人系统中,“总督”有着至关重要的地位。其作用相当于蒸汽机上的自动调温装置,可以根据具体情况撤销特定空间内的行动。

例如,在坦克—墓园的案例中,杀伤性的攻击是不道德的,不仅仅是因为墓园这一地点的神圣性,更因为攻击将给平民的生命安全带来极大的危险。而当机器人发现 其他没有风险的目标时,便会采取行动。又如,在公寓楼前攻击一辆载有恐怖组织头目的出租车是符合道义的,因为目标人物至关重要,且平民伤亡风险较低。

“感知算法”与人道原则

然而,部分研究者依然担心,缺乏“情绪”的机器人是否也无法拥有人类的同情心。作为一名虔信上帝和耶稣的基督徒,艾金认为,鉴于日内瓦公约之类的法则是基 于人道原则设计的,将其编入机器人的程序自然也会赋予后者某种同情心。不过,他亦承认,设计相应的“感知算法”(perceptual algorithms)并非易事,该算法可使机器人分辨伤患、持白旗的投降者以及其他丧失战斗力的人员。

尽管如此,艾金依然相信,未来的发展趋势是:机器人对于环境的感知能力将会不断提高,从而获得更大的自主权限。由此观之,引发相关的伦理讨论具有极为重大的意义。艾金还表示,即使杀伤性自动机器人被完全禁止,他也不会感到任何遗憾。

来源:谭薇 机器人的伦理抉择 译自《国际论坛先驱报》

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.