机器人法则的现实性
目前不少国家开发了智能战场机器人,这些机器人杀手让人们担心《圣经》中描述的审判之日离我们不远,出于对战场机器人的顾虑,不少政府开始更加关注对战场机器人问题,至少距离完全禁止生产机器人杀手迈出了第一步。2013年11月,CCW(《特定常规武器公约》)的成员国同意明年在日内瓦举办会议讨论“致命自主武器”的议题,这个名字是官方的叫法,抗议者们称之为“机器人杀手”。
机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上轰成渣,也不会造成国内悲痛,但同时也人们对战争失去了罪恶感。其实下一代机器人战士可以自行决定目标的生死。CCW提议禁止研发和制造自主机器人的目的并不是抵抗自主机器人。家里用的吸尘器机器人就是自主机器人,CCW真正希望是禁止机器人拥有“杀戮功能”。自主机器人一旦运行就会自主寻找目标并打击目标,打击目标的意思是指杀死目标,把机器人设计成自己选择自己认为合适的目标进行打击,这就是CCW要阻止的。联合国大会此次讨论自主武器将为禁止自主机器人武器迈出第一步,对激光致盲武器的禁令就是这么走过来的,但是这并不能阻止各国对配备自动火力的机器人技术研发。
机器人情感与道德
当人机器人确实也能够人我们生活更加舒适,机器人在关照日益增多的老年人生活起居方面也起着越来越重要的作用,这个问题就更加庞大而长久了。与其害怕机器人残害人类,人类在情感上更依赖机器人,机器人给我们的爱也多的数不胜数。但是机器人领域为数不多的规则之一:机器人由人类制造,机器人必须所言即所想。规则提醒人们某些没节操的制造商会通过机器人宠物或机器人伴侣让人产生机器人有感情的错觉,从中谋取利益。把机器人造的拥有感情,然后觉得有必要给它们套上道德的框架来指导它们的行为,这也许才是人类要面对的最大风险,我们冒险将机器人打造地和人一样——却因此也让机器人更容易忽略人类。
对机器人道德观的思考无可厚非,但是对机器人道德观的争论却忽略了另一个更严重的问题:为什么我们要用这些设备,尤其是在人与人交流的社会关怀领域。