分类
人工智能

智能机器人的伦理问题

——互联网双周评
人工智能很热,两个月前的人机大战中,谷歌机器人Alpha Go与韩国棋手李世石的比赛给人们留下了深刻的印象,据说明年(2017年)将有“高考机器人”参加高考,目标是一本,到了2020年,“高考机器人”的目标则是考上清华、北大。 
机器人高考,不同的读者看到这样的消息反应可能会不一样,之前,我们更多的是从技术能力的角度来认识人工智能,今天,我们换一个角度,从机器伦理的角度来看一看。
【机器能力挑战人类公平】
谷歌机器人(AlphaGo)战胜李世石,当然是人工智能技术的重大突破,但从竞技的角度看,这是一场不公平的比赛,谷歌机器人背后有着数以百计的开发人员,使用着几乎全人类的最优围棋棋谱,这不是一个人对一台机器的比赛,这是一个人对抗整个人类的比赛,不公平是显然的。
高考是另一种“竞技”,是选拔人才的比赛,如果说AlphaGo的出发点并不是“竞技”或赢棋,而是探索围棋棋局中人类未知领域的话,那么,高考则是人类已知知识的检验,“竞技”之外的意义非常有限,当考生连手机带进考场都有失公平的时候,一台满装高考知识库的机器走入考场参加比赛意味着什么?
随着各类智能机器人走入人们生活、工作的各个领域与人一起并肩工作的时候,人们迎来的不是一个个跟自己平等相处的个体,那些机器人不是完全“自主”的,背后会有“主人”的意志,就像一位职场经理人进入一家家族企业,经历了一段压抑的工作之后才发现,原来,各管理线总经理、副总裁、首席财务官等都是老板的亲戚。
如果智能机器人不能秉承“机器中立原则”——而这几乎是一定的,在与机器人一起工作或者生活时,我们将遭遇史无前例的“势利眼”歧视。
【谁替机器的过失负责?】
我们羡慕未来有一天,自己躺在汽车副驾驶上,眯缝着眼睛在城市间穿梭,不用操心在拥堵的马路上不时地踩刹车、加油门,或者,飞驰在高速路上,看旁边人工驾驶的汽车一辆辆被甩到车后,这是想象中智能自动驾驶汽车的场景。
有没有想过,如果我们乘坐的智能驾驶汽车万一,我说的是万一,撞到了其他车辆怎么办?谁来替智能机器的过失负责任?
在由人类驾驶的车辆上,这个责任是清晰的,驾驶员必须替自己的行为负责任,考虑到驾驶失误带来的后果通常比较严重,驾驶员还可以通过买保险来分担责任,保险当然只是分担经济方面的责任,而驾驶员醉驾、闯红灯等法律方面的责任是无法推卸的。
机器智能驾驶的汽车谁来负责任呢?车主吗?乘客吗?显然对车主和乘客是不公平的,制造者?看上去貌似更合理,也显然是不合适的,既然不能要求菜刀的制造商为我们不小心切到手付医药费,也就不能要求汽车制造商为车祸负责任。
比人工智能技术能力突破更让人头痛的问题——机器责任认定——正在到来,如果一辆自动驾驶的汽车不能认定驾驶责任,随着智能驾驶的发展,那公路上奔驰的将是许许多多随时可能袭击他人的导弹。
【人,或者非人】
我们到底是把这些与人能力等同甚至超过了人能力的机器看成人,还是不把祂们当人看?机器人的行为能力已经被大众所熟知,科学家们正在努力让机器人拥有情感,然后,比科学家发明机器情感更加困难的是:我们如何与那些拥有了情感的机器人相处?
一台只会微笑的服务机器人会不会让顾客觉得厌烦,一台比顾客脾气更大的机器人会不会让顾客愤怒,如果顾客意识到,这不是真人而是机器时,会不会有被欺骗的感觉,还能否保持正常的情绪反应?
关于人工智能有一个“恐怖谷”现象,就是,当机器人太过于逼真地象人类的时候,人类会产生反感甚至恐惧,在人类漫长的演化历史中,形成的敌人、朋友,生、老、病、死的一系列认知,在面临人工智能时,都会遭遇困惑,让人接受一个具有人类能力的机器比造一个这样的机器面临着更多的挑战。
当我们走在街道上,给宠物狗狗穿上新衣服、新鞋子,并兴高采烈地唤着“儿子”的时候,狗狗还没有能力与人类的亲生儿子争宠,智能机器却不一样,我们想好了迎接这位“近亲”了吗?