机器人伦理学导引

机器人伦理学导引
作者: (希腊)施皮罗斯.G.查夫斯塔(Spyros G. Tzafes
出版社: 北京大学
原售价: 79.00
折扣价: 50.60
折扣购买: 机器人伦理学导引
ISBN: 9787301331422

作者简介

作者简介:施皮罗斯.G.查夫斯塔,1939年生,希腊国立雅典理工大学电子与计算机工程系教授。他从1967年开始涉足计算机控制与自动化领域的研究,国际电气与电子工程师协会(IEEE)院士,英国工程技术学会(IET)院士,《智能与机器人系统杂志》(Journal of Intelligent and Robotic Systems)创刊编辑,Springer ISCA 书系主编。除在智能控制、适应性等计算机科学领域深有研究外,他还关注机器人伦理学,信息、交流的社会影响等哲学话题。 译者简介:尚新建:北京大学哲学系、北京大学外国哲学研究所教授。杜丽燕:北京市社会科学院哲学所研究员。

内容简介

机器人伦理学的一般性讨论 机器人学本身是一个非常敏感的领域,因为机器人比任何可能制造出来的计算机(或任何其他机器)都更接近于人——无论形态上,还是字面上。这是因为机器人的形状和形式,让我们想起了自己。绝对不能脱离当今社会的社会技术考量,独立研究机器人。科学家应该时刻谨记,机器人(以及其他高科技产品)可以影响社会如何发展,许多情况是设计研制时无法预测的。人类关注机器人学的一个重要部分是机器人伦理学。给予机器人的自主性越多,对其道德和伦理敏感性的要求就越多。目前,关于机器人,尤其是具有认知能力(智能)的机器人,尚无特殊的立法。从法律角度看,人们对待机器人的方式与对待其他机器设备和人工产品的方式一样。这或许基于如下一个事实:具有完备智能和自主性的机器人尚未运行,或者,尚未进入市场。不过,许多机器人学家持有一种观点:人工智能和机器人工程迅猛发展,依照目前的速度,很快就需要相应的法律。 正如本章导论所言,阿莎罗(Asaro)指出,机器人伦理学有三个不同的方面: ? 如何设计使机器人的行为合乎道德? ? 人如何必须道德地行事,铁肩担道义? ?理论上讲,机器人能够成为完全的道德行为体(ethical agents)吗? 所有这三方面的问题,必须在机器人伦理学的可行框架下获得解决。因为这三个方面代表不同的面向,表明在包括机器人在内的社会—技术框架下,应当如何分配道德责任,应当如何对人和机器人加 以约束。 对机器人(或其他自主行为体)的首要要求是不得造成伤害。澄清道德行为体的模糊地位,解决人类伦理困境或者伦理学理论问题,是绝对必要的,但只是第二位的。这是因为机器人具有更多的功 能(和复杂性),就必须研发更先进的安全控制措施和系统,防止致命的危险和潜在的伤害。这里需要指出,机器人的危险与我们社会(从工厂到互联网、广告、政治制度、武器等)的其他人工产品带来的危险没有什么不同。正如第 4 章所说,制造机器人为了一个目的,即代替我们承担任务,将人从各类繁重或危险的劳动中解放出来。但是,它们并不能代替我们过日子,也不能消除我们过日子的需求或欲望。许多情况下,工厂或社会的意外事故被归咎于机械缺陷,但是,我们很少将道德责任归咎于机械缺陷。这里,我们要提及美国步枪协会(National Rifle Association)的口号:“枪不杀人,人杀人。”这并不完全正确。实际上,是“人 + 枪杀人”。依照这种观点,在车辆事故中,应该是“人类司机 + 车”的行为体为事故负责。 在机器人伦理学中,承认人的智能与计算机或机器人的智能之间存在着根本差异,至关重要;不然,我们很可能得出错误的结论。例如,我们相信,人的智能是唯一的智能,我们的欲望是获取权力,于 是,我们据此假定,其他智能体系也渴望权力。然而,例如深蓝(deepblue),虽然能够在棋盘上“战胜”世界国际象棋冠军,但是,它绝对不代表任何权力,其程序中亦没有人类社会的任何地盘。 关注机器人,就是关注我们自己的未来。