查看原文
其他

霍斯特•艾丹米勒:机器人的崛起与人类的法律

霍斯特•艾丹米勒 大数据和人工智能法律研究院 2020-02-27

点 击 蓝 字 

 欢 迎 关 注 

      机器人的崛起和“机器人法律”的出现引发了一些重要问题。以无人驾驶汽车的场景为例(这些穿梭在公路上的机器人极有可能会给我们的日常生活及商业带来革命性变革),可以从法律上得出如下观点:其一,机器人规制必须要针对特定机器人以及具体场景而定。这就要求对特定领域的“机器人行为”产生的微观与宏观效果有深刻的认识。其二,(完善的)现有法律类型能够被合理地应用并对机器人予以规制。其三,机器人法律受到社会“深层次规范结构”的影响。其四,如果该结构是实用主义的,那么在不远的将来,智能机器人就会被当作人类来对待。那就意味着,智能机器人应当被赋予法律人格,并因此有能力取得并持有财产以及订立合同。其五,反对将机器人像人类一样对待的理由源自于认识论与本体论层面。


Henri Matisse



 机器人的崛起与人类的法律 


文 / [德] 霍斯特 · 艾丹米勒    译 / 李飞  敦小匣




目次

1

人工智能与法律

2

多种多样的机器人与机器人的特征

3

规制无人驾驶汽车

4

将智能汽车(机器)像人一样对待

5

反对将机器人像人类一样对待的案例

6

未来(政策)之路



人工智能与法律

一旦有法律人士参与到一场讨论中,该话题的有趣部分往往就结束了。工程师与计算机专家在这方面有过之而无不及之。在本文中,我将探讨的是机器人与法律。因此,受主题所限,本文的娱乐前景可能有限。然而,法律与人工智能(AI)的互动却会提出一些令人激动且颇为重要的问题;同时,这些问题的答案无疑将会在未来数十年影响人类的命运。

人工智能正在快速地影响着我们的生活及工作方式。随着人们的日常工作(包括手工操作及认知层面)变得越来越自动化,预计到2025年,将会有大约三分之一的传统职业被机器人(内含人工智能[1])所取代。[2]法律将会决定人工智能的未来,比如,法律将决定人工智能允许使用的领域,新产品和新技术的成本,以及其他方面。此外,对人工智能的最初监管决定将至关重要,这些决定可能会创建路径依赖关系,并使日后更改管理过程变得困难。

规制人工智能将会充满挑战与困难。毕竟,法律是——并且始终是——由人类制定并服务于人类的。想想那些基础概念吧,比如“人格”与“法律人格”。历史上,这些概念都与人类(即自然人)有关。因此人工智能将会对法律体系产生影响:我们要如何对待机器人?我们要赋予它们法律人格吗(使它们有权取得并持有财产、签订合同等)?[3]

在本文中,我将尝试回答这些问题以及由于机器人崛起和“机器人法律”出现而引发的其他重要问题。本文的主要论点如下:

(1)机器人规制必须要针对特定机器人以及具体场景而定。这就要求对特定领域的“机器人行为”产生的微观与宏观效果有深刻的认识。

(2)(完善的)现有法律类型能够被合理地应用并对机器人予以规制。

(3)机器人法律受到社会“深层次规范结构”的影响。

(4)如果该结构是实用主义的,那么在不远的将来,智能机器人就会被当作人类来对待。那就意味着,智能机器人应当被赋予法律人格,并因此有能力取得并持有财产以及订立合同。

(5)反对将机器人像人类一样对待的理由基于认识论与本体论层面。这些观点都关系到机器是否能思考(它们不能)以及成为人类意味着什么。

我将主要以无人驾驶汽车的场景为例来阐述这些论点——这些穿梭在公路上的机器人极有可能会给我们的日常生活及商业带来革命性变革。[4]然而,为了阐明机器人给我们的社会结构带来的巨大的潜在影响,我会举出更广泛的例子予以说明。



多种多样的机器人与机器人的特征

1. 机器人的应用

目前,在机器人的诸多发展领域中,对无人驾驶汽车的讨论最多。[1]事实的确如此,大多数汽车制造商都在试验无人驾驶汽车,这些汽车现已在世界各地的公路上进行测试。[2]谷歌似乎在这一领域一直处于领军地位。[3]谷歌汽车的一个重要特征是其不断旋转的车顶摄像头,这个摄像头可以发射出64组激光柱并形成物体的3D影像,使汽车能够自我定位。这种汽车的驾驶行为由复杂的软件控制。

机器人另一个重要的应用领域是医学界。例如,型号只有1-10/1,000,000毫米大小的纳米科技医疗机器人的模型已经问世。[4]这些纳米科技机器人将在病人的血液中穿行并进入肿瘤,通过驱除一种重要的癌症基因来进行治疗。

机器人也开始应用于金融及金融咨询产业。“机器金融顾问”的问世,可能会以其低成本、自动化投资的优势对经济业务进行重组。[5]比如,瑞银集团(UBS)最近宣布,其所属的美国财富管理机构的顾问将会利用机器人为资产雄厚的客户提供服务。[6]这项技术已由一家位于圣弗兰西斯科的新兴公司开发出来,公司的7,000多名顾问将使用这项技术,这家名为SigFig财富管理(SigFig Wealth Management)的公司是一家发展迅速的机器顾问生产商。[7]

最后,人工智能也将会从根本上改变法律职业。[8]实际上,人工智能系统已开始辅助解决(自动化的)纠纷案,[9]而且,“机器人律师”也开始登上舞台。例如,2016年,美国一家律师事务所雇佣了世界上第一个名为(BakerHostedler)的人工智能律师,这个被认证为ROSS-Intelligence的“机器人律师”应用于破产重组与债权人权利保护部门。[10]“机器人律师”主要应用于文件检索和查找归类方面。[11]在英格兰,预测编码(为查找文件进行的分类)最近在2016年5月17日的Brown vs BCA Trading一案中得到了高等法院的支持。[12]“机器人律师”还将应用于(在线)起草法律文件,[13]同时以区块链技术为基础的“智能合约”(smart contracts)将指日可待。[14]

人工智能还会以“机器人法官”的形式出现。基于一组150,000例重罪案件组成的数据,Kleinberg等人研究发现,基于机器学习(machine learning)预测的释放裁决(尚悬而未决的案件)将会在不增加犯罪率的前提下,减少25%的监狱人数,或者在不改变监狱人数的情况下降低20%的犯罪率。[15]总之,机器人律师和机器人法官似乎会在诸多方面带来显著的正面影响,如使法律咨询费用更合理,作出的审判更准确,并使多数人群获得司法公正的机会。

2. 机器人的特点

就上述讨论的例子而言,某些“机器人特征”对考虑机器人的规制很重要。正如前面提到的那样,机器人是表现人工智能的一种形式,其组成部分包含了一个传感器或其他的输入机制、一个起控制作用的运算法则以及对外界作出回应的能力。[16]这三个特征一起组成了所谓的“感应-思考-行为范式”。[17]传感器或其他输入机制可以从多个源头获得感应,就如同“网络汽车”(networked cars)那样。[18]如上所述,网络汽车会利用摄像头、来自GPS的交通数据,以及来自互联网的地理数据。

智能机器人具备机械学习的能力,例如,它们不但可以利用海量的现有数据,并且还能利用来自实践的数据以及其他新信息去调整它们的行为。[19]因此,在一种程度上,这些机器人被刻意设计得变幻莫测。[20]一个有趣的问题是,在某个时候,机器人能否达到超人(super-human)的智力水平。[21]这种想法常被归结为“奇点”(singularity)。[22]机器人可能会获知它们是怎样被人类控制的,并实现自我控制。但就目前而言,关于“奇点”的争辩还更多地停留在学术(以及虚构的)层面,而非现实层面。

在各种形态的机器人当中,一个重要的子类别便是“社交机器人”(social robots)。[23]这种机器人是专门设计出来与人类互动的,这类似于那些具有人类特征的儿童玩具。[24]研究已经确认了“社交机器人”的“社会价值”:人类把拟人化的机器人当成人类一样对待。[25]这就潜在地产生了重要的规制意义。



规制无人驾驶汽车

1. 无人驾驶汽车的前景

本文提出的第一个论点是,机器人规制必须基于“特定的机器人语境”,这要求对特定领域的“机器人行为”产生的微观及宏观效果有深刻的理解。我将以全自动汽车的事故责任为例阐述这一论点,这是测试“机器人法律”很好的例子。

在未来的20到25年中,行驶在公路上的汽车大概会有75%为无人驾驶汽车。[1]与这一趋势相关,会随之出现许多重大的积极进展。首先,我们看到的是,汽车事故会明显减少。同时——也是更为重要的——死亡事故会减少:目前,世界上每年在汽车事故中丧生的人数大概有130万。[2]

这些致命的事故中大约有90%是由人为失误造成的,9%是因环境条件引起的,不到1%的事故是因技术缺陷导致的。[3]其次,残疾人、老年人的流动会增加。同时,驾驶的机会成本会显著降低。平均算下来,我们一生中会花费4年以上的时间用于开车,[4]而且,我们驾车时,并非总能像开着宝马一样给你带来“纯粹的驾驶快感”。[5]我们可以将花在车轮上的时间用于做更有价值的事情,如阅读、思考或者仅仅只是做梦。另外,由于汽车的共享,我们在大街上看到的汽车会越来越少,这将会节省停车空间,缩短出行时间并减少汽车尾气排放。

不过,也会出现一些负面问题。首先,在某些行业,会有更多人失业。出租车与公交车驾驶员显然会首当其冲。其次,随着汽车联网的普及,汽车更容易受到破坏性的网络攻击,[6]这样,发生“重大事故”的风险就更大了。另外,尽管离奇的“小”事故比较少见,但是仍会发生。2016年上半年便发生了两起这样的事故。在一起事故中,一辆谷歌汽车在加州的芒廷维尤(Mountain View)变换车道时撞上了一辆公交车。[7]这辆谷歌汽车有所损毁,而公交车只是被轻微地刮蹭。在另一起较为严重的事故中,一辆以无人驾驶模式行驶的特斯拉汽车在佛罗里达州撞上了一辆货车,特斯拉汽车的驾驶者在这起事故中丧生。[8]显而易见,特斯拉的传感系统没能识别对向驶来的货车。

因此,上述事例表明,针对这种技术的宏观与微观影响,机器人的有效规制必须适当调整——相关规制必须能够应对特定机器人带来的社会变化,并同时应对日常生活中出现的风险与机会。

2. 全自动汽车的事故责任

接下来,针对全自动汽车的事故责任问题,我将阐述第二个论点:现有(完善的)法律范畴能够应用于机器人,并能有效规制它们的行为。其中,我将提出并回答的问题是:如果发生了事故,谁来承担侵权责任?我不会分析现有的法律体系是如何处理这一问题的;[9]相反,如果有人来设计刮蹭事故的责任体系,我将对最佳“方案”颇感兴趣。因此,我将考虑各种可能性:(1)无人承担责任(“损失自负”);(2)汽车制造商承担责任;(3)人工智能(设备)生产商承担责任(并非汽车制造商);(4)汽车所有人承担责任(全自动汽车没有“驾驶人”);(5)汽车自己承担责任。最后一个选择看上去似乎特别异想天开,但是,事情正在快速地发生着演变。2015年,在瑞士的一件艺术装置中,一个机器人在暗网(darkweb)上购买了摇头丸和一本伪造的匈牙利护照,还有其他东西。[10]这个机器人——而非艺术家或者其他人——被圣加仑的警察局逮捕,并于三个月后被释放。

考虑到上述五个选项,基于若干原因,汽车生产商的严格责任——即第二个规制选择——似乎更受青睐。[11]

首先,无人承担责任的解决方案显然无法接受。可预期的(事故)成本将不会被生产商予以内化,因此,他们会在不当激励下以过低的成本与价格生产过量的汽车。与此同时,在“无人承担责任的机制”之下,我们将不愿意去购买和(或)使用自动汽车——甚至可能会完全逃避此类活动。

在汽车生产商的严格责任制度下,该责任的建立并不需要主观过错,只要具备有缺陷的产品和因果关系即可。生产商貌似最能有效控制风险并平衡“驾驶”全自动汽车技术的收益与成本:生产商研发并使用人工智能,而且非常熟悉相关技术。例如,谷歌对上述汽车事故的反应显然迅速而老练,能够很快地查找到造成事故的原因。[12]

此外,相较于严格责任制度,在生产与销售全自动汽车的过程中,过失责任制度要求法院确定生产商应保持的谨慎程度。和所有新兴、复杂的技术一样,这项操作非常繁琐。另外,过失责任制度并不控制生产商的“行为层次”(activity level),如汽车生产与销售的数量。[13]因此,严格责任制度似乎是更好的选择。

第三个规制选项——人工智能(设备)的生产商与汽车的制造商不是同一家时,前者的责任——如何?我认为,在一项复杂的技术产品中,一般来说很难将事故的原因梳理清楚,特别是涉及到全自动汽车。而且,汽车制造商“控制着”系统,包括所有的组成部件。所以,汽车制造商可能是“最低成本避免者”(cheapest cost avoider)。[14]就对第三方的侵权责任而言,汽车制造商应当是唯一的责任承担者。当然,如果事故最终判定是由存在缺陷的人工智能设备造成的,汽车制造商可以从设备生产商那里获得赔偿。为了应对这一风险,法律应该规定生产商购买产品责任保险。

事实上,责任承担问题的上述“解决方案”似乎是随着市场与私人承包业务的变化而变化。例如,在2015年年底,沃尔沃宣布将对无人驾驶汽车的后果承担责任。[15]在这一声明中,沃尔沃向市场发出了一个强有力的信号:我们对自己的技术有信心。这个信号给竞争者造成了很大压力并迫使它们如法炮制。上述“方案”也借鉴了产品责任指令(85/374/EEC)所规定的法律现状,但有一个例外:根据这一指令,汽车的制造商和零部件的制造商将承担连带责任(第3(1)、5、7(f)条)。[16]

严格侵权责任制度的一个问题就是:源于自动汽车所有人层面的事故要求汽车制造商承担责任。所以,显而易见,事故发生的可能性很大程度上取决于行为层面:公路上的汽车越多,发生的交通事故也会越多。同样明显的是,汽车所有人控制着行为层面,即取决于他(她)的个人喜好、商业模型等。只要把出租汽车公司和私家车车主放在一起想想即可。因此,控制汽车车主的行为水平是有效责任机制的重要组成部分。[17]

我们可以想想解决这一问题的各种潜在“方案”。一个方案就是根据汽车所有人的行为情况,要求他们与汽车制造商共同承担责任;另一个方案就是将汽车的销售与责任保险捆绑在一起,保险费则依(1)制造商、(2)汽车类型、(3)所有者或使用者的情况来确定。这种个性化的保险现如今已可购得。这种保险常被称为“黑匣保险”,这是因为汽车上安装了一台小型“黑匣”设备,尺寸如智能手机般大小,用来记录汽车行驶的速度、距离以及汽车白天、晚上行驶的时间。[18]这个设备通过监测速度与转弯也能确定驾驶风格。此外,为了建立全面的驾驶资料,该设备还能记录汽车通常行驶的道路类型,以及昼夜运行的时间。



将智能汽车(机器)像人一样对待

到目前为止,我尚未讨论第五个用于规制全自动汽车引发事故的潜在应对措施,即要求汽车自己承担责任。但是,这个问题可以用来阐述本文的第三个论点,即机器人法律会并且将会受到一个特定社会的“深层规范结构”的影响。[1]例如,如果一个社会的规范结构是功利主义的(utilitarian),这一结构将如何影响对上述问题的回应呢?[2]

如前文提到的那样,因为机器学习,制造商无法(全面)预见智能汽车的行为。所以,我们开始思考可能会在某一时刻,被迫为汽车制造商寻找借口并要求汽车本身来承担责任。从概念上来说,这暗示了我们需要承认汽车有法律能力(legal capacity)。如果汽车能够承担责任,我们也许会得出这一结论:汽车也有权取得财产、签订合同等。确实,在实用主义的背景下,似乎有大量的观点都支持朝这个方向发展。

其一,智能汽车看上去(在功能上)能够有目的地从事一些活动。它们展现了所谓的“道德的”或“法律的”行为能力,比如,在某些类似的情境中,智能汽车可以像自然人一样从事某些活动。[3]其二,我们像对待自然人一样对待拟人化的机器人。总体来看,难道我们不应该赋予它们权利,发出反对人类虐待的信号吗?[4]用这种方式保护机器人将会对人类的互动产生有益的反馈效应。其三,我们赋予公司以法律人格。法律学者们就公司人格是基于虚构(如冯·萨维尼主张[5])还是公司的某种“实体”(real),亦或有什么东西可以称之为“真实的团体人”(realgroup-person)(如冯·基尔克主张[6])存在长期的争议。智能汽车(机器人)似乎比公司法人更为“实在”。在此,我应该指出,“人格”(persona)这个拉丁词的原始意思就是面具或者角色。罗马法承认了各种作为非自然人却享有权利并承担义务的主体,比如自治城市(municipia)或者工会(collegia)。[7]

假如我们将智能汽车(机器)当作人类来对待并赋予它们法律人格,我们可以将汽车的所有权与责任保险捆绑在一起。这种安排将允许我们针对汽车事故考虑其他有创意的制裁措施,如取消汽车的法律能力,将汽车扣押一段时间(像瑞士art installation案一样)或者直接将汽车销毁。



反对将机器人像人类一样对待的案例

诚然,对于考虑赋予智能汽车(机器)法律人格,我们大多数人会感觉非常不安。正如我引入本文论点时所表明的那样,这些不安停留在认识论[1]和本体论的层面上。可以说,因为只有人类可以理解权利与责任的意思,所以法律能力或者人格是与人类相关联的。思考涉及到对生活的积极投入,融入文化、特定情形的“专有技术”以及永远不会被规则架构的常识。[2]思考远非形式上的符号操作(句法),而是涉及到对这些符号的意思(语义学)的感知,但机器人却没有这种感知能力。[3]我们可以通过编程使机器人符合(conform)规则,但它们并不能遵守(follow)规则。[4]对规则的遵守预设了对规则的意思的理解,然而,机器人并没有这种理解能力,它们在解释学(hermeneutics)这个学科并不活跃——而且,它们永远不会。

我将要提出的第二个论点——反对把机器人当成人类——这类情形的论据存在于本体论层面。大体上,某一特定社会的法律以及赋予该特定社会成员的权利与义务是“人类境况”(human condition)的表达。法律反映了我们所认为的人类有序交往的前提条件,但同时也反映了我们认为处于人性核心的东西,以及处于核心的人何以为人的意义。只要从整体上想想基本人权,特别是言论自由,但也想想诸如堕胎或者同性婚姻这类颇有争议的问题。如果我们将法律人格赋予机器(即便这些机器都是智能的,甚至比人类还要聪明),让它们有权取得财产、签订合同,这简直会使这个世界非人化(dehumanizing)。因此,将机器人像人一样对待将会使人类非人化,所以我们应当避免持有这种态度。[5]

公司的人格——弱化将机器人当作人类对待的情形——是一个好的对立观点吗?本文并不这样认为。公司与机器人的重大区别在于,公司总是“通过”人类来运营。由人来组成董事会,且董事会的行为被归结为公司的行为。同样,在公司里,人工智能也变得越来越重要。[6]与此同时,人类也会作出最终决定——至少在“奇点”(singularity)(超人智能的水平)到来之前是这样的。



未来(政策)之路

变立法与法律职业。这提出了一个有趣的问题——在将来某个时刻,(以人工智能为基础的)智能立法是否会辅助我们规制人工智能产品与服务。智能技术无疑会在技术层面上为增强立法的效率提供重大帮助。另一个完全不同的问题在于,这些技术是否能帮助我们解决需要作出复杂价值判断的那些繁琐的监管问题。在这一点上,我深感怀疑。再者,机器既不能思考,也不能解决深奥的哲学问题。没有人比歌德更清楚明白地表述过这一点:“只有人类能够触及那些不可思议的事物:他们辨别着、选择着、判断着……”。[2]

顺便说一下,科学研究与写作现今也可以得到人工智能的辅助,已经有软件可以写作学术论文。[3]遗憾的是最后,人工智能提出了具有重大潜在社会影响且又复杂的监管问题。通过上述讨论,我们对此应该有所了解了。如前所述,法律须规定人工智能可以被应用的形式,以及在特定情境下使用(某种)人工智能可能要承担的责任。只要想想比人类聪明的“医疗专家”就可以明白这一点。法律须界定机器人与(或)它们的所有者的权利与责任。由于越来越依赖人工智能,公司管理将会发生根本变化。

然而,更重要的是,使用人工智能带来的问题必须予以重视。人工智能的使用无疑会是权力的重要来源。强势的当事人为了个人利益可能借助智能技术对交易施加压力,处于弱势地位的当事人可能会蒙受损失。某些智能技术会是公共商品(public goods)吗?它们应当以低成本为公众所用吗?

这些及其他问题都引发了深层次的哲学问题,而机器人法规将会被我所称的社会的“深层规范结构”所影响。一个社会是基于功利主义的“良善”(the good)概念,还是基于人道主义或康德式的此一恰恰相反的观点(即并非每一个有效用的或使财富最大化都必然是好政策),这一点是非常重要的。显而易见的是,功利主义的“良善”观念倾向于将社会推进到机器人依据法律最终扮演重要角色的方向。

这就是机器人法律会形成规制多样与规制竞争特征的其中一个原因:[1]由于存在于不同社会的“深层规范结构”的重大差异,各国就共同政策(common policies)很难达成一致意见。此外,各国向人工智能产业吸引投资的动机也激起了规制竞争。“功能主义的国家”可能会制定更多“机器人友好型”(robot friendly)的法律,并迫使其他法域如法炮制。

最后,如上所述,人工智能也将从根本上改,我没有找到可以帮助我准备这篇文章的软件。本文饱含了太多的人类的因素——因此这也是其缺点。



参考文献

(请向下滑动)


一、人工智能与法律

[1]See Calo, Robotics and the Lessons of Cyberlaw, California LawReview 103 (2015), pp. 513, 532 et seq.

[2] See Hernaes, Artificial Intelligence, Legal Responsibility andCivil Rights, 22 August 2015, https://techcrunch.com/2015/08/22artificial-intelligence-legal-responsibility-and-civil-rights/(last visited on 10 March 2017). 关于这一问题的周全应对及明智的政策选择,see Ford, The Rise of Robots: Technology and the Treat of MassUnemployment (London: Oneworld, 2015).

[3]关于这一问题的概要,可参见,比如,Kersten,Menschen und Maschinen, Juristenzeitung (JZ) 2015, pp. 1, 6-7.

[4] See Eidenmüller, Whose Fault” Firms, Products and Liability in theAge of Artificial Intelligence, BMW Welcomes: Artificial Intelligence, Munich21 April 2016, https://www.youtube.com/watch?v=4b6qElmM_Ng&t=14s(last visited on 7 March 2017).


二、多种多样的机器人与机器人的特征

[1] See, for example, Lipson/Kurman, Driverless: Intelligent Carts andthe Road Ahead (Cambridge, MA: MIT Press, 2016).

[2] See ’33 Corporations Working On Autonomous Vehicles’, https://www.cbinsights.com/blog/autonomous-driverless-vehicles-corporations-list/(last visited on 20 March 2017).

[3] See ‘Google self-driving car project’, https://plus.google.com/+SelfDrivingCar(last visited on 10 March 2017).

[4] See ‘Nanotech Robots Travel Through Blood to Turn Off Tumor Cells’,http://inhabitat.com/nanotech-robots-travel-through-blood-to-turn-off-tumor-cells/(last visited on 10 March 2017).

[5] See Bernard, Should a robot oversee your retirement money?, NewYork Times of 3 May 2016, p. 15.

[6] See ‘UBS to offer Sigfig’s robo-platform to its financialadvisers’, http://www.investmentnews.com/article/20160516/FREE/160519939/ubs-to-offer-sigfigs-robo-platform-to-its-financial-advisers(last visited on 10 March 2017).

[7] See https://www.sigfig.com/site/#/home/am(last visited 10 March 2017).

[8] See Remus/Levy, Can Robots Be Lawyers? Computers, Lawyers, and thePractice of Law, https://papers.ssrn.com/so13/papers.cfm?abstract_id=2701092(last visited on 11 March 2017); Susskind//Susskind, The Future of theProfessions: How Technology will Transform the Work of Human Experts (Oxford:Oxford University Press, 2015), pp. 66-71; Kaplan, Humans Need Not Apply: AGuide to Wealth and Work in the Age of Artificial Intelligence (New Haven andLondon: Yale University Press, 2015), pp. 145-149.

[9] See Fatima/Kraus/Wooldridge, Principles of Automated Negotiation(Cambridge: Cambridge University Press, 2014). 在这个领域,领先的私人服务商是Modria公司。See http://modria.com/ (last visited on 11 March2017).

[10] See ‘The world’s first artificially intelligent lawyer was justhired at a law firm’, http://www.businessinsider.com/the-worlds-first-artificially-intelligent-lawyer-gets-hired-2016-5?IR=T(last visited on 10 March 2017).

[11] See Sobowale, How artificial intelligence is transforming the legalprofession, 1 April 2016, http://www.abajournal.com/magazine/article/how_artificial_intelligence_is_transforming_the_profession(last visited on 20 March 2017).

[12] Brown v BCA Trading Ltd [2016] EWHC 1464 (Ch) (17 May 2016).

[13] On ‘computational law’ see, for example, Kaplan, ArtificialIntelligence: What Everyone Needs to Know (Oxford: Oxford University Press,2016), pp. 95-97.

[14] See, for example, Eyers, Lawyers prepare for ‘driverless M & A’as smart contract era dawns, 19 June 2016, http://www.afr.com/technology/lawyers-prepare-for-driverless-ma-as-smart-contract-era-dawns-20160616-gpknyz(last visited 11 March 2017).

[15] See Kleinberg/Lakkaraju/Leskovec/Ludwig/Mullainathan, HumanDecisions and Machine Predictions, NBR Working Paper No. 23180, February 2017, http://www.nber.org/papers/w23180(last visited on 11 March 2017).

[16] See Franklin, Introduction, in: Calo/Froomkin?Kerr (eds.), RobotLaw (Cheltenham, UK and Northampton, MA: Edward Elgar, 2016), pp. x, xi.

[17]See, for example, Hexmoor, Essential Principlesfor Autonomous Robotics (San Rafael, CA: Morgan & Claypool, 2013), p. 25.

[18] See, for example, Lim/Balakrishnan/Eriksson/Gifford/Madden/Rus,Intelligent Transportation with Networked Cars, https://groups.csail.mit.edu/drl/wiki/images/0/0f/LimMobisysDemo08.pdf(last visited on 26 March 2017).

[19] See Brynjolfsson/McAffe, The Second Machine Age: Work, Progress,and Prosperity in a Time of Brilliant Technologies (New York, NY and London: W.W. Norton, 2014), pp. 89-96; Kaplan (note 17 supra), pp. 27 et seq. (“因此,四个趋势——计算速度与储存的改进、信息存储从物理式到电子式的转变、更容易使用……,以及低成本、高分辨的数字感应器——是从象征推理到机器学习过程中重新集中精力的主要驱动器”, ibid. at p. 39).

[20] See Millar/Kerr, Delegation, relinquishment and responsibility: Theprospect of expert robots, in: Calo/Froomkin/Kerr (note 20 supra), pp. 102,107.

[21] See generally Bostrom, Superintelligence: Paths, Dangers,Strategies (Oxford: Oxford University Press, 2014). 26 See Bostrom (note 25supra), pp. 1-3; Ford (note 2 supra), pp. 225-245.

[22] See Bostrom (note 25 supra), pp. 1-3; Ford (note 2 supra), pp.225-245.

[23] See KPMG, Social Robots: 2016’s new bread of social robots is readyto enter your world, 2016, https://assets.kpmg.com/content/dam/kpmg/pdf/2016/06/social-robots.pdf(last visited on 26 March 2017).

[24]关于这类玩具,比如,可参见‘Netzagenturruft Eltern auf, Puppe “Cayla” zu zerstören’, 16 February 2017, http://www.sueddeutsche.de/digital/ueberwachung-im-kinderzimmer-netzagentur-ruft-eltern-auf-puppe-cayla-zu-zerstoeren-1.3383009(last visited on 26 March 2017).

[25] See Darling, Extending legal protection to social robots: Theeffects of anthropomorphism, empathy, and violent behaviour towards roboticobjects, in: Calo/Froomkin/Kerr (note 20 supra), pp. 213, 216 et seq.


三、规制无人驾驶汽车

[1] See Kaplan (note 12 supra), p. 195 (“专家一致意见是,在未来的二十年或二十五年中,公路上的汽车75%将会是自动驾驶汽车);HopgoodGanim, Autonomous Car: The regulatory and liability challenges, 8 April2016, http://www.hopgoodganim.com.au/page/Publications/Autonomous_Car_The_regulatory_and_liability_challenges/(last visited on 11 March 2017).

[2] See Gurney, Sue my car not me: products liability and accidentsinvolving autonomous vehicles, Journal of Law, Technology & Policy 2013,pp. 247, 250.

[3] See Statistisches Bundesamt, Verkehr aufeinen Blick, 2013, p. 36, https://www.destatis.de/DE/Publikationen/Thematisch/TransportVerkehr/Querschnitt/BroschuereVerkehrBlick0%20080006139004.pdf?__blob=publicationFile (last visited on 11 March 2017).

[4]See ‘30 Surprising Facts About How WeActually Spend Our Time’, 7 January 2015, http://distractify.com/old-school/2015/01/07/astounding-facts-about-how-we-actually-spend-our-time-%201197818577(last visited on 20 March 2017).

[5] See http://www.bmw.com/com/en/insights/brandcampaign_pleasure/experience.html?cm=Facebook(last visited on 9 March 2017).

[6]See Lin, The Ethics of AutonomousCars, 8 October 2013, https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/(last visited on 11 March 2017).

[7]Seehttps://www.youtube.com/watch?v=I9T6LkNm-5w (last visited on 9 March 2017).

[8] See https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk(last visited on 9 March 2017).

[9] For the US see Gurney (note 31 supra),pp. 257-271; Karnow, The application of traditional tort theory to embodiedmachine intelligence, in: Calo/Froomkin/Kerr (note 20 supra), pp. 51, 61-74;for Germany see Schulte-Nölke, Europäisierung des Haftungsrechts, in: E. Lorenz(Hrsg.), Karlsruher Forum 2015: Europäisierung des Haftungs- und des Versicherungsvertragsrechts(Karlsruhe: Verlag Versicherungswirtschaft, 2016), pp. 3, 31 et seq.; Lutz,Autonome Fahrzeuge als rechtliche Herausforderung, Neue JuristischeWochenschrift (NJW) 2015, pp. 119, 119-121.

[10]See http://fusion.net/story/122192/robot-that-bought-ecstasy-and-a-fake-passport-online-released-from-swiss-prison/ (last visited on 9 March 2017).

[11]See Eidenmüller (note 4 supra); Eidenmüller, WennMaschinen töten, Süddeutsche Zeitung of 13 July 2016, p. 2.

[12]See ‘Google self-driving car crashesinto a bus (update: statement)’, 29 February 2016, https://www.engadget.com/2016/02/29/google-self-driving-car-accident/(last visited on 26 March 2017).

[13]See, for example,Jackson/Kaplow/Shavell/Viscusi/Cope, Analytical Methods for Lawyers (New York,NY: Foundation Press, 2003), pp. 404-405.

[14]如果当事人能够以零(交易)成本就可适用的责任规则讨价还价,他们将以最低的成本就当事人的责任达成合同(避免承担预见到的事故成本)(科斯定理)。See Coase, The Problem of Social Cost, Journal of Law and Economics3 (1960), pp. 1 et seq.

[15] See ‘Volvo CEO: We will accept all liability when our cars are inautonomous mode’, http://fortune.com/2015/10/07/volvo-liability-self-driving-cars/(last visited on 9 March 2017).

[16]根据该指令,如果缺陷是由于制造商关于最终产品的设计或者指示而造成的话,配件制造商不需要承担责任。指令规定的法律责任是用来应对因死亡或人身损害、财产损害(除了缺陷产品自身)的,指令第9条关于责任制度的规定并不影响第13条的合同责任。

[17] See, for example, Shavell, Liability for Accidents, in:Polinsky/Shavell (eds.), Handbook of Law and Economics, Volume I (Amsterdam:Elsevier, 2007), pp. 139, 146 et seq.

[18] See, for example, http://www.rac.co.uk/insurance/car-insurance/black-box-insurance(last visited on 9 March 2017); https://www.confused.com/car-insurance/black-box/telematics-explained(last visited on 10 March 2017). 


四、将智能汽车(机器)像人一样对待

[1] See also Eidenmüller (note 4 supra); Eidenmüller (note 40 supra);Eidenmüller, Robots’ Legal Personality, Oxford Business Law Blog 8 March 2017, https://www.law.ox.ac.uk/business-law-%20blog/blog/2017/03/robots’-legal-personality(last visited on 9 March 2017).

[2]未作批判的功利主义面向被采纳的例子,参见Schirmer,Rechtsfähige Roboter?, Juristenzeitung (JZ) 2016, pp. 660, 663 et seq.(“[Roboter] sind insoweit rechtsfähig, wie es zweckmäßig ist, also immer dann,wenn entweder ihre Einordnung als selbständiger Akteur zu ihrem Schutznotwendig ist oder für den Rechtsverkehr einen Mehrwert bringt.”). 然而,功利主义当然属于一种并不光彩的法律哲学。See, for example, Eidenmüller, Effizienzals Rechtsprinzip: Möglichkeiten und Grenzen der ökonomischen Analyse desRechts (Tübingen: Mohr Siebeck, 4th ed. 2015), pp. 187 et seq.

[3]Kaplan (note 12 supra), p. 87.

[4] See Darling (note 29 supra), pp. 226-229.

[5]See von Savigny, System des heutigen RömischenRechts, Zweyter Band (Berlin: Veit und Comp., 1840), p. 236 (“DieRechtsfähigkeit wurde oben dargestellt als zusammenfallend mit dem Begriff deseinzelnen Menschen (§ 60). Wir betrachten sie jetzt als ausgedehnt aufkünstliche, durch bloße Fiction angenommene Subjecte. Ein solches Subjectnennen wir eine juristische Person ...”).

[6] See von Gierke, Rechtsgeschichte derdeutschen Genossenschaft (Berlin: Weidmann, 1868), p. 1 (“Wie sich derFortschritt der Weltgeschichte unwandelbar vollzieht, so erhebt sich inununterbrochen aufsteigender Wölbung der erhabene Bau jener organischenVerbände, welche in immer größeren und umfassenderen Kreisen den Zusammenhangalles menschlichen Seins, die Einheit in seiner bunten Mannichfaltigkeit, zuräußeren Erscheinung und Wirksamkeit bringen.”).

[7] See, for example, Thomas, Textbook of Roman Law (Amsterdam:North-Holland, 1976), pp. 387-388; du Plessis, Borkowski’s Textbook on RomanLaw (Oxford: Oxford University Press, 4th ed. 2010), pp. 85-87. 


五、反对将机器人像人类一样对待的案例

[1]有关人工智能引起的认识论的问题的概述,参见Crane,The Mechanical Mind: A Philosophical Introduction to Minds, Machines and MentalRepresentation (London and New York: Routledge, 3rd ed. 2016), pp.77-90; Kaplan (note 17 supra), pp. 67 et seq.

[2]This point was succinctly made byDreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason(Cambridge, MA: MIT Press, 1992).

[3] Searle, Minds, brains, and programs, Behavioral and Brain Sciences3 (1980), pp. 417-457.

[4]正如应该从文中清除那样,这一评估是基于比缩减的路径(the reductionist approach)更丰富的遵守规则的观念(a conception of rule-following)做成的。参见Kripke, Wittgenstein on Rules and Private Language (Cambridge, MA:Harvard University Press, 1982) (Kripke提出一个“怀疑的方案”。该方案采取了一个遵守规则的社会标准:一个个体只要其行为与其所属的群体中其他成员的行为一致就是遵守了规则。)

[5]关于“人类的状况”(humancondition)被“大数据”的威胁,大体上可参见White,We, Robots: Staying Human in the Age of Big Data (Brooklyn, NY and London:Melville House, 2015).

[6] See Fenwick/Kaal/Vermeulen, The ‘Unmediated’ and ‘Tech-Driven’Corporate Governance of Today’s Winning Companies, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2922176(last visited on 26 March 2017).


六、未来(政策)之路

[1]关于不同法律领域中的规制竞争,比如可参见Eidenmüller,The Transnational Law Market, Regulatory Competition, and TransnationalCorporations, Indiana Journal of Global Legal Studies 18 (2011), pp. 707 etseq.

[2] Goethe, Das Göttliche, 1783, Verse 37-40.感谢南京师范大学法学院副教授马丁博士提供的德语翻译。

[3] See http://connectedresearchers.com/online-tools-for-researchers/(last visited on 26 March 2017).




感谢杂志和作者对本公众号的授权

本文发表于《法治现代化研究》2017年第4期

仅作学习交流之用



Childe Hassam



往 期 荐 读


                 欢迎关注




    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存