查看原文
其他

【智能与法】人工智能的黎明

BDAILC 大数据和人工智能法律研究 2022-11-09

B D A I L C 

 欢 迎 关 注 


Giorgio Belloni







译 / 姜开锋


“全人工智能(full artificial intelligence)的发展可能意味着人类的终结,”斯蒂芬ž霍金(Stephen Hawking)警告说。伊隆ž马斯克(Elon Musk)则担心,人工智能的发展可能是人类面临的事关生死存亡的最大威胁。比尔ž盖茨(Bill Gates)也敦促人们要对它进行提防。

害怕人们创造出来的邪恶之物将成为人类的主人或他们的刽子手,并不是什么新鲜之事。但是著名的宇宙学家、硅谷的企业家和微软的创始人——他们都不是卢德派(Luddites,指反对使用新的机器和方法的反技术进步者)——都表达了担忧,而且他们的看法实际上是同谷歌、微软等大公司对人工智能进行大量投资的事实相对的。这一担忧无疑具有了新的更重的分量。口袋里的超级计算机越来越普及、机器人俯瞰着人类的每一个战场,如果还只是将它们视为科幻小说里的情节,似乎是自欺欺人的。问题是如何明智地考虑这一担忧。

首先是要了解计算机现在可以做些什么以及将来可能做些什么。由于计算机处理能力的提高和可用数据的不断增加,人工智能的能力正在蓬勃地发展。现在的“深度学习”系统,通过模仿人类大脑中的神经元和大量地处理数据,可以教会自己执行一些任务,从进行模式识别到翻译,它们做的几乎和人类一样好。结果,曾经需要人脑来完成的事情——从解读图片到玩视频游戏“青蛙过街”(“Frogger”)——现在都在计算机程序的能力范围之内。“人脸识别”(“DeepFace”)是脸书(Facebook)在2014年推出的算法,它对图片中的人脸进行识别的准确率可以达到97%。

关键的是,这一能力适用的范围是有限的和具体的。目前的人工智能通过强大的数字运算力量获得了智能的外表,但是对于人类如何通过人脑而具备自主性、利益意识和欲望,则没有进行任何模拟。计算机还不能进行全面、流畅的推断、判断和决定,这些都是和传统意义上的人类智能相关的能力。

不过,人工智能已经足够强大,它目前足以对人类生活产生巨大的影响。它能够同人类相互辅助,进而增强人类的能力。以国际象棋为例,现在电脑比任何人都下的更好。然而,世界上最好的棋手并不是机器本身,而是大师加里ž卡斯帕罗夫(Garry Kasparov)所说的“半人马”:将人类和算法联结在一起的集合。这类集合将成为各种工作中的常态:在人工智能的帮助下,医生在医学图像中发现癌症的能力将极大地增强;在智能手机上运行的语音识别算法将为发展中国家的数百万文盲使用互联网提供便利;数据助理将帮助学术研究者提出有意义的假设;图像分类算法将使得可穿戴智能设备能够把现实世界中的有用信息分层推送到人们的视野当中。

即使在短期内,人工智能的影响也并非都是积极的。例如,想象一下人工智能可以给国家安全机关(包括独裁国家的和民主国家的安全机关)带来的力量。监听数十亿谈话的能力、通过声音或面部图像在人群中识别每一位公民的能力,均对自由构成了严重的威胁。

即便在人工智能能够给社会带来各种利益时,许多个人仍会受到不利的影响。计算工作最初是一项苦差事,通常由女性来担任,她们为高层人员提供了无数次的计算。就像晶体管取代了从事计算的人那样,人工智能可能会把整个白领阶层都取代。教育和培训可能会给他们带来一定的帮助;人工智能所产生的资本将投向新的项目,这也会创造新的工作机会。但工人的生活注定会因此而变得紊乱。

不过,监视和生活紊乱并不是霍金、马斯克和盖茨所担心的问题,也不是最近在电影屏幕上上映的一系列好莱坞未来主义影片所关注的事情。他们所忧心的事情更加遥远,也更具有灾难性:具有超人类认知能力的自主机器的威胁以及它们与人类相冲突的利益诉求。

不过,创造出这类人工智能物还有很长的路要走;实际上,人类或许永远都不能创造它们。虽然已经对大脑进行了一个世纪的研究和分析,心理学家、神经学家、社会学家和哲学家们仍然远未清楚如何制造出思维、什么是思维。即使是一般类型的有限智能——具有自主权和利益意识的那种智能——的商业实例也没有出现。驾驶技术比车主还要好的汽车听起来像一个福音;但是一辆有自己想法的车,就不怎么好了。

即使霍金先生所称的全人工智能(“full” AI)的景象依然很遥远,社会也应该谨慎地规划如何应对。这其实要比看起来更为容易,尤其是因为人类已经创造出了超出常人能力的和追求不同利益的自主实体。(这类实体如)政府官僚机构、市场和军队。无助的、无组织的人做不到的事情,它们都能做到。如果不以合理的方式建立,并以法律法规进行规制;那么它们都能自主地运作,都能自我决定自己的命运,并且都能造成很大的伤害。

考察这些类似的事物可以减缓人们的恐惧;它们为人们安全地发展人工智能提供了具体的参考。正如军队要由民众进行监督、市场要受到监管、官僚机构必须透明和接受问责一样,人工智能系统也必须接受审查。由于系统设计人员不能预见到每一种具体情况,因此必须有切断开关的设置。可以在不影响功能发挥的情况下实施这些限制。从核弹到交通规则,人类利用技术手段和法律规则规范着威力巨大的创新产物。

人类无法控制的人工智能最终会被创造出来,这一担忧相当地引人注目,以至于掩盖了对相关议题进行讨论的重要性。危险确实存在。但不应让它们遮住了人工智能的曙光所带来的巨大利益。




文章来源:The Economist  

本文仅作学习交流之用


田渕俊夫



往期荐读




编辑:钟柳依


欢迎点击“阅读原文”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存