奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 154|回复: 0

人工智能法学的概念误区、理论明鉴及空间重塑

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2022-1-31 12:30:00 | 显示全部楼层 |阅读模式
扫码加微信
人工智能法学的概念误区、理论明鉴及空间重塑
□郑 妮

(中共四川省委党校 法学教研部,四川 成都610071)

[摘 要]人工智能的充分发展离不开人工智能法学的保驾护航。然而,审视人工智能法学的研究领域,发现理论界与实务界对人工智能法学存在概念误区与理论误区,如不及时予以厘清则可能会影响我国人工智能法学的健康、有序发展。现有人工智能法学研究中存在的分级误区、技术误区、程度误区、逻辑误区成为学科发展的藩篱,弱人工智能视阈下的单一应景探讨与人工智能对传统法律规范、社会风险防控、依法治理的挑战成为人工智能法学理论发展的瓶颈。横向维度,人工智能对传统法律规范中的公法与私法分隔语境造成了冲击;纵向维度,人工智能对传统法律规范的挑战跨越了安全、权利、治理的进阶式层次,使得人工智能的技术性风险在宏观与微观视角中呈现多样性。故而,人工智能法学的空间重塑应以理念原则与应用规则的维度展开,将宏观与微观的视角相结合,让体系融入思考,让算法进入法律,此为人工智能法学理性发展、拓展研究的应有之义。

[关键词]人工智能;隐私权;算法黑箱;空间重塑

一、问题的提出
进入21世纪以来,人工智能作为信息化时代的产物,逐渐应用于算法框架、智能政府、智能驾驶、智能医疗、智能环保、智能硬件、人才储备、城市治理、社会治安等诸多领域,成为“第四次工业革命”[1](p11()又名“智能革命”)的加速器,已然成为全球热点讨论的话题之一。在2020年我国抗击新冠肺炎疫情的过程中,人工智能被运用到健康码、CT影像、全基因测序、智能医疗等抗疫一线领域,极大提升了我国防疫抗疫的工作能力与效率。然而,人工智能也是一把双刃剑,在赋能社会的同时,也带来了风险与挑战,新一轮人工智能快速发展中涉及的安全、法律、道德、伦理等方面的问题逐渐凸显,不容小觑。法治的前行需要运用不断革新的人工智能技术,而人工智能的发展则需要法治的引领和保障,已成为理论界与实务界的共识。

在国外,关于人工智能法学的研究方兴未艾,早在1970年,美国学者布坎南和黑德里克就发表了《关于人工智能和法律推理若干问题的一些考察》[2](p42)一文,该文被认为是人工智能与法律领域的第一篇专业论文。而同样来自美国的凯文∙D.阿什利则是当今世界人工智能法学研究的执牛耳者,早在1985年他就在该领域发表了《通过类比推理:人工智能研究对法律专家系统影响的一些调查》一文,后来他关于人工智能法学的研究高达一百余篇,在2017年形成了集大成之作《人工智能与法律解析——数字时代法律实践的新工具》[3](p4)。该书介绍了人工智能与法律领域开发的法律推理及计算模型,检讨了法律文本解析技术,并将法律推理的计算模型及表示法律知识的技术直接连接到法律文本,具有很好的研读价值。此外,还有《人工智能与法律的对话》等经典著作[4](p98)展示了人工智能法学的研究热度。

在国内,针对我国人工智能安全问题研究薄弱,政府应对和法治建设滞后的局面,国务院在2017年印发的《新一代人工智能发展规划》①2017年7月8日,国务院印发并实施《新一代人工智能发展规划》。特别提出“建设人工智能学科”,习近平总书记则在2018年中央政治局第九次集体学习中强调“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能发展的法律法规、制度体系、伦理道德”②习近平.2018年10月31日在中央政治局第九次集体学习中的讲话.。此外,我国涉及人工智能产业的法律法规主要有《网络安全法》《电子商务法》《互联网用户公众账号信息服务管理规定》等。以上政策、讲话和法律法规不仅有力地推动了人工智能上升为国家战略,也撬动了人工智能法学的迅速崛起。在2016年后国内学者将人工智能法学的研究提升至新的热度,在中国知网以“人工智能法律”为主题词进行检索,共找到2697条结果③来源于中国知网截至2021年4月1日的检索数据。。高校和科研机构陆续创建了人工智能法学院及研究机构④例如,西南政法大学、上海政法学院等高校成立人工智能法学院,四川省法学会成立人工智能法学会,上海市法学会成立人工智能法治研究会等。且高校的人工智能法学院还联手人工智能公司开展科研活动,例如西南政法大学人工智能法学院联手科大讯飞股份有限公司、四川元贞实业有限公司、成都横图科技有限公司等进行产品研发和论证,中南财经政法大学刑事司法学院与南京云思创智信息科技有限公司创建人工智能联合实验室,有力推进了人工智能法学学科的应用实践。,市场领域则衍生了许多人工智能法律行业⑤例如,华宇元典、贝格数据以及阿里巴巴的法务部门。,说明当下人工智能法学已经成为我国法学理论界与实务界热点关注的前沿学科。审视我国现有人工智能法学的学科建设,以传统法学为基础,以人工智能的算法为核心,以培养聚集“人工智能+法律”横向复合型高端人才助推全面依法治国为目标,在法治框架之下拓展人工智能专业的深度和广度,逐渐形成了一套具有中国特色、智能创新并充满活力的学科体系。以法学的视角探究、规范以及助推人工智能的发展,本身就是一种理论创新和方法论创新。

人工智能的核心中枢即为算法,其发展需厘定于法律框架之下,同时法律也需要适应算法的运行规则,并应对人工智能日新月异的变化,由此引发的改革与创新实为一种必然性的规律后果。法律立足于规则的设计,而算法作为人工智能的核心,其实质也是一种规则的体现,二者在某种程度上均具有同规则类似的社会功能,故而也难免产生冲突和矛盾,尤其是从弱人工智能时代转向强人工智能时代,甚至未来向超强人工智能时代发展之时,这种矛盾就会愈发加剧,由此也对人工智能法学的发展提出了新的要求和挑战。然而,本文在梳理与分析人工智能法学研究成果时,却发现学界对于人工智能法学的认识存在一定的概念误区与理论误区,且这种误区与曲解还在愈陷愈深,如不及时予以厘清,则可能会影响我国人工智能法学的合理发展和作用发挥。为此,本文拟对概念误区予以一一厘清,对理论误区进行鉴别明晰,并对人工智能法学的未来发展进行预测展望与空间重塑。

二、人工智能法学的概念误区
法学概念一般具有程式化、简洁性等特征,鉴于此,学界借助于法律体系与法律语言的张力以法学概念的形式为学界的探讨厘清边界。然而,认真审视和系统分析文献,发现现实中人工智能法学概念附会现象较为严重,不少成果只是基于“人工智能与法律”的任意性组合或者直接贯之“人工智能+”“泛人工智能化”研究正在产生大量学术泡沫[5](p119)。故而及时对人工智能法学的概念误区予以厘清具有现实意义。

(一)分级误区:将弱人工智能、强人工智能、超强人工智能强行过渡
人工智能自诞生以来的发展存在着波峰与波谷交错的现象,在渐进深化的进程中,人工智能表现出的智能化程度也有所差异。根据人工智能在不同发展阶段所呈现智能化程度的不同,学界一般将人工智能分为弱人工智能和强人工智能,即“二分法”,或者所谓弱人工智能、强人工智能、超强人工智能的“三分法”[6](p101)。无论采用何种分类标准,以人工智能的不同类型为基点展开研究已成为学界深入探讨的通行方法。人工智能法学学科定位的明晰在于弱人工智能与强人工智能的边界厘定。强人工智能的概念由美国学者约翰·西尔勒提出,是指“具有完全人类思维能力的智能机器,用来代指拥有人类思维的智能机器。而与之相对应的概念是弱人工智能,则是可以有类人的行为能力但却不具有真正人类思维的智能机器”[7](p126)。弱人工智能是专用人工智能,很难直接适用于其他场景;强人工智能是通用人工智能,可以迁移于其他应用场景;超强人工智能即为超越人类的智能,强人工智能与超强人工智能被认为有自我理解与自控能力。

虽然与人工智能交叉且有合作优势的学科众多,但由法律人工智能推动下的人工智能法学无疑是其中的亮点,这是因为“法律——尤其是司法——主要是一个规范的判断过程”[8](p135),“常规的法律适用模式就是以法律为大前提、以案件事实为小前提,在此基础上得出裁判结论的演绎推理模式”[9](p110)。这种认知结构与人工智能的逻辑相吻合。换言之,“人工智能由于技术的局限并不可能完全替代人类大脑,但是可以在部分简单的领域进行机器学习从而完成认知”[10](p24)。因此,法律职业中一些简单的、基础的数据工作可以交由人工智能辅助处理完成。科技的发展奠定了人工智能法学的发展基础,但人工智能法学立足的语境应与法学的品格适恰。易言之,法学应当具有立足现实、关注当下的基本品格,即所谓“实践性构成了法学的学问性格,法学应当回归实践之学本身”[11](p89)。弱人工智能研究是在坚持传统法学研究范式前提之下进行的,通过已有的法律概念与法律制度去连接与规范人工智能的发展。而强人工智能则是“在人工智能改变人类整体生活后以全面、系统的涵盖打造面向未来的整体性法学理论,终极性与永恒性显著”[8](p136)。人工智能法学也更具备立足现实、关注当下的基本品格,秉持实证主义法学、实践性法学的思想观念,基于已有人工智能技术展开研究。然而有观点已然将强人工智能、超强人工智能之未来性与人工智能法学强行进行捆绑过渡,以未然性否定实然性,以科技发展否定法律框架,“如此今日的相关法律框架设计可能毫无意义,那么人工智能法学研究的愿景也不过是一场空而已”[5](p121)。故而,不应当将人工智能法学在弱人工智能、强人工智能、超强人工智能强行过渡,造成概念附会现象与科幻主义研究大行其道的现象发生。

(二)技术误区:将人工智能与区块链、计算机技术混为一谈
依托于计算机技术的变革,诸如区块链、云计算、虚拟现实、大数据、人工智能等技术也迎来了长足发展。人工智能的发展与计算机技术的进步密不可分,每一次人工智能的突破都来源于计算机技术的深入。然而,在人工智能法学发展的进程中,时常出现将人工智能与区块链、计算机技术混为一谈的现象。进行概念边界的厘定有利于走出技术误区的迷雾。首先,关于人工智能与区块链的区别。区块链是一种分布式数据存储方式,任何有计算、存储能力的机器都可以参与其中,有着多中心化、时序回溯、数字信任与智能编程等特点,与人工智能存在紧密的联系。区块链是数据的存储方式,而人工智能则是由数据产生的应用。“人工智能和区块链是智能技术的一体两面,人工智能实现的是物的智能化,而区块链所实现的是关系的智能化”[12](p66)。区块链能够通过实现多中心的连接进一步提升人工智能的效能,也能够通过构建数字信任润滑人工智能时代的社会关系。人工智能最大的作用在于解放劳动力,区块链则体现的是让价值重新发挥作用,未来社会生产力的发展需要以人工智能为核心,而生产关系的调整则需要以区块链技术为核心[12](p180)。其次,从人工智能与计算机技术的区别中不难发现,人工智能是互联网、物联网技术的进一步发展,在传统上被认为是计算机科学的分支,是在传统自动化和计算机科学基础上由机器和软件组成的学科。但这并不意味着人工智能与计算机技术可以实现功能上的统一,二者有着截然不同的定位。人工智能是计算机技术的产物,在弱人工智能的现状之下,只能充当辅助的角色。人工智能与计算机技术是两种不同的技术分类,有着差异的定位与逻辑,发展的结果也必然不同。故而,在人工智能法学研究中,应首先将人工智能与区块链、计算机技术予以明晰。

(三)程度误区:将法律人工智能视为强人工智能
法律人工智能起步不久,需从细微方面入手,逐步推进,具体可从任务、流程、模式三个层面切入,形成人工智能技术与法律的深度融合。第一,从任务层面看,运用文件自动审阅、文件自动生成、智能法律检索、智能法律咨询、案件结果预测等方式优化对法律人的辅助。第二,从流程层面看,传统的业务效能提升很大程度上来源于流程和分工,智能技术对于流程的优化在于可以实现流程自动化。以道交纠纷处理流程为例,道交纠纷的处理流程实际上是文档、信息、任务的流转过程,1.0阶段我们依靠人工的方式来保障流程的运转;进入2.0时代,可以引入智能技术,比如文档自助流转,形成业务信息数据库,由系统自动完成标注任务。第三,从模式层面看,模式的变革必然会重塑原有的资源配置机制、人员结构和市场运作方式,从而形成新的法律生态。例如嵌入式法律一旦大规模部署于智能汽车,将会降低道交事故发生的概率;智能合约也是典型的以技术代替法律的应用;ODR模式解决的首要问题是聚合纠纷,这点在淘宝在线纠纷解决机制上表现得尤为明显;电子法院可以在一定程度上解决传统法院面临的案多人少的窘境,尤其是在处理大数量级纠纷方面具有天然的优势。综上,从人工智能进击法律的三条路径审视,法律人工智能属于弱人工智能的范畴,现阶段进击法律的路径与强人工智能拥有人类的思维能力且可以迁移于其他应用场景的特征存在显著差异。故而,不应将法律人工智能视为强人工智能。

(四)逻辑误区:将人工智能法学与法律人工智能交叉混用
在理论与实务研究中,有观点将人工智能法学与法律人工智能视为一体故而交叉混用,此处予以拨开迷雾。人工智能法学本质属于法学的学科范畴,应以法律现象为基点展开研究,学者们关注人工智能法学研究的起点亦是如此,围绕人工智能运用的法律主体地位、自动化行政、刑事责任、证据证明力、隐私权保护、知识产权保护、自动驾驶侵权责任、区块链应用的监管规则、司法现代化等现象和问题均属于人工智能法学探讨之列。例如,人工智能自动驾驶汽车技术运用引发的法律问题,就是当下人工智能法学研究热潮的一个缩影。所以说,以人工智能技术引发的法律现象为切入点的各种科学活动及其认识成果构成了人工智能法学的研究场域。相较之下,法律人工智能的发展则具有阶段性表征,也即与弱人工智能、强人工智能存在匹配关系,存在弱法律人工智能研究、强法律人工智能研究。“人工智能法学的研究集中于弱法律人工智能的语境下,弱法律人工智能研究分为科技研究模式、法律研究模式以及法理研究模式。”[8(]p135)人工智能法学是以人工智能引起法律现象为载体的全方位研究,也是在法律人工智能中的弱人工智能框架下予以展开分析。因此,现有法学教育也是在弱人工智能框架下展开,“人工智能对法学教育的冲击与挑战涵摄于学科体系、教学模式、教学方法等具体的法学教育环节之上”[13(]p91)。例如西南政法大学人工智能法学院以弱人工智能全生命周期为轴线,形成了数据法学、网络法学、算法规制和计算法学在内的学科体系。故而,人工智能法学的学科性与法律人工智能的阶段性具有显著差异,不能将人工智能法学与法律人工智能直接等同或者交叉混用。

三、人工智能法学的理论明鉴
人工智能对传统法律规范中公法与私法的界限分隔带来了巨大冲击,也对法律的不同层次需求发展提出了新的挑战。由此产生人工智能的技术风险治理也表现出制度性张力,进而引发依法治理嵌入人工智能技术的理论博弈,相继从宏观视角与微观维度展开。

(一)起点:人工智能对传统法律规范的维度与层次挑战
1.横向:公法与私法界限的穿透性思考。公法与私法界限的穿透性思考伴随着主体错位性的传统权力来源变革、因果关系复杂性的概率维度审思、权利重叠性的冲突视角透视而展开。

(1)主体错位性的传统权力来源变革。在传统法律规范中公权力作为主体对社会经济活动予以监管,但在人工智能的技术影响下,主体错位性的传统权力来源发生变革,以智慧法院的发展为典型例证。国务院印发的《新时代人工智能发展规划》将智慧法庭建设作为重点发展方向之一,聚焦于法律文件的阅读与分析、证据收集、案例分析等环节进行人工智能的应用与推广,实现法院审判能力与审判体系的智能化。但发现,当前智慧法院建设所采用的多是企业开发的人工智能产品,由于这些企业已经掌握了比政府更多的关于公民(作为消费者)的信息,他们热衷于建设智慧城市、智慧政府、智慧法院等,政府部门也不得不求助于他们。事实上这就模糊了公权力与私权利之间的边界,使政府应该监管的对象成为政府的合作伙伴,乃至实际控制人。企业作为实际控制人控制了数据来源、数据汇总、数据分析,而政府又十分依赖于企业,这种状况本身就是十分危险的。这对从宪法到行政法、民法等多个法律部门都提出了全新的问题,政府作为监管主体也就在不知不觉中发生了权力来源的错位性变革。

(2)因果关系复杂性的概率维度审思。用传统法律体系中的线性因果关系来理解农业社会,从罗马法、查士丁尼时代演进,农业社会很容易确定某一行为作为原因和结果之间形成的因果关系,并基于此因果关系作出相应的法律回应去解决问题。但在现实社会中,由于技术的运用,因果关系变得更为复杂。通常对概率性的因果关系分析,如果能理解到90%、99.9%,那么可能和线性的因果关系具有高度相似性。但如果达不到高度相似的比例,因果关系就会很复杂,无法通过传统模式之下的主观过错、侵权行为、损害结果、法律责任的链条予以贴合。理解这种概率的复杂性,可以提出人工智能法的规制问题,是否都需要明晰因果关系再予以规制呢?比如,鉴定自动驾驶汽车造成的损害,是否需要先明确一个线性链条,厘清主观过错、侵权行为、损害结果、法律责任这样一串关系之后再去研发自动驾驶汽车呢?过多的规制是否又会限制人工智能的发展?因此,人工智能对传统法律规范的冲击也表现在通过法律因果关系的概率维度来理解其复杂性趋势之上。

(3)权利重叠性的冲突视角透视。以传统法律关系维度,权利之间应具有清晰的边界,边界重合则会产生权利冲突,但在人工智能技术发展中个人隐私权与企业财产权之间存在一定的权利冲突便体现了权利的重合性。如果作出一个完整的权利界定,构建传统的法律保护制度,那么可能导致其他权利的行使受到影响。仍然以自动驾驶汽车为例,如果我们意识到每一台汽车、每一个平台,它们自身的算法受到知识产权的保护,积累的数据是它们的财产权,每个公司的权利都得到一个完整的保护且相互之间不能分享,那这其实是不能保障将自动驾驶汽车予以有效推广的。现有法律高度重视保护私有产权,但对私有产权的保护带来的影响可能会使自动驾驶汽车的运用本身不能获得更安全、更可靠的驾驶技术,因为过多的保护也成为一种限制,算法的学习能力受到了制约,则无法进行有效的学习。故而,要理解人工智能技术发展下权利重叠性的现实变化。

2.纵向:法律挑战的层次深入跨越。人工智能对传统法律规范的深入跨越展现为初级的安全层次挑战、终极的权利层次挑战、高级的治理层次挑战三个维度展开。

(1)初级:安全层次的挑战。所谓安全层次的挑战,表现有三:一是新技术的不确定性。在人工智能的法律问题研究中,自动驾驶被广泛尝试,具有较大的市场推广前景,虽然它在大多数时候是正确的,但万一因为其内在技术上的局限性作出不正确的判断,就会导致交通事故的发生。二是技术存在被滥用的可能性。比如,借助人工智能进行的电信诈骗或网络诈骗,就是因为技术的可靠性被滥用。三是新技术强化了既有的风险。这种风险不是人工智能制造出来的,它是既有的,但是它会因为人工智能技术的运用而强化,比如,如果军队广泛运用军用战斗机机器人,就会迫使我们担心机器人未来会对人类开战。

(2)中级:权利层次的挑战。权利层次的挑战首先意味着新权利的主张。比如,AI是否要被界定为一个法律人格,AI生成的作品著作权的主张如何提出,这是一种新的权利主张。其次是新的权利冲突。在人工智能的运用中,权利在某一方面的实现可能会和另一个方面的权利发生冲突。比如,个人数据,我们要用隐私权来加以界定,而这种数据进入云端,进入一个架构在算法上而生产的数据则会和企业的财产权又联系在一起,于是隐私权和财产权之间就会产生一种需求解决的冲突。最后是权利的侵害。在人工智能的运用中,我们会发现一些新的侵害权利的形式。比如,算法歧视,在一种人脸识别算法的运作下,黑人被识别为大猩猩,这就表现出种族歧视,是对黑人权利的侵害,但这种侵害是算法在运算中无意和不自觉产生的,主观上并没有歧视的意图。

(3)高级:治理层次的挑战。上述两个层次的挑战涵盖了日常所讨论的人工智能研究场域中的绝大多数问题,但更为重要的是第三个层次的问题:治理的挑战。首先是算法,算法是理解人工智能及其提出挑战的第一步。其次,算法形成进一步的预期规范,算法规范意味着像权力一样对人进行干预和支配。再次,我们意识到算法在某种意义上会成为一种法律,或者说它会成为另一种和法律规范相争的权力,成为另一种规范的存在,具有类似于法律的意义,这个才是治理层面的挑战,它会冲击我们现有的法律体系与既有的基本格局。算法会直接对人的行为进行引导甚至控制,它在人工智能普遍应用的社会中可能会进行算法的治理,而不再是法律的治理,或者说是和法律相竞争的另外一种治理体系,这对法律而言是一种极大的威胁和挑战。

(二)进阶:社会风险理论视阈下人工智能的技术风险特点
随着人工智能的迅猛发展,信息的快速生产和送达,导致人工智能的技术治理风险表现出极大的张力。算法黑箱下偏重于何种标准规制,如何应对周期性风险的起伏与成本收益比例风险的扩张成为题中之义。

1.算法黑箱下进程与结果的规制悖反。人工智能的核心在于算法,人工智能技术存在算法黑箱的问题,即算法的不可解释性。“虽然在风险审视与危机预判理想中的人工智能具有数据安全、算法公正、规范透明、质量认证、解释清晰、鉴定可靠等特征”[14(]p149),但事实上因无法运用透明性原则规制算法权力,揭开算法黑箱,所以无法弥补决策者与相对人之间形成的数字鸿沟。算法的不透明也可能产生算法歧视,甚至有时候设计者都无从知道算法如何决策,故而对于算法黑箱的规制基本见于结果层面审视,对于进程是否具有合理性和可解释性并不具有现实可操作性,在不可逆的自动决策领域中应予以高度关注。例如,在医疗和司法等领域,如果通过算法的方式进行最终决策,可解释依据的提供就会成为棘手的问题。因为人工智能无法作出有效且充分的解释,所以依据这种医疗诊断或者司法裁决,难以令人信服。

2.均衡治理目标与周期性起伏风险的难测。人工智能的发展对技术风险的安全、权利、治理三个层次提出了更高的要求,如何消减在治理进程中出现的风险,需要采取均衡治理的保障目标,由此避免信息的过度不对称导致技术劣势一方只能依附于技术强势一方,从而在数字经济时代形成精英统治。人工智能技术的发展都会存在发展周期,行业亦是如此。人工智能现已成为全球关注的焦点,在先进的算法、强大的云计算、大数据和互联网等因素的共同作用下,创造出新的行业与商业模式,为传统行业积极赋能,从而催生出人工智能的新一轮热潮[15(]p43)。有波峰亦有波谷,人工智能的发展历程很难判断,在均衡治理目标的实现过程中,如果出现限制过严或推动过度,可能会加大周期性起伏风险出现的概率。

3.成本与收益比例风险的扩张。成本与收益比例风险的扩张可从两方面着眼。其一,诸多人工智能表现出良好的产品效果,但受限于生产成本过高,无法进行量产或者大规模推广。例如,在动力的类人机器人技术领域,美国波士顿展现出巨大优势,但是这一动力机器人的骨骼关节需要利用3D打印技术才能实际应用,此项技术会面临巨大的成本考验。其二,如果需要构建有序的社会秩序,就需要信息对时间的特定性进行定位。比如,今晚有一场讲座,根据主题和主讲人等信息进行特定化,然后进行决策。信息的收集始终是需要成本的,而受成本的制约就会迫使人类让步进而难以对事件进行充分、精确的定位。比如,漫画《麦克斯韦妖》,它是热力学中非常著名的思想实验,和“薛定谔的猫”“芝诺的乌龟”一样著名的神兽,展示的是向外无序发散的过程。这种能量交换的过程就需要付出其他能量保证输入的能量,所以信息的交流是受到成本制约的,不能无视消耗的能量去获取无穷多的信息。故而,在人工智能技术推广之下成本与收益的比例风险也在扩张。

(三)聚焦:依法治理嵌入人工智能技术的理论博弈
依法治理嵌入人工智能技术会在宏观视野与微观语境下呈现出不同的理论博弈,而追溯理论之辩的由来可以深化对人工智能技术的应用认知。

1.人工智能技术推进中的宏观视角之辩

(1)人工智能技术的监管与反监管之辩。算法的设计决定着智能化机器的行为,人工智能技术的监管涉及电子商务、医疗、金融等多领域,监管的前提在于获取智能化机器的行为算法信息。从传统法律规范维度检视,公权力成为监管权力的核心,强大的信息获取能力与专业的监管资源培育成为公权力进行市场经济活动的监管抓手。但遗憾的是,在现实中绝大多数人工智能人才均在为商业机构服务,商业机构往往拥有独立的研究部门,在人工智能技术层面的研究力量远超于政府,很容易形成技术垄断。例如,如何治理数字化经济发展中的互联网平台垄断问题,已经成为人工智能风险全球治理的一大难题,市场上越来越多的平台垄断问题根源于算法共谋[16(]p10)。政府在监管信息资源的获取与专业人才的培养上捉襟见肘,自然欠缺监管的基础性条件,人工智能技术又不是法外之地,造成现实的监管窘境。此外,企业作为被监管一方,也会通过各种方式逃避与摆脱监管,形成实际的反监管事实。故而,政府公权力机关人工智能技术的监管能力薄弱凸显了企业反监管能力的优势,这是一种赤裸裸的威胁。

(2)企业借助人工智能技术服务公众与操控公众生活之辩。上文提及企业在掌握人工智能技术层面具有绝对优势,加之人工智能存在算法黑箱,所以算法的不可解释性也加剧了操控公众服务的嫌疑。不可否认的是,人工智能技术在电子商务、行政执法、智能司法等领域都有较多使用,其中某些人工智能技术在法律法规的指引下展现了良好的技术与规范互促作用。再以自动驾驶为例,如果缺少路测的法律法规,自动驾驶汽车就无法上路测试,无法生成海量数据,也无法提高技术水平[17(]p12)。如此通过规范引导下数据模型的构建升级,自动驾驶汽车的安全性也将进一步提升,法律与技术的优良功效统合在自动驾驶领域。但任何一项技术在赋予人类某种利益的同时,也从人类那里窃取了部分功能。比如,智能导航赋予了人类交通的便利,但也模糊了人类的记忆,减弱了人类的识别技能,加剧了人类对智能导航的过度依赖。当你凝望深渊时,深渊也在凝望着你。技术的发展也将使得人类慢慢地被驯化,企业也将借助人工智能技术影响甚至操控公众的生活。

(3)人工智能技术滥用与合理使用之辩。关于人工智能技术滥用与合理使用的博弈最为突出的现象体现在隐私权领域。人脸识别技术作为隐私权保护中的热门问题引起了社会的高度关注。我国人脸识别行业市场规模预计2021年将达到51亿美元左右。随着人脸识别技术的应用、拓展,其涉及法律、安全、道德伦理的问题也逐渐呈现[18(]p217)。人脸识别作为现代科技的一种新技术,利用的是作为生物信息的人脸信息,由此也产生了技术应用中的隐私权保护法律问题争议。人工智能时代的到来对个人隐私权的侵犯已从传统上的侵权行为人转变为各种电子终端。对于隐私权的侵犯也变得更为智能与隐蔽。在当事人不知情的情况下,其信息可能已经被收集完毕,尤其是在公共空间领域更为明显。目前人脸信息的收集、存储及使用依照适用的主要领域不同,可以划分为以公共利益为目的的使用和以私益为目的的使用。前者争议较小,而后者在实践中对于人脸信息私益用途的合法性使用争议较大。目前我国还没有针对人脸识别信息及其技术应用出台专门性的法律文件,故而在缺乏法律规范的保障之下,个人隐私权和自由就变得十分脆弱,人工智能技术的滥用风险就进一步加剧。

2.人工智能技术推进中的微观维度之辩

(1)人工智能系统在法院适用的推广与警惕之辩。推动网络空间治理体系和治理能力法治化、现代化是提升社会治理现代化的重要路径,智慧法院便是人工智能在司法领域的典型应用。例如,上海法院“206”系统就是一种智能辅助审判系统。又如,以杭州互联网法院为例,其搭建并不断完善“六大平台”——网上诉讼平台、在线调解平台、电子证据平台、电子送达平台、在线执行平台以及审判大数据平台,全链路解决了立案难、证据认证难、执行难等传统司法难题。其平台链上的数据规模已逾40亿条,在此基础上,上线全国首个区块链智能合约司法应用,将合同签约、履约、违约、催告等行为实施记录在司法链上,交易链路全流程自动存证和执行。以智慧法院的推广为契机可以更为有效地释放司法生产力,实现法院审判体系和审判能力智能化,这也是不少人担心法律职业容易被人工智能取代的原因,因为人工智能与法律思维有着很强的表面相似性。英美法系和大陆法系两大法系分别强调演绎和归纳的重要性,而这与人工智能领域的两大流派(符号主义的编辑法和神经网络)分别对应。神经网络可以学习海量的人类经验实现归纳,而早在神经网络出现之前,符号主义的编辑法已经可以模拟人的演绎推理。基于以上原因,美国、欧盟的法学家和法官都非常警惕人工智能代替人类来作司法判断,这与我国近年来在法院系统极力推广智慧法院建设形成鲜明的反差,个中利弊,尚不明朗,如此便产生了人工智能系统在法院适用的推广与警惕之辩。

(2)智慧城市治理的工具主义与反工具主义之辩。在人工智能为代表的创新驱动发展战略引领下,我国正从IT时代迈向DT时代,为提升治理能力,打造多元主体高效参与的治理体系提供了潜在机遇[19(]p121)。当前市域社会治理现代化需要借助人工智能技术推进智慧城市的治理进程,政府理当成为人工智能发展的主导力量。但现实中,商业机构在人工智能方面的力量远超政府,使得政府不得不大量借助商业机构开发的软件去发展智慧城市,如此便容易受到商业机构的操纵。这种智慧城市治理的鸿沟在当下并不容易逾越,例如,现在公安部门、市场监管部门和阿里合作签订备忘录。“行政机关希望共享平台的数据信息,但可能因为技术问题无法在近期实现。行政机关的信息服务器远远赶不上超级大公司的平台,当平台把数据全部提供给行政机关时,行政机关的服务器马上就宕机了。”[20(]p169)智慧城市的治理一方面需依托人工智能技术予以推动,另一方面政府自身的人工智能技术水平又无法与算法平台进行切割,故而造成了智慧城市治理的工具主义与反工具主义之辩。

(3)劳动力职业领域的替代与反替代之辩。人工智能在应用领域会带来多样化的挑战,对就业市场的冲击不言而喻,也考验着政府能否在填补数字鸿沟方面积极作为。每一次科技革命都会消灭一些旧的就业机会,但对于年轻人而言,同时又会创造出一些新的工作岗位。数字经济进化到以人工智能为核心驱动力的智能经济新阶段,智能化生产作为产业变革和产业创新的主要方式,在对劳动力就业带来挑战的同时,也为实现更高质量的就业提供了契机[21(]p48)。新技术的发展对新岗位的技能要求需要政府从教育、政策、劳动培训、法律规范等方面进行相应的调适,让劳动力能够尽快跟上数字时代的步伐,适应数字社会的发展。由此,在人工智能技术对劳动力职业领域产生替代结果之下也会引起反替代的现象,所谓一物降一物正是这个道理。

四、人工智能法学的空间重塑
人工智能法学的空间重塑可从理念原则与应用规则的维度展开,以宏观与微观的视角结合,让体系融入思考,让算法进入法律。

(一)让体系融入思考:人工智能法学空间重塑的理念厘定
1.横向:树立公法与私法联动协同的法律规制理念。人工智能的发展进程与实际效果是随着国家、企业和个人三者之间的关系而不断变化的。在三者关系之间,公权力规制越强,个人权利获得保护的程度就越高,企业创新受到的限制可能就越多。而国家安全、企业发展还有个人权利保护(具体来说亦即个人信息保护和个人数据保护),三者利益的协调与平衡是人工智能法学始终要面对的难题。公法与私法的分类凸显了各自体系与内容的特点,国家、企业与个人之间的关系涵摄于公法与私法的调整领域之中。从宏观维度审视,人工智能法学应当具备体系化的思维理念,打破公法与私法的界限,使得公法与私法承担不同的使命与功能,并协力合作。在公法领域,一方面,需要更多地关注个人隐私的保护,维护公民的合法权利,制定规则对国家公权力的行使形成相应的约束。另一方面,可以通过一些行政指导如产业政策的推出,促进相关产业的发展。囿于政府目前占有的人工智能整体资源度较低,所以在公法领域并没有实际对人工智能领域予以适应性监管,更多的是从产业促进的角度着眼。例如,《新一代人工智能发展规划》主要是一部产业促进的政策,之后多个省级人民政府也陆续出台了一些促进人工智能发展的产业政策。但当前国内规制人工智能的法律规范还比较少,比如,《电子商务法》第40条规定,对于竞价排名的商品或者服务,应当显著标明“广告”,这是一个算法的披露义务。如此便涉及风险防控、责任分配,以及如何通过商业保险以应对人工智能在诸多领域引发的侵权事故,在责任分担方面以一种市场化的规制予以防范。这便是涉及公法、私法共同协力形成一种协同治理的局面。

2.纵向:明确不同层次法律挑战的转型式规制理念。横向维度的展开侧重于公法与私法关系联动协同的法律规制理念,纵向维度的着眼则立足于人工智能引发的递进式社会层次需求,与人类的不同需求本能适恰。人工智能对传统法律规范的深入跨越将对安全、权利、治理层次带来挑战。首先,人工智能法学应当关注于安全领域研究,例如,自动驾驶技术无论带来怎样的便利,安全因素的考量无疑是第一位的,就像人类也只有在保障生存的前提下才能关注法律赋予的权利应当如何行使与救济。其次,人工智能会导致新权利的产生,例如,人工智能是否被界定为一个法律人格,人工智能的生成物是否受现有法律的保护。此外,新的权利产生会引发新的权利冲突。权利层面的需求在保障安全需求下应进一步予以关注。再次,治理层次的需求更多是从本源溯及,蕴含着社会维度的思考。这并不意味着聚焦于安全因素与权利因素之后才能关注治理因素的需求,治理领域包含安全与权利的范畴,格局更为广阔。在人工智能法学研究发展之下应更多突出安全领域的需求,这是底线规制且必须优先保障,权利层面需确权之后才能纳入保护区间,涉及权利冲突时弱势一方的利益更应予以倾斜式保护。以人的安全需求为出发点的人工智能治理理念应当贯穿始终,并随着安全与权利领域规制的完善而逐渐深化。

(二)让算法进入法律:人工智能法学的空间重塑规制展开
1.厘清人工智能的定义适用与权利内涵。明确人工智能的定义,是展开人工智能法学适用研究的前提。人工智能就是对人类智能的模仿,并力图实现某些任务,包括计算智能、感知智能、认知智能三方面。弱人工智能是专用人工智能,很难适用于其他场景;强人工智能是通用人工智能,可以迁移到其他场景中应用。法律不是规制虚拟的现实,本身还只是对现有社会关系进行调整和规范,因此人工智能法学的探讨以及现阶段关于人工智能引发法律现象的规范与调整主要是在弱人工智能语境下进行。在人工智能技术引领下,隐私权的权利内涵将进一步丰富。在政府、企业、个人三方的博弈过程中,个人无疑是最为弱势的一方。隐私权作为最基本的人格权利之一,在全球人工智能化浪潮中得到了不同程度的重视,例如,欧盟以建立统一的数据市场为初衷,在2018年出台了《一般数据保护条例》,这是迄今为止全世界关于个人隐私保护最为严格和全面的立法,它对如何保护个人隐私作出诸多规范,这是从法律角度对数据的保护。《一般数据保护条例》以及《非个人数据自由流动框架条例》(欧盟,2017年)形成了个人信息自决权,决定向谁披露或者不披露以及如何披露的问题。这也提示我国政府抑或企业在人工智能的治理过程中需要明确数据开放的范围和标准,探索数据匿名化的新型数据保护工具。

2.明晰关系主体的法律义务与追责路径。在人工智能时代,法律是远远滞后于科技的。在中国,相关法律的缺位为互联网金融与电子商务的蓬勃发展埋下了伏笔,直到立法者意识到这个领域的问题并制定规则之时已力不从心。后来者是法律所约束的对象,这一调整范围自然固化了先占者的垄断地位,同时先占者又利用已经积累起来的技术资源与数据优势不断抢占未被法律规制的新领域,如此循环往复使得后来者与先占者之间的差距越来越大。

所以,应当明确人工智能发布主体的强制性法律义务,包括数据要具有广泛性,避免歧视,保护隐私;对算法、数据等保留记录,加强透明性和追溯性;主动提供高风险人工智能系统使用相关情况的信息。例如,说明其局限性及风险,告知公民以及与其互动的是人工智能系统而非人类。有效防控风险,不能完全依赖人工智能已经达成共识,为此,需要加强人工监督,对远程生物识别进行规制。此外,在商业机构巨大利益的诱导下,事后追责型法律无法避免利用人工智能进行损害范围不可控的赌博式行为,因而需要在人工智能发展之初即制定较为严格的追责机制,在人工智能的监管中明确追溯性,保障人工智能的行为和决策可事后追责,消除公众的不信任和偏见,并逐渐健全事前预防的机制路径。

3.调整产品安全与平台监管的规制进路。于产品和服务维度而言,人工智能研发的产品可以纳入产品质量法律规范领域予以规制。同时,人工智能应用一般包含多样化服务,所以在人工智能的产品开发和服务推广上可以将其统合纳入产品质量法的调整范围。同时在具体规则的安排上应明确要求对人工智能系统进行风险评估,保证算法的透明性。在人工智能的技术环境中,需要的透明度是为了获得易懂的知识帮助用户理解所处的智能空间正在发生什么[22(]p115)。如此才能进一步明晰生产者概念,扩大责任范围,对于软件或者其他数字功能导致的产品缺陷从而造成损失的,明确赔偿义务和责任范围,减少受害者的举证责任,建立有针对性的统一国家责任规则。于平台监管维度而言,为打赢防范化解金融风险攻坚战,切实发挥好监管科技在防范金融风险中的作用,我国必须夯实监管科技的技术基础,破解监管科技的技术短板,有效提升系统性金融风险的防范化解能力。具体建议如下:一是夯实监管科技在大数据、人工智能与区块链等层面的基础技术,深入探究技术模型在金融监管层面的有效性[23(]p55)。二是贯彻风险监管理念,根据不同的风险确定合理的监管措施,从行业和预期用途、安全保护、消费者权利和基本权利的角度去评估风险。如此,方能保障人工智能的运行处于法律监管之下而且能够根据需要进行合法的人工干预,这才是人工智能法治化的应有之义。

五、结语
《新一代人工智能发展规划》擘画了“到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心”的战略要求,也对人工智能法学的发展赋予了重要的时代使命。综上,针对人工智能法学现存的概念误区与理论误区,应及时予以明晰与厘定。人工智能法学的分级误区、技术误区、程度误区与逻辑误区是在人工智能积极扩张推广之下造成的局面。科学技术领域的进步是激进和不可逆的,弱人工智能视阈下的透视是人工智能理论发展的前提。传统法律规范中的公法与私法分隔带来安全、权利、治理的进阶式层次挑战,使得人工智能的技术性风险在宏观与微观方面有着复杂多样的体现。为此,应从理念原则与应用规则的具体维度展开,将公法与私法联动协同及差异化法律挑战的转型式规制视为理念本源,以厘清人工智能的定义适用与权利内涵,明晰关系主体的法律义务与追责路径,调整产品安全与平台监管的规制为演进视角,实现让体系融入思考、让算法进入法律的空间重塑。

参考文献:

[1][德]克劳斯∙施瓦布.第四次工业革命[M].李菁,译.北京:中信出版社,2016.

[2]Buchanan BG&Headrick TE.Some Specula⁃tion about Artificial Intelligence and Legal Reasoning[J].Stanford Law Review,1970(23).

[3][美]凯文∙D.阿什利.人工智能与法律解析——数字时代法律实践的新工具[M].邱昭继,译.北京:商务印书馆,2020.

[4][美]瑞恩∙卡洛,[美]迈克尔∙佛鲁姆金,等.人工智能与法律的对话[M].陈吉栋,董惠敏,等译.上海:上海人民出版社,2018.

[5]刘艳红.人工智能法学研究的反智化批判[J].东方法学,2019(5).

[6]杨猛宗.人工智能机器人劳动者主体身份的反思与应然转向[J].政法论丛,2020(6).

[7]孙培福,付卓然“.弱”法律人工智能研究的逻辑起点[J].社会科学家,2020(11).

[8]程龙.从法律人工智能走向人工智能法学:目标与路径[J].湖北社会科学,2018(6).

[9]孔祥俊.法官如何裁判[M].北京:中国法制出版社,2017.

[10][英]卡鲁姆·蔡斯.人工智能革命:超级智能时代的人类命运[M].张尧然,译.北京:机械工业出版社,2017.

[11]舒国滢.法学是一门什么样的学问?——从古罗马时期的Jurisprudentia谈起[J].清华法学,2013(1).

[12]高奇琦.人工智能治理与区块链革命[M].上海:上海人民出版社,2020.

[13]刘坤轮.何以固本:法学教育如何回应人工智能时代?[J].山东社会科学,2020(11).

[14]万彭军.人工智能的历史辩争、风险审视与未来预判——以对教育发展的影响为重点[J].浙江社会科学,2021(2).

[15]张建文,潘林青.人工智能法律治理的“修昔底德困局”及其破解[J].科技与法律,2019(5).

[16]黄晓伟.互联网平台垄断问题的算法共谋根源及协同治理思路[J].中国科技论坛,2019(9).

[17]周婧.习近平法治思想开创依法治国新局面[J].暨南学报(哲学社会科学版),2021(1).

[18]崔亚东.世界人工智能法治蓝皮书[M].上海:上海人民出版社,2020.

[19]张蔚文,金晗,等.智慧城市建设如何助力社会治理现代化?——新冠肺炎疫情考验下的杭州“城市大脑”[J].浙江大学学报(人文社会科学版),2020(4).

[20]陈亮,张光君.人工智能时代的法律变革[M].北京:法律出版社,2020.

[21]孟祺.数字经济与高质量就业:理论与实证[J].社会科学,2021(2).

[22]刘云.论可解释的人工智能之制度构建[J].江汉论坛,2020(12).

[23]程雪军,尹振涛,等.金融科技创新与监管路径探寻:基于监管科技的研究视角[J].电子政务,2021(1).



奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-6-7 11:21

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表