以数字技术为支撑的各类数字体的行政组织法地位问题是确定数字体行政法律责任的前提性问题。面对科技发展的不确定性,相较于追寻主体性问题的终极结论,提供一套通向结论的判断方法是更为科学与开放的方案。人工智能等数字体主体性的判断本质上非以自然人为标尺。无论自然人还是法人作为法律主体,均是基于法律系统的“自创生”。数字行政工具、数字行政系统、智能行政工具与智能行政系统四类行政数字体,从不同维度冲击着现有行政组织体系。数字体进入行政法主体体系,需要经过“事实可行性”与“规范必要性”的双要素考量,以及“行政工具→一般法私主体→行政法公主体”的三阶段审查,满足对应阶段的条件方具有对应的行政组织法地位。目前关于自动化行政的合法性控制实质上只是第一个阶段的审查。为合理分配行政法律责任并保有人类的主体性地位,只有通过三阶段审查并得到立法授权的数字主体才能成为独立承担行政职能、具有有限人格的行政法公主体。否则,数字体仅能作为行政工具或受委托的一般法律主体。
一、问题的提出
在农业社会,自然人是法律主体的核心;在商业社会,于自然人之外,增加了法人这一主体类型;而数字社会是否有可能形成由自然人、法人、数字人、人机结合体构成的社会,引起了理论界的广泛讨论。《国务院关于印发新一代人工智能发展规划的通知》明确指出,到2025年,我国要“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。在规范上,面对各类数字技术的冲击,对以人工智能体为代表的数字体规范地位的明确是建立法律体系的首要任务。唯有确立法律上的主体或客体地位,方能讨论法律关系的安排与法律责任的分配问题。
在当下对于数字体的规范框架中,政府往往以监管者的身份出现,对数字技术背后所涉及的研发者、运营者等进行规制。2023年7月,中国国家互联网信息办公室联合国家发展改革委在内的六大机关发布的《生成式人工智能服务管理暂行办法》(以下简称《人工智能管理暂行办法》)即规定了政府监管下生成式人工智能提供者的责任。实际上,在以人工智能为代表的数字体深度运用的趋势中,政府机关既是监管者,也是利用者,甚至可能是开发者、协作者。与其他法领域探讨人工智能等数字体是否具有主体资格进而赋权不同,行政法领域关注数字体的法律地位,主要在于明确数字体的公法地位,进而对其进行控权。《人工智能管理暂行办法》将人工智能提供者作为归责主体,实际上是为契合现行法秩序,将内容生产者的责任转嫁到产品提供者身上的权宜之策。现代科技在提升人类生产能力的同时,风险也伴随而至,立基于商业社会事后调整的法律规则体系,不得不在风险预防原则的指引下为未来而计议。
目前,行政法学中已有大量关于人工智能技术、自动化行政法律地位与规范框架的研究。多数学者基于现有技术发展水平与运用形态,将人工智能技术作为一种行政工具、行政执法的方式,进而采用程序规范框架。少数学者则着眼于人工智能技术的高级形态,认为其已经具有一定的主体性特征,可以成为行政代理主体或行政助手,进而采用责任规范框架。
数字体是作为主体还是客体、行为者还是行为方式,在其法律关系属性与规范强度上均会产生差异。本文以为,面临技术发展的不确定性,基于人类整体认知力的局限,关于数字体是否具有法律主体资格的肯定或否定结论,都可能面临被证伪的风险。搁置获得终极答案的意图以及伦理层面的积极或消极立场,提供能够获得或接近相关问题可靠答案的判断方法,或许是更为科学与开放的方案。由此,本文拟绕开对于人工智能等数字体主体性的实体讨论,从程序性视角提供一种关于判断数字体行政组织法地位的审查框架。
二、数字体行政组织法地位的争议及其判断基础
现有关于数字体行政组织法地位的不同认识,源于人们对于数字体一般法律地位的争议。产生相关争议的一个重要原因在于,学者们对于主体性判断基础的认识不同。
关于数字体一般性法律地位探讨的相关观点,可以被归结为肯定论、否定论与折中论三种类型。肯定论者通常以数字技术所能具备的能力或能完成的目标为考察基点,认为当数字体发展至成熟阶段,将具备类似人的能力,“因此智能性人格不应当只作为法律中的客体存在,还要具备主体资格”。否定论者则认为,即便数字技术发展至成熟阶段,数字体亦不应具备人的主体性。“模拟和扩展‘人类智能’机器人虽具有相当智性,但不具备人之心性和灵性”,“尚不足以取得独立的主体地位”。另外,折中论者则往往分领域、分程度地肯定数字体的法律主体资格。如有论者认为,相关数字体“基于伦理性人格的缺乏而无法进入亲属法和身份法领域,即参加人身法律关系,但可以深度参与财产法律关系”。也有论者认为,“由于人工智能具有的法律人格有限,其无法完全独立承担侵权责任”。折中论实际上是承认数字体的主体资格,只是在条件上有所限定,其逻辑上系对新事物部分存在的肯定,实质上系对法律属性的肯定。
关于人工智能等数字体在行政法中的地位,相关探讨也可以区分出基于否定论的客体说与基于肯定论的主体说等观点。
在关于数字体行政组织法地位的探讨中,客体论主张或默认将应用于行政法领域的人工智能等技术形态,视作一种不具备独立主体性的辅助行政机关执法的工具、手段或方式。对此,有论者认为,“数字系统作为行政机关行使权力的延伸线,本身并没有独立的行政职权,也不具备独立承担责任的能力”,“因此,立法不应赋予数字系统行政主体的资格,而应将其视为行政机关完成行政任务的具体机制和通道”。
当然,将数字技术界定为行政法律关系的客体,并非表明其不受严格的法律规范。与客体地位认定相关联的通常是程序性规范框架,即通过对作为执法工具的人工智能施加一定的程序性要求,来保障其运行符合法治原则。只不过在这一规范模式下,责任最终归属于行政机关、开发者或使用者等传统主体。
应该说,面向当下,这种“客体定位+程序控制”的规范模式,是将人工智能等数字体纳入既有行政法体系的务实选择。其既承认技术对执法效能的提升作用,又通过程序规则将其限制在辅助性、工具性的功能范围内,避免冲击以“人”为核心的主体制度。然而,随着人工智能自主性的提升,这种基于客体预设的程序控制正面临挑战。
数字体行政组织法地位的主体说则认为,“随着数字政府变革的不断加快,我国行政法治体系必然直面电子化行政所带来的主体性冲击以及行政方式差异”。客体说已经无法解释现实中人工智能技术的发展与运用,也无法妥善应对涉数字化行政法律关系的责任分配问题,应该在客体性之上有限承认人工智能在行政法上的主体资格。主体说又可以分为受委托的行政代理主体说和受委托的行政助手说。
(1)受委托的行政代理主体
行政代理主体说将民事代理理论引入数字体行政组织地位的判断中,认为“能够自主决策、自动执行的电子化行政平台”,“承担起某些类型化、机械性公共服务事项的决策与执行活动”,“在经过法定程序之后”,可以“作为特定行政机关委托代理人的新型行政主体”。持此观点的论者同时指出,数字平台应区分为公共性数字平台与非公共性数字平台,只有进入行政治理体系中的“数字平台”才属于电子化行政主体。民营数字平台的“公共性”在当下只能视为“辅助性电子行政主体”。在行政代理说下,“数字化行政主体的行为一概推定为行政机关的意思表示,法律效果均归行政机关”,责任也由被代理的行政机关承担。
(2)受委托的行政助手
行政助手说类比民营化框架下私人参与公共任务的形式,将高级人工智能定位为政府的数字行政助手。行政助手理论源于德国行政法,是指行政机关执行特定任务时,私人受行政机关委托予以协助,并按期完成指示工作的现象。“行政助手相当于行政机关手足的延伸”。有论者认为:“人工智能体未获得职位关系时,或许也可以行政助手的身份协助履行执法任务,并基于其有限的法律人格,承担相应的法律责任。”此学说主张积极看待人工智能在数字政府中的应用,强调人工智能具有一定的独立性,但这种独立并非意味着完全脱离行政机关。行政助手在所处理的事务上仍具有较强的辅助性特征,其仍处于行政机关的监督和控制之下。
有论者认为,与行政代理主体说相比,行政助手说更强调人工智能的自主性。但实际上,两种主体说都强调人工智能的责任归属于被代理主体,与行政委托关系中的责任归属结构同构,本质上都属于广义的受委托主体。
赋予人工智能等数字体主体地位是为了更精确地归责。即便行政委托说下是由委托主体对外承担责任,但受委托主体同样可能承担相应的内部责任。人工智能受委托说主体说本质上呈现的是一种“主体认定+责任分担”的人工智能规范模式。当然,主体说面临的最大质疑在于,目前人工智能等数字技术虽然展现出一定自主决策能力,但与传统意义上具有完全自主意识和行为能力的主体相比,仍存在显著差异。
当前关于数字体一般性法律地位的多数探讨,背后潜藏着“以类比智人确定数字体类型,以数字体类型确定法律主体资格”的逻辑。其重点在于探讨数字体是否具有自然人法律主体的构成要件,即探讨数字体是否具有拥有人格的人之自主性与独立性。严格意义上,这实质上是在探讨数字技术与人的关系,而非数字技术与法律主体资格的关系,“看似是两种截然不同观点与立场之争,实则是关于人的本体论之争”。
法律主体资格的问题不等同于人格人的问题。在数字体进入法律主体关注范畴以前,法律主体的范围历经变迁,法律主体概念的外延是不断扩展、开放的历史,本质上是法律系统逐渐意识到并发展自身独特性的功能分化的历史。
不同于以血缘、地域为基础的块状分化社会,现代社会是高度复杂性社会。法律系统因发挥“稳定规范性预期”的独特功能而从全社会系统中分出,并在功能和结构层面维持着既封闭又开放的“自创生”运作。卢曼指出的社会系统的自创生属性,受到智利生物学家马图拉纳和瓦雷拉所开创的神经生物学研究理论的影响。马图拉纳和瓦雷拉意图使用自创生这一新的术语来说明生命体自我生产的特质。
传统理论把社会看作由个人组成的世界,而在系统论之中,社会则是由多个功能子系统构成。自创生系统(如细胞、有机体或人类神经系统、心理系统与社会系统等)只根据自己内部特有的运作规律性来实现自我连续性,而不是依靠外部的直接调控。以法律系统为例,作为自创生系统,其不由其他社会子系统所决定,而是有自己的形成逻辑。本质上,正如前述,法律主体体系从刚开始的“人可非人”到后来的“非人可人”,是法律主体试图挣脱自然人束缚的历史,是法律系统不断从社会系统中基于稳定规范性预期的功能而不断分出、自创生的历史。
在法律等自创生功能系统中,“作为有机体和心理系统的‘人’被归诸环境”。人既被归诸环境,若期望法律系统可对现实中的人的行为予以规制,则必须让现实中的人经过转译进入规范性的法律系统当中。进言之,“法学创造法律人格概念,从而将现实实体与法律主体分离开来,现实的人属于社会的范畴,法律主体属于法律的范畴,它们不是同一的”。一方面,法律系统的法律主体并非一个仅与自然人对应的概念,而是一个在主体类型、主体范围上的系统内转译的自主概念。另一方面,法律系统关于人可为什么以及不可为什么的要求,仅能约束法律系统而难以约束道德领域的人。人格与法律系统发生联系,仅在于两者于演进过程当中基于结构耦合发生了沟通。
法律主体是一种基于社会功能分化的法律系统内的功能性装置。法律演化将法律主体从人格论的束缚当中解脱出来,法律主体的内涵与外延由此获得了基于独立性的开放性。这一独立性与开放性表明,某一事物能否成为法律主体最终取决于法律系统内部的考量,而与其是不是自然人无必然关联。对于法律系统而言,自然人是环境,数字体也是环境,无论是否承认其存在,都将对法律系统产生激扰。法律系统如何感知这种激扰、行政法是否可以将事实上的数字体转译为规范上的行政法主体,归根结底需要对数字体的主体性进行规范系统内部的自主审查。
三、数字体行政法运用的理想类型
数字技术在诸多方面对法律形成冲击,认识与厘清数字体之于法律冲击的事实形态是法律地位理论建构的前提。为此,不同学者从不同角度对涉及法律的数字技术进行了类型化建构:如将法律算法化区分为代码驱动型算法法律化与数据驱动型算法法律化,将自动化行政方式区分为“自动化规则制定”和“算法裁决”,将自动化行政系统区分为非逾越系统与逾越系统,将人工智能类型区分为弱人工智能(ANI)、通用人工智能(AGI)与超级人工智能(ASI)等。这些不同视角的分类虽然补强了人们关于正在到来的数字社会事实认知上的不足,但它们或是对运用于法律领域某一类型数字技术的局部展开,或是对数字技术科技系统纯技术分类的无差别借鉴。在数字社会这一更具整体性的背景下,对于触及行政法之数字技术,可以采取更具全面性的事实观察视角与更具涵盖性的理论类型构设。
法律规范体系的展开,在于对一定主体实施一定行为的事实提炼与规范评价。对于数字体之于现行行政法体系的冲击,从宏观视角而言,可以从组织和行为两个维度进行观察与分类。进言之,以组织的独立性为标准,数字社会中的主体可以分为组织不独立与组织独立两个维度;以行为的独立性为标准,数字社会中的主体可以分为行为不独立与行为独立两个维度。组织的独立性是相当于传统行政法主体的独立性,即数字体在组织上是否独立于自然人或传统组织而存在。无组织上的独立性者,本质上只是工具。有组织上独立性者,具备无需诉诸外部主体的自我循环能力,可以称之为系统。行为的独立性是指数字体是否有独立于自然人和传统组织体的行为意识,技术上以是否有深度学习能力为标准。无行为独立性即仅为低级数字构造物,可以称之为低级数字体。有行为独立性即为高级数字构造物,可以称之为高级数字体,或称为智能数字体。
由此,以组织独立性与行为独立性为标准,可以把涉及公共行政的数字技术分为不具备组织独立性与行为独立性的“数字行政工具”、具备组织独立性但无行为独立性的“数字行政系统”、不具备组织独立性但具备行为独立性的“智能行政工具”与具备组织独立性与行为独立性的“智能行政系统”四种理想类型(如图1)。
图1 数字体行政法运用的理想类型划分图
首先,数字行政工具。数字技术最初级的运用,往往既无组织独立性也无行为独立性,即在构成上存在传统执法者、组织的参与或依附于传统组织,在行为能力上也无基于深度学习能力的自主意识。这是目前运用最广泛、最常见的行政数字技术类型,典型如行政执法中的无人机、具有行驶记录功能的卫星定位装置以及突发事件预防中的在线监测设备等。其本质上仅在于完成行政决定中的某一个环节——如语音与图像识别、信息收集传输、舆情分析等——而非主导全部行政流程,仅为数字行政的辅助工具。
其次,数字行政系统。数字技术的实践创新不仅体现在技术本身的发展,也体现在人们运用数字技术模式的创新。数字技术进阶的运用,可以表现在组织与行为两个方向。表现在组织方向,即由组织不独立向组织独立发展。此时,在构成上,数字技术形成独立于传统主体(自然人与法人)的以数字技术为构成元素、可自我循环的系统。这一数字技术实践类型亦较为常见,典型如全流程纳税申报审核扣缴系统、全过程的智慧应急监测预警处理系统以及全自动交通违章处罚系统等。其独立于传统组织,可以完成行政决定的全部环节,只是在行为上仍是基于事先设定的指令行事,属于组织独立但行为不独立的数字行政系统。
再次,智能行政工具。数字技术的进阶运用,还表现在行为能力上,即低级数字体向智能数字体方向发展。此时,基于深度学习能力,数字技术在行为上拥有更加智能地独立于传统组织的意识。其在设定的技术、伦理与法律框架内自主行事,而非仅机械执行指令。不过,由于功能定位或使用领域限制,其仍是依附于传统组织的工具。这一类型主体的运用取决于科技系统的技术突破,目前主要在民事领域展开,在行政执法领域尚处于探索阶段。自动化行政的前端领域,如全自动行政工具、强人工智能工具等涉及这一类型。目前,DeepSeek类生成式人工智能可以基于海量语料分析被运用于人机对话、内容创造,由此会涉及作品的产权归属问题,进而触及责任主体的问题。相关技术运用于行政任务的某一个环节,即可能成为提升行政效能的智能行政工具。
最后,智能行政系统。数字技术发展至高级阶段,表现为既具备组织独立性也具备行为独立性。即在构成上无需传统执法者、组织的直接参与而以独立形象参与内外部法律关系,在行为能力上亦具有在基础伦理框架之内、基于深度学习能力的自主行为意识和裁量能力。这一类型主体的发展既取决于科技系统的技术突破,也需要人们对科技运用模式的创新,通常表现为融合具身人工智能与生成式人工智能技术的数字体。如“具有特殊的情感处理系统”的智能机器人阿米莉亚、出席英国议会的虚拟公务员“佩珀”以及我国应急管理部、工业和信息化部致力于发展的能够实现全自主控制的应急领域智能机器人等,若它们的深度学习能力被进一步拓展,将极有可能以更独立自主的身份与行为对传统行政组织体系形成冲击。
当然,上述四种数字技术构造是理论上的理想类型,它们可能会随着技术发展、运用模式创新、适用领域开放而进阶转化。除了需细分之处,本文统一以“数字体”称之。
四、数字体行政组织法地位的审查要素与路径
法律系统作为社会功能系统自创生结果的解释,仅为数字体这一新型构造体进入行政法主体体系提供了自主判断的理论空间。随着技术的发展,数字体有无可能由客体地位进阶成为行政法律关系主体,需要经过法律系统内部严密的合法性审查。结合法律关系主体与客体的逻辑关系与功能目的,本文认为,数字体若要经由客体身份进阶进入行政法主体体系必须经过“事实与规范”双要素考量和“客体与主体地位转换”的三阶段审查。
就双要素考量而言,首先是对于数字体主体性的事实考量。即数字体是否能成为行政法上的主体,需要考虑数字体在技术上的成熟性以及基于其上的行动能力。其次是对于数字体主体性的规范考量。即事实上具有独立要件的构造体,是否有必要被作为法律主体对待。而就三阶段的审查而言,则是数字体从工具性客体地位到一般性法律主体再到行政法上公主体性地位的进阶审查过程。
(1)数字体应同时具备组织独立性与行为独立性
数字体进入行政法主体体系的事实基础,取决于科学系统的技术发展与人们运用数字技术模式的创新。在技术语言上,存在对数字体按成熟度高低进行的分类,但进入法律系统的考量标准,依然要转译为法律系统的语言。对数字体基于组织独立性维度与行为独立性维度的四种分类,已是从整体上对数字体进行的事实层面的考量。此处基于行政法主体的特殊性作进一步的标准细化。
所谓组织独立性,要求数字体在运行上具备无需依附于传统主体的组织构造,以区别于行政工具。这映射到行政法上,可以体现在功能定位、组织规则、控制方式等维度。具言之,在功能定位上,数字体非仅作为行政流程的一个环节,而是可以承载某一行政行为的全部流程;在组织规则上,数字体能够基于独立的内部组织算法维系自我运转,并与外部构造体区别开来;在控制方式上,执法者主要是通过事先的信息控制而非过程中的信息控制或物理控制来与数字体进行交互。
所谓行为独立性,要求数字体在技术上具有基于深度学习能力的自主行为空间,以区别于低级数字体。这映射到行政法上,可以体现在行政决策、行政执法的理性水平、中立立场与裁量能力等维度。如在理性水平上,数字体应拥有不低于公职人员的行政理性与行政效率;在行政立场上,数字体应具备网络技术的中立属性,不能受传统主体干扰而至偏私;在裁量能力上,数字体能够基于自我学习能力进行法律涵摄。这主要是指全自动裁量,既包含要件裁量,也包含效果裁量,排除了数字体提供者已经设定明确假定条件、行为模式、法律后果,仅根据设定要素得出对应结果的数字体。
具备成为法律主体事实基础的数字体,组织独立性要件与行为独立性要件应该同时满足。以此为标准,前述四类数字体中,数字行政工具、智能行政工具两类数字体,除非发生技术升级与功能定位的进阶,否则不具备成为法律主体的事实基础。
有争议的是第二类具备组织独立性但不具备行为独立性的数字行政系统,如全流程自动化的无人审批系统与全流程自动化的应急处理系统等。政务类平台的特殊性在于,其公共性、中立性身份决定了其利益上无需归属于某一组织。行政代理主体说论者即认为,进入行政治理体系中的“数字平台”属于电子化行政代理主体。但在本文组织独立性与行为独立性的双重标准下,相关政务平台类数字行政系统并不具备成为法律主体的事实基础。目前而言,政务平台系统虽然具有全程无人参与、独立覆盖某一行政行为的组织独立性,但仍是执行行政机关的指令,缺乏独立的行为意识与裁量能力,因而其具备主体性的主张难以在本文的判断框架中获得证立。
具备组织独立性与行为独立性的第四类数字体——智能行政系统——拥有成为法律主体的事实基础,若其独立性能进一步在前述行政法的特殊维度体现出来,即具备成为行政法公主体的事实基础。此时,其是否具备成为公主体的规范资格,需进一步进行事实考量之上的规范考量。
(2)数字体应具备承担法律责任的现实可行性
成为法律主体最主要的目的在于分配法律责任。数字体能否具备行政法上的主体性,还需考察数字体担责的现实可行性。对此,有论者认为:“如果将人工智能实体作为行政法律责任的主体,则难以实现必要的威慑功能。因为人工智能实体不具有自然人的情感,无法像自然人一样因受到行政处罚而产生畏惧的心理状态从而调整自身的未来行为。”
不过,亦有相反的观点指出,数字体的基础不在身份性,而在财产性。“法律赋予法人具有财产权与赋予机器人具有财产权二者并不具有实质差异。市场经济中,有些法人可能就是计算机软件运行,自然人仅仅只是工具,而不具有独立意志。”“在此,法律并不因为公司的意志能力或者人的因素才能成为财产权的主体;在大陆法系,财团法人设立之后,其发起人当然地退出法人。由此,法人具有财产权,并不在于独立意志,而在于法人本身。”
本文以为,在前述观点以外,关于数字体承担法律责任可行性的考察,需要进一步注意以下两点:
第一,前述关于数字体法律主体性的探讨,主要是在探讨数字体作为民事主体、刑事主体以及行政相对人主体承担法律责任的可行性。相关论断仍然是将数字体类比为私主体所作的结论。有论者即认为数字体“承担行政法律责任的方式不仅仅只有经济性的罚款,还包括诸如通报批评、行业禁入、责令停产、行政拘留等其他责任形式”。数字体作为公主体一方承担公法责任的可行性,与作为行政相对人等私主体承担责任的逻辑与类型不尽相同。针对行政相对人的通报批评、行业禁入、责令停产、行政拘留等责任形式,并不在公主体行政责任之列。
第二,责任背后确定的是一种权益分配关系,是否作为责任主体,不仅仅在于考虑对于该主体本身的影响,更在于考量对于法律关系涉及之所有相关主体责任分担的影响。前述有论者认为将人工智能实体作为行政法律责任的主体,难以实现必要的威慑功能,显然主要是考虑责任分配对责任承担主体本身的影响,而未完全顾及责任分配对于整体法律关系参与者的调整作用。
整体上看,与私主体不尽相同,对为公共利益而行事的公主体赋予责任,其主要目的不在于对个人的报应与威慑,而在于对偏离公共性行为的修正以及对偏离行为造成损害的填补。
第一,考察数字体是否能承担公法上的行为责任,本质在于考察能否通过不利负担,促使数字体修正已经作出的违法行为。这主要存在两种可能路径:数字体自身有修正可能或者数字体拥有履行其行为责任的工作人员。如果两者都不具备,则缺乏承担责任的可行性。对于前者,就前述四类数字体而言,如果能写入责任负担之前的违法行为禁止以及责任惩戒之后的行为修正算法,则具备承担责任的可行性。对于后者,为数字体配备履行代表、管理职能工作人员的问题,可类比法人结构探讨。无论是作为社团法人的公司,还是作为财团法人的基金会等,都可以在法人本身具备主体性的基础上,配备工作人员辅助法人实际履行责任。同理,若可以为数字体配置如维护、管理人员等在内的工作人员,通过对工作人员职务义务与责任的设定,促进工作人员履职尽责,则可以实现数字体作出不合法行为之后的行为修正可能。需要注意的是,这种行为责任是通过“数字体外部责任—工作人员未尽到职务义务内部职务责任”的两阶段逻辑链条完成的,而非工作人员直接对外承担责任。另外,其间的工作人员仅是数字体本身的维护、管理辅助人员,不参与数字体实体行为决策,不影响数字体的组织独立性与行为独立性的判断。
第二,数字体基于财产性人格承担财产责任,可行性阻力相对较小。考察数字体是否能承担公法上的财产责任,并非如私法人一样,考察数字体本身是否具备通过自然的市场交易活动获取财产的能力,而在于考察在法律上能否赋予数字体独立财产,以使得数字体基于该财产进行违法行为之后的损害填补。公主体的财产主要可以源于预算拨款、自筹经费等。对于数字体的财产责任,有论者还提出可以保险制度为依托展开。整体上看,对于在行政法中承担公共任务的数字体,若能为其设置独立账户,对其进行拨款或者由其通过完成相关任务进行自筹款,或者能为其设置保险制度,则可能具备对外承担财产责任的基础。
在事实考量之上,是否需要将具备组织独立性、行为独立性与担责可行性的数字体作为独立承担行政职能的公主体,还需要经过如下规范性必要性考量:
(1)合理分配行政责任的必要性考量
数字体是否具备公主体性,首要的规范考量为:在基于事实独立性基础上,考虑数字体参与执法场景所涉及的关系网络中,确立数字体主体资格与否对于整体行政责任分配的影响。数字体的主体性确认不仅在于数字体本身,亦在于与数字体关联的利益相关者,“只有在法律上赋予其主体地位,才能在法律责任分配上更加公平地实施,对没有过错者的权利给予更恰当的保护”。有学者认为,“算法决策具有高度自动化的特征,人在决策中的作用大幅降低,甚至可以由人工智能算法自动得出决策方案”。诸多情形下,“算法隐匿、算法偏差等问题的存在,并不来源于行政主体的过错与失职”。此时,让无过错的传统主体承担责任,“违背了权责一致的原则”,可能损耗相关主体的行政积极性,进而阻碍数字政府建设的进程。由此,在数字体完成行政任务的过程中,算法决策错误的行政责任往往无法像传统行政责任一样,一概由行政组织体承担。
将满足事实条件的数字体视为主体还是客体,在责任分配上的区别在于:对于主体,规范将直接赋予其责任;对于客体,规范将基于客体之状态、行为,将责任接入客体背后的主体。在私法中,设立有限责任公司等法人,在于切断法人本身与股东之间的责任关系,从而保证市场主体积极参与到投融资交易等市场行为之中。在我国公法之中,总体上不让公职人员直接对外承担责任,而让组织等法人承担公法责任。这与私法上确立有限责任公司法人资格隔绝股东责任虽不完全相同,但可收相似之效。
对应到人工智能等数字体的责任分配则同理。有学者认为,“智能机器人作为具备独立思考能力的智能系统,其主体意识必然将削减参与主体的过错程度,并减轻民事主体的责任承担”。满足组织性独立要件与行为独立性要件的数字体,其过程与结果不完全由或完全不由公职人员直接控制,而是由自身智能意识产生。此时在数字体因自身智能意识出现决策失误或行为失范等情形下,将责任直接归结至数字体,截断公职人员面向相对人的责任链条,可以保障公职人员的工作积极性,也可以激励行政机关以及其他数字体提供者无后顾之忧地参与数字政府建设。
(2)保持数字体中立立场的必要性考量
基于现有理论,具备组织独立性与行为独立性的数字体,将“具有类似于人类独立思考以及深度学习的能力,这是其与其他技术类科技手段最主要的差异”。一方面,其“并非简单应用人类设计的算法,而是产生自己的算法”,这样的技术理性是技术化的、程式化的,是“脱离了个体情绪的系统化、模式化、步骤化的操作”。另一方面,“机器人与人的最大差别就是理性人面对复杂的情况时,只能作出其最为满意而不是最好的选择;而机器人能够冷静地在各种方案中找出最为优异的选择”。数字化的行政作业基于数理逻辑展开,可排除情感欲望、私人利益,在降低人工成本、提高行政效率、统一执法标准、客观中立等方面良益颇多。
不过,如果数字体本身的主体性不足,则其价值中立、行为理性等属性与功能,可以被其他主体通过主客体关系、附属的主体间关系进行渗透。若将数字体的权力、责任赋予相关行政机关,难以保证行政机关在内外部责任分配之时将机关利益、非理性因素嵌入数字体。数字体由此可能偏离中立、理性轨道,成为机关利益的代言人。尤其是当多部门合作行政时,不厘分传统主体与数字体之间的主体界限,则传统上多部门之间竞争与推诿的矛盾,很可能在数字体背后重现。质言之,若数字体不存在规范上的独立性,则其事实上的独立性将徒有其名,技术上之中立性将难以得到保障。基于上述考虑,赋予具备事实独立性的智能行政系统等数字体主体资格,在数字体与行政机关之间建立明确的组织界限、行为界限以及基于其上的责任界限,某种程度上可以防止行政机关的部门主义、价值偏好、情绪化、非理性等顽疾对数字体的行为选择形成负面影响。
当然,所有数字体均应接受基础伦理算法的植入与备案,在设定与运行中接受外部独立方对其可能存在的算法偏见与歧视等失范行为的监督。即便数字体具备主体性,在数字体行为实质上受到传统主体干扰出现偏私、非理性之时,还是应刺破其主体资格之面纱,追究背后主体之责任。
由于法律系统的规范属性以及客体到主体的多层次结构,数字体由客体到主体的地位转换并不是一步到位的,而是需要进行阶段性的审查与控制。
由人类发明的数字体,在以人为中心构建的社会制度与理论体系中,起初均默认为人类所用之客体,不具备主体性。但是,进入法律领域,数字体作为客体的行政工具,也需要进行适用审查。自动化行政“与传统行政活动在主体、程序、裁量等方面都存在差异”,潜藏着包括“信息、数据收集以及处理的错误”“对个人隐私和数据保护的侵扰”等诸多法律风险,相对人及利害关系人的权益保障将面临新的挑战。这一阶段的审查,即业已展开探讨的自动化行政、算法行政的合法性审查。也可以说,在三阶段审查框架下,当下关于自动化行政的合法性控制问题的探讨,仅属于第一个阶段的审查。目前而言,法律保留原则的限制、算法规则的备案与审查、技术性正当程序的控制等条件均应作为判断数字技术能否转换为合法行政执法工具的标准。
行政法上的公主体是法律主体中的特殊主体,需要在一般主体性之上再具备公主体性。因此,满足事实独立性考量条件者,首先具备改变其工具性地位,成为法律主体之可能。如学者所言:“在数字政府背景下,当自动化系统的自主性日益增强时,该系统可能从‘工具’、‘技术’转变为‘代理人’、‘行动者’。”此时,相关数字体仅可能先成为一般法律主体,如民事主体、行政相对人主体等,并不能径直成为行政法上的公主体。不过,作为一般法律主体的数字体已经具有接受委托执行任务的主体性,可能由行政工具变为行政事务的执行者。目前关于数字体行政组织法地位的受委托主体说实际上只是在这个意义上承认数字体的行政法主体地位,并未真正触及数字体的行政法公主体地位。
对于从工具到私主体转化的判断标准,既有理论主要是从数字体的自主性、独立性等方面展开。如有研究基于数字体具有与人类进行交互、向人类提供其所不知道的知识观点并与人类专家进行深度讨论的能力而提出的交互主体性概念,即可构成一般法私主体性的判断标准之一。在本文三阶段审查框架下,需要注意的是,一方面,一般法上的主体性主要是对满足事实独立性条件的数字体的一种规范性承认,而非对仅具备客体工具属性的数字体的法律控制。另一方面,一般主体性是以一般法领域的事实独立性为基础,而不需要满足前文所述的成为行政法主体的特殊条件。具言之,这种私法主体性只需要数字体具有运用于一般社会生活领域的独立性即可,而不需要具有运用于行政执法领域的独立性。私主体的规范必要性也只是作为一般法律关系中拥有私权利与承担私义务的必要性,而非作为行政法律关系中拥有公权力与承担行政责任的必要性。当然,经过一般私主体性审查的数字体接受行政委托,还应视具体委托事项而需满足相关具体受委托条件,但这一条件是否具备并不影响数字体一般法私主体地位的成立。
行政法上的公主体是一种基于公法事实基础与规范目的的理论塑造。“参与行政法律关系的主体所要求的条件比民事法律关系主体的条件要严格一些”。成为公主体,需要先具有一般领域之主体性,继而再具有行政法上独立承担行政责任之主体性。即有别于私法主体享有一般权利与承担一般义务的主体权能,成为公法主体,意味着某一构造体不仅具有主体性,还取得了独立以自己名义行使公权力的资格,由被管理者、一般主体,成为享有管理者身份同时承担行政责任的特殊主体。一般领域之主体性是对社会生活中之物进行之首次规范提取与理论塑造,行政法公主体是对具备一般主
体性之物再进行行政法上公共主体性的特别规范塑造。由此,即便成为法律主体,如没有从规范上拟制为(承担行政责任的)公主体的必要,则数字体无需具备公主体性。关于行政主体性的具体判断标准,即为前文所述事实考量之下的行政法领域的组织独立性、行为独立性与现实可行性标准以及规范考量之下的合理分配行政责任的必要性标准与保持数字体中立立场的必要性标准。
总言之,数字体作为行政法律关系的参与者,需要在事实与规范双要素考量下,经过“行政工具→一般法私主体(民事主体、行政相对人、受行政委托主体等)→行政法公主体”的三阶段进阶性审查,才能进入行政法主体体系,具备公主体性。否则,其仅具备前置阶段的数字技术、行政工具或一般法私主体属性。经过“双要素—三阶段”审查被认定为具备主体性的数字体,可称之为“数字主体”。当然,数字主体是何种类型、拥有何种权能之公主体,仍需进行理论展开。基于数字体目前的智能水平与运用形态,本文以为,即便数字体满足前述审查条件,具备公主体性,亦仅能被定位为被授权的、拥有有限人格的公主体。
结语
数字社会中人工智能等数字体的行政组织法地位问题属于法学理论亟须面对的前沿课题。关于数字技术规范地位的探讨,除了之于技术确定部分的理论因应,也是对技术发展的乐观以及对于技术引起社会风险的悲观所作的风险预防。在技术迭代频繁、事实难以确定的现代社会,这种基于不确定性的风险预防型法治十分必要且极可能成为常态。相对于局部的确定性规则制定,基础的判断框架更具备面对不确定性的包容性。以数字社会为整体性背景下的类型划分,为现在及未来数字技术诸多类型的发展预留了规范空间。相对于绝对否定论或完全肯定论,建构基于“事实与规范”双重考量的“行政工具→一般法私主体→行政法公主体”三阶段的进阶性判断体系,为技术未来发展成熟以及数字体主体性理论与制度本身的风险控制,预留了空间。当然,不论确定数字体为行政法上之客体还是主体,都会对包括法律行为、法律责任在内的整体法律体系产生影响,因而都需要进行进一步的理论建构与规范控制。