引言
以Chat-GPT为代表的生成式人工智能取得了重大的突破,不仅可以创造性地输出高质量文本、图像、代码、视频等内容,而且能作为基础设施在各应用领域快速扩散,将大模型变为直接可用的服务,帮助各行各业的用户接入生成式人工智能,撬动新的生产力革命。OpenAI的研究人员将个人职业与GPT能力的对应程度进行评估,并在2023年3月20日发布研究报告,报告认为大约80%的美国劳动力中至少有10%的工作任务会受到GPT的引入影响,高收入工作受影响更大,相比之下,体力劳动较多的行业受到的影响较小。但在2023年7月28日,谷歌DeepMind宣布推出RT-2:全球第一个控制机器人的视觉-语言-动作模型,相当于让机器人拥有了一颗人工大脑,不再需要复杂的指令,用简单的自然语言就能操控机器人,而且机器人可以自己分析更多信息,自行判断下一步该做什么。这一创新不仅打开了在有人环境下使用机器人的大门,让机器人可以接手人类所有的体力活动,也意味着之前OpenAI发布的报告中认为大模型影响不到的部分也能被覆盖。
如果考虑互补技术的发展,大型语言模型的潜在影响将显著增大,这也恰恰说明了GPT变得越来越通用。全球管理咨询公司麦肯锡在最近的报告《生成式人工智能的经济潜力:下一波生产力浪潮》中指出,生成式人工智能每年可能为全球经济增加2.6万亿到4.4万亿美元的价值,因此,人工智能的发展已成为不可阻挡的潮流。但是正所谓“生一利,则必生一弊”,在享受人工智能带来的巨大红利时,随之也会产生了一系列问题。即使对人工智能的应用有无数美好的设想,但人工智能自身的技术特性以及延伸风险也会对现代社会底线伦理造成冲击,这种冲击会对人类社会产生什么样的影响?如果生成式人工智能继续发展到能建立它自己的价值体系,那基于人工智能产生的伦理是否会赋予底线新的内涵并打破人类稳定生存的零界点?当人工智能成为新的生物并与人类共存时,这种硅基生物是否会跳脱出人类的控制并按照它的利益来构建新的道德文明?因此,如何从底线伦理的视角理解人工智能的风险并处理好人与人工智能的关系就成为我们必须思考的问题。本文聚焦人工智能的多维度风险对底线伦理的挑战,分析我国人工智能的规则体系对底线伦理的维护及局限,并从发展与安全的原则出发,尝试构建人工智能发展与底线伦理坚守的协同共治体系。
一、从底线伦理角度嗅到人工智能的利维坦气息
底线思维是一种优先考虑到最坏的情况,并防止和化解最坏情况出现的思维,从伦理的角度而言,底线的进一步含义是防止社会不致崩溃,是作为社会人员的人们必须遵守的最起码和最基本的道德规范,也就是底线伦理。因此,可以把底线伦理比作一种基础的道德共识,这种共识不仅适应中国,也适应世界上的其他地方,它意味着存在某些不应逾越的行为界限,如果社会上的人们都试图去逾越这种界限,这种恶的蔓延就很可能造成社会崩溃。人类文明发展至今,从康德到罗尔斯,都在努力阐释一些基本的道德义务,从而构成一种义务论的普世思想传统,特别是在经历一场浩劫之后,会更加强调“不杀人”这类义务的绝对性。马克思指出人的活动之所以本质不同于动物的活动,就在于这是有意识的活动。因此,有了明确的自我意识,才有了一种实际存在的伦理关系,即使随着社会的发展伦理关系不断发生着变化,但本质上都是为了人类更好生存的同时实现社会良性运转。如果说底线伦理很好地维持了人与人之间的关系,那从底线伦理的角度观察人工智能,则会面对一个新的问题:如何处理人与人工智能的关系?
首先,人工智能的发展日新月异,具身智能已在路上,通用人工智能的实现也只是时间问题,当人工智能的运用在人类日常生活中越来越频繁,对人工智能的恶用和滥用风险也会不断增加,包括在国家层面复刻人类的偏见和歧视,直接或间接地诱发暴力冲突;在社会层面形成数据垄断,导致人类无法辨别人工智能生成信息的真实性,从而形成平台集权化和数字鸿沟;在个人层面,人工智能强大的功能和简单的操作模式可以进一步降低犯罪门槛,比如利用以ChatGPT为代表的生成式人工智能,实施诈骗、假冒身份、虚假信息传播、网络攻击等违法犯罪活动,甚至可以说,生成式人工智能通过便捷的交互方式和强大的生成能力,对潜在犯罪分子的恶意起到了放大作用,在某种程度上促生了犯罪行为,进而造成对底线伦理的破坏。
其次,虽然当前各国的立法与政策均强调要发展“负责任的人工智能”,但如果人工智能全面介入人类的生产生活,谁能为人工智能的应用和继续发展承担责任则面临困境,很多人提倡可以预先用算法训练人工智能的价值观,将友好利他、诚实无私等优良的价值观编写进去,同时不设定统一的价值判断标准,以帮助人工智能尊重世界文明的多样性,促进人工智能多元价值体系的生成。具有讽刺意味的是,人类自身都无法做到的事情却希望人工智能做到,但人工智能本身却需要人类社会提供数据支撑,这就会形成一个悖论,即数据的提供方和最后的输出方无法在连接路径上达成共识,这将会不可避免地造成未来发展的不确定性和治理隐忧,动摇社会底线伦理的根基。
最后,有关通用人工智能的想象,可以借鉴地球脑的比喻:手机和电脑通过网络互通,就如同大脑皮层神经元的网络节点,当规模不断扩大达到千亿数量级时,便可能涌现出属于网络整体的自主意识,也就是地球脑的觉醒。这个比喻极具启发意义,正如业界认为以大语言模型为代表的人工智能是通往通用人工智能的必经之路一样,当模型被海量的数据持续训练时就会促进模型的自我意识觉醒,不仅会出现涌现能力,也会对没见过的数据表现出很强的泛化能力,其理解、生成、逻辑、记忆等核心能力也会产生质的飞跃,从GPT-1到GPT-4,可以观察到随着数据集的量变,ChatGPT正逐渐掌握迈向更高智能的阶梯。那么,当人工智能在未来突破到“奇点”的那个时刻,人工智能将可能全方面超越人类,并成为人类无法定义的存在,虽然由人而生,却可能反客为主。当人工智能具备了价值判断和价值建构的能力,它是否还会和人类的价值观保证一致?是否会倾向于完成它自身的特殊目标而反对人类?如果人工智能脱离控制并开始攻击人类,面对一个比人类更聪明、更具有控物能力的超级智能,人类将毫无胜算,底线伦理也将被人工智能彻底摧毁。
二、人工智能的三维度风险对底线伦理的挑战
风险与挑战之间拥有紧密的联系,当现实社会被人造的不确定性激发出新的风险时,就必然会对现实的理念、规则等提出挑战。而底线伦理的特征包含普遍主义和基本义务,普遍主义的内涵在于“无论是什么人,都不能无所不为;不管是谁,都要受到同样的一些道德规范的约束”,基本义务的内涵在于“不追求崇高,但要履行基本义务”。所以当人工智能以井喷之势席卷全球并深入到人类生产生活的各个领域时,支撑人工智能内部训练的算法风险、人工智能产生的侵权责任风险以及延伸到人工智能背后的平台权力膨胀风险,都会给底线伦理带来严峻挑战,本文将从上述三个维度对人工智能可能产生的风险进行剖析,厘清当下人工智能的风险产生的原因,进而梳理出人工智能对底线伦理的破坏路径。
以大模型为代表的人工智能以参数和训练数据的规模为核心特征。半导体咨询研究公司SemiAnalysis之前发布文章,对OpenAI的GPT-4模型的架构、训练数据、参数等信息进行揭秘,确认GPT-4的模型参数在1.8万亿左右,训练数据在13万亿左右。随着参数和训练数据规模的提升,人工智能的各方面性能也更加卓越,伴随而来的却是算法可解释性的流失。算法可解释性是人类与算法模型之间的接口,不仅是算法模型的直接代理,也是人类施加算法控制权的着力点,因此算法可解释性代表了算法能否清晰明确地解释其运行过程和结果,对于验证模型决策结果的安全性和可靠性具有重要意义。但是ChatGPT依托的深度学习模型是经典的黑箱算法,无法进行全面解释,自然就会导致算法的透明度降低。即使有局部解释作为替代性方法,与全面解释相比依然差距过远,反而会破坏技术信任,带来更多的不良影响。所以以ChatGPT为代表的人工智能在基础技术架构的复杂度方面严重限制了模型中算法的可解释性,致使其在不同的场景下面临不同的风险,也将彻底颠覆以算法透明为内核的算法治理体系。同时,人工智能的跨模态生成也会引发算法的公平性风险,包括种族歧视、性别歧视等,并且这种算法歧视极具隐秘性,甚至可以针对不同的族群在面对相同问题时生成不同的方案。更令人心惊的是,人工智能在训练中展示出的涌现能力和领悟能力加剧了算法的危害,使得算法能够以潜移默化的方式对人产生妨害,重塑特定群体的认知,这意味着一旦人工智能使用不当,就会形成难以察觉、难以救济的群体危害,也就会造成对底线伦理的破坏。因此可以看到,当生成式人工智能点燃通用人工智能的星星之火时,算法的风险已经弥漫开来。
2023年4月,亚马逊云科技发布了命名为Amazon Bedrock的人工智能大模型,以关键基础设施服务商的角色加入了全球大模型的竞争。这种服务的价值在于可以让所有人都基于已有的大模型、专用的AI算法以及自身的数据构建生成式AI应用,也就是模型即服务的新商业模式——将大模型变为直接可用的服务,帮助各行各业接入生成式AI来构建一个全球新市场。所以人工智能的演进终究会落到各个行业的实践中,也就催生了人工智能责任承担的一系列问题。可以想象,当人工智能作为一个新的“角色”嵌入各行各业中并与每个人建立连接,对它的定义将和过往的科技产物完全不同。如果人工智能在迭代中逐步具备“自我”的特征,人与人工智能之间将出现认知紊乱,这种紊乱会导致一旦出现侵权问题,将难以追溯侵权的类型、过程及其他影响因素,也就难以判断具体由“谁”来承担责任。目前,人工智能已经出现了侵权责任问题,包括知识产权侵权,虚假信息诈骗等,基于此,有学者认为可以从人工智能的主体视角探索责任承担的可能性,在法律上承认人工智能的主体地位;也有学者认为目前的人工智能仍未达到强人工智能的标准,其运作受人控制且需要由人提出明确的要求才能执行,所以尚不具有独立的法律人格;还有学者主张根据人工智能的发展阶段划分,在弱人工智能时代,人工智能不具有法律人格,发展到强人工智能时代,可以根据实际情况重新设计规则赋予人工智能法律人格。当新事物的发展具备强大的现实意义却又无法定性,则必然会对稳定的社会形态以及伦理和规则造成冲击,对于人工智能来说,传统的底线伦理已经无法适应它的发展轨迹,当人工智能开始挤占人际交流的空间,以带来“他者”意义上的类型增添来成就新的社会关系时,也是人类社会底线伦理崩塌的开始。
在web2.0时期,互联网技术高速发展并开始进行大规模的商业化应用,互联网公司通过资本和技术优势重新改变了人们的生活方式,正如卡斯特所言,权力是一种关系能力,它使得某个社会行为体以符合其意志、利益和价值观的方式,非对称地影响其他社会行为体的决定。因此,互联网平台在传统的公私权力结构中形成了新的权力集合,有学者称之为第三极权力。这种权力驱使其滥用技术来控制信息的生产、传播和投送,造成平台与用户之间的信息落差,从而参与社会公共管理,影响公众认知。但是从我国近几年的互联网立法和司法实践来看,国家已经意识到平台权力集中所引发的问题并采取了有效的措施,包括在《互联网信息服务深度合成管理规定》、数据安全法等规定都涉及对平台权力的管制。web3.0时代提倡内容由用户创造,数据归用户所有,致力于实现去中心化,这种新形态有助于用户实现数据主权回归,从而体验更加自主、开放、公平的互联网环境,但人工智能的出现却能将用户自身的数据资源重新聚集,当人工智能作为基础模型嵌入千行百业后,就有可能使得背后的平台权力再次膨胀,触发平台打破底线伦理的界限。从外部视角来看,随着社会生活的愈发复杂化,大多数问题都无法通过个人或者群体的经验解决,而需要求助于系统化的知识,这就使得人们对于人工智能构建的知识网络产生依赖甚至敬畏。换言之,这种依赖和敬畏反向促进了人工智能通过创造新知识来指导人们的行为,并且这些新知识又被互联网平台利用来加强对用户的支配,进而在这套知识的生产、分配以及流通的系统中循环且持续扩张它的权力效应,使人们在不知不觉中成为权力的被动拥护者和执行者。这种平台权力看似“温和”,却有能力不断地重构权力,通过人工智能对全行业无死角地嵌入,使得用户一直处在它所设计的信息流中,进而对整个社会产生支配力。因此可以看到,平台在人工智能的加持下权力持续膨胀,却没有相适应的伦理体系和制度加以制约,这就可能诱发平台权力的再次异化,也会打破社会对于底线伦理的共识。
三、我国人工智能的治理规则对底线伦理的维护及应对局限
目前,我国已初步形成由法律、行政法规、司法解释、部门规章及一系列规范性文件组成的涉及人工智能治理的全面规则体系,包括民法典、网络安全法、数据安全法、个人信息保护法、《互联网信息服务深度合成管理规定》(下称《深度合成规定》)、《互联网信息服务算法推荐管理规定》(下称《算法规定》)、《人工智能安全标准化白皮书》等,从数据符合规范、信息内容的监管、知识产权和个人信息的权益保护等多个方面确认了人工智能的伦理要求。2023年8月15日,由国家网信办、国家发改委、教育部等七部门联合印发的《生成式人工智能服务管理暂行办法》(下称《暂行办法》)正式施行,该《暂行办法》也是全球首部生成式人工智能领域的监管法规,立足于解决当前大模型研发和应用带来的紧迫问题,帮助促进生成式人工智能的健康发展。因此,我国人工智能的治理规则体系已经具备了科学的框架,但是在伦理先行的原则指导下,实现发展和安全的平衡确实不易,面对人工智能技术的日新月异,现行的规则体系既有混合治理的优势,也有实际的局限,具体总结如下:
第一,《暂行办法》《算法规定》《深度合成规定》之间衔接紧密,确定了治理对象是生成式人工智能服务,避免对技术的过分规制而影响技术创新。服务的内涵也直接扩大了规则的治理范围,将人工智能的组织形态、演化体系、应用环境一并纳入,实现了整体性的治理。在此基础上,强调提供和使用生成式人工智能服务应当遵守法律、行政法规,尊重社会公德和伦理道德,比如不得宣扬民族仇恨、民族歧视、暴力色情等有害信息;不得侵害他人肖像权、隐私权等个人信息权益;要提高生成内容的准确性和可靠性等,这些都表明人工智能的治理规则对伦理的重视,但是在责任承担中,却普遍规定由服务的提供者承担责任。比如《算法规定》就确定了算法推荐服务提供者的责任;《深度合成规定》虽然规定了深度合成服务提供者、深度合成服务技术支持者以及深度合成服务使用者合法依规的义务,但更多还是针对深度合成服务提供者来设立合法依规的责任;《暂行办法》确定了生成式人工智能服务提供者的责任。这样的设计虽然不是传统法律对于网络信息安全治理的二分法思路,但是因为人工智能已经开始实质性参与内容的创作,并且随着人工智能的发展在内容贡献上会越来越多,如果仅由服务提供者承担责任,则可能会诱发不同场景下其他使用者、生产者等主体的道德缺失。同时,从人工智能的设计和运行环节来看,特别是人工智能大模型还要嵌入各个行业中,也会使得责任承担的主体越发分散和多元,仅靠服务提供者来承担责任在现实中缺乏精准性。
第二,2021年11月1日,个人信息保护法正式施行,这是我国首次在法律层面从公平透明原则、个人的知情权和拒绝权等方面对个人信息的自动化决策进行了相对全面的规定,从法律层面维护了底线伦理的准则,之后从《算法规定》到《深度合成规定》,也都涉及对科技伦理的审查。《深度合成规定》对深度合成服务提供者、深度合成服务技术支持者、深度合成服务使用者的规定,从内容上防止了底线伦理被破坏,比如《深度合成规定》第14条第2款规定:“深度合成服务提供者和技术支持者提供人脸、人身等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。”可以发现,这条规定将处理生物识别信息的合法性基础仅限于单独同意,并没有设置其他兜底性条款,这就是用制度来引导人们的行为,防止在未取得他人同意下通过人脸生成、人脸替换等技术侵犯他人权益,降低了通过技术手段实施欺诈、胁迫等犯罪行为的概率。同时对合成内容(包括人脸生成)也作出规定,如果可能导致公众混淆或者误认,就应当对其生成、编辑的信息进行显著标识,向公众提示深度合成情况。可以说,现行规定从多个角度防止人们运用人工智能等新技术越过道德底线,减少社会“恶的蔓延”。但是,因为人工智能发展迅速,对于平台+人工智能的运行缺乏制度回应,难以抑制人工智能背后平台的权力膨胀,并且由于其应用场景不断变换,所以依然存在需要进一步解决的问题,包括单独同意的取得和查验该如何设计,显著标识的具体方式在多场景的应用下如何变化,科技伦理审查如何平衡各方且能够得到细化和执行等,都需要在未来的规则设计中有所考量,进而也会对底线伦理的坚守逻辑提出新的挑战。
第三,在算法和数据层面,《深度合成规定》第14条强调训练数据应当符合个人信息保护的有关规定,《人工智能标准化白皮书》分析了人工智能面临的新风险,《暂行办法》强调了训练数据来源的合法性和不侵犯他人知识产权。因此,结合上述规定可知,我国认可训练数据本身应该可靠透明、真实准确,同时符合网络和数据等安全合法依规方面的要求,这也与底线伦理的目标一致,即不说谎、不侵犯他人的合法权益等。同时,《算法规定》《深度合成规定》均规定了定期审核、评估、验证生成类算法机制的要求,《算法规定》的算法评估侧重于规制诱使用户沉迷、过度消费等违反法律法规、伦理道德的算法模型,《深度合成规定》则更关注深度合成算法的安全性问题,并要求对提供的模型或模版开展安全评估。但是,无论是算法备案还是对数据的监测评估,在法律效力上都属于行政规章设定的义务,不属于行政许可,所以并不能把这些义务当作提供相关服务的前置条件。这也会产生新的矛盾,如果对算法和数据没有进行有效管理,则很大程度上会引发新的权利侵害问题;如果提前履行算法和数据的管理义务,既与行政许可法第14条相冲突,在具体的操作层面,也存在算法模型安全的具体标准还不够明确、数据来源合法性存在模糊之处等问题,如果对于这些问题没有妥善解决,不仅会对人工智能的良性发展造成影响,也会造成一些基本义务的缺失。
四、人工智能发展与底线伦理坚守的协同共治体系
“社会存在决定社会意识”是马克思主义的经典命题之一,新技术的出现会对整个社会产生新的影响,也会通过新的现实基础来改变人的意识。人工智能作为全球目前最受关注的科技创新,已然渗透到科学研究的各个领域,无论是人工智能大模型展现出的通用能力,还是人工智能嵌入各个行业的创新表现,都在不断重塑人类的认知,因此,人工智能的发展已经不可逆转。而在社会的转型期,都会面临价值规范和道德原则的变化与调整。底线伦理作为一种基本的道德要求,意味着某些不应逾越的行为界限或约束,一旦失守则可能造成社会的崩溃。但是,将人工智能和底线伦理总是放在对立面并无意义,因为两者的出发点是一致的,都是为了增进人类福祉、让社会更好地发展,所以面对人工智能的风险延续和传统治理方式的应对局限,要建立人工智能发展与底线伦理坚守的协同共治体系。一方面要把控好人工智能的研发节奏,做好技术控制,打造共建共享共治的治理格局;另一方面,要在伦理先行的框架下打开我国人工智能的规则桎梏,在现行制度体系下填补漏洞、发挥优势,为推动我国人工智能的健康向善发展奠定良好的制度基础,也为国际人工智能的治理模式提供制度指引。
危机意识并不是悲观主义的观点,而是要提前预防最坏结果的出现并做出行动,所以在危机意识的指引下,要从技术控制的角度出发,并促进不同主体之间的协同合作。之前《暂停通用人工智能研究》的公开信在全球流传,就是呼吁暂停人工智能训练系统,并建议人工智能实验室和独立专家共同开发和实施一套针对高级人工智能设计和开发的共享安全协议,同时建议人工智能开发人员与政策制定者合作,加快开发强大的人工智能治理系统。所以国家与国家之间,国家内部的不同部门、不同主体之间要开展合作,把控好人工智能的研发节奏。首先,国家的政策制定者要时刻保持危机意识,不盲目跟风,同时定期组织企业、用户群体、非政府组织、科研机构、一线研究人员等参与研讨,互通意见,多维度地构建管理部门与行业组织之间的共治格局。其次,可以建立协同治理的“同心圆”模式,即在外侧圆建立各方利益表达、协调、监督的机制,以不违背底线伦理为基础,共同对处在中心的人工智能规则体系进行“渗透”,相互影响,相互转化,保证技术发展和安全可控的双轮驱动。最后,要做好国际合作,构建国际软硬法混合治理的模式,循序渐进地促进国家之间的互动与协调,比如建立国际化的人工智能监管机构,并设立一个阈值,规定任何超过设定阈值的人工智能系统都需要接受审核;让每个国家都能参与进来,针对人工智能伦理规则交流碰撞,以人类命运共同体的形式呼吁各国在国际实践中遵守约定的伦理规范。
我国一直是伦理先行原则的积极践行者,并把这种原则纳入各项领域。2023年4月,科技部发布了《科技伦理审查办法(试行)》的征求意见稿,针对科技活动提出事前、事中和事后的伦理审查要求,也对伦理审查委员会的组织以及审查程序作出了一系列规定。虽然科技活动包含的范围过大,没有针对人工智能作出专项规定,但该征求意见稿也从整体的视角对人工智能的治理规则提出了新的要求。面对人工智能对社会底线伦理的挑战,需要打开规则桎梏,在现行制度体系下通过法律解释等方式填补漏洞,包括改变算法治理的方向、完善治理路径、细化人工智能侵权责任承担机制、建立开放合作的监管治理模式,整体发挥我国的制度优势,帮助我国抓住新一轮科技革命和产业变革的机遇,推动我国治理体系和治理能力现代化。
第一,面对人工智能算法可解释性的流失,可以改变治理思路,既然算法的运行无法达到完全可解释性的效果,则可以由算法的可解释性过渡到算法的可控制性。比如,可以探索以算法控制算法的监管体系,通过算法技术的仿真环境进行虚拟测试,为算法控制算法提供各项指标以及执行依据。同时,可以对人工智能的算法妨害细化责任主体,明确各个主体的责任关系和责任能力,并在模型研发早期就将伦理理论和规范介入,通过这些责任要求来加强人工智能系统的安全性和合法依规性,进而确保算法的可控制性。面对人工智能应用场景的不断丰富的趋势,要推动人工智能法草案的进一步完善,通过立法解决法律位阶的矛盾问题,并建立风险导向的场景治理路径,区分高风险场景和一般风险场景,通过抓住对风险场景的识别来确定对数据来源审核的程度以及标识的变化。比如可以采用负面清单管理制度,对于负面清单内的事项实行事前监管,对于负面清单外的事项实行事后监管,重新对应风险场景,做到科学的分级分类管理。
第二,我国针对特定人工智能产品或服务的规定,基本上都是将服务提供者作为相关义务的履行主体,因此需要重构归责原则,细化责任承担的主体,对于生成式人工智能这种不同于传统技术运行机制的大模型,要对其作出决策的底层逻辑以及人机互动的因果关系进行综合考量,在此基础上构建人工智能责任承担的网式机制。就生成式人工智能而言,需要从服务提供者、技术支持者、服务使用者、监管者以及人工智能本身来构建权责匹配的治理机制,在权利与义务对等以及罪责行相一致的原则下,结合数字发展的新形态,编织生成式人工智能的责任网格,以确保不只由单一主体承担责任,降低法律规制的负外部性。同时需要填格赋能,激发各主体对于人工智能发展的创造力,做好人工智能从硬件到场景应用的全产业链的各项工作,共同促进人工智能安全又可靠的发展。
第三,传统的监管方式难以适配人工智能发展的新形态,因此,对于人工智能背后的平台权力膨胀风险,可以掀开面纱落实到具体的科技企业上,构建科技企业自我规制与政府监管的衔接互动机制,发挥科技企业对技术漏洞挖掘和应用风险预测的敏锐度,以制度设计激发企业对社会的责任和对伦理的坚守。在监管措施上,可以学习欧盟的“监管沙盒”制度,通过创建一个受控制的环境,对人工智能系统进行测试,并给予伦理、创新等方面的指导。这样既能帮助监管者了解人工智能系统的全貌,进而消除信息壁垒进行有效治理,也能帮助提供者评估人工智能系统的运行情况并获取专业的监管指导,从而进行针对性的完善,降低成本。同时,监管需要兼顾中小企业的发展,避免一刀切、惩戒式的监管思路,要重视中小企业的需求,比如对符合条件的中小企业,可以减免人工智能系统的测试费用、提供免费的增值服务等,共同促进中小企业的创新活力。
结语
现代社会的价值愈发多元,而稳定且可预期的社会也是每个人安心生活的基础,这就要求现代社会必须存在底线伦理,否则社会就有崩溃的风险。人工智能的快速发展既引发了全球新一轮的技术革命,也对底线伦理造成了巨大的冲击,甚至还在不断产生新的挑战。因此,本文提出要建立人工智能发展与底线伦理坚守的协同共治体系,一方面要树立危机意识,加强不同主体之间的沟通与合作,在国内构建协同治理的同心圆格局,在国际上构建软硬法混合治理的模式,并以人类命运共同体的形式呼吁各国在国际实践中遵守约定的伦理规范;另一方面要在伦理先行的框架下打开我国人工智能的规则桎梏,面对人工智能的算法风险,探索以算法控制算法的监管体系,由算法的可解释性过渡到算法的可控制性,并通过立法完善不同应用场景的治理路径。面对人工智能的侵权责任风险,重构归责原则,细化责任承担的主体,编织人工智能责任承担的网格。面对人工智能背后的平台权力膨胀风险,构建科技企业自我规制与政府监管的衔接互动机制,以制度激发企业对社会的责任和对伦理的坚守。未来,随着人工智能的发展不断朝通用人工智能的方向迈进,需要继续用制度维持社会底线伦理的要求,毕竟,技术的创新发展是为了人类的福祉,而不是为了摧毁人类。
往期精彩回顾
包于宏等|防范化解重大风险视域下优化自贸区营商环境的法治路径——基于舟山片区的探索实践
罗晓琴|论长三角生态绿色一体化发展示范区执行委员会的法律地位
杜佳璐|构建通用人工智能的人机协同治理方案研究
李潇潇|人工智能侵权民事责任研究
陈建军|人类参与视角下人工智能生成物著作权法分类保护研究
陈馨月|人工智能生成作品的归属研究
上海市法学会官网
http://www.sls.org.cn