群体数据分析技术的兴起使数据处理者可通过群体特征推断群体成员的个人数据,该推断行为游离于《个人信息保护法》的规制范围,引发新型数据风险。群体隐私理论与数据关系理论将该群体应免受不当数据分析的利益(群体数据利益)作为不可拆分的集体利益对待,但该解决方案不可行。群体数据利益是个人数据利益之和,可以通过保护个人数据利益间接实现群体数据利益保护。信息不对称、有限理性等因素使个人数据利益需要公私法融合保护。对涉及敏感个人信息的预测行为,鉴于其高风险性,应通过数据安全保障义务构建公法规制制度。对其他个人信息预测行为,可赋予个人自动化决策拒绝权,退出分析预测,但不宜扩张至其他个人数据权利主张。
伴随着数字文明的演进,数据已成为核心生产要素与社会治理基础资源。自20世纪中叶以来,随着信息技术发展,个人数据面临的风险逐渐增加,各国开始重视个人数据保护。在理论上,形成了以“信息自决权”为核心的个人数据保护理论,强调个人对其数据的控制权。在数字技术深度嵌入社会运行的当下,个人数据已从静态的隐私载体演变为流动的生产要素,个人数据的保护与利用正成为当下重要议题。如欧盟《通用数据保护条例》(GDPR)的出台,将个人数据保护提升到前所未有的高度,确立了一系列严格的数据保护规则,包括告知同意规则、数据最小化原则、数据主体权利保障等。在我国,《民法典》《网络安全法》《数据安全法》《个人信息保护法》等法律法规构建起个人数据保护的法律体系。《民法典》人格权编对个人信息保护作出原则性规定,明确个人信息受法律保护;《个人信息保护法》则对个人数据处理活动中的各方权利义务进行详细规范,保障个人数据权益,进而催生出以《个人信息保护法》为核心的个人赋权型治理框架。现有的研究也立足于上述法律法规,对个人数据的界定、数据主体的权利内容、数据处理者的义务以及侵权责任等方面展开深入探讨。然而,个人数据不仅关乎个体权益,更在群体层面衍生出相关利益形态。毋庸置疑的是,当前群体数据利益及其保护问题正浮出水面。然而,如聚类分析等以群体为单位的数据处理技术正在挑战该治理框架的有效性。数据处理者不再寻求具体个人偏好,而是在群体层面开展数据分析,所致影响也发生在群体层面。其结果是,单一用户的数据选择不仅关乎自身权益,更可能通过关联推断影响其家庭成员、职业群体乃至地域社群的信息安全与人格尊严。而受影响的群体对此毫不知情,《个人信息保护法》也未考虑该群体的利益。这种因数据关联性衍生出的利益侵害,正在侵蚀传统个人赋权型治理框架的正当性基础。综合而言,传统个人数据保护制度以“识别特定自然人”为核心,通过赋予个体知情同意、查阅复制、删除更正等权利,构建起以“个体—企业—国家”为中心的保护框架。然而,随着大数据分析、机器学习等技术的普及,数据价值逐渐从“个体画像”向“群体规律”迁移—通过聚合、脱敏后的海量个人数据,可提炼出具有社会统计意义的群体特征(如区域疾病分布、消费偏好、人口流动模式等)。此类群体数据既承载着不特定多数人的共同利益(如公共卫生安全、社区治理效能),又可能因不当利用引发群体歧视、社会分选等系统性风险。从深层次看,当前我国《个人信息保护法》《数据安全法》虽然对个人数据保护正逐步形成体系化规定,限于“群体数据利益”的法律定位尚未明确,相关法律对群体数据利益保护也存在诸多空白。例如,《个人信息保护法》难以有效保护群体数据利益,《反垄断法》《消费者权益保护法》等虽间接涉及,但保护范围有限、力度不足;又如在数据交易市场中,数据垄断行为损害群体数据利益时,《反垄断法》的规制存在滞后性与局限性,无法应对群体数据利益面临的多样化复杂侵害。同时,群体数据利益保护的监管机制也不完善,现有监管部门的职责不明确导致监管规则缺失、监管分散及协调困难。在数据收集、使用、共享等环节,群体数据利益的保护缺乏具体规范与标准,进而导致群体数据利益受侵害时,影响获得及时、有效的救济。另在群体及其利益界定上,现有研究未能提供清晰、科学的界定方法,群体范围与特征在不同情境下存在诸多差异,难以准确判断某一群体是否为受保护对象。这些无疑都增加了监管及法律适用的难度,影响群体数据利益保护的推进与展开。现有研究、制度机制配置及实践正逐渐暴露群体利益及保护的失衡问题。在个人数据治理法律框架已成定局的当前,如何保护个人数据治理中群体的利益?对此,学界存在群体隐私(group privacy)理论和数据治理的关系理论(a relational theory of data governance,以下简称数据关系理论)等代表学说。前者提出群体隐私权,后者则认为应当构建民主治理路径。但群体隐私权之说与既有权利理论存在冲突,数据治理的民主路径也与我国个人数据治理框架不兼容。欲真正解答该问题,首先需理解该群体的利益如何产生;其次扬弃既有理论学说,分析该利益应当采用何种保护方式;最后,在我国现行法下构建相应保护机制。如此,方能明确群体数据利益的内涵,完善法律保护的理论基础,构建科学合理的理论体系与制度机制,有效回应数字文明演进中的群体数据利益及其保护诉求与挑战,达成个人数据权益、群体数据利益与公共利益的平衡协调。数据处理者基于群体特征信息开展数据分析,对群体作出决策。该种分析行为理论上不属于《个人信息保护法》的调整范畴,却能预测群体成员的个人隐私,并可能对群体形成(无意识的)歧视,由此产生群体数据利益保护问题。
在个人数据治理中,算法基于共同特征构建的群体存在应免受不当数据分析的利益,简称群体数据利益。大数据时代,以群体为分析对象的数据技术兴起,产生群体数据利益问题。该类技术的通常逻辑是,算法将具有共同特征的用户聚集形成群体,之后对该群体进行画像,在建立群体模型后对该群体开展预测推荐等活动,即“群体发现—群体建模—群体预测”。在这一处理过程中,数据处理者针对算法构建的用户群体进行预测分析,处理行为影响整个群体。以用户标签为例,用户标签是对一类对象共同属性的刻画,不完全属于个人数据,当前的商业实践通常基于标签划分不同用户群体,之后对群体开展如商品推送、好友推荐等处理活动。一旦标签管理不当,如设置歧视性标签或者组合不同标签定位群体成员隐私,该群体极有可能遭遇不公平对待。依照《布莱克法律词典》的解释,利益的首要含义是人类欲望的客体。罗斯科·庞德将利益定义为人类个别地或在集团社会中谋求得到满足的欲望或要求。拒绝不合理对待是人类的普遍要求,由算法基于共同特征构建的群体尽管可能不具有集体意识,但该群体仍然存在免受不当数据分析的需求,即所指的群体数据利益。该利益由群体数据分析引发,只有在群体数据分析中才可能准确理解这一概念的法律意义。第一,群体数据利益是群体特征与算法共同作用的结果。从技术角度来看,群体数据利益与数据的关联性紧密相连。所谓数据的关联性,是指有关个人的数据不仅反映数据主体自身,而且可能反映其社会关系或某一群体特征。一个人的数据是拼图中的一块,可以用于推断其他人,反之亦然。算法正是利用关联性,将具有相同或相似特征的数据主体归为一个群体,再分析推测该群体的共同偏好,揭示不同群体的行为差异。在这里,数据处理者重点关注的对象不再是个体,而是经分析建模形成的群体。该群体根据群体特征构建而来,因此数据处理者更关心如何获取、利用群体特征。第二,群体数据利益是免受不当数据分析的消极利益。所谓不当数据分析,主要是指对该群体的过度预测以及基于预测作出的如歧视等不合理行为。当群体成为数据分析的重点对象时,只要数据处理者事先建构合适的群体模型,即便用户(群体)并没有提供此类信息,也可以精准预测该信息。例如,只要有部分社交平台用户愿意提供性取向信息,数据处理者便可基于此构建分析模型,精准预测未提供此类信息的用户(群体)的性取向。对该群体来说,他们未向数据处理者提供更多个人数据,却因为其他人提供个人数据而遭到隐私预测,而个人数据权益不具有禁止他人提供自身个人数据的权能,无法提供法律支持。此外,如果算法本身存在歧视或偏见,对该群体的预测可能将其纳入歧视范围。以聚类画像下的关联歧视(discrimination by association)分析为例,“关联歧视”是指某人因其与受保护群体的关系或关联(如性别或亲缘关系)而受到明显比其他人差的待遇,数据处理者采用的亲和性分析根据兴趣相似性对用户分组,某个用户因为对某文化的兴趣而被归类于与该文化有关联的群体,因此被推送不同广告,可能构成关联歧视。再以预测性警务为例,该类系统的风险并不完全在于其收集公民个人数据(这可通过征求个人同意使之正当化),而是形成分析结果后,执法人员利用相关群体特征对具有相同特征的人采取措施,使其更容易受到公权力的侵害。歧视风险源自算法设计不当,属于算法治理范畴,此处不作重点讨论。第三,群体数据利益具有正当性。只有正当的利益才值得保护,如吸烟者在室内吸烟的利益就不值得保护。利益的正当性论证往往基于善良风俗、伦理道德或其他值得保护的重大利益方面。算法基于共同特征构建的群体免受不当数据分析,这一要求可以得到道德支持。如前所述,包括隐私预测在内的不当数据分析可以揭示群体成员的隐私信息而不必获得其同意,这足以使其陷入隐私泄露的焦虑,有学者将之称为预测性隐私(predictive privacy)。此外,对群体间关系的不当总结极易产生歧视性对待,不符合公平正义的基本要求。因此,群体数据利益具有正当性。
尽管存在群体数据利益,但该利益在当前个人数据治理法律中处于缺失状态,《个人信息保护法》等法律不能很好地保护该利益。群体数据利益源于群体数据分析,该分析方式一定程度上规避了《个人信息保护法》,使受分析群体难以寻求法律支持。第一,《个人信息保护法》仅关注个体层面数据分析,未涉及群体层面数据分析。当数据处理者在群体层面处理数据时,处理结果影响整个群体,数据主体因为具有某一群体特征而可能遭受不利益,但群体特征通常不属于个人数据,不能直接利用《个人信息保护法》进行保护。例如,当数据处理者基于不构成个人特征的用户标签对标签内群体开展预测分析时,数据主体很难依据《个人信息保护法》第24条拒绝该处理行为。欧盟《通用数据保护条例》也存在类似问题。有学者指出,当自动化决策依赖的数据不构成个人数据(如群体画像)时,相关风险仍然存在,该决策却不受《通用数据保护条例》第22条的约束。第二,《个人信息保护法》过于关注数据收集,不同数据处理流程的脱离使得数据主体的行为可能无法决定行为后果,相关群体因此遭遇不利益。通常认为,数据处理者获取用户个人数据后形成个人画像,基于此对用户开展信息推送或其他服务。群体数据分析则不然。大数据分析的特点是数据收集、分析和应用阶段分离,形成知识模型的数据并非源于数据主体,数据主体遭受何种对待极有可能取决于他人自愿提供的数据,而非自己的数据。其结果是,数据主体(群体)尽管未提供此类数据,也可能被分析推断出具有相应行为倾向,进而遭遇隐私预测或群体歧视风险。第三,对于群体数据分析,《互联网信息服务算法推荐管理规定》第17条特意规定了用户对用户标签(群体特征)的删除权,但这一设置的正当性存疑。用户标签是数据处理者劳动所得,其在何种程度上等同个人数据不无疑问。群体数据利益保护制度的缺失与个人数据自决权的理论假设有关。在“个人数据—非个人数据”的划分下,通常认为个人数据处理只涉及数据主体和数据处理者,数据主体之间互不影响,针对不同数据主体的处理行为也各自独立,因此个人数据权益足以保护数据主体。欧盟《通用数据保护条例》、美国《加州消费者隐私法》以及我国《个人信息保护法》等具有影响力的个人信息保护法律采取的均是个人本位,围绕“数据主体—数据处理者”关系展开。因此,作为非个人数据的群体特征信息不受重视。如果将此类数据作为个人数据保护,那么本就不甚明晰的个人数据边界将变得更加模糊,甚至可能冲击个人数据保护制度的正当性:有关个人或个人所属群体的信息无处不在。如学者所言,技术越是进步,能通过技术与个人关联的数据就越多,可能所有数据都会成为个人数据。因此,难以直接通过《个人信息保护法》保护群体数据利益。在群体数据分析技术广泛应用的当前,寻找恰当的群体数据利益保护方式具有理论与实践意义。对此,学界试图从集体(群体)层面回应这一问题,并发展出群体隐私理论和数据关系理论等代表学说。然而,正如下文指出的那样,两种理论在实践中均遭遇困境,很难与我国法律制度兼容。那么,应当如何保护群体数据利益?由此,首先应明确该利益与数据主体享有的个人利益是否存在本质区别,其次才能在法律上定性群体数据利益,进而确定该利益所需要的保护方式。有鉴于此,需先评析群体隐私理论与数据关系理论。学界开始重视群体数据利益保护问题,发展出群体隐私理论与数据关系理论,成为这一领域的代表学说。群体隐私理论和数据关系理论认为群体数据利益应作为整体保护,区别在于前者通过创设集体权利保护该利益,后者试图构建数据的民主治理制度。整体保护思路为分析群体数据利益问题提供了有益借鉴,但无法有效应对该问题。群体数据利益的本质是个人数据利益之和,不具有独立性,集体保护方案无法兼顾不同主体需求,也不契合其利益本质。
群体隐私理论认为存在属于群体的隐私权,群体数据利益属于该隐私权的客体。在此基础上,学者进一步区分不同群体的隐私利益和保护方式。群体隐私理论虽然发现了大数据背景下群体数据利益问题,但其解决方案未能理解隐私偏好的差异性,群体隐私权的构想也难以成立。在群体隐私理论下,群体数据利益属于群体隐私,受群体隐私权保护。卢西亚诺·弗洛里迪较早提出了大数据背景下的群体隐私理论。该理论认为,个人或群体由信息构成,隐私具有身份构成性质(the identity-constitutive nature of privacy),群体的某些信息构成群体身份,群体隐私因此成立。卢西亚诺·弗洛里迪强调,群体成员是否意识到自己身处某个群体并不影响群体隐私的成立。据此,既然算法将用户分为不同群体,那么群体可以作为主体拥有隐私利益,即群体隐私权,以此对抗不当数据处理。该隐私权只能属于群体而非群体成员。在这一观点下,群体数据利益应当受群体隐私权保护。应当注意,群体隐私概念至少可追溯至20世纪60年代,最初是指以群体为边界的个人隐私。爱德华·J.布鲁斯坦将群体隐私界定为个人隐私的延伸,其保护个体在与群体交流互动时寻求的隐私利益,即人们聚集在一起交流信息、分享感受、制定计划和集体行动以实现目的的需求和欲望,个体向群体其他成员透露自己,并要求其他成员为其保守秘密。此处群体隐私是指个人在小群体中的隐私,或者说以群体为边界的个人隐私,类似于社交媒体上熟人聊天群组讨论的私密信息,不涉及群体数据利益。群体隐私理论的最大缺陷是群体隐私权假设与现代民法理论存在冲突。现代民法理论认为,组织享有权利能力的意义在于便利参与法律交易和责任限制,使私人财产与商业债务分离,促进商业交易。组织拥有权利的前提是存在独立意志,否则人格将被否认。对于算法聚合分类形成的临时群体,群体成员尚不可能意识到自己被分类,遑论群体产生独立意志并拥有隐私权。为消除该理论弊端,米歇尔·洛伊和马库斯·克里斯蒂安将群体隐私进一步分为WHVSV型隐私(what happens in Vegas stays in Vegasprivacy)和推导型隐私(inferential privacy)。前者是指群体成员共享的秘密,两位作者强调此类群体成员具有共同目的或共同意志,至少意识到自己身处于该群体,因而可以拥有群体隐私权。X(个人或群体)的推导型隐私,是指在已知该X的某些数据基础上,对X的敏感特征进行逻辑上有效的推导的程度,对推导型隐私的拒绝接近于群体数据利益。推导型隐私的主体是被算法分类形成的群体,不存在群体意识。因此,两位学者认为推导型隐私不足以证成群体的隐私权。相反,其认为对群体的推理分析是正常行为,在生活和科研中都无法避免,不能对其创设绝对权。在这一观点下,算法构建的群体只有当其觉醒群体意识,想要争取利益时,群体数据利益才可能作为集体权利客体得到保护。此外,阿努吉·普里将群体隐私权分为个人的群体隐私权(GRP1)、个人拒绝算法群组分类的权利(GRP2)与群体的隐私权(GRP3)。就其内容来看,GPR1其实是爱德华·J.布鲁斯坦提及的个人在群体中的隐私利益,GPR2是扩展后的个人数据自决权,GRP3是对WHVSV型隐私权的细化。相较于上述讨论,阿努吉·普里的贡献在于强调个人数据自决权的群体隐私面向。在他看来,被算法归于一类的群体由于缺乏自我意识,无法采取行动保护其隐私利益,因此与其从群体层面讨论隐私利益保护,不如直接认为群体分类本身就侵犯个人隐私。这一观点的合理之处在于强调个人可以通过拒绝算法分类来保护隐私,但“分类即侵权”的观点有待商榷。一方面,对于同意个人数据处理的数据主体而言,群体分类并不存在侵犯个人数据权益问题。另一方面,一概杜绝基于群体分类的算法技术,也不利于技术发展。群体隐私理论启发了我国学者对群体数据利益保护的讨论。基于该理论,我国学界主要存在以下观点:其一,遵循个人数据保护逻辑,将推导型隐私解释为个人数据,并强化数据处理告知义务、标签管理义务,以此保护群体数据利益。其二,否认群体特征信息或推导型隐私纳入个人数据的可能,但同时认为该类信息影响个人的社会身份构建,应当作为公共资源保护,基于此要求数据处理行为必须遵循目的正当、内容真实、隐私特别保护等原则。尽管论证逻辑不一,但两种理论方案均以用户标签管理作为群体隐私理论与个人数据保护实践衔接的切入点,认为对数据处理者施加新的保护义务便能解决潜在风险。群体数据利益本质上源于数据分析技术的进步,要求数据处理者承担强制性保护义务自然最为直接。群体数据利益是拒绝不当预测分析的利益,在群体隐私理论下讨论群体数据利益并无不可,但问题在于,强制性义务能否保护群体数据利益。以对群体的隐私预测为例,隐私判断极为主观,其影响也局限于个人,在现有法律理论中被安置于私法领域,强制性义务指向的公法路径是否适合群体数据利益保护,存在较大疑问。例如,当部分用户自愿向数据处理者分享其共同特征以享受相应数据服务时,一概禁止预测行为对该类用户而言未必正当。
在数据关系理论框架下,数据主体间的关联关系(横向关系)是一种公共资源,群体数据利益是对该关联关系的保护需求。据此,该理论主张通过公共治理保护群体数据利益,但其分析逻辑存在瑕疵,解决方案也难以落地。数据关系理论将数据关系划分为纵向与横向关系,群体数据利益即属于此处横向关系群体的利益。该理论认为,个人数据的价值在于此类数据聚合后在群体层面呈现的数据主体关联性或社会关系,能够帮助数据处理者将具有相同特征的主体归为一类,便于其后续采取行动。个人数据处理除了影响该数据主体之外,还会影响未被纳入数据处理但具有相同特征的第三方。换言之,在群体维度下,即便某人(群体)的数据未被数据处理者处理,但只要数据处理者已经分析相同特征数据,就能够知晓前者的信息并基于此预测其行为。据此,数据关系理论将个人数据关系区分为纵向与横向:纵向来看,数据处理者与数据主体之间系个人数据处理关系,受到合同法、消费者权益保护法、个人信息保护法等法律保护。横向来看,数据主体(群体)与受数据处理影响的群体之间存在联系,即横向关系,横向关系群体之利益是否值得保护以及如何保护,当前各国立法均未予以回应。数据关系理论的核心观点大致可概括为横向关系存在、横向关系独立于纵向关系以及数据民主治理。其一,发现横向关系。数据关系理论的重要贡献在于揭示横向关系。在数据关系理论提出之前,早有学者意识到个人数据蕴含的社会属性,但往往从正向视角论述个人数据对社会的利用价值。例如,在我国《个人信息保护法》出台前,就有学者提出个人数据蕴含公共性,可以用于描述其他人,应当抛弃个人本位,基于社会本位设计个人数据利用和保护规则。类似观点在中外学界颇为流行,但少有学者分析个人数据处理对相关群体产生的负面影响。其二,横向关系独立于纵向关系,纵向关系合法不意味着对横向关系的处理合法。在数据关系理论看来,个人数据处理在纵向层面的合法性无法掩盖其对横向层面的消极影响。例如,A、B群体具有相同特征,数据处理者可以合法处理A群体的数据,形成分析模型后用于对待B群体,B群体对模型的形成毫不知情,也无法利用个人数据权利阻止A群体合法提供个人数据。其三,纵向关系与横向关系群体可能存在利益冲突,需要民主治理平衡冲突。数据化并非只产生消极影响。对于纵向关系中的数据主体来说,合法数据利用极大便利其个人生活,保护横向关系群体的利益而限制个人数据利用,亦造成其利益受损。例如,为保护孕情免受商家预测分析而限制应用程序收集孕情数据,这侵犯了那些愿意分享孕情数据以享受在线服务的群体的利益。由于涉及利益冲突,数据关系理论提倡数据的民主治理以平衡冲突。我国学者似乎并没有注意到这一点。在有关分析中,有学者借鉴数据关系理论,认为只能通过施加强制性义务规范保护群体数据利益,如禁止数据处理者进行特定分析活动。若遵循该逻辑,有关群体自愿分享个人数据的利益可能遭到侵犯,这恰恰与数据关系理论相悖。相较于群体隐私理论,数据关系理论更好地解释了群体数据利益如何存在,但其分析逻辑存在瑕疵,解决方案也不具有可操作性。首先,数据关系理论对纵向与横向数据关系的区分过于绝对。纵向与横向数据关系的确存在,但互相交织,难以清晰界定。例如,当群体特征被用于对具体个人的决策时,横向关系与纵向关系被同时利用。其次,数据关系理论过于强调数据关系对社会公平的影响。索洛姆·维尔琼认为横向关系可能被用于压迫和支配弱势群体,数据化进程加剧了压迫。数据化当然与社会结构以及社会权力的分布有关,但不是数据化直接产生社会压迫,而是数据化反映了社会压迫。横向关系的呈现是客观的,如何利用横向关系才是关键。最后,数据关系理论推崇的民主治理方案可能只适用于部分领域,不具有普适性。以公共数据信托为例,该机制在个人生物数据领域可能具有应用潜力,如英国生物银行,但社交平台上的用户行为数据就无法构建公共数据信托。
在“个人利益—集体利益”的二分框架下,群体隐私理论和数据关系理论均将群体数据利益作为集体利益对待。集体利益是一种相互依存的关系,具有不可还原性。群体数据利益不具有此种性质,应作为众多相同个人利益的集合看待。认识到这一点,有利于我们寻求恰当的理论支撑与实体法定位。在法学上,集体利益的性质是不可还原。集体利益的性质问题在学界素有争议。以边沁为代表的功利主义传统认为集体利益是个人利益之和,以卢梭为代表的公意论则认为集体利益具有独立性,不等同于个人利益。我国学界通常认为集体利益是相对独立于个人利益的特殊利益。在法学上,集体利益只能属于集体,在概念、事实、法律上均不可拆分,个人也不能就该利益主张应得份额。这种不可还原性(或者说不可分配性)意味着该利益可以被共同体成员以非排他方式享有,在功能上可以维持共同体的最基本稳定,不至于分崩离析。例如,《个人信息保护法》第70条提及的公共利益便被学者认为是社会一般性价值、数据利用秩序以及社会公平正义。群体数据利益不属于集体利益。集体利益不是个人利益的对立面,也非对个人利益的机械加总,而是集体中成员之间相互依存的关系,也可认为是个人利益的有机整合。集体利益的关系本质决定其不可还原。人生活在社会中,社会分工的出现使得个人必须与他人合作、交往才能生活,这种人与人之间的相互依存关系便是集体(共同)利益。相互依存关系一旦遭到破坏,集体成员之间的交往活动就难以继续,集体甚至不复存在。可见,集体利益源于集体维持自身生存与发展的需要,不可能专属于个人。这一结论在规范层面也成立。群体数据利益的群体虽然客观上具有联系,但这种联系是算法发现或构建的,该群体内部并不存在成员之间的交往活动,也就不存在互相依存关系或集体利益。以用户标签为例,标签是群体成员的共同特征,但不是群体成员有意识地彼此交往活动的结果,而是算法分析的产物,用户标签不复存在对该群体成员也没有任何影响。因此,群体数据利益不属于规范意义上的集体利益。将群体数据利益直接作为集体利益也存在保护不周。群体数据利益要求群体成员不被过度分析,避免其隐私或敏感信息暴露,但隐私或敏感信息的判定本身具有主观性。尤其是隐私利益,中外隐私学术史表明精准界定隐私概念极为困难,只能在个案中具体定义。例如,不同收入群体的隐私偏好存在显著差异,且受到环境影响。即便对于最具隐私性的私人秘密,人格特质、生活满意度等因素也会影响个人主动向他人披露秘密的程度,而非一概保守秘密。可见,隐私偏好极具主观性,无法提供统一的保护标准。隐私预测同理。可以根据隐私预测的敏感程度将人群划分低敏感群体与高敏感群体:低敏感群体更能容忍其隐私信息被数据处理者预测,同时享受相应服务;高敏感群体则无法容忍。完全禁止隐私预测无异于剥夺低敏感群体的利益。作为主体的人应当享有独立性,可以保有区别于他人的观念和看法,社会其他成员不得仅根据其正当利益便侵犯该独立性。在价值判断上,没有理由认为高敏感群体的利益更优于低敏感群体的利益,群体隐私理论与数据关系理论将其作为集体利益保护并不合适。群体数据利益的本质是个人数据利益之和,在一定条件下会转化为集体利益。在算法构建的横向关系群体中,个人欲避免过度分析预测,诸多相同诉求聚合形成群体数据利益。群体数据处理影响整个群体,使得该利益具有集体利益的形式,但其可还原为个人数据利益之和。这意味着,只要保护个体数据利益,便可实现对群体数据利益的间接保护。类似利益形态在法律上并不罕见。消费者集体性损害便是典型的大规模个人利益受损案件,证券纠纷中的集体诉讼也旨在维护个人利益。在此类案件中,尽管存在受害者群体,但群体成员互不交往,具有相同或相似诉求,因此仅存在个人利益之和。借助诉讼法术语,个人利益之和在性质上接近于普通的共同诉讼,而集体利益则更接近必要的共同诉讼。不过,作为个人数据利益之和的群体数据利益在一定条件下会转化为集体利益。在规范意义上,集体利益与该社群存在和发展所必需的社会价值相关,通常表现为社群内不确定多数人均可享有。当群体数据不当分析危害基本价值时,此时便可能产生侵害集体利益问题,如利用群体特征进行就业歧视。应当指出,就信息处理而言,不能仅以人数多寡来判断是否涉及集体利益,更重要的是该行为是否严重违背社会一般价值。伴随数字文明的演进进程,数据正从“个体信息的附属品”跃升为“社会运行的基础性资源”,数据价值正渐从“个体画像”向“群体规律”迁移。然而传统的个人数据保护及其范式则以“识别特定自然人”为核心,通过个体知情同意、删除更正等私法权利赋予,依托以《个人信息保护法》为核心的数据治理体系建构,以期实现个体对数据及其价值的控制与保护。显然,面对当前具有集体性、社会性及生产性特征的群体数据利益(即源于不特定多数人行为互动、经算法加工聚合后形成的、难以溯源至单一主体的数据集合所蕴含的客观利益),传统的基于个体赋权的数据保护范式已暴露并凸显其结构性困境。亟需从更深层面展开理论证成与制度调适。
伴随数字文明演进,群体数据利益的本质属性已超越个体权利的私法范畴,其核心在于承载不特定多数人的共同福祉与公共秩序。相较于私法保护通过个体权利救济实现“消极防御”,群体数据利益及保护须以公共利益为基准,充分借助公权力构建“积极治理”制度机制框架,推进公私法融合回应群体数据利用中“个体权益克减—公共利益增进”的动态平衡需求。综合而言,群体数据利益区别于个体数据权利的核心特征在于其公共性。这种公共性体现在三个维度:其一,利益主体的不特定性,如某地政务公开案件中,未脱敏的补贴名单泄露导致数千居民个人信息被非法利用,侵害对象已超出具体个体而指向“不特定多数群体”;其二,损害后果的弥散性,如某多平台利用群体画像实施“大数据杀熟”,其歧视性定价策略针对的是具有相似消费特征的群体性权益,单个用户难以察觉和举证;其三,受益范围的公共性,如医疗数据共享促进公共卫生决策、政务数据开放提升政府透明度等,均体现了群体数据利益与公共福祉的内在关联性。从法理层面审视,群体数据利益之所以需要立足公共利益推进保护,根本原因在于其“公共物品”属性与“外部性效应”。一则群体数据(如区域疾病传播模型、人口结构变化趋势、公共交通客流规律等)的开放共享能降低社会治理成本、提升公共服务效能,具有非竞争性与非排他性特征,符合公共物品的核心属性;二则其开发利用可能产生“正外部性”(如优化公共服务)或“负外部性”(如群体歧视、隐私侵害),需通过公权力干预纠正市场失灵,维护社会整体利益。我国《数据安全法》第2条明确将“维护国家安全、公共利益”作为立法目的,《个人信息保护法》第13条亦规定“为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需”时无需个体同意即可处理个人信息,均体现了公共利益在数据治理中的优先地位。群体数据因关联不特定多数人,其利用的公共利益属性较个体数据更为显著,需通过法律规范明确“保护什么”与“如何保护”的边界。从更深层次看,群体数据利益及其保护实质是法益衡平问题,其基础根植于公共利益优位原则,需通过比例原则辨明豁免边界。这种保护呈现为三重逻辑结构:其一,目的正当性,群体数据利用需以实现公共福祉为目标,如疫情防控、反欺诈监管等。《个人信息保护法》第13条第1款第(四)(五)项将“应对突发公共卫生事件”与“公共利益实施新闻报道”列为豁免知情同意的法定情形,即为典型体现。其二,权力介入必要性,当市场自律与私法救济无法克服系统性风险时,公权力需主动干预。如美国DOGE(Department of Government Efficiency)未经充分风险评估即获取联邦机构数千万公民敏感信息,法院虽以“未证明实质损害”为由驳回诉讼,但该行为已实质威胁群体数据安全,凸显行政监管缺位的隐患。其三,程序约束严格性,公权力介入需受正当程序约束。湖北十堰张湾区检察院推动建立的“初审—复核—脱敏处理—最终发布”标准化流程,即通过程序理性防止公共利益异化为过度收集的借口。由此,以公共利益为基础,推进公私法融合,借助进一步明确监管权责、细化群体数据的分级标准与公共利益评估指标、完善公众参与程序及强化法律责任,构建“积极治理”框架以弥补私法保护“个体本位”局限,推动群体数据利益保护从“被动防御”向“主动治理”转型,为数字文明时代群体数据利益及公共福祉保障提供坚实的基础逻辑。
群体数据利益由个人数据利益组成,这为通过个人保护实现群体保护的间接路径提供了法理基础。这种间接路径并非完全否认群体数据利益整体保护的可能性,而是基于个人视角探索新的解决思路。从现实角度而言,法律的安定性也要求群体数据利益保护必须依托既有规范体系进行渐进式调适。因此,应当在我国个人数据治理制度基础上,延续公私法融合保护的规范逻辑,构建以数据安全保障义务和自动化决策拒绝权为核心的个人数据利益保护机制,间接实现群体数据利益保护。在理论上,可以通过保护个人数据利益实现群体数据利益保护。较之群体数据利益的整体保护,这种由个体到群体的保护方式较为间接,但与我国个人数据治理制度兼容,更具可操作性。欲构建个人数据利益保护路径,首先应明确该利益的法律性质,其次需寻找相应支撑理论与实体法规范,并进行一定的改造,以使其适应个人数据利益保护的需求。个人数据利益不等同于个人隐私,该个人利益是在群体数据分析中,群体成员欲避免其隐私或敏感信息被预测分析的要求,不受隐私权保护。首先,隐私客观存在,尽管在统计意义上基于群体特征推断的信息与现实相符,但这只是一种预测或猜想。群体特征也很难构成一般意义上的隐私。其次,将其作为隐私不具有实证法的基础。如果认为该利益属于隐私,那么对群体成员的隐私预测分析构成对隐私的侵犯,实证法上最接近该行为的是《民法典》第1033条第5项,但该项规制的是对私密信息的非法处理,并不包括对推断出来的信息之处理。最后,社会观念也不支持将个人数据利益作为隐私保护。作为社会制度的隐私源自契约、习俗(社群规范)或者法律,该个人利益并非默契的结果,也不受法律明确保护。在社会观念层面,基于现有信息猜测他人隐私的行为通常不侵犯隐私。例如,人们在生活中经常揣测朋友的恋爱关系。除非捏造虚假信息、恶意揣测,对他人造成不利,否则这类行为通常不受隐私法约束。因此,个人数据利益不能直接作为隐私保护。个人数据利益可以作为个人数据自决权的保护对象。首先,保护该利益符合个人数据自决权的规范目的。在私法领域,个人数据自决权被认为是个人决定对外透露信息,以决定自我形象呈现的权利。自我形象呈现之所以重要,是因为它深刻影响社会对个人的尊重态度。史蒂芬·达尔沃将尊重分为承认性尊重与评价性尊重,前者是指对人作为主体本身的无条件尊重,后者则是在获知对方品质、成就等信息后,产生的有条件尊重。尊重区分具有规范意义,承认性尊重只基于人的主体地位(“我是人”),评价性尊重基于人的行为、个人特征等因素(“我是我”),蕴含评价性的不尊重,人格尊严维护更需要承认性尊重而非评价性尊重。信息是评价数据主体的重要依据,如果想要他人给予承认性尊重,个人数据就不得被任意收集、披露,甚至披露得越少越好。个人数据权益和隐私权均以使数据主体保有承认性尊重为目的,只是当算法处理无法避免时,个人数据权益还兼顾保护数据主体被正确评价的利益(评价性尊重)。对群体数据利益中的个人来说,群体层面推断出来的信息虽然不等同于隐私,但足以使数据处理者据此评价个人,破坏了个人原本被承认性尊重的利益,当推断信息出现错误时,还破坏了个人被正确评价的利益(评价性尊重)。与生活中的猜测不同,个人无法避免算法评价的决策影响,这使得该行为可以对个人产生更大的负面影响。在此意义上,个人数据利益构成个人数据自决权的保护对象。其次,该个人利益只能受个人数据自决权的部分保护。在“个人数据—非个人数据”框架下,承载该个人利益的群体特征通常不属于个人数据。这不仅因为其内容未必符合个人数据的构成要件,更因为其具有一定的经济价值,不能由个人控制。该类信息反映群体属性,也是数据处理者真正想要从数据处理活动中获取的经济价值。如果认为其属于个人数据,将增加不必要的交易成本。以用户标签为例,如果认为用户标签构成个人数据,那么数据主体理论上可以对数据处理者投入经济成本形成的用户标签主张个人数据权益,如复制、转移甚至删除用户标签。这将提升数据处理者的经营成本,为其经营活动带来极大的不确定性。即便我国《个人信息保护法》采用较为宽泛的个人数据定义,也不能直接将群体特征作为个人数据处理。此外,“个人数据—非个人数据”的区分使得数据只能接受全有或全无的法律保护,处于中间地带的数据具有一定的经济价值时,数据处理者基于处理成本考虑,有强烈的动力将其认定为非个人数据,滋生数据安全风险。在数据的三分法下,承载个人数据利益的群体特征数据作为可识别个人数据的存在,个人数据利益因此受个人数据自决权的部分保护。施瓦茨与索洛夫指出,个人数据应当从识别风险角度界定,在已识别个人数据和非个人数据之间还存在第三类数据,即可识别个人数据。不同于我国《个人信息保护法》将可识别个人数据完全作为个人数据处理,这一区分标准认为,可识别个人数据只具有一定的识别风险,为平衡数据生产性利用与安全保护,对此类数据的处理仅适用部分个人数据处理规则。具体而言,对其处理应当确保数据安全、处理行为透明与数据质量,为避免处理成本过高导致数据处理者权责不匹配,个人不能主张访问、删除、更正、携带等权利。这种三分法的理论贡献在于进一步细分数据类型,为中间地带的信息处理提供法律基础,并弥补当前个人数据立法的不足。例如,我国在《个人信息保护法》已经确立“个人数据—非个人数据”的分类前提下,三分法为个人数据的场景化界定提供了依据。单一群体特征数据虽然无法直接识别到个人,但是其可以通过与其他数据组合而分析出个人隐私,定位至具体的个人。因此一定意义上,其是处于个人数据与非个人数据之间的数据。依照数据三分法,对此类数据应当强调安全保护等消极利益,这恰好与个人数据利益的内容一致,该利益因此受个人数据自决权保护。就该个人利益而言,应当保障个人对此类数据处理的知情权与拒绝权,确保其可以避免不当数据分析。知情是行使一切权利的前提自不待言,而拒绝权是个人数据权利体系中唯一可为个人退出数据分析的权利。个人数据利益问题源自群体数据分析,介入预测模型的形成过程对保护该利益而言没有实际意义。如前所述,群体数据分析的特点是形成预测模型的数据不一定源于数据主体,个人因他人事先提供的个人数据而受到预测分析。对于欲避免不当分析预测的个人而言,一方面,其缺乏知识,难以实际介入预测模型形成过程;另一方面,预测模型形成过程可能构成商业秘密,赋予个人修正或介入预测模型的权利均将与其产生冲突。更重要的是,对个人而言,真正决定其遭受不利对待的是应用阶段。无论预测模型如何设计,只要个人未被纳入模型应用范围,就不会受到预测分析。从这一角度来看,退出分析才是保护该个人利益的最佳选择。
个人数据利益理论上可以由个人数据自决权保护,但信息不对称、有限理性等因素制约个人有效选择,单一私权也难以阻止不当分析行为。法律家长主义分析表明,对个人选择的温和干涉可以更好地保护个人利益。这也是当前我国《个人信息保护法》采用公私法融合保护的重要原因。当然,强调公法规制并不意味着否定个人权利,两者相辅相成,融合保护个人数据利益。法律家长主义(以下简称家长主义)是公法介入个人数据利益保护的正当性基础。家长主义认为,在某些情况下,个人并不真正了解自己利益所在,当法律对个人的干涉可以提高或保障其个人利益时,这种干涉便具有正当性。家长主义分为软家长主义(soft paternalism)和硬家长主义(hard paternalism)。前者认为,只有当个人行为不是或者可能不是本质上自主时,法律才能介入;后者认为,对于某些行为,即使个人知情且不受强迫,他们也常常无法按照自己的最佳利益行事,因此法律必须干涉其行为。软家长主义的干涉较为温和,当事人在全面了解相关情况下,也会赞成这种干涉,如在断桥前方设置路卡禁止车辆通行。硬家长主义无视个人意志,即便个人自愿从事危害其利益的行为,硬家长主义也认为应当禁止该行为。理论上,个人可以根据当前信息条件,作出最有利于自身的决定。然而事实并非如此,信息不对称与有限理性总是制约个人决定。大量实践表明,个人数据权利难以抹平数据主体与数据处理者之间的能力差异,个人数据权利的行使反而高度依赖数据处理者。即便赋予数据主体拒绝不当数据分析的权利,该拒绝权行使也会受到阻碍,甚至被诱导放弃行使权利,无法实现个人自主。为充分保障个人自主,应当适当采用公法手段保护个人数据利益,规制数据处理行为,但这种规制应当是温和、审慎的软家长主义。因为硬家长主义容易忽视个人的真实需求,不当扩大保护范围,如“一刀切”地禁止群体数据分析。对个人数据利益的保护应以个人数据自决权为主,部分采用公法规制,形成公私法交融的保护制度。权利可以实现个性化保护,而家长式的规制对特定行业实施统一控制。个人数据利益需要个性化保护与统一控制。群体数据分析影响整个群体,个人对预测分析的接受程度不一,群体数据分析对群体成员的影响因此具有相对性,这是采用私法保护的根本理由。当私法失灵时,公法以软家长主义为由介入,规制不当数据处理行为。公法规制具有统一性,其介入必须以受影响群体对预测分析的最基本共识为前提,避免过度剥夺个人选择。对此,敏感个人信息概念提供了有益启发,即应当从预测内容对个人产生的风险大小判断是否需要规制预测行为。如果预测内容较为敏感,极易使个人的人格尊严、人身安全或财产安全陷入侵害风险或致使个人遭遇歧视待遇,则应以公法规制预测行为。反之,以私法调整即可。这一判断是从预测内容角度出发,并不违背前文将群体特征作为可识别个人数据的结论。处理敏感个人信息需要取得个人单独同意,对敏感个人信息的预测无需同意,不为个人知晓,更容易产生侵害风险。公法规制通过禁止预测行为,迫使数据处理者基于知情同意机制获取敏感个人信息,减少数据安全风险。因此,以公法规制此类行为并无不当。当然,敏感个人信息具有场景性,但其内涵已经相对固定,即此类信息对个人人格、人身与财产利益有重大干系,以之作为公私法区分保护的依据仍然可行。例如,应当禁止预测群体成员的宗教信仰,但预测群体成员的购物偏好是否适宜则应当交由个人判断。应当根据群体数据分析是否涉及敏感个人信息,分别采用公法规制、私法赋权方式保护个人数据利益。第一,公法规制对敏感个人信息的推断分析。在群体数据分析中,敏感个人信息一旦被预测,个人的人格尊严、人身安全或财产安全将面临侵害风险。例如,根据已知群体的宗教信仰推断出其他群体的宗教信仰。无论推断结果是否准确,被推断的群体均有可能因此面临侵害。受限于有限理性、信息不对称等因素,被推断的群体成员难以有效使用个人数据自决权拒绝该类推断分析。为避免侵害风险,公法有必要规制对敏感个人信息的推断分析。公法规制应当聚焦于数据分析、应用阶段,而非收集阶段。其主要理由在于该侵害风险并非源自数据收集不当,严格规制数据收集阶段没有太多实际意义。第二,私法赋权个人拒绝其他预测分析行为。除敏感个人信息外,当群体数据分析推断的是其他有关个人的信息时,以个人数据自决权赋予个人退出不当分析的权利较为可取。由前述分析可知,群体特征作为第三类信息受个人数据自决权的部分保护,个人可以行使拒绝权,退出数据分析。
个人数据利益的公私法融合保护并非颠覆个人数据处理规则,也非一概禁止群体数据分析行为。法律的安定性要求法律不得轻易改变,以维护人们对法律的预期。只有当法律以最佳方式可预见、可预测时,法律和平才能存在。因此,在具体路径设计上,应基于我国个人数据治理体系,调整相应治理制度,使个人数据利益得到保护,进而实现群体数据利益保护。此时,以下两点尤为值得关注。第一,以数据安全保障义务为核心,构建预测敏感个人信息行为的规制制度。《个人信息保护法》《数据安全法》《网络安全法》未明确禁止对个人信息的预测,在个人数据治理体系已经成型的前提下,直接修改法律并不现实,应当通过法律解释、修改法规规章、更新标准等方式,构建相应的规制制度。首先,禁止预测敏感个人信息可以解释为数据处理者的数据安全保障义务,以此融入个人数据治理体系。通常认为,数据安全保障义务是指有关主体采取必要措施,使数据处于有效保护与合法利用状态的义务。所谓“合法”不仅包括符合法律、行政法规等法律形式规定,而且包括符合法律规范目的。对敏感个人信息的预测具有高风险,会破坏数据安全状态。欧盟第29条工作小组认为,个人数据处理合法所指的“法”应当作最广泛的解释,包括所有相关成文法、习惯法、判例法及法律原则,以充分保障数据主体的利益。我国也有学者指出,数据的合法利用包括利用方式符合公序良俗。因此,将禁止预测敏感个人信息作为数据安全保障义务不存在法理障碍。其次,以数据安全保障义务为接口,在行政法规、部门规章中增设相应规定。《网络数据安全管理条例》第46条虽然禁止数据处理者对用户实施不合理的差别待遇,一定程度上避免了预测敏感个人数据的风险,但其仅局限于大型网络平台,而且没有意识到预测行为本身就具有风险。对此,应当增设规定,禁止数据处理者在群体数据分析中预测敏感个人信息。此外,进一步强化《互联网信息服务算法推荐管理规定》对用户标签的规定,要求算法推荐服务提供者不得利用用户标签预测敏感个人信息。最后,明确不同场景下敏感个人信息的具体类型或判断方法,完善有关技术标准。在群体数据分析中,预测分析内容是否敏感或具有高风险并不存在完全明确的判断依据。因为在不同场景下,处理某类信息产生的风险并不相同,“敏感”的界定随即变化。确切地说,需要禁止的是高风险推断行为,敏感个人信息只是风险载体。基于此,应当在具体场景下判断推断行为是否具有高风险,而非事先统一规定,这可通过创设、更新技术标准文件实现。当然,某些信息的高风险性是公认的,如宗教信仰、性取向、健康状况,应当严格禁止在群体层面预测此类信息。当前的技术标准文件已经要求算法推断结果不得具有歧视性,但这还不能阻止数据处理者分析获取敏感个人信息,应进一步规定推断输出结果不得涉及敏感个人信息。第二,调整自动化决策拒绝权的适用范围,确保个人能够有效拒绝对非敏感个人信息的预测分析。如前所述,群体特征受个人数据自决权的部分保护,即知情权与拒绝权。在具体构建上,自动化决策拒绝权是个人退出群体数据分析的基本路径。《个人信息保护法》第24条确立了自动化决策拒绝权,主要涉及基于个人数据或个人特征实施的不合理差别待遇、个性化商业决策与仅通过自动化决策方式作出的影响个人权益的决定。对此,可将个人数据与个人特征解释为包括群体特征信息在内,赋予个人拒绝不当数据分析的权利,但不包括复制、删除等控制性权利。自动化决策拒绝权请求退出自动化决策,属于请求权而非禁令。自动化决策拒绝权赋予个人退出群体数据分析的请求权,个人可据此拒绝接受基于群体分析的商业广告、好友推荐等。就此而言,自动化决策拒绝权均可用于拒绝基于个人数据的个性化推荐和基于群体特征的群体推荐,不过应用于后者时数据主体没有其他个人数据权利。在此处,作为自动化决策拒绝权上位概念的个人数据自决权呈现梯度构造。数据越是与个人关联,个人数据自决权的内容越是丰富。有学者就此指出,即便将此种群体性数据作为个人数据处理,不同场景下个人对此类数据的权利和数据处理者的义务也不同。在权利行使上,针对群体数据分析的自动化决策拒绝权需要结合公法规制方能真正实现。自动化决策拒绝权的实现取决于数据处理者的配合,而个人与数据处理者之间的能力差使得权利很难以理想状态行使。以个人数据复制权为例,实证研究表明,66款常见手机软件中有一半多的软件缺乏个人数据复制权行使路径。但这不意味着,公权力应当替代个人实现此种权利。个人数据权利的根本优势是增强个人对自身利益的控制感而形成数字信任,发挥整合社会功能,这是公权力无法实现的。公权力可以通过行政监管,要求数据处理者为数据主体提供针对群体数据分析的自动化决策拒绝权的实施路径。在具体设计上,为平衡数据利用与安全保护,针对群体特征的群体分析应采取“选择—退出”模式。有学者认为,可以要求数据处理者在进行推断之前先告知数据主体,赋予数据主体向数据处理者要求沟通协商数据推断的权利。从“知情同意”规则的形式化困境来看,这一设计难免沦为摆设,不如采取“事前告知—事后退出”的“选择—退出”模式。在实践中,已有针对个人特征的自动化决策拒绝权设计,如平台提供的关闭“个性化推荐”“好友推荐”选项。在此基础上,基于群体特征的隐私预测行为也应被纳入设计范畴,使用户在关闭针对选项后,真正享有承认性尊重。法学理论的智识价值不仅在于概念演绎,更在于直面技术社会对制度解释力的挑战。在这一意义上,评判理论优劣的标准是其能否解释并回应现实问题。对于群体数据利益,既有研究大多遵循群体隐私理论的“群体隐私权”或数据关系理论的“公权干预”路径,将其作为集体利益来保护,因而难以与个人数据治理框架衔接,解决方案不易落地。事实上,该利益是个人利益的总和,而非规范意义上的集体利益。这一澄清意味着群体数据利益可以在当前个人数据治理框架下得到恰当保护,“个人数据—可识别个人数据—非个人数据”的信息三分法也为此提供了理论支持。据此,可以通过保护个人数据利益间接保护群体数据利益,以自动化决策拒绝权为个人提供退出不当群体数据分析的路径。这一解释也为当前我国政府对用户标签的设置规定提供了法理依据。个人数据如何与群体特征区别仍然有待研究,但这并不构成对上述解释的根本否认。当然,这并非完全否认群体数据利益作为整体得到恰当保护的可能性,只是从个人视角探索新的解决方案。应当指出,即便群体数据利益作为集体利益存在,也无必要废止《个人信息保护法》,创设新的法律制度。在此意义上,调适现行法以应对新型数据风险是务实的选择。综合而言,群体数据利益的保护是数字时代个人数据保护制度的重要延伸,其核心在于破解个体权益保障与群体价值实现的二元对立。迈向数字文明,尚需进一步深化对群体数据法律属性的认知,构建分层分类的保护规则,并通过制度创新平衡各方利益。唯有如此,方能实现数据要素的合规高效流通与社会公平正义的协同发展。
