我的位置: 城事 > 创新之城 > 文章详情
欧盟考虑在公共场所禁止使用人脸识别技术,技术进步和保护隐私如何同步?
分享至:
 (24)
 (1)
 收藏
来源:上观新闻 作者:黄海华 2020-01-18 14:33
摘要:治理和新技术发展应该是同步的

据外媒消息,欧盟正考虑在公共场所禁止公营、私营机构使用人脸识别技术,为期3至5年,以便有时间去评估这一技术的风险。人脸识别技术背后有何风险?涉及什么伦理问题?人工智能的治理有何特殊性?解放日报•上观新闻记者采访了复旦大学计算机科学技术学院张军平教授和上海市科学学研究所人工智能研究组李辉博士。

“可能改变个人或群体的行为方式和生活状态”

“在不涉及安全保障问题的前提下,没必要在公共场所做人脸识别,因为它侵犯了人们的隐私权和数据权。”张军平教授说。人工智能拥有强大的“画像”能力,可以通过收集、分析用户的各种数据,来分析用户的行为、习惯等,而人脸识别技术更加直接,由于它的识别精度很高,可以更精准地知道你在哪里,出行路线是怎样的。如果没有事先告知,这对于隐私来说就是一种侵犯。对于一些私营公司而言,为了提高预测和识别性能,常需要用大数据做模型训练,但它本身并没有获得人们使用其隐私数据的授权。

人脸识别技术背后有何风险?“目前还不能做到百分百的消隐。”张军平介绍,有些技术公司宣称在获取大数据信息时,只使用部分信息,这样就能做到不泄露隐私。但事实上,如果存在安全漏洞,这些数据有可能被黑客恶意窃取。另外,还有可能被某些公司通过对不同渠道的数据进行组合,来获得更完整的隐私信息和用户的完整画像。不过,需要指出的是,人脸识别技术也没有想象得那么强大,在远距离和一些复杂环境里的识别精度仍有待提高。

“人们需要私密空间,监控本身可能会改变个人或群体的行为方式和生活状态。”张军平说,假设有的人为了不被识别戴上口罩,表面上看只是个人行为的小小改变,但如果整个社会都发生这样的“小小改变”,就有可能引发群体行为的变化,这是需要认真考虑的一个伦理问题。

治理和新技术发展应该是同步的

“未来,由人工智能生成的伪造技术将挑战全社会的信任基础。如何趋利避害,使其效益最大化风险最小化,是人工智能治理的核心目标。”李辉博士说。

人工智能是复杂的技术群,同时广泛渗透于政治经济社会各领域,因此人工智能的治理不同于大规模杀伤性武器或基因技术等的治理,没有显而易见的“禁区”,具有极大的复杂性和不确定性。李辉认为,数据来源的合法性是当前治理的重点。人工智能当前的主流技术路线依赖数据的“喂养”,但是由于各国的法律传统、文化背景不同,数据的开放、流通标准也各不相同,因此围绕这一问题出现很多争论。尤其个人数据与隐私息息相关,而隐私问题又具有价值观和意识形态属性,因此数据来源问题有时也成为颇具争议的国际政治议题。

“随着深度学习的发展,深度造假也成为现实。”李辉说,由于人工智能可以合成声音、图像和视频,深度造假将极大挑战“眼见为实”这一社会常识,造成秩序混乱。当一个机器合成的朋友、同事或者领导进入网络交流,如果人们分辨不出它们的真实性,很可能会造成严重后果。

据介绍,欧盟考虑在公共场所禁止使用人脸识别技术之前,就已出台了具有法律效力的《通用数据保护条例》,以及《可信赖AI的伦理准则》(专家组意见)。同样地,人脸识别技术在美国也受到了限制。去年5月和7月,美国旧金山和萨默维尔相继出台法令,禁止警察和其他政府机构使用人脸识别技术。但与此同时,美国政府和智库则对这些政策的出台表示,担心对人工智能过度治理,会影响人工智能有效发展。

“以往总是技术先行,产业先发展,再解决问题。但人工智能这一波,不能再用传统思维,治理和新技术发展应该是同步的,否则产业就会崩溃。”李辉说,美国在人工智能方面是先创新再想对策,而欧盟没有大型的人工智能公司和互联网公司,则先立规矩。中国可以发展技术的同时,同步调进行治理,要有及时的响应机制来处理问题。

科技要靠积累数据不断进步,用户也有自己的隐私权,这是一个不可调和的矛盾吗?李辉说,现在各方面都在谋求更好的办法,希望做到“既使用你的数据,又不掌握你的隐私”,期待在人工智能边发展边治理的过程中,逐步找到科技进步与用户隐私的平衡点。

栏目主编:黄海华 文字编辑:黄海华 题图来源:图虫创意 图片编辑:邵竞
评论(1)
我也说两句
×
发表
最新评论
快来抢沙发吧~ 加载更多… 已显示全部内容
上海辟谣平台
上海市政府服务企业官方平台
上海对口援疆20年
上海品牌之都建设推广服务平台
举报中心
网上有害信息举报专区
关注我们
客户端下载