京ICP备2023000331号-26 投诉举报:315 541 185@qq.com
智道
(资料图)
栏目主持人:於兴中
近年来,由于科技水平的突飞猛进和三年疫情对于非接触性技术的巨大需求,人脸识别技术得以扶摇而上,投入人们的日常生活中。当我们审视自己的生活,不难发现,人脸识别技术在如移动支付、银行业务等多样化的场所中广泛应用。然而,这一技术的快速应用,也使得人脸识别技术的滥用风险日益加大。
从“人脸识别第一案”的宣判,到清华大学RealAI团队利用人脸识别技术的漏洞,“15分钟解锁19个陌生智能国产手机”,公众已然认识到人脸识别技术在提供巨大便利的同时,也如达摩克利斯之剑一样威胁到个人隐私等公民权利。对于人脸识别技术可能产生的风险程度和风险类型的总结,是人脸识别技术监管的重要逻辑起点。
数据来源未经授权的风险
人脸识别技术,作为一种以巨量的数据支持和算法的深层次使用建构起来的技术,在技术研发时就需要不断提升识别精度。具体而言,就是通过获取巨额的数据量,使算法不断接触、学习多样化的特征,然后进行误判、纠错,不断循环,进而提升识别能力。在最初的开发阶段,数据量的主要来源是从科研院所提供或招募的志愿者实验而获得。随着公民对于识别精度的要求,以及算法本身的高速学习,对于数据量的需求固然不断扩大。
同时,在经济飞速发展的今天,庞大的市场需求带来供给端的巨大变化,出于降低成本、提高质量的现实需要,人脸技术开发者可能会从数据贩卖者手中购买数据。若想成本更为低廉,则可能会考虑通过自行安装摄像头或在互联网上直接“爬取”获取。而问题也随之出现,这些未经当事人同意和授权的数据来源,存在巨大的法律风险。
“告知-同意”程序近乎无效
当前,收集人脸信息必须进行“告知-同意”这一法定程序,然而,我国当下对于人脸技术的应用实践,陷入了现实困境。在线上的应用场景中,各大网络服务商在收集人脸信息时,虽然会与用户签订相应的信息协议。但是,用户如果不予签订,便无法获取相应的服务,这种建立在网络服务提供者和用户之间的不平等,往往会迫使消费者同意人脸信息的录入,此时“告知-同意”程序已经近乎无效。
在线下的应用场景中,非自愿的收集更为普遍,以公司采用人脸识别技术考勤为例,管理者基于成本考量,不少会采用人脸识别考勤这一方式,而员工如不录入人脸信息,则可能面临无法工作的风险,出于生活所需,员工很大程度上就会被迫录入自己的人脸信息。
人脸识别本身也会被“欺骗”
通过前文所提,清华大学的实验不难发现,人脸识别也会被“欺骗”,而在技术术语中,称为“欺骗攻击”。“欺骗攻击”主要可分为间接攻击和演示攻击两种类型。间接攻击作为一种侵入人脸识别系统内部的攻击方式,本身与黑客袭击存在巨大的相似性。演示攻击则是通过传感器的信息识别漏洞进行攻击。前文提及的清华大学实验演示的方式,便属于“欺骗攻击”中的演示攻击。这种攻击方式的特别之处,在于无需侵入系统内部,其隐蔽性很高、攻击类型很多,以至于成为人脸识别技术特别关注的攻击方式。
针对人脸的天然外露性和网络技术、摄像技术的发达,获取目标的人脸数据并非难事。入侵者通常会在获取到目标数据后,采用伪像方式,如使用照片来欺骗人脸识别认证。而演示攻击的类型,包括使用目标照片、3D面具、化妆、整容等。其中,人脸3D模型的欺骗性最高,无疑对人脸识别技术提出了更高要求。
人脸信息存储的安全性让人担忧
人脸信息作为个人敏感信息,具有唯一性、人格利益属性、不可更改性。人脸信息在被泄露后,基于容颜基本无法变更的现实,故而无法通过变更识别代码的方式来实现技术认证的重置。由此,人脸信息的泄露往往比一般个人信息的泄露危害更大,也更难以弥补。人脸信息一般被储存在技术运营方的数据库中,数据库类似保险柜,而永远安全的保险柜是不存在的。同样,无法被攻破的数据库也不存在。
在高度信息化的现代,无论网络服务平台,还是线下实体店,都会不同程度上要求获取用户或客户的部分信息,其中包括人脸信息。不容忽视的是,无论线上识别场景,还是线下识别场景,那些被录入的人脸信息大多被技术运营主体储存在电脑硬盘之中,这种存储方式的安全性,不得不让人担忧。
因此,加强对人脸识别技术的监管,确保其合法、安全、规范地应用,是当前必须重视和解决的问题。
制定更加严格的“告知-同意”规则
“告知-同意”规则,本意是落实对于个人信息保护的自主控制,由此个人信息保护法第29条规定:“处理敏感个人信息应当取得个人的单独同意;法律、行政法规规定处理敏感个人信息应当取得书面同意的,从其规定。”笔者认为,进一步深入,应该制定更为严格的“告知-同意”规则。
例如,数据收集者应当对数据主体告知收集规则,并应当得到数据主体同意,若数据主体拒绝,数据收集方应当提供其他信息验证方式,不得拒绝数据主体的合理要求。再如,收集人脸信息的数量和种类,应仅限于满足技术正常运行的最小数量和最少种类。
建立行业良好内循环体系
现实中,由于立法的滞后性,完备的法律规范总是落后于高新技术的发展。基于此,行业良好的内循环体系的建设便举足轻重。内循环体系较之于公权力机关,可以凭借最快速度对行业中出现的问题进行回应和预防,同时弥补公权力保护中出现的滞后和相应的空白现象。
具体而言,行业良好内循环体系在人脸信息方面的应用,可以从以下方面进行建设:第一,坚持严格审核,积极构建合法要件,最好由行业本身结合相关法律规定和社会实际,细化制定出统一的人脸信息收集、使用规则,确定相应规范。
第二,建立行业审查组织,这一组织设立目的在于对内积极针对信息安全工作的监管与审查,及时审查行业内部企业的安全防护、技术水平等,从而构建良好的行业生态;对外禁止不合规的人脸信息来源,严格规范信息获取渠道,进而构建良好的企业形象,保障消费者的合理信赖。
第三,建立统一的行业信息识别机制。成本问题是企业经营必须面对的现实难题,企业若出于降低成本的现实考量,选择使用识别精准度过低的面部信息,便意味着匿名化和去标识化程度会大大减少,进而在很大程度上会侵犯公民的合法权益,为此应该制定相应的技术门槛和行业准入规则来预防此情况的发生。
适当拓展消费者维权渠道
目前,我国人脸信息维权存在诸如救济渠道单一、对于侵权认定的逻辑不畅通、司法裁决困难等现实问题。基于此,应该在公力救济为主的基础上,适当拓展消费者维权渠道。
第一,引入禁令制度。对于个人的人脸识别信息受到的侵害,寻求司法救济往往会经历较长的过程,很难解决现实的急切问题。为此,当事人在民事诉讼中,可以提出申请,要求被告停止某种侵害行为,如禁止使用、公开、传播或销毁其人脸信息。在得到有效的禁令后,如果侵权方继续违反禁令,则可以采取强制执行措施,直至达到预期效果。引入禁令制度,有助于加快对人脸信息侵权行为的管控速度,从而提高维权的针对性和实效性。
第二,适用举证责任倒置原则。在权利主体寻求司法救济时,时常要承担大量的举证责任,而人脸信息方面的高技术性以及侵权方法的高隐蔽性,对于普通公民而言,举证难度也将大幅提升,而这将天然地致使司法审判不平等,此时应考虑将举证责任倒置原则适用于人脸信息识别领域,进而减轻受害人负担,增强对受害人的保护。
第三,建立个人信息公益诉讼制度。在面对人脸信息侵权行为时,公民个体往往存在取证难、专业知识欠缺等问题,影响了其维权的效力。在这种情况下,建立个人信息公益诉讼制度是一个可行的解决方案。由检察机关等公权力机关代表广大群众起诉,以保护个人信息和公共利益的诉讼,有效保护广大公民的合法权益。
(作者单位分别为山东大学法学院、西南政法大学法学院)