在Facebook改名为Meta,宣布全面进军元宇宙之后,不到一周的时间,就给出了一个与旧世界挥手告别的动作。当地时间11月2日,Facebook宣布将于本月关闭其人脸识别系统,并删除超过10亿人的面部识别模版。
在社会担忧和监管的压力之下,科技巨头掌握的用户数据正在成为一种不确定性风险,Facebook选择此时删除数据,是一劳永逸的做法。更重要的是,这个承载着30亿人数字生活的平台,可能已经意识到,它为之付出巨额维护成本的数据资产,真正的所有权另有其人。
1.Facebook删除10亿人脸信息
Facebook将要关闭的人脸识别系统于2010年12月推出,它能够识别和标记用户照片和视频中的人像,并匹配用户身份和社交账号。现在大约有6.4亿的Facebook日活用户选择使用这套系统。
关闭系统后,用户上传照片和视频时,将不再被自动识别。而已存在的10多亿人的面部识别模板也将同时被删除。Facebook的人工智能副总裁Jerome Pesenti表示,此举将是人脸识别技术史上最大的转变之一。
不过,这并不代表Facebook跟人脸识别一刀两断,对于一些只发生在本地的识别交互,比如在登录和支付时进行身份验证,仍然支持人脸识别。
2.规避潜在风险,丢下“烫手山芋”
作为全球最大的社交媒体,Facebook拥有30亿用户,如何处理和使用庞大的用户数据和信息,已经成为它所面临的挑战。
Facebook近年来发生过多次数据泄露事故,最高涉及超5亿用户,最高被罚50亿美元。伴随事故发生,这家社交巨头的口碑也跌到谷底。
近年来,人脸识别成为用户隐私当中的敏感话题,人脸信息相比其它用户数据更加烫手。
美国多地区已立法禁止在公共场所使用人脸识别系统。Facebook限制人脸识别使用,也出于监管考虑。今年,Facebook在一项集体诉讼中输掉6.5亿美元,它的人脸识别技术在伊利诺伊州违反了当地法律。
Jerome Pesenti解释称,“我们需要权衡人脸识别的积极影响和日益增长的社会担忧,尤其是监管机构尚未出台明确规则,我们这样做恰如其分。”
3.人脸识别技术带来舆论压力
除了监管,人脸识别技术也暴露出了自身的局限性。在使用上的限制,减少了对AI训练的“数据投喂”,AI对人脸识别的准确性受到考验。
错误识别不仅容易造成事故,也容易引发人权纠纷。美国公民自由联盟使用亚马逊人脸识别技术做过一项测试,28名国会议员被错误识别为嫌疑犯。测试结论显示,AI对有色人种的识别错误率更高。
这反映出,AI训练过程中,数据不平衡会反应在工具身上,进而加深现实世界的歧视,带来系列的人权和伦理问题。上述测试直接表明,在美国警方和办案人员使用人脸识别破案的过程中,会发生更多的“佛洛伊德事件”。
出于对错误识别的担忧,去年开始,亚马逊、微软和IBM等美国科技巨头相继宣布,不再向官方销售人脸识别软件。
今年9月份,Facebook的AI将黑人识别为“灵长类动物”,引起社会不满。Facebook删除人脸数据,停用人脸识别功能,是一个一劳永逸的方法。同时,这个看起来简单粗暴的操作,也给更多掌握用户数据的公司带来了压力。
4.用户数据对Facebook不再重要
现在,Facebook全面押注元宇宙赛道,投入大量技术和资本研发VR产品,未来一定不会完全放弃人脸识别技术。官方也表示,人脸识别是强大的工具,希望能在未来找到技术的平衡点。
这或许也反映出,Facebook删除用户人脸数据,不会对业务产生决定性影响。或者说,人脸数据对于Facebook不再重要。
虽然Facebook上留存着30亿人的数据,但这些数据是否属于它是要打一个问号的。最近,英国《金融时报》的一项调查发现,在苹果改变其隐私规则后,Snapchat、Facebook、Twitter和YouTube损失了约98.5亿美元的收入。由于广告业务规模庞大,与其他社交平台相比,Facebook“按绝对值计算”损失最为严重。
互联网用户的行为数据发生在社交平台上,归根结底发生在手机等计算平台上。Facebook手拿着互联网数字资产的使用权,可能并没有拿到所属权。
因此,Facebook押注元宇宙,首先押的是下一个全球流行的计算终端,它给出的答案是VR设备,盘算着在VR上再造一个iOS和Android。