平台|Facebook靠人工智能删除仇恨言论?内部文件称只能删掉2%

图片来源:视觉中国
作为世界上最大的社交媒体平台 , Facebook一向表示 , 人工智能在内容审查 , 删除仇恨言论等方面发挥着至关重要的作用 。 但《华尔街日报》获取的公司内部文件发现 , 事实并非如此 。
这篇10月17日发布的报道援引Facebook内部文件称 , 该公司使用的人工智能难以持续准确识别第一人称的射击视频、种族主义言论、甚至无法分辨斗鸡和车祸 。
在仇恨言论方面 , Facebook员工也在文件中指出 , 人工智能只能删掉极少一部分 。 公司一位研究人员在2019年的报告中指出 , 公司自动化删除的帖子只占违反规则的仇恨言论总数的2% , “除非战略发生重大变化 , 否则在短期内很难将这一比例提高到10-20%以上 。 ”
今年3月 , 据另一个Facebook团队得出类似的结论 , 估计人工智能只能删除平台上3%到5%的仇恨言论 , 以及0.6%违反Facebook反暴力政策的内容 。
文件还显示 , 两年前 , Facebook缩短了人工处理用户仇恨言论投诉的时间 , 并进行了其他调整 , 从而减少了投诉的总数 。 负责审查业务的员工成本为每周200万美元 , 或每年耗资1.04亿美元 。 该公司由此更加依赖人工智能执行其规则 , 并夸大技术在其公开统计数据中的成功 。
Facebook副总裁盖伊·罗森周日发文反驳称 , 在过去三年中 , 该平台上仇恨言论的流行程度下降50% , 而且“打击仇恨言论的技术不充分 , 故意歪曲技术进步”的说法有误 。
按照罗森的解释 , 目前Facebook上每10000内容浏览量中有5个包含仇恨言论 , 比2020年中期每10000内容浏览量含10个的水平大幅下降 。
该公司上个月还表示 , 其人工智能系统在“主动删除违反仇恨言论标准的内容”方面效果越来越好 , 删除的内容比2017年增加15倍 。
向《华尔街日报》泄露内部文件的“吹哨人”是原Facebook数据专家弗朗西斯·豪根 。 她在本月初出席美国国会听证 , 表示Facebook故意隐瞒了令人担忧的研究成果 , 例如青少年在使用其产品后自我感觉变差 , Facebook乐意使用包含仇恨意味的内容吸引用户等 。 她希望议员对这家全球最大的社交网络公司采取行动 。
而Facebook回应称 , 豪根的说法有误 , 同时国会的确应该采取行动为互联网制定标准 , 不要指望“互联网行业做出属于立法者的社会决定” 。
【平台|Facebook靠人工智能删除仇恨言论?内部文件称只能删掉2%】相关阅读:“吹哨人”指控Facebook置利润于安全之上 , 扎克伯格这样回应

    推荐阅读