新浪科技|Facebook:AI可检测出平台删除的94.7%仇恨言论
文章图片
图1/1
据报道 , Facebook周四宣布 , 人工智能软件目前可以检测出平台上删除的94.7%的仇恨言论 。
Facebook的首席技术官麦克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了该数字 , 并补充称 , 一年前该比例为80.5% , 2017年时仅24% 。 Facebook最新的《社区标准执行报告》中也提到了该数字 。
诸如Facebook、Twitter等社交媒体公司经常因为未能从平台上删除仇恨言论(包括种族诽谤、宗教攻击等)而受到批评 。
这些公司在全球依靠成千上万名内容审查员来管理平台上分享的帖子、照片和视频 。 周三 , 超过200名Facebook审查员在一封写给扎克伯格的公开信中称 , 疫情期间 , 公司强制要求他们回到公司上班 , 是弃他们的生命安全于不顾 。
但是光有人类审查员还不够 。 如今 , 科技巨头越来越来依赖人工智能 , 即可以从经验中自动改进算法的机器学习 。
“Facebook在人工智能方面的一个核心关注点是部署先进的机器学习技术 , 以保护人们免受有害内容的侵扰 , ”斯瑞普菲说 。
“随着有数十亿人使用我们的平台 , 我们依赖人工智能去扩大我们的内容审核工作 , 并在可能的情况下自动化内容处理决策 , ”他说 , “我们的目标是针对每一种形式的内容以及全球每一种语言和社区 , 尽可能快速而准确地识别出仇恨言论、虚假信息以及其他违反平台政策的内容形式 。 ”
但是Facebook的人工智能软件依旧很难发现某些违反政策的内容 。 例如 , 该软件很难识别图文的含义 , 对反讽和俚语的识别也不总是很准确 。 但是在很多情况下 , 人类可以快速判断一条内容是否违反了Facebook的政策 。
Facebook称 , 该公司最近部署了两项新的人工智能技术 , 来解决这些难题 。 第一项技术叫做“增强诚信优化器”(RIO) , 可以从真实的在线示例和指标中学习 , 而非使用离线数据集;第二项技术是叫做“Linformer”的人工智能架构 , 可以允许Facebook使用复杂语言理解模型 。 之前该模型因为过于庞大而无法大规模使用 。
【新浪科技|Facebook:AI可检测出平台删除的94.7%仇恨言论】“我们现在在产品中使用RIO和Linformer , 以在全球不同地区分析Facebook和Instagram上的内容 , ”斯瑞普菲说 。
Facebook还表示 , 它还开发了一种新的工具 , 可以检测deepfakes(计算机合成视频) , 并对现有的系统“SimSearchNet”做了些许改进 。 该系统是一个图像匹配工具 , 旨在检测平台上的虚假信息 。
“所有这些创新放在一起 , 意味着我们的人工智能系统现在可以对内容有更深更广泛的了解 , ”斯瑞普菲说 , “它们如今对平台上分享的内容更加敏感 , 当新的热词和图像出现并传播时 , 它们可以更加快速地学习 。 ”
斯瑞普菲还指出 , Facebook面临的挑战“十分复杂、细微 , 并且发展迅速” 。 他还说 , 错误地将内容标记为仇恨言论或虚假信息会“阻碍人们自由表达的能力” 。
推荐阅读
- 产品|泰晶科技与紫光展锐联合实验室揭牌
- 空间|(科技)科普:詹姆斯·韦布空间望远镜——探索宇宙历史的“深空巨镜”
- 相关|科思科技:无人机地面控制站相关设备产品开始逐步发力
- 机身重量|黑科技眼控对焦23年后回归,升级! 江一白解读EOS R3
- 公司|科思科技:正在加速推进智能无线电基带处理芯片的研发
- 项目|常德市二中2021青少年科技创新大赛再获佳绩
- 视点·观察|科技巨头纷纷发力元宇宙:这是否是所有人的未来?
- 技术|聚光科技旗下临床质谱仪获批医疗器械注册证
- 视点·观察|科技股连年上涨势头难以持续:或已透支未来涨幅
- 社交|Facebook被指试图在美政客中抹黑前雇员Frances Haugen声誉