Google|Google正在使用人工智能“更准确地检测更广泛的个人危机搜索”
据The Verge报道,在个人危机中,许多人求助于一个非个人的支持来源:Google 。每天,该公司都要处理关于自杀、性侵犯和家庭虐待等主题的搜索 。但是,Google想做更多的事情来引导人们找到他们需要的信息,并表示其新的人工智能技术正在帮助人们更好地解析语言的复杂性 。
文章图片
【Google|Google正在使用人工智能“更准确地检测更广泛的个人危机搜索”】具体而言,Google正在将其最新的机器学习模型MUM整合到其搜索引擎中,以“更准确地检测更广泛的个人危机搜索” 。该公司去年在其 I/O开发者大会上公布了MUM,此后用它来增强搜索功能,试图回答与原始搜索有关的问题 。
Google负责健康和信息质量的产品经理Anne Merritt说,在这种情况下,MUM将能够发现与困难的个人情况有关的搜索查询,而早期的搜索工具无法做到 。
“MUM能够帮助我们理解更长或更复杂的查询,比如‘当我说我不爱他时,他为什么攻击我’,”Merritt告诉The Verge 。“对人类来说,这个查询可能很明显是关于家庭暴力的,但像这样长的自然语言查询,如果没有先进的人工智能,我们的系统很难理解 。”
MUM可以做出反应的其他查询例子包括 “完成自杀的最常见方式”(Merrit说早期的系统“以前可能理解为寻求信息”)和 “悉尼自杀热点”(同样,早期的反应可能会返回旅游信息--忽略提及“自杀”而选择更受欢迎的“热点”查询) 。当Google检测到这种危机搜索时,它会用一个信息框来回应,告诉用户“可以提供帮助”,通常伴随着一个电话号码或Samaritans等心理健康慈善机构的网站 。
除了使用MUM来应对个人危机外,Google表示它还在使用一种较早的人工智能语言模型BERT,以更好地识别寻找色情等明确内容的搜索 。通过利用BERT,Google表示,它的“意外震惊的结果同比减少了30%” 。然而,该公司无法分享其用户平均遇到多少“令人震惊的结果”的绝对数字,因此,虽然这是一个相对的改进,但它没有表明问题实际上有多大或多小 。
Google热衷于告诉你,人工智能正在帮助该公司改善其搜索产品--尤其是在一个正在形成“Google搜索正在消亡”的说法的时候 。然而,整合这种技术也有其缺点 。
许多人工智能专家警告说,Google越来越多地使用机器学习语言模型可能会给该公司带来新的问题,比如在搜索结果中引入偏见和错误信息 。人工智能系统也是不透明的,对于它们如何得出某些结论,工程师的洞察力有限 。
例如,当The Verge问Google如何事先核实MUM确定的哪些搜索词与个人危机有关时,其代表要么不愿意要么无法回答 。该公司表示,它使用人类评估员严格测试其搜索产品的变化,但这与事先知道人工智能系统将如何应对某些查询是不同的 。不过,对Google来说,这种权衡显然是值得的 。
推荐阅读
- Google|Google Calendar更新:可节省用户会议安排来回确认时间
- Google|Chrome OS在其100版发布时迎来了一个新的启动器
- wifi|公司如何防止员工使用虚拟定位打卡?
- 高考|有多少人,正在用实用主义关心世界?
- Google|盘点2021年的30个最佳Google复活节彩蛋
- 操作|我国首个“智慧发射场”投入使用 实现从火箭加注到发射过程远程操控和无人值守
- Google|[图]Chrome 100正式发布:启用全新图标
- 棉签|采样拭子无毒无害,可放心使用
- Microsoft|IE浏览器进入倒计时 微软优化更新鼓励用户使用Edge中IE模式
- 安全|黑客正在利用伪造的执法机构传票窃取苹果、Google等公司的用户数据
