AI 游戏显示人机协作的“黑暗面”OpenAI要求Latitude立即采取行动( 二 )


在风口浪尖之外 , AI Dungeon为OpenAI的文本生成技术提供了相对不受约束的机会 。在2019年12月 , 也就是使用OpenAI技术的早期开源版本推出游戏的那个月 , 它赢得了10万名玩家 。一些人很快发现并开始珍惜它对性内容的流畅性 。其他人则抱怨人工智能会不由自主地提出性主题 。
Latitude联合创始人Nick Walton在游戏的官方Reddit社区上承认了这个问题 。他说有几个玩家给他发了一些例子 , 让他们 "感到非常不舒服" , 并补充说该公司正在研究过滤技术 。从游戏的最初几个月开始 , 玩家们也注意到了 , 并且在网上发帖标明 , 游戏有时会把儿童写进性爱场景中 。
【AI|游戏显示人机协作的“黑暗面”OpenAI要求Latitude立即采取行动】AI Dungeon的官方Reddit和Discord社区增加了专门的频道来讨论游戏中产生的成人内容 。Latitude增加了一个可选的 "安全模式" , 可以过滤掉来自人工智能的某些词汇的建议 。然而 , 像所有自动过滤器一样 , 它并不完美 。一些玩家注意到 , 所谓的安全设置改善了文本生成器的色情写作 , 因为它使用了更多的比喻和委婉语 。该公司还增加了一个高级订阅层以创造收入 。
2020年7月 , 当AI Dungeon加入OpenAI更强大的商业写作算法时 , 写作变得更加令人印象深刻 。"一位资深玩家说:"创造力和讲故事的能力的纯粹跳跃是天堂般的 。这个人说 , 该系统在探索性爱主题的能力方面也明显更有创造力 。去年有一段时间 , 玩家注意到Latitude在试验一个过滤器 , 它可以自动将出现的 "强奸 "一词替换为 "尊重" , 但这个功能被放弃了 。
这位资深玩家是人工智能地牢的爱好者之一 , 他们将游戏作为人工智能增强的写作工具来探索成人主题 , 包括在一个专门的写作小组中 。算法中不需要的建议可以从故事中删除 , 以引导它向不同的方向发展;结果不会公开发布 , 除非有人选择分享它们 。
Latitude公司拒绝分享关于有多少冒险包含性内容的数字 。OpenAI的网站说 , AI Dungeon每天吸引了超过2万名玩家 。
一名AI Dungeon玩家上周发布了一个安全漏洞 , 该漏洞使游戏中产生的每一个故事都可以被公开访问 , 他说他在4月份的四天里下载了几十万个创建的冒险内容 。他分析了其中18.8万个样本 , 发现31%的样本含有暗示它们是性爱的文字 。这一分析和安全漏洞(现已修复)增加了一些玩家对Latitude公司新的内容管理方法的愤怒 。
Latitude现在面临的挑战是如何赢回用户的信任 , 同时满足OpenAI对其文本生成器进行更严格控制的要求 。OpenAI的一位发言人说 , 这家初创公司现在必须使用OpenAI的过滤技术 。
如何负责任地部署摄取了大量互联网文本的人工智能系统 , 包括一些不光彩的部分 , 已经成为人工智能研究中的一个热门话题 。在经理们反对一篇主张谨慎使用此类技术的论文后 , 两位知名的谷歌研究人员被迫离开了公司 。
该技术可以在非常有限的情况下使用 , 例如在谷歌搜索中 , 它可以帮助解析长篇查询的含义 。OpenAI帮助AI Dungeon推出了一个令人印象深刻但又充满问题的应用程序 , 让人们提示该技术或多或少地解开它所能做的事情 。
华盛顿大学的研究人员Suchin Gururangan说:“真的很难知道这些模型会有什么表现 。”他与华盛顿大学和艾伦人工智能研究所的研究人员一起参与了一项研究和互动式在线演示 , 显示当从网络上借来的文本被用来提示五种不同的语言生成模型时 , 包括来自OpenAI的模型 , 都能够喷出有毒文本 。
Gururangan现在是许多试图找出如何对人工智能语言系统进行更多控制的研究人员之一 , 包括对他们学习的内容更加谨慎 。OpenAI和Latitude表示 , 他们也在研究这个问题 , 同时也试图从该技术中赚钱 。

推荐阅读