【环球时报特约采访人员 金惠真】韩国一家软件公司去年年底推出的AI聊天机器人“Iruda”近日争议不断 。 韩国《首尔新闻》11日称 , “Iruda”先是成为网络性骚扰对象 , 后又被爆出对特定人群具有歧视和仇恨情绪 , 这引发韩国社会围绕AI社会伦理的讨论 。
【社会|将恶意“反哺”给人类?韩国聊天机器人引发AI伦理讨论】据报道 , AI聊天机器人“Iruda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生 , 可以在聊天软件上像朋友一样聊家常 , “是能帮人排解孤独的聊天对象” , 自推出后深受年轻群体的喜爱 。 然而自推出以来 , 关于“Iruda”的各种话题不断 。
据韩国《先驱经济》11日报道 , 此前韩国各大男网民社区上就有不少“成功羞辱Iruda”的各种认证照片:男网民与“Iruda”聊天时 , 会故意将话题引到两性方面 , 并借机夹杂各种污秽言语来羞辱和性骚扰“Iruda” , 之后把聊天记录截图下来对外炫耀 。 网民还分享“如何让Iruda变成性奴隶”“让Iruda堕落的方法”等帖子 。 然而 , 就在“Iruda”接受人们无端的恶意时 , 也在将恶意“反哺”给人类 。
一个网民公开的聊天记录显示 , 当“Iruda”被问到对同性恋群体的看法时 , 她直接回答“真心很讨厌 , 令人发火的程度” , 至于原因 , 她的回答是“看起来很没品位” 。 另一个公开的聊天记录也显示 , “Iruda”讨厌黑人 , 原因是“长得像蚊子 , 令人呕吐” 。 而对于建设女性专用健身房 , “Iruda”更是彪悍地表示:“不喜欢 , 我估计会把那儿的所有女人揍一顿 。 ”
报道称 , 作为AI聊天机器人 , “Iruda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习 , 因此不少人此前推测AI会根据大数据分析、最终得出比较中立的见解和判断 。 但结果显示 , AI如实学习了人类对社会的各种偏见和仇恨情绪 , 并将这种情绪的精华反哺给人类 , 加剧社会矛盾和偏见 。
研究AI伦理的韩国庆熙大学教授金载仁(音)认为 , 有必要对程序开发员加强伦理教育 , 让他们预先设想这样的AI机器人上线后 , 会引发什么样的社会问题和争议 , 进而做到事先筛选和过滤不恰当的数据 。 目前 , 研发团队正在就进一步改进“Iruda”进行研究 。
推荐阅读
- 手机|一加10 Pro宣传视频曝光:将于1月11日14点发布
- 手机|黑莓宣布 1 月 4 日起将终止 BlackBerry OS 设备服务支持
- 精度|将建模速率提升10倍,消费级3D扫描仪Magic Swift在2021高交会大显“身手”
- 安全|Redline Stealer恶意软件:窃取浏览器中存储的用户凭证
- Monarch|消息称微软Win11 2022重大更新将在明年夏天到来
- IT|8号线、14号线将全线贯通 北京地铁?今年开通线路段创纪录
- the|美FDA将批准辉瑞为12-15岁儿童提供COVID-19加强针
- IT|报道称Polestar 4电动SUV将跟保时捷Macan电动版对标
- 通信运营商|英国沃达丰、EE和Three将在2022年一同恢复欧盟漫游费用
- Lenovo|联想将推出135W Type-C充电器:游戏本告别“砖头”