视点·观察|歧视、造假、思维控制:人工智能在道德面前急踩刹车( 二 )
文章图片
情绪识别
科技公司承认,就在5年前,当他们刚刚推出聊天机器人和照片标记等人工智能服务时,几乎没有任何道德保障,只能通过后续更新解决滥用问题或有偏见的结果 。
但随着人工智能因为失败而面临越来越多的政治和公众审查,微软(2017年)、谷歌(2018年)和IBM(2018年)相继分成立了道德委员会,从一开始就新服务进行审查 。
谷歌表示,去年9月,当一家金融服务公司认为人工智能比其他方法更适合评估人们的信用时,它便陷入了“放贷困境” 。
该项目似乎非常适合谷歌云,谷歌的人工智能技术有助于检测异常交易,因而吸引了德意志银行、汇丰银行和纽约梅隆银行等客户 。
谷歌云预计基于人工智能的信用评分可能会成为一个每年价值数十亿美元的市场,他们希望在其中站稳脚跟 。
然而,皮佐·弗雷透露,该部门的道德委员会由大约20名负责审查潜在交易的经理、社会科学家和工程师组成,他们在去年10月的会议上一致投票反对该项目 。
该委员会总结道,人工智能系统需要从过去的数据和模式中学习,因此有可能模仿世界各地对有色人种和其他边缘群体的歧视性做法 。
更重要的是,在内部被称作“柠檬水”(Lemonaid)的委员会制定了一项政策,规定在此类问题得到解决之前,放弃所有与信誉相关的金融服务交易 。
“柠檬水”过去一年驳回了三项类似的提议,其中包括一家信用卡公司和一家商业贷款机构,而皮佐·弗雷和负责销售的同事一直渴望就这个问题制定更广泛的规定 。
谷歌还表示,该公司的云计算业务还有第二个名为“冰茶”(Ice Tea)伦理委员会,他们今年正在审查2015年发布的一项服务,将人们的照片按喜悦、悲伤、愤怒和惊讶四种表情分类 。
在此之前,谷歌总公司的道德委员会,即高级技术审查委员会(ATRC)刚刚作出裁决,禁止推出与识别情感有关的新服务 。
谷歌责任创新团队的创始人兼负责人珍·吉耐(Jen Gennai)表示,由十多位高管和工程师组成的ATRC明确认定,推断情绪的技术不够敏感,其中一个原因是,在不同文化中,面部线索与具体感受存在着不同的关联 。
吉耐和皮佐·弗雷表示,“冰茶”已经封杀了云工具的对13种情绪判断,包括尴尬和满足,并且可能很快会完全放弃这项服务,转而采用一种新系统,届时只会对皱眉和微笑等动作进行描述,而不加以解读 。
声音和面孔
与此同时,微软人工智能高管克兰普顿表示,微软开发的软件可以利用一个简短的样本重现某人的声音,但该公司的敏感用法委员会花了两年多时间,针对与此有关的道德问题进行辩论,并咨询了公司总裁布拉德·史密斯(Brad Smith) 。
推荐阅读
- 视点·观察|科技巨头纷纷发力元宇宙:这是否是所有人的未来?
- 视点·观察|科技股连年上涨势头难以持续:或已透支未来涨幅
- 视点·观察|张庭夫妇公司被查 该怎样精准鉴别网络传销?
- 视点·观察|科技行业都在谈论“元宇宙”,可是它还不存在
- 陈明永|行业观察|OPPO陈明永:对的路,不怕远
- 视点·观察|2021车市拐点之年:芯片荒、交付难、投诉多
- 视点·观察|今年的圣诞C位属于元宇宙
- 视点·观察|2021年清洁能源行业开始认真应对采矿问题
- 视点·观察|HDMI 2.1a规范或让用户购买HDMI线缆更复杂
- 视点·观察|拍照搜题等同作弊 App叫停后如何整改