视点·观察|歧视、造假、思维控制:人工智能在道德面前急踩刹车
北京时间9月9日上午消息,据报道,去年9月,谷歌的云计算部门考虑使用人工智能帮助一家金融公司决定向谁借钱 。经过数周的内部讨论后,他们拒绝了客户的提议,认为该项目在道德上过于冒险,因为人工智能技术可能会在种族和性别等因素上延续偏见 。
自去年年初以来,由于担心对文化因素不够敏感,谷歌还放弃了分析情感的新型人工智能功能,微软也限制了模仿声音的软件,IBM则拒绝了客户对高级面部识别系统的请求 。
根据对这三大美国科技巨头人工智能伦理负责人的采访,所有这些技术都是公司的高管小组或其他领导人亲手干预的 。
这是媒体首次披露他们针对这些技术行使的否决权和审议过程,这也反映出整个行业涌现出一股新生力量,可以在追求利润丰厚的人工智能系统与加大社会责任考量之间达成平衡 。
“有机会,也有伤害,我们的工作是最大限度地增加机会,并最大限度地减少伤害 。” 特雷西·皮佐·弗雷 (Tracy Pizzo Frey)说,他是谷歌云的两个道德委员会成员,还是谷歌人工智能社会责任负责人 。
但判断起来并非易事 。
例如,微软的首席人工智能责任官娜塔莎·克兰普顿(Natasha Crampton)表示,微软的语音模仿技术可以让聋哑人重新“发声”,但同时也会加大政治深度造假等风险,因此必须在二者之间找到平衡点 。
激进人士表示,可能对社会产生广泛影响的决定不应单独在企业内部决定 。他们认为,道德委员会不可能做到真正独立,他们的公开透明度受到竞争压力的限制 。
欧洲公民自由联盟的宣传负责人贾斯查·加拉斯基(Jascha Galaski)认为外部监督是未来的趋势,美国和欧洲政府确实正在为这个刚刚起步的领域制定规则 。
如果企业的人工智能伦理委员会“真的变得独立透明——这都是非常乌托邦主义的——那可能好于任何其他解决方案,但我认为这不现实 。”加拉斯基说 。
两家公司表示,他们欢迎对人工智能的使用方式进行明确监管,这对于客户和公众的信心都至关重要 。从这一点来讲,这与汽车安全规则类似 。他们说,在具体行事过程中充分考虑各种责任,也符合他们的经济利益 。
然而,他们希望任何规则都能足够灵活,从而跟上创新步伐及其造成的最新困境 。
IBM表示,该公司的人工智能伦理委员会正在考虑许多复杂问题,包括如何监管一个新兴领域:将计算机与大脑相连的植入物和可穿戴设备 。
IBM首席隐私官克里斯蒂娜·蒙哥马利(Christina Montgomery)表示,这种神经技术可以帮助残疾人控制身体运动,但也存在许多隐忧,例如黑客有可能借此操纵人的思想 。
推荐阅读
- 视点·观察|科技巨头纷纷发力元宇宙:这是否是所有人的未来?
- 视点·观察|科技股连年上涨势头难以持续:或已透支未来涨幅
- 视点·观察|张庭夫妇公司被查 该怎样精准鉴别网络传销?
- 视点·观察|科技行业都在谈论“元宇宙”,可是它还不存在
- 陈明永|行业观察|OPPO陈明永:对的路,不怕远
- 视点·观察|2021车市拐点之年:芯片荒、交付难、投诉多
- 视点·观察|今年的圣诞C位属于元宇宙
- 视点·观察|2021年清洁能源行业开始认真应对采矿问题
- 视点·观察|HDMI 2.1a规范或让用户购买HDMI线缆更复杂
- 视点·观察|拍照搜题等同作弊 App叫停后如何整改