风险|欧盟委员会提出人工智能法律框架

【风险|欧盟委员会提出人工智能法律框架】新华社布鲁塞尔4月21日电(采访人员李骥志)欧盟委员会21日提出一套人工智能的法律框架 , 以期对人工智能的应用进行规范和限制 , 保护人们日常生活和正当权利不受侵害 。
按照风险高低 , 欧委会将人工智能应用场景分为“最低、有限、高、不可接受”四个风险等级 , 等级越高的应用场景受到的限制越严格 。
风险等级最低的应用场景包括基于人工智能的电子游戏和垃圾邮件识别软件等 , 目前欧盟绝大部分人工智能系统都属于该类别 , 欧委会提出的法律框架对此不做约束;风险有限的场景包括聊天机器人等 , 欧盟建议应让用户知晓自己在与机器互动 , 并有权决定继续对话还是退出 。
高风险应用场景指可能对人们生命、生活造成严重影响的场景 , 如交通设备、教育培训、医疗辅助、信用评级等 。 欧委会建议 , 这类功能在启用前应履行严格义务 , 如足够的风险评估、高质量的数据交换、确保可追踪的活动记录以及必要的人工监督等 。
欧委会强调 , 所有远距离生物识别系统都被认为具有高风险 , 禁止执法部门在公共场合使用这一技术 , 只有少数情况例外 , 如寻找失踪儿童或防止个别恐怖袭击、甄别犯罪分子和可疑人员等 。 这类应用需得到司法部门或独立机构授权 。
某些明显威胁人们安全和生活以及侵犯人们权利的系统被划为不可接受风险的场景 , 包括利用人类行为来误导用户、违反其自由意志的应用 , 如使用语音助手诱导未成年人做出危险行为的玩具等 , 这类应用须禁止 。
欧委会执行副主席玛格丽特·韦斯塔格在新闻发布会上说 , 若有商家不遵守规定 , 首先是受到警告 , 然后产品可能会被下架 , 如屡犯不改则可罚没其年收入的6% 。
除了法律框架外 , 欧委会当天还公布了针对机器人、3D打印机等的人工智能机器条例 , 以及人工智能协调计划 , 旨在加强对人工智能研发的鼓励和扶持 。 这套政策建议尚需经过欧洲议会和欧盟理事会批准 。

    推荐阅读