Europe|欧盟发布AI新法规框架,或为警方监控敞开大门

据外媒The Verge报道 , 欧盟(EU)发布了一个新的框架以规范欧盟27个成员国对人工智能(AI)的使用 。该提案将需要数年时间才能成为法律并且将在此期间展开大量的微调和修订 , 但它仍是迄今为止全球最雄心勃勃的AI法规 。

Europe|欧盟发布AI新法规框架,或为警方监控敞开大门
文章图片

这些规定涵盖了广泛的应用领域 , 从自动驾驶汽车软件到审查求职者的算法 。这些规定出台之际正值世界各国都在艰难应对AI带来的道德后果 。与EU的数据隐私法(GDPR)类似 , 该法赋予欧盟对违反其规定的公司处以高达其全球收入6%的罚款的能力--不过这种惩罚极为罕见 。
欧盟委员玛格丽特·维斯特格在新闻发布会上说道:“这是该委员会具有里程碑意义的提议 。这是我们有史以来第一个关于人工智能的法律框架 。今天 , 我们的目标是让欧洲在安全、可信和以人为中心的人工智能发展方面达到世界一流水平 。当然 , 还有它的使用 。”
民权组织对该提议的某些方面持谨慎态度 。其中最重要的部分是在整个欧盟禁止4种特定的AI用例 。这些禁令旨在保护公民免受侵犯其权利的应用的侵害 , 但批评人士表示 , 一些禁令措辞过于模糊 , 这使得其仍无法真正阻止伤害 。
其中一项禁令是禁止“出于执法目的在公共空间使用实时远程生物识别系统” , 其中包括面部识别 。不过该规定还补充称 , 这一禁令有许多例外 , 包括允许警方使用此类系统找到任何可判处至少三年徒刑的犯罪行为的“肇事者或嫌疑人” 。在这些案件中使用面部识别等技术需要得到司法或类似机构的批准 , 但这仍将给执法部门提供了一个极其广泛的空间 , 这使得他们可以随时部署人工智能监控 。
“有太多的例外 , 它们是相当武断的 , ”德国Green MEP Alexandra Geese 在谈到这项规定时告诉The Verge , “我不认为说‘我们不需要生物特征识别’ , 然后就不断地给予例外情况有什么意义 。”
数字权利组织EDRi的高级政策顾问Sarah Chander同意这一观点 , 并表示该提案只是提供了一种基本权利保护的表象 。Chander告诉The Verge , 彻底禁止大规模生物识别监控是维护民主的唯一途径 。
在早些时候泄露的提案中 , 该法确实禁止了AI进行大规模监控 , 但这显然被淡化了 。就像Geese告诉The Verge的那样:“看起来委员会说 , ‘看 , 我们想要禁止这种东西 , ’然后成员国的安全当局、内政部长们介入 , 说‘不可能’ 。”
禁令只提到“实时”生物识别 , 这显然也构成了一个重大漏洞 。这似乎表明 , 在捕获目标图像后使用面部识别软件是被允许的 。这将为欧洲警察使用有争议的人工智能Clearview扫清道路 。
【Europe|欧盟发布AI新法规框架,或为警方监控敞开大门】其他被禁的AI应用包括使用该技术创建社会信用评分、对人们造成身体或生理伤害以及利用潜意识暗示操纵人们的行为 。“我们完全禁止它们是因为我们认为它们是不可接受的 , ”维斯塔格在新闻发布会上谈到这些用例时说道 。
所有其他AI应用则都被分为三类分层风险 。最底层包括常见、低风险的应用如垃圾邮件过滤器 , 对这些应用程序的监管可能根本不会改变 。然后是“有限风险”的使用案例 , 如聊天机器人用于购买门票或查找信息 , 这些也都需要更多的监管 。除此之外 , 还有一些高风险的AI应用 , 它们指的是那些影响人们生活物质方面的应用 , 如用于评估某人的信用评分或他们是否能获得贷款的算法以及控制自动驾驶汽车和医疗设备等关键机械的AI工具 。
维斯塔格在发布会上表示:“这些AI系统将受到五项严格义务的约束 , 因为它们可能会对我们的生活产生巨大影响 。”这些要求包括强制使用“高质量”的培训数据以避免偏见 , 对每个系统实施“人为监督”以及创建详细的文档向监管机构和用户解释软件如何工作 。
另一个值得注意的方面是跟人类互动的AI系统如聊天机器人和AI生成内容如深度造假的强制性透明度义务 。维斯塔格指出:“我们的目标是让用户清楚地知道 , 我们是在跟机器互动 。”
除了这些新规定 , 所有被列为高风险的AI系统也必须在一个新的全欧盟数据库中编入索引 。Access Now欧洲政策分析师Daniel Leufer告诉The Verge , 这是对该提议的意外补充 , 同时也是受欢迎的 。“这是一个很好的衡量方法 , 因为我们所面临的问题之一就是不知道系统何时在使用 。例如 , 对于ClearView AI , 我们依靠调查性新闻和泄密来查明是否有人在使用它 。数据库将提供关于正在使用的系统的基本透明度……让我们做好我们的工作 。”
数字版权组织则表示 , 除了涉及生物识别的漏洞之外还存在其他问题 。例如原本希望禁止使用AI自动识别性别和性取向的禁令却没有出台 , 而用于预测性警务的算法--经常被发现受到种族偏见的影响--却将不需要面强有力的监管 。
“这些(AI应用)被认为是高风险的 , 但在执行方面是自我评估 , ”Chander说道 , “这使得那些从开发这些系统中获利的公司可以决定这些系统是否符合法律 。这是令人震惊的 。”
尽管存在这些反对意见 , 但许多人将认为 , 欧盟是在履行一个承诺 , 即建立一条AI政策的“第三条道路” 。正如维斯塔格在新闻发布会上指出的那样 , 欧盟希望在AI的公平和道德应用方面脱颖而出 , 而这一提议仍朝着符合这些价值观的监管迈出的最大一步 。
“我有点怀疑 , ”Geese说道 , “但我很高兴欧盟正在努力成为全球标准的制定者 。”

    推荐阅读