在过去三年针对人工智能(AI)领域通过了几项建议,并进行了市场咨询之后,欧盟行政部门于4月21日提出了一项旨在保障欧盟价值观和基本权利以及用户安全的拟议法规,旨在责成被视为高风险的系统遵守与其可靠性有关的强制性要求。

"负责 "适合数字时代的欧洲 "的欧盟委员会执行副主席玛格丽特-维斯塔格在布鲁塞尔举行的新闻发布会上解释说:"人工智能供应商不遵守规定[......]可能会被处以最高为其全球年营业额6%的罚款。

通过基于风险的方法,欧盟行政部门提出,在这个欧盟的第一个人工智能立法中,应该对被认为是高风险的系统进行严格控制,那些不可接受的风险应该被禁止。

然而,尽管新立法中提到远程生物识别系统是 "高风险",但Margrethe Vestager向媒体澄清,有些应用 "没有问题",如面部识别或指纹,只要是个人使用的。

"人工智能的一个具体用途既属于高风险类别,也属于禁止类别,那就是通过远程识别进行生物识别,它可以用于许多目的,其中一些是没有问题的,例如当它被海关当局用于一对一的边境控制时,或者当我们被要求用指纹或通过面部识别签字时,"她具体指出。

相反,"在我们的提案中,我们侧重于远程生物识别,即同时跟踪许多人",Margrethe Vestager指出,"从基本权利的角度来看,任何这种使用都是非常危险的"。

"这就是为什么我们对远程生物识别的规定要比其他高风险的使用案例更加严格,"她辩解道。

他接着说,"在有些情况下,[高风险系统的规则]可能是不够的,那就是当执法当局在公共场所实时使用远程生物识别时",所以现在欧盟将禁止其使用,因为 "在欧洲社会没有大规模监控的空间"。

新法律规定,所有的情感识别和生物识别分类系统将受到特定的透明度要求,在就业、教育、执法、移民和边境控制等领域使用时,也应被视为高风险。

此外,根据Margrethe Vestager的说法,"将由成员国确定哪个国家机构将是最好的 "监督新规则,例如数据保护或市场监督。

在这份作为欧盟主席国葡萄牙的优先事项的档案中,布鲁塞尔创建了第一个针对人工智能的立法,尽管负责这项技术的人已经受到欧洲基本权利立法的约束,如数据保护、隐私和非歧视。