在数字经济领域,欧盟监管机构再上“紧箍咒”。
欧盟委员会(下称“欧委会”)近日发布人工智能行业监管草案。欧委会将人工智能应用场景分为“低、有限、高、不可接受”四个风险等级,等级越高的应用场景受到的限制越严格。
关于人工智能最受争议的细分领域——人脸识别,欧委会称,人脸识别所基于的所有远距离生物识别系统也都被认定为高风险,并禁止执法部门在公共场合使用这一技术,除非发生儿童失踪、恐怖袭击、甄别犯罪分子等情况,上述情况也需得到司法部门授权。
高纬伸伦敦办公室律师斯瓦尼克(Herbert Swaniker)在接受第一财经记者采访时表示,上述草案将重塑人工智能公司的资产价值。对于欧盟投资者而言,他们将根据新规制定投资决策,或以新规为基准重新审视已投项目。如果不这样做,他们的一些投资项目可能会被降低估值。同时,欧盟还力图创造一个有利于投资和创新的环境,以平衡新规带来的风险。
所有远距离生物识别系统均为高风险
根据欧委会的划分,某些明显威胁民众安全及侵犯民众权利的系统,被划为不可接受风险的场景,包括违反用户自由意志、诱导未成年人做出危险行为。
涉及交通、教育、医疗、就业等公共服务,及贷款、边境管制等公民权利的应用均被列为高风险。欧委会对此解释称,如果利用人工智能应用,将使公民的生命与安全处于危险之中,剥夺公民获得教育和职业课程的机会,影响旅行证件的真实性,这些应用将被判定为高风险。
颇受争议的人脸识别场景均被划作高风险。此前,欧盟《通用数据保护条例》(GDPR)已对此有所限制,GDPR对生物数据的处理,遵循“原则禁止、特殊例外”的原则。数据控制者可援引“数据主体的同意”作为个人生物数据处理的例外,但该同意必须是“自由给予、明确、具体、不含混”的。
聊天机器人等应用属于有限风险。欧委会称,这些应用需要让用户知晓自己在与机器互动,并有权决定是否继续或退出该进程。
基于人工智能的电子游戏、垃圾邮件识别属于低风险,低风险应用占目前欧盟人工智能应用的绝大部分。欧委会表示,对上述应用不做约束。
欧委会称,如果人工智能公司不遵守上述草案,首先将受到警告,其产品有可能将被下架。如果人工智能公司仍违反规则,可没收年收入6%。
斯瓦尼克称,如果将罚款提升到全球营业额的6%,意味着欧盟已将对人工智能领域的惩罚力量提升竞争(反垄断)领域的维度,后者是欧盟境内执法力度最严的领域。
将对欧洲人工智能行业带来何种影响?
欧委会称,上述规定首先将规范人工智能行业,高风险人工智能企业在产品上市前将承担相应义务。
其次,欧委会认为,这将为其他国家关于人工智能行业立法提供先例。欧委会副主席韦斯塔格称,上述草案解决了人工智能应用所带来的社会风险问题,可供其他地区参考。
斯瓦尼克认为,在全球范围内,欧盟是首个对人工智能应用立法的国家与区域,全球各国都将关注此草案所带来的影响。此前,欧盟已通过GDPR,且已对其它国家产生影响力。
从消极方面来看,有美国媒体援引分析观点认为,首先,上述草案内容过于模糊,存在太多漏洞。其次,这将给欧盟以外的人工智能企业带来优势,因为域外企业不用面对这些规则。
据欧盟《人工智能白皮书》、《欧洲创新记分牌》等文件所提供的数据,在人工智能行业,欧盟在监管方面走在前列。在市场份额方面,欧盟成员国呈现整体强、个体弱的特点。如果以整体计算,欧盟所占全球市场份额为22%,位列全球第二。如果以个体成员国计算,欧盟所有成员国均落后于美、中、以三国。在投资方面,近五年来,欧盟在该领域的投资金额仅为美国的30%左右。在创新能力方面,欧盟的平均创新水平领先于美国,但落后于加拿大、韩国、澳大利亚和日本。
对于草案漏洞问题,斯瓦尼克认为,对人工智能企业罚款仅是监管的一方面。从另一方面来看,还需关注供应商如何投入金钱和人力成本以实现合规。上述草案迫使人工智能企业重新思考,将如何设计和应用人工技能技术。
其次,他认为,各利益攸关方还需考虑,如何实际遵守这些规则?在现实中,如何真正构建对高风险人工智能应用的监管?未来几个月,欧委会需要听取人工智能企业和用户的意见。
对于为其他欧盟域外人工智能企业带来优势的观点,数据创新中心(Center for Data Innovation)政策分析师穆勒(Benjamin Mueller)认为,上述草案将提高欧洲人工智能企业的成本,也会拖累研发速率,这将为美国、亚洲企业带来机遇。但是,他也称,如果美国、亚洲企业想在欧洲开展业务,或成为一些产品的供应商,将面对相应监管规则。
欧委会表示,上述草案还需欧盟理事会和欧洲议会批准,草案正式生效仍需数年。