欧盟新法案将监管含有AI系统的商品或其组件
2024年8月1日,欧盟人工智能法案即(2024/1689号条例)正式生效。该法案的目的是为人工智能系统(AI系统)的开发、投放市场、投入使用和使用,在欧盟范围内制定统一的法律框架。
值得一提的是,新法案还禁止了某些AI行为,对高风险AI系统提出了具体要求,并规定了此类系统运营商的义务。它统一了某些AI系统的透明度规则以及通用AI模型投放市场的规则。此外,该法案还制定了市场监测、市场监管、治理和执行方面的规则,以及支持创新的措施,特别是针对包括初创企业在内的小型和中型企业。
该法案第5条列出了几项被禁止的人工智能(AI)行为。例如,销售或使用采用隐藏、操纵或欺骗性技术来影响人们行为,从而严重损害其做出明智决策能力的AI系统是违法的。这可能导致人们做出他们通常不会做的事情,并可能对他们自己或他人造成重大伤害。
同样被禁止的是使用AI系统根据人们的社会行为或个人特征进行长期评估或分类,从而得出社会评分,导致在与数据最初收集情况无关的情况下对人们进行不公平待遇,或者对人们进行不公平或过度的待遇,而这种待遇与其社会行为不相称或不成比例。
此外,还禁止使用基于生物识别数据的AI系统对自然人进行个别分类,以推断或推断出其种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向。然而,这一禁令不适用于基于生物识别数据对合法获得的生物识别数据集(如图像)进行标记或过滤,或在执法领域对生物识别数据进行分类。
该法案第6条为高风险AI系统制定了分类规则。当满足以下两个条件时,AI系统应被视为高风险:
(1)AI系统旨在用作产品的安全组件,或者AI系统本身就是产品,并受其他特定产品安全法律的约束(此类产品可能包括玩具、机械、个人防护装备、医疗器械或手机等);
(2)根据第(1)点,其安全组件为AI系统的产品,或AI系统本身作为产品,需要接受第三方合格性评估,以便将该产品投放市场或投入使用。
该法案附件三所列出的AI系统也总是被视为高风险。这些包括在相关欧盟或国家法律允许使用的情况下的某些生物识别技术,例如远程生物识别身份识别系统,或用于情感识别的AI系统。它们还包括关键基础设施,即旨在作为关键数字基础设施、道路交通或水、气、暖、电供应的管理和运营中的安全组件的AI系统。
而高风险AI系统必须遵守该法案第2节规定的要求,同时考虑其预期用途以及AI和AI相关技术的公认最新技术水平。例如,高风险AI系统的技术文件应在该系统投放市场或投入使用之前编制,并应保持最新。该文件应至少包含该法案附件四所列出的要素。中小企业,包括初创企业,可以简化方式提供附件四中指定的技术文件要素。
对于非欧盟供应商而言,欧盟进口商必须确保从第三国进口的任何高风险AI系统均符合该法案的要求,即已执行相关合格评定程序,供应商已编制技术文件,系统已贴有必要的CE标志,并附有欧盟符合性声明。在进口的情况下,还强制要求供应商已指定一名在欧盟设立的授权代表。
虽然欧盟人工智能法案在2024年8月1日正式生效,但由于存在从生效之日起的两年过渡期,因此该法案的大多数条款将从2026年8月2日开始适用。法案第113条中提及的某些条款将提前适用。
(来源:标准国际化暨成都技术性贸易措施)