欧盟(EU)推出了一项关于人工智能(AI)使用的全面指令,称为EU AI法案。
它鼓励欧洲人信任那些风险相对较低的AI系统和通用人工智能模型(GPAI)。本文总结了该法案,并使专业人士和普通人更易理解。
免责声明: Expertise AI补充了EU AI法案的义务,但不提供任何法律建议。如需关于该法案的建议或意见,请咨询律师,或参考欧洲联盟人工智能法案。 法案.
欧洲联盟人工智能法案将规范AI的开发和/或使用。它根据AI所带来的风险,适用不同的规则和法规。
它适用于涉及AI的提供商、部署者、进口商、分销商和产品制造商,包括所有开发、使用、进口、分销或制造AI系统的各方。该法案不仅限于欧盟境内。如果任何地区产生的输出在欧盟以外,但该输出旨在在欧盟地区使用,则该法案也适用。
这是一个全面的AI监管框架,实施严格的治理,以管理风险和确保透明度。根据不合规的类型,违反该法案的处罚可能在750万欧元或全球年度营业额的1.5%之间,到3500万欧元或营业额的7%。
逆向工程AI的预测结果很复杂。你可能无法准确指出某个决策背后的原因。虽然大多数AI系统风险有限甚至没有风险,但仍可能存在一些不可信的高风险系统,不能在关键决策中依赖。例如,在招聘决策中,很难理解为何会选择某个候选人。你无法确定是否有人受到不公平的歧视。
AI法案帮助欧洲人信任风险较低或有限的AI系统,并重视它们对人类和机器操作的积极贡献。该法案明确了AI实践和系统中被接受和禁止的内容。
AI法案帮助企业和机构实现:
这种治理帮助欧洲人信任AI系统并自信使用。在欧洲层面,欧洲人工智能委员会将为委员会和成员国提供建议和协助,确保法规得到一致执行。
该委员会将为委员会和成员国提供建议和协助,以促进本条例的一致和有效的实施。
EU AI法案的义务将适用于:
欧洲联盟人工智能法案要求企业和机构:
检查是否已有AI系统在使用或开发中。确认是否能从第三方供应商采购AI系统。如有,将这些系统加入你的模型库。
如果没有模型库,建议在了解你对AI系统的暴露后创建一个。即使目前未使用AI系统,考虑到AI的普及,未来可能会使用。最好提前准备模型库,考虑当前和潜在的AI系统暴露。
根据EU AI法案,风险分为四类:不可接受的风险、高风险、有限风险和最低风险。
来源: EY
不可接受的风险
带来“不可接受风险的AI系统被禁止。这些系统可能使用:
高风险:
欧盟AI法允许高风险,但它们必须符合多项要求,并进行合格评定。在将产品推向市场之前,您必须完成评估。
您需要在欧盟数据库中注册此类系统。这些系统可以包括:
这些系统受到严格的义务限制,如风险评估和缓解。它们需要高质量数据集的输入,并保持日志活动的追踪。在处理高风险AI系统时,确保所有工作都有记录,并确保高水平的安全性和准确性。
有限或最低风险:
对于有限风险系统,您需要向用户保持透明。他们应知道自己正在与AI互动。常见的例子包括非高风险的聊天机器人。它们必须让用户知道它们正在使用AI。
在最低风险方面,欧盟AI法允许自由使用。这些系统可以包括垃圾邮件过滤器或启用AI的游戏。
如果系统属于高风险类别,确保您的AI实践符合AI法并遵循必要的法规。
欧盟AI法何时生效?
欧洲议会于2024年4月22日批准该法案,欧盟成员国于2024年5月21日批准。法律在欧盟官方公报发布后,20天后生效。
不同的机构负责执行AI法。每个欧盟成员国都设立或指定至少一个通知机构和市场监管机构,确保它们拥有履行职责的资源。
通知机构公正地制定和执行必要的评估和指定程序。另一方面,市场监管机构在国家层面执行该法。对于高风险AI系统,这一机构可能会有所不同。当AI系统不合规时,市场监管机构将每年向委员会和相关国家当局报告。
如果存在不符合欧盟AI法义务的情况,或高风险AI系统虽符合规定但仍对人员健康和安全构成风险,市场监管机构可以:
在欧盟层面,委员会内设有AI办公室负责执行法规。该委员会由成员国提供建议和协助,以有效执行AI法。委员会和AI理事会通过咨询利益相关者论坛获取技术专业知识。如果出现非合同责任的侵权索赔,欧盟成员国的国家法院将执行AI责任指令。
国家法院还可以要求提供涉嫌造成伤害的高风险AI系统的证据。
专业知识,您的网站的AI销售代理,遵守欧盟AI法的义务。如果您想在您的网站上添加AI的销售功能,可以尝试Expertise AI,无需担心在欧盟地区遵守新AI法的合规问题。
使用Expertise的AI销售代理,您可以:
Expertise AI在欧盟的AI法下是安全且有效的。
设置30分钟 了解如何在您的业务中充分利用它。