查看内容
${facet.Name} (${facet.TotalResults})
${item.Icon}
${ item.ShortDescription }
${ item.SearchLabel?.ViewModel?.Label }
查看所有结果
${facet.Name} (${facet.TotalResults})
${item.Icon}
${ item.ShortDescription }
${ item.SearchLabel?.ViewModel?.Label }
查看所有结果

衡力斯洞察 | 欧盟人工智能法案: 为2025年2月起的人工智能扫盲要求和禁止人工智能行为做准备

20 Feb 2025
|

根据2024年8月1日生效的欧盟《人工智能法案》,有关人工智能扫盲和被禁系统的规定自2025年2月2日起适用。虽然欧盟《人工智能法法》的大部分条款要到2026年8月才生效,但禁止某些被禁止的人工智能行为(第5条)和促进人工智能扫盲的义务(第4条)已于2025年2月2日开始生效。

尽管欧盟《人工智能法案》的其余要求推迟适用,但这些规定的生效对利用人工智能技术的组织具有直接影响。

被禁止的人工智能实践:对安全和价值观构成不可接受的风险

《人工智能法案》将特定的人工智能系统归类为 “不可接受的风险”,因为它们可能造成伤害、入侵或歧视。从2025年2月2日起,这些系统不得再在欧盟开发、部署或销售。禁止的行为包括:

  • 行为操纵:人工智能系统潜移默化或欺骗性地影响个人决策,导致重大伤害。
  • 漏洞利用:旨在利用年龄、残疾或社会经济地位,导致有害后果的系统。
  • 社会评分:根据社会行为或个性特征对个人进行评估的系统,导致不利或歧视性待遇。
  • 面部识别数据库:通过从公共来源或监控录像中无针对性地获取图像来创建或扩展此类数据库。
  • 情绪识别:人工智能系统在工作场所或教育环境中推断情绪,医疗或安全需要的情况除外。
  • 生物特征分类:基于生物特征数据对个体进行分类,以推断敏感属性(如种族、政治观点或性取向)的系统。
  • 实时生物识别:在公共场所为执法部门收集生物识别数据的系统,但与重大公共利益相关的情况除外。

各组织必须审查其人工智能系统的使用情况--预计这与面向客户的服务和以就业为重点的使用案例(如招聘或工作场所监控应用)尤其相关。

对组织机构的影响

根据欧盟《人工智能法案》第4条,人工智能扫盲现在是一项重要义务,要求各组织培训员工和 “代表其操作和使用人工智能系统的其他人员”,同时考虑到相关人工智能系统的目标受众。欧盟《人工智能法案》第20条是这方面的一个关键领域,它建议人工智能扫盲义务也应扩展到人工智能系统的 “受影响者”。这就产生了一个争议点,即这是否将适用范围扩大到了人工智能系统的用户。行业利益相关者期待发布指导方针,以澄清这些关切的相关性。

通用人工智能提供商面临的合规挑战

对于通用人工智能平台(如Google Cloud AI、Microsoft Azure Machine Learning)提供商而言,合规性带来了明显的挑战。虽然大多数客户的使用案例不属于禁止行为的范围,但少数用户不合规的风险依然存在。提供商正在通过以下措施缓解这一风险:

  • 引入行为准则,概述可接受的用途。
  • 更新客户合同,明确禁止违禁行为。
  • 与监管机构合作,展示负责任的合规方法。

《人工智能法案》适用于域外,这意味着欧盟以外的组织如果在欧盟境内开发、销售或部署人工智能系统,也必须遵守该法。违规行为将受到重罚,包括最高3500万欧元或全球年营业额7%的罚款。

为协助各组织,欧盟人工智能办公室正在制定指导方针,以明确禁止的做法及其范围。根据2024年底收集的利益相关者反馈意见,这些指南预计将于2025年初获得通过。这些准则对于确保一致的解释和遵守至关重要。

各组织的优先事项

尚未对其人工智能系统进行评估的组织应抓紧时间进行评估,优先评估其是否使用了被禁止的人工智能系统,以及是否实施了所需的人工智能扫盲计划。

关闭(退出)