设为首页|收藏本站|
开启左侧

[科技] 欧盟《人工智能法案》里都写了些什么内容?

[复制链接]
36173 0
南皮刘道华 发表于 2024-3-13 20:33:06 | 只看该作者 打印 上一主题 下一主题
 
欧洲人工智能法案》是有史以来第一个人工智能法律框架,它解决了人工智能的风险,并使欧洲在全球发挥领导作用。
欧盟《人工智能法案》里都写了些什么内容? 第1张图片


《人工智能法案》旨在为人工智能开发者和部署者提供有关人工智能具体使用的明确要求和义务。同时,该法规旨在减轻企业,特别是中小企业的行政和财务负担。
《人工智能法案》是支持可信人工智能发展的更广泛一揽子政策措施的一部分,其中还包括人工智能创新一揽子计划和人工智能协调计划。这些措施将共同保障人工智能领域的个人和企业的安全和基本权利。他们还将加强整个欧盟对人工智能的吸收、投资和创新。
《人工智能法案》是全球首个关于人工智能的综合法律框架。新规则的目的是通过确保人工智能系统尊重基本权利、安全和道德原则,并解决非常强大和有影响力的人工智能模型的风险,在欧洲及其他地区培育值得信赖的人工智能。
为什么我们需要人工智能规则?
《人工智能法案》确保欧洲人可以信任人工智能所提供的功能。虽然大多数人工智能系统不会带来任何风险,并且可以有助于解决许多社会挑战,但某些人工智能系统会产生风险,我们必须解决这些风险,以避免出现不良结果。
例如,通常不可能找出人工智能系统为何做出决定或预测并采取特定行动。因此,评估某人是否处于不公平的不利地位可能会变得困难,例如在招聘决定或公共福利计划申请中。
尽管现有立法提供了一定的保护,但不足以应对人工智能系统可能带来的具体挑战。
拟议规则将:
解决人工智能应用特别产生的风险;
禁止带来不可接受风险的人工智能实践;
确定高风险应用程序列表;
对高风险应用的人工智能系统提出明确的要求;
定义高风险人工智能应用部署者和提供商的具体义务;
要求在特定人工智能系统投入使用或投放市场之前进行合格评定;
在特定的人工智能系统投入市场后实施执法;
建立欧洲和国家层面的治理结构 。
基于风险的方法
监管框架为人工智能系统定义了 4 个风险级别:
欧盟《人工智能法案》里都写了些什么内容? 第2张图片


所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统都将被禁止,从政府的社会评分到使用语音辅助鼓励危险行为的玩具。
高风险
被确定为高风险的人工智能系统包括用于以下领域的人工智能技术:
可能使公民的生命和健康面临风险的关键基础设施(例如交通);
教育或职业培训,可能决定某人接受教育和职业生涯的机会(例如考试评分);
产品的安全组件(例如人工智能在机器人辅助手术中的应用);
就业、工人管理和自营职业的机会(例如用于招聘程序的简历分类软件);
基本的私人和公共服务(例如,信用评分剥夺了公民获得贷款的机会);
可能干扰人们基本权利的执法(例如评估证据的可靠性);
移民、庇护和边境管制管理(例如 签证申请的自动审查);
司法管理和民主程序(例如用于搜索法院裁决的人工智能解决方案)。
高风险的人工智能系统在投放市场之前将受到严格的义务约束:
适当的风险评估和缓解系统;
为系统提供高质量的数据集,以尽量减少风险和歧视性结果;
记录活动以确保结果的可追溯性;
提供有关系统及其用途的所有必要信息的详细文件,以便当局评估其合规性;
向部署者提供清晰且充分的信息;
采取适当的人力监督措施以尽量减少风险;
高水平的稳健性、安全性和准确性。
所有远程生物识别系统都被认为是高风险的,并且受到严格的要求。原则上禁止在公共场所出于执法目的使用远程生物特征识别。
狭隘的例外情况受到严格定义和监管,例如在必要时寻找失踪儿童,防止特定且迫在眉睫的恐怖威胁,或侦查、定位、识别或起诉严重刑事犯罪的肇事者或嫌疑人。
这些使用须经过司法或其他独立机构的授权,并受到时间、地理范围和搜索数据库的适当限制。
风险有限
有限风险是指与人工智能使用缺乏透明度相关的风险。《人工智能法案》引入了具体的透明度义务,以确保 人类在必要时了解情况,从而培养信任。例如,当使用聊天机器人等人工智能系统时,应该让人类意识到他们正在与机器交互,以便他们能够做出继续或后退的明智决定。提供商还必须确保人工智能生成的内容是可识别的。此外,为了向公众通报公共利益问题而发布的人工智能生成文本必须被标记为人工生成。这也适用于构成深度造假的音频和视频内容。
风险极小或无风险
《人工智能法案》允许免费使用风险最小的人工智能。这包括人工智能视频游戏或垃圾邮件过滤器等应用程序。目前欧盟使用的绝大多数人工智能系统都属于这一类。
对于高风险人工智能系统的提供商来说,这一切在实践中是如何运作的?
欧盟《人工智能法案》里都写了些什么内容? 第3张图片


对于高风险人工智能系统的提供商来说,这一切在实践中是如何运作的?
一旦人工智能系统投放市场,当局负责市场监督,部署者确保人工监督和监控,提供商则建立上市后监控系统。提供商和部署者还将报告严重事件和故障。
大型人工智能模型可信使用的解决方案
越来越多的通用人工智能模型正在成为人工智能系统的组成部分。这些模型可以执行和适应无数不同的任务。
虽然通用人工智能模型可以实现更好、更强大的人工智能解决方案,但很难监督所有功能。
其中,《人工智能法案》为所有通用人工智能模型引入了透明度义务,以便更好地理解这些模型,并为非常有能力和影响力的模型引入了额外的风险管理义务。这些额外义务包括自我评估和缓解系统风险、报告严重事件、进行测试和模型评估以及网络安全要求。
面向未来的立法
由于人工智能是一项快速发展的技术,该提案采用了面向未来的方法,允许规则适应技术变化。人工智能应用程序即使投放市场后也应该保持可信度。这需要提供商持续进行质量和风险管理。
执行和实施
欧洲人工智能办公室于 2024 年 2 月在委员会内成立,负责监督《人工智能法案》与成员国的执行和实施。它旨在创造一个人工智能技术尊重人类尊严、权利和信任的环境。它还促进各利益相关者之间在人工智能方面的合作、创新和研究。此外,它还参与人工智能问题的国际对话与合作,承认人工智能治理全球协调的必要性。通过这些努力,欧洲人工智能办公室致力于将欧洲定位为人工智能技术道德和可持续发展的领导者。
下一步
2023年12月,欧洲议会和欧盟理事会就《人工智能法案》达成政治协议。该文本正在被正式通过和翻译。《人工智能法案》将在官方公报发布 20 天后生效,并于 2 年后全面适用,但有一些例外:禁令将在六个月后生效、通用人工智能模型的治理规则和义务12 个月后适用,嵌入受监管产品的人工智能系统规则将在 36 个月后适用。为了促进向新监管框架的过渡,委员会推出了《人工智能公约》,这是一项自愿倡议,旨在支持未来的实施,并邀请欧洲及其他地区的人工智能开发者提前遵守《人工智能法案》的关键义务。


上一篇:官宣!联盟第一易主,欧文开始斋月,波波维奇再现名句
下一篇:中通快递:中通湖北管理中心已驻点网点,积压问题两天内解决
@



1.西兔生活网 CTLIVES 内容全部来自网络;
2.版权归原网站或原作者所有;
3.内容与本站立场无关;
4.若涉及侵权或有疑义,请点击“举报”按钮,其他联系方式或无法及时处理。
 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

排行榜
活跃网友
返回顶部快速回复上一主题下一主题返回列表APP下载手机访问
Copyright © 2016-2028 CTLIVES.COM All Rights Reserved.  西兔生活网  小黑屋| GMT+8, 2024-4-28 21:14