人工智能通识教程


为了抢占人工智能产业发展高地,中国、美国、欧盟积极对人工智能技术发展进行政策规划与指导。技术安全是人工智能产业健康发展的基石,为了防范人工智能技术所带来的风险,各经济体结合现实国情,在人工智能相关政策中对人工智能安全与风险治理相关内容均做了政策设计。

1 国外的人工智能风险治理政策


1.1.美国的人工智能风险治理政策
国际隐私专业协会(IAPP)于6月发布报告《美国联邦人工智能治理:法律、政策和战略》(“US federal AI governance: Laws,policies and strategies”),探讨了美国联邦人工智能治理现状。

在人工智能法律和政策层面,美国白宫、国会和一系列联邦机构(包括联邦贸易委员会、消费者金融保护局和美国国家标准技术研究院等)出台了一系列与人工智能相关的举措、法律和政策。
(1)美国白宫的人工智能治理政策
美国白宫建立了人工智能战略的基础,为这项新技术提供了诸多法律和政策指引。
联邦人工智能治理政策的里程碑之一是2022年10月发布的《人工智能权利法案蓝图》。蓝图围绕着安全有效的系统、防止算法歧视、保护数据隐私、通知及说明、人类参与决策制定五项原则展开,为人工智能治理提供了支持框架。

此外,2023年2月,美国的拜登总统签署了《关于通过联邦政府进一步促进种族平等和支持服务欠缺社区的行政命令》,提出要“指示联邦机构根除在设计和使用人工智能等新技术时的偏见,并保护公众免受算法歧视。”

2023年5月下旬,美国科学和技术政策办公室(OSTP)发布了修订后的《国家人工智能研发战略计划》,试图“协调和集中联邦对人工智能的研发投资”。OSTP还发布了一份信息请求,寻求有关“减轻人工智能风险、保护个人权利和安全以及利用人工智能改善生活”的意见。

 

(2)美国国会的人工智能治理政策
美国国会以其特有的渐进方式制定人工智能政策。2019年以前,立法者对人工智能的关注集中在自动驾驶汽车、国家安全领域人工智能的应用等领域。


2021年1月,美国正式颁布《2020年国家人工智能倡议法案》,旨在确保美国在全球人工智能技术领域保持领先地位,是与人工智能相关的一项重要立法发展。该立法强调要进一步强化和协调国防、情报界和民用联邦机构之间的人工智能研发活动。


为应对人工智能在各个领域日益频繁的使用,美国国会修改了相关法律和政策。例如,在通过《2018年美国联邦航空局重新授权法案》时,美国国会增加了“建议联邦航空管理局定期审查航空人工智能状况,并采取必要措施应对新发展”的措辞。


为了更好地应对人工智能时代,当前的美国国会也提出了诸多新法案和修法建议,具体如下。


・HR 3044(2023年5月发布)。该法案将修订1971年的《联邦选举活动法案》,设定在政治广告中使用生成式人工智能的透明度和问责制规则。
・众院第66号决议(2023年1月出台)。该决议的既定目标是“确保人工智能的开发和部署以安全、合乎道德、尊重所有美国人的权利和隐私的方式进行,并确保人工智能的益处得到广泛传播,并将风险最小化。”
・《止监视法案》(“Stop Spying Bosses Act”),将禁止雇主为了预测其员工行为,而在工作场所使用自动决策系统进行监视。
・《美国数据隐私和保护法案》(“American Data Privacy and
Protection Act”)所定义的“覆盖算法”,将使用机器学习、自然语言处理或人工智能技术的计算过程纳入在内。该法案还规定,如果某些实体“以对个人或群体造成伤害的间接风险的方式”使用上述算法,则应当进行影响评估。另外,只要覆盖算法执行了“单独或部分收集、处理或传输覆盖数据以促进相应决策”的操作,该实体就需要记录“算法设计评估”过程以减轻风险。
・《过明度法案》(“Filter Bubble Transparency Act”)将适用于使用“算法排名系统”的平台。
・《消费者在隐私权法》(“Consumer Online Privacy Rights
Act”)将源自人工智能的计算过程纳入“算法决策”的定义范围内。


(3)联邦机构的人工智能治理政策
事实上,每个联邦机构都在联邦政府内部以及较小程度上围绕商业活动推进人工智能治理战略。


国家标准与技术研究院(NIST)率先于2019年8月针对EO 13859发布了报告《美国在人工智能领域的领导地位:联邦参与开发技术标准和相关工具的计划》。该报告确定了人工智能标准的重点领域,并在“美国NIST人工智能风险管理框架”中提出了一系列推进国家人工智能标准制定的建议。


2020年年中,联邦贸易委员会(FTC)参与到人工智能治理、监管和执法中来。其发布的指南强调了FTC对公司使用生成式人工智能工具十分关注,规定公司使用生成式人工智能“有意或无意、不公平或欺骗性地引导人们在财务、健康、教育、住房和就业等领域做出有害决定”的行为受到FTC监管。


2023年4月,FTC与美国消费者金融保护局(CFPB)、司法部(DOJ)民权司、平等就业机会委员会(EEOC)发表联合声明,承诺将大力执行法律和法规,监督人工智能等技术的发展与使用。


与此同时,美国国家电信和信息管理局(NTIA)发布《人工智能问责制政策征求意见稿》,征求公众对“支持发展人工智能审计、评估、认证和其他机制以建立对人工智能系统的信任”的政策的反馈。


(4)美国人工智能治理的立法趋势
在世界各地,尤其是在美国,围绕人工智能治理的最紧迫问题,主要涉及现有法律对新技术的适用性。回答这个问题将是一项艰巨的任务,涉及法律修改和技术复杂性。美国现阶段人工智能监管的侧重点在于更多地弄清楚现有法律如何适用于人工智能技术,而不是颁布和应用新的、专门针对人工智能的法律。

例如,FTC多次表示,FTC法案第5条禁止不公平或欺诈行为适用于人工智能和机器学习系统。FTC在其《关于使用人工智能和算法的商业指南》中也对1970年的《公平信用报告法》和1974年的《平等信用机会法》做了解释,称“两者都涉及自动化决策,金融服务公司一直在将这些法律应用于基于机器的信贷几十年来的承销模式。”

1.2.欧盟的人工智能风险治理政策
2023年,《人工智能法案》授权草案在欧洲议会高票通过,正式进入最终谈判阶段。若成员国投票顺利,草案预计2024年生效。
《人工智能法案》授权草案以风险为逻辑主线,规定了严格的前置审查程序和履行合规义务,重点对具有高风险的人工智能产品和服务实施治理,要求人工智能公司对其算法保持人为控制,向监管机构提供技术文件,并为“高风险”应用建立风险管理系统。该草案提出人工智能禁令,被禁止的风险分别包括利用人的潜意识、利用特定群体的脆弱性、社会信用分级以及实时的远程生物识别技术。其中,实时远程生物识别技术的禁用意味着一般公司不得再利用人工智能技术在欧盟国家的公共场合进行人脸识别。此外,欧盟立法者对人工智能基础模型、可以构建其他人工智能系统的大型语言模型作出严苛的限制。法案特别加强惩罚力度,对于违法行为,可处以开发者高达全球年营业额的6%或4500万欧元的巨额罚款。


《人工智能法案》从技术稳健性和安全性、隐私和数据治理、透明度、
多样性、非歧视和公平以及社会和环境福祉出发,构建全面系统的诸项机制,并要求欧盟成员国设立监督机构,以确保这些规则得到遵守。


《人工智能法案》授权草案强调人工智能规范的道德属性是其突出特点之一。该草案明确指出,“促进以人为本和可信任人工智能应用,并保证对于健康、安全、基本权利、民主以及法治的高度保护”,人工智能可能导致虐待和有害影响,应予禁止,因为违背了欧盟尊重人类尊严、自由、平等、民主和法治的价值观以及欧盟的基本权利,包括不受歧视的权利、数据保护和隐私以及儿童权利。


2 我国的人工智能风险治理政策
近年来,AIGC技术的迅速崛起为社会经济发展注入了新的活力。随着这一技术的广泛应用,各行各业开始关注并涌现出大量的AIGC相关创业项目和应用。与此同时,虚假信息、侵犯个人信息权益、数据安全和偏见歧视等一系列问题也随之出现。


为了应对这些挑战,我国政府在2023年7月发布了《生成式人工智能服务管理暂行办法》,这标志着全球首部针对AIGC领域的监管法规的诞生。为了构建一个全面且多层次的规范治理体系,我国还在科技、网络安全、个人信息保护、互联网信息等多个方面制定了一系列法律、行政法规和规范性文件,为AIGC的发展提供了坚实的法律保障。


在AIGC监管方面,我国采取了以下措施。


《中华人民共和国个人信息保护法》于2021年11月1日正式施行,其中包括一些关于人工智能的规定,如禁止将个人信息用于违法活动和侵害个人权益,要求人工智能决策的透明和可解释性等。《中华人民共和国数据安全法》于2021年9月1日正式施行,其中包括一些关于人工智能的规定,如要求加强对人工智能相关数据的安全保护和管理等。《中华人民共和国网络安全法》第22条规定了网络运营者应当采取技术措施和其他必要措施,防止和减少网络安全事件的发生,其中包括使用人工智能等技术手段。


《互联网信息服务算法推荐管理规定》于2022年3月1日生效,其中要求算法推荐服务提供者应当建立健全算法机制机理审核,应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。此外,该规定还要求算法推荐服务应当向网信部门完成备案:具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起10个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。《互联网信息服务深度合成管理规定》于2023年1月10日生效,是AIGC领域最为核心的监管
规定。该规定明确,深度合成服务提供者应当采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,以及要求提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。


国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规
范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。《伦理规范》提出了人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。此外,全国信息安全标准化技术委员会秘书处组织编制了《网络安全标准实践指南:人工智能伦理安全风险防范指引》,为组织或个人开展人工智能研究开发、设计制造、部署应用等相关活动提供指引。


2022年3月,国家药监局医疗器械技术审评中心发布了《人工智能医疗器械注册审查指导原则》,进一步规范人工智能医疗器械全生命周期过程质控要求和注册申报资料要求,同时提出第三方数据库也可开展算法性能评估,并明确了第三方数据库在权威性、科学性、规范性、多样性、封闭性、动态性方面的专用要求。为进一步加强人工智能医用软件类产品监督管理,推动产业高质量发展,国家药监局组织制定并正式发布了《人工智能医用软件产品分类界定指导原则》(下文简称《指导原则》)。在该《指导原则》中,药监局对人工智能医用软件明晰了定义,即指“基于医疗器械数据,采用人工智能技术实现其医疗用途的独立软件。含人工智能软件组件的医疗器械分类界定可参考本原则。”同时也对医疗器械数据做出明确定义,指“医疗器
械产生的用于医疗用途的客观数据,特殊情形下可包含通用设备产生的用于医疗用途的客观数据。”此外,《指导原则》对管理属性和管理类别还进行了界定。器审中心发布了《深度学习辅助决策医疗器械软件审评要点》,明确通用深度学习辅助决策医疗器械软件的审评范围,并提出基于风险的全生命周期监管方式。


2022年9月22日,上海市十五届人大常委会第四十四次会议表决通过《上海市促进人工智能产业发展条例》,该条例于2022年10月1日起施行。深圳公布了全国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》,该条例自2022年11月1日起实施。2021年11月25日上海市第十五届人民代表大会常务委员会第三十七次会议通过了《上海市数据条例》,该条例于2022年1月1日起施行。


综上所述,我国在AIGC监管方面已经建立了较为完善的法律体系,为技术的健康发展提供了有力保障。未来,我国将继续完善相关法律法规和标准体系,加强监管力度和执法力度,推动AIGC技术的合规应用和发展。