2.2 欧盟及英国人工智能发展战略
欧盟及其成员国发布了一系列的人工智能战略性文件。欧盟在“以人为中心”的理念影响下,其目标是创造一种“欧洲制的值得信赖的人工智能”文化,使欧洲成为一个全球领先的人工智能创新者。欧盟重点关注人工智能及其不断深入的产业对隐私、就业、伦理道德和法律问题的影响,德国立志于通过工业4.0发展其智能制造;而英国利用独特优势,强调“综合施治,合力发展”。
2.2.1 欧盟及英国的人工智能战略
从欧盟及英国发布的战略和规划来看:一方面,注重人工智能这一领域的基础性和开创性研究;另一方面,在政策、资金、教育、国际合作等方面持续发力,不断优化发展基础和环境。欧盟及英国在人工智能方面的战略及规划见表2-4。他们聚焦于大力发展人工智能应用,占据数字化高地,进入世界人工智能的领军行列;重点研究人工智能新的道德准则,以捍卫既有的价值观;主动应对人工智能发展过程中带来的问题,增强人工智能的技术与产业能力,推进人工智能的应用,以迎接社会经济的变革。
表2-4 欧盟及英国在人工智能方面的战略及规划
续表
2.2.2 欧盟人工智能发展计划
欧盟在人工智能领域也部署了一系列的科研发展计划,重点围绕智能人造大脑、机器人在各个领域的应用、人工智能在医疗领域的应用等方面进行布局,安排投资,以达到在人工智能领域处于世界领先地位的目标。欧盟及成员国的部分人工智能发展计划见表2-5。
表2-5 欧盟及成员国的部分人工智能发展计划
2.2.3 欧盟及英国的人工智能伦理原则
欧盟及英国均在强化政府主导的伦理原则建设和法律法规约束,制定伦理守则,出台民事法律规则,希望成为人工智能伦理领域的领导者,如同制定《通用数据保护条例》 (General Data Protection Regulation,GDPR)一样,率先规范科技领域的法律和伦理,保护公众的数字权利。
(1)强化人工智能基本伦理原则建设。2018年4月16日,英国议会发布《英国人工智能发展的计划、能力与志向》,提出了5项基本伦理准则。2019年4月8日,欧盟委员会的人工智能高级专家组(European Commission’s High-Level Expert Group on Artificial Intelligence,AI HLEG)发布了《可信赖人工智能的伦理准则》 (Ethics guidelines for trustworthy AI)[43],指出“可信赖的AI”是发展方向,要确保这一技术合乎伦理,足够可靠,发挥最大优势,并将风险降到最低。
(2)建立人工智能自动决策应用规范。欧盟制定的《通用数据保护条例》 (GDPR)[44]在2018年5月生效,其中对人工智能自动化决策应用的规定极其严格:“需经用户明确同意,或是用户和数据控制者之间签订、执行合同所必需,又或被欧盟或成员国法案明确授权;不满足上述条件的无人工干预且对个人产生法律影响或者类似重大影响的人工智能自动化决策应用将被禁止。”
2.2.4 欧盟及英国人工智能立法及监管
针对人工智能的政策、法律、伦理、社会影响等,欧盟考虑围绕机器人和人工智能出台民事法律规则,并推动责任立法、伦理准则以及自动驾驶、医疗机器人等领域的细分立法。其立法工作的重点之一在于辨析“人工智能伦理”问题。
2015年1月,欧盟议会法律事务委员会决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。
2016年5月,欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)[45];同年10月,发布《欧盟机器人民事法律规则》 (European Civil Law Rules in Robotics)[46],提出了 “机器人宪章”,提出在机器人设计和研发阶段需要遵守的基本伦理原则,并呼吁针对特定类型机器人出台监管规则。
2017年2月16日,欧盟议会投票通过一项关于机器人民事法律规则的决议,建议制定《机器人民事法律规则》 (Civil Law Rules on Robotics)[47],要求欧盟委员会提交关于机器人和人工智能民事责任的法律提案。