投稿 登录 | 注册

人工智能治理的合伦理化举措要点与反思

发布时间:2019-10-21      作者:栾群  
分享:
与以往的工业化进程相比,人工智能治理的合伦理性要求比较突出,成为在新时代全球性的共识。

人工智能对各领域各行业的渗透越来越深入,落地的应用越来越广泛,人工智能治理的讨论也越来越热烈。国际上,很多国家和组织纷纷出台人工智能战略和治理文件;在国内,自2017年国家发布《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018—2020年)》以来,各类官方和民间人工智能治理的会议和活动不断。与以往的工业化进程相比,人工智能治理的合伦理性要求比较突出,成为在新时代全球性的共识。



栾群

博士

中国电子信息产业发展研究院政策法规所所长

工业和信息化法律服务中心主任


文|栾群

编辑|李佳琪

图|由作者提供

一、人工智能治理内容



主体:
参与者非常广泛
主体广泛是人工智能治理的显著特征。这是一个有些奇怪的现象,因为人工智能作为高科技领域表现为各类“黑科技”,反而在治理和伦理的讨论上门槛非常低,不论老人还是少年似乎都愿意涉及其中。全球范围内,出台人工智能战略和治理文件的主体,更是遍及“政、产、学、研、用、金”各个领域,有政界、学术界、文化界、产业界、金融界、自治团体和市场用户等。根据曾毅等学者的统计,各界有各自的侧重点,如学术界较多关注人类价值观和责任,而产业界就更关注链条各环节协作及生态构建,政府组织当然就更关注秩序、安全和权利保护。专业领域如金融人工智能技术,在精准化客户营销、金融风险防控、智慧投资顾问等方面已经获得市场认可,随着大数据、云计算、区块链技术在人工智能底层架构上的展开,衍生涉及的产业、社会、人群等必定日益广泛。

主题:
关注信任和责任
“可信赖”“负责任”成为人工智能领域的热频词汇。2019年4月,欧盟委员会人工智能高级别专家组发布《可信人工智能伦理准则(Ethics Guidelines For Trustworthy Ai)》,引发全球范围的广泛关注,提出发展“可信赖的”人工智能,“信任”也成为人工智能合伦理治理的关键钥匙;而我国国家新一代人工智能治理专业委员会2019年6月发布的《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,强调“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”等8条原则。人工智能创新发展必须不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。
 
形式:
法律讨论出现早

从已有的人工智能战略和治理文件看,形式多样,有宣言、公约、准则、协议、原则、导则、规划、计划、战略、要点、共识、框架、指南等。但人工智能的讨论相较于以往产业,法律较早地纳入治理体系之中。正如清华大学战略与安全研究中心主任傅莹指出的,“传统的法律是要以社会基本共识为基础的,因此往往要滞后于社会实践。但是在人工智能技术上,我们恐怕没有这样奢侈的时间条件,因为这项技术的应用影响之快、之大,远不同于传统技术,治理的需求与技术的应用几乎同步出现。”这也是为什么近两三年,人工智能法律与伦理研究突然如雨后春笋般涌现。而2019年8月30日2019世界人工智能大会法治论坛发布的《人工智能安全与法治导则(2019)》,提出算法宁静、数据宁静、常识产权、社会就业和法律义务五个方面的年度重点,并计划法治工作年度跟进人工智能发展。


近年来国内外主要人工智能战略与治理文件
一览表

↓↓↓


来源:赛迪智库,作者根据公开资料收集整理。

(如需高清图片可于订购月刊了解)

目的:
治理目的更理性
人类的好奇心在科技领域表现为创新精神,在农业社会、工业社会等之前的人类发展阶段,创新对社会产生巨大的促进作用。但进入信息社会,人工智能技术却不同于传统工业化技术,发展人工智能更需要理性,更需要考虑伦理。人工智能技术与以往的工业化技术相比,它不是指向物而是指向人本身,这可能混淆人类与世界的主客体关系;它带有碾压人类物理极限的速度和性能,这会造成人类对其不可逆的依赖;它能够做的事情广泛而重要,配合新通信技术,其积极能力与破坏能力都不可想象;它作为商业产权被拥有的领域将对分配产生史无前例的影响,几乎肯定会拉大社会的贫富差距;以及,肯定会造成的技术性失业等。以前的农业技术、工业技术亦会带来灾害,但那是可预见可预防的,而人工智能带来的灾害到底是什么我们不知道,最可怕的是知道了也无能为力。因此,人工智能的创新行为在鼓励的同时,必须附有必要的克制与更多的理性。

二、合伦理化举措要点



数据伦理
数据是人工智能的原材料,人工智能合伦理首先要合数据伦理。2019年8月28日第七届中国电子信息行业社会责任年会,举办了“负责任的数字化”主题对话,提出数字经济中的法律和伦理责任问题。2017年3月,欧洲经济和社会委员会曾发布《大数据伦理》报告,对大数据伦理进行了总体概括,并对相关的道德伦理问题进行了详细的总结。

数据伦理至少应该在消费者隐私和数据保护、个人敏感信息处理、数据质量和完整性等方面,为相关企业发展人工智能提供数据采集、存储、处理、交易等的合规和合伦理规范。现有的可资借鉴和讨论的文本除《网络安全法》《电子商务法》等法律外,还有如欧盟GDPR(一般数据保护条例)和我国《信息安全技术个人信息安全规范》(GB/T 35273-2017,2019年2月修改)值得关注。其中,GDPR是对1995年《数据保护指令》的替代立法,共有 99 条,规定有数据主体权利、数据保护官(DPO)、同意原则、数据控制和处理者、个人数据传输、监管机构、控诉的权利、司法救济的权利、赔偿、处罚,以及科研、保密、宗教等特殊情形。GDPR是数据伦理实践的集大成者,但也有很多批评声音,主要集中在对数字经济的负面影响方面。而我国的《个人信息安全规范》实施半年即得到修改,在保障个人选择权、第三方平台数据管理义务、个人信息安全事件报告制度、个人信息控制者的管理、个人信息汇聚等方面做了优化完善。

算法伦理
算法歧视、精准推送、电商平台“杀熟”等不良现象,可能很多人都曾经历过。2015年,谷歌曾将黑人程序员上传的自拍照打上“大猩猩”的标签;2016年,微软的聊天机器人Tay在很短时间内被“教坏”,算法让它学会了很多脏话甚至种族歧视思想;2017年,Facebook的聊天机器人Alice和Bob,发明了人类看不懂的“秘密语言”(据说是工程师失误);2018年,宁波交警人工智能系统误将公交车身上董明珠的人像“识别”成她闯了红灯等等。如果算法存在偏见或歧视,则结果必然是不公平的。如果人工智能系统采用的数据集是片面的,则算法结果会加剧某类群体的弱势地位。而人工智能系统开发过程中的公平性保证,可以通过设立监督程序,明确算法处理的目的和决策条件。

安全伦理
发展与安全是硬币的一体两面,笔者认为至少在工作层面上,“鼓励创新(发展)、包容审慎(安全)”,是现阶段人工智能发展最大的共识。达成这一共识意义重大,这也是中国人工智能产业飞速发展的认识论上的重要原因。就像是汽车的最高时速是由刹车能力决定,而不是由发动机性能决定的一样,人工智能应用的广度和深度不是由人工智能技术创新决定,而是由安全性决定。2019年2月,欧洲政策研究中心(CEPS)发布了《人工智能的伦理、治理和政策挑战(Artificial Intelligence: Ethics, governance and policy challenges)》,提出目前所称的人工智能与一般的人类智力和意识无关,没有任何迹象表明人工智能将发展出类似人类的感知和意识。

人工智能现在主要是作为对以前的分层信息系统的补充,为原有堆栈的应用程序层和服务层增加更多的“智能”(或自动化)。人工智能为社会发展创造机遇的同时,也会造成有意和无意的损害。人工智能作为通用技术,会破坏既有的社会关系、市场和商业模式;同时增强了人类的权能;也会加剧现有偏见并产生新的偏见,造成安全风险;而无监督的深度学习和神经网络虽未开发自己的智能,但为使用人工智能注入了随机性和不确定性因素。即根据此报告,目前阶段的人工智能安全尚未超出计算机和自动化的范畴,工业安全的法律和伦理规范是继续适用的。可能略显悲观,但笔者赞同这种阶段性判断。

法律责任
人工智能治理的成效,最终要体现在法律责任上。习近平总书记明确要求,“要加强人工智能发展的潜在风险研判和防范”,“要确保人工智能安全、可靠、可控”。根据《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,到2020年部分领域的人工智能伦理规范和政策法规初步建立;到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030年建成更加完善的人工智能法律法规体系。腾讯曾提出人工智能应当“可知”“可控”“可用”“可靠”,而这一切都要建立在责任可追究上面;《中国青年科学家2019人工智能创新治理上海宣言》强调,人工智能发展需要遵循伦理责任(隐私保护、多样公平、道德规范)、安全责任(技术稳健、算法透明)、法律责任(法治问责、人类作用)和社会责任(环境友好、应用益民)四大责任。问责的条件是可监管、可追溯、可审计,以及透明、可解释的选择决策说明性。虽然人工智能的应用是为了减少人力参与劳动和决策,但必须保证人类时时刻刻干预。

三、合伦理治理的思考

符合本国国情
符合国情,从实际出发,是改革开放40年、新中国建设70年取得伟大成就的真切经验。同样,也是未来进行人工智能治理理所应当的基本遵循。国家相关部门之所以连续不断出台政策,一方面是由于各自职责分工不同,在对待人工智能发展上各有侧重,但另一方面也有实际情况不断变化的原因。如2015年“互联网+”指导意见,2016年国家创新驱动发展战略、“十三五”规划纲要、科技创新规划与《机器人产业发展规划(2016-2020年)》《“互联网+”人工智能三年行动实施方案》,2017年国务院人工智能规划和工信部行动计划等。每一部国家文件的出台,都对应着相关领域新情况的变化与形势要求。我们应当排除并抵御外部干扰,加强战略定力,坚定“四个自信”“一张蓝图绘到底”。

符合产业需求
治理和规范的目的最终是发展,中国经历近代史巨大苦难最大的收获是认识到“发展是硬道理”“发展是第一要务”。人工智能行业发展,还是应当更多倾听企业、行业的声音,优化治理方式并探索新模式,鼓励和提倡行业自治。2016年微软、IBM、谷歌、亚马逊、Facebook等建立了“人工智能伙伴关系”组织,人工智能产业创新联盟等行业发展的自治组织,自己就提出了合伦理和合法治理的方案,微软自己提出过人工智能10条伦理原则,百度提出了安全可控、平等获取技术、促进成长和自由等4条伦理原则,腾讯提出了人工智能应当秉承“科技向善”理念等,这都是很好的尝试。但应当再次提醒的是,由于市场带有自身不可克服的盲目性,行业自治必须有必要的风险评估等规制机制。

符合民众利益
不忘初心,服务民众,应该也是人工智能治理的主题。科技的发展应当让每一个人享受科技的乐趣,应当惠及更多人,特别是应当惠及更多普通民众,而不应该成为少数人攫取更多利益的手段和工具。人工智能是一把“双刃剑”,如果是被拿去做歧视性算法,甚至被拿去做诈骗或违法勾当,则就完全背离了科技创新的初衷。人工智能治理应当秉持“科技向善、产业为民、责任相随”的原则,在普法中加入公民科技伦理道德观宣传教育的内容,同时关注人工智能产业绿色发展之路,避免高端领域的产业化再步“用环境换发展”的旧发展道路后尘,真正做到人民利益至上。

符合人类安全
人工智能带来的挑战是全人类性的,它极有可能“进化”出一个新物种,进而影响到每一个人。不论人对机器的看法如何,可以预见到的未来将是人机长期共存状态。2018年国际电联《人工智能造福全球》报告,提出利用人工智能推动实现联合国可持续发展目标,但也指出数字鸿沟、信息贫困、算法歧视等方面,亟待通过加强人工智能治理得以弥补。人工智能技术和产业从产生之初,就超越了民族、国家和地区,我们应当谋划全球化治理。可借鉴颇有成效的核军控、监控化学品、全球气候变化等重大事项的全球化治理机制,在联合国框架内共同探索新的治理方式。利用好上海、重庆、天津等地的世界人工智能大会、世界智能大会、国际智能产业博览会等平台,积极提供中国智慧和方案,以人类命运共同体的道德责任感推进全球共同发展,保障人类整体安全。



本文刊登于《科技与金融》杂志2019年10月刊。




文章评论

我来说两句 已有0条评论,点击查看全部
暂无记录
发表评论