571
2021年4月10日-12日,吴文俊人工智能科学技术奖十周年颁奖盛典暨2020中国人工智能产业年会在北京和苏州同期圆满成功举办。中科院软件所研究员,信标委人工智能分委会可信赖研究组组长薛云志受邀在上海中谷小南国花园酒店,2020中国人工智能产业年会—可信AI专题论坛上发表主题报告《可信赖人工智能标准化进展》。
以下为演讲实录:
首先说为什么我们需要做可信赖人工智能呢?前面的专家已经讲了很多,无外乎是说人工智能的应用非常多,但同时也有很多问题。从做标准的角度而言,我们是要解决什么问题?我们要从标准上保证它的有效性和一致性,提升人工智能的使用可靠性和安全性;在涉及到争议的时候,我们看到各种解释与审计,以及相关的合规与监管。换句话说我们可以把问题总结为对人工智能的系统究竟能不能用,或者敢不敢用这几方面的问题。
为什么有可信赖性的问题呢?有几个原因:
一、这个图是2018年的重点项目,这个图解释了现在的人工智能基本用的都是统计机器学习方法,本身就有不确定性,这个不确定性,造成了什么?绿色的边界这部分,之前基于规则我们知道它不安全,安全的边界是在什么地方;但是现在基于学习的系统,边界我们不知道,这会造成可信赖性的原因之一。
二、就是老生常谈的问题就是对高质量训练数据的依赖。今天为止,绝大多数应用人工智能的系统都是监督学习的,真正的无监督学习很少,一旦缺少数据我们就很难有高质量的人工智能应用。
三、有限封闭训练VS开放使用,我们认为这是很重要的议题。我们拿自动驾驶举例,所有自动驾驶的算法都在有限的数据集,有限的场景下去学习训练的,但是我们需要投入到开放、无限的场景中使用,这是一个矛盾。
对于可信赖的人工智能定义,信标委SC42可信赖研究组给出了一个初步的定义,一个系统能够提供可以对人类所信赖的服务能力,并且不因为服务能力的降低或者失去,引起额外的负效应。这个定义现在也是初步的定义,在后续过程中还会逐步迭代。
从标准的角度,不仅仅是技术层面关注的问题,我们划分了八个方面:鲁棒性、安全、透明、隐私、对抗攻击、公平无歧视等等方面的工作,这些内容前面老师讲的比较多,所以我快一点过一下。
鲁棒性主要就是出现异常时,人工智能系统能不能保持其原有的性能。在这里我把看到的,跟鲁棒性相关的各个已经有的研究方向和正在出现的趋势做了一些总结。鲁棒性涉及到各种鲁棒性的方法,增强的方法,以及现在基于语言学习,新增的防御方法。
透明性,这个所谓透明是分两个方面,一个是事中的方面,就是一个系统可以提供我们可解释性,刚才也提到很多。另一个是追溯性,为什么是可追溯性呢?可解释性是系统投入使用之前,要解释好它的特性。追溯性是系统投入使用以后,如果出现了问题,我们怎么办,我们怎么界定产生问题的根源以及确定问题责任方,这个未来在人工智能系统应用,大规模落地的时候,实施监管的时候,是特别需要关注的特性。
这里我介绍一下NIST的报告,这个报告是2019年8月份出的,NIST对可解释性提出了四个原则,就今天我们探讨了,包括学术界、工业界的研究大家都在谈第一个原则,可解释性,提供一个解释出来,大家其实关注的都是这个,但是NIST说这是不够的,我们还有很多。除了可解释之外,这个解释有意义,我们不能提空泛的解释,要提供有意义的,帮助人理解的可解释性结果。另外这个解释还要有准确率,不能说时有没有解释都是可解释性,另外还有点是知识的限制。这些特性是NIST在2020年新的工作里,正在逐步深化,这方面我们会跟进一下。
对抗攻击,这个已经谈得很多了,这是所有在安全、可信赖,大家都会谈到的议题,而且确实现在研究得很热。
还有公平各个老师都提到,除了算法上之外,还有逻辑上。包括隐私,隐私涉及到隐私的计算技术和安全,另外语言的学习等等都是和隐私有关的。
从标准角度来说,这在很多方面关注度都比较多。二还有风险,我们在用一个人工智能技术或者产品的时候,它一定会有外部效应,这些外部效应我们怎么识别它,怎么识别外部效应,来应对潜在的问题,这是一个需要密切关注的问题,所以我们特意做了人工智能产品风险的标准,包含技术、应用和管理,这么几个方面,在这个周四我们会对标准进行第一次的讨论。
以上我把可信赖人工智能的概念和定义,汇报了一下。就像今天我们从标准的层面,今天办的会,很大一个背景就是可信赖这件事情,在这个领域成为最有争议的话题之一,这是今年1月份我们做的搜索,大家其实可以看见,跟歧视等相关的词,不断的增长。
另外给大家报告一个观点,可信赖在未来很大程度会成为一种合规的监管和贸易争端的潜在议题。大家可以探讨,一个是美国的一系列《算法透明和可责性声明》,欧盟和英国都在做,我们国内是相对比较缺乏的,我们有一些白皮书和分析报告,我们看这些内容里面,光知道有核心的观点,大家都比较接近。但是具体的处理方式,尤其是欧盟的具体方式和我们现在明确的处理方式间,有很大的不同,这个就是争议和监管不一致的潜在来源。
大家看到一个例子,在今年1月份腾讯就有一个判例,微信好友关系不属于用户隐私,大家可能都对这个有很深的疑问,为什么好友关系不是隐私呢?肯定是,但是这个判例在欧美引起讨论,他们认为中国AI算法、AI系统不关注用户的隐私,虽然这只是判断,不是法律,但是欧美会引入一些判例法,来做出一些决策,所以可信赖是贸易争端和监管的潜在的议题,不仅是这样,这里还有其他的相关机构,他们做的可信赖倡议、框架、政策等等一些东西。
我们再看国际上,这些国家现在都在具体做些什么?除了标准,还有技术上、政策布局上做什么事情?我们可以看到美国是在2016年开始,基本是从这波人工智能热潮最顶峰的那个时间点开始,一直在密集出台各种有关可信赖人工智能有关的白皮书、政策、倡导,现在已经初步形成了一些标准。欧盟也是从2019年开始陆续推准则、可信赖人工智能生态系统原则等等。在英国也是,AI人工智能指南都有,我们国家到目前为止是没有一个国家的顶层政策文件来支持,大部分都是自下而上的研究。
在国际标准方面,有哪些工作在做?一个是ISO/IEC的工作,这是国际上最早部署的,这个组美国专家是最多的,像微软、谷歌在其中都有很大的作用。做可信赖相关的,主要是在WG3 Trustworthiness这个组,已经有十几项和可信赖有关的标准和研究报告,涉及了人工智能可信赖设计了风险、偏见、监管还有安全、鲁棒性等。从今年8月份开始,相关的标准就会开始陆续发布出来了。
NIST,我们所提到的美国国家标准技术研究院,他们从2018年开始做相关的工作,而且他们有一个重大的标准工程,就是在做AI的标准,它整个工作基于《AI领先地位指南》做的,明确提出来美国主导AI标准,要孕育标准去引导美国的产业发展,和主要的竞争对手展开竞争。
在IEEE主要是做伦理有关的一系列标准。其中核心的是可解释性有关的。它一系列成果是相对比较丰富。欧盟以伦理为核心的一系列标准。ITU是做电信的,把可信赖与通讯要求结合起来在做。
国内没有特别明确的组织或者机构在牵头推进这件事情,2018年时候我们牵头做了国内第一个关于深度学习算法评估规范。去年8月份,全国信标委成立了人工智能分委会,这之后逐渐开始做相关的工作。去年年底可信赖组成立,4月份开始开第一次工作会,后面持续推进相关的工作,工作内容会分不同阶段展开,我们会从AI系统几个维度去做,一个维度是从它的生命周期,包括开发者训练、测试与实验、部署与运维以及监管,这个大阶段。另外,我们会从结构的层次,做一步一步考虑,不同硬件,包括芯片、计算系统这个层次,用不同核心算法做,一个层次一个层次的往上延伸。这里我们做了一个简单的划分,这个也会在后续逐步做调整。
我们这个周四,会开可信赖相关的讨论工作,涉及到四个具体工作:《可信赖人工智能》白皮书的编制工作,还有两个标准研究报告,涉及到的风险标准、伦理等多项标准,还有AI管理的研究报告,也会启动。当然这是第一步工作,后面我们还会陆续推进可信赖人工智能在其他方向的标准和工作,也欢迎大家参与到人工智能的标准化。