爱吧机器人网 » 专题 > 观点 > 正文

人工智能安全的法律治理:围绕系统安全的检视|网络法律评论

人工智能技术与应用的广泛使用,在带来科技红利的同时,也衍生了一系列社会风险。
 
本文重点关注人工智能安全的法律治理,依据我国现有网络安全法律体系,结合人工智能技术与应用发展现状,对人工智能带来的新生网络安全风险进行挖掘。
 
本文重点围绕系统安全问题展开论述,通过对人工智能含义试析及应用类型的概括分层,提炼出人工智能系统安全风险的核心要素。
 
同时,探索在我国现行网络安全法治体系下,人工智能系统安全法律治理的切入点,并就具体问题提供相关建议与若干探讨。

\
 
吴沈括
 
北京师范大学刑事法律科学研究院副教授
 
2017网络法青年工作坊学员
 
罗瑾裕
 
北京师范大学法学院硕士
 
01
 
前言:人工智能法律治理现状
 
人工智能科技诞生于20世纪50年代,在六十多年的发展历程中几经潮起潮落,近年人工智能迎来了其第三个发展高峰,而这次的高峰被认为是不同以往的,其中原因被归结为算力、算法以及数据等技术进步为人工智能科技提供了稳健前行的基础:
 
首先,云计算技术与GPU处理器的应用以及前景可期的量子计算,它们为人工智能提供了强大的算力支撑;其次,人工智能领域以机器学习为代表的算法的突破以及大数据提供的海量数据资源“煤矿”,均为人工智能的发展赋予了能量。
 
人工智能技术与应用正在快速普及在社会生活的各个方面,世界各国均致力于制定与其发展相适应的法律规则,如欧盟于2016年10月制定了《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics),提炼出人工智能触及的民事法律问题的框架,从法律和伦理的角度评估和分析未来欧洲民法领域的机器人规则,给予这些法律问题以方向性的指导。
 
而以自动驾驶汽车的立法探索为例,美国共计23个州政府共制定了四十余部自动驾驶汽车法案,联邦层面的自动驾驶汽车法案也正在推进。不可否认的是,世界各国的人工智能顶层战略文件均不约而同提及应尽快建立相应的法律规范体系,而多国已经将这些建议与构想真正提上了立法议程。
 
世界各国积极推进人工智能领域的立法,主要有以下两个方面的原因:
 
一方面,各国均希望在这场被称为第四次的工业革命的浪潮真正到来之前,能够抢占法律规则制定先机,促使本国的法律规则能够在国际社会享有话语权与主导权;另一方面,人工智能衍生了一系列社会风险,包括:人工智能算法决策透明度与可解释性的缺失、人工智能应用的个人信息与隐私的保护、人工智能系统安全、人工智能造成人类损害及责任分担方案以及人工智能为人类就业带来的负面影响等。
 
面对这些风险,制定与其现阶段发展相适应的法律规则的重要性凸显。

\
 
在众多风险中,本文重点关注的则是人工智能安全的法律规制。“安全”所包含的内容范围需要从以下两个方面进行说明:
 
首先,本文主旨为探讨人工智能技术与应用的网络安全,根据我国现有网络安全法律体系与人工智能技术与应用现状,对人工智能带来的新生网络安全风险进行挖掘,提出将人工智能对应规范嵌入现有网络安全法律框架的可行性建议。
 
其次,国外学术文献对人工智能“安全”问题的探讨,还包含了:机器确保人类人身安全的议题。造成这种提法差异的原因在于“safety”与“security”两词的含义误差:在英语语境中,“safety”重在人身安全,如阿西莫夫的机器人三原则,其主旨为确保机器人不会伤害人类;而当谈及“security”则意指数据安全和通信秘密等网络空间的安全。但当两词翻译为中文时,则被统一称之为“安全”。
 
关于“safety”(人身安全)问题的探讨目前聚焦于伦理范畴与技术标准领域,如探索设计机器的道德准则(如不伤害人类)并以有效方式将这些道德准则植入人工智能算法与系统的可行性,以及制定相关的机械安全技术标准与规范;关于“safety”问题的法律治理则更多聚焦于造成人身损害后的责任如何分担,如操作系统服务商、汽车生产厂商与乘客谁会为损害承担责任,采用无过错侵权责任还是设计相应的责任豁免规则等问题的探索。
 
需要向读者阐明的是,本文所探讨的“安全”意为“security”,即为网络安全,并不涉及人工智能确保人身安全的议题。
 
人工智能面临哪些网络安全风险,是否存在新生的安全风险形式?根据我国已有的网络安全法律体系,网络安全是指通过采取必要措施,防范对网络的攻击、侵入、干扰、破坏和非法使用以及意外事故,使网络处于稳定可靠运行的状态,以及保障网络数据的完整性、保密性、可用性的能力。
 
以系统和数据两个核心网络安全要素为视角,将人工智能技术与应用的形式对应分析,我们将人工智能安全问题聚焦于:系统安全、算法透明度与问责性和数据隐私的保护。
 
以具体的人工智能应用举例,如自动驾驶汽车系统:黑客可以从智能汽车端、移动应用端和云平台以及三者交互的通信管道实施攻击,复杂的系统组成要素则大大增加了安全风险。目前已实际发生过黑客通过盗取移动app账号密码而控制自动驾驶汽车的案例,这类系统脆弱性为乘客人身安全和社会安全带来了巨大隐患。
 
与此同时,人工智能算法和系统对社会运行及公民个人利益的影响也日益重要起来。以目前内容分发所广泛使用的用户画像技术为例,该技术会通过用户的点击历史以及触屏操作分析用户行为,对用户进行画像分类,并添加相应的标签,而后精准推送与标签对应的内容,关于该项应用所引发的合理性争议也随之产生,它被质疑减少了用户广泛接触各类信息的机会,剥夺了用户平等获取信息的权利。
 
反观精准信息推送在2016年美国总统竞选中所发挥的作用:在竞选过程中存在着数量巨大的政治机器人,它们被用于在社交媒体传播错误信息和虚假新闻。此种高度精密的技术将会通过大数据分析和人工智能技术判断和预测每个选民的关注重点,而针对性地分发对应的具有煽动性的内容,有针对性地制造舆论假象,进而恶意引导民意。可以窥见,人工智能的法律治理已迫在眉睫。
 
本文正文分为三部分进行论述。第一部分介绍两个基本问题,人工智能的含义及人工智能现有网络安全问题的剖析,在这部分我们试图从侧重实用与技术落地的角度,对人工智能做一个更加具体化的界定。
 
第二部分,以智能硬件、智能网联汽车以及物联网为示例,分别对其系统安全的关键问题进行分析,提炼出具有共通性的人工智能系统安全风险要素,找到法律治理的切入点。
 
第三部分,通过将人工智能系统安全问题融入既有网络安全法律框架,就核心问题具体分析,而提出在网络安全法律体系的落实建议。
 
02
 
人工智能的含义试析
 
1955年,John McCarthy首先提出 “Artificial Intelligence”一词,起初关于Artificial Intelligence的设想是:通过将人类的学习行为及其他智力主导行为进行解构分析,从而将人类智能精确地描述出来,继而在机器上构建与人类智能相类似的智能,因此被称为“人工智能”。
 
目前关于人工智能的含义划定仍未有定论,在此引用人工智能专业教科书关于人工智能的定义,在该定义中,人工智能被描述为一种计算机系统,它包含以下特质:
 
(1)具备能够像人类一样思考的潜力,例如可以识别架构和神经网络;
 
(2)与人类行为相似,可以借助自然语言处理并通过图灵测试,进行自动推理和学习;
 
(3)能够进行理性思考,例如逻辑运算,推理和优化;
 
(4)具备行为理性,例如通过感知、规划、推理、学习、交流、决策和行动来实现目标。
 
现阶段人工智能技术从本质来说属于计算机技术的一种,因此准确理解人工智能算法与系统和普通计算机程序运行的核心区别则成为了理解人工智能技术的关键。
 
我们说当今的人工智能算法和系统或多或少都有一个特质:它们可以通过外界设定的一个输出目标,由计算机程序自动寻找方法完成任务,输出成果,而不同于传统程序编程,需要工程师对输出结果的每一个相关参数进行设计。
 
例如,图像神经网络如何学会识别“猫”,通常需要将标注好“猫”的图片输入图像识别人工智能系统,系统会自行学习所有图片中“猫”的特点,进而获取辨识“猫”的能力,然而机器依赖辨识的特征可能是不具有任何人类知识含义的,因此其决策的过程及原理难以被人们所理解。
 
人工智能的应用复杂多样,究其原因,首先是因为人工智能算法和系统可以内嵌至各类应用场景及解决方案之中;其次,在实操层面人们无法划定什么是人工智能、什么不属于人工智能的分界线,例如由人工智能研究者研发的处理大量数据的技术,现在被定义为大数据技术;在面对一个尚未解决的问题时,人们通常认为需要人工智能算法解决问题,然而一旦该解决方案被广泛接受后,这套解决方案则会被认为是常规的数据处理流程。
 
谈及人工智能的法律治理,在结合人工智能技术特点的基础上,针对具体的应用类型制定针对性法律治理方案意义重大。值得注意的是,人工智能在现阶段的应用突出表现在两个层面:
 
(1)算法及系统层面的应用,也即具体的人工智能算法和软件、解决方案等,如图像识别、语音识别、信息推送应用的用户画像技术、金融领域的智能投顾技术等,它们可以帮助人们在短时间内处理人力所不能及的大量数据,并辅助预测、决策。
 
(2)硬件和基础设施层面的应用,如机器人、自动驾驶汽车、无人机、智能硬件等,这类应用将硬件与人工智能算法和系统进行融合,赋予硬件以更高的智能。智能硬件广泛协同后,形成物联网(Internet of things),可用以打造特定行业网络神经,成为基础设施的重要组成部分。
 
综上,鉴于人工智能算法与系统的特点,考虑到人工智能应用场景,可以认为人工智能衍生的安全风险集中于以下三个层面:
 
首先,在系统安全的风险层面,广泛互联的物联网,智能硬件的系统漏洞、基础安全技术缺失以及复杂的供应链条带来的归责困境为系统安全的监管带来挑战。
 
其次,在算法透明度与可解释性的风险层面,人工智能算法的 “自动化”学习与决策的过程、无法吸纳人类知识的缺陷、机器学习依据的海量数据带来的不确定性等,使得算法的决策过程和决策规则难以被人类明确知悉,由此引发人工智能算法的可解释性和透明度缺失隐患。
 
最后,在数据使用和隐私保护的风险层面,原有数据使用和个人信息使用和保护机制面临失效的困境,例如在物联网中巨大量级的用户数据在各个设备和系统之间传输共享非常频繁,如要获取用户的同意确认,将带来大量的时间消耗并且不具备可操作性。同时引起创建数据收集与使用新规的探索,如机器学习的训练数据的收集是否可以击穿隐私数据收集最小化原则和使用的必要性原则等。
 
本文将围绕人工智能系统安全的问题展开论述,传统系统安全问题在人工智能应用场景下无创新探讨的,本文将不再涉及。
 
03
 
人工智能系统安全问题要览
 
在传统系统安全风险之外,人工智能还因其应用本身的特点,多维度增加了系统安全的治理难度。下文以智能硬件、智能网联汽车以及物联网为示例,就人工智能系统安全所存在的风险及治理难点进行分析。
 
(一)智能硬件系统安全
 
近年智能硬件产业得到了快速的发展,各类智能硬件产品种类繁多、用途广泛,然而因其目前仍处于产业初创与技术探索阶段,而导致了安全问题遭到忽视。智能硬件的系统安全风险总体来说存在于接入技术保障、固件安全、移动客户端安全以及云平台安全四个层面。
 
首先,在接入技术层面,因智能硬件体型较小,资源受限,因此,加密算法的设置与选择不得不考虑功耗问题,导致了市场上部分智能硬件加密手段缺失。
 
其次,在固件安全层面,因固件安全代码的缺陷具有隐蔽性强、难以检测,难以剔除等特点,部分固件存在无法更新升级的情况,这就导致一旦出现系统漏洞,无法修补而只能更换设备。
 
第三,就移动客户端安全层面,因使用到手机端app,移动端防守较为薄弱,可用的攻击形式众多。而云平台安全层面的风险可以概括为传统的web风险。
 
面对智能硬件多发的系统风险,首先需要从生产厂商层面保障智能硬件的接入、访问控制,加密传输、补丁更新等基本的信息安全功能。其次,从立法层面,应尽快将智能硬件纳入网络安全法律监管体系。

\
 
(二)智能网联汽车系统安全
 
智能网联汽车的系统安全问题关乎生命安全,同时也更为复杂。智能网络汽车的技术核心被归纳为“信息”与“控制”,意为由系统进行信息感知、决策预警和智能控制,使智能操作可以逐渐替代驾驶员,并最终自主执行全部驾驶任务功能。
 
因此防范对网络的攻击、侵入、干扰、破坏需要从“信息”与控制的各个环节进行落实,这具体包含了:整车及车内系统安全、移动智能终端安全、车联网服务平台安全以及通信安全四个方面,除整车及车内系统安全较为复杂以外,其余安全风险方面与智能硬件类似,在此不多做展开。
 
智能网联汽车安全监管举措要点集中在整车及系统的风险评估、安全防护与测试等方面。根据我国《国家车联网产业标准体系建设指南》关于车联网信息安全标准的要求,车联网信息安全标准在遵从信息安全通用要求的基础上,以保障车辆安全、稳定、可靠运行为核心,主要针对车辆及车载系统通信、数据、软硬件安全,从整车、系统、关键节点以及车辆与外界接口等方面提出风险评估、安全防护与测试评价要求,防范对车辆的攻击、侵入、干扰、破坏和非法使用以及意外事故。
 
同时,车联网产业链长、防护环节众多,因此引发产业链上各供应商安全事故责任承担的一系列问题:是否仅以整车厂作为承担安全风险责任的主体,以及供应链上下游服务提供商的网络安全事故责任如何认定等。责任承担问题将成为包括智能网络汽车在内的人工智能应用网络安全法律治理的抓手与难点。
 
(三)物联网系统安全
 
物联网被定义为:通过收集,处理和分析由传感器或智能对象产生的数据来监测和控制物理环境的无处不在的网络,目前在我国被广泛应用于工业、农业、能源、物流等行业。
 
国务院《新一代人工智能发展规划》指出,要培育高端高效的智能经济,从智能软硬件、智能机器人和智能运载工具等人工智能新兴产业,到应用于制造业、农业、物流和金融等产业的智能化升级,物联网在其中承担着重要的功用。
 
物联网的系统安全治理在智能硬件、智能网联汽车等分离的硬件系统安全治理的基础上,还应建立物联网全局性网络安全响应机制。
 
首先,物联网的系统安全风险来源于软件和硬件的异质性和复杂性叠加,缺乏安全设计(security by design)和安全默认(security by default)衍生了巨大的网络安全风险。如,作为物联网组成部分的智能硬件安全设计的缺失,使管理、控制和安全保护更加困难。
 
其次,物联网作为硬件与网络联结的整体,其系统安全的影响更具有全局性,总体来说,应着手于建立网络安全测评、风险评估、安全防范、以及应急响应等基本机制,目标是使物联网基础设施、重大系统、重要信息的安保能力大大增强。

\
 
(四)人工智能系统的技术与制度风险
 
人工智能的系统安全新生风险主要表现在人工智能硬件应用的场景中,通过上文对智能硬件、智能网联汽车以及物联网的系统安全要点分析,提炼其中共有的系统安全特点及治理要点,本文将现阶段人工智能系统安全面临的技术与制度的风险概括为以下五个方面:
 
一是安全保障技术有待完善。
 
智能硬件缺失加密技术、采用默认密码等技术措施不足,使大量的用户信息处于裸露状态,黑客入侵易如反掌。而智能网联汽车也需要加强通信、系统与硬件层面的安全技术保障,保证认证、访问、关键节点的安全性。物联网需要在网络搭建之初的每一个环节进行安全设计与安全默认的考量,使网络安全的技术保障贯穿于物联网的生命周期。
 
二是复杂的系统构成导致高密度关联风险增加。
 
从智能硬件到智能网联汽车,我们可以看到,众多的人工智能硬件的应用都涉及到“两端一云一管道”,也就是智能硬件(智能网联汽车)终端,移动应用终端(即辅助操作的移动app),云端(作为用户账户管理以及信息分发的平台),以及穿插在三者中间由运营商提供的信息通信管道,任何一端或一个环节出问题都有可能导致整个系统被入侵、干扰或破坏。
 
三是复杂供应链条导致安全责任归咎困境。
 
以智能网联汽车为例,如因配件或软件漏洞造成的系统脆弱性,导致被入侵后造成的安全事故责任,是否应该统一落实到整车厂,抑或是由相应的配件生产商或是软件系统服务提供商承担责任。再以物联网为视角,如因硬件端被入侵而使整个网络遭到攻击,是否应该将事故责任归属于网络运营者,抑或是归属于相应的硬件生产厂商。这其中涉及到权益与责任相一致的问题,但也要保证给予硬件生产商以适当的法律制度压力,因此,如何设计网络安全法律责任,还需审慎地探讨和衡量。
 
四是技术标准与评估方案亟待制定。
 
目前我国众多人工智能应用都已制定相应的标准体系建设规划,如无人机、智能网联汽车以及物联网技术规范标准。技术标准作为软性法律,可以为市场提供安全技术的一致指引,与认证评估制度相配合,确保基本安全技术在标准规范层面得到保障。另外,由于人工智能应用的种类繁多,应注意根据具体的使用场景和应用的重要程度制定不同的技术标准和评估方案,用以化解不同应用的不同系统安全风险与保障需求的差别化治理难题。
 
五是与网络安全法律监管体系融合障碍。
 
其中存在的概念的差异,法律制度的空隙,以及可能导致网络安全监管碎片化、多元化的挑战,都不同程度地影响了《网络安全法》及其配套制度在人工智能环境下的实施与适用。
 
04
 
网络安全法律视野下的治理路径
 
(一)人工智能硬件应用与《网络安全法》的融合
 
人工智能硬件应用集中了人工智能的新生系统风险隐患,因此,以人工智能硬件应用为核心,探索其与《网络安全法》及其配套规定的融合与嵌入性规范与制度的设计,可以是人工智能系统核心风险法律治理的主要途径。下文我们就具体问题进行探讨。
 
1、人工智能硬件应用的概念属性
 
从《网络安全法》责任主体视角出发,人工智能硬件应用生产厂商是否被包括在《网络安全法》“网络运营者”概念之中,是其被纳入网络安全法律体系,以及其生产厂商承担相应的网络安全保障义务的前提。
 
根据《网络安全法》第七十六条第三款关于“网络运营者”的含义界定,明确网络运营者是指网络的所有者、管理者和网络服务提供者;根据第十条指出:建设、运营网络或者通过网络提供服务应履行相关网络安全保障义务。因人工智能硬件应用生产厂商不属于网络的所有者、管理者,因此其是否被包括在《网络安全法》“网络运营者”含义之中,问题的关键在于,其是否归属于“网络服务提供者”以及“通过网络提供服务”。而《网络安全法》条文中则未对 “网络服务提供者”、“网络产品、服务”等概念做明确的规定。
 
从另一个角度出发,《网络安全法》第二十一条规定了网络运营者应履行建立在国家等级保护制度基础上的安全保护义务,而在《网络安全法》配套技术标准《信息安全技术 网络安全等级保护定级指南》中,明确将物联网纳入定级对象。
 
并且已制定《信息安全技术 网络安全等级保护基本要求 第4部分:物联网安全扩展要求(征求意见稿)》、《信息安全技术 网络安全等级保护设计技术要求 第4部分:物联网安全要求(征求意见稿)》等技术规范,由此可以判断物联网运营者确属网络运营者范畴,物联网是我国《网络安全法》现有语境下的治理对象。而智能硬件虽为物联网的组成部分,但其生产厂商的义务与责任仍不明确。
 
以现有网络产品的审查是否包含人工智能硬件应用着手分析:根据《网络产品和服务安全审查办法(试行)》第四条规定重点审查网络产品和服务的安全性、可控性,其中包括:产品及关键部件生产、测试、交付、技术支持过程中的供应链安全风险。本条文虽提到了硬件的审查,但是“关键部件”的概念内涵较窄,可能无法覆盖市场上大部分人工智能硬件应用。
 
综上,网络安全法律体系对人工智能系统安全的治理首先应明确,人工智能硬件应用是否为《网络安全法》的监管对象,何为“网络服务、产品”,其中是否包含了拥有内置cpu、操作系统,传感器以及信息传输通路的各类人工智能硬件,“网络服务提供者”是否包含了这些人工智能硬件的生产厂商。
 
其次,目前《网络安全法》对网络服务、产品的审核集中在相对重要的产品范围,涉及的硬件种类较少,如要增加智能硬件的网络安全审核,则可能造成体系臃肿与失衡,因此需要围绕人工智能硬件构建专门的监管体系,通过层层制度设计将监管重任分层剥离。
 
2、针对人工智能硬件应用构建网络安全监管体系
 
通过上文分析,人工智能硬件应用尚未完全融入网络安全法律体系,本文建议围绕人工智能硬件的特点与安全风险构建一套完备立体的网络安全监管配套制度,从技术标准、评估认证、漏洞监测与披露、行业自治等多层次落实监管任务:
 
首先,制定一系列人工智能应用技术标准,对人工智能硬件应用的安全技术基线做出明确的规定,我国目前已有:八部门联合发布的《无人驾驶航空器系统标准体系建设指南(2017-2018年版)》,工信部《国家车联网产业标准体系建设指南(智能网联汽车)(2017年)(征求意见稿)》和《物联网发展规划(2016-2020)》中关于物联网标准体系建设的内容。需要注意的是,应侧重根据人工智能不同的应用类型对安全的差异化需求,制定不同层次的安全标准。
 
其次,建立人工智能硬件应用的安全评估与认证制度。根据其使用范围及功能的重要性,设定不同的安全评估方案,当智能硬件使用范围达到某一数量后,即使是城市建设末梢的“智能灯泡”也应该纳入评估;对决定人身安全的人工智能应用,则更应审慎严格评估,如智能网联汽车。而资格认证则可以作为通用的审批环节进行落实,以保证人工智能硬件应用厂商资格符合要求,有能力提供基本的安全技术与措施。同时应注意平衡对初创企业应给予相对宽松的监管环境,防止严格监管抑制技术创新。
 
第三,以漏洞监测与披露任务为核心建立人工智能硬件的安全威胁监测制度,将智能硬件、智能网联汽车等人工智能硬件应用纳入《公共互联网网络安全威胁监测与处置办法》的体系中,由硬件生产厂商分别监测、上报或由整车厂等负有主要责任的厂商集中对人工智能硬件的漏洞与脆弱性风险进行监测与上报,保证在产品生命周期内的更新升级等安全维护服务。
 
最后,发展行业自治制度,促进行业信息共享,例如,在供应商和制造商之间建立共同信任的软件材料清单,以及开发人员和制造商应考虑在设备包中提供已知的硬件和软件组件的清单,该清单可以作为物联网生态系统中的其他利益相关者了解和管理其风险并在安全事故后立即修补任何漏洞的宝贵工具。更多的行业自治举措更待广泛探讨。
 
3、建立物联网全局性网络安全响应机制
 
物联网作为硬件和网络联结的整体,整合了分散的人工智能硬件资源,因而与人工智能硬件的治理途径有所不同,其侧重点在于网络安全测评、风险评估、监测预警、以及应急响应等全局性网络安全响应机制的建立,落实到《网络安全法》的制度体系中,则包括以下四个方面:等级保护、关键信息基础设施、网络安全监测预警和信息通报制度以及网络安全风险评估和应急处置。
 
首先,应结合网络安全等级保护和关键信息基础设施制度做好物联网设施全面、重点的保护。无论是传统能源、工业、农业等关键基础设施领域的物联网系统,还是民生领域的智能交通、车联网、物流追溯、安全生产、医疗健康领域的物联网系统,都应纳入等级保护和关键信息基础设施评定范围。
 
随着智慧城市、智能交通、智能环保的逐渐发展,大量智能硬件终端将会占据物联网的末端,尤其应在等级保护与关键信息基础设施的保护基础上做好重要、核心硬件设施的防护与鉴别,加强重要、核心部位的访问控制与认证技术保障。同时,应注意与关键信息基础设施的重点保护任务相结合,对核心、重要的配件供应链进行有效管理,落实供应商的信息安全保障责任。
 
其次,在网络安全监测预警和信息通报制度中,网络产品、服务提供者应注意物联网涉及的多端口协同配合的工作机制。具体涉及到云端、硬件终端、移动终端与通信服务,任何一端出现问题,都需要及时告知生态链条的各经营者及负责人,并能及时联动做出响应与反馈。
 
同时,根据《公共互联网安全威胁监测与处置办法》,工业和信息化部建立网络安全威胁信息共享平台,统一汇集、存储、分析、通报、发布网络安全威胁信息,并制定相关的接口规范,与相关单位网络安全监测平台实现对接,而基于物联网复杂的供应链条,还需明确各供应商的接入平台的权限划分问题。
 
最后,关于网络安全风险评估和应急处置,应明确监管部门的职责分工问题。在风险监测、态势研判、威胁预警、事件处置以及应急预案等任务的职责分工问题,如涉及物联网不同端口所在地的监管部门,如何厘清职责,协同联动各地监管机构的同时,还需确定哪方所在地的监管部门负责主导。
 
(二)人工智能硬件应用的供应链责任承担问题
 
人工智能硬件应用的普及使网络系统的安全保障责任被无限细分在了每一个终端节点之上,而这些终端节点往往被市场监管所忽略。供应链厂商应承担何种网络安全保障责任则需要审慎的探讨和衡量。
 
在我国现有网络安全法律体系中,涉及到供应链管理的条文有:《工业控制系统信息安全防护指南》第十条与《网络产品和服务安全审查办法》第四条第二款,但均未明确供应链条中各方的行政责任承担问题。以此为背景,综合实践及惯例,我们就现有网络安全法律体系中,供应商应承担的网络安全保障责任方案进行简析。
 
1、网络运营者承担责任——基础方案
 
根据《网络安全法》的“法律责任”条文设定,责任承担主体为:网络运营者及其直接负责的主管人员和其他直接责任人员、关键信息基础设施运营者及其直接负责的主管人员和其他直接责任人员、网络产品或者服务的提供者,等。从条文分析,违反《网络安全法》各项义务的责任承担主体主要为网络运营者、网络产品服务提供者,并不涉及供应链条上的各方供应商。而以网络产品或服务提供者作为责任主体为切入点,则又回到人工智能硬件生产商的主体资格归属,其是否属于网络产品或服务提供者。目前尚未有定论。
 
再以《工业控制系统信息安全防护指南》第十条为例进行分析,该条款规定供应链服务商以合同方式明确网络安全责任与义务。因此,《网络安全法》规定的各项网络安全保障责任并不涉及供应链条上的各供应商,而是由相应的网络服务提供者(及其直接负责的主管人员和其他直接责任人员)承担,可以认为这是我国现有网络安全法律体系中基础的责任承担方式。
 
2、核心厂商承担责任——分担救济
 
以智能网联汽车为例,其供应链条涵盖元器件供应商、设备生产商、整车厂商、软硬件技术提供商、通信服务商、信息服务提供商等。而车内集成了一系列软件与系统,包括车载操作系统、车载中间件、车载应用软件等。供应链条结构复杂,由统一的核心厂商承担网络安全保障义务或许可以是便利监管与信息集成的高效方式。
 
但对于核心厂商,也应给予责任分担救济的途径。核心厂商应通过设计、规范和采购实践确定、管理供应链、分包商和服务提供者应承担的安全责任,并与供应商在合同中明确各自的网络安全保障义务及相应的赔偿与救济方式。在网络安全执法时,也应当视具体情况,对于提供重要功能服务和产品且具有明显过错的供应商,如通信服务商、车载操作系统服务提供商,处以相应的法律责任。
 
3、供应链厂商承担责任——权责平衡
 
以物联网为例,假设某重要的工控系统,发生一起网络安全事故,事故源于智能阀门被黑客入侵控制;或是路由器被攻破,加密信息被篡改后引发的网络安全事故。在这两个例子中,由智能阀门生产商或路由器生产商分别承担相应的事故责任将会导致权利与责任的明显失衡。
 
如同上文所述,围绕人工智能硬件建立多层次的网络安全监管体系将起到定分止争的作用,结合强制性技术标准、资格认证以及网络安全方案评估等方式明确供应链厂商的责任,如未达到强制性技术标准、未经过资格认证或未通过评估的产品或厂商,应当根据违反强制性技术标准、资格认证及评估的条款进行处罚,而不适宜再追究相应的网络安全事故责任。
 
4、引入多维责任分配机制
 
人工智能硬件应用的网络安全责任的分配应以权利与责任相一致为原则,构建多方位的审核认证体系。
 
首先,应对不同类别的供应商进行分类分级管理,如将智能网联汽车中重要的系统、配件的种类列出清单,对提供重要服务及产品的供应商设定与重要功能相适应的网络安全保障责任。
 
其次,不论采用哪种责任承担方案,都应在合同中清晰体现各供应商的网络安全保障义务的分配,这一方面明确了相应的民事责任,另一方面也给予网络安全执法工作一定参考。
 
最后,万物互联带来了巨大的网络安全隐患,我们无法保证每一个设备的安全措施都足以防御蓄意的网络攻击,因此,建议引入保险机制,为小型供应商承担的巨大风险及网络安全事故的损失探寻平衡的救济出口。
 
05
 
结语:人工智能系统安全法治要点及趋势
 
科技发展带来社会红利的同时也为立法与监管带来了巨大的挑战,应当指出的是,关于人工智能系统安全的法律治理有以下三个要点不应忽视:
 
首先,人工智能进入公众视野虽为时未久,但其所带来的安全风险已经足以进入立法的考量视野。制定与技术发展相适应、又不影响技术创新和市场活跃度的法律规范将成为衡量立法效果的关键因素。
 
其次,人工智能以具体应用为基础的法律治理将引导监管走向碎片化与多元化。在人工智能时代,我们将看到,一种解决方案和既有的监管路径将难以应对多变的技术发展与复杂的网络环境,针对不同的人工智能应用建立区别化监管方案将成为人工智能法律治理的显著特点。而构建兼顾各方权利与责任的动态分配方案,将成为立法落地的重要支撑。
 
最后,在人工智能时代,软性法律的适用将成为网络安全法律治理的趋势,所谓软性法律是指差异化的技术标准与规范,以及各类应用的系统安全设计方案(如遵循安全设计与安全默认原则等)、网络安全方案(应对网络攻击的应对方案)、系统测试方案的评估与审核等。软性法律适用的核心特点是更加侧重个性化与自主化的解决方式。而传统的自上而下、以归纳思维为主的法律治理思路可能已逐渐无法胜任人工智能时代的监管重任。


上一篇:用人工智能评职称和论文 靠谱吗?
下一篇:如何让机器人遵守“三从四德”?
精选推荐
智能农业:种地的事儿未来全交给这些机器人吧
智能农业:种地的事儿未来全交给这些机器人吧

[2019-12-07]  SRC公司创始人Sam与温波尔庄园农场经理Callum Weir以及监控机器人Tom总部位于英国的农业科技初创公司SRC(Small Robot Company),正在 ...

揭秘达芬奇手术机器人
揭秘达芬奇手术机器人

[2018-04-19]  达芬奇手术系统是由美国Intuitive Surgical公司制造的机器人手术系统。美国食品和药物管理局(FDA)于2000年通过该标准,旨在利用微创手段 ...

谷歌大脑发布ROBEL基准 鼓励用低成本机器人训练AI系统
谷歌大脑发布ROBEL基准 鼓励用低成本机器人训练AI系统

[2019-10-11]  训练AI系统的机器人D& 39;Claw和D& 39;Kitty用于控制机器人的人工智能系统,测量其性能所使用的基准通常仅限于为工业环境设计的昂贵硬件, ...

搭载人工智能的太空机器人CIMON 2乘SpaceX抵达国际空间站
搭载人工智能的太空机器人CIMON 2乘SpaceX抵达国际空间站

[2019-12-09]  12月5日,搭载人工智能的太空机器人西蒙2号(CIMON 2)乘坐SpaceX火箭Dragon货运舱,从佛罗里达州卡纳维拉尔角空军基地升空,前往国际空间 ...

深度神经网络揭示了大脑喜欢看什么
深度神经网络揭示了大脑喜欢看什么

[2019-11-06]  爱吧机器人网编者按:近日,《自然-神经科学》发表了一篇论文,研究人员创建了一种深度人工神经网络,能够准确预测生物大脑对视觉刺激所产 ...

比利时研发出可以自我愈合伤口的软体机器人
比利时研发出可以自我愈合伤口的软体机器人

[2017-09-03]  软体机器人是机器人技术的新兴领域; 他们“可以与人类相互作用,而不会杀死他们,并拿起像西红柿这样柔软的物体。” 从长远来看,布鲁塞尔大学队伍正在努力创建一个类似的材......

美国Natilus公司试飞水上无人货机 设计简单成本降低
美国Natilus公司试飞水上无人货机 设计简单成本降低

[2017-12-28]  Natilus创业公司成立于2014年,其梦想是建造大型无人机,以半价提供比船舶快得多国际货运。在十二月份,Natilus计划在旧金山湾测试一个9米翼展的小型原型无人机的水上滑行能力......

Crossbar将电阻式RAM推入嵌入式AI
Crossbar将电阻式RAM推入嵌入式AI

[2018-05-17]  电阻RAM技术开发商Crossbar表示,它已与航空航天芯片制造商Microsemi达成协议,允许后者在未来的芯片中嵌入Crossbar的非易失性存储器。此举是在先进制造业节点的领先代工厂选......

本周栏目热点

2020年中国AI基础数据服务行业发展报告

[2020-04-03]  核心摘要:目前人工智能商业化在算力、算法和技术方面基本达到阶段性成熟,想要更加落地,解决行业具体痛点, 需要大量经过标注处理的相关 ...

[1970-01-01]    从首尔清潭洞SM娱乐公司大楼代表办公室的落地窗可以清晰地眺望对面的汉江。李秀满会长介绍拥有代表办公室和录音室的建筑物是工作室中心 ...

[1970-01-01]    虽然我国经济增速下降,通缩若隐若现,但由于我国劳动力人口在2012年已经达到顶峰,之后总量呈逐年下降之势,所以即使近几年产业工人工 ...

腾讯思享会:探讨智能社会与人类未来

[1970-01-01]    人类在享受开车的过程时,在不久的将来可能让机器开车,人类如不是理性的控制机器人,又将一场持久的大战。  以智能社会与人类未来为 ...

[1970-01-01]    机器人发展到今天到了重新定义的时候,机器人拥有人类的感知和思维、应用到更多领域,成为现代机器人产业发展的新方向,由此看出中国机 ...