<li id="h3mjd"></li>
    <dl id="h3mjd"><font id="h3mjd"><strong id="h3mjd"></strong></font></dl>
    <input id="h3mjd"><font id="h3mjd"><td id="h3mjd"></td></font></input>

            1. <dl id="h3mjd"></dl>

                    1. <li id="h3mjd"><ins id="h3mjd"><thead id="h3mjd"></thead></ins></li>
                      1. Top
                        首页 > 新闻 > 滚动新闻 > 正文

                        加强我国人工智能安全风险的法律治理

                        人工智能开始在各个领域广泛应用,带给人类便捷与高效的同时衍生出一系列安全问题,如数据与个人隐私的保护、算法透明度与可解释性的缺失、系统安全风险等,安全问题也成为阻碍行业发展的一个主要障碍。
                        发布时间:2018-07-23 08:37        来源:赛迪?#24378;?nbsp;       作者?#21644;?#40324;峰 栾群

                        大数据、云计算等技术的进步促进了人工智能产业发展,成为未来经济社会发展的重要方向和支柱。人工智能开始在各个领域广泛应用,带给人类便捷与高效的同时衍生出一系列安全问题,如数据与个人隐私的保护、算法透明度与可解释性的缺失、系统安全风险等,安全问题也成为阻碍行业发展的一个主要障碍。解决这一问题需要靠技术,同时还要加强法律治理,确保人工智能安全、可靠、可控发展。

                        一、目前人工智能安全方面存在的主要风险

                        数据与个人隐私保护防范难度增加。人工智能的发展需要海量数据的收集、应用和共享,但是,数据收集、深度处理和全球化传递中都可能危及数据和隐私安全。主要表现在三方面:一是智能设备和算法对于个人隐私的发掘?#27835;?#33021;力远超以往技术,隐私所有权人防范的难度大大增加。二是用于身份识别验证的生物信息具有较强的稳定性,一旦发生泄露无法?#19968;?#25110;重置,生物信息的价值大大减损,且与个人生物信息绑定的相关安全验证都将面临很高的安全风险,目前对生物信息安全问题关注?#23545;恫还弧?#19977;是个人行为数据被智能设备和定位系统记录、存储和?#27835;?#21518;会全面呈现个人的行为偏好、习惯和生活状态,目前?#36824;?#21046;“出售或提供行踪轨迹信息,被他人用于犯罪的”情?#21361;?#20854;它领域行为数据如何保护尚缺少相应规定。

                        算法透明度与可解释性缺失。一是人工智能算法的学习与决策存在海量数据本身的不确定性,使得算法的决策过程和决策规则难以被人类明悉,造成人工智能算法的透明度与可解释性缺失。二是人工智能算法的设计是编程人员的主观选择和价值判断,也可能在机器深度学习过程中自主演变和进化,不能保障算法决策的公平性和透明度,难以认定产生法律责任的主体。三是人工智能的判断规则可能存在潜在歧视,一旦作为重大决策的参照物,会带来不可想象的后果。

                        系统安全风险。系统安全风险主要表现在人工智能硬件应用中,智能硬件的系统漏洞、基础安全技术缺失以?#26696;?#26434;的供应链条带来的归责困境。一是智能硬件缺失加密技术,采用默认密码技术措施不足,使大量的用户信息处于极度危险状态。二是复杂的系统构成导致高密度关联风险增加。以智能网联汽车为例,如因软件漏洞导致系统被入侵后造成的安全事故责?#21361;?#38590;以确定应该由整车厂或是软件系统服务提供商承担责任。

                        二、国外安全监管可借鉴的经验做法

                        颁布保护数据和个人隐私指令。在数据保护和个人隐私方面,美国于1974年颁布的《联邦隐私权法》为隐私权保护的基本法,随后颁布了《联邦电子通讯隐私法案》、《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。欧盟?#28304;?#24050;经颁布多项个人数据保护指令,例如《关于涉及个人数据处理的个人保护以及此类数据自由流动的指令》等,构建了个人数据保护体系。2016年,欧盟颁布《个人数据保护通用条例》,禁止一切未经同意而非法使用公民个人数据的行为。在个人数据随时可被搜集的时代,任何情况下都必须坚持保护隐私和个人数据的原则。欧盟法律事务委员会建议,针对人工智能领域进行政策制定时,应当进一步完善通过设计保护隐私、默认保护隐私、知情同意、加密等概念的标准。

                        提高智能算法透明化和可责性。2017年1月12日,美国计算机协会下属美国公共政策委员会发布文件,阐述了关于人工智能算法透明化和可责性七条原则,旨在通过算法透明化及可追溯性,尽量减少潜在的风险及危害。2017年2月,欧盟议会通过《机器人民事法律规则》,强调算法透明原则,即对某个人或更多人的生活可能产生实质性的影响,借助于人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。2017年12月11日,纽约市议会通过《政府部门自动决策系统法案》,这是美国针对人工智能算法进行立法监管的首个法案,其目的在于促进政府自动决策算法的公开、公平,提高政府决策智能算法的公信力。

                        采取系列措施保障系统安全。2016年,美国发布《美国国家人工智能研发战略计划》,为确保人工智能系统的安全,提出通过采取一系列措施,比如增强人工智能的可解释性和透明度、构建信任体系、增强可验证与可确认性,以保护人工智能系统免受攻击,从而?#36842;?#38271;期的人工智能安全和优化。

                        三、对策与建议

                        一是加快构建隐私权保护的法律。针对人工智能技术应用的不同领域,收集个人信息的来源,构架出一套自下而上、逐层具体、全面完善的隐私权保护的法律。一是对于个人敏?#34892;?#24687;,明确列举哪些信息属于个人敏?#34892;?#24687;,需要采取特殊的保护手段和使用限制予以保护。二是对于需要采集和存储个人信息和数据隐私的单?#32531;?#20010;人,在采集和存储前应当明确告知信息主体,特定范围的信息需要取得信息主体的明示同意。三是明确规定可能会给信息主体造成一定风险的个人信息和数据的获取的正当性和必要性条件,规范信息获取行为,降低信息和数据被非法获取和使用的风险。

                        二是法律明确人工智能算法透明化和可责性要求。一是算法设计者应该对训练数据的来源及可靠性加以说明。二是算法设计机构应记录模型、算法、数据和具体决策,以便在解决出现的问题或依法监管时有据可查。三是算法应用机构应采取可靠的技术手段?#20113;?#31639;法的程序进行验证,以提高基于此算法所自动做出的决策的可信度。四是定时评估系统的规范性,?#28304;?#35823;决策可以进行调查并予以纠正。

                        三是通过立法强化人工智能系统安全义务。可靠的人工智能系统应具有强大的安全性能,能够有效应对各类恶意攻击,法律可以考虑通过安全标准、安全评估义务等规范达到强化系统安全的目的。一是提高人工智能产品研发的安全标?#36857;?#20174;技术上增强智能系统的安全性和强健性。二是推行智能系统安全?#29616;?#21046;度,对人工智能技术和产品进行严格测试,增强社会公众信任。三是强化安全评估义务主体责?#21361;?#38024;对人工智能应用场景和应用重要程度的不同,有针对性地制定技术标准和评估方案,满足不同系统安全风险与保障的差异化需求。

                        合作站点
                        stat
                        新疆体彩十一选五