全国政协委员周鸿祎:面对人工智能,我们要居安思危

发布日期:2019-03-08     来源: 人民政协报

【字体:

【颜色:

浏览量:...

有人把人工智能称为下一轮技术革命,也有人称人工智能将威胁人类。在我看来,对于人工智能取代人类的言论,大可不必恐慌。

提起人工智能,大家可能第一时间就会想起《西部世界》《超体》这些影视剧里的情节,人工智能不仅会产生情感和认知,而且在智力和技术上完全碾压人类,从而威胁人类自身的生存,但现实离想象还是很遥远的。

严格来说,目前的这一波人工智能尚处于弱智能阶段,主要还是利用计算机的算法模型和大数据的深度学习,建立的一种概率判断网络,属于新瓶装旧酒,真正的人工智能时代至少还需要5~10年实现。比如很多智能手机的人机对话,利用的都是机器算法加上语音数据库,大家用一用就没兴趣了,因为聊两句破绽就出来了。

当下,人工智能已经从风口之巅的概念讨论转向细分领域的深耕,诸如智能穿戴、智能音箱、智能汽车等,开始从实验室进入到实际应用当中,我们也开始畅想人工智能将带来的幸福未来。

不过,任何技术都是双刃剑,人工智能也不例外。我们在享受最新技术带来的便利时,也不能忽视与之相关的安全问题。以智能家居为例,语音识别和人脸识别技术让设备成为家庭交互终端的入口,但这些设备同样会存在类似安全漏洞未修复、配置不当、越权操作等信息安全问题。不法分子能远程获取root权限,远程劫持家居设备,并进行安装恶意应用、收集用户隐私生活信息等操作,将造成用户隐私泄露或财产损失。目前我们已经看到针对物联网、智能家居、无人驾驶汽车等智能系统的攻击已经不断出现,利用人工智能技术用于网络攻击、网络犯罪的事件也屡有发生。

因此我认为,安全应该成为人工智能发展的基础与前提。如何打造人工智能的安全,应是目前乃至未来科技行业的重点研究方向。在我看来,人工智能自身的安全问题主要存在以下几个方面:

首先,前端传感器可以被干扰。现在我们都谈无人驾驶,无人驾驶汽车识别路况信息主要依靠红外感应、激光雷达等各类车载传感器,但这些传感器目前并不安全,很容易被干扰,造成人工智能识别和决策失误。比如我们用激光笔干扰一下车载雷达,就有可能造成无人车急停,引发事故。

其次,训练数据可以被污染。人工智能是大数据训练出来的,训练的数据可以被污染,甚至被黑客进行“数据投毒”。此前微软做了个聊天机器人Tay,因未对Tay与网友的对话做任何设定,结果Tay上线16个小时内就被“教坏”,成为一名“不良少年”,其AI驱动的“人格”满口暴力,甚至不乏偏激的种族主义言论,最后不得不匆匆下线。

三是,内部算法不完善。作为一种概率判断系统,目前的人工智能也许可以保证99.99%的准确性,但是对于安全来讲,它只要出现一次错误,就会造成严重后果。2018年美国Uber公司的自动驾驶测试车发生了撞人事故,当时那辆汽车处于光线很暗的环境中,被撞的女士穿了件黑色衣服,在这种情况下,人工智能系统没有做出任何判断,甚至没有减速,最终酿成了悲剧。

四是,实现平台有漏洞。许多AI系统都依赖开源的深度学习软件,但是软件只要是人写的,就一定有漏洞,有漏洞就会被人利用,360研究人员已经发现了40多个深度学习框架的软件漏洞。另外,随着开源算法越来越通用,潜在的风险也会增多。

人工智能无疑是下一轮技术革命的焦点,在技术高速发展的同时,如何推动业界对人工智能安全的研究更是重中之重。这也是我常说的大安全时代,网络安全威胁可以从网络空间,扩展到国家安全、国防安全、关键基础设施安全、社会安全、城市安全,乃至人身安全。

所以,当人工智能、万物互联这些热门词汇开始受到关注时,我们更要保持乐观警惕。我认为解决人工智能时代的安全问题,能够防范的唯一方法就是利用基于大数据的人工智能。360去年基于安全大数据构建了360安全大脑,可以实现网络安全的自动化、智能化响应和处置。“安全大脑”是一个概念,也是一种思维方式、一个方向,它是360提出来的,但并不是360独有的。我们希望通过开放安全大脑现有的经验、数据、技术、能力,与产学研各界通力合作,共同把“安全大脑”的产业生态做起来,并在未来的国家安全、城市安全、社区安全,甚至老百姓的家庭安全中发挥重要作用。

霍金在北京演讲中曾预言,“人工智能的成功有可能是人类文明史上最大的事件。但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。”站在一个美丽新世界的入口,如何让人工智能更安全地为人类进步而服务,我们责无旁贷。

(本文转载自《人民政协报》2019年3月7日 25版)