中国科学院院士张钹:加快发展第三代人工智能
来源:互联网12月4日-5日,由清华大学人工智能国际治理研究院主办的2021人工智能合作与治理国际论坛在清华大学举行。
在以“人工智能技术前沿与治理”为主题的论坛中,中国科学院院士、清华大学人工智能研究院名誉院长、清华大学人工智能国际治理研究院学术委员张钹从人工智能治理角度,探讨了人工智能技术的发展道路。
张钹在演讲中指出,现有的人工智能技术常常引起公平性、安全性的问题,具体体现在三个层面。一是利用深度神经元网络来产生一些文本、图像或是语音时,有时会包含性别、种族、信仰等方面的歧视。
二是现在所有人工智能基于深度学习的算法都非常脆弱,非常容易被攻击,非常容易受到环境变化影响,这是人工智能安全性的问题,会有意无意地被误用。最后一个方面是,目前深度神经网络、深度学习的技术非常容易造假,专门有一个名词叫做深度造假,这些问题很严重,也会带来很多危害性。
张钹具体举例并对这些问题进行了说明。如对于不同种族的情感分析,利用大数据深度学习方法进行,得到的结论是对亚洲人评价相对比较正面,非洲评价比较低。模型越大,这个偏见或歧视会缩小。这也说明,用深度学习的方法,往往会得到一些带有种族歧视的结论,对宗 教常用词的挖掘也会出现一些信仰歧视。
他还提到了在人脸识别方面的研究,正常情况下攻击者无法登录手机,但如果设计的伪造的眼镜戴上去以后,攻击者就能够顺利正常登录手机,换句话讲人脸识别非常容易受到攻击。同时,凡是使用深度学习的方法做的语音识别系统也非常容易受到攻击,只要在正常的语音中加上一点点噪声,可能人都无法察觉,但机器“却作出完全错误的识别”。此外,凡是利用深度学习生成的文本,或做数据挖掘,则更加脆弱,而视频造假和语音合成造假也很容易。
“这些例子都说明现在人工智能的算法是非常脆弱的,用深度学习的方法,造假太容易了。”为什么会产生这个现象?张钹解释称,这是人工智能的局限性所致,因为目前人工智能基本上最主体的是深度学习,深度学习做出来的算法,天然存在着不可解释性、不安全、不可控,容易受到攻击,而且由于需要大量的数据,非常不容易推广。
“为了解决这个问题,我们提出来要发展第三代人工智能,建立一个可解释的人工智能理念。因为现在人工智能的深度学习理论是不可解释,而且非常脆弱,用技术语言来讲,就是非常不鲁棒。”张钹认为,首先要从理论上解决这个问题,这样才有可能发展出来安全、可信、可靠、可扩展的人工智能技术,才有可能使人工智能技术应用更加安全、更加公平。
他表示,发展第三代人工智能,必须把第一代人工智能知识驱动和第二代人工智能数据驱动结合起来,必须充分利用知识、数据、算法、算力四个要素来解决人工智能现在存在的不安全性问题。
在这个方面,张钹团队也做了很多工作。首先,在算法安全性方面,为解决深度学习非常脆弱、不可解释的问题,通过加上符号知识等,可以把原来深度学习算法提升成第三代人工智能算法,这个算法更加安全、可信、可靠。
这就是张钹团队发布的开源平台 —— 珠算平台,跟现在国际上已有的平台相比,有很多更具有可解释性、更加鲁棒、更加稳健的人工智能算法。同时基于该平台,还孵化了一家公司瑞莱智慧,利用这些新的第三代人工智能技术,为目前产业升级提供更加安全、可信的人工智能技术,推动人工智能在金融、医疗、健康、农业、智能制造等得到广泛的应用。
其次,数据安全性问题也需关注。张钹认为,数据对人工智能发展起到非常大的重要作用,第二代人工智能发展基本上是靠数据驱动,数据贡献不可磨灭,今后也要很好地依靠数据。
他表示,数据应用存在两个主要问题,黑箱学习的方法导致不可能提取真正的因果关系,要提取出真正有用的东西,很多地方都需要知识的引导,知识的帮助,必须利用知识分析。此外,在数据安全性问题方面,如何防止数据被滥用、保证数据隐私、保证数据被安全地使用等,这需要出台各种各样的政策法规,来限定或规范对数据的应用。
“现在只是做了初步工作,发展第三代人工智能是非常艰巨、非常重要的长远工作,这个工作必须全世界联合起来,团结起来,共同发展人工智能,使人工智能最终能造福于人类,造福于全社会。”张钹呼吁。