当前许多AI系统模型和算法无法确保训练过程中数据质量和清洁度,模型设计的安全性、训练的稳定性都存在大的问题。因此对于遍地开花、泛在化AI应用系统,各种内生安全问题和危险必然是层出不穷。
AI应用系统硬件环境也存在漏洞、后门等内生安全的共性问题,这是网路空间一大麻烦事。漏洞无法完全杜绝,后门难以避免,现有技术能力难以追查漏洞,这是它的共性问题。
近日在上海举行的第十一届互联网安全大会(ISC 2023)上,中国工程院教授邬江兴发表了题为《动态异构冗余(DHR)构造赋能AI应用系统内生安全实验》的讲演。邬江兴提出,AI时代是一把“双刃剑”,在给人类社会带来极大推进的同时,也产生了潜在的巨大安全恐吓ai遇到未知的图像结构,甚至可能会带来巨大的灾难。要高度注重AI时代的安全性,用内生安全的方式补足弱项。
当前,以深度学习为核心的AI应用迎来新一轮快速发展期,人工智能技术取得突破,人工智能或生成式AI正在为各领域提供信息化、数字化、智能化的解决方案,正在引起经济结构的重大改革,带动社会生产力的整体跃升。
人工智能安全问题包含内生安全问题和非内生安全问题,内生安全问题又分为个性问题和共性问题。人工智能的应用系统由基础软硬件、环境或则数据系统和人工智能的算法、模型组成的。但是深度学习AI模型存在3种可能的问题。
神经网路的黑盒特征,导致人工智能存在不可解释性。深度学习对训练样本的过度依赖,导致学习结果不可判断,神经网路的前项推动不可逆,结果的不可推测性。这就是人工智能“三不可”。
关于个性问题的表现,从数据采集、模型设计、训练、寻找规律到基于优化执行任务的推理阶段,存在4种个性,即算法的黑箱性、数据的依赖性、模型的安全性以及输入的敏感性。
当前许多AI系统模型和算法无法确保训练过程中数据质量和清洁度,模型设计的安全性、训练的稳定性都存在大的问题。因此对于遍地开花、泛在化AI应用系统,各种内生安全问题和危险必然是层出不穷。
除了个性问题,AI应用系统硬件环境也存在漏洞、后门等内生安全的共性问题,这是网路空间一大麻烦事。漏洞无法完全防止,后门难以避免,现有技术能力难以追查漏洞,这是它的共性问题。
AI应用系统中内生安全个性和共性问题常常是交织叠加存在的,既有漏洞、后门造成的问题,又有黑盒效应造成的问题,所以它是更复杂的一个安全系统。交织叠加在一起促使AI应用系统的安全问题显得十分复杂ai遇到未知的图像结构,给安全使用和维护带来了前所未有的挑战。
邬江兴提出用内生安全理论里的DHR构造赋能AI应用系统内生安全。它可以有效阻断和控制内生安全共性问题,使内生安全问题未能发展成为内生安全风波。近年来的理论研究与工程实践表明,内生安全在机理上能有效解决AI应用系统软硬件环境中存在的内生安全共性问题,能为AI应用系统的数据采集、模型训练、算法应用等全流程提供“三高”(高可靠、高可信、高可用)的不依赖又不抵触任何附加防御举措的内生安全基座。
在此基础上,邬江兴对个性化问题进行理论剖析,得出7条推论:第一,训练数据集的高质量建立,特别是采用分布机率密度高的数据,对模型抗功击能力的提高更重要;第二,异构可解释性或则差异化的训练模型方式才能得到多元化的AI模型,因为内生安全须要多元化的环境做相对性判断;第三,基于体彩假定证明了不同结构及相同结构不同稀疏程度的深度学习网路之间很难形成串扰;第四,使用网路结构手动搜索技术可以快速建立多个具有特异性深度学习AI模型;第五,对抗样本迁移性对深度神经网络的结构存在强关联,异构化模型的冗余布署是必不可少的安全机制;第六,理论上可以证明多个异构化模型的随机动态布署方式,能明显提高AI应用系统安全性;第七,AI模型不确定度恐怕方式才能为DHR构架执行动态调度算法提供最优化理论支撑。
邬江兴觉得,这些理论研究证明了即使是AI个性化问题,我们依然可以用内生安全的方式来处理。不论是共性还是个性问题,基于AI模型构造提供工程化的解决途径,并提供理论层面的支撑。