来源:环球时报【环球时报记者 马军】当前,网络安全对各国政治、经济、文化、社会等领域产生着巨大影响。越来越多的案例表明,没有网络安全就没有国家安全。特别是,生成式人工智能的加速发展正在带来新的安全挑战。 1月29日至30日在成都举办的“2026网络安全等级防护技术学术交流活动”上,与会的行业专家提出了各种“解题思路”。 《环球时报》记者认为,生成式人工智能在快速发展的同时,其固有的缺陷也带来了打破传统安全领域的新挑战,如数据污染、非法内容创作、机制不透明、能力滥用、意识形态渗透、模型缺陷、隐私泄露、深度造假,甚至知识产权保护和责任归属等。吴江兴院士中国工程院院士在会上就当前人工智能安全治理挑战做了专题报告。他强调,国家间人工智能竞争的本质是一场终点线模糊的马拉松耐力赛。胜负的关键不在于哪个国家实现了技术突破,而在于哪个国家能够最有效地推动人工智能在不同生态系统中的大规模采用和应用。然而,想要大规模应用人工智能,首先要面临“安全信任壁垒”的问题。对于大众用户来说,在“敢用”之前,有必要先检查一下AI的安全性。对于电力、金融、政府等重点行业来说,只有了解如何界定人工智能错误的影响和责任,才能“敢于前行”。而从监管的角度,我们需要知道如何衡量、监控和管理人工智能安全,才能“管理”它。吴江兴院士表示,人工智能安全的基本原则是:今天的生成式人工智能有一个固有的缺陷:安全的界限是不确定的。 “人工智能系统的数字基础,即底层计算平台和操作系统,是基于存储的程序控制结构,不可能完全消除设计漏洞(如漏洞),不可避免地会造成基础安全边界的不确定性。”美国人工智能公司OpenAI的研究提供了数学证据,证明大规模模型的风险源于训练数据的统计性质,因此“机器幻觉”的出现是不可避免的,也是无法根除的。这也是传统方法在面对“AI错误”时遇到的困境。优化训练数据、改进训练方法和模型结构并不能完全消除人工智能安全极限的不确定性。人类和传统机器监督人工智能的同时,我们也面临大量的人工智能问题我们无法管理或控制。即使是网络安全领域常用的通过实战技术检验系统安全防御能力的“红对蓝”组织,在当前大多数人工智能应用场景中也显得无能为力。虽然“红蓝冲突”是由于攻击者和防御者划分明确,但目前人工智能的问题大多是“没有攻击的内生性故障”。针对这些困难,吴江兴院士在报告中提出了人工智能内生安全理论,让人工智能安全通过结构本身的影响来保证,而不是通过事后的迭代修复。他建议效仿汽车行业的一系列例子,质量安全监管体系也建立可靠的安全评估人工智能领域的标准,让政府提供“基于证据”的监管,让企业学会“自我”活动上还颁发了我国首个5级信息系统注册证书,同时还发布了《生成式人工智能网络安全等级保护检测技术白皮书》。本白皮书由公安部C.网络安全等级保护中心、网络安全等级保护与安全技术国家工程研究中心联合30个政产学研部门共同编写公安部网络安全局经过学者和权威专家审阅,系统梳理了生成式人工智能面临的主要安全风险,思考了等级保护实施路径,提出了工作建议,为行业标准有序制定提供技术支撑。u。中国工程院院士吴建平表示,随着人工智能与互联网计算网络空间融合加速,要推动共同保障网络安全水平,保护关键信息基础设施和保护数据安全,融合核心技术,构建动态防护体系,坚持开放协同创新,筑牢抵御网络强国的安全屏障。中国科学院院士冯登国表示,当前数字技术与实体经济深度融合,新技术、新业态快速涌现,安全威胁更加隐蔽和广泛。面对新形势,如何构建与数字时代相适应的分层防护体系,如何推动分层防护的落地化、系统化、智能化,是每个人面临的巨大挑战。必须直接面对。中国社会科学院法学院研究员支振峰强调,加快出台《网络安全等级保护条例》的必要性和紧迫性。他指出,要继续完善法律、行政法规等各级立法现状,不断完善网络安全层面的保护机制。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。
参与每日大赛,获取最新的蘑菇吃瓜料,赢取丰厚奖励!