在人工智能技术快速发展的当下,图神经网络在诸多领域发挥着关键作用,然而其面临的安全威胁也备受关注。传统图后门攻击存在明显短板,一方面缺乏足够的不可感知性,容易被察觉;另一方面,面对基于随机边删除的防御手段,防御效果不佳,严重限制了攻击的实际效能,无法有效检验图神经网络的鲁棒性。2025年6月9日,23级硕士研究生李鼎在夏辉教授的指导下发表论文Clean-Label Graph Backdoor Attack in the Node Classification Task,成功被Neural Networks期刊录用。该论文构建了一套精巧的机制:先是部署不可感知的注入触发器生成器与多个判别器,借助二者间的对抗博弈,让注入的触发器 “隐藏得更深”,实现良好的不可感知性,避免被轻易识别;同时,引入特征掩码学习器,深入挖掘目标类别节点的高、低影响特征维度,通过修改受污染或目标节点的关键特征维度来打造基于特征的触发器。这样即便触发器因随机边删除被移除,后门植入仍能发挥作用,突破了传统防御手段的限制。该论文在图后门攻击的不可感知性、对抗随机边删除防御等方面表现突出,为进一步探索图神经网络安全防护边界、推动攻防技术迭代提供了崭新研究思路。