基于对抗样本具有迁移性的性质,训练替代模型来进行迁移攻击是一种有效的攻击方式。通常,这些替代模型的训练往往依赖于原模型的真实训练数据。然而在现实场景中,由于个人信息保护,原始的训练数据很难合法合规的获取。考虑到这些数据限制,最近一些研究提出在零样本场景中来训练替代模型。然而这些方法依赖于对抗性地训练生成器和替代模型,这种训练模式往往收敛困难,甚至可能导致模型崩塌,在整个训练过程中,需要反复地访问黑盒模型,导致实际效率非常低下。在本文中,通过重新思考生成器和替代模型之间的合作关系,我们设计了一个更加高效且强大的零样本黑盒迁移攻击框架。该方法能在少量的查询次数中,大幅地增加迁移成功率。通过在多个数据集上的进行 的大量实验,我们证明了该方法的有效性。
具体内容访问链接:https://www.bilibili.com/video/BV1pi4y1U7xD?spm_id_from=333.999.0.0&src=c5a5ed888e
评论 (0)