联邦学习系统比较容易受到各种错误的影响,这些错误包括一些非恶意性错误(比如预处理流程中的漏洞、噪音过强的训练标签和不可靠的用户),还包括一些旨在破坏系统训练过程和部署流程的显式攻击(比如故意上传对模型聚合有损的梯度信息)。本次分享的论文针对于后者,阐述一个通过model replacement实现对联邦学习攻击的算法。
评论 (0)