论文名称 | Shielding Federated Learning Robust Aggregation with Adaptive Client Selection |
---|---|
作者 | Wei Wan, Shengshan Hu, Jianrong Lu, Leo Yu Zhang, Hai Jin, Yuanyuan He |
来源 | IJCAI 2022 |
领域 | Machine Learning - Federal learning - Security – poisoning attack |
问题 | 1.服务器不合理地选择恶意客户端进行聚合,即使在前几轮已经检测到它们;2.对于女巫攻击或在异构数据设置中,已有防御措施的执行效果不佳;3.假设服务器持有一个验证数据集,该数据集与客户端的训练集具有相同的分布,这违反了FL的隐私要求 |
方法 | 提出一种基于多臂强盗的方案,将联邦学习中客户端的选择过程建模为一个扩展的MAB问题,使服务器能够自适应地选择更可能是良性的更新 |
阅读记录
总结
- 已有的防御措施要么选择所有客户端参与通信,要么选择其中的一个随机子集,这种非理性的客户端选择策略即使在之前迭代中已识别出恶意更新,也可能会不断选择恶意客户端参与聚合,导致收敛缓慢,并浪费通信和计算资源。因此,服务器需要自适应地选择客户端。
- 在女巫攻击场景下,使用欧几里德距离作为评价指标时,良性更新之间的相似度达到了预期的水平;而使用余弦相似度作为评价指标时,即使在IID设置下,良性更新的相似度也很低,这是因为当模型收敛时,良性梯度会逐渐变为零,从而使余弦相似度接近于零,而女巫攻击者则不同,因此可以根据余弦相似度检测女巫攻击。
- 在非女巫攻击的场景下,难以识别恶意更新,其关键原因在于本地模型的维度极高,冗余特征将掩盖了良性更新和恶意更新之间的差异。此外,FL的non-IID特性会使发现异常更新变得更加困难。因此,为处理维度高的问题,在过滤掉更新之前对特征空间进行压缩;为处理非独立同分布问题,利用动量减少更新之间的方差,从而构建类似IID的设置。