论文名称 | Untargeted Poisoning Attack Detection in Federated Learning via Behavior Attestation |
---|---|
作者 | Ranwa Al Mallah, David Lopez, Godwin Badu Marfo, Bilal Farooq |
来源 | arXiv 2021 |
领域 | Machine Learning - Federal learning - Security - untargeted poisoning attack |
问题 | 对于无目标攻击,现有的防御机制忽略了在特定节点的训练过程中对其行为的及时检查 |
方法 | attestedFL通过长时间观察客户端的持续性行为,判断客户端是否真的在训练并向目标前进,从而评估客户端是否可靠,并不对恶意客户端的数量进行假设 |
阅读记录
在2023年开始了这个专栏,但是中间由于有一堆事要干(
懒惰),就停止了记录,在这个快要放假但还没有放假的好时节,打算把自己看过的文献全都放到CSDN!BUT,由于我还是有一堆事要干(懒惰),决定不再一点一点复制,而是直接放出阅读笔记的截图
总结
恶意客户端并不会真正训练其本地模型,而是制造更新值。因此,通过观察客户端是否真的在一次又一次地训练迭代可以评估客户端是否可靠:
- 随着通信轮数增加,全局模型逐渐收敛,客户端更新趋近于0,而恶意客户端更新会为了阻碍全局模型收敛而逐渐增加。
- 尽管来自不同客户端的模型更新几乎是相互正交的且方差很低,但对于由同一客户端,跨轮次之间的模型更新将彼此相关性。因此,本地模型更新之间没有随时间表现出相关性的客户端可能被认为是不可靠的。
- 在数据分布不均匀的情况下,服务器需要接受一些模型有较大偏差的良性客户端,虽然此类良性客户端的精度较差,但随着时间推移,错误率差值将会逐渐减小,而恶意客户端的错误率差值会逐渐增加。