Hierarchical Clustering-based Personalized Federated Learning for Robust and Fair Human Activity Recognition-2023

发布时间 2023-12-20 22:38:19作者: 小吴要努力

任务:人类活动识别任务Human Activity Recognition----HAR

指标:系统准确性、公平性、鲁棒性、可扩展性

方法:1. 提出一个带有层次聚类(针对鲁棒性和公平的HAR)个性化的FL框架FedCHAR;通过聚类(利用用户之间的内在相似关系)提高模型性能的准确性、公平性、鲁棒性。

   2. 提高FedCHAR的可扩展性:提出FedCHAR-DC一个可扩展和自适应的FL框架——动态聚类、自适应新客户端的加入、针对现实场景不断变化的数据集。

问题:1. 用户之间的数据异构性导致不公平的模型性能,因为单个全局模型不能同时适合所有用户的数据分布。

   2. FL训练过程容易受到中毒攻击,导致模型性能显著下降(拜占庭攻击)。

   3. FL系统的可扩展性不足,难以适应新client的加入和数据集的变化,从而不能扩展到大规模用户训练场景。

   4. 全局模型可能只学习一般特征,无法学习用户特定的特征。

公平性:1. 性能公平性:client之间具有相似的模型精度。(数据异质性导致一小部分用户的模型性能低于平均模型性能)

    2. 贡献公平性:贡献度量算法(基于声誉....)。

个性化FL(针对数据异质性):聚类、FL迁移学习、元学习、FL多任务学习——大多数方法仅限于特定场景,泛化能力较差。

 

一. 引言

Ⅰ. 针对性能公平性:

  现有方法:为性能低的用户分配更大的权重。

  问题:如果恶意节点上传的中毒模型被错误分配了更大的权重,对FL训练过程产生负面影响。

 

Ⅱ. 针对鲁棒性:

  现有方法:通过鲁棒聚合算法——会过滤掉有价值的信息——产生性能的不公平性。

 

两个关键观察:

  1. 通过聚类来减少不同用户之间的干扰。

  2. 不同的用户数据分布导致不同的用户模型参数的更新方向。——通过计算用户模型参数更新方向的余弦相似度来度量用户间的相似度。

此外:恶意节点上传的模型参数往往与良心用户不同。

  ——层级聚类:创建一个层次的集群(自适应)

    1. 使具有相似数据分布的多个用户能够共享模型参数。

    2. 抵抗对模型聚合的恶意攻击(标签翻转、模型中毒攻击)

 

二. 相关工作

Ditto:仅对有限类型的攻击具有鲁棒性,并且对内积操纵攻击的鲁棒性较差。

[50]搭便车攻击:操纵用户设备上传从均匀分布中随机抽取的梯度。

 

三. 动机

  1. 用户之间数据分布的内在相似性。

  2. 用户模型之间优化路径的差异。数据越多,batch越多,朝目标精度走的步数越多。

  此外,在经典的FedAvg算法中,具有大量样本的用户将在全局模型聚合中被分配更大的权重。权值越大,全局模型的更新方向越受其支配,这将不利于样本量较小的用户参与协同训练。他们最终模型的准确性远低于平均水平,甚至比本地训练更差,导致用户之间的模型性能不公平。

  图2的左侧示出了不同用户在每个通信回合中的模型参数的优化方向。我们可以注意到,随着通信轮数的增加,不同集群中用户的模型参数的更新方向会变得越来越相反(即,不同簇中的两个用户的模型更新参数的余弦值将从正变为负)。

 

四. 系统概述

   将通信轮次分为三个阶段,包括初始通信轮次、分簇阶段和分簇后的剩余通信轮次。

  在FedCHAR框架中,每个用户每轮需要交替训练两个模型。一种是用户个性化模型,另一种是首轮或剩余轮对应的全局模型或分组模型。

    1. 最初的几轮包括三个步骤:首先,随机选择的用户将模型更新上载到服务器。其次,服务器对用户上传的模型更新进行聚合。最后,服务器将更新后的全局模型发送给用户。

    2. 在初始通信轮次后,服务器通过计算用户模型更新参数之间的余弦相似度来对用户进行聚类,该相似度反映了用户之间数据分布的相似性。服务器根据聚类结果聚合同一簇内用户的模型更新参数,然后将分组模型发送给对应的用户。

    3. 在集群之后,只有同一集群中的用户可以在剩余的通信轮次中共享参数。此外,为了适应用户活动的动态变化,可以使用最近收集的数据周期性地(例如,每天)重复集群阶段。

 

五. 系统模型

Ⅰ. 定义

  鲁棒性:1. 标签中毒攻击A1;2. 模型中毒攻击A2,A3,A4。 攻击率:20%,50%(探索抵抗攻击的能力的上限)

        A1:随机标签翻转攻击;A2:添加高斯噪声;A3:模型替换攻击(默认放大10倍);A4:内积操作(恶意节点将模型更新参数的倒数上传到服务器,使得错误聚合模型更新,并且与正确模型更新之间的内积为负,从而使全局模型的优化路径偏离正确的优化路径)

  

  公平性:在FL设置中,公平性的定义通常与用户之间的非IID数据、客户端选择和模型异构性等特征相关。

      当用户样本数量不一致时,样本数量多的用户对全局模型的训练会有更多的贡献偏移,导致全局模型的更新由样本数量多的用户主导。针对HAR中用户数据的异构性,通过FL训练得到的全局模型可以很好地拟合某些具有共同特征的用户数据,这体现在用户模型的高精度上。然而,全局模型并不适合其他用户的数据(具有更多独特特征),并且用户模型的准确性低于平均值,甚至比局部训练更差。

      指标:通过计算良性client之间准确性的方差来衡量公平性。

 

Ⅱ. 问题公式化

  non-iid:1. 特征分布偏斜:p(x)不同,即使p(y|x)相同;

      2. 标签分布偏斜:p(y)不同,即使p(x|y)相同;

      3. 概念漂移:p(x|y)不同,即使p(y)相同;

      4. 观念转变:p(y|x)不同,即使p(x)相同;

      5. 数量偏斜

 

Ⅲ. FedCHAR目标

  受FL多任务学习的启发:提出了一种层次聚类的个性化FL框架。

  在每个集群中考虑两个任务:

    ①. 优化分组的目标(分组的聚合函数)来更新分组聚合模型。

    ②. 优化局部目标函数,更新用户个性化模型。

    正则化系数控制个性化模型与分组聚合模型之间的距离:体现个性化程度。正则化系数越大,个性化程度越大。

 

Ⅳ. 求解FedCHAR目标的算法