技术新讯 > 计算推算,计数设备的制造及其应用技术 > 基于继承机制的夏普利值计算方法、装置及设备  >  正文

基于继承机制的夏普利值计算方法、装置及设备

  • 国知局
  • 2024-07-31 23:17:06

本技术涉及机器学习,具体涉及一种基于继承机制的夏普利值计算方法、装置及设备。

背景技术:

1、联邦学习是一种分布式机器学习方法。在联邦学习中,不同的参与方(数据所有者)通过合作来训练机器学习模型,而无需共享原始数据,从而保护了数据的隐私性。在这一领域,纵向联邦学习引入了更为复杂的数据结构,其中每个参与方仅持有数据样本的部分特征。

2、尽管联邦学习在解决隐私问题、分布式构建机器学习模型方面取得了显著进展,然而参与方之间的数据贡献可能存在明显差异,这对于构建高性能模型是一个挑战。因此,评估每个参与方的数据质量是至关重要的。传统的数据评估与选择方法主要侧重于横向联邦学习的数据估值,对于纵向联邦学习的数据估值仅有少数工作进行了探讨。

3、目前通常使用夏普利值评价每个参与方的边际贡献,夏普利值的计算需要使用所有可能的参与者联盟训练好的模型的效用值,例如,对于m个参与方,存在2m-1个可能的参与者联盟,需要进行2m-1轮模型训练,模型训练的时间较长,导致整个夏普利值计算过程的时间较长。

技术实现思路

1、本技术提供一种基于继承机制的夏普利值计算方法、装置及设备,可以解决现有技术中存在的夏普利值计算过程的时间长的技术问题。

2、第一方面,本技术实施例提供一种基于继承机制的夏普利值计算方法,所述基于继承机制的夏普利值计算方法包括:

3、在第一轮训练中,将参与方全集作为参与者联盟,通过随机初始化确定模型参数初始值,对模型进行纵向联邦学习训练,得到模型参数输出值和模型效用值,其中,模型参数包括参与者联盟中每个参与方的底层模型参数和服务器的顶层模型参数,模型效用值用于评价模型的性能;

4、在第二轮至最后一轮训练中,将参与方全集的不同非空真子集作为参与者联盟,根据之前轮次的模型参数输出值确定模型参数初始值,对模型进行纵向联邦学习训练,得到模型参数输出值和模型效用值;

5、根据所有轮次的模型效用值计算得到参与方全集中每个参与方的夏普利值。

6、进一步地,一实施例中,所述根据之前轮次的模型参数输出值确定模型参数初始值的步骤包括:

7、对于服务器,将其在第一轮的顶层模型参数输出值确定为顶层模型参数初始值;

8、对于参与者联盟中的每个参与方,将其在第一轮的底层模型参数输出值确定为底层模型参数初始值。

9、进一步地,一实施例中,所述根据之前轮次的模型参数输出值确定模型参数初始值的步骤包括:

10、对于服务器,将其在之前每一轮的顶层模型参数输出值的平均值确定为顶层模型参数初始值;

11、对于参与者联盟中的每个参与方,将其在之前每一轮的底层模型参数输出值中非零项的平均值确定为底层模型参数初始值,其中,如果参与方未参与某一轮的训练,则其在这一轮的底层模型参数输出值为零。

12、进一步地,一实施例中,所述根据之前轮次的模型参数输出值确定模型参数初始值的步骤包括:

13、根据加权公式计算得到模型参数初始值,加权公式为:

14、

15、其中,当前轮次为第t轮,θi,t表示参与方pi在第t轮的底层模型参数初始值,θs,t表示服务器在第t轮的顶层模型参数初始值,θi,j表示参与方pi在第j轮的底层模型参数输出值,如果参与方pi未参与第j轮的训练,则θi,j=0,θs,j表示服务器在第j轮的顶层模型参数输出值,ωj表示第j轮的参与者联盟的权重,计算公式如下:

16、

17、其中,φj为第j轮的参与者联盟的重要性,计算公式如下:

18、

19、其中,rj表示第j轮的模型效用值。

20、进一步地,一实施例中,所述根据之前轮次的模型参数输出值确定模型参数初始值的步骤包括:

21、根据加权公式计算得到模型参数初始值,加权公式为:

22、

23、

24、其中,当前轮次为第t轮,θi,t表示参与方pi在第t轮的底层模型参数初始值,θs,t表示服务器在第t轮的顶层模型参数初始值,θi,j表示参与方pi在第j轮的底层模型参数输出值,如果参与方pi未参与第j轮的训练,则θi,j=0,θs,j表示服务器在第j轮的顶层模型参数输出值,ωj表示第j轮的参与者联盟的权重,计算公式如下:

25、

26、其中,φj为第j轮的参与者联盟的重要性,计算公式如下:

27、

28、其中,rj表示第j轮的模型效用值。

29、进一步地,一实施例中,所述对模型进行纵向联邦学习训练的步骤包括:

30、参与者联盟的每个参与方计算得到嵌入向量,将嵌入向量发送到服务器;

31、服务器根据所有嵌入向量计算得到预测值,将预测值发送到领导参与方;

32、领导参与方根据预测值和真实值计算得到损失,根据损失计算得到预测值的梯度,将预测值的梯度发送到服务器;

33、服务器根据预测值的梯度计算得到顶层模型参数的梯度以及每个嵌入向量的梯度,根据顶层模型参数的梯度更新顶层模型参数,将每个嵌入向量的梯度发送至对应的参与方;

34、参与者联盟的每个参与方根据嵌入向量的梯度计算得到底层模型参数的梯度,根据底层模型参数的梯度更新底层模型参数;

35、重复执行以上步骤,直到迭代次数达到阈值或者模型效用值达到要求。

36、进一步地,一实施例中,模型效用值为模型在验证集或训练集上的准确率或损失。

37、进一步地,一实施例中,夏普利值的计算公式为:

38、

39、其中,s(p)表示参与方p的夏普利值,m表示参与方全集中参与方的总数,表示不包含参与方p的参与方集合,表示以参与方集合作为参与者联盟的轮次训练好的模型,u(·)表示效用函数,用于计算模型效用值。

40、第二方面,本技术实施例还提供一种基于继承机制的夏普利值计算装置,所述基于继承机制的夏普利值计算装置包括:

41、首轮训练模块,用于在第一轮训练中,将参与方全集作为参与者联盟,通过随机初始化确定模型参数初始值,对模型进行纵向联邦学习训练,得到模型参数输出值和模型效用值,其中,模型参数包括参与者联盟中每个参与方的底层模型参数和服务器的顶层模型参数,模型效用值用于评价模型的性能;

42、后续训练模块,用于在第二轮至最后一轮训练中,将参与方全集的不同非空真子集作为参与者联盟,根据之前轮次的模型参数输出值确定模型参数初始值,对模型进行纵向联邦学习训练,得到模型参数输出值和模型效用值;

43、夏普利值计算模块,用于根据所有轮次的模型效用值计算得到参与方全集中每个参与方的夏普利值。

44、第三方面,本技术实施例还提供一种基于继承机制的夏普利值计算设备,所述基于继承机制的夏普利值计算设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的基于继承机制的夏普利值计算程序,其中所述基于继承机制的夏普利值计算程序被所述处理器执行时,实现上述基于继承机制的夏普利值计算方法的步骤。

45、本技术中,第一轮的参与者联盟为参与方全集,以保证所有参与方的起点相同,后面轮次的参与者联盟为参与方全集的不同非空真子集,除了第一轮的模型参数初始值是通过随机初始化确定的,后面轮次的模型参数初始值都是根据之前轮次的模型参数输出值确定的,在这样的继承机制下,之前轮次的模型参数输出值可以为后面轮次提供更好的模型参数初始值,以加速模型的收敛速度、减少模型训练的时间,从而缩短整个夏普利值计算过程的时间。

本文地址:https://www.jishuxx.com/zhuanli/20240730/196809.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。