终端协同中继辅助的多维资源联合优化方法、系统及存储介质
- 国知局
- 2024-08-02 12:37:54
本发明涉及人工智能及无线通信,尤其涉及终端协同中继辅助的多维资源联合优化方法、系统及存储介质。
背景技术:
1、人工智能与无线通信等技术的发展催生了万物互联的智能时代,出现了工业元宇宙、智慧城市、智能交通等典型应用。大量终端为这些智能应用提供了海量数据,用于人工智能模型训练,但数据隐私保护问题随之而来。传统集中式模型训练需要将终端产生的数据收集到服务器,这使得终端用户的数据隐私面临泄露的风险。在此背景下,联邦学习作为数据隐私保护型模型训练架构被提出。在联邦学习场景下,多个终端与中央服务器协同完成模型训练:终端利用隐私数据在本地执行模型训练,并将训练得到的本地模型参数上传至中央服务器;中央服务器将收集到的多份本地模型参数聚合为全局模型参数,更新后的模型参数将被广播至终端进行下一轮训练。
2、在同步聚合的联邦学习中,中央服务器需等待所有终端将本地模型上传后,才可进行全局模型聚合。因此,联邦学习某一轮全局迭代的耗时主要由最后一个完成本地训练和参数上传的终端决定。在无线衰落信道环境中,由于终端的储能和计算能力有限,终端完成本地训练和参数上传的时间通常不可控。某些终端无法在有限能耗和有限时间条件下完成本地训练和参数上传,此类终端会严重拖慢联邦学习模型训练进程,被称为“掉队终端”。现有研究中,通常会为每轮全局迭代设置时间门限,超过时间门限值而仍未成功将本地模型参数上传至中央服务器的终端将会被丢弃,不参与本轮全局模型聚合。然而,在本轮全局聚合中丢弃部分终端不仅会浪费终端已经消耗的计算和通信资源,还会使联邦学习所训练的模型性能受损。
技术实现思路
1、本发明提供了一种终端协同中继辅助的多维资源联合优化方法,包括联邦学习模型训练步骤、掉队终端的判别步骤、联合优化步骤;
2、联邦学习模型训练步骤包括初始配置步骤、全局模型广播步骤、本地模型训练步骤、模型参数上传步骤、全局模型聚合步骤;
3、初始配置步骤:服务器与终端协同进行信道感知、掉队终端识别、掉队终端-中继终端关联、资源分配的配置;
4、全局模型广播步骤:服务器将初始全局模型参数或更新后的全局模型参数广播至所有参与联邦学习的终端;
5、本地模型训练步骤:终端基于私有数据对接收到的全局模型进行训练;
6、模型参数上传步骤:终端将本地训练后的模型参数通过无线衰落信道上传至中央服务器;
7、全局模型聚合步骤:在所有终端完成模型参数上传或等待时间超过最大时间门限tmax之后,中央服务器进行全局模型参数聚合,模型参数聚合完成后,全局模型得到更新;
8、掉队终端的判别步骤:中央服务器为每轮全局迭代设定最大等待时间门限值,要求终端的本地训练和参数上传时间不超过tmax;本地训练和参数上传时间超过tmax的终端将被中央服务器丢弃,不参与本轮全局模型聚合;
9、联合优化步骤:终端i在一轮全局迭代中的计算和通信能耗表示为
10、
11、其中,为终端i的计算能耗,为终端i向中央服务器上传模型参数的传输能耗,为终端i将其本地模型参数传输至终端r所需要的通信能耗,μi,r用于表示终端i与终端r之间是否关联,若μi,r=1则表示终端r为掉队终端i的中继终端,否则μi,r=0;终端i在一轮全局迭代中的计算和通信时间表示为
12、
13、和分别表示终端i将其本地模型参数传输至服务器和终端r所需要的通信时间,ticomp为终端i的计算时间,以最小化终端的平均能耗为目标,联合优化“掉队终端-中继终端”关联终端计算频率终端传输功率其中,表示所有掉队终端的索引集合,表示所有终端的集合。
14、作为本发明的进一步改进,在所述本地模型训练步骤中,训练采用梯度下降法或随机梯度下降法。
15、作为本发明的进一步改进,在所述本地模型训练步骤中,终端i的计算时间为ticomp=κcidi/fi,其中,κ为一次全局迭代中的本地训练次数,ci为终端i处理单个数据样本所需的cpu轮数,di为一次本地训练的样本数,fi为终端i的计算频率,终端i的计算能耗为其中,δi为终端i的计算能耗系数。
16、本发明还提供了一种终端协同中继辅助的多维资源联合优化系统,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现本发明所述多维资源联合优化方法的步骤。
17、本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现本发明所述的多维资源联合优化方法的步骤。
18、本发明的有益效果是:本发明解决了无线联邦学习系统中的“掉队终端”判别、中继终端的选择与关联、计算和通信资源的联合优化等问题,提升了终端成功参与率、改善模型训练性能、最小化终端能耗。
技术特征:1.一种终端协同中继辅助的多维资源联合优化方法,其特征在于,包括联邦学习模型训练步骤、掉队终端的判别步骤、联合优化步骤;
2.根据权利要求1所述的多维资源联合优化方法,其特征在于,在所述本地模型训练步骤中,训练采用梯度下降法或随机梯度下降法。
3.根据权利要求1所述的多维资源联合优化方法,其特征在于,在所述本地模型训练步骤中,终端i的计算时间为ticomp=κcidi/fi,其中,κ为一次全局迭代中的本地训练次数,ci为终端i处理单个数据样本所需的cpu轮数,di为一次本地训练的样本数,fi为终端i的计算频率,终端i的计算能耗为其中,δi为终端i的计算能耗系数。
4.根据权利要求3所述的多维资源联合优化方法,其特征在于,在所述模型参数上传步骤中,采用准静态瑞利衰落信道,在一次全局迭代内信道增益保持不变,不同全局迭代中信道随机变化,终端i向中央服务器上传模型参数的传输速率为
5.根据权利要求1所述的多维资源联合优化方法,其特征在于,在所述全局模型聚合步骤中,聚合采用加权平均的方式进行,参数的权重为其所对应的终端在执行本地训练时所用的样本数据量。
6.根据权利要求4所述的多维资源联合优化方法,其特征在于,在所述掉队终端的判别步骤中,每轮全局迭代中终端的计算和通信时间均不超过预设门限值tmax,即
7.根据权利要求6所述的多维资源联合优化方法,其特征在于,所述优化步骤包括功率频率联合优化步骤,在所述功率频率联合优化步骤中,若终端i不是掉队终端且不为其他掉队终端提供中继,则以下传输功率使得终端i在计算和通信时间不超过tmax的前提下最小化能耗;
8.根据权利要求6所述的多维资源联合优化方法,其特征在于,所述优化步骤包括掉队终端-中继终端关联步骤,在所述掉队终端-中继终端关联步骤中,包括用于辅助解决掉队终端-中继终端匹配问题的加权二分图,加权二分图包含两个互不相交的点集和点集分别表示所有掉队终端和所有掉队终端的候选中继终端;若候选中继终端r可为掉队终端j提供中继服务,则点uj和点vr之间存在边ej,r;边ej,r的权重设置为
9.一种终端协同中继辅助的多维资源联合优化系统,其特征在于,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现权利要求1-8中任一项所述多维资源联合优化方法的步骤。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求1-8中任一项所述的多维资源联合优化方法的步骤。
技术总结本发明提供了一种终端协同中继辅助的多维资源联合优化方法、系统及存储介质,包括联邦学习模型训练步骤、掉队终端的判别步骤、联合优化步骤;联邦学习模型训练步骤包括初始配置步骤、全局模型广播步骤、本地模型训练步骤、模型参数上传步骤、全局模型聚合步骤;联合优化步骤包括功率频率联合优化步骤、掉队终端‑中继终端关联步骤。本发明的有益效果是:本发明解决了无线联邦学习系统中的“掉队终端”判别、中继终端的选择与关联、计算和通信资源的联合优化等问题,提升了终端成功参与率、改善模型训练性能、最小化终端能耗。技术研发人员:朱旭,董志浩,蒋宇飞,曹杰受保护的技术使用者:哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)技术研发日:技术公布日:2024/8/1本文地址:https://www.jishuxx.com/zhuanli/20240802/237072.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。