技术新讯 > 电子通信装置的制造及其应用技术 > 基于GRU网络的SCMA自编码器及其构建、解码方法和装置  >  正文

基于GRU网络的SCMA自编码器及其构建、解码方法和装置

  • 国知局
  • 2024-08-30 14:32:39

本发明属于scma编解码,特别是涉及一种基于gru网络的scma自编码器及其构建、解码方法和装置。

背景技术:

1、稀疏码多址接入(sparse code multiple access,scma)技术是一种非正交复用的新型技术,能够为移动设备提供高频谱利用率和大规模的物理连接。该技术借鉴低密度签名(low density signatures,lds)采用稀疏矩阵编码的思想,在一个资源上叠加多个用户信息,并通过稀疏多维复数域码字映射代替传统的调制和扩频技术,既降低了同一资源上不同用户之间的干扰,又提高了检测准确度,有助于满足未来通信中大规模连接、低时延等需求。但目前将scma技术用于实际工程中依旧存在以下问题:

2、第一,接收端接收的信号是由多个用户发送的叠加信息,通过采用消息传递算法(message passing algorithm,mpa)或最大似然(maximum likelihood,ml)等传统算法来进行译码,但这些算法的迭代结构会带来计算复杂度高、耗时多的问题。

3、第二,虽然基于深度学习的scma自编码器将编码器和解码器部分结合起来,能够自适应学习出较优码字,但所采用的网络模型相对较为庞大,在实际应用时,其复杂度仍然较高。

4、第三,虽然现有的一些基于深度学习的scma编解码研究方案,在一定程度上能够提升误码率(bit error rate,ber)性能并降低计算复杂度,但这些性能仍然存在很大的提升空间。

技术实现思路

1、本发明的目的在于提供基于gru网络的scma自编码器及其构建、解码方法和装置,通过对编码端进行改进和引入gru网络,解决了现有技术中编码效率低和译码计算复杂度高、耗时多的问题。

2、为解决上述技术问题,本发明是通过以下技术方案实现的:

3、本发明提供一种基于gru网络的scma自编码器的构建方法,其包括:根据scma因子矩阵中用户和资源的连接关系将神经网络单元作为用户到资源之间的码本生成器,根据所述码本生成器建立scma编码器;

4、根据gru网络建立scma解码器,所述scma解码器在解码时将传统单任务学习问题转化为多任务学习问题;

5、对所述scma编码器和所述scma解码器进行端到端的训练,以获取基于gru网络的scma自编码器。

6、在本发明的一个实施例中,根据scma因子矩阵中用户和资源的连接关系将神经网络单元作为用户到资源之间的码本生成器,根据所述码本生成器建立scma编码器包括:

7、根据scma因子矩阵中用户和资源的连接关系将神经网络单元作为用户到资源之间的码本生成器,根据所述码本生成器建立scma编码器包括:

8、建立预编码模块,所述预编码模块通过单热编码器函数对用户输入数据进行预编码;

9、使用j个神经网络单元分别作为j个用户的码字生成器,将用户输入数据转换为多维复数码字映射在资源块上;

10、设定每个神经网络单元的网络参数,以获取所述scma编码器。

11、在本发明的一个实施例中,在接收端根据gru(门控循环单元)网络建立scma解码器包括:

12、分别将将线性全连接层、gru网络及多用户分类器作为解码器的第一层、第二层及第三层来构建scma解码器。

13、在本发明的一个实施例中,所述多用户分类器的获取方法包括:

14、使用j个全连接层作为多用户分类器;

15、设定每个所述多用户分类器的网络参数,以获取所述多用户分类器;其中,所述多用户分类器用于进行多任务学习。

16、在本发明的一个实施例中,对所述scma系统的编码器和解码器进行端到端的训练,以使系统能够准确重构出原始数据包括:

17、建立端到端的交叉熵损失函数:

18、

19、

20、采用预设优化器更新神经网络的权值和偏置,其计算表达式可表示为:

21、

22、其中,h是信道系数矩阵,s是输入数据的单热向量形式,是重构数据,f(·)和g(·)分别表示编码器和解码器的映射函数,θf和θg分别表示编码器和解码器的神经网络参数,α为学习率;i为动量时间步长;为梯度均值的偏差修正;为平方梯度的偏差修正。

23、在本发明的一个实施例中,所述gru网络的建立步骤包括:

24、根据前一时刻的状态ht-1和候选状态计算t时刻的隐藏节点的状态ht,计算公式为:

25、计算更新门zt的值,计算公式为:zt=σ(wz·[ht-1,xt]);

26、将前一时刻的状态ht-1与重置门rt相乘,再将其与输入xt结合,同样经过矩阵运算、tanh激活函数后得到候选状态计算公式如下:其中,重置门rt的计算公式为:rt=σ(wr·[ht-1,xt]);

27、根据gru网络在时刻得到的状态值进一步计算出模型的输出,计算公式为:ygru=σ(wo·ht);

28、设定gru网络的网络参数;

29、其中,σ表示sigmoid激活函数,xt为t时刻输入信号yd,wz、wr、wh和wo为权重系数。

30、为了实现本技术的目的及其他相关目的,本技术还提供一种基于gru网络的scma自编码器的构建装置,包括:

31、编码器构建模块,用于根据scma因子矩阵中用户和资源的连接关系将神经网络单元作为用户到资源之间的码本生成器,通过所述码本生成器建立scma编码器;

32、解码器构建模块,根据gru网络建立scma解码器,所述scma解码器在解码时将传统单任务学习问题转化为多任务学习问题;

33、训练模块,用于对所述scma编码器和所述scma解码器进行端到端的训练,以获取基于gru网络的scma自编码器。

34、为了实现本技术的目的及其他相关目的,本技术还提供一种基于gru网络的scma自编码器的解码方法,其特征在于,包括:

35、接收经过传播后的编码数据,其中,所述编码数据是通过使用j个神经网络单元作为j个用户的码字生成器,将用户输入数据转换为多维复数码字映射在资源块上,并将每个资源块上的所有神经网络单元的输出码字按照scma因子图映射矩阵进行叠加生成的;

36、将所述第二中间数据送入gru网络,所述gru网络对所述第二中间数据进行处理,以生成第三中间数据;

37、将所述第三中间数据送入多用户分类器进行多任务学习;

38、根据所述多任务学习的结果进行数据重构。

39、在本发明的一个实施例中,所述根据所述多任务学习的结果对数据进行重构,包括:

40、将加载在k个资源块的用户数据进行解码后输出所有j个scma层的解码信号p,与第j个scma层相关的输出,记为pj;

41、使用softmax作为激活函数应用于pj,将其归一化为预测m个类别的概率分布,输出解码信号其中,softmax激活函数定义为:表示的第m项,θj为第j个多用户分类器的神经网络参数。

42、为了实现本技术的目的及其他相关目的,本技术还提供一种基于gru网络的scma的自编码器,包括:

43、编码模块,用于接收用户输入的数据,使用j个神经网络单元作为j个用户的码字生成器,将用户输入数据转换为多维复数码字映射在资源块上;将每个资源块上的所有神经网络单元的输出码字按照scma因子图映射矩阵进行叠加,以生成编码数据,并将所述编码数据发出;

44、解码模块,用于接收经过传播后的编码数据作为第一中间数据,将所述第一中间数据送入线性全连接层,对所述第一中间数据进行整合,以生成第二中间数据;将所述第二中间数据送入gru网络,所述gru网络对所述第二中间数据进行处理,以生成第三中间数据;将所述第三中间数据送入多用户分类器进行多任务学习;根据所述多任务学习的结果进行数据重构。

45、本发明不仅通过对编码端的改进,将用于用户编码的码本生成器的数量大幅度降低,从而有效减少了编码器的冗余参数,提高系统的编码效率。还通过在基于深度学习的scma系统基础上引入gru网络,利用门控机制更好地捕捉长期依赖关系,在整体网络结构简化的同时,依然能够有效地还原和分离每个用户的信息。

本文地址:https://www.jishuxx.com/zhuanli/20240830/282601.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。