一种适用于OFDM-IM的深度学习检测方法
- 国知局
- 2024-10-21 14:44:04
本发明涉及无线通信,具体为一种适用于ofdm-im的深度学习检测方法。
背景技术:
1、当前,随着智能手机、高性能计算机、智能机器人等智能硬件设备的飞速发展与普及,人工智能技术已经应用到日常生活的各个方面,而深度学习在计算机视觉、自然语言处理、语音识别和轨迹预测等领域同样取得了巨大成功。在ofdm(正交频分复用技术)系统中,索引调制(im)作为一种新颖的调制方式,通过索引号可以携带额外的信息,融合了深度学习的方法实现了更高效的数据传输和处理。
2、ofdm技术作为一种高效的无线通信技术,在当今的通信系统中得到了广泛的应用。与传统的调制方式相比,ofdm技术具有抗多径衰落、高频谱利用率等优势,使其在高速数据传输中表现出色。而在ofdm系统中,im作为一种新颖的调制方式,引起了学术界和工业界的广泛关注。im通过调节子载波的索引来携带信息,与传统的调制方式相比,具有更高的频谱效率和更低的功耗。
3、其中,信号检测作为ofdm-im系统中至关重要的一环,直接影响了系统的通信质量和性能稳定性。可以将现有的工作分为基于传统方法和基于深度学习的方法。基于传统方法的信号检测通常依赖于经验模型和数学推导,例如最大似然检测(mld)、线性检测(ld)、子载波索引检测(sid)等。这些方法在特定场景下可能表现良好,但在面对复杂的信道环境和高速数据传输时,往往存在性能下降、计算复杂度高等问题,相比之下,基于深度学习的信号检测方法通过训练深度神经网络(transformer),直接从数据中学习信号的特征和模式,具有更好的适应性和泛化能力。这些方法能够自动学习信号之间的非线性关系,克服了传统方法的局限性,并在实际应用中取得了显著的性能提升。
4、现有技术:在传统方面,从2013年起,提出了ofdm-im技术,该技术利用最大似然(ml)对数似然比(llr)等手工特征进行解码端工作。随着ofdm-im技术的出现,其已成为研究热点。在此基础上,又提出了ztm-ofdm-im(ztm为零信任模型),实现了高频谱和能量效率,尽管其llr检测相对于ml检测有轻微性能损失,但显著降低了复杂度。同时,有人提出了dm-ofdm-cpa,通过带星座功率分配改善了低阶调制的系统性能,仿真结果表明其优于现有的ofdm-im方案。另外,还有人提出了简化的llr计算算法,以接近最优的编码误比特率性能,并具有较低的计算复杂度,解决了在ofdm-im系统中降低复杂度同时保持性能的挑战。
5、最近,还有人引入了带有noma用户的双模式ofdm-im技术,突出了所提出和现有的ofdm-im noma技术的计算复杂度。虽然这些技术取得了一定进展,但仍然存在着一些不足之处,部分技术在降低复杂度的同时可能导致性能损失,而其他技术尽管成功降低了计算复杂度,但在特定调制方案下的适用性有限。此外,尚需进一步验证这些技术在实际应用中的性能和稳定性,因此ofdm-im方法还有较大的改进空间。
6、在深度学习方面,基于深度神经网络在目标检测方面具有良好的实现效果,并能够以较少的时间花费换取大幅度的准确率提升。现有技术引入了一种新颖的基于深度学习的ofdm-im系统检测器deepim,采用深度神经网络来恢复数据位。基于上述,通过引入基于复杂深度神经网络(c-dnn)和复杂卷积神经网络(c-cnn)的方法,进一步增强了ofdm-im系统中的信号检测,以减少复杂度并提高性能,针对mimo-ofdm-im系统提出了一种变分自编码器(vae)信号检测方法,强调了变分优化框架的构建。此外,最近的研究重点放在特定的ofdm-im变体上。有人为双模ofdm-im系统引入了一种基于深度学习的检测器deepdm,结合了卷积神经网络(cnn)和深度神经网络(dnn),以获得最佳的误码性能和低计算复杂度。
7、transformer作为一种强大的序列建模工具,具有良好的适应性和泛化能力,在信号检测领域也展现出了巨大潜力。通过transformer模型,可以有效地捕捉信号之间的时序关系和依赖关系,实现对ofdm-im系统中信号的准确检测和解调。此外,transformer模型的并行计算能力和可扩展性,也为大规模数据处理和实时通信提供了技术支持,并能够以较少的时间花费换取大幅度的准确率提升,显然通过深度学习的方法来解决ofdm-im的问题已经成为一种新趋势。
8、现在现有技术中,传统的ofdm-im方法在解码端工作中利用最大似然对数似然比等手工特征,取得了一定成就,但往往面临性能与计算复杂度之间的折衷,适用性受到调制方案限制,并需要进一步验证在实际应用中的性能和稳定性;而基于深度学习的ofdm-im系统检测方法表现出了良好的潜力,但需要大量标注数据和计算资源,缺乏可解释性,且在特定变体下的适用性和性能尚需进一步研究。需要寻找一种新方法以解决性能与复杂度的折衷、提高通用性和适应性,同时利用深度学习的特征学习和模式识别能力。
技术实现思路
1、本发明的目的在于提供一种适用于ofdm-im的深度学习检测方法,以解决上述背景技术中提出的问题。
2、为实现上述目的,本发明提供如下技术方案:一种适用于ofdm-im的深度学习检测方法,包括如下步骤:
3、s1、基于transformer模型,采用了lstm作为编码的输入层,以应对输入为非整数的词嵌入层的需求;
4、s2、为了适应transformer模型的输入要求,将接收端收到的信息和实际信息进行一一对应作为序列,并在每个序列的开头和结尾添加特殊的开始和结束标识符;
5、s3、在transformer模型训练阶段,通过将经过预处理的数据输入到transformer模型中,得到数据的深层特征信息;
6、s4、利用模型进行实际数据的预测,将原本的分类问题,转化成预测问题,通过模型的迭代输出,发挥transformer的模型特性;
7、在发送端,信息比特序列u,经过调制产生发送符号序列x,序列u表示序列u的一个区块,把它映射到n个编码频域符号的向量中,表示为x=[x0,…,xn-1]t。假设我们有理想的信道估计(csi),其它的做法与现有无线通信做法是一致的,于是对于每一个ofdm符号,接收向量为:y=fhtfhx+fw;
8、其中y,x和w分别对应于单个ofdm符号子块的y,x和w。f表示大小为n的dft矩阵。ht是时域信道矩阵。向量w表示时域加性白噪声(awgn)向量,且服从均值为0方差为σ2的复高斯分布。
9、在任意组β的索引调制中,涉及二维信号星座和索引星座,索引星座用来选择激发的子载波,在信号星座中有星座点,其中ns是一个信号所携带的比特数,发送的信号向量如下:
10、sβ=[sβ,0,…,sβ,na-1],sβ,γ∈s,β=0,…,g-1,γ=0,…,na-1;
11、索引星座i由2na布尔向量组成iβ=(iβ,0,··,iβ,m-1)∈0,1m;
12、其中汉明权重为na,其中iβ,γ=1表示第β组的第γ个子载波被激发,β=0,…,g-1,γ=0,…,m-1,对每个组可以定义一个一一映射对一个ofdm块,输入(na+nans)g个可能编码的比特,输出一个调制信号
13、在transformer模型训练阶段,输入原始数据,经过预处理之后,得到三个输出,其中z直接进入编码层,学习特征信息,bin则进入解码器,在学习阶段知道答案,然后经过线性层再进行softmax和计算交叉熵损失;
14、在模型transformer使用阶段,只需要输入(z,0),输入的0表示为起始符,每次使用模型都会得到一个预测的结果,得到的结果拼接在起始符之后,再次作为输入,输入到解码器迭代输出结果,最终经过逆处理恢复数据,从而计算误码率。
15、进一步的,在使用模型之前,随机生成p0比特的各种传输序列b0,序列b0在二维ofdm-im系统的发送端,经过索引选择和信号调制之后可以得到发送端向量x0,表示为x0=fofdm-im(b0),其中fofdm-im表示im的映射方式;
16、向量x0被发送到接收器得到接收信号y0,将采集到的接收信号和信道向量进行预处理,以获得标签为对应的比特序列b0的训练集数据(z0,b0),其中,z0为transformer网络的输入向量,该信号是一个长度为n的预处理信号;
17、基于transformer网络,改变了编码输入的词嵌入层,并且编码和解码层堆叠均为4层、词嵌入维度为128、前馈全连接层为512,并且所设的lstm网络输入数据的特征维度为1、隐藏状态的维度为128、lstm层的层数为2。
18、进一步的,在transformer模型的接收端得到发送的信道h,通过迫零算法得到经过迫零后的结果记为y1,同时将y1进行取模的平方,得到结果记为y2,输入模型的数据z0=y1caty2,即z0形状为(m+n)×p,其中n、p、m、均为正整数且大于0,cat表示两个矩阵想同纬度进行行拼接。
19、进一步的,采用qpsk调制,单独的看每4个子载波的情况下,即每次有6个bits被发送,其中前两个bits被用于选择激活的子载波,后4个bits则使用正常的调制方式进行发送,在接收端则接收到4个符号数据,即y1为4个复数,经过上述变换z0的形状为1行12列,而b0的形状为1行6列,基于现有的n个子载波,所以一个ofdm符号下,有g组这样一一对应的序列数据。
20、进一步的,s2中,sclr到sc4i分别表示四个子载波的实部和虚部,|sc1|2到|sc4|2分别表示四个子载波模的平方;
21、基于真实的bit数据,为了使得transformer模型具有学习自然语言处理的过程,对标签中数据进行重新映射,并最后在输入数据和标签数据上都添加特殊的开始和结束标识符。对于每4个子载波中标签数据的映射进行定义:输入数据为a=(a1,a2,a3,a4,a5,a6),其中ai表示第i个位置的位(0或1);定义映射函数f(ai)如下:
22、
23、其中,i=1,2,3,4,5,6表示每个位置;
24、整个映射过程可以表示为将输入数据a中的每个位置ai通过映射函数f(ai)映射到新的数据;
25、q=(q1,q2,q3,q4,q5,q6);
26、其中qi=f(ai),这个过程的公式表示如下:
27、qi=f(ai)for i=1,2,3,4,5,6。
28、进一步的,在transformer模型训练阶段,transformer模型的输入为(z,bin)模型的答案标签为bout;
29、在transformer模型恢复阶段,去掉标识符,并且连接g组便是一个ofdm发送的结果,同时在恢复阶段,对一个序列完成预测后,去除添加的标识符后进行逆运算即将映射后的数据恢复为原始数据;
30、基于映射规则,当qi<7时,ai为0;当qi>6时,ai为1,逆运算可以表示为:
31、
32、其中,=1,2,3,4,5,6表示每个位置,整个逆运算过程即将映射后的数据q中的每个位置qi通过逆映射函数f-1(qi)恢复为原始数据,从而计算误码率。
33、进一步的,在transformer模型训练阶段,输入原始数据,经过预处理之后,得到三个输出,其中z直接进入编码层,学习特征信息,bin则进入解码器,在学习阶段知道答案,然后经过线性层再进行softmax和计算交叉熵损失
34、与现有技术相比,本发明的有益效果是:
35、(1)对transformer模型中编码层使用lstm网络进行编码,这样的做法,可以使得模型得到类似词嵌入的过程,可以更好的提取数据的特征信息,在对原始数据进行重新编码部分,通过对原始数据的清洗,并且将变迁重新按照指定规则进行映射,并在每个序列的开头和结尾添加特殊的开始和结束标识符,这样的做法显著的提升了模型的准确率。
36、(2)transformer模型在学习阶段通过数据和标签,在知道答案的情况下,通过编码学会数据的深层特征信息,然后再解码的过程中,通过迭代transformer模型进行预测输出,这样的做法符合自然语言中序列到序列的做法,将原本的分类任务,变成预测的过程,效果更好。
37、(3)通过对原始数据进行标签的重新映射并且对数据进行一一对应,更符合transformer模型的训练和实际的运用,这一步骤有效地增强了transformer模型对数据的理解和建模能力,使得原本的分类问题得以转化成序列问题,从而提高了transformer模型在数据处理任务中的准确率和稳定。
38、(4)通过基于lstm网络进行编码的方法,有效地利用了lstm网络在序列数据处理中的优势,能够捕捉到序列数据中的长期依赖关系,并将其转化为具有语义信息的表示,从而满足了实例分割技术对像素点精准度的要求,所采用的方法也为序列数据处理领域的进一步研究和应用提供了新的思路和方法。
本文地址:https://www.jishuxx.com/zhuanli/20241021/319108.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。
下一篇
返回列表