基于空间扇区化神经网络的360°全空域波达方向估计方法
- 国知局
- 2025-01-10 13:30:39
本发明属于信号处理,尤其涉及对雷达信号、声学信号及电磁信号在全空域场景下的波达方向估计,具体是一种基于空间扇区化神经网络的360°全空域波达方向估计方法,可用于无源定位、目标探测以及新一代无线通信系统。
背景技术:
1、波达方向估计(direction-of-arrival estimation)通过利用阵列天线接收空域信号,并通过统计信号处理技术和各类优化方法对接收信号进行处理,以恢复信号中所包含的波达方向信息,是阵列信号处理领域的基本问题之一,在雷达、声呐、语音、射电天文、地震学、无线通信、医学成像等领域有着广泛的应用。
2、模型驱动类方法,如music和esprit算法,是经典的波达方向估计方法。为了保证估计的即时性和精确性,此类方法通常预设信源从限定的角度范围区间内到达。在此区间内,模型驱动类方法能以可接受的计算复杂度获得较高的估计准确度。本发明称此类区间为高性能区间,典型的高性能区间有0至45度、-60至60度等。然而,在以新一代车联网为代表的目标测向、无源定位等实际应用场景中,阵列天线需要接收全方位、全空域的信号。模型驱动类方法在面对超出了高性能区间的360°全空域波达方向估计时,部分位于角度周期边界附近的信号源会出现因估计误差而导致的波达方向估计准确度骤降问题。
3、随着通信环境的日益复杂化,基于神经网络的波达方向估计方法在估计准确度、鲁棒性和推理速度等方面表现出强大的适应能力,其基于数据驱动的特性使得此类方法能够处理各种角度区间的波达方向估计,不再受到高性能区间的限制。然而,由于360°全空域波达方向估计属于大角度范围的二维波达方向估计,传统基于神经网络的波达方向估计方法在该场景下仍然面临挑战。一方面,分类神经网络假设信号从某些特定的方向到达,并将这些方向分类作为波达方向;为了保持良好的估计精度,相邻特定方向间隔通常较小,这使得在全空域角度条件下,分类网络所需的类别数量将非常庞大,训练成本极高。另一方面,虽然回归神经网络可以直接估计波达角,但是由于全空域场景下波达方位角的360°周期性,回归网络会在角度取值周期范围边界处造成严重的估计误差。因此,如何针对全空域场景下的波达方向估计进行神经网络结构设计,以解决现有技术在360°全空域波达方向估计时的性能衰减,是当前亟待解决的一个重要问题。
技术实现思路
1、本发明的目的在于针对上述现有技术存在的不足,提出一种基于空间扇区化神经网络的360°全空域波达方向估计方法,通过天线阵列信号建模,获取用于训练神经网络的信号协方差矩阵;进而通过空间扇区化和角度映射,将全空域的波达角范围进行有效压缩;最后设计了空间扇区化神经网络进行波达方向估计,从而避免了全空域场景下分类网络所需类别过多与回归网络在角度边界处的估计误差问题,进而实现了全空域场景下的波达方向估计,为其在新一代无线通信系统以及无源定位、目标探测等领域的应用提供技术支撑。
2、本发明的目的是通过以下技术方案来实现的:一种基于空间扇区化神经网络的360°全空域波达方向估计方法,包含以下步骤:
3、(1)全空域接收信号建模与神经网络输入构建:假设有k个来自{(θk,φk),k=1,2,...,k}角度方向的远场窄带非相干信源,其中方位角θk∈[0°,360°],俯仰角φk∈[-90°,90°],表示信号从360°全空域到达;方位角为信号到达方向投影至天线阵列平面后,与x轴的夹角,俯仰角为信号到达方向与天线阵列平面的夹角;在接收端,使用m×n个物理天线阵元构成天线阵列用于信号接收;将阵列接收到的信号建模为:
4、
5、其中,表示k个信源的接收信号波形矩阵,[·]t表示转置运算,包含第k个信源的波形,t为采样快拍数;为阵列导引矩阵,其中ak为对应于第k个信源的导引向量,表示为:
6、
7、其中,(ui,vi),i=1,2,...,mn,表示平面阵列中第i个阵元的实际位置坐标,且u1=v1=0;μk=sinφkcosθk,vk=sinφksinθk,表示虚数单位;n表示加性高斯白噪声;利用接收到的信号矩阵x,计算出信号的协方差矩阵作为神经网络模型输入,其中[·]h表示共轭转置运算;
8、(2)将空域划分为扇区并计算扇区索引:将方位角θk和俯仰角φk的角度取值范围分别划分为p和q个大小相同的区域,即整个空域被划分为p×q个扇区;第k个信源的到达角度属于某一个特定的扇区,其索引hk按下式计算:
9、
10、其中,分别表示扇区中方位角与俯仰角的取值范围大小,表示向下取整运算;例如:第k个信源从{θk=120°,φk=60°}方向到达,假设空间被划分p=8,q=2,即aθ=45°,aφ=90°的扇区,则此信源属于hk=10号扇区;
11、(3)利用扇区索引将全空域波达角映射到参考扇区:现有基于神经网络方法处理全空域下的波达角θ=[θ1,θ2…,θk],φ=[φ1,φ2…,φk]时存在因模型复杂度增加导致的性能衰减,需要利用扇区索引将波达角取值范围映射到参考扇区中以压缩角度取值范围;这里,参考扇区取零号(hk=0)扇区;映射后的波达角、扇区索引和全空域波达角的数值关系由下式表示:
12、
13、
14、其中,和分别表示第k个信源的波达角经过映射后,在参考扇区内的方位角和俯仰角,且mod(·)表示求模运算,h=[h1,h2,…,hk]表示信源所对应扇区的索引;经过角度映射后,全空域波达角{θ,φ}用取值范围被压缩后的三元组所等价表示;若能从输入信号中估计出此三元组,则全空域波达角也可被恢复;
15、(4)空间扇区化神经网络设计:经过空间扇区化和角度映射过程后,原本的全空域波达角被等价为三元组因此需要设计用于估计此三元组的神经网络架构;空间扇区化神经网络架构由分类器和估计器两部分子网络组成,分别用于估计扇区索引h和映射后的波达角信息分类器为分类神经网络,估计器为回归神经网络,均使用信号协方差矩阵作为输入;分类器使用卷积神经网络和多层感知机级联结构,输出为对应于各信源的k个概率分布,第k个概率分布中的最大值对应的索引表示该信源波达角所对应的空间扇区索引hk,k=1,2,...,k;估计器使用卷积神经网络作为网络结构,输出为2k个值,对应经过角度映射后,k个信源在参考扇区中的方位角和俯仰角该网络模型是专为估计三元组而设计的;
16、(5)空间扇区化神经网络训练与推理:在训练阶段,分类器和估计器分别独立训练;分类器和估计器均使用梯度下降方法,以学习率α进行训练,训练目标为最小化损失函数;在推理阶段,将信号协方差矩阵输入模型,分类器和估计器的输出结果即为扇区索引与映射后角度的估计值;
17、(6)利用所得扇区信息和映射后角度值恢复全空域波达角:当空间扇区化神经网络估计得到扇区索引h和角度映射后的波达角后,通过此三元组和全空域波达角之间的等价关系恢复全空域波达角,即:
18、
19、
20、其中,和分别表示空间扇区化神经网络估计得到的扇区索引和角度映射后波达角;即为全空域场景下的波达方向估计结果。
21、进一步地,步骤(1)所述的天线阵列采用均匀矩形阵列(uniform rectangulararray)进行铺设:选取两个整数m和n,在x轴上架设m行阵元,每行沿y轴方向架设n个阵元且阵元间距d均为入射窄带信号波长的一半;对于阵列中第i行第j列阵元,其位置坐标为(ui,vj),ui=(i-1)d,vj=(j-1)d;其中i=1,2,...,m,j=1,2,...,n;由此获得用于信号接收的天线阵列。
22、进一步地,步骤(2)所述的扇区数量需参照如下性能平衡原则:在选取扇区数量时,扇区数量的增加会使得分类器需要识别的类别增多、性能下降;但同时会进一步缩小扇区角度范围,使估计器准确度上升;选取扇区数量时,不要使过大的分类误差淹没估计器准确度上升带来的性能增益。
23、进一步地,步骤(2)所述的扇区数量需参照如下原则综合确定:扇区大小需合适以保证估计器准确度;扇区数量不得过多或过少;分类器与估计器的性能平衡原则;综合考虑以上原则,扇区数量选取为p=8,q=4,即每个扇区的方位角和俯仰角范围均为45°。
24、进一步地,步骤(5)所述的损失函数通过如下方式进行选择:分类器使用二元交叉熵函数作为损失函数,即:
25、
26、其中,d=kpq为分类器输出神经元的数量,p=[p1,p2,…,pd]∈{0,1}和分别为真实的和分类器估计的对应扇区的概率分布;
27、估计器使用huber函数作为损失函数,即:
28、
29、其中,分别为真实的和估计的角度映射后的波达角,||·||1和||·||2分别表示曼哈顿范数和欧几里得范数;η是一个阈值,用于控制huber函数在平均平方误差(mean square error,mse)和平均绝对误差(mean absolute error,mae)之间的选择,这种阈值控制使得huber函数相比单独的mse或mae函数具有更强的鲁棒性。
30、本发明与现有技术相比具有以下优点:
31、(1)本发明通过将空域划分为扇区和角度映射,实现了全空域波达角取值范围的有效压缩,将全空域波达角用一个取值范围受限的三元组等效,实现了全空域波达方向的准确估计。
32、(2)本发明综合了分类神经网络和回归神经网络的优势,在低信噪比的条件下能够实现360°全空域波达方向估计的相对稳定,具有鲁棒性强的优势。同时分类器类别受到扇区数量限制,空间扇区化神经网络的训练复杂度相对现有基于分类网络的波达方向估计技术更低。
本文地址:https://www.jishuxx.com/zhuanli/20250110/353588.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。