基于改进的CNN-BiLSTM-CRF雷达短语提取方法与流程
- 国知局
- 2024-08-05 11:59:04
本技术涉及一种基于改进的cnn-bilstm-crf雷达短语提取方法,属于信息处理。
背景技术:
1、现代战争中,新型电子设备和武器的广泛使用导致战场环境变得越来越复杂,传统的信号处理方法不能满足复杂、多用途的雷达要求。mfr信号形式复杂多样,能更加及时准确地反映战场态势。因此,提取出mfr信号中的高维特征十分必要。近年来,针对mfr雷达短语的提取已有一些研究成果。
2、马爽在《电子学报》第7期2012年7月发表的论文“基于序列比对的多功能雷达搜索规律识别方法”中提出了一种基于序列比对的识别方法。该方法的具体步骤是:第一步,利用多功能雷达信号的层级结构对多功能雷达任务进行符号化建模;第二步,调整多功能雷达任务执行任务序列,使其中包含的搜索任务序列具有相同的起始点;第三步,采用最优序列比对算法找出两个任务中最可能的任务配对关系;第四步,将匹配的任务提取出来组成搜索任务序列,即完成对多功能雷达的搜索规律识别。
3、蒋能在战略支援部队信息工程大学2023年4月发表的论文“多功能雷达工作模式辨识关键技术研究”中提出了一种基于雷达字序列编码的雷达短语挖掘方法。该方法的具体步骤为:首先,将由雷达字序列组成的雷达信号看作是符合一定语法规律的语句,并基于编码相关理论建立雷达字序列的语义编码模型,其中模型由编码词典和编码序列两部分组成;随后,采用迭代更新编码词典和编码序列的方法优化整个编码模型,以确保编码词典能准确描述雷达字序列;此外,为了克服部分雷达字缺失带来的不利影响,该方法根据编码模型复杂度的变化进行扩展短语集的合并,保证了编码词典的简洁性,且精简后的编码词典即为找到的雷达短语集;最后,为了提高模式识别的正确率,该方法基于频繁项集整合了扩展短语,辅助完成雷达字序列中错误雷达短语的识别。
4、但是两者均存在不足之处,第一种方法虽然可以在无先验知识的情况下挖掘出mfr搜索工作模式对应的雷达短语,但是无法挖掘搜索以外的其他工作模式对应的雷达短语;第二种方法虽然可以在无先验信息下完成雷达短语的提取,但是无法有效识别雷达字存在缺失的雷达短语;其识别均不够完善。
技术实现思路
1、根据本技术的一个方面,提供了一种基于改进的cnn-bilstm-crf雷达短语提取方法,该方法通过深入分析雷达工作模式切换的规律,对雷达信号进行符号化表示并编码,将编码后的雷达字序列注入到训练过的cnn-bilstm-crf模型中并获得雷达短语提取结果。
2、基于改进的cnn-bilstm-crf雷达短语提取方法,其特征在于,包括以下步骤:
3、步骤一、雷达字序列的数据预处理及语义表示:
4、对雷达字序列进行数据预处理,将其转换成神经网络能够接收的语义向量,其中,所述雷达字序列是字符特征;
5、步骤二、构建cnn-bilstm网络模型,提取雷达字序列的局部特征和上下文特征;
6、步骤三、利用条件随机场,根据输入的雷达字序列,求解输出序列的条件概率分布模型;
7、步骤四:将测试集数据输入到cnn-bilstm-crf模型,输出网络所生成的雷达短语。
8、进一步的,对雷达字序列进行数据预处理包括:
9、1.1根据训练集构建雷达字字典,并创建雷达字标签词典;
10、1.2将雷达字串矩阵按照最大长度等长填充,使用<pad>作为填充0的标签,未在雷达字标签词典中但在训练集出现的雷达字使用<unk>作为标签;
11、1.3通过映射词表将雷达字转为索引型的固定表征,进行数字化,转换为神经网络中可训练的参数;
12、1.4将训练的雷达脉冲字序列标签转换为one-hot编码。
13、进一步的,根据训练集构建雷达字字典,并创建雷达字标签词典前,还包括:
14、a)构建雷达短语数据库,根据bmes标注法确定雷达短语识别标签;
15、b)构建五部雷达的训练集、验证集和测试集,即:radar_train、radar_vad、radar_test,并对应标注雷达短语识别标签。
16、进一步的,所述步骤二包括:
17、2.1构建cnn序列提取模型,其卷积神经网络包括两次一维卷积和一维池化;
18、其中,卷积核个数分别为64和32,大小分别为5×5和3×3;池化采用最大值池化的方式,池化大小均为2×2,步长为1;
19、2.2构建cnn-bilstm网络模型,提取雷达字序列的双向数据特征。
20、进一步的,所述cnn-bilstm网络模型包括:
21、输入层:接收训练样本输入,训练样本维度为128;
22、隐藏层:由forward方向的从前向后隐特征与backward方向的从后向前隐特征拼接在一起组成;
23、其中,每个bilstm记忆单元内部采用的激活函数是sigmoid函数,相邻的两个bilstm记忆单元间采用的激活函数是tanh函数;
24、输出层:将前向与后向bilstm记忆单元进行拼接,作为输出层的输入,输出层为一个全连接层,输出的维度即雷达短语标签的类目数量,是对输入的雷达字序列进行分类,生成雷达短语。
25、进一步的,所述bilstm记忆单元由三个控制门与一个记忆细胞组成,所述控制门包括输入门、遗忘门以及输出门;
26、所述输入门对输入序列作处理,确定保留在记忆细胞中的新信息量:
27、it=σ(xtwxi+ht-1whi+bi);
28、其中,it为t时刻的更新输入门层的输出;
29、wxi表示在输入门i状态下对于输入xt的权重参数;
30、bi表示i状态下的偏置向量;
31、xt表示当前时刻t的输入;
32、ht-1表示上一时刻的隐藏状态;
33、whi表示在输入门i状态下对上一时刻隐藏状态ht-1的权重参数;
34、所述遗忘门表示之前时刻中哪些信息需要遗忘:
35、ft=σ(xtwxf+ht-1whf+bf)
36、其中,ft为t时刻遗忘门的输出;
37、wxf表示在遗忘门f状态下对于输入xt的权重参数;
38、whf表示在遗忘门f状态下对上一时刻隐藏状态ht-1的权重参数;
39、bf表示遗忘门f状态下的偏置向量;
40、所述记忆细胞用于存储和传递长期记忆信息,决定应该被记住、遗忘或更新的信息:
41、
42、其中,当前的记忆细胞可更新为:
43、ct=ft⊙ct-1+it⊙ct
44、其中,ct-1表示上一时间步的记忆细胞;
45、wxc表示在c状态下对于输入xt的权重参数;
46、whc表示在c状态下对上一时刻隐藏状态ht-1的权重参数;
47、bc表示c状态下的偏置向量;
48、ct表示t时刻的状态向量;
49、表示t时刻生成的候选向量,由上一时间步的隐藏信息和当前输入决定;
50、ht-1表示上一时刻的隐藏状态;
51、xt表示当前时刻t的输入;
52、ft表示当前时刻输入xt经过遗忘门的输出,决定上一时刻应该被存储的信息;
53、it表示当前时刻输入xt经过输入门的输出,决定当前时刻应该被更新的信息;
54、所述输出门用来控制记忆细胞隐藏状态的信息量,首先由构成的输出门产生控制信号,以确定输出内容,其次将输出门内容与使用函数处理的当前记忆细胞按元素相乘,得到最终输出结果:
55、ot=σ(xtwxo+ht-1who+bo)
56、ht=ot⊙tanh(ct)
57、其中,wxo表示在t时刻ot状态下对于输入xt的权重参数;
58、who表示在t时刻ot状态下对上一时刻隐藏状态ht-1的权重参数;
59、bo表示在ot状态下的偏置向量;
60、ot表示在t时刻输出门的输出信息;
61、ct表示在t时刻新的记忆单元更新后的信息;
62、ht表示lstm单元最终输出的信息。
63、进一步的,所述步骤三包括:
64、3.1计算对于预测标签序列y=(y1,y2,...,yn),预测每个雷达字各个标签的分数:
65、
66、其中,矩阵p表示经过神经网络输出的发射分数;
67、表示在一个句子中第i个词在第yi个标记上的可能性;
68、a表示crf的转移矩阵;
69、表示yi-1标签到yi标签的转移得分;
70、3.2将crf对各个标签打分结果进行标准化输出,预测标签序列的概率计算公式为:
71、
72、其中,表示输入的文本序列所有标签情况;
73、3.3利用维特比算法得出分数最高的最优标签序列:
74、
75、其中,score(x,y)表示预测序列y=(y1,y2,...,yn)预测后每个字各标签的分数;
76、y*表示预测序列y=(y1,y2,...,yn)预测分数最高的标签;
77、3.4在模型训练时,采用crf-loss损失函数在反向传播过程中,对正确标签序列利用对数概率最大化的方式更新参数,损失函数计算公式为:
78、
79、其中,y表示预测标签序列y=(y1,y2,...,yn)中维特比算法得出分数最高的最优标签序列结果值;
80、x表示预测序列的长度。
81、本技术能产生的有益效果包括:
82、1)本技术所提供的基于改进的cnn-bilstm-crf雷达短语提取方法,利用cnn的特征提取功能,将cnn作为lstm的前置模块以提高对雷达字序列的局部特征提取能力,同时利用双向lstm学习序列数据的上下文特征,改进的网络模型能更高效地学习提取雷达字之间的语义信息,使提取的雷达字特征更丰富和完善,提高雷达短语提取正确率;同时利用cnn作为lstm的前置输入模块,能够缩减维度,减小lstm的输入,加快模型训练和推理的速度,提高模型训练速度和效率。
本文地址:https://www.jishuxx.com/zhuanli/20240802/260452.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。
下一篇
返回列表