技术新讯 > 计算推算,计数设备的制造及其应用技术 > 整合多尺度空间与时间动态的医学图像配准方法及系统  >  正文

整合多尺度空间与时间动态的医学图像配准方法及系统

  • 国知局
  • 2024-10-09 14:43:54

本发明属于医学图像配准,具体涉及一种整合多尺度空间与时间动态的医学图像配准方法及系统,尤其涉及一种整合多尺度空间与时间动态的可变形医学图像配准方法及系统。

背景技术:

1、本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。

2、医学图像配准在医学图像分析领域中扮演着重要角色。这项技术涉及将不同时间点或不同模态的医学图像进行有效对齐,以便于实现信息融合。这种对齐增强了患者数据的临床价值,支持医生做出更准确的诊断。其应用范围涵盖放射治疗规划、手术图像导航、动态结构追踪、医学图像重建和分割等多个重要领域。

3、深度学习模型在处理复杂的高维度数据时,表现出了出色的性能。因此,近几年它开始被大量应用于医学图像配准领域,实现快速而精确的配准。相比较于脑部或肝脏等医学图像,由于人体呼吸运动的存在,肺部图像呈现出更加复杂的非线性形变,这对配准模型提出了更高的要求。

4、为应对肺部配准中存在的复杂大形变问题,研究者们提出了许多成功的解决方案。hering等人使用高斯金字塔多层配准模型。该模型在配准过程中采用由粗到细的思想对形变场进行逐步细化。在chang等人提出的无监督异构多分辨率网络(unsupervisedheterogeneous multi-resolution network,uhmr-net)中,多个层次的级联网络作用在图像上,以持续优化残余形变场。此外,一种渐进式配准网络被eppenhof等人用于肺部配准问题。它在训练过程中不断学习轻型的网络以对主网络进行扩展。这些模型虽然取得优异效果,但大多聚焦于在模型层面进行多尺度配准,图像数据需要经过多个子模型。

5、在涵盖三维空间信息和一维时间信息的肺部4d ct数据领域,一系列基于此类数据的配准模型也相继出现。zhang等人开发的groupregnet为一组图像设计了共同隐式模版,有效减少了相关的累积误差。wang等人则将单次学习和群体学习策略相结合,充分利用各自的优点。另一项进展中,chi等人提出了少镜头配准网络(few-shot registrationnetwork,fr-net),该网络被用来从肺部呼吸的不同阶段生成隐式形变场,并使用有限数据进行有效的预训练。尽管这些研究引入了开创性的思想,但它们通常并未充分考虑4d ct图像中固有的时间分量信息,而时间分量信息对于全面的数据整合和分析至关重要。

技术实现思路

1、本发明为了解决上述问题,提出了一种整合多尺度空间与时间动态的医学图像配准方法及系统,本发明通过对多尺度空间特征的提取与时间序列图像的深入分析,优化形变场的计算,不仅提高了内存效率,还提升了网络性能,能够有效地处理图像间非线性大形变及周期性运动,实现高精度的图像配准。

2、根据一些实施例,本发明采用如下技术方案:

3、一种整合多尺度空间与时间动态的医学图像配准方法,包括以下步骤:

4、获取吸气阶段的一组图像序列;

5、利用配准网络对所述图像序列进行配准,得到对应的形变场序列;

6、利用空间变换网络将起始时刻的图像作为移动图像,向其他所有图像进行图像配准,得到经过形变的扭曲图像序列;

7、所述配准网络为u-net的网络结构,在u-net的网络结构的编码路径中,连续配置三个inception-resnet模块,在瓶颈层,整合两个convlstm模块,在解码路径中,最后一层除外的每层包含两个inception-resnet模块,在编码和解码路径的对应层中,图像特征在跳跃连接的作用下被融合。

8、作为可选择的实施方式,获取吸气阶段t00-t50的一组图像序列。

9、作为可选择的实施方式,所述配准网络的末端,设置有卷积核大小为1×1×1的卷积神经网络,用于完成从图像特征到图三维形变场的映射。

10、作为可选择的实施方式,所述配准网络经过训练,且训练过程中,以迭代学习的方式实现损失函数的最小化,不断地优化网络模型,其中,代表模型得到的最优形变场,argminl(in,i0,φ)代表最小化的损失函数,in为输入的图像序列,i0为t00时刻的图像,φ为形变场。

11、作为可选择的实施方式,所述inception-resnet模块为基于inception概念并通过残差连接增强的模块,使用轻量级3×3×3卷积核替代更大的卷积核,所述残差连接用于直接连接输入和输出图像特征。

12、作为可选择的实施方式,所述convlstm模块用于处理图像特征的时空信息。

13、作为可选择的实施方式,在医学图像配准过程中,损失函数包括以下约束:相似性损失、平滑性损失和抗折叠损失。

14、作为进一步的,所述相似性损失用于使用归一化交叉相关系数评估固定图像序列和扭曲图像序列之间的相似性平滑性损失和抗折叠损失,所述平滑性损失用于确保形变场在整个图像序列中保持平滑;所述抗折叠损失用于关注形变场的雅可比矩阵行列式中出现负值的情况。

15、作为进一步的,各项损失约束均配置有调控系数。

16、一种整合多尺度空间与时间动态的医学图像配准系统,包括:

17、数据获取模块,被配置为获取吸气阶段的一组图像序列;

18、配准模块,被配置为利用配准网络对所述图像序列进行配准,得到对应的形变场序列;

19、空间变换模块,被配置为利用空间变换网络将起始时刻的图像作为移动图像,向其他所有图像进行图像配准,得到经过形变的扭曲图像序列;

20、所述配准网络为u-net的网络结构,在u-net的网络结构的编码路径中,连续配置三个inception-resnet模块,在瓶颈层,整合两个convlstm模块,在解码路径中,最后一层除外的每层包含两个inception-resnet模块,在编码和解码路径的对应层中,图像特征在跳跃连接的作用下被融合。

21、与现有技术相比,本发明的有益效果为:

22、本发明设计了一种基于无监督深度学习的肺部4d ct图像配准网络,这种改进后的u型配准网络实现了对多尺度以及时空数据的有效整合,显著增强了网络对形变和动态的学习效率。

23、本发明采用一次性学习的图像配准策略,减少了对大规模医学图像数据的依赖。

24、在肺部4d ct数据库上的实验结果表明,本发明能够很好地完成图像配准任务,为医学图像配准的临床应用提供了一种有效的技术方案。

25、为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。

技术特征:

1.一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,包括以下步骤:

2.如权利要求1所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,获取吸气阶段t00-t50的一组图像序列。

3.如权利要求1所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,所述配准网络的末端,设置有卷积核大小为1×1×1的卷积神经网络,用于完成从图像特征到图三维形变场的映射。

4.如权利要求1或3所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,所述配准网络经过训练,且训练过程中,以迭代学习的方式实现损失函数的最小化,不断地优化网络模型,其中,代表模型得到的最优形变场,argminl(in,i0,φ)代表最小化的损失函数,in为输入的图像序列,i0为t00时刻的图像,φ为形变场。

5.如权利要求1或3所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,所述inception-resnet模块为基于inception概念并通过残差连接增强的模块,使用轻量级3×3×3卷积核替代更大的卷积核,所述残差连接用于直接连接输入和输出图像特征。

6.如权利要求1或3所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,所述convlstm模块用于处理图像特征的时空信息。

7.如权利要求1所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,在医学图像配准过程中,损失函数包括以下约束:相似性损失、平滑性损失和抗折叠损失。

8.如权利要求7所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,所述相似性损失用于使用归一化交叉相关系数评估固定图像序列和扭曲图像序列之间的相似性平滑性损失和抗折叠损失,所述平滑性损失用于确保形变场在整个图像序列中保持平滑;所述抗折叠损失用于关注形变场的雅可比矩阵行列式中出现负值的情况。

9.如权利要求7或8所述的一种整合多尺度空间与时间动态的医学图像配准方法,其特征是,各项损失约束均配置有调控系数。

10.一种整合多尺度空间与时间动态的医学图像配准系统,其特征是,包括:

技术总结本发明提供了一种整合多尺度空间与时间动态的医学图像配准方法及系统,获取吸气阶段的一组图像序列;利用配准网络对所述图像序列进行配准,得到对应的形变场序列;利用空间变换网络将起始时刻的图像作为移动图像,向其他所有图像进行图像配准,得到经过形变的扭曲图像序列。本发明通过对多尺度空间特征的提取与时间序列图像的深入分析,优化形变场的计算,不仅提高了内存效率,还提升了网络性能,能够有效地处理图像间非线性大形变及周期性运动,实现高精度的图像配准。技术研发人员:魏莹,刘昕宇,宋锐受保护的技术使用者:山东大学技术研发日:技术公布日:2024/9/29

本文地址:https://www.jishuxx.com/zhuanli/20241009/306280.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。