CN110211165A - 一种基于异步深度强化学习的图像多模态配准方法 - Google Patents

一种基于异步深度强化学习的图像多模态配准方法 Download PDF

Info

Publication number
CN110211165A
CN110211165A CN201910497153.4A CN201910497153A CN110211165A CN 110211165 A CN110211165 A CN 110211165A CN 201910497153 A CN201910497153 A CN 201910497153A CN 110211165 A CN110211165 A CN 110211165A
Authority
CN
China
Prior art keywords
image
registration
value
asynchronous
study
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910497153.4A
Other languages
English (en)
Other versions
CN110211165B (zh
Inventor
胡靖�
罗梓巍
李欣妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Information Technology
Original Assignee
Chengdu University of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Information Technology filed Critical Chengdu University of Information Technology
Priority to CN201910497153.4A priority Critical patent/CN110211165B/zh
Publication of CN110211165A publication Critical patent/CN110211165A/zh
Application granted granted Critical
Publication of CN110211165B publication Critical patent/CN110211165B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于异步深度强化学习的图像多模态配准方法,所述配准方法包括以下内容:将不同模态(如CT、MRII)的两张图片堆叠输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息;根据概率分布信息在环境中移动动态图像并返回一个奖励值;判断当前网络状态值信息是否达到阈值;对当前图像配准进行采样并输出最终结果。通过基于强化学习(A3C算法),提出一种自定义的奖励函数,加入循环卷积结构以充分利用时空信息,并采用蒙特卡洛进行图像配准,提高了配准的性能,相比于现有配准方法配准结果更接近标准的配准图像,面对差异大的图像配准更加稳定。

Description

一种基于异步深度强化学习的图像多模态配准方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于异步深度强化学习的图像多模态配准方法。
背景技术
多模医学图像处理是当前图像处理中的研究热点,对于临床诊断和治疗都有着重要的意义。不同模态的图像提供了患者的不同信息,解剖图像(如CT、MRII)提供了人体解剖形态结构的信息,功能图像(如SPECT、PET)提供了人体内放射性浓度分布的功能信息,这些不同信息需要通过合成得到信息更为全面的融合图像。而要得到有用的融合图像,不同模态的图像需经配准处理。
医学图像配准是通过寻找某种空间变换,使两幅图像的对应点达到空间位置和解剖结构上的完全一致。要求配准的结构能使两幅图像上所有的解剖点,或至少是所有临床诊断意义区域的点都达到匹配。医学图像的融合是指将至少两幅来自不同成像设备或不同时刻获取的已配准图像,采用某种算法,把各个图像的优点或互补性有机结合起来,获得信息量更丰富的新图像的技术。图像配准是图像融合的第一步,也是实现图像融合的先决条件。只有实现了待融合图像的配准,才能实现相应组织之间的融合,如果对应组织的配准有较大偏差,那么融合图像也是不准确的。
目前现有的图像配准方法基本上可分为基于图像外部特征的配准和基于像素灰度的配准。
第一种基于图像外部特征的配准方法是依靠放置在患者身体上的可以显像的人工标记物来确定配准参数。缺点是必须在图像成像阶段使用标记物,因而无法实现图像回溯性配准研究。
第二种基于像素灰度的图像配准方法是将每幅图像的灰度值视作一个一维离散随机变量,将图像灰度分布视作随机变量的样本值,直接对图像的灰度操作,不需要预处理和图像分割来提取图像特征。配准过程仅依赖于原始图像信息,不需要人工干预,无需特征点提取或进行曲线或曲面的分割,可靠性较强;对图像灰度不均匀、几何失真及数据缺失等不敏感,算法本身不依赖于成像设备;可用于多模医学图像融合,最大缺点是计算量大且耗时长。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于异步深度强化学习的图像多模态配准方法,解决了现有图像配准方法存在的缺陷。
本发明的目的是通过以下技术方案来实现的:一种基于异步深度强化学习的图像多模态配准方法,所述配准方法包括以下内容:
将不同模态的图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息;
根据概率分布信息在环境中移动动态图像并返回一个奖励值;
判断当前网络状态值信息是否达到阈值;
对当前图像配准进行采样并输出最终结果。
在所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息之前还需要对输入图片进行准备和处理的步骤。
所述对输入图片进行准备和处理的步骤如下:
准备好需要配准的固定图像和动态图像;
将两张图片放缩或修剪到同样大小尺寸,并进行堆叠。
所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息的内容如下:
通过神经网络中的卷积层和循环卷积层捕获配准图像在整个配准过程中的时间和空间信息;
通过两个全连接输出一个softmax层作为policy function表示策略动作的概率分布;
另一个输出为value function表示当前的状态值。
所述根据概率分布信息在环境中移动动态图像并返回一个奖励值的内容如下:
当接收到一个状态值时,从策略动作空间中选一个策略动作;
根据该策略动作的概率分布选择概率最大的策略动作作为下一次的动作,并在环境中实施该动作;
环境根据做出的动作返回一个奖励值。
所述对当前图像配准进行采用并输出最终结果包括以下内容:
如果当前网络状态值达到设定的阈值,则对当前图像配准进行蒙特卡洛采样;
取采样后的结果为最终完成配准后的图像。
所述配准方法还包括:
在当前网络状态值没有达到阈值时将移动后的动态图像输入到神经网络中;
根据输入的动态图像输出当前的状态值信息和策略动作的概率分布信息;
根据概率分布信息在环境中移动动态图像并返回一个奖励值;
循环上述步骤。
停止循环上述步骤的条件为返回的奖励值为期望最大值。
在当前网络状态值达到阈值时,此时返回的奖励值为阈值,即为期望最大值。
所述对当前图像配准进行蒙特卡洛采用包括以下内容:
从到达阈值时的当前状态开始,同时对多条可能的配准路径进行随机探索,探索深度为Dmc,并记录下每条路径上所有的状态值;
当所有路径探索完成,以每条路径的状态总值与所有路径的状态总值之比作为该路径的权重;
对所有探索路径的变换矩阵进行加权求和,得到最终采样完成的配准变换矩阵;
使用最终变换矩阵对待配准图像进行变换,即可得到最终配准完成的图像。
本发明的有益效果是:一种基于异步深度强化学习的图像多模态配准方法,通过基于强化学习(A3C算法),提出一种自定义的奖励函数,加入循环卷积结构以充分利用时空信息,并采用蒙特卡洛进行图像配准,提高了配准的性能,相比于现有配准方法配准结果更接近标准的配准图像,面对差异大的图像配准更加稳定。
附图说明
图1为本方法的流程图;
图2为本方法的图像配准效果对比图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“上”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
如图1所示,一种基于异步深度强化学习的图像多模态配准方法,所述配准方法包括以下内容:
S1、将不同模态的图片输入神经网络进行处理并输出当前的状态值信息(state-value)和策略动作的概率分布信息(policy);
S2、根据概率分布信息在环境中移动动态图像并返回一个奖励值;
S3、判断当前网络状态值信息是否达到阈值;
S4、对当前图像配准进行采样并输出最终结果。
进一步地,神经网络包括CNN和ConvGRU神经网络,CNN网络部分从未接收状态中提取特征,ConvGRU网络部分从相邻帧中编码时空信息;当涉及解决空间依赖时,在输入到状态和状态到状态的转换中,通过ConvGRU网络对时空序列进行建模。
进一步地,ConvGRU网络是一种特殊的门控循环单元,它在每一帧都会计算一个当前隐藏状态(hidden state)向量,该隐藏状态向量将保留当前单元的信息并传递到下一个序列单元中,因此可以保留上下文的长期信息。它将CNN网络提取出的多帧的特征图(feature map)作为一个时间序列输入,在存储序列在时间上的重要信息的同时,对每一帧的特征再进行卷积提取特征的空间信息。本发明设置ConvGRU的输入序列长度为30,隐藏状态向量的维度为512,卷积核的大小为3×3。
进一步地,神经网络的具体参数如下:
batch_size:32;learning_rate:1e-5;总迭代epoch:24000;
1、卷积层:共10层,均有padding,激活函数使用elu,使用MSRA初始化;
第一层:卷积核数量:64;卷积核大小:7x7,步长:3,接layer normalization;
第二层:卷积核数量:64;卷积核大小:3x3,步长:1;
第三层:卷积核数量:128;卷积核大小:3x3,步长:2,接layer normalization;
第四层:卷积核数量:128;卷积核大小:3x3,步长:1;
第五层:卷积核数量:256;卷积核大小:3x3,步长:2,接layer normalization;
第六层:卷积核数量:256;卷积核大小:3x3,步长:1;
第七层:卷积核数量:256;卷积核大小:3x3,步长:1;
第八层:卷积核数量:512;卷积核大小:3x3,步长:2,接layer normalization;
第九层:卷积核数量:512;卷积核大小:3x3,步长:1;
第十层:卷积核数量:512;卷积核大小:3x3,步长:1,接layer normalization;
2、ConvGRU层:
循环序列长度:32,输出通道数(卷积核数量):512,卷积核大小:3x3,步长:1,有padding,使用了layer normalization;
3、全局平均池化:7x7,步长:1;
4、全连接输出层:512->8->softmax(policy),512->1(value)。
进一步地,在所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息之前还需要对输入图片进行准备和处理的步骤S0。
所述对输入图片进行准备和处理的步骤S0如下:
S01、准备好需要配准的固定图像(fixed image)和动态图像(moving image);
S02、将两张图片放缩或修剪到同样大小尺寸,并进行堆叠。
其中,动态图像如医学中的MRI和CT图。
进一步地,所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息的内容如下:
S11、通过神经网络中的卷积层和循环卷积层捕获配准图像在整个配准过程中的时间和空间信息;以加速系统学习,增加配准的稳定性和鲁棒性;
S12、通过两个全连接输出一个softmax层作为policy function表示策略动作的概率分布;
S13、另一个输出为value function表示当前的状态值。
进一步地,所述根据概率分布信息在环境中移动动态图像并返回一个奖励值的内容如下:
S21、当接收到一个状态值时,从策略动作空间中选一个策略动作;
S22、根据该策略动作的概率分布选择概率最大的策略动作作为下一次的动作,并在环境中实施该动作;即移动moving image。
S23、环境根据做出的动作返回一个奖励值(reward)。
进一步地,策略动作空间由8个候选变换组成,其中包括x和y方向上±1像素的平移,±1旋转和±0.05的大小缩放。
进一步地,返回的奖励值由ground truth中选择的一组固定点和移动后的动态图像(moving image)的对应点计算得到,其计算公式为:
其中pi分别表示来自ground truth(标准的配准图像)和移动后的当前moving image的一组固定点,#{PG}表示固定点的总数。环境返回的奖励值反映了当前动作的好坏,网络会根据其对配准策略进行更新和学习,以使累积奖励值的期望最大化。并将该步移动后的图像(MRI和CT)再次送入神经网络,如此循环。
进一步地,所述对当前图像配准进行采用并输出最终结果包括以下内容:
S41、如果当前网络状态值达到设定的阈值,则对当前图像配准进行蒙特卡洛采样;
S42、取采样后的结果为最终完成配准后的图像。
进一步地,所述配准方法还包括:
在当前网络状态值没有达到阈值时将移动后的动态图像输入到神经网络中;
根据输入的动态图像输出当前的状态值信息和策略动作的概率分布信息;
根据概率分布信息在环境中移动动态图像并返回一个奖励值;
循环上述步骤。
停止循环上述步骤的条件为返回的奖励值为期望最大值。
在当前网络状态值达到阈值时,此时返回的奖励值为阈值,即为期望最大值。
进一步地,如果当前网络状态值vt达到阈值trs,则循环过程可以停止,此时阈值trs等于最终的奖励值。然而在实践中,预测的转换参数通常是在特定的值附近抖动,因此很难终止。针对这一非平稳性问题,我们采用蒙特卡洛方法来模拟多个搜索路径,从而估计变换矩阵的期望值。给定状态st为根节点,其状态值vt在阈值trs附近,同时搜索多条具有固定搜索深度的轨迹。对于每个轨迹,后续的所有动作都按照策略(policy)随机选择,相应的状态值由value netowrk来生成。
所述对当前图像配准进行蒙特卡洛采用包括以下内容:
S411、从到达阈值时的当前状态开始,同时对多条可能的配准路径进行随机探索,探索深度为Dmc,并记录下每条路径上所有的状态值;
S412、当所有路径探索完成,以每条路径的状态总值与所有路径的状态总值之比作为该路径的权重;
S413、对所有探索路径的变换矩阵进行加权求和,得到最终采样完成的配准变换矩阵;
S414、使用最终变换矩阵对待配准图像进行变换,即可得到最终配准完成的图像。
如图2所示,a表示固态图像(fixed image),b表示动态图像(moving image),c表示ground truth(标准的配准图像);d和e分别表示使用现有的配准方法Elastix和Pure SL配准后的图像,f表示使用Shanhui Sun等人提出的配准方法进行配准后的图像,g表示本发明所有方法的配准图像;根据现有配准方法得到的配准图像、本发明方法得到的配准图像与标准的配准图像进行对比,可以看出现有配准方法d、e和f与标准配准图像差别比较明显,而本发明方法得到的配准图像更加接近标准的配准图像,面对差异大的图像配准更加稳定。
通过上述实验过程中使用深度强化学习,提出一种自定义的奖励函数,加入循环卷积结构以充分利用时空信息,并采用蒙特卡洛进行图像配准,提高配准了任务的性能,并且优于现有多种先进的图像配准方法。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述配准方法包括以下内容:
将不同模态的图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息;
根据概率分布信息在环境中移动动态图像并返回一个奖励值;
判断当前网络状态值信息是否达到阈值;
对当前图像配准进行采样并输出最终结果。
2.根据权利要求1所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:在所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息之前还需要对输入图片进行准备和处理的步骤。
3.根据权利要求2所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述对输入图片进行准备和处理的步骤如下:
准备好需要配准的固定图像和动态图像;
将两张图片放缩或修剪到同样大小尺寸,并进行堆叠。
4.根据权利要求1-3中任意一项所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述将图片输入神经网络进行处理并输出当前的状态值信息和策略动作的概率分布信息的内容如下:
通过神经网络中的卷积层和循环卷积层捕获配准图像在整个配准过程中的时间和空间信息;
通过两个全连接输出一个softmax层作为policy function表示策略动作的概率分布;
另一个输出为value function表示当前的状态值。
5.根据权利要求4所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述根据概率分布信息在环境中移动动态图像并返回一个奖励值的内容如下:
当接收到一个状态值时,从策略动作空间中选一个策略动作;
根据该策略动作的概率分布选择概率最大的策略动作作为下一次的动作,并在环境中实施该动作;
环境根据做出的动作返回一个奖励值。
6.根据权利要求5所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述对当前图像配准进行采用并输出最终结果包括以下内容:
如果当前网络状态值达到设定的阈值,则对当前图像配准进行蒙特卡洛采样;
取采样后的结果为最终完成配准后的图像。
7.根据权利要求6所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述配准方法还包括:
在当前网络状态值没有达到阈值时将移动后的动态图像输入到神经网络中;
根据输入的动态图像输出当前的状态值信息和策略动作的概率分布信息;
根据概率分布信息在环境中移动动态图像并返回一个奖励值;
循环上述步骤。
8.根据权利要求7所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:停止循环上述步骤的条件为返回的奖励值为期望最大值。
9.根据权利要求8所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:在当前网络状态值达到阈值时,此时返回的奖励值为阈值,即为期望最大值。
10.根据权利要求8所述的一种基于异步深度强化学习的图像多模态配准方法,其特征在于:所述对当前图像配准进行蒙特卡洛采用包括以下内容:
从到达阈值时的当前状态开始,同时对多条可能的配准路径进行随机探索,探索深度为Dmc,并记录下每条路径上所有的状态值;
当所有路径探索完成,以每条路径的状态总值与所有路径的状态总值之比作为该路径的权重;
对所有探索路径的变换矩阵进行加权求和,得到最终采样完成的配准变换矩阵;
使用最终变换矩阵对待配准图像进行变换,即可得到最终配准完成的图像。
CN201910497153.4A 2019-06-10 2019-06-10 一种基于异步深度强化学习的图像多模态配准方法 Active CN110211165B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910497153.4A CN110211165B (zh) 2019-06-10 2019-06-10 一种基于异步深度强化学习的图像多模态配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910497153.4A CN110211165B (zh) 2019-06-10 2019-06-10 一种基于异步深度强化学习的图像多模态配准方法

Publications (2)

Publication Number Publication Date
CN110211165A true CN110211165A (zh) 2019-09-06
CN110211165B CN110211165B (zh) 2022-08-05

Family

ID=67791734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910497153.4A Active CN110211165B (zh) 2019-06-10 2019-06-10 一种基于异步深度强化学习的图像多模态配准方法

Country Status (1)

Country Link
CN (1) CN110211165B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462146A (zh) * 2020-04-16 2020-07-28 成都信息工程大学 一种基于时空智能体的医学图像多模态配准方法
CN112232152A (zh) * 2020-09-30 2021-01-15 墨奇科技(北京)有限公司 非接触式指纹识别方法、装置、终端和存储介质
CN112641471A (zh) * 2020-12-30 2021-04-13 北京大学第三医院(北京大学第三临床医学院) 一种放疗专用的膀胱容量测定与三维形态评估方法与系统
CN113177601A (zh) * 2021-05-11 2021-07-27 中国科学技术大学 一种深度强化学习网络设置合理性的判别方法
CN113538534A (zh) * 2021-06-23 2021-10-22 复旦大学 一种基于深度强化学习的纳米成像的图像配准方法
CN113643339A (zh) * 2021-08-13 2021-11-12 上海应用技术大学 基于强化学习的近红外和可见光遥感图像配准方法
CN114359360A (zh) * 2022-03-17 2022-04-15 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN114860893A (zh) * 2022-07-06 2022-08-05 中国人民解放军国防科技大学 基于多模态数据融合与强化学习的智能决策方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101532841A (zh) * 2008-12-30 2009-09-16 华中科技大学 基于地标捕获跟踪的飞行器导航定位方法
CN106548491A (zh) * 2016-09-30 2017-03-29 深圳大学 一种图像配准方法、其图像融合方法及其装置
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
WO2018052875A1 (en) * 2016-09-15 2018-03-22 Google Llc Image depth prediction neural networks
CN108682028A (zh) * 2018-05-16 2018-10-19 陈年康 基于辐射纠正的激光点云与光学影像自动匹配方法
CN109034034A (zh) * 2018-07-12 2018-12-18 广州麦仑信息科技有限公司 一种基于强化学习算法优化卷积神经网络的静脉识别方法
CN109375235A (zh) * 2018-11-30 2019-02-22 武汉理工大学 基于深度强化神经网络的内河船舶干舷检测方法
CN109591012A (zh) * 2018-12-03 2019-04-09 深圳市越疆科技有限公司 加强学习方法、机器人和存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101532841A (zh) * 2008-12-30 2009-09-16 华中科技大学 基于地标捕获跟踪的飞行器导航定位方法
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
CN107403446A (zh) * 2016-05-18 2017-11-28 西门子保健有限责任公司 用于使用智能人工代理的图像配准的方法和系统
WO2018052875A1 (en) * 2016-09-15 2018-03-22 Google Llc Image depth prediction neural networks
CN106548491A (zh) * 2016-09-30 2017-03-29 深圳大学 一种图像配准方法、其图像融合方法及其装置
CN108682028A (zh) * 2018-05-16 2018-10-19 陈年康 基于辐射纠正的激光点云与光学影像自动匹配方法
CN109034034A (zh) * 2018-07-12 2018-12-18 广州麦仑信息科技有限公司 一种基于强化学习算法优化卷积神经网络的静脉识别方法
CN109375235A (zh) * 2018-11-30 2019-02-22 武汉理工大学 基于深度强化神经网络的内河船舶干舷检测方法
CN109591012A (zh) * 2018-12-03 2019-04-09 深圳市越疆科技有限公司 加强学习方法、机器人和存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
LIAO R等: ""An artificial agent for robust image registration"", 《PROCEEDINGS OF THE 31ST AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *
MA K等: ""Multimodal image registration with deep context reinforcement learning"", 《PROCEEDINGS OF INTERNATIONAL CONFERENCE ON MEDICAL IMAGE COMPUTING AND COMPUTER-ASSISTED INTERVENTION》 *
MNIH V等: ""A synchronous methods for deep reinforcement learning"", 《PROCEEDINGS OF INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 *
刘文竹等: ""Item2vec与改进DDPG相融合的推荐算法"", 《武汉大学学报(理学版)》 *
张法帅等: ""基于深度强化学习的无人艇航行控制"", 《计测技术》 *
王卫东等: ""图像配准和融合及其在医学影像中的应用"", 《CT理论与应用研究》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462146A (zh) * 2020-04-16 2020-07-28 成都信息工程大学 一种基于时空智能体的医学图像多模态配准方法
CN112232152A (zh) * 2020-09-30 2021-01-15 墨奇科技(北京)有限公司 非接触式指纹识别方法、装置、终端和存储介质
CN112641471A (zh) * 2020-12-30 2021-04-13 北京大学第三医院(北京大学第三临床医学院) 一种放疗专用的膀胱容量测定与三维形态评估方法与系统
CN113177601B (zh) * 2021-05-11 2022-09-06 中国科学技术大学 一种深度强化学习网络设置合理性的判别方法
CN113177601A (zh) * 2021-05-11 2021-07-27 中国科学技术大学 一种深度强化学习网络设置合理性的判别方法
CN113538534A (zh) * 2021-06-23 2021-10-22 复旦大学 一种基于深度强化学习的纳米成像的图像配准方法
CN113538534B (zh) * 2021-06-23 2022-05-20 复旦大学 一种基于深度强化学习的纳米成像的图像配准方法
CN113643339A (zh) * 2021-08-13 2021-11-12 上海应用技术大学 基于强化学习的近红外和可见光遥感图像配准方法
CN113643339B (zh) * 2021-08-13 2024-02-02 上海应用技术大学 基于强化学习的近红外和可见光遥感图像配准方法
CN114359360A (zh) * 2022-03-17 2022-04-15 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN114359360B (zh) * 2022-03-17 2022-06-10 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN114860893A (zh) * 2022-07-06 2022-08-05 中国人民解放军国防科技大学 基于多模态数据融合与强化学习的智能决策方法及装置
CN114860893B (zh) * 2022-07-06 2022-09-06 中国人民解放军国防科技大学 基于多模态数据融合与强化学习的智能决策方法及装置

Also Published As

Publication number Publication date
CN110211165B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN110211165A (zh) 一种基于异步深度强化学习的图像多模态配准方法
Zhou et al. GAN review: Models and medical image fusion applications
CN109493328B (zh) 医学图像显示方法、查看设备以及计算机设备
US11534136B2 (en) Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
CN109598722B (zh) 基于递归神经网络的图像分析方法
CN108197629B (zh) 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
CN110047056A (zh) 用深度图像到图像网络和对抗网络的跨域图像分析和合成
CN107403446A (zh) 用于使用智能人工代理的图像配准的方法和系统
CN107492071A (zh) 医学图像处理方法及设备
CN110298897A (zh) 用于正电子发射断层成像图像重建的系统和方法
CN108268870A (zh) 基于对抗学习的多尺度特征融合超声图像语义分割方法
CN110475505A (zh) 利用全卷积网络的自动分割
Jin et al. DC2Anet: generating lumbar spine MR images from CT scan data based on semi-supervised learning
CN112819831B (zh) 基于卷积Lstm及多模型融合的分割模型生成方法及装置
CN110838140A (zh) 基于混合监督学习的超声和核磁图像配准融合方法及装置
CN115731178A (zh) 一种跨模态的无监督域自适应医学图像分割方法
Singh et al. Medical image generation using generative adversarial networks
CN117078692B (zh) 一种基于自适应特征融合的医疗超声图像分割方法及系统
CN111462146A (zh) 一种基于时空智能体的医学图像多模态配准方法
CN114565816A (zh) 一种基于全局信息融合的多模态医学图像融合方法
CN113538209A (zh) 一种多模态医学影像配准方法、配准系统、计算设备和存储介质
CN111127487A (zh) 一种实时多组织医学图像的分割方法
Zhang et al. Multimodal medical volumes translation and segmentation with generative adversarial network
CN110456050A (zh) 便携式智能数字化寄生虫体外诊断仪
Wong et al. The synergy of cybernetical intelligence with medical image analysis for deep medicine: a methodological perspective

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant