CN113066111A - 一种基于ct影像的心脏二尖瓣顶点的自动定位方法 - Google Patents

一种基于ct影像的心脏二尖瓣顶点的自动定位方法 Download PDF

Info

Publication number
CN113066111A
CN113066111A CN202110274467.5A CN202110274467A CN113066111A CN 113066111 A CN113066111 A CN 113066111A CN 202110274467 A CN202110274467 A CN 202110274467A CN 113066111 A CN113066111 A CN 113066111A
Authority
CN
China
Prior art keywords
image
action
target
agent
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110274467.5A
Other languages
English (en)
Other versions
CN113066111B (zh
Inventor
卓力
王宗浩
张辉
张菁
李晓光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110274467.5A priority Critical patent/CN113066111B/zh
Publication of CN113066111A publication Critical patent/CN113066111A/zh
Application granted granted Critical
Publication of CN113066111B publication Critical patent/CN113066111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于CT影像的心脏二尖瓣顶点的自动定位方法属于医学图像解析领域。本发明首先基于深度神经网络对CT图像进行图像预处理,以实现CT图像关键特征提取与表达;然后,利用深度强化学习模型针对基于智能体智能体的CT影像标志点进行定位,对心脏二尖瓣顶点位置进行自动检测。本发明提出了一种最优路径的搜索策略,可以非常方便地在CT图像中实现计算机自动定位心脏二尖瓣顶点的位置供医生进行疾病诊断,同时随着人工指定定位位置的变化,也具备一定的扩展性,在医学图像解析上下文中有利地创建了机器图像理解。

Description

一种基于CT影像的心脏二尖瓣顶点的自动定位方法
技术领域
本发明以心脏CT扫描图像为研究对象,利用深度强化学习技术建立定位模型,属于医学影像处理领域。
背景技术
传统的基于机器学习的医学图像标志点检测仅限于学习外观模型,并彻底扫描参数空间以找到最优点,产生次优和无约束的解决方案。与外观模型或传统目标检测的搜索策略相关的任何其他元参数的特征计算和估计都是基于局部标准或预定义的启发式来执行的,这导致了适用于高度专业化任务的特定搜索策略的严格应用,而穷尽性搜索方案在准确性要求和计算效率方面受到限制。
本发明用于解决传统检测算法在医学图像分析中的局限性,方法是同时通过智能只能智能体将待检测对象的外观建模和参数搜索策略作为统一的行为任务进行自动化。传统的心脏CT信息采集涉及多步方法,其中关键步骤是定位心脏二尖瓣位置。往常在定位心脏二尖瓣的顶点位置时需要几个双斜定位器来定位,并以此得到心脏的长轴和短轴视图,但是这种方法对操作人员技术水平要求很高,并且非常耗时。本发明通过深度学习模型实现有效的层次特征提取,采用深度强化学习模型优化人工智能体的行为策略。此外,本发明的另一个目标是提供一种具有鲁棒性的解决方案,以促进评估由各种不同的医疗成像设备获得的图像,同时实现小于一到两个像素的平均检测误差。针对传统的CT对心脏二尖瓣顶点的定位存在精度低和成本高等问题,本专利提出的方法可直接用于心脏CT图像检测,通过深度强化学习进行图像处理与计算机自主决策,将目标点定位问题转化为一个目标导向的人工智能体智能体的连续决策过程。在医学图像中导航到设定的目标点。在每个时间序列中,智能体可以自主决定它要移动的方向以找到定位的目标位置,同时使用深度强化学习方法来逼近这一序列决策过程的最优解。
目前从CT图像中提取的测量精度已经达到较高水平,并使CT图像成为左心室(LV)分析的标准。尽管心脏CT成像技术已经迅速发展,在获取心脏CT采集的短轴视图方面,人工评估左室体积和质量方面仍然具有较高的地位。例如要在一次憋气中实现整个心脏的3D覆盖,从而能够准确绘制心室壁厚度,需要计算机和操作者同时进行判断。因此,精确的心脏图像进行定量分析对于计算机算法精度和人工操作者的要求较高。将深度强化学习方法应用于该问题的一个主要优点是,智能体能够同时学习搜索策略和定位目标作为统一的行为任务。
发明内容
本发明利用深度强化学习技术,提出一种心脏二尖瓣CT图像定位方法,可将其概括为一个计算机自主定位模型。
首先,利用基于SENet的深度神经网络对CT图像进行图像预处理,以实现CT图像关键特征提取与表达;然后,利用深度强化学习模型针对基于智能体智能体的CT影像标志点定位框架,对心脏二尖瓣顶点位置进行自动定位。该方案据此提出了一种最优路径的搜索策略。
为实现上述目的,本发明提供如下技术方案:一种基于CT影像的心脏二尖瓣顶点的定位方法,包括以下模块:
(1)CT影像特征提取模块。本模块用于将采集到CT多模态心脏影像数据,配准到同一空间,制作训练集、数据集,获得一批分辨率为1.25×1.25×2(mm)的短轴心脏CT图像;短轴心脏CT图像提供了左右心室(左心室和右心室)的横切面。在这些类型的图像中,特定的标志可以定义心脏的重要特征,如左心室中心(也称为左心室基础中央通路点)、前心室插入点、后心室插入点和右心室极端点。准确地识别其中的一个或多个目标点代表了建模上下文中的一个步骤。例如,可以利用右心室的插入点和极值点初始化三维分割模型,对右心室的形状施加约束。
本模块采用基于SENet网络的CNN模型提取CT图像特征,以得到CT图像的观察信息,本模块由三部分组成,是一种较为简单的卷积神经网络结构。该结构显式地建模了特征通道之间的依赖关系,通过学习的方式获取各个通道的重要程度,抑制无用特征,提升有效特征。
首先是对输入图像进行全局平均池化操作,W为图像宽度,H为图像高度,(i,j)为图像像素点,计算公式为
Figure BDA0002973853740000031
得到zc为具有C个特征通道数的特征图;再经过卷积变化和重建参数的操作获得观察状态,公式为
Figure BDA0002973853740000032
此步输出每个特征通道的权重,W为全连接层数量,值为256;然后将输出值进行参数重构,公式为
Figure BDA0002973853740000033
此时输出结果为图像原始维度,然后将其传入卷积神经网络处理。
(2)自动定位决策模块。本模块采用基于深度强化学习的深度确定性策略梯度的决策网络,让设计的人工智能体智能体观察3D CT图像中的信息作为环境信息,将环境信息作为一个观察输入到决策模型中,通过决策模型从动作集中选择一个确定的动作作为该步的动作选择。
该模块工作典型过程为:在t时刻,智能体通过从环境中获得观察信息st,设定γ=0.9表示奖励折扣因子,然后通过计算在该时刻奖励的最大收益期望,依据公式at=E[γ·rt|st]计算动作值at,此时计算期望值Q(s,a),并将新的环境图像采样用公式(1)~(3)计算新动作执行后的状态观测信息st+1。为评价此交互过程,利用强化学习方法引入了Q(s,a)函数计算最优策略,:
Figure BDA0002973853740000034
式中s=[s1,s2,...,st],a=[a1,a2,...,at],。
针对高维连续空间的动作筛选问题,基于策略梯度的深度强化学习方法是较为有效的建模工具。本发明的自动定位决策模块采用的是基于DDPG算法模型学习检测的确定性策略,该模块可实现在连续动作空间中输出一个确定的动作值。首先设定两个网络模型,分别指定为智能体行动网络和智能体评论网络,首先在随机行为策略下依据行动网络的期望最大化生成动作at
at=argmax[E(stμ)]+Ψt (5)
其中at取值范围为[0,π],Ψt为随机噪声,取值为[0.001,0.500]之间的随机数,θμ为行动网络的权值参数,参数值为0.003。为了充分利用采样数据和减少数据间的关联性,本模块采用了经验回放池机制。从经验回放池(st,at,rt,st+1)中随机采样一批包含N个样本(si,ai,ri,si+1)用来当做训练样本。
执行完动作后,智能体处于下一个状态,并将动作反馈给算法,环境给予智能体反馈,并更新观察状态。进行至下一状态后获取新的观察。观察状态空间设置为一个在图像中随机起始的标记点为中心的人工三维区域。框架经验回放池用于捕获智能体在探索目标点位置的过程中所采取的最后4个动作步骤。选用连续4个步骤用于稳定搜索轨迹,并防止智能体陷入重复循环;将动作空间设置为三维空间中的所有方向角组成的连续动作空间,移动距离为0.5个体素的长度(30像素值)。
奖励函数定义为
R=D(Pi-1,Pt)-D(Pi,Pt) (6)
其中D表示两点之间的欧氏距离。进一步表示Pi为第i步当前预测的定位目标位置,Pt为目标定位标志点的位置。两个欧式距离差即上一步和当前一步之间的差,表示智能体是更接近还是更远离期望的目标位置。在R=0的情况下,定义该智能体已经围绕定位目标附近出现小幅度振荡。
经过多步算法迭代过程,计算智能体到目标位置的欧式距离(误差),当距离小于0.01(mm)时,确定定位位置,算法停止更新。通过此过程让智能体智能体学习出一条合适的定位路线,实现准确定位。
(3)经验回放模块。本模块基于经验回放池构建,用于更有效地训练人工智能体,将最优动作值函数逼近器的参数进行定期更新。本发明中使用的经验重放机制,在这种机制中,智能体存储有限数量的之前访问过的状态(例如最后定位的位置信息),然后对该记忆信息进行采样,以更新底层神经网络的参数。对于策略的学习在一系列的事件中可以量化智能体在给定训练图像上的局部表现。在一个观察状态开始之前,从完整的训练集中会赋予智能体一个随机的图像,在任何随机的开始状态,例如,图像中的起始位置。在这一集的过程中,智能体应用策略梯度更新在这个局部环境(给定的训练CT图像)中导航。当达到目标状态(即找到地标位置或执行预定义的最大动作数)时,该轮检测结束。目标状态可能是来自图像解析的度量的综合模板,而操作集可能包括可用参数的更改,以产生最佳的度量集。这在图像空间中定义了一个路径轨迹长度Pi(mm),其中包括作为访问状态序列的应用搜索策略。这些轨迹存储在重播内存中,代表智能体在不同图像上积累的整个体验。在某些实施例中,最后的轨迹P存储为P=[P1,P2,…,Pi]。在训练过程中,每隔固定的时间间隔(每隔4-6个时间片段进行状态转换),使用经验回放模块中抽取的随机小批状态进行策略参数更新。这种方法达到了确保训练收敛的目的。更新深度神经网络在局部相关状态不能泛化。使用以前的经验的一致采样集,平均网络输入的分布,并减少振荡,确保更快和稳健的学习经验。
本发明的主要创造性体现在:
(1)本发明针对传统的CT对心脏二尖瓣顶点的定位存在精度低和成本高等问题,提出了可直接用于心脏CT图像检测标志点的检测方案,通过深度强化学习进行图像处理与计算机自主决策,将目标点定位问题转化为一个目标导向的人工智能体智能体的连续决策过程,具有稳定性好,实时性好及控制精度高等特点;
(2)本发明设计了基于SENet的神经网络提取CT图像特征和基于深度确定性策略梯度算法的决策网络,较好地在分层的CT影像中完成通过状态空间完成对训练图像的每个部分的评估,以及规划出探索训练图像的轨迹,具有结构简单等特点。
附图说明
图1:本发明整体流程框架
图2:本发明整体模型架构
图3:本发明CT特征提取模块详细架构
图4:本发明决策网络模块详细架构
图5:本发明检测执行过程示意图
图6:本发明在实际心脏CT图像中的定位效果示意图
具体实施方式
根据上述描述,以下是一个具体的实施流程,但本专利所保护的范围并不限于该实施流程。
1.收集训练数据,并将图像输入进CT特征提取模块进行预处理。采集CT多模态心脏影像数据,并配准到同一空间,以此制作训练集、数据集,对部分成像效果差的CT图像进行裁剪等预处理操作;初始数据集可能包含大约1000张短轴视图CT图像,这些图像来自于从不同医院采集获得的数百个不同的信息,并形成数百张训练图像,同时对训练图像进行预处理,将图像重采样到均匀的各向同性分辨率(例如2(mm)),并对数据进行归一化处理。采用交叉验证集,可用于量化训练期间的表现。为了让智能体学习一系列集中的最优动作策略,给智能体随机的训练图像和相应的随机开始状态。然后,智能体在选定的图像中确定性策略,在每一轮训练结束时生成一条轨迹,并将其添加到自己的经验回放池中。在探索过程中,对神经网络的参数进行周期性更新,根据当前的经验,可以更准确地逼近最优目标Q(s,a)函数。这个过程以迭代的方式重复,直到对验证集的检测精度达到最小。
2.提取CT图像中的心脏特征,包含二尖瓣相对位置等信息,将收集好的训练数据输入模型开始训练。设定100张交叉验证图像和100张测试图像。将输入定义为一个三维立方体素,在图像中随机起始的标记点为中心的棱长为60像素点,作为待观察的三维区域,将图像输入至CT影像特征提取模块。
3.本步骤基于深度强化学习方法,通过学习对目标标志点的动作来对CT图像中标志点进行自动定位。输入为步骤2中得到的观察状态,通过决策网络计算出相应的动作值。设置环境为采集的经过预处理和配准的CT图像,设定状态空间为一个包含确定长度、宽度和深度的3D空间,表示为由参数空间定义的大量体素,焦点定义为体素集合的中心坐标。状态空间的分辨率由尺度空间指定。当分辨率更改=高时,体素是从更小的体积(更大的密度)的图像数据中采样的。相反,在较低的分辨率下,体素是来自较大体积(较小密度)的图像数据的样本。
4.将预处理好的图像输入决策网络模块,在连续动作空间上输出一个确定的动作值,参数动作定义为状态空间位置一个体素在空间任意方向上的移动。学习到的人工代理应用于测试图像,以自动解析测试图像的图像内容,以获得一个地标位置。应用学习到的人工智能体包括评估当前状态空间的最优动作值函数近似器。在每个当前状态空间中,被学习的智能体同时获得所有可能动作的最优动作值函数逼近器,并应用最优动作值函数逼近器的奖励策略。例如,应用最优行为-价值函数近似器的奖励策略,包括通过改变参数空间的行为和改变尺度空间的行为来平衡未来累积奖励值的最大化,从而决定智能体的下一步行为。经过多次行动后,智能体的移动形成了一条以智能体区域为中心的区域3D轨迹,该轨迹由多个棱长为60像素值大小的三维体素中心点构成。
5.计算智能体到目标定位位置的欧式距离(误差)。经过多步算法迭代过程,当智能体中心点和目标定位点的欧式距离小于0.01mm时停止更新,即达到成功定位的目的。通过此过程让智能体学习出一条合适的路线,实现准确定位。
具体的工作流程可以描述为:
(1)给定M个训练图像,首先人工标记30%的图像作为训练样本;
(2)初始化系统,包括初始化训练网络,确定工作时间要求,以及初始化经验回放模块;
(3)初始化探索因子τ;
(4)记录智能体初始化的位置;
(5)将CT图像进行顺序编码,令图像标号从1编码到M:
(6)定义最大迭代轮次N;
(7)定义一次探索中最大检测步数T:
(8)选择智能体起始点,将心脏二尖瓣图像输入至CT影像特征提取模块,首先将3D图像压缩为2D图像,设定W为图像宽度为60像素,H为图像高度为60像素。将图像宽高根据公式
Figure BDA0002973853740000081
计算二维特征通道的权值,根据公式
Figure BDA0002973853740000082
得到s为特征通道的权重;
Figure BDA0002973853740000083
其中Fscale为点积计算,可以将图像恢复为原始的维度;最后再通过卷积层和全连接层获取到处理后的图像,将其设定为观察状态st
(9)通过公式at=argmax[E(stμ)]+Ψt的随机策略计算动作值at
(10)在经验池中随机采样一批含S个样本(sk,ak,rk,sk+1);
(11)按照既定策略进行轨迹移动;
(12)依据公式R=D(Pi-1,Pt)-D(Pi,Pt)计算环境奖励;
(13)判断是否达到结束条件,如果未结束,重复进行步骤(8)~步骤(14);
(14)判断结束,输出检测结果、误差或者报告未检测成功。
本发明所使用的人工智能体系统在某些任务案例中可进一步自适应,也可以进一步优化用户输入、针对工作环境或其他环境提出新的需求。上述技术对机器自主学习的优化方法可以进一步用来针对不同CT器官行为,重复图像质量设置,自优化工作流基于当地环境,依据在不同医学影像中的确定位置,可以提供所标注的医学图像和所生成的注释的检测实现。

Claims (1)

1.一种基于CT影像的心脏二尖瓣顶点的自动定位方法,其特征在于,包括以下步骤:
(1)设计CT影像特征提取
①对输入图像进行全局平均池化操作
对输入图像进行全局平均池化操作,公式为
Figure FDA0002973853730000011
②卷积建模操作
根据公式(1)得到具有C个特征通道数的特征图;再经过卷积建模过程获得观察状态,公式为
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)) (2)
③参数重构操作
将公式(2)的输出值进行参数重构,公式为
Figure FDA0002973853730000012
其中Fscale(uc,sc)为uc和sc之间的通道积,然后将其传入卷积神经网络处理;
(2)自动定位决策
采用基于深度强化学习的深度确定性策略梯度的决策网络,让设计的人工智能体智能体观察3D CT图像中的信息作为环境信息,将环境信息作为一个观察输入到决策模型中,通过决策模型从动作集中选择一个确定的动作;
①策略选择操作
在t时刻,智能体通过从3D图像中获得观测信息st,然后以策略μ执行某个动作at=μ(st),再以此给予智能体奖励rt,并获得新动作;执行后的状态观测信息st+1;为评价此交互过程,利用强化学习方法引入了Q函数计算最优策略:
Figure FDA0002973853730000013
式中s=[s1,s2,...,st],a=[a1,a2,...,at],γ∈(0,1)表示奖励折扣因子,Q函数则描述在状态s下采取动作a所获得的价值期望;
在随机行为策略下生成行动者网络的动作:
at=μ(stμ)+Ψt (5)
其中Ψt为随机噪声,θμ为行动者网络的权值参数;为了充分利用采样数据和减少数据间的关联性,采用了经验回放池机制;
②经验回放操作
从经验回放池(st,at,rt,st+1)中随机采样一批包含N个样本(si,ai,ri,si+1)后,通过最小化损失函数来更新评论家网络:
Figure FDA0002973853730000021
yi=ri+γQ'(si+1,μ'(si+1μ')|θQ') (6)
其中,Q'和μ'分别为评论家和行动者的目标网络;行动者网络则由策略梯度来更新:
Figure FDA0002973853730000022
③目标网络更新操作
根据公式(6)、公式(7)计算的策略梯度更新算法模型,如公式(8)
θQ'=τθQ+(1-τ)θQ'
θμ'=τθμ+(1-τ)θμ' (8)
式中τ∈(0,1),代表网络更新因子;
④策略执行操作
智能体执行动作,并将动作反馈给算法,环境给予智能体反馈,并更新观察状态;进行至下一状态后获取新的观察;观察状态集设置为一个在图像中随机起始的标记点为中心的三维区域;框架经验回放池用于捕获智能体在探索目标点位置的过程中所采取的最后4个动作步骤;选用连续4个步骤用于稳定搜索轨迹,并防止人工智能智能体陷入重复循环;将动作集设置为三维空间中的所有方向角组成的连续动作空间,移动距离为0.5个体素的长度;
奖励函数定义为
R=D(Pi-1,Pt)-D(Pi,Pt) (9)
其中D表示两点之间的欧氏距离;进一步表示Pi为第i步当前预测的定位目标位置,Pt为目标定位标志点的位置;根据公式(9)计算检测的误差值,两个欧式距离差表示上一步和当前一步之间的差,表示智能体是更接近还是更远离期望的目标位置;在R=0的情况下,该智能体已经围绕定位目标附近出现小幅度振荡,当距离小于0.01mm时,确定定位位置,算法停止更新。
CN202110274467.5A 2021-03-12 2021-03-12 一种基于ct影像的心脏二尖瓣顶点的自动定位方法 Active CN113066111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110274467.5A CN113066111B (zh) 2021-03-12 2021-03-12 一种基于ct影像的心脏二尖瓣顶点的自动定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110274467.5A CN113066111B (zh) 2021-03-12 2021-03-12 一种基于ct影像的心脏二尖瓣顶点的自动定位方法

Publications (2)

Publication Number Publication Date
CN113066111A true CN113066111A (zh) 2021-07-02
CN113066111B CN113066111B (zh) 2024-03-01

Family

ID=76560993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110274467.5A Active CN113066111B (zh) 2021-03-12 2021-03-12 一种基于ct影像的心脏二尖瓣顶点的自动定位方法

Country Status (1)

Country Link
CN (1) CN113066111B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627054A (zh) * 2022-02-11 2022-06-14 北京理工大学 基于多尺度强化学习的ct-x图像配准方法及装置
CN117934465A (zh) * 2024-03-21 2024-04-26 赛诺威盛科技(北京)股份有限公司 Tmvr参数确定方法、装置和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373160A (zh) * 2016-08-31 2017-02-01 清华大学 一种基于深度强化学习的摄像机主动目标定位方法
CN106970615A (zh) * 2017-03-21 2017-07-21 西北工业大学 一种深度强化学习的实时在线路径规划方法
CN108090443A (zh) * 2017-12-15 2018-05-29 华南理工大学 基于深度强化学习的场景文本检测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373160A (zh) * 2016-08-31 2017-02-01 清华大学 一种基于深度强化学习的摄像机主动目标定位方法
CN106970615A (zh) * 2017-03-21 2017-07-21 西北工业大学 一种深度强化学习的实时在线路径规划方法
CN108090443A (zh) * 2017-12-15 2018-05-29 华南理工大学 基于深度强化学习的场景文本检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114627054A (zh) * 2022-02-11 2022-06-14 北京理工大学 基于多尺度强化学习的ct-x图像配准方法及装置
CN117934465A (zh) * 2024-03-21 2024-04-26 赛诺威盛科技(北京)股份有限公司 Tmvr参数确定方法、装置和设备

Also Published As

Publication number Publication date
CN113066111B (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
US11741605B2 (en) Method and system for image registration using an intelligent artificial agent
CN111476292B (zh) 医学图像分类处理人工智能的小样本元学习训练方法
US10096107B2 (en) Intelligent medical image landmark detection
JP7410499B2 (ja) 組立ロボットの遠隔操作環境のデジタルツインモデリング方法及びシステム
US10235606B2 (en) Method and system for convolutional neural network regression based 2D/3D image registration
US9785858B2 (en) Method and system for hierarchical parsing and semantic navigation of full body computed tomography data
EP3100236B1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
TW201923776A (zh) 超音波影像上的自動化測量及用於自動化測量的收集的品質指示器
US8693753B2 (en) Medical image processing device, method and program
US20170053438A1 (en) Method and system for reconstructing a three-dimensional model of point clouds
JP2020516427A (ja) 腫瘍進行のrecist評価
CN107680107B (zh) 一种基于多图谱的扩散张量磁共振图像的自动分割方法
CN113066111B (zh) 一种基于ct影像的心脏二尖瓣顶点的自动定位方法
CN115345938B (zh) 基于全局到局部的头影标记点定位方法、设备及介质
KR102442090B1 (ko) 수술용 내비게이션 시스템에서의 점정합 방법
JP2009515585A (ja) ボリュメトリック位置合わせのための方法、システムおよびコンピュータプログラム
CN114792326A (zh) 一种基于结构光的手术导航点云分割与配准方法
CN111563496A (zh) 用于图像采集的自动视图规划的连续学习
KR102442093B1 (ko) 수술용 내비게이션 시스템에서의 표면 정합 개선 방법
CN115662601A (zh) 基于视觉与模仿强化学习的b超自动检测方法及系统
US11837352B2 (en) Body representations
CN113274051B (zh) 超声辅助扫查方法、装置、电子设备和存储介质
EP3869458A1 (en) Annular structure representation
CN112330603A (zh) 基于软组织表面形变估计组织内部目标运动的系统与方法
CN114663432B (zh) 骨骼模型修正方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant