CN111666998B - 一种基于目标点检测的内窥镜智能插管决策方法 - Google Patents
一种基于目标点检测的内窥镜智能插管决策方法 Download PDFInfo
- Publication number
- CN111666998B CN111666998B CN202010493487.7A CN202010493487A CN111666998B CN 111666998 B CN111666998 B CN 111666998B CN 202010493487 A CN202010493487 A CN 202010493487A CN 111666998 B CN111666998 B CN 111666998B
- Authority
- CN
- China
- Prior art keywords
- target point
- network
- endoscope
- decision
- intubation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Computational Linguistics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Multimedia (AREA)
- Biodiversity & Conservation Biology (AREA)
- Endoscopes (AREA)
Abstract
本发明公开了一种基于目标点检测的内窥镜智能插管决策方法,包括以下步骤:标记训练数据;训练目标点分类网络;训练目标点坐标回归网络;拼接实现整体目标点回归网络;以及内窥镜插管决策模块。本发明将感知与决策显式分离,使得网络更加透明化,具有可解释性,便于修改,移植与拓展。单就算法而言,回归目标点位置,为连续决策提供了基础,有利于实现更高精度的插管决策。
Description
技术领域
本发明涉及计算机视觉与医疗图像处理领域,具体涉及一种基于目标点检测的内窥镜智能插管决策方法。
背景技术
内窥镜是一种集中了传统光学、人体工程学、精密机械、现代电子、数学、软件等于一体的检测仪器。它可以经口腔进入胃内、气管或经其他天然孔道进入体内,看到X射线不能显示的病变。目前内窥镜插管均由专业医生操作完成,这极大地增加了医生的工作负担。除此之外,内窥镜插管场景多为人体狭窄的腔道,阴暗且缺乏纹理,肉眼很难辨识,导致人员训练成本较高,人工操作缺乏普适性,难以应对许多复杂的插管问题。而使用计算机辅助插管,进而实现整个内窥镜插管操作的自动化,将大大减轻医师的负担,同时对患者刺激相对常规人工操作更小,成功率更高,减少医生和患者的直接接触,降低交叉感染风险。最近,深度学习的发展为内窥镜插管决策提供了新的可能,其借助于大量训练数据和高速GPU设备,只需要设定好相应的插管操作规则与指令集,就可大大提升内窥镜插管算法的性能。
目前国内外使用深度学习来辅助进行方向决策的研究都已经取得了一定的成果,其可行性已经经过了大量的实验验证。在无人驾驶领域,来自NVIDIA公司的研究人员们搭建了一个卷积神经网络对道路上的车辆行驶过程的方向盘转角进行决策,这是一种端到端的分类决策方法,车载摄像头拍摄到图像帧,经由网络直接输出对应的方向盘转向角决策命令。来自瑞士的Antonio Loquercio等人基于残差网络设计了一个用于四旋翼无人机沿道路在水平面上自动行驶的卷积神经网络DroNet,网络一共有两个输出,一个输出是无人机转向角决策命令,另一个输出是无人机碰撞障碍物的概率,这也是一种端到端的决策方法。
从理论来说,内窥镜插管与自动驾驶与无人机导航类似,都属于前进方向决策的问题。许多现有的端到端决策方案将决策问题映射为图像分类问题,首先对输入的拍摄的视频帧图像进行特征分析,根据特征语义分类输出不同的方向指令,实行方向决策。这种方法虽然有效且便捷,可以实现初步决策,然而却只能给出粗略的方向信息,而无法给出连续的具体的旋转和弯曲角度。对于内窥镜插管这一连续的变化过程,离散的、粗略的方向指令是难以控制内窥镜插管机器做出精确智能的操作的。且端到端的黑箱模型缺少中间步骤,整体缺乏可解释性,意味着进一步调优将变得困难,无法细化整体的问题所在,也难以从单个步骤入手提升整体的性能,不便于进一步改进与移植,需要一种更加灵活的,更透明的内窥镜插管决策方案。
发明内容
本发明所要解决的技术问题是提供一种基于目标点检测的内窥镜智能插管决策方法,对内窥镜插管决策进行一定程度的“解耦”,使得感知与决策分步走,流程更加透明,便于网络调优与模块改进,高效地完成内窥镜智能插管任务。
为解决上述技术问题,本发明采用的技术方案是:
一种基于目标点检测的内窥镜智能插管决策方法,包括以下步骤:
步骤一:标记训练数据
对内窥镜插管场景视频每一帧图片进行“有无目标点”及“目标点坐标”标记;对“无目标点”的数据,按照图像分类的方法直接将图像标签标注为“无目标点”;对“有目标点”的数据标记为该图像插管前进方向目标点的坐标位置;
步骤二:训练目标点分类网络
输入插管场景视频帧图像,通过卷积神经网络获取场景图片的高层语义特征图,后接全连接神经网络输出有无目标点预测结果,通过交叉熵损失函数和反向传播不断优化,得到最优目标点有无分类网络;
步骤三:训练目标点坐标回归网络
去掉分类网络的全连接部分,固定卷积部分的权重,与目标点坐标回归网络拼接;同时只输入“有目标点”视频帧图片序列进行训练,由分类网络得到高层语义特征图,然后输入回归网络,经由卷积层,残差网络与全连接层,通过均方误差损失函数和反向传播不断优化,得到最优目标点坐标回归网络;
步骤四:拼接实现整体目标点回归网络
将完整的目标点分类网络与目标点坐标回归网络拼接,冻结所有权重;输入任意图像视频,经由分类网络输出其有无目标点;若有,则进一步经由目标点回归网络输出目标点位置;若无,则输出无目标点;
步骤五:内窥镜插管决策
对于输出为无目标点的数据,则直接决策输出“后退”指令,内窥镜按默认速度执行后退指令直到当前帧输出其他决策指令为止;对于输出为目标点坐标信息的数据,以图像左上角为原点建立像素坐标系求得目标点坐标,然后映射至以图像中心点为原点的图像坐标系,再映射到极坐标系,最后决策输出内窥镜旋转角度与弯曲程度的具体数值。
进一步地,在步骤二中,所述分类网络由归一化预处理部分、卷积模块、残差网络与全连接层组成。
进一步地,在步骤三中,所述目标点坐标回归网络由改进的Inception卷积模块与全连接层组成,其中Inception模块通过使用多尺度的不同的滤波器子层对输入分别进行处理并拼接,提取不同尺度的特征信息。
进一步地,在步骤五中,所述极坐标系的极角的范围为[-180°,180°],极径范围归一化为[-1,1];极角为负则代表顺时针旋转,极角为正则代表顺时针旋转,而极径的值始终为正,代表只有前进才进行方向决策,后退则按默认指令执行。
与现有技术相比,本发明的有益效果是:
1)分类与回归方法结合:本发明利用分类网络实现视频帧图像有无目标点分类,利用回归网络实现目标点位置预测,提升了插管决策中场景图像的语义分析能力,同时回归方法为连续决策提供了基础,有利于实现更高精度的插管决策。
2)感知决策步骤显式分离:本发明将感知模块与决策模块分离,两步走更加符合人的思维模式,也更符合透明化的系统思维,便于修改,移植与拓展。
3)方法拓展:本发明简单、高效且快速地完成了人体内部腔道插管决策任务,能实时、精确地计算内窥镜前进方向,可拓展借鉴用于跟踪检测与自动驾驶等更多领域。
附图说明
图1为标记训练数据的示意图。
图2为目标点分类网络示意图。
图3为目标点坐标回归网络示意图。
图4为Inception模块一示意图。
图5为Inception模块二示意图。
图6为Inception模块三示意图。
图7为拼接目标点回归示意图。
图8为无目标点插管决策模块示意图。
图9为有目标点为插管决策模块示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明希望模仿人类医生插管的决策步骤,先对内窥镜视频帧图像进行目标点检测,搜寻到准确位置,然后将此坐标作为决策的依据,计算输出决策结果。这种方法将感知与决策两个步骤分开,更加符合人类的思维模式,也更具有鲁棒性。这种方法可以对端到端的黑箱模型进行一定程度的“解耦”,使系统的决策流程更加透明化,便于更精细化的操作与进一步的准确性的提升。
由于本发明具有很强的拓展性与移植性,故暂时忽略具体的硬件设备,只谈算法实现方式。本发明可以在Windows和Linux平台上实现,编程语言也是可以选择的,本发明方法具体包括以下步骤:
步骤一:标记训练数据
内窥镜设备都会带有一个操纵杆,可以通过操纵杆实现前端镜头上下弯曲,同时由于其圆柱形的镜管构造,可以很方便的绕镜管轴进行旋转。另外,内窥镜本身也可以在外力(如人力)作用下沿镜管方向前进后退,故内窥镜的自由度为3。在决策任务中,只需要考虑镜管前进方向的旋转与弯曲,后退则按默认设置匀速后退,等待新一轮指令。
如图1所示,操作者可从内窥镜影像帧明显观察到前进方向,但由于人体腔道本身物理限制,并不是所有图像都能观察到前进目标,有些图像缺乏可观测目标点。本发明将整个数据集分为“无目标点”与“有目标点”两部分标注,前者标注为“无目标点”,后者按照目标点检测的方法,每张视频帧样本标签为该图像插管目标的位置信息(即坐标点)。然而,由于单独的坐标点相对于一整副图像来说过小,人工标注单点的随机性过大,而标注目标区域的标注要更为合理。因此,本发明先使用一个能完全内切目标洞口区域的矩形标记样本,再通过矩形四个点的坐标计算得到其形心作为目标点。为了避免每张图片中冗余的计算,在标注需要前先对视频帧进行预处理,矩形区域标注的过程使用了开源的目标检测问题标注工具Label-Img。总的来说,样本数据的标注流程如下:
1.预处理:将视频帧尺度变换为720×540大小,再裁剪中间视野部分,得到460×460的有效图像。
2.类别划分:对于“无目标点”这一部分的数据,直接标注为“无目标”标签然后结束流程,对于“有目标点”这一部分的数据,按照后续步骤3、步骤4进行标注工作。
3.标注矩形目标区域:借助LabelImg工具对插管目标区域进行框选,保存得到矩形区域四个顶点以图像左上角为坐标原点的坐标信息。
4.目标点坐标计算:通过得到的矩形目标区域四个顶点的坐标计算形心,得到目标点相对于图像左上角的坐标位置,x与y的坐标值范围均为[0,459]。采用图像左上角为坐标原点的原因在于使坐标点的x值与y值均为非负,再加上后续网络中使用的ReLU激活函数,使网络输出值始终非负,便于反向传播训练。
步骤二:训练目标点分类网络
本发明设计的完整的目标点分类网络如图2所示。网络中输入场景视频即图片序列,通过卷积块与残差块逐渐获取运动场景图片的高层语义特征图,后接全连接模块输出分类结果。分类网络的任务只是检测有无目标点的二分类任务,且两类图像区别较为明显,类间差距较大,因此网络层数不用太深,采用简单的卷积神经网络便可以完成目标。
网络中,卷积块由一层卷积层、一层批标准化层(Batch Normalization,BN)与一层激活层顺序连接组成,所示。卷积块采用BN批标准化,ReLU激活函数,3×3的卷积的结构。在该卷积神经网络中,所有的卷积均采用步长为1的方式,经过卷积模块,特征图尺寸不变。卷积块一中卷积核大小为5×5,卷积块二中卷积核大小为3×3,填充方式为same padding。卷积层之间或卷积层与输入层之间关系如下式:
式中,Conv(i,j)表示第k卷积层中i行j列的数据,Wk-1,k(m,n)表示第k-1卷积层到第k卷积层的卷积核中第m行n列的数据,bk-1,k表示第k-1个隐含层向第k个隐含层的线性单元的链接偏置;I表示输入层的输入图片,Wi,k(m,n)表示输入层向第k个隐含层的线性单元的链接权重,bi,k表示输入层向第k个隐含层的线性单元的链接偏置。
此外,为了提升分类性能,本发明使用了一种在ResnetV2网络模型中提出的残差块结构。这种在网络结构中加入捷径连接(shortcut)的方法可以使网络更容易学习恒等映射。
输入图像先通过归一化层将取值[0,255]范围的像素点归一化到[0,1],这么做可以加快网络学习收敛的速度,接着先后通过卷积块一与卷积块二提取特征,再经过一个最大值池化层(池化滤波器大小3×3,步长为2)下采样,得到的特征图经过一层卷积处理后送入两个残差块继续提取特征,为了减少网络参数,最后一层卷积输出的特征图经过全局平均池化层处理为特征向量后送入全连接层,由于是二分类,所以全连接层的神经元个数为2,最后这两个神经元的输出经由softmax层输出分类结果。整个网络通过交叉熵损失函数不断优化,得到最优有无目标点分类网络。交叉熵损失函数如下式:
步骤三:训练目标点坐标回归网络
本发明设计的目标点坐标回归网络如图3所示。输入分类网络卷积部分提取的完整的特征图,后接三种改进的Inception模块组成的卷积网络,提取多尺度的高层语义特征,由全连接层输出回归坐标。
Inception模块设计初衷在于增加网络的稀疏性,同时又不影响神经网络的计算加速。Inception模块通过使用多尺度的不同的滤波器子层(典型的Inception模块包含一个1×1大小的卷积核,一个3×3大小的卷积核,一个5×5大小的卷积核以及一个3×3的最大值池化)对输入分别进行处理,再把四个子层的输出级联起来(在特征通道上进行堆叠组合),经过ReLU激活函数后传送给下一个Inception模块。本发明一共使用了三种细化处理的Inception模块,分别为Inc1,Inc2,Inc3,具体如图4,图5,图6所示。
本发明的回归网络还使用了全局平均值池化层来代替传统卷积神经网络最后输出的特征图经过展平层(Flatten)与一层全连接层相连的结构,回归子网络最后一层全连接层的神经元数目为2,这是因为输出的坐标信息包含横坐标x与纵坐标y两个值。整个网络通过目标点坐标的预测值与真实值的均方误差损失函数(Mean Square Error,MSE)进行训练,如下式:
步骤四:拼接实现整体目标点回归网络
如图7所示,按照先分类再回归的流程,将分类网络与回归网络组合起来,冻结权重。输入任意图像视频,经由分类网络输出的特征图一方面继续经过后续的全局平均值池化层、全连接层以及softmax输出目标点有无分类结果,另一方面作为回归网络的输入,通过Iception模块多尺度卷积处理与下采样继续提取深层特征,并最后输出坐标点结果。注意,并不是所有的输入图像在分类网络完成特征提取后都会输入回归网络,只有当分类子网络的分类结果为有目标点时,才会激活回归网络,输出回归的目标点坐标。
步骤五:内窥镜插管决策模块
内窥镜插管决策模块接收目标点信息输入,输出决策结果。对于无目标点的数据,如图8所示,则直接决策输出“后退”指令,内窥镜按默认速度执行后退指令直到当前帧的决策输为其他决策指令为止。
对于有目标点坐标信息的数据,如图9所示,基于先旋转再弯曲的操作流程,先将以图像左上角为原点的像素坐标系映射为以图像中心点(像素坐标系中点(229.5,229.5))为原点的图像坐标系,再将该图像坐标系的目标点坐标映射到极坐标系。由于表示内窥镜前端弯曲方向的笛卡尔坐标系y轴在极坐标系中对应90°,因此需要为坐标变换后的极坐标值添加一个-90°的补偿,使竖直向上成为极轴,则此时极坐标值的极角代表内窥镜旋转的角度,极径代表内窥镜弯曲的程度,极角的范围为[-180°,180°],极径范围由[-229.5,229.5]归一化为[-1,1]。极角为负则代表顺时针旋转,极角为正则代表顺时针旋转,而极径的值始终为正。同时,也为了使每次操作的行程最小,当旋转角度大于90°或者小于-90°时,则输出对偶的决策指令,例如“旋转106°向上弯曲0.72°”对偶的决策指令是“旋转-74°向下弯曲0.72°”。
结合图9来分别讲解决策规则。图中目标点(298.57,351.02),先将像素坐标系下的目标点坐标映射为图像中心点直角坐标系坐标,为(39.07,-91.52),再将坐标值映射到极坐标系下,由规则可得决策输出为“逆时针旋转23.18°-向下弯曲0.38°”指令。
Claims (3)
1.一种基于目标点检测的内窥镜智能插管决策方法,其特征在于,包括以下步骤:
步骤一:标记训练数据
对内窥镜插管场景视频每一帧图片进行“有无目标点”及“目标点坐标”标记;对“无目标点”的数据,按照图像分类的方法直接将图像标签标注为“无目标点”;对“有目标点”的数据标记为该图像插管前进方向目标点的坐标位置;
步骤二:训练目标点分类网络
输入插管场景视频帧图像,通过卷积神经网络获取场景图片的高层语义特征图,后接全连接神经网络输出有无目标点预测结果,通过交叉熵损失函数和反向传播不断优化,得到最优目标点有无分类网络;
步骤三:训练目标点坐标回归网络
去掉分类网络的全连接部分,固定卷积部分的权重,与目标点坐标回归网络拼接;同时输入“有目标点”视频帧图片序列进行训练,由分类网络得到高层语义特征图,然后输入回归网络,经由卷积层,残差网络与全连接层,通过均方误差损失函数和反向传播不断优化,得到最优目标点坐标回归网络;
步骤四:拼接实现整体目标点回归网络
将完整的目标点分类网络与目标点坐标回归网络拼接,冻结所有权重;输入任意图像视频,经由分类网络输出其有无目标点;若有,则进一步经由目标点回归网络输出目标点位置;若无,则输出无目标点;
步骤五:内窥镜插管决策
对于输出为无目标点的数据,则直接决策输出“后退”指令,内窥镜按默认速度执行后退指令直到当前帧输出其他决策指令为止;对于输出为目标点坐标信息的数据,以图像左上角为原点建立像素坐标系求得目标点坐标,然后映射至以图像中心点为原点的图像坐标系,再映射到极坐标系,最后决策输出内窥镜旋转角度与弯曲程度的具体数值;极角代表内窥镜旋转的角度,极径代表内窥镜弯曲的程度;所述极坐标系的极角的范围为[-180°,180°],极径范围归一化为[-1,1];极角为负则代表顺时针旋转,极角为正则代表顺时针旋转,而极径的值始终为正,代表只有前进才进行方向决策,后退则按默认指令执行。
2.如权利要求1所述的一种基于目标点检测的内窥镜智能插管决策方法,其特征在于,在步骤二中,所述分类网络由归一化预处理部分、卷积模块、残差网络与全连接层组成。
3.如权利要求1所述的一种基于目标点检测的内窥镜智能插管决策方法,其特征在于,在步骤三中,所述目标点坐标回归网络由改进的Inception卷积模块与全连接层组成,其中Inception模块通过使用多尺度的不同的滤波器子层对输入分别进行处理并拼接,提取不同尺度的特征信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493487.7A CN111666998B (zh) | 2020-06-03 | 2020-06-03 | 一种基于目标点检测的内窥镜智能插管决策方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493487.7A CN111666998B (zh) | 2020-06-03 | 2020-06-03 | 一种基于目标点检测的内窥镜智能插管决策方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111666998A CN111666998A (zh) | 2020-09-15 |
CN111666998B true CN111666998B (zh) | 2022-04-22 |
Family
ID=72385607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010493487.7A Active CN111666998B (zh) | 2020-06-03 | 2020-06-03 | 一种基于目标点检测的内窥镜智能插管决策方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111666998B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560979A (zh) * | 2020-12-24 | 2021-03-26 | 江苏禹盛科技有限公司 | 基于全卷积一阶目标检测的特征融合方法、设备及介质 |
CN112766416B (zh) * | 2021-02-10 | 2023-06-30 | 中国科学院深圳先进技术研究院 | 一种消化内镜导航方法和系统 |
CN113096079B (zh) * | 2021-03-30 | 2023-12-29 | 四川大学华西第二医院 | 图像分析系统及其构建方法 |
CN113111937A (zh) * | 2021-04-09 | 2021-07-13 | 中国工程物理研究院电子工程研究所 | 基于深度学习的图像匹配方法 |
CN113269188B (zh) * | 2021-06-17 | 2023-03-14 | 华南农业大学 | 一种标记点及其像素坐标检测方法 |
CN113487605B (zh) * | 2021-09-03 | 2021-11-19 | 北京字节跳动网络技术有限公司 | 用于内窥镜的组织腔体定位方法、装置、介质及设备 |
CN113487609B (zh) * | 2021-09-06 | 2021-12-07 | 北京字节跳动网络技术有限公司 | 组织腔体的定位方法、装置、可读介质和电子设备 |
CN113486990B (zh) * | 2021-09-06 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 内窥镜图像分类模型的训练方法、图像分类方法和装置 |
CN115082739B (zh) * | 2022-07-01 | 2023-09-01 | 苏州慧维智能医疗科技有限公司 | 基于卷积神经网络的内窥镜评估方法及评估系统 |
CN116824272B (zh) * | 2023-08-10 | 2024-02-13 | 湖北工业大学 | 基于旋转特征的特征增强目标检测方法 |
CN118016282A (zh) * | 2024-04-08 | 2024-05-10 | 中国人民解放军联勤保障部队第九八〇医院 | 一种基于机器学习的儿科重症监护辅助系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009051698A2 (en) * | 2007-10-12 | 2009-04-23 | Beth Israel Deaconess Medical Center | Catheter guided endotracheal intubation |
CN105635974A (zh) * | 2016-03-17 | 2016-06-01 | 南京邮电大学 | 一种基于方向决策的动态路径节点定位方法 |
CN106897738A (zh) * | 2017-01-22 | 2017-06-27 | 华南理工大学 | 一种基于半监督学习的行人检测方法 |
US9928342B1 (en) * | 2015-02-06 | 2018-03-27 | Brain Trust Innovations I, Llc | System, medical item including RFID chip, server and method for capturing medical data |
CN107895349A (zh) * | 2017-10-23 | 2018-04-10 | 电子科技大学 | 一种基于合成的内窥镜视频去模糊方法 |
CN109584229A (zh) * | 2018-11-28 | 2019-04-05 | 武汉大学人民医院(湖北省人民医院) | 一种内镜下逆行胰胆管造影术实时辅助诊断系统及方法 |
CN110424075A (zh) * | 2019-09-04 | 2019-11-08 | 中国科学院重庆绿色智能技术研究院 | 一种纺织机器人上位机智能落纱控制系统及方法 |
CN110473619A (zh) * | 2019-08-16 | 2019-11-19 | 电子科技大学 | 基于深度学习的纤支镜插管辅助决策方法 |
CN111588342A (zh) * | 2020-06-03 | 2020-08-28 | 电子科技大学 | 一种纤支镜插管智能辅助系统 |
WO2020191269A1 (en) * | 2019-03-21 | 2020-09-24 | The Brigham And Women's Hospital, Inc. | Robotic artificial intelligence nasal/oral/ rectal enteric tube |
CN212547915U (zh) * | 2020-04-01 | 2021-02-19 | 刘军乐 | 一种用于困难角度分支动脉插管的侧方定向介入导管 |
WO2021214754A1 (en) * | 2020-04-19 | 2021-10-28 | Xact Robotics Ltd. | Optimizing checkpoint locations along an insertion trajectory of a medical instrument using data analysis |
-
2020
- 2020-06-03 CN CN202010493487.7A patent/CN111666998B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009051698A2 (en) * | 2007-10-12 | 2009-04-23 | Beth Israel Deaconess Medical Center | Catheter guided endotracheal intubation |
US9928342B1 (en) * | 2015-02-06 | 2018-03-27 | Brain Trust Innovations I, Llc | System, medical item including RFID chip, server and method for capturing medical data |
CN105635974A (zh) * | 2016-03-17 | 2016-06-01 | 南京邮电大学 | 一种基于方向决策的动态路径节点定位方法 |
CN106897738A (zh) * | 2017-01-22 | 2017-06-27 | 华南理工大学 | 一种基于半监督学习的行人检测方法 |
CN107895349A (zh) * | 2017-10-23 | 2018-04-10 | 电子科技大学 | 一种基于合成的内窥镜视频去模糊方法 |
CN109584229A (zh) * | 2018-11-28 | 2019-04-05 | 武汉大学人民医院(湖北省人民医院) | 一种内镜下逆行胰胆管造影术实时辅助诊断系统及方法 |
WO2020191269A1 (en) * | 2019-03-21 | 2020-09-24 | The Brigham And Women's Hospital, Inc. | Robotic artificial intelligence nasal/oral/ rectal enteric tube |
CN110473619A (zh) * | 2019-08-16 | 2019-11-19 | 电子科技大学 | 基于深度学习的纤支镜插管辅助决策方法 |
CN110424075A (zh) * | 2019-09-04 | 2019-11-08 | 中国科学院重庆绿色智能技术研究院 | 一种纺织机器人上位机智能落纱控制系统及方法 |
CN212547915U (zh) * | 2020-04-01 | 2021-02-19 | 刘军乐 | 一种用于困难角度分支动脉插管的侧方定向介入导管 |
WO2021214754A1 (en) * | 2020-04-19 | 2021-10-28 | Xact Robotics Ltd. | Optimizing checkpoint locations along an insertion trajectory of a medical instrument using data analysis |
WO2021214751A1 (en) * | 2020-04-19 | 2021-10-28 | Xact Robotics Ltd. | Algorithm-based methods for predicting and/or detecting a clinical condition related to insertion of a medical instrument toward an internal target |
CN111588342A (zh) * | 2020-06-03 | 2020-08-28 | 电子科技大学 | 一种纤支镜插管智能辅助系统 |
Non-Patent Citations (8)
Title |
---|
A Novel Artificial Intelligence System for Endotracheal Intubation;Jestin N. Carlson等;《Prehospital Emergency Care》;20160317;第20卷(第5期);第667-671页 * |
Classification of Upper Airways Images for Endotracheal Intubation Verification;Dror Lederman等;《CS & IT Conference Proceedings》;20171231;第7卷;第77-83页 * |
MSCTAVR融合图像冠状坐标定位在支气管动脉介入插管中的价值;殷好治等;《临床放射学杂志》;20090720;第28卷(第7期);第994-997页 * |
关于结肠镜检查中盲肠插管时间决定因素的前瞻性研究;Bernstein C等;《世界核心医学期刊文摘(胃肠病学分册)》;20050615;第1卷(第6期);第42页 * |
决策树模型在气管插管困难预测中的应用;张姝等;《中国卫生统计》;20120825;第29卷(第4期);第493-496页 * |
基于深度学习的人体狭窄腔道中内窥镜插管辅助决策;古衡;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20200715(第07期);第E060-2页 * |
增强现实辅助电磁导航下的内镜逆行胰胆管造影胆管插管定位技术模型研究;张大涯等;《解放军医学院学报》;20211103;第42卷(第11期);第1188-1191+1233页 * |
麻醉诱导后视可尼气管插管学习曲线的建立;张俪;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;20090415(第4期);第E066-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111666998A (zh) | 2020-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666998B (zh) | 一种基于目标点检测的内窥镜智能插管决策方法 | |
US10646288B2 (en) | Automated steering systems and methods for a robotic endoscope | |
CN111414968B (zh) | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 | |
Qin et al. | Surgical instrument segmentation for endoscopic vision with data fusion of cnn prediction and kinematic pose | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
WO2020172783A1 (zh) | 一种用于经颅磁刺激诊疗的人头姿态跟踪系统 | |
CN113570627B (zh) | 深度学习分割网络的训练方法及医学图像分割方法 | |
CN111311675A (zh) | 车辆定位方法、装置、设备和存储介质 | |
CN107845145B (zh) | 一种电子显微场景下的三维重构系统及方法 | |
WO2024094227A1 (zh) | 一种基于卡尔曼滤波和深度学习的手势姿态估计方法 | |
CN108090954A (zh) | 基于图像特征的腹腔环境地图重建与腹腔镜定位的方法 | |
CN112418171A (zh) | 一种基于深度学习的斑马鱼空间姿态与心脏位置估计方法 | |
CN112560648A (zh) | 一种基于rgb-d图像的slam方法 | |
CN116051631A (zh) | 光斑标注方法及系统 | |
CN114120013A (zh) | 一种红外与rgb跨模态特征点匹配方法 | |
CN110018163A (zh) | 基于机器视觉的管片拼装测量与控制系统和方法 | |
CN115252992B (zh) | 基于结构光立体视觉的气管插管导航系统 | |
CN115984592A (zh) | 基于SuperPoint+SuperGlue的点线融合特征匹配方法 | |
CN115424319A (zh) | 一种基于深度学习的斜视识别系统 | |
CN113723447B (zh) | 一种多模态影像的端到端的模板匹配方法 | |
CN115797448A (zh) | 一种消化内镜视觉重建导航系统及方法 | |
CN112651400B (zh) | 一种立体内窥镜辅助检测方法、系统、装置及存储介质 | |
CN112099330B (zh) | 基于外部相机和穿戴式显控设备的全息人体重建方法 | |
CN114067422A (zh) | 一种用于辅助驾驶的视线检测方法、装置及存储介质 | |
CN113902738A (zh) | 一种心脏mri分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |