CN102123651B - 内窥镜系统 - Google Patents
内窥镜系统 Download PDFInfo
- Publication number
- CN102123651B CN102123651B CN200980131440.8A CN200980131440A CN102123651B CN 102123651 B CN102123651 B CN 102123651B CN 200980131440 A CN200980131440 A CN 200980131440A CN 102123651 B CN102123651 B CN 102123651B
- Authority
- CN
- China
- Prior art keywords
- image
- image pickup
- probit
- pickup part
- endoscopic system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00158—Holding or positioning arrangements using magnetic field
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Studio Devices (AREA)
Abstract
本发明的内窥镜系统具有:摄像部,其对被摄体进行摄像;位置检测部,其在摄像部所得到的被摄体的图像中检测表示规定对象的位置;以及概率计算部,其采用从该图像中得到的第1信息和与第1信息不同的第2信息,计算作为正确程度的概率值,该正确程度表示关于该位置是规定对象的正确性的程度。
Description
技术领域
本发明涉及内窥镜系统,尤其涉及可支持内窥镜插入体腔等被检体内的内窥镜系统。
背景技术
在医疗领域以及工业领域等中,一直以来广泛应用内窥镜,例如在医疗领域中,当对体腔内的活体组织等进行观察以及各种处置时使用内窥镜。
另外,在日本特开平7-155289号公报中公开了如下的技术:其用于提取内窥镜所得到的观察图像内的暗部区域,适当设定插入该内窥镜时的目标位置(移动方向以及移动量),使该暗部区域的中心位置成为观察图像的中心位置。
一般情况下,手术者等在自己进行内窥镜的插入操作时,除了可从该内窥镜所得到的观察图像中直接读取的各种信息之外,还综合考虑不能从该观察图像中直接读取的其它各种要素,其结果是,可适当决定该内窥镜的前端部朝向的目标位置。具体地说,手术者等例如通过观察内窥镜所得到的观察图像并确认该内窥镜前端部的周边状况,此外,还综合考虑该内窥镜的弯曲速度以及被检者的体位等各个要素,由此来适当决定应该使该前端部接着朝向哪里。
与此相对,日本特开平7-155289号公报所公开的技术不过是在设定配置于体腔内的内窥镜的前端部的目标位置时,进行依赖于该内窥镜所得到的观察图像内的暗部区域提取结果的运算,即,可以说进行基本上忽略了该暗部区域提取结果以外的各种要素的运算。
结果,在日本特开平7-155289号公报所公开的技术中产生如下这样的问题:由于内窥镜的前端部所朝向的目标位置的设定结果的正确性低,导致无法顺畅地插入该内窥镜。
发明内容
本发明是鉴于上述情况而作出的,其目的是提供与以往相比能够顺畅地插入内窥镜的内窥镜系统。
本发明中的内窥镜系统的特征是具有:摄像部,其对被摄体进行摄像;位置检测部,其在所述摄像部所得到的所述被摄体的图像中检测表示规定对象的位置;以及概率计算部,其采用从所述图像得到的第1信息和与所述第1信息不同的第2信息,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述规定对象的正确性的程度。
本发明中的内窥镜系统的特征是具有:内窥镜,其具有插入体腔内的插入部以及设置在该插入部的前端部的摄像部;位置设定部,其在所述摄像部所得到的被摄体的图像中设定使所述前端部通过的目标位置;以及概率计算部,其采用从所述图像得到的第1信息和与所述第1信息不同的第2信息,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述规定对象的正确性的程度。
本发明中的内窥镜系统的特征是具有:摄像部,其对被摄体进行摄像;位置检测部,其在所述摄像部所得到的所述被摄体的图像中检测表示规定对象的位置;像素特征量计算部,其从所述图像中取得多个像素特征量;以及概率计算部,其根据所述多个像素特征量,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述规定对象的正确性的程度。
本发明中的内窥镜系统的特征是具有:摄像部,其对被摄体进行摄像;位置检测部,其在所述摄像部所得到的所述被摄体的图像中检测表示规定对象的位置;以及概率计算部,其针对所述图像的每个像素,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述规定对象的正确性的程度。
本发明中的内窥镜系统的特征是具有:摄像部,其在被检体内部移动,取得该被检体内部的被摄体像;提取部,其提取与所述被摄体像对应的图像中的暗部区域;信息取得部,其取得与所述提取部提取的暗部区域的提取结果不同的规定信息;以及概率计算部,其采用所述提取部提取的暗部区域的提取结果以及所述规定信息来计算表示作为所述摄像部的通过目标位置的正确性的概率值。
本发明中的内窥镜系统的特征是具有:内窥镜,其具有插入被检体体腔内的插入部和设置在该插入部的前端部并取得该体腔内的被摄体像的摄像部;提取部,其提取与所述被摄体像对应的图像中的暗部区域;信息取得部,其取得与所述提取部的暗部区域提取的提取结果不同的规定信息;以及概率计算部,其采用所述提取部提取的暗部区域的提取结果以及所述规定信息来计算表示作为所述摄像部的通过目标位置的正确性的概率值。
本发明中的内窥镜系统的特征是具有:摄像部,其在被检体内部移动,取得该被检体内部的被摄体像;位置设定部,其将所述摄像部的通过目标位置设定为与所述被摄体像对应的图像的暗部区域内的一个像素位置;状态变量计算部,其计算表示所述暗部区域的真伪程度的状态变量;以及概率计算部,其根据所述状态变量,计算表示所述通过目标位置的正确性的概率值。
本发明中的内窥镜系统的特征是具有:内窥镜,其具有插入被检体体腔内的插入部和设置在该插入部的前端部并取得该体腔内的被摄体像的摄像部;位置设定部,其将所述前端部的通过目标位置设定为与所述被摄体像对应的图像的暗部区域内的一个像素位置;状态变量计算部,其计算表示所述暗部区域的真伪程度的状态变量;以及概率计算部,其根据所述状态变量,计算表示所述通过目标位置的正确性的概率值。
附图说明
图1是示出本发明实施方式的内窥镜系统的要部结构的一例的图。
图2是示出在生成第1概率映射图时进行的处理一例的图。
图3是示出近似表示暗部区域的椭圆的一例的图。
图4是示出在生成第2概率映射图时进行的处理一例的图。
图5是示出在生成第3概率映射图时进行的处理一例的图。
图6是示出移动速度v、旋转速度θ以及弯曲速度矢量的相关关系的图。
图7是示出在生成第4概率映射图时进行的处理一例的图。
图8是示出在采用概率映射图设定弯曲目标位置时进行的处理的一例的图。
图9是示出在计算存在于原图像中的暗部区域的可靠度时进行的处理的一例的图。
图10是示出图9的处理所采用的原图像的一例的图。
图11是示出采用图10的原图像生成的暗部区域掩模图像的一例的图。
图12是示出通过对图11的暗部区域掩模图像应用形态处理而得到的膨胀图像的一例的图。
图13是示出通过对图11的暗部区域掩模图像应用形态处理而得到的收缩图像的一例的图。
图14是示出采用图12的膨胀图像以及图13的收缩图像而生成的边界掩模图像的一例的图。
图15是示出采用图10的原图像而生成的边缘图像的一例的图。
图16是示出在取得第1状态变量F1时采用的第1隶属函数的一例的图。
图17是示出在取得第2状态变量F2时采用的第2隶属函数的一例的图。
图18是示出通过在输出模糊集合中应用第1状态变量F1以及第2状态变量F2来计算第3状态变量G1的状况的示意图。
图19是示出与图18不同的输出模糊集合的例子的图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
图1~图19涉及本发明的实施方式。图1是示出本发明实施方式的内窥镜系统的要部结构的一例的图。图2是示出在生成第1概率映射图时进行的处理的一例的图。图3是示出近似表示暗部区域的椭圆的一例的图。图4是在生成第2概率映射图时进行的处理的一例的图。图5是示出在生成第3概率映射图时进行的处理一例的图。图6是示出移动速度v、旋转速度θ以及弯曲速度矢量的相关关系的图。图7是示出在生成第4概率映射图时进行的处理的一例的图。图8是在采用概率映射图设定弯曲目标位置时进行的处理的一例的图。
图9是示出在计算存在于原图像中的暗部区域的可靠度时进行的处理的一例的图。图10是示出在图9的处理中采用的原图像的一例的图。图11示出采用图10的原图像而生成的暗部区域掩模图像的一例的图。图12是通过对图11的暗部区域掩模图像应用形态处理而得到的膨胀图像的一例的图。图13是通过对图11的暗部区域掩模图像应用形态处理而得到的收缩图像的一例的图。图14示出采用图12的膨胀图像以及图13的收缩图像而生成的边界掩模图像的一例的图。图15是示出采用图10的原图像而生成的边缘图像的一例的图。图16是示出在取得第1状态变量F1时采用的第1隶属函数的一例的图。图17是示出在取得第2状态变量F2时采用的第2隶属函数的一例的图。图18是通过在输出模糊集合中应用第1状态变量F1以及第2状态变量F2来计算第3状态变量G1的状况的示意图。图19是示出与图18不同的输出模糊集合的例子的图。
内窥镜系统1如图1所示具有:插入作为被检体的患者的体腔内、并且对该体腔内的被摄体像进行摄像的内窥镜2;可相对于内窥镜2上设置的连接器14进行拆装的处理器6;配置在该患者所躺卧的床的周边部的感应线圈单元7;内窥镜插入形状检测装置8;终端装置9;和监视器10a以及10b。
另外,处理器6具有:光源部3,其将用于对作为摄像对象的被摄体进行照明的照明光提供给内窥镜2;信号处理部4,其通过对从内窥镜2输出的摄像信号进行信号处理来生成视频信号并输出;弯曲控制部5,其进行内窥镜2的弯曲控制;以及源线圈驱动部43。
内窥镜2具有:插入被检体体腔内的细长的插入部11;设置在插入部11后端的操作部12;以及从操作部12延伸出的通用缆线13。并且,在该通用缆线13的后端设置有可相对于处理器6拆装的连接器14。
插入部11根据手术者等的插入操作而在被检体的体腔内移动。另外,插入部11具有:设置在前端侧的硬质的前端部15;与前端部15的后端连接的弯曲部16;以及设置在弯曲部16的后端与操作部12的前端之间的具有可挠性的可挠管部17。另外,在插入部11的内部近似等间隔地设置了n个源线圈C1、C2、…Cn,这n个源线圈C1、C2、…Cn产生与源线圈驱动部43所施加的源线圈驱动信号对应的磁场。
在前端部15上设置有摄像部15a,该摄像部15a具有:使被摄体像成像的物镜光学系统和将经过该物镜光学系统成像的该被摄体像作为摄像信号输出的摄像元件等。
在操作部12中设置有:镜体开关18,其指示冻结图像(静态图像)取得等;弯曲模式切换开关19,其进行用于将弯曲部16的弯曲模式切换为手动模式或自动模式的某一个的指示;以及弯曲用操作杆20,其在选择了该手动模式时进行弯曲部16的弯曲方向以及弯曲角度的指示。另外,在可挠管部17的后端侧、处于操作部12前端附近的部分设置有通向可贯插处置器具等的未图示的处置器具用通道的处置器具插入口39。
在内窥镜2的插入部11等的内部中贯插了将从光源部3供给的照明光向前端部15传送的光导21。
光导21的一个端面(入射端面)被配置为从连接器14突出的状态。另外,光导21的另一端面(出射端面)被配置在设置于前端部15的未图示的照明光学系统附近。通过这样的结构,从光源部3供给的照明光在连接器14与处理器6连接的状态下,经过光导21以及未图示的照明光学系统之后,对作为摄像部15a的摄像对象的被摄体进行照明。
具有作为光源装置的功能的光源部3具有:灯22,其发出例如作为白色光的照明光;灯驱动部23,其提供驱动灯22时所需的电源;光圈24;光圈控制部25,其根据从信号处理部4输出的视频信号使光圈24的光圈量(开口量)增减;以及会聚光学系统26,其会聚通过光圈24后的照明光并且提供到光导21的入射端面。
光圈控制部25例如根据所输入的视频信号的亮度分量来计算平均明度,然后根据从该平均明度减去与适当明度相当的基准值而得出的值即差分值来增减光圈24的光圈量(开口量),由此使通过光圈24的照明光的光量适当变化。
信号处理部4具有:摄像元件驱动部36,其输出用于驱动设置在摄像部15a内的摄像元件的摄像元件驱动信号;以及视频处理部37,其通过对从摄像部15a输出的摄像信号进行信号处理,来生成视频信号并输出。由此,在监视器10a上显示与所述视频信号相应的内窥镜图像Ia。
在根据弯曲模式切换开关19中进行的指示把弯曲部16的弯曲模式切换为手动模式的情况下,弯曲控制部5进行根据弯曲用操作杆20的倾斜方向以及倾斜量来变更弯曲部16的弯曲方向以及弯曲角度的控制。另外,在根据弯曲模式切换开关19中进行的指示把弯曲部16的弯曲模式切换为自动模式的情况下,具有作为驱动控制部的功能的弯曲控制部5进行根据终端装置9的运算结果来变更弯曲部16的弯曲方向以及弯曲角度的控制。
源线圈驱动部43与设置在插入部11内部的n个源线圈C1、C2、…Cn连接,对各个该源线圈依次施加交流的源线圈驱动信号。由此,在设置于插入部11内部的各个源线圈的周围产生交变磁场。
在感应线圈单元7中设置有感应线圈组44,其分别检测从设置于插入部11内部的n个源线圈C1、C2、…Cn发出的磁场,并作为磁场检测信号输出。
内窥镜插入形状检测装置8具有:放大器45,其放大从感应线圈单元7输出的磁场检测信号;源线圈位置/方向检测部46,其根据从放大器45输出的磁场检测信号来检测n个源线圈C1、C2、…Cn的3维坐标位置以及方向,并作为插入形状信息输出;以及插入形状估计部47,其根据从源线圈位置/方向检测部46输出的插入形状信息来估计插入部11的插入形状,并作为插入形状图像信号输出。由此,在监视器10b上显示与所述插入形状图像信号相应的插入部11的插入形状图像Ib。
终端装置9具有运算处理部91,运算处理部91根据从视频处理部37输出的视频信号和从插入形状估计部47输出的插入形状图像信号等,进行与弯曲部16的弯曲模式是自动模式时进行的弯曲控制相关的运算,将运算结果向弯曲控制部5输出。此外,在运算处理部91中进行的所述运算的具体内容在后面进行叙述。
另外,在终端装置9中设置有可暂时存储运算处理部91的运算结果等的未图示的存储器。
接着,对内窥镜系统1的作用进行说明。另外,以下省略了对于弯曲模式切换开关19切换为手动弯曲模式时的控制的说明,并且主要对弯曲模式切换开关19切换为自动弯曲模式时的控制进行说明。
首先,手术者在连接并启动内窥镜系统1的各部之后,将内窥镜2的插入部11插入患者体腔内,并且将弯曲模式切换开关19切换为自动弯曲模式。与此相应,开始内窥镜2的摄像部15a中的被摄体摄像,并且在插入部11中设置的各源线圈中开始产生磁场。
伴随着被摄体的摄像而从摄像部15a输出的摄像信号经由通用缆线13以及连接器14向处理器6输出,在视频处理部37中变换为视频信号,然后输入到终端装置9的运算处理部91。另外,伴随着设置在插入部11内的各源线圈中的磁场产生而从感应线圈单元7输出的磁场检测信号被放大器45放大,通过源线圈位置/方向检测部46变换为该各源线圈的3维坐标信息,通过插入形状估计部47估计插入形状,然后作为插入形状图像信号输入至终端装置9的运算处理部91。
终端装置9的运算处理部91进行基于所输入的视频信号以及插入形状图像信号等的处理,由此设定作为前端部15的通过目标的弯曲目标位置(通过目标位置),并将所设定的该弯曲目标位置的信息向弯曲控制部5输出。
这里,叙述在设定所述弯曲目标位置时运算处理部91进行的处理。
具有作为提取部的功能的运算处理部91计算与所输入的视频信号对应的图像(内窥镜图像)的暗部区域以及该暗部区域的重心(图2的步骤S1)。
在图2的步骤S1中计算出的暗部区域的重心与该暗部区域的像素值的矩中心一致,即,通过采用作为数字图像的矩计算方法的下式(1),计算(μ10/μ00、μ01/μ00)的像素位置。
然后,运算处理部91根据暗部区域的像素值的2次矩μ20、μ11以及μ02和该暗部区域的像素值的0次矩μ00,计算以图2的步骤S1中计算出的该暗部区域的重心(μ10/μ00、μ01/μ00)为中心的椭圆(图2的步骤S2)。
具体地说,运算处理部91根据暗部区域的像素值的2次矩μ20、μ11以及μ02和该暗部区域的像素值的0次矩μ00,例如,针对如图3所示形状的暗部区域的计算结果,计算近似表示该暗部区域,且中心坐标为(μ10/μ00、μ01/μ00)、长轴长度为a、短轴长度为b,且长轴相对于图像水平方向的倾角为φ的的椭圆。此外,采用下式(2)~(4)来分别示出长轴长度a、短轴长度b以及长轴相对于图像水平方向的倾角φ。
然后,运算处理部91将图2的步骤S2中计算出的椭圆内的2维正态分布投影成概率映射图(图2的步骤S3)。
即,运算处理部91通过进行图2的步骤S1~步骤S3的处理,生成与内窥镜2所得到的内窥镜图像的像素值对应的第1概率映射图。
此外,在本实施方式中生成的各概率映射图针对内窥镜图像的1个像素赋予1个概率值。
另外,所述第1概率映射图不限于通过图2的步骤S1~步骤S3的处理生成,例如,可通过对内窥镜图像的各像素值应用明部区域的概率值相对低且暗部区域的概率值相对高这样的规定函数来生成。具体地说,例如,在将与原图像的像素值C(x、y)对应的概率值设为P(x、y)时,可采用下式(5)来生成所述第1概率映射图。
P(x,y)=(255-C(x,y))/255···(5)
此外,上式(5)中的像素值C(x、y)取0以上255以下的值。
另一方面,具有作为信息取得部的功能的运算处理部91根据至少包含与患者背腹方向相关的信息的规定输入信号,检测该患者当前是什么体位(图4的步骤S11)。
此外,所述规定输入信号可以是根据安装在患者上的未图示的线圈的位置以及方向的检测结果而输出的信号,或者可以是根据在镜体开关18等上设置的体位选择开关中的指示内容而输出的信号。
然后,运算处理部91根据图4的步骤S11中的检测结果和插入形状图像信号,确定与所输入的视频信号对应的图像(内窥镜图像)中的背腹方向(背侧以及腹侧)(图4的步骤S12)。
但是,在考虑一般的内窥镜插入操作的情况下,可假定使该内窥镜的前端部朝向该患者的腹侧或脊背侧弯曲的情况比较少。并且,运算处理部91根据按照这样的假定而构建的第1算法和图4的步骤S12中的确定结果,生成将内窥镜图像的与背侧以及腹侧相当的区域的概率设定为相对低的概率映射图(图4的步骤S13)。
即,运算处理部91通过进行图4的步骤S11~步骤S13的处理,生成与插入了内窥镜2的患者当前的体位对应的第2概率映射图。
另一方面,具有作为信息取得部的功能的运算处理部91例如通过读入弯曲控制部5的控制内容,计算与前端部15(摄像部15a)的移动速度相当的弯曲速度矢量(图5的步骤S21)。
具体地说,运算处理部91根据弯曲控制部5的控制内容,计算在内窥镜图像的图像平面上将该内窥镜图像的中心设为起始点、将表示前端部15在1帧间移动的移动量的移动速度设为v、还将在该内窥镜图像的图像平面上表示前端部15在1帧间旋转的旋转量的旋转速度设为θ的弯曲速度矢量。此外,所述移动速度v、旋转速度θ以及弯曲速度矢量在当前帧的内窥镜图像中如图6所示。
然后,运算处理部91根据在图5的步骤S21中得到的弯曲速度矢量的计算结果,将前端部15接下来朝向的方向估计为从该弯曲速度矢量的起始点(内窥镜图像的中心)向着终点的方向(图5的步骤S22)。
但是,在考虑一般内窥镜的弯曲操作的情况下,可假定在持续弯曲部实际弯曲驱动的方向以及速度时的图像位置即所述弯曲速度矢量的终点处存在弯曲目标位置的可能性高。
并且,运算处理部91根据按照这样的假定而构建的第2算法和图5的步骤S22中的估计结果,将以当前帧的内窥镜图像中的弯曲速度矢量的终点(v、θ)为中心的椭圆状的2维正态分布投影成概率映射图(图5的步骤S23)。
即,运算处理部91通过进行图5的步骤S21~步骤S23的处理,生成与插入患者体腔内的内窥镜2的弯曲速度相应的第3概率映射图。
另一方面,运算处理部91通过进行与图4的步骤S11所述处理相同的处理,检测患者当前体位怎样(图7的步骤S31)。
然后,运算处理部91根据图7的步骤S31中的检测结果和插入形状图像信号,估计前端部15所在的活体器官的外观形状以及前端部15在该活体器官中的当前位置以及方向(图7的步骤S32)。
并且,运算处理部91生成与图7的步骤S32中的估计结果对应的概率映射图(图7的步骤S33)。具体地说,运算处理部91例如在得到前端部15的当前位置是下行结肠且前端部15的方向朝着患者头侧这样的估计结果时,生成将与前端部15的正面以及大致正面相当的区域的概率设定为相对高的概率映射图。
即,运算处理部91通过进行图7的步骤S31~步骤S33的处理,生成与前端部15的当前位置以及方向对应的第4概率映射图。
另一方面,运算处理部91根据过去设定的一个弯曲目标位置(例如上次设定的弯曲目标位置)对以该一个弯曲目标位置为中心的2维正态分布进行投影,由此生成第5概率映射图。
并且,作为图8的步骤S41所示的处理,运算处理部91进行生成以上所述的第1概率映射图~第5概率映射图的处理。
接着,运算处理部91进行用于合成在图8的步骤S41的处理中生成的各概率映射图的处理(图8的步骤S42)。
具体地说,运算处理部91在将第1概率映射图中的一个位置(像素位置)的概率值设为P1、将第2概率映射图中的该一个位置的概率值设为P2、将第3概率映射图中的该一个位置的概率值设为P3、将第4概率映射图中的该一个位置的概率值设为P4以及将第5概率映射图中的该一个位置的概率值设为P5时,利用下式(6)来计算该一个位置处的合成值Cx。
Cx=μa×P1+μb×P2+μc×P3+μd×P4+μe×P5···(6)
此外,在上式(6)中,μa表示对第1概率映射图的加权值,μb表示对第2概率映射图的加权值,μc表示对第3概率映射图的加权值,μd表示对第4概率映射图的加权值,μe表示对第5概率映射图的加权值。
另外,所述合成值Cx不限于利用上式(6)所示的加权运算来计算,例如,可采用模糊逻辑运算或混合专家模型等其它运算方法来计算。
然后,运算处理部91在针对1个画面内的全部位置(像素位置)进行采用上式(6)计算合成值Cx的处理之后,实施归一化处理,以使计算出的各合成值Cx成为0以上1以下的值。
并且,通过进行如以上所述的处理作为图8的步骤S42的处理,生成合成了由第1概率映射图~第5概率映射图构成的5个概率映射图的1个新的概率映射图。
即,实施所述归一化处理后的合成值Cx相当于表示作为弯曲目标位置(前端部15或摄像部15a的通过目标位置)的正确性的概率值。
运算处理部91在利用图8的步骤S42的处理生成的合成后的概率映射图中,提取概率值最高的位置(像素位置)(图8的步骤S43)之后,进行该位置(像素位置)是否存在多个的判定(图8的步骤S44)。
运算处理部91在利用图8的步骤S43的处理提取的位置存在多个的情况下,计算合成后的概率映射图中的概率值的重心(矩的中心)(图8的步骤S45),将相当于该重心的位置(像素位置)设定为弯曲目标位置(图8的步骤S46)。
另外,运算处理部91在利用图8的步骤S43的处理提取出的位置仅存在一个时,将该位置(像素位置)设定为弯曲目标位置(图8的步骤S46)。
并且,运算处理部91将在图8的步骤S46的处理中设定的弯曲目标位置的信息向弯曲控制部5输出后,从图8的步骤S41起再次反复进行一连串处理。
如以上所述,本实施方式的内窥镜系统1可通过在自动弯曲模式中进行与图2~图8相关的一连串处理,正确地计算内窥镜的前端部朝向的目标位置。结果,本实施方式的内窥镜系统1能够比以往更顺畅地进行内窥镜插入。
此外,根据图2~图8所示的一连串处理,不限于全部采用第1概率映射图~第5概率映射图作成合成后的概率映射图,还可以例如仅采用第1概率映射图以及第2概率映射图作成合成后的概率映射图。
另外,在图2~图8所示的一连串处理中生成的第5概率映射图不仅限于根据过去设定的一个弯曲目标位置而生成,例如,还可以直接采用上次作成的合成后的概率映射图。
另一方面,根据本实施方式的内窥镜系统1,为了顺畅地进行内窥镜的插入,可在自动弯曲模式中进行与图9~图19相关的一连串处理。
首先,运算处理部91取得与所输入的视频信号对应的例如图10所示的原图像(图9的步骤S51)。
然后,运算处理部91提取在图9的步骤S51得到的原图像中存在的暗部区域(图9的步骤S52)。具体地说,运算处理部91例如将图9的步骤S51中得到的原图像中的具有小于规定值的像素值的孤立区域作为暗部区域提取出来。并且,通过进行这样的处理,运算处理部91根据图10所示的原图像,生成一律将暗部区域的像素值设为255且一律将非暗部区域的像素值设为0的如图11所示的暗部区域掩模图像。
运算处理部91在图10所示的原图像中,将图11所示的暗部区域掩模图像所掩蔽的区域内存在的各个像素视为暗部区域内的像素,并且计算该暗部区域内的全部像素的像素值的平均值(图9的步骤S53)。
然后,运算处理部91将利用图9的步骤S53的处理计算出的、存在于暗部区域内的全部像素的像素值的平均值应用于图16所示的第1隶属函数,由此取得用于模糊逻辑计算的第1状态变量F1(图9的步骤S54)。
所述第1隶属函数是通过0≤F1≤1的值来表示利用图9的步骤S52以及步骤S53的处理提取出的暗部区域的黑暗程度的函数,其设定为在该暗部区域较暗的情况下取接近F1=0的值且在该暗部区域较亮的情况下取接近F1=1的值。具体地说,本实施方式中的第1隶属函数如图16所示可设定为,在暗部区域内的全部像素的像素值平均值是40以下的情况下F1=0、在140以上的情况下F1=1、在超过40且小于140的情况下在0<F1<1范围中线性增加。
另外,运算处理部91对在图9的步骤S52中生成的暗部区域掩模图像应用形态处理(图9的步骤S55)。并且,运算处理部91通过进行图9的步骤S55的处理,取得使图9的步骤S52中提取的暗部区域(像素值=255的区域)膨胀后的膨胀图像和使该暗部区域收缩后的收缩图像。此外,通过进行图9的步骤S55的处理而得到的膨胀图像以及收缩图像例如如图12以及图13所示。
运算处理部91采用图9的步骤S55的处理所得到的膨胀图像以及收缩图像来生成边界掩模图像(图9的步骤S56)。具体地说,运算处理部91生成将膨胀图像的暗部区域(像素值=255的区域)中与收缩图像的暗部区域(像素值=255的区域)重复的区域的像素值设为0的例如图14所示的边界掩模图像。
另一方面,运算处理部91通过提取在图9的步骤S51中得到的原图像内存在的边缘部(图9的步骤S57),取得边缘图像。具体地说,运算处理部91通过对图9的步骤S51中得到的原图像应用拉普拉斯滤波,来取得从该原图像提取出边缘部的例如图15所示的边缘图像。
然后,运算处理部91在图9的步骤S57中得到的边缘图像中,将图9的步骤S56中得到的边界掩模图像所掩蔽的区域内存在的各个像素视为存在于暗部区域边界部的像素,并且计算该边界部的全部像素的像素值的平均值(图9的步骤S58)。
然后,运算处理部91将通过图9的步骤S58的处理计算出的、存在于暗部区域边界部的全部像素的像素值的平均值应用于图17所示的第2隶属函数,由此取得用于模糊逻辑计算的第2状态变量F2(图9的步骤S59)。
所述第2隶属函数是利用0≤F2≤1的值表示通过图9的步骤S55~步骤S58的处理提取出的(暗部区域的)边界部的明亮程度的函数,其被设定为在该边界部模糊的情况下取接近F2=0的值且在该边界部清楚的情况下取接近F2=1的值。具体地说,本实施方式中的第2隶属函数如图17所示被设定为,在暗部区域边界部中的边缘图像的全部像素的像素值的平均值是0的情况下F2=0、在45以上的情况下F2=1、在超过0且小于45的情况下在0<F2<1范围中线性增加。
运算处理部91通过采用按照规定原则作成的输出模糊集合、在图9的步骤S54中得到的第1状态变量F1和在图9的步骤S59中得到的第2状态变量F2,来计算作为表示暗部区域的真伪程度的值的第3状态变量G1(图9的步骤S60)。
此外,在本实施方式中,所述规定原则例如在将第1状态变量F1的逻辑非表述为*F1的情况下,可定义为“IF(*F1 and F2)THEN暗部区域”这样的基于模糊逻辑的逻辑式。
另外,在所述规定原则中,在暗部区域内侧的像素值小(不大)且该暗部区域的边界部清楚的情况即是真暗部区域的情况下,可定义为G1=1。
此外,在所述规定原则中,在暗部区域内侧的像素值大且该暗部区域边界部模糊的情况即是伪暗部区域的情况下,可定义为G1=-1。
采用如上定义的各个要素作成的输出模糊集合为在将第1状态变量F1以及第2状态变量F2的值作为纵轴且将第3状态变量G1的值作为横轴的坐标轴中配置的与第1状态变量F1以及第2状态变量F2分别对应的三角形,例如图18所示。
与第1状态变量F1对应的三角形是表示伪暗部区域的集合,如图18所示,形成为顶点配置在F1=1且G1=-1的坐标位置上,且底边配置于F1=0处的二等边三角形T1。另外,与第2状态变量F2对应的三角形是表示真暗部区域的集合,如图18所示,形成为顶点配置在F2=1且G1=1的坐标位置上,且底边配置于F2=0处的二等边三角形T2。
这里,采用图18来说明在计算第3状态变量G1时进行的处理的概要。
运算处理部91对图18例示的输出模糊集合应用在图9的步骤S54中得到的第1状态变量F1的值。当可视化地示出这样的处理时,相当于在图18的二等边三角形T1的内部填涂到与第1状态变量F1的值相当的高度(纵轴的值)。
另外,运算处理部91对图18中例示的输出模糊集合应用在图9的步骤S59中得到的第2状态变量F2的值。当可视化地示出这样的处理时,相当于在图18的二等边三角形T2的内部填涂到与第2状态变量F2的值相当的高度(纵轴的值)。
运算处理部91计算由图18的二等边三角形T1以及T2中的所有填涂部分构成的图形的重心,计算该重心的坐标位置的横轴值作为第3状态变量G1。
根据以上所述的处理,第3状态变量G1的输出特性可以说是取决于二等边三角形T1以及T2的底边长度。因此,例如可通过对二等边三角形T1以及T2的底边长度设为大致0的图19的输出模糊集合应用第1状态变量F1以及第2状态变量F2,由此得到与采用图18的输出模糊集合时不同的运算结果。
此外,对图19的输出模糊集合应用第1状态变量F1以及第2状态变量F2时的第3状态变量G1可通过下式(7)来求出。
其中,在上式(7)中,设x1=-1且x2=1。
然后,运算处理部91采用下式(8)对图9的步骤S60中计算出的第3状态变量G1进行归一化,由此计算可靠度R,该可靠度R是概率性地表示存在于原图像内的暗部区域作为前端部15所朝的方向是否正确的值(图9的步骤S61)。
R=(G1+1)/2···(8)
另一方面,运算处理部91对图9的步骤S51中取得的原图像实施与图2~图8相关的一连串处理或公知的处理,由此作为该原图像的暗部区域内的一个像素位置而计算弯曲部16的弯曲目标位置(前端部15的通过目标位置)。
这里,在将从原图像的中心到弯曲目标位置的距离设为d、将用于使图像内的距离变换为实际距离的系数设为k时,例如通过采用下式(9)来求出表示弯曲部16(插入部11)每单位时间的弯曲量的弯曲步进量Sa。
Sa=F(d)=k×d···(9)
另一方面,运算处理部91通过对弯曲部16每单位时间的弯曲量进行采用下式(10)的线性变换,来计算与可靠度R对应的弯曲步进量Sb(图9的步骤S62)。
Sb=G(d,R)=(k×d)×R···(10)
此外,运算处理部91不仅限于通过对弯曲部16每单位时间的弯曲量进行线性变换来计算弯曲步进量Sb。具体地说,只要运算处理部91进行弯曲步进量Sb的值随着可靠度R的值变大而变大、且弯曲步进量Sb的值随着可靠度R的值变小而变小这样的运算,则可以通过对弯曲部16每单位时间的弯曲量进行非线性变换来计算弯曲步进量Sb。
然后,运算处理部91向弯曲控制部5输出计算出的弯曲步进量Sb。由此,弯曲部16根据按照原图像的取得定时而计算出的弯曲步进量Sb进行弯曲。
如以上所述,本实施方式的内窥镜系统1在自动弯曲模式中进行与图9~图19相关的一连串处理,由此可根据存在于原图像中的暗部区域的真伪程度来设定弯曲部的每单位时间的弯曲量。
因此,根据本实施方式的内窥镜系统1,在所取得的原图像中混入了噪声、得到不适合作为内窥镜前端部所朝的方向的目标位置的情况下,可通过减少每单位时间的弯曲量来抑制朝向该目标位置的弯曲动作。另外,根据本实施方式的内窥镜系统1,在得到适合作为内窥镜前端部所朝的方向的目标位置的情况下,可迅速进行朝向该目标位置的弯曲动作。
此外,所述可靠度R的值不仅限于采用作为与图9~图19相关的一连串处理示出的模糊逻辑运算来计算,例如,可采用混合专家模型等其它运算方法来计算。
另外,与图9~图19相关的一连串处理不仅限于在以下这样的情况中使用:在计算从原图像提取出的1个暗部区域的可靠度之后,作为与该可靠度相应的量,设定每单位时间的弯曲部16的弯曲量。具体地说,与图9~图19相关的处理例如可应用于如下这样的控制:在分别计算从原图像中提取出的2个以上的暗部区域中的可靠度之后,以使前端部15朝向具有相对最高可靠度的一个暗部区域的方式使弯曲部16弯曲。
但是,根据本实施方式,可通过将图9~图19所示的一连串处理中计算出的可靠度R用于在图2~图8所示的一连串处理中生成的第1概率映射图的修正,生成更正确的合成后概率映射图。具体地说,例如举出如下这样的方法:通过采用对上式(5)所示的概率值P(x、y)乘以可靠度R的下式(11)计算概率值Pc(x、y),修正第1概率映射图。
Pc(x,y)=P(x,y)×R
={(255-C(x,y))/255}×R···(11)
并且,通过采用上式(11)修正第1概率映射图,将合成后的概率映射图中的该第1概率映射图的贡献度适当调整为与可靠度R对应,因此能够生成更正确的合成后概率映射图。
另外,以上所述的各个处理不仅限于与具有可弯曲插入部的内窥镜的弯曲目标位置的设定一并使用,例如,还可与随着活体蠕动运动而移动的胶囊型内窥镜的移动目标的设定一并使用。
此外,本发明不限于上述实施方式,显然在不脱离发明主旨的范围内可进行各种变更及应用。
本申请以2009年1月15日向日本国申请的日本特愿2009-7024号为优先权基础,所述公开内容已引用到本说明书、权利要求以及附图中。
Claims (10)
1.一种内窥镜系统,其特征在于,具有:
摄像部,其对被摄体进行摄像;
位置检测部,其在所述摄像部所得到的所述被摄体的图像中检测表示规定对象的位置;以及
概率计算部,其采用从所述摄像部拍摄到的所述图像得到的所述图像中的暗部区域的提取结果和至少具有所述摄像部的移动速度的计算结果的信息,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述规定对象的正确性的程度。
2.根据权利要求1所述的内窥镜系统,其特征在于,
所述位置检测部根据在所述概率计算部中计算出的所述概率值进行所述位置的修正,由此检测表示所述规定对象的新位置。
3.一种内窥镜系统,其特征在于,具有:
内窥镜,其具有插入体腔内的插入部以及设置在该插入部的前端部的摄像部;
位置设定部,其在所述摄像部所得到的被摄体的图像中设定表示使所述前端部通过的目标位置的位置;以及
概率计算部,其采用所述摄像部的移动速度的计算结果以及插入了所述内窥镜的被检体的体位检测结果中的至少一个信息、以及从所述摄像部拍摄到的所述图像得到的所述图像中的暗部区域的提取结果,计算作为正确程度的概率值,该正确程度表示关于所述位置是所述目标位置的正确性的程度。
4.根据权利要求3所述的内窥镜系统,其特征在于,
所述位置设定部根据在所述概率计算部中计算出的所述概率值进行所述目标位置的修正,由此设定新目标位置。
5.根据权利要求3所述的内窥镜系统,其特征在于,
该内窥镜系统还具有驱动控制部,该驱动控制部根据在所述概率计算部中计算出的概率值进行所述内窥镜的驱动控制。
6.一种内窥镜系统,其特征在于,具有:
摄像部,其在被检体内部移动,取得该被检体内部的被摄体像;
提取部,其提取与所述被摄体像对应的图像中的暗部区域;
信息取得部,其取得具有所述摄像部的移动速度的计算结果的至少一个信息;以及
概率计算部,其采用所述提取部提取的暗部区域的提取结果以及所述信息取得部取得的所述至少一个信息来计算表示作为所述摄像部的通过目标位置的正确性的概率值。
7.根据权利要求6所述的内窥镜系统,其特征在于,
所述概率计算部生成针对所述图像的每个像素赋予了所述概率值的概率映射图,并且将该概率映射图中的概率值最高的像素位置设定为所述通过目标位置。
8.根据权利要求7所述的内窥镜系统,其特征在于,
所述概率计算部将所述概率映射图中的概率值的重心设定为所述通过目标位置。
9.一种内窥镜系统,其特征在于,具有:
内窥镜,其具有插入被检体体腔内的插入部和设置在该插入部的前端部并取得该体腔内的被摄体像的摄像部;
提取部,其提取与所述被摄体像对应的图像中的暗部区域;
信息取得部,其取得所述摄像部的移动速度的计算结果以及插入了所述内窥镜的被检体的体位检测结果中的至少一个信息;以及
概率计算部,其采用所述提取部提取的暗部区域的提取结果以及所述信息取得部取得的所述至少一个信息来计算表示作为所述摄像部的通过目标位置的正确性的概率值。
10.根据权利要求9所述的内窥镜系统,其特征在于,
该内窥镜系统还具有驱动控制部,该驱动控制部根据所述概率值的大小,进行所述内窥镜的驱动控制。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-007024 | 2009-01-15 | ||
JP2009007024 | 2009-01-15 | ||
PCT/JP2009/067555 WO2010082383A1 (ja) | 2009-01-15 | 2009-10-08 | 内視鏡システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102123651A CN102123651A (zh) | 2011-07-13 |
CN102123651B true CN102123651B (zh) | 2014-02-26 |
Family
ID=42339646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200980131440.8A Active CN102123651B (zh) | 2009-01-15 | 2009-10-08 | 内窥镜系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8167791B2 (zh) |
EP (1) | EP2301411B1 (zh) |
JP (1) | JP4585048B2 (zh) |
CN (1) | CN102123651B (zh) |
WO (1) | WO2010082383A1 (zh) |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5295555B2 (ja) * | 2007-12-10 | 2013-09-18 | オリンパスメディカルシステムズ株式会社 | 内視鏡システム |
US9713417B2 (en) | 2009-06-18 | 2017-07-25 | Endochoice, Inc. | Image capture assembly for use in a multi-viewing elements endoscope |
WO2012038958A2 (en) | 2010-09-20 | 2012-03-29 | Peermedical Ltd. | Multi-camera endoscope having fluid channels |
US9492063B2 (en) | 2009-06-18 | 2016-11-15 | Endochoice Innovation Center Ltd. | Multi-viewing element endoscope |
US10165929B2 (en) | 2009-06-18 | 2019-01-01 | Endochoice, Inc. | Compact multi-viewing element endoscope system |
US8926502B2 (en) | 2011-03-07 | 2015-01-06 | Endochoice, Inc. | Multi camera endoscope having a side service channel |
US9642513B2 (en) | 2009-06-18 | 2017-05-09 | Endochoice Inc. | Compact multi-viewing element endoscope system |
WO2012056453A2 (en) | 2010-10-28 | 2012-05-03 | Peermedical Ltd. | Optical systems for multi-sensor endoscopes |
US9101287B2 (en) | 2011-03-07 | 2015-08-11 | Endochoice Innovation Center Ltd. | Multi camera endoscope assembly having multiple working channels |
US9872609B2 (en) | 2009-06-18 | 2018-01-23 | Endochoice Innovation Center Ltd. | Multi-camera endoscope |
US9706903B2 (en) | 2009-06-18 | 2017-07-18 | Endochoice, Inc. | Multiple viewing elements endoscope system with modular imaging units |
US9402533B2 (en) | 2011-03-07 | 2016-08-02 | Endochoice Innovation Center Ltd. | Endoscope circuit board assembly |
US11278190B2 (en) | 2009-06-18 | 2022-03-22 | Endochoice, Inc. | Multi-viewing element endoscope |
US9554692B2 (en) | 2009-06-18 | 2017-01-31 | EndoChoice Innovation Ctr. Ltd. | Multi-camera endoscope |
US11547275B2 (en) | 2009-06-18 | 2023-01-10 | Endochoice, Inc. | Compact multi-viewing element endoscope system |
US11864734B2 (en) | 2009-06-18 | 2024-01-09 | Endochoice, Inc. | Multi-camera endoscope |
US9901244B2 (en) | 2009-06-18 | 2018-02-27 | Endochoice, Inc. | Circuit board assembly of a multiple viewing elements endoscope |
US9101268B2 (en) | 2009-06-18 | 2015-08-11 | Endochoice Innovation Center Ltd. | Multi-camera endoscope |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
US9560953B2 (en) | 2010-09-20 | 2017-02-07 | Endochoice, Inc. | Operational interface in a multi-viewing element endoscope |
CN103348470B (zh) | 2010-12-09 | 2017-05-03 | 恩多巧爱思创新中心有限公司 | 用于多摄像头内窥镜的柔性电子电路板 |
EP3420886B8 (en) | 2010-12-09 | 2020-07-15 | EndoChoice, Inc. | Flexible electronic circuit board multi-camera endoscope |
US11889986B2 (en) | 2010-12-09 | 2024-02-06 | Endochoice, Inc. | Flexible electronic circuit board for a multi-camera endoscope |
EP2672878B1 (en) | 2011-02-07 | 2017-11-22 | Endochoice Innovation Center Ltd. | Multi-element cover for a multi-camera endoscope |
EP2604175B1 (en) | 2011-12-13 | 2019-11-20 | EndoChoice Innovation Center Ltd. | Removable tip endoscope |
EP2604172B1 (en) | 2011-12-13 | 2015-08-12 | EndoChoice Innovation Center Ltd. | Rotatable connector for an endoscope |
US9560954B2 (en) | 2012-07-24 | 2017-02-07 | Endochoice, Inc. | Connector for use with endoscope |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US9629595B2 (en) | 2013-03-15 | 2017-04-25 | Hansen Medical, Inc. | Systems and methods for localizing, tracking and/or controlling medical instruments |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
US9986899B2 (en) | 2013-03-28 | 2018-06-05 | Endochoice, Inc. | Manifold for a multiple viewing elements endoscope |
US9993142B2 (en) | 2013-03-28 | 2018-06-12 | Endochoice, Inc. | Fluid distribution device for a multiple viewing elements endoscope |
JP6141410B2 (ja) * | 2013-03-29 | 2017-06-07 | オリンパス株式会社 | マニピュレータ、マニピュレータシステム及びマニピュレータの作動方法 |
US10499794B2 (en) | 2013-05-09 | 2019-12-10 | Endochoice, Inc. | Operational interface in a multi-viewing element endoscope |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
JP2015156937A (ja) * | 2014-02-24 | 2015-09-03 | ソニー株式会社 | 画像処理装置、画像処理方法、並びにプログラム |
CN104887230B (zh) * | 2014-03-05 | 2017-08-25 | 上海理工大学 | 吞咽式电子胶囊的倾角式磁跟踪系统 |
EP3150103A4 (en) * | 2014-09-25 | 2018-02-21 | Olympus Corporation | Endoscope system |
CN105559735A (zh) * | 2014-11-05 | 2016-05-11 | 深圳市古安泰自动化技术有限公司 | 内窥镜 |
JP6519144B2 (ja) * | 2014-11-06 | 2019-05-29 | ソニー株式会社 | 内視鏡システム、画像処理装置、画像処理方法、およびプログラム |
CN108778113B (zh) * | 2015-09-18 | 2022-04-15 | 奥瑞斯健康公司 | 管状网络的导航 |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
US9931025B1 (en) | 2016-09-30 | 2018-04-03 | Auris Surgical Robotics, Inc. | Automated calibration of endoscopes with pull wires |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
CN108990412B (zh) | 2017-03-31 | 2022-03-22 | 奥瑞斯健康公司 | 补偿生理噪声的用于腔网络导航的机器人系统 |
WO2018188466A1 (en) * | 2017-04-12 | 2018-10-18 | Bio-Medical Engineering (HK) Limited | Automated steering systems and methods for a robotic endoscope |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
AU2018292281B2 (en) | 2017-06-28 | 2023-03-30 | Auris Health, Inc. | Electromagnetic distortion detection |
EP3644885B1 (en) | 2017-06-28 | 2023-10-11 | Auris Health, Inc. | Electromagnetic field generator alignment |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
CN111278344B (zh) * | 2017-11-01 | 2023-09-05 | 索尼公司 | 手术臂系统和手术臂控制系统 |
US11510736B2 (en) | 2017-12-14 | 2022-11-29 | Auris Health, Inc. | System and method for estimating instrument location |
EP3684283A4 (en) | 2017-12-18 | 2021-07-14 | Auris Health, Inc. | METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS |
JP7225259B2 (ja) | 2018-03-28 | 2023-02-20 | オーリス ヘルス インコーポレイテッド | 器具の推定位置を示すためのシステム及び方法 |
JP7214747B2 (ja) | 2018-03-28 | 2023-01-30 | オーリス ヘルス インコーポレイテッド | 位置センサの位置合わせのためのシステム及び方法 |
CN114601559B (zh) | 2018-05-30 | 2024-05-14 | 奥瑞斯健康公司 | 用于基于定位传感器的分支预测的系统和介质 |
CN112236083B (zh) | 2018-05-31 | 2024-08-13 | 奥瑞斯健康公司 | 用于导航检测生理噪声的管腔网络的机器人系统和方法 |
EP3801189B1 (en) | 2018-05-31 | 2024-09-11 | Auris Health, Inc. | Path-based navigation of tubular networks |
KR102455671B1 (ko) | 2018-05-31 | 2022-10-20 | 아우리스 헬스, 인코포레이티드 | 이미지-기반 기도 분석 및 매핑 |
JP7376569B2 (ja) * | 2018-07-31 | 2023-11-08 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ロボット操作手術器具の位置を追跡システムおよび方法 |
JP7536752B2 (ja) | 2018-09-28 | 2024-08-20 | オーリス ヘルス インコーポレイテッド | 内視鏡支援経皮的医療処置のためのシステム及び方法 |
WO2021038495A1 (en) | 2019-08-30 | 2021-03-04 | Auris Health, Inc. | Instrument image reliability systems and methods |
JP2022546421A (ja) | 2019-08-30 | 2022-11-04 | オーリス ヘルス インコーポレイテッド | 位置センサの重みベースの位置合わせのためのシステム及び方法 |
WO2021044297A1 (en) | 2019-09-03 | 2021-03-11 | Auris Health, Inc. | Electromagnetic distortion detection and compensation |
EP4084720A4 (en) | 2019-12-31 | 2024-01-17 | Auris Health, Inc. | ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS |
EP4084721A4 (en) | 2019-12-31 | 2024-01-03 | Auris Health, Inc. | IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING |
WO2021137108A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Alignment interfaces for percutaneous access |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5347987A (en) * | 1991-04-08 | 1994-09-20 | Feldstein David A | Self-centering endoscope system |
US5469840A (en) * | 1991-12-10 | 1995-11-28 | Olympus Optical, Ltd. | Electromotive warping type endoscope with velocity control |
EP2008571A1 (en) * | 2006-04-17 | 2008-12-31 | Olympus Medical Systems Corp. | Endoscope insertion direction detecting device and endoscope insertion direction detecting method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2238440B (en) | 1989-11-24 | 1994-07-27 | Olympus Optical Co | Methods of detecting endoscope insertion direction |
JP3012341B2 (ja) * | 1990-12-25 | 2000-02-21 | オリンパス光学工業株式会社 | 内視鏡装置 |
JP3179167B2 (ja) * | 1992-02-25 | 2001-06-25 | オリンパス光学工業株式会社 | 内視鏡装置 |
US5658238A (en) * | 1992-02-25 | 1997-08-19 | Olympus Optical Co., Ltd. | Endoscope apparatus capable of being switched to a mode in which a curvature operating lever is returned and to a mode in which the curvature operating lever is not returned |
US5469254A (en) * | 1992-04-06 | 1995-11-21 | Olympus Optical Co., Ltd. | Method and apparatus for measuring three-dimensional position of a pipe from image of the pipe in an endoscopic observation system |
JP3523672B2 (ja) | 1993-12-02 | 2004-04-26 | オリンパス株式会社 | 内視鏡装置 |
JP4434705B2 (ja) * | 2003-11-27 | 2010-03-17 | オリンパス株式会社 | 画像解析方法 |
KR100911793B1 (ko) * | 2004-05-14 | 2009-08-12 | 올림푸스 메디칼 시스템즈 가부시키가이샤 | 전자 내시경 |
JP4695420B2 (ja) * | 2004-09-27 | 2011-06-08 | オリンパス株式会社 | 湾曲制御装置 |
JP2009007024A (ja) | 2007-06-27 | 2009-01-15 | Satoru Minamihata | イワナの骨酒用容器 |
-
2009
- 2009-10-08 CN CN200980131440.8A patent/CN102123651B/zh active Active
- 2009-10-08 EP EP09838350A patent/EP2301411B1/en active Active
- 2009-10-08 JP JP2010518448A patent/JP4585048B2/ja active Active
- 2009-10-08 WO PCT/JP2009/067555 patent/WO2010082383A1/ja active Application Filing
-
2010
- 2010-05-19 US US12/782,983 patent/US8167791B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5347987A (en) * | 1991-04-08 | 1994-09-20 | Feldstein David A | Self-centering endoscope system |
US5469840A (en) * | 1991-12-10 | 1995-11-28 | Olympus Optical, Ltd. | Electromotive warping type endoscope with velocity control |
EP2008571A1 (en) * | 2006-04-17 | 2008-12-31 | Olympus Medical Systems Corp. | Endoscope insertion direction detecting device and endoscope insertion direction detecting method |
Non-Patent Citations (1)
Title |
---|
JP特开2005-157902A 2005.06.16 |
Also Published As
Publication number | Publication date |
---|---|
EP2301411A4 (en) | 2011-07-20 |
US8167791B2 (en) | 2012-05-01 |
JPWO2010082383A1 (ja) | 2012-06-28 |
CN102123651A (zh) | 2011-07-13 |
JP4585048B2 (ja) | 2010-11-24 |
US20100298641A1 (en) | 2010-11-25 |
EP2301411B1 (en) | 2012-12-12 |
EP2301411A1 (en) | 2011-03-30 |
WO2010082383A1 (ja) | 2010-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102123651B (zh) | 内窥镜系统 | |
CN103874951B (zh) | 对焦控制装置、内窥镜系统和对焦控制方法 | |
CN102469914B (zh) | 内窥镜装置以及弯曲驱动控制方法 | |
JP3347385B2 (ja) | 内視鏡画像処理装置 | |
US6295368B1 (en) | Endoscopic image processing system capable of estimating absolute shape of object entity | |
CN102123650B (zh) | 内窥镜系统 | |
EP2215960B1 (en) | Endoscope curve control apparatus | |
US6432041B1 (en) | Endoscope shape detecting apparatus wherein form detecting processing is controlled according to connection state of magnetic field generating means | |
JP4994737B2 (ja) | 医療用画像処理装置及び医療用画像処理方法 | |
CN105530852B (zh) | 内窥镜系统 | |
CN107249427B (zh) | 医疗装置、医疗图像生成方法以及医疗图像生成程序 | |
CN104755009A (zh) | 内窥镜系统 | |
JP5750669B2 (ja) | 内視鏡システム | |
CN105934216B (zh) | 机器人引导系统、控制单元和装置 | |
WO2017212725A1 (ja) | 医療用観察システム | |
CN107205626A (zh) | 内窥镜装置和内窥镜装置的对焦控制方法 | |
JP3438937B2 (ja) | 画像処理装置 | |
JP7385731B2 (ja) | 内視鏡システム、画像処理装置の作動方法及び内視鏡 | |
JPH03165732A (ja) | 内視鏡の暗部領域の検出方法 | |
CN110769731B (zh) | 内窥镜系统、内窥镜用处理系统、图像处理方法 | |
KR102313319B1 (ko) | 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법 | |
Hackner et al. | Panoramic imaging assessment of different bladder phantoms–an evaluation study | |
CN108597004A (zh) | 基于局部优化算法的牙齿咬合面全景图像拼接方法 | |
JPH0926547A (ja) | 内視鏡画像処理装置 | |
Hackner et al. | Deep-learning based reconstruction of the stomach from monoscopic video data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20151119 Address after: Tokyo, Japan, Japan Patentee after: Olympus Corporation Address before: Tokyo, Japan, Japan Patentee before: Olympus Medical Systems Corp. |