CN103747718A - 图像处理装置 - Google Patents

图像处理装置 Download PDF

Info

Publication number
CN103747718A
CN103747718A CN201280040149.1A CN201280040149A CN103747718A CN 103747718 A CN103747718 A CN 103747718A CN 201280040149 A CN201280040149 A CN 201280040149A CN 103747718 A CN103747718 A CN 103747718A
Authority
CN
China
Prior art keywords
attribute
mentioned
region
auxiliary information
diagnosis auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280040149.1A
Other languages
English (en)
Other versions
CN103747718B (zh
Inventor
田中健一
西村博一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Publication of CN103747718A publication Critical patent/CN103747718A/zh
Application granted granted Critical
Publication of CN103747718B publication Critical patent/CN103747718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

图像处理装置具备:第一特征量计算部,其针对构成拍摄被检体得到的图像的每个像素计算第一特征量;区域分割部,其基于第一特征量将图像分割为多个区域;第二特征量计算部,其针对分割得到的每个区域计算第二特征量;分类部,其基于第二特征量进行多个区域中的各区域具有多种属性中的哪一属性的分类;以及诊断辅助信息计算部,其基于由分类部进行分类后的多个区域中的两个以上的规定数量的区域所具有的属性的比例来计算用于进行诊断辅助的诊断辅助信息。

Description

图像处理装置
技术领域
本发明涉及对拍摄被检体而得到的图像进行图像处理的图像处理装置。
背景技术
根据使用目的等对由拍摄被检体的摄像装置获得的图像进行各种图像处理。
在医疗用领域,插入体腔内来进行内窥镜检查的内窥镜被广泛应用。
内窥镜的插入部插入体腔内,利用设置于插入部的前端部的摄像元件来拍摄体腔内的患部等,利用图像处理装置进行图像处理后作为内窥镜图像显示在显示装置中。
另外,近年来提出了如下一种图像处理装置:为了易于使手术操作者更顺利地进行诊断,通过对由内窥镜的摄像元件获取到的图像或者内窥镜图像进行图像处理来计算用于进行诊断辅助的诊断辅助信息。
例如,在日本专利4451460号公报中公开了如下一种图像处理装置:对拍摄生物体粘膜而得到的内窥镜图像进行区域分割使得按组织结构类似而分为不同区域,基于规定的特征量对分割得到的每个区域进行判别分类的处理,将进行判别分类而得到的分类结果作为诊断辅助信息与各区域对应关联地显示。
然而,在如上述公报那样计算诊断辅助信息的结构中,是针对每个区域部分计算诊断辅助信息的结构,因此有时难以适当地提供诊断辅助信息。
如果更为具体地说明,则例如在对大肠内进行检查的情况下,表现为大肠病变的无血管区域(简记为avascular area:AVA)成为进行侵袭癌(Invasivecancer)的诊断时的一个目标,因此成为重要的诊断,但在内窥镜图像的区域中仅关注了“没有拍摄到血管”这一点的情况下,由于在被认为癌变可能性低的增生息肉中血管也不能视觉识别,因此在上述以往例中难以计算判别二者而得到的诊断辅助信息。
因此,期望一种即使在如上所述的情况下也能够提供更为恰当的诊断辅助信息的图像处理装置。
本发明是鉴于上述问题点而完成的,其目的在于提供如下一种图像处理装置:根据基于特征量进行分割而得到的多个区域中的各区域分别具有的属性的比例来计算更为恰当的诊断辅助信息。
发明内容
用于解决问题的方案
本发明的一个方式所涉及的图像处理装置具备:第一特征量计算部,其根据拍摄被检体而得到的图像来针对构成该图像的每个像素计算第一特征量;区域分割部,其基于上述第一特征量将上述图像分割为多个区域;第二特征量计算部,其针对由上述区域分割部分割得到的每个区域计算第二特征量;分类部,其基于上述第二特征量进行上述多个区域中的各区域具有多种属性中的哪一属性的分类;以及诊断辅助信息计算部,其基于由上述分类部分类后的上述多个区域中的两个以上的规定数量的区域所具有的属性的比例来计算用于进行诊断辅助的诊断辅助信息。
附图说明
图1是表示本发明的具备第一实施方式的图像处理装置的内窥镜系统的整体结构的图。
图2是表示由构成图1的图像处理装置的CPU构成的主要的处理功能的框图。
图3是示意性地表示从图像输入部输入的图像、进行区域分割后得到的图像等的图。
图4是表示第二特征量和第二特征量中的在特定范围内分别存在多种属性的特征量-属性的判别空间的概念的图。
图5是表示多种属性和多种属性中的在特定范围内存在各不相同的诊断辅助信息的属性-诊断辅助信息的判别空间的概念的图。
图6是表示计算第一实施方式的诊断辅助信息的处理过程的流程图。
图7是表示图6中的将属性多维矢量化的处理过程的流程图。
图8是表示图7的多维矢量的成分值等的图。
图9是表示本发明的第二实施方式的信息存储部的信息保存内容的图。
具体实施方式
下面,参照附图来说明本发明的实施方式。
(第一实施方式)
图1所示的内窥镜系统1包括:内窥镜观察装置2;本实施方式的图像处理装置3,其由针对由该内窥镜观察装置2得到的作为医用图像的内窥镜图像进行图像处理的个人计算机等构成;以及作为显示装置的显示监视器4,其显示由该图像处理装置3进行图像处理而得到的图像。
内窥镜观察装置2具有:被插入到体腔内的内窥镜6;向该内窥镜6提供照明光的光源装置7;作为信号处理装置的摄像机控制部件(简记为CCU)8,其进行针对内窥镜6的摄像单元的信号处理;以及监视器9,其通过被输入从该CCU8输出的影像信号,来显示由摄像元件拍摄到的内窥镜图像。
内窥镜6具有被插入到体腔内的插入部11以及设置在该插入部11的后端的操作部12。另外,在插入部11内穿通有传送照明光的光导件13。
该光导件13的后端与光源装置7连接。而且,将从该光源装置7提供的照明光通过光导件13进行传输,从在设置于插入部11的前端部14的照明窗安装的前端面(将所传送的照明光)射出,对患部等被摄体进行照明。
设置有摄像装置17,该摄像装置17由在与照明窗相邻接的观察窗处安装的物镜15以及在该物镜15的成像位置配置的作为固体摄像元件的例如电荷耦合元件(简记为CCD)16构成。而且,成像在该CCD16的摄像面上的光学像由该CCD16进行光电变换。
该CCD16经由信号线与CCU8连接,通过从该CCU8施加CCD驱动信号,由此CCD16输出进行光电变换得到的图像信号。该图像信号由CCU8内的影像处理电路进行信号处理,被变换为影像信号。该影像信号被输出到监视器9,在监视器9的显示面上显示内窥镜图像。该影像信号还被输入到图像处理装置3。
该图像处理装置3具有:图像输入部21,其输入与从内窥镜观察装置2输入的内窥镜图像(以下简记为图像)对应的影像信号;作为中央运算处理装置的CPU22,其针对从该图像输入部21输入的图像数据进行图像处理;以及处理程序存储部23,其包括存储由该CPU22执行图像处理的处理程序(控制程序)的存储器等。
另外,该图像处理装置3具有:图像存储部24,其包括存储从图像输入部21输入的图像数据等的存储器等;信息存储部25,其包括存储由CPU22进行处理得到的信息等的存储器等;作为存储装置的硬盘27,其经由存储装置接口26存储由CPU22进行处理得到的图像数据和信息等;显示处理部28,其包括进行用于显示由CPU22进行处理得到的图像数据等的显示处理的显示处理电路等;以及输入操作部29,其包括由用户对图像处理的参数等进行数据输入、指示操作的键盘等。
而且,由该显示处理部28生成的影像信号显示在作为图像显示单元的显示监视器4上,在该显示监视器4的显示面上显示进行图像处理得到的处理图像。
此外,图像输入部21、CPU22、处理程序存储部23、图像存储部24、信息存储部25、存储装置接口26、显示处理部28、输入操作部29经由数据总线30相互连接。
图2表示本实施方式的由CPU22构成的主要处理功能。如图2所示,CPU22具备预处理部31的处理功能,该预处理部31针对从图像输入部21输入的图像进行噪声抑制、逆γ校正等预处理。
此外,图3的(A)示意性地示出从图像输入部21输入到图像处理装置3的图像。
另外,CPU22具备包括第一特征量计算部32a的特征量计算部32的处理功能和区域分割部33的处理功能,其中,该第一特征量计算部32a针对由预处理部31进行处理得到的图像中的各像素计算第一特征量,该区域分割部33基于第一特征量将上述图像分割为多个区域。
第一特征量计算部32a对作为形成图像的颜色信号的R、G、B信号的各信号值、通过G/R、G/(R+G+B)等各信号值的运算而计算出的值、亮度信号的亮度值、图像所具有的纹理特征(质感的特征)、使用了进行频率分离的频带滤波器而得到的多个频率成分或者特定的频率成分的滤波器输出值等进行计算,来作为第一特征量。
区域分割部33基于第一特征量,使用公知的聚类分析方法等分割为多个区域。聚类分析方法既可以是k-mean聚类分析(k-means法)等非分层的聚类分析,也可以是最短距离法等分层的聚类分析。另外,也可以使用其它区域分割方法。图3的(B)示出由区域分割部33分割为多个区域而得到的区域Ra-Rd。
上述特征量计算部32具有第二特征量计算部32b,该第二特征量计算部32b针对由区域分割部33分割得到的多个区域Ra-Rd中的各区域Ri(i=a-d)计算第二特征量。
第二特征量计算部32b例如也可以针对各区域Ri计算与由第一特征量计算部32a得到的第一特征量相同的特征量,来作为第二特征量。但是,还针对每个区域计算上述R、G、B信号的各信号值、亮度值、纹理特征、滤波器输出值等各种特征量的平均值、色散量等的统计量,来作为第二特征量。
另外,CPU22具有分类部34的处理功能,该分类部34基于第二特征量来进行由区域分割部33分割得到的多个区域Ra-Rd中的各区域Ri具有预先准备的多种属性中的哪一属性的分类。
因此,例如在图1所示的信息存储部25中具有用于保存预先准备的多种属性的信息的属性信息保存部25a。
而且,分类部34进行各区域具有属性信息保存部25a中保存的多种属性中的哪一属性的分类。例如在分类部34将M个区域按各区域所具有的属性(的区域)进行分类的情况下,有可能存在具有相同属性的区域,因此在分类后,分类为M个以下规定数量的属性的区域。
上述属性信息保存部25a与对作为检查对象的生物体组织(生物体粘膜组织)的例如大肠的生物体粘膜组织进行诊断的情况相对应地预先保存有以下属性。
A1.规则的Vessels区域(血管区域)(+)
A2.规则的Surface Pattern区域(表面图案区域)(+)
A3.Vessels不规则的区域(-)
A4.Surface Pattern不规则的区域(-)
A5.色调变化剧烈的区域(-)
A6.无构造区域(±)
A7.出血的区域(--)
为了针对作为检查对象的大肠的生物体粘膜组织的情况来计算成为其病变的目标或者指标的诊断辅助信息,预先设定上述A1-A7的属性。在想要根据多个属性将过去收集到的大肠的生物体粘膜组织的图像数据进行分类的情况下,能够根据上述A1-A7的属性进行分类。
属性后面附带的代码(+)表示成为恶性度低的病变(病变的可能性低)指标的属性,代码(-)表示成为恶性度高的病变(病变的可能性高)指标的属性。
另外,A6的属性后面的代码(±)表示由于不具有构造(即实质上没有示出构造)而成为难以判断恶性度是高还是低的指标的属性(规定的属性)。作为关注区域的无构造区域所具有的规定的属性是如下属性:仅在具有该规定的属性的区域内难以判断是相当于上述AVA的区域,还是非AVA而只是看不到血管的区域。
因此,本实施方式如后述那样针对具有该无构造区域(±)的属性的区域(即关注区域),基于与该区域相邻的周围的一个或者多个区域所具有的各属性各自的面积的比例(多个区域的属性的面积比)来校正作为其属性的值的属性值(使用校正后的属性值来计算诊断辅助信息)。
此外,如后述那样根据多种属性的属性值或者比例(换句话说,作为多种维度的虚拟空间的判别空间)来计算所对应的病变名或者症状名等的诊断辅助信息。另外,A7的属性后面的代码(--)表示恶性度非常高(病变的可能性非常高)的特定的属性。
而且,在检测出具有该特定的属性的区域的情况下,与其它属性或者属性值无关地计算所对应的病变名的诊断辅助信息。也就是说,A7的属性与A1-A6的属性的情况(至少基于各属性值的计算来计算出所对应的诊断辅助信息的情况)大不相同。因此,以下的说明主要与A1-A6的属性有关。
这样,在本实施方式中,属性信息保存部25a针对多个区域Ra-Rd主要预先保存有以下信息:成为恶性度低的病变的指标的第一属性(具体地指A1、A2)、成为恶性度高的病变的指标的第二属性(具体地指A3-A5)以及作为难以判断恶性度的规定的属性的第三属性(具体地指A6)。
另外,分类部34使用预先准备的教师数据(训练数据),利用第二特征量以公知的判别分类方法(Fisher(费希尔)的线性判别函数、Support Vector Machine(支持向量机)等)来计算与上述多种属性A1-A6有关的分类(判别)界限。图4示意性地示出使用公知的判别分类方法对预先计算出的属性进行判别(分类)的判别空间。
图4的例子中示出在作为第二特征量的例如亮度值与纹理特征设定为正交的坐标轴并计算出以能够根据区域Ri所具有的亮度值、纹理特征来判别六个属性A1-A6的方式存在的范围而得到的判别空间的概念图。在图4中示出了第二特征量为两个二维空间的情况,但在第二特征量为三个的情况下成为三维空间,另外在第二特征量为一个的情况下成为一维(空间)。另外,在图4中一个黑点(小圆)相当于一个区域。
而且,例如信息存储部25具有特征量-属性对应关联信息保存部25b,该特征量-属性对应关联信息保存部25b将第二特征量的值和所对应的各属性所在的范围保存为相关联的(第二)特征量-属性对应关联信息(或者属性分类用信息)。
分类部34通过参照特征量-属性对应关联信息,能够对与针对每个区域Ri计算出的亮度值、纹理特征等第二特征量对应的属性简单地进行分类(确定)。
图3的(C)示出分类部34参照特征量-属性对应关联信息针对图3的(B)的区域Ra-Rd进行属性的分类的情形。
另外,在进行了属性的分类的图像中,手术操作者等用户能够进行想要通过该图像处理装置3获得诊断辅助信息的区域(以下称为关心区域)的范围Ro的设定。手术操作者等用户利用图1的输入操作部29来针对进行属性的分类而得到的图像设定想要获得诊断辅助信息的关心区域的范围Ro。输入操作部29形成有用于由用户设定关心区域的范围Ro的范围设定部29a。
通过设定关心区域的范围Ro的输入操作,CPU22在进行属性的分类而得到的图像上设定关心区域的范围Ro。
图3的(D)示出在进行属性的分类而得到的图像上设定关心区域的范围Ro的情形。此外,并不限定于针对进行属性的分类而得到的图像进行关心区域的范围Ro的设定的情况,还能够针对进行属性的分类之前的图像进行关心区域的范围Ro的设定。
另外,如图2所示,CPU22具有诊断辅助信息计算部35的处理功能,该诊断辅助信息计算部35基于由分类部34分类后的规定数量的各区域Ri的属性的信息、更为具体地说基于各区域Ri分别具有哪一属性的多种属性以及具有各属性的区域的面积的信息,来计算辅助手术操作者进行诊断的诊断辅助信息。
诊断辅助信息计算部35计算与检查对象的生物体组织对应地预先准备的病变名或者症状名等,来作为诊断辅助信息。在本实施方式中,作为进行大肠的检查时的诊断辅助信息,准备了以下三个病变名。
D1.增生息肉
D2.腺瘤
D3.癌
另外,在本实施方式中,与能够根据上述(区域Ri所具有的)第二特征量来分类(确定)与第二特征量对应的属性的情况同样地,使用多种属性(具体地指A1-A6的属性),以公知的判别分类方法来计算预先使用教师数据来判别多个诊断辅助信息(具体地指D1-D3)的界限。
图5示出例如在设定为规则的Vessels区域与色调变化剧烈的区域正交的坐标系的二维的矢量空间(判别空间)中使用教师数据预先计算出的属性-诊断辅助信息对应关联信息的概念图。
图5简化并示意性地示出了在二维的空间中多个诊断辅助信息(具体地指D1-D3)以能够判别的方式存在的范围,但实际上在将A1-A6的属性视为各不相同的矢量成分的六维的矢量空间(判别空间)中确定互不相同的多个诊断辅助信息以能够判别的方式存在的范围。此外,在图5中,一个黑点(小圆)相当于一个范围Ro。
另外,信息存储部25具有用于保存使用教师数据预先计算出的属性-诊断辅助信息对应关联信息的属性-诊断辅助信息对应关联信息保存部25c。
作为信息保存单元的属性-诊断辅助信息对应关联信息保存部25c在将多种属性分别设为矢量成分的多维度的矢量空间中将利用具有各属性的区域的面积的总和计算出的属性值与各矢量的成分值对应关联,并与上述多维度的矢量的成分值相应地保存互不相同的多个诊断辅助信息所在的矢量空间内的范围的信息。此外,属性-诊断辅助信息对应关联信息保存部25c形成用于保存诊断辅助信息的诊断辅助信息保存部,该诊断辅助信息保存部在基于由分类部34分类后的规定数量的区域分别具有的属性的面积比或者区域数的信息来计算诊断辅助信息时使用。
而且,诊断辅助信息计算部35根据由分类部34分类后的各区域Ri所具有的属性的信息和各区域Ri的面积的信息,参照属性-诊断辅助信息对应关联信息保存部25c中保存的属性-诊断辅助信息对应关联信息来计算诊断辅助信息。
因此,诊断辅助信息计算部35具有用于计算各区域Ri所具有的面积的面积计算部35a。而且,诊断辅助信息计算部35将多种属性(具体地指A1-A6)的各属性的值与具有该各属性的区域的面积的值对应关联地确定。换句话说,图5所示的属性-诊断辅助信息对应关联的判别空间(属性的多维矢量空间)中的各属性的坐标轴的值(矢量成分)与具有该属性的一个或者多个区域的面积的值(比例)对应。
因而,诊断辅助信息计算部35能够根据在多种属性中分别计算具有各属性的一个或者多个区域的面积而得到的结果的各属性的值,基于属性-诊断辅助信息对应关联信息来简单地计算与该各属性的值对应的诊断辅助信息。
另一方面,在(手术操作者期望诊断辅助的关心区域的范围Ro内)区域Ri包含具有规定(种类)的属性、具体地指A6的属性的区域之类的分类结果的情况下,不能将成为具有A6的属性的关注区域的区域Ri的信息有效地用于诊断辅助信息。也就是说,A6的属性为,如果仅利用该属性和区域则难以判断第一属性和第二属性,因而不能有效地用于计算诊断辅助信息,其中,该第一属性在降低病变的恶性度的趋势下发挥作用,该第二属性在使病变的恶性度增加的趋势下发挥作用。
因此,在关心区域的范围Ro内包含如A6的属性那样的规定的属性的状态下进行分类的情况下,本实施方式的诊断辅助信息计算部35进行以下处理:以具有规定的属性的关注区域为中心,根据其周围存在的多个区域所具有的属性和区域的面积,来校正为接近第一属性和第二属性中的哪一属性的属性值。
也就是说,图2所示的诊断辅助信息计算部35具有加权校正部35b,该加权校正部35b例如通过加权来针对成为具有特定的属性的关注区域的区域校正其属性的值。而且,诊断辅助信息计算部35针对具有A6的属性的区域计算由加权校正部35b进行加权校正后的属性的值,并且利用基于A1-A5的属性以及具有各属性的区域的面积计算出的各属性的值,根据属性-诊断辅助信息对应关联信息来计算与该各属性的值对应的诊断辅助信息。此外,诊断辅助信息计算部35具有作为关注区域判定单元的关注区域判定部35c(参照图2),该关注区域判定部35c判定在关心区域的范围Ro内是否包含具有如上述A6的属性那样的规定的属性的区域(称为关注区域)。
另外,CPU22(的诊断辅助信息计算部35)将计算出的诊断辅助信息发送到图1的显示处理部28,显示处理部28利用显示监视器4来显示计算出的诊断辅助信息。显示处理部28形成有进行显示诊断辅助信息的处理的诊断辅助信息显示处理部28a,显示监视器4形成有显示诊断辅助信息的诊断辅助信息显示部。
此外,在图2中示出了通过CPU22来构成预处理部31、特征量计算部32、区域分割部33、分类部34以及诊断辅助信息计算部35的情况,但并不限定于通过CPU22构成的情况,也可以使用专用的电子回路等的硬件来构成。
这种结构的本实施方式的图像处理装置3的特征在于,具备:作为第一特征量计算单元的第一特征量计算部32a,其根据拍摄被检体而得到的图像,针对构成该图像的每个像素计算第一特征量;作为区域分割单元的区域分割部33,其基于上述第一特征量将上述图像分割为多个区域;作为第二特征量计算单元的第二特征量计算部32b,其针对由上述区域分割单元分割得到的每个区域计算第二特征量;作为分类单元的分类部34,其基于上述第二特征量进行上述多个区域中的各区域具有多种属性中的哪个属性的分类;以及作为诊断辅助信息计算单元的诊断辅助信息计算部35,其基于由上述分类单元分类后的上述多个区域中的两个以上的规定数量的区域所具有的属性的比例来计算用于进行诊断辅助的诊断辅助信息。
接着参照图6来说明利用本实施方式的图像处理装置3计算诊断辅助信息的处理。
如图1所示,在将内窥镜观察装置2、图像处理装置3以及显示监视器4进行连接的状态下,手术操作者接通内窥镜系统1的电源。
另外,手术操作者为了对作为被检体的患者的例如大肠进行检查而将内窥镜6插入到大肠内。
由内窥镜6的摄像装置17拍摄到的图像在监视器9上进行显示,并且还通过图像输入部21被输入到图像处理装置3。
也就是说,如图6的步骤S1所示,例如在进行从模拟的图像向数字的图像的A/D变换之后由图像输入部21输入到图像处理装置3。该图像例如被暂时保存到图像存储部24。图3的(A)示意性地表示该图像。此外,在图3的(A)中,将处置对象的图像I设定为中央部分的大致椭圆形状的区域,但并不限定于这种区域的情况。
如步骤S2所示,CPU22(的预处理部31)针对处置对象的图像I进行噪声抑制、逆γ校正等预处理。
如步骤S3所示,CPU22(的第一特征量计算部32a)根据被预处理部31处理后的图像I中的各像素来计算R、G、B信号值、通过各信号值的运算而计算出的值、亮度值、纹理特征、滤波器输出值等第一特征量。
如步骤S4所示,CPU22(的区域分割部33)基于第一特征量,使用作为公知的聚类分析方法的k-means法、最短距离法等分割为多个区域。
图3的(B)表示由区域分割部33分割为多个区域而得到的多个区域Ra-Rd。
如步骤S5所示,CPU22(的第二特征量计算部32b)针对分割为多个区域而得到的区域Ra-Rd中的每个区域Ri计算第二特征量。第二特征量计算部32b针对每个区域Ri计算上述R、G、B信号的各信号值、通过各信号值的运算而计算出的值、亮度值、纹理特征等的平均值、色散量等的统计量,来作为第二特征量。此外,也可以使用与第一特征量不同种类的特征量及其统计量。
如下一个步骤S6所示,CPU22(的分类部34)基于由第二特征量计算部32b计算出的第二特征量进行如下分类:由区域分割部33分割得到的多个区域Ra-Rd中的各区域Ri具有属性信息保存部25a中保存的多种属性中的哪一属性。
在这种情况下,当将在图4中说明的特征量-属性对应关联信息预先保存到特征量-属性对应关联信息保存部25b时,能够简单地确定(分类)与各区域Ri对应的属性。
图3的(D)表示通过步骤S6将多个区域Ra-Rd分类为各自对应的属性的状态。具体地说,表示以下状态:分类部34将区域Ra分类为具有A4的属性、将区域Rb分类为具有A6的属性、将区域Rc分类为具有A3的属性、将区域Rd分类为具有A4的属性。
如下一个步骤S7所示,通过由手术操作者从输入操作部29进行的设定要计算诊断辅助信息的关心区域的范围Ro的输入操作,CPU22在进行属性的分类后的图像I上设定关心区域的范围Ro。
图3的(D)示出在进行属性的分类后的图像上设定了上述范围Ro的情形。此外,如上所述,也可以在属性的分类前的图像I上进行步骤S7所示的处理。另外,在图3中以一个矩形区域来设定范围Ro,但并不限定范围Ro的形状、尺寸、个数。另外,不特别地设定范围Ro,可以将整个图像I设为关心区域(等同于将整个图像I设为范围Ro)。
在下一个步骤S8中,CPU22(的诊断辅助信息计算部35)判定在步骤S7中设定的范围Ro内是否包含如A7那样的属性的区域、即是否包含与特定的病变对应的可能性高的、恶性度的指标明显的特定的属性的区域。
在判定为在范围Ro内包含特定的属性的区域的情况下,在步骤S9中CPU22(的诊断辅助信息计算部35)与其它属性无关地,根据该特定的属性计算所对应的诊断辅助信息。在存在具有如A7那样的特定的属性的区域的情况下,在计算出癌的病变名的诊断辅助信息之后转移到步骤S14的处理。
另一方面,在判定为在范围Ro内不包含特定的属性的区域的情况下,在下一个步骤S10中CPU22(的诊断辅助信息计算部35)开始进行以下处理:将上述范围Ro内的多种属性的比例进行多种维度的多维矢量化(简记为属性的多维矢量化)。此外,参照图7并之后叙述属性的多维矢量化的处理内容。
在使进行多维矢量化的处理开始的情况下,在图6中的下一个步骤S11中,CPU22(的诊断辅助信息计算部35的关注区域判定部35c)判定在范围Ro内是否包含如A6那样的规定的属性的区域(换句话说,具有仅在该区域内难以计算恰当的诊断辅助信息的规定的属性的关注区域)。
如图3的(D)所示,在判定结果是在范围Ro内包含规定的属性的关注区域的情况下,在步骤S12中诊断辅助信息计算部35(的加权校正部35b)在通过加权校正处理针对包含该规定的属性的关注区域校正属性的值、即属性值之后,进入下一个步骤S13的处理。
另一方面,在判定为在范围Ro内不包含规定的属性的区域的情况下,不进行加权校正处理而转移到步骤S13的处理。
在步骤S13中,CPU22(的诊断辅助信息计算部35)根据进行多维矢量化而得到的多种属性的属性值的信息来计算所对应的诊断辅助信息,将计算出的诊断辅助信息发送到显示处理部28。
在下一个步骤S14中,显示处理部28(的诊断辅助信息显示处理部28a)进行显示诊断辅助信息的处理,在显示监视器4的显示画面上显示诊断辅助信息。图3的(E)示出针对范围Ro显示所计算出的诊断辅助信息(具体地指腺瘤(Adenomas)的病变名)的情形。此外,也可以在范围Ro上显示诊断辅助信息。
手术操作者通过参考像这样显示的诊断辅助信息能够高效地进行内窥镜检查。
接着,参照图7来说明图6中的步骤S10的属性的多维矢量化的处理以及与该处理相关的加权校正处理等诊断辅助信息计算部35的处理。
当属性的多维矢量化的处理开始时,如图7的步骤S21所示,诊断辅助信息计算部35(的面积计算部35a)计算范围Ro内包含的各区域的像素数或者面积比(换句话说,范围Ro内包含的区域的属性的面积比)。
图8的(A)表示由面积计算部35a计算出的区域Ra-Rd的各面积比。此外,在图8的(A)中还示出了各区域Ri的属性。
另外,在步骤S22中,与步骤S9同样地,CPU22(的诊断辅助信息计算部35)进行范围Ro内是否包含规定的属性的关注区域的判定,在包含规定的属性的关注区域的情况下,与步骤S10同样地,在步骤S23中诊断辅助信息计算部35(的加权校正部35b)在针对该规定的属性或者包含该规定的属性的关注区域进行加权校正处理之后,转移到步骤S24的处理。
另一方面,在判定为在范围Ro内不包含规定的属性的关注区域的情况下,在步骤S24中CPU22(的诊断辅助信息计算部35)进行确定属性的多维矢量(在具体例在为六维矢量)的处理。
如图8的(A)所示那样计算出区域的面积比,因此CPU22(的诊断辅助信息计算部35)计算将属性A1-A6作为六维矢量的六个矢量成分的值的矢量成分值(也简称为成分值)。此外,矢量成分值(成分值)相当于属性值或者属性的比例。
在图8的(A)的数据的情况下,A1、A2、A5的成分值分别为0,A3、A4、A6的成分值分别为0.1、0.7、0.2。因而,能够如图的8(B)那样计算(确定)六维矢量。
在A6的成分值为0的情况下,进入图7的步骤S25的计算(与多维矢量对应的)诊断辅助信息的处理(在图6中为步骤S13),另一方面,在A6的成分值不是0的情况下,通过步骤S23的加权校正的处理来校正A6的成分值,并确定六维矢量。在A6的成分值不是0的情况下,如下面那样计算加权校正值Wc并乘以该加权校正值Wc来校正A6的成分值。在A6的属性情况下进行该校正,不进行针对其它A1-A5的属性的校正。
在如图3的(D)所示那样设定了范围Ro的情况下,在具有作为规定的属性的A6的属性的关注区域Rb的周围存在区域Ra、Rc、Rd。
因此,在本实施方式中,在图6的步骤S12或者图7的步骤S23中,加权校正部35b通过使用了以下加权係数W的加权校正式(1)来计算(用于校正A6的成分值的)加权校正值Wc,该加权係数W成为与如下比例相应的成分值,该比例是规定的属性的关注区域Rb的周围的区域Ra、Rc、Rd中的被分类为病变的恶性度低的第一属性(在具体例中为A1、A2)的面积比(或者像素数)Ar1与被分类为病变的恶性度高的第二属性(在具体例中为A3-A5)的面积比(或者像素数)Ar2的比例。
Wc=Ar2×W/(Ar1+Ar2)…(1)
在本实施方式中将加权係数W设定为2(W=2)。
当应用于图8的具体例时,校正式(1)成为Wc=(0.1+0.7+0.0)×2/(0.0+0.0+0.1+0.7+0.0)=2.0…(2)。加权校正部35b使用计算出的加权校正值Wc(=2.0),将利用0.2×Wc校正A6的成分值0.2而得到的校正值0.4设为A6的成分值的校正值。这样,加权校正部35b使用加权校正值Wc将校正前的A6的成分值0.2校正为0.4。
因而,如图8的(B)所示那样将六维矢量A1-A6的成分值确定为0.0、0.0、0.1、0.7、0.0、0.4。
确定了六维矢量的各成分值,因此如图7所示,在步骤S25中CPU22(的诊断辅助信息计算部35)计算与属性A1-A6的六维矢量对应的诊断辅助信息。
并且,在步骤S26中在显示监视器4上显示计算出的诊断辅助信息,图7或者图6的处理结束。
此外,手术操作者还能够选择图像存储部24中存储的其它图像,来进行相同的处理。
根据进行这种图像处理的图像处理装置3,针对手术操作者指定的关心区域的范围Ro进行显示诊断辅助信息的处理,因此手术操作者能够高效地进行内窥镜检查。
另外,根据本实施方式的图像处理装置3,能够根据基于特征量分割得到的多个区域中的各区域各自具有的属性的比例(即,不是每个区域而是遍及多个区域的属性的比例)来计算出更为恰当的诊断辅助信息。
另外,根据本实施方式的图像处理装置3,即使在不能根据每个区域恰当地计算出用于计算所对应的诊断辅助信息的属性值的情况下,也能够根据其周边的两个以上的区域所具有的属性的比例等来计算出所属于的属性值,因此能够计算出更为恰当的诊断辅助信息。
(第二实施方式)
接着,参照图9来说明本发明的第二实施方式。
在第一实施方式中,对使用大肠来作为检查对象(诊断对象)部位或者组织的情况进行了说明,但本实施方式是即使针对胃粘膜等也能够进行相同的图像处理的图像处理装置。
本实施方式的图像处理装置与图1所示的图像处理装置3相同。但是,在本实施方式中,如图9所示,信息保存部25将胃用的属性信息保存部25a′与大肠用的属性信息保存部25a一起保存。
另外,信息保存部25将胃用的特征量-属性对应关联信息保存部25b′与大肠用的特征量-属性对应关联信息保存部25b一起保存,并且将胃用的属性-诊断辅助信息对应关联信息保存部25c′与大肠用的属性-诊断辅助信息对应关联信息保存部25c一起保存。
然后,从设置于输入操作部29的检查对象部位(或者组织)输入部29b(在图1中用虚线示出)选择大肠或者胃来作为检查对象部位或者组织,CPU22能够参照从信息保存部25选择出的大肠用的信息或者胃用的信息来进行图像处理。
在从输入操作部29选择出大肠的情况下,其动作与第一实施方式相同,因此对选择了胃的情况进行说明。
胃用的属性信息保存部25a′保存有以下四个属性A11-A14。
A11.规则的蜂窝状血管区域或者规则的圆形Surface Pattern区域(表面图案区域)(+)
A12.规则的线状血管区域或者规则的带状Surface Pattern区域(表面图案区域)(+)
A13.不规则的弯曲血管区域或者Surface Pattern(表面图案)消失的区域(-)
A14.粗径血管(±)
与第一实施方式的A1-A2的属性同样地,上述A11-A12的属性相当于第一属性,与第一实施方式的A3-A5的属性同样地,A13的属性相当于第二属性,与第一实施方式的A6的属性同样地,A14的属性相当于第三属性。在这种情况下,与第一实施方式的A6的情况同样地,仅根据单个的区域难以判别粗径血管是癌的情况下呈现的异常血管还是正常的胃底腺粘膜所呈现的集合细静脉。
另外,在本实施方式中,CPU22也具有与图2相同的处理功能。但是,分类部34对由区域分割部33分割得到的区域进行是否具有上述A11-A14中的某个区域的属性的分类。此外,此时计算出的第一特征量和第二特征量既可以是与大肠用相同的特征量,也可以另外计算出胃用的特征量。
另外,在本实施方式中,也将A14的属性作为规定的属性,与第一实施方式同样地,诊断辅助信息计算部35(的加权校正部35b)通过针对具有该规定的属性的规定的区域进行相同的加权校正处理,来校正其属性值。
另外,作为胃用的诊断辅助信息,准备了以下D11-D14。
D11.正常胃底腺粘膜
D12.正常幽门腺粘膜
D13.胃炎
D14.癌
而且,通过第一实施方式的例如图6的处理过程来计算诊断辅助信息,在显示监视器4上显示诊断辅助信息。
因而,本实施方式具有与第一实施方式大致相同的效果。
根据本实施方式,具有与第一实施方式相同的效果,并且通过由手术操作者指定或选择要检查的部位,能够针对所指定或选择出的部位的图像计算恰当的诊断辅助信息并进行显示。
此外,在图9中如用虚线所示那样,在信息保存部25中还可以设置食道用的属性信息保存部25a″、食道用的特征量-属性对应关联信息保存部25b″以及食道用的属性-诊断辅助信息对应关联信息保存部25c″,即使在检查食道的情况下也能够提供恰当的诊断辅助信息。
另外,在本实施方式中,例示了通过预先选择检查对象部位或者组织来从信息存储部25参照合适的信息的方法,但也可以使用计算出的各种特征量来估计检查对象部位或者组织。
此外,在上述实施方式中,利用以下例子进行了说明,但也可以将具有相同属性的区域的数量看作该属性的属性值来进行校正,该例子是:在存在具有作为规定的属性的第三属性的关注区域时进行加权校正的情况下,将该关注区域的周围的多个区域中的具有与第三属性以外的属性相同的属性的区域的总和值校正为该属性的属性值,并计算出所对应的诊断辅助信息。
也就是说,在由分类部34进行了存在具有第三属性的规定的区域之类的分类的情况下,加权校正部35b可以校正为加权后的属性值,该加权后的属性值对应于如下比例,该比例是上述规定的区域的周围的具有不同于第三属性的第一属性的区域的面积或者区域数与具有第二属性的区域的面积或者区域数的比例。
另外,信息存储部25中包含的属性、特征量、诊断辅助信息并不限于实施方式所例示的例子,能够进行各种变更。此外,在作为上述关注区域判定单元或者关注区域選択单元的关注区域判定部35c从范围Ro内的多个区域判定或者选择关注区域的情况下,也可以如下面那样进行判定或者选择。可以设置从输入操作部29等指定属于关注区域的A6等的规定的属性的规定属性指定单元,基于由该规定属性设定单元指定的规定的属性从上述多个区域判定或者选择属于规定的属性的关注区域。
另外,在上述说明中,主要说明了具备范围设定部29a的结构,但也可以在上述多个区域中设定该关心区域的范围Ro,并且关注区域判定部35c判定在上述多个区域中是否包含具有规定的属性的关注区域的至少一部分,该范围设定部29a针对由区域分割部33分割得到的一个或者多个区域设定想要计算上述诊断辅助信息的关心区域的范围Ro。
另外,也可以将上述实施方式部分地进行组合。
另外,本发明还包含以下内容。具有诊断辅助信息保存部,该诊断辅助信息保存部保存有在与多种N的属性对应的N维的虚拟空间中存在诊断辅助信息的范围,该诊断辅助信息包含使用教师数据针对被检体预先准备的病变名或者症状名,诊断辅助信息计算部基于由区域分割部分割得到的多个区域中的由分类部分类后的规定数量的区域各自具有的属性的面积比或者区域数,根据上述规定数量的区域在上述虚拟空间内存在的位置来计算与该位置对应的上述诊断辅助信息。
本申请主张2012年3月21日在日本申请的特愿2012-064195号的优先权,并以此为基础进行申请,上述公开内容引用于本申请说明书、权利要求书、附图中。

Claims (15)

1.一种图像处理装置,其特征在于,具备:
第一特征量计算部,其根据拍摄被检体而得到的图像来针对构成该图像的每个像素计算第一特征量;
区域分割部,其基于上述第一特征量将上述图像分割为多个区域;
第二特征量计算部,其针对由上述区域分割部分割得到的每个区域计算第二特征量;
分类部,其基于上述第二特征量进行上述多个区域中的各区域具有多种属性中的哪一属性的分类;以及
诊断辅助信息计算部,其基于由上述分类部分类后的上述多个区域中的两个以上的规定数量的区域所具有的属性的比例来计算用于进行诊断辅助的诊断辅助信息。
2.根据权利要求1所述的图像处理装置,其特征在于,
上述诊断辅助信息计算部还具备:
关注区域判定部,其判定上述多个区域是否包含具有规定的属性的关注区域;以及
校正部,其针对上述关注区域所具有的上述规定的属性,根据上述关注区域的周围存在的上述多个区域所具有的属性对上述关注区域所具有的上述规定的属性进行校正。
3.根据权利要求1所述的图像处理装置,其特征在于,
上述诊断辅助信息计算部基于由上述分类部分类后的上述规定数量的区域各自具有的属性的面积比或者区域数来计算上述诊断辅助信息。
4.根据权利要求2所述的图像处理装置,其特征在于,
上述诊断辅助信息计算部基于具有由上述分类部分类后的上述规定数量的区域各自所具有的属性的区域的面积比或者区域数来计算上述诊断辅助信息。
5.根据权利要求1所述的图像处理装置,其特征在于,
还具有属性信息保存部,该属性信息保存部预先保存以下各属性信息来作为由上述分类部进行分类的上述多种属性:成为恶性度高的病变的指标的第一属性、成为恶性度低的病变的指标的第二属性以及仅在所属的属性的区域内难以判断良恶性的第三属性。
6.根据权利要求2所述的图像处理装置,其特征在于,
还具有属性信息保存部,该属性信息保存部预先保存以下各属性信息来作为由上述分类部进行分类的上述多种属性:成为恶性度高的病变的指标的第一属性、成为恶性度低的病变的指标的第二属性以及仅在所属的属性的区域内难以判定恶性度的上述规定的属性即第三属性。
7.根据权利要求3所述的图像处理装置,其特征在于,
还具有属性信息保存部,该属性信息保存部预先保存以下属性信息来作为由上述分类部进行分类的上述多种属性:成为恶性度高的病变的指标的第一属性、成为恶性度低的病变的指标的第二属性以及仅在所属的属性的区域内难以判定恶性度的第三属性。
8.根据权利要求1所述的图像处理装置,其特征在于,
在由上述区域分割部分割得到的上述多个区域中的某个区域被上述分类部分类为包含成为恶性度明显的指标的特定的属性的情况下,上述诊断辅助信息计算部与其它区域所具有的属性无关地,基于上述特定的属性计算上述诊断辅助信息。
9.根据权利要求7所述的图像处理装置,其特征在于,
在由上述区域分割部分割得到的上述多个区域中的某个区域被上述分类部分类为包含成为与上述第一属性相比恶性度明显的指标的特定的属性的情况下,上述诊断辅助信息计算部与其它区域所具有的属性无关地,基于上述特定的属性来计算上述诊断辅助信息。
10.根据权利要求1所述的图像处理装置,其特征在于,
与上述被检体的不同的检查部位相应地变更上述第一特征量、上述第二特征量以及上述多种属性中的一个以上。
11.根据权利要求9所述的图像处理装置,其特征在于,
与上述被检体的不同的检查部位相应地变更上述第一特征量、上述第二特征量以及上述多种属性中的一个以上。
12.根据权利要求7所述的图像处理装置,其特征在于,
与上述被检体的不同的检查部位相应地变更上述第一特征量、上述第二特征量以及上述多种属性中的至少包含上述多种属性的一个以上。
13.根据权利要求2所述的图像处理装置,其特征在于,
还具有诊断辅助信息保存部,该诊断辅助信息保存部保存有在与上述多种N属性对应的N维的虚拟空间中上述诊断辅助信息所存在的范围,该诊断辅助信息包含使用教师数据针对上述被检体预先准备的病变名或者症状名,上述诊断辅助信息计算部基于由上述区域分割部分割得到的上述多个区域中的由上述分类部分类后的上述规定数量的区域各自所具有的属性的面积比或者区域数,根据上述规定数量的区域在上述虚拟空间内存在的位置来计算与该位置对应的上述诊断辅助信息。
14.根据权利要求11所述的图像处理装置,其特征在于,
在上述检查部位是大肠的情况下,上述诊断辅助信息计算部计算上述检查部位是否属于增生息肉、腺瘤、癌中的某一个病变名。
15.根据权利要求11所述的图像处理装置,其特征在于,
在上述检查部位是胃的情况下,上述诊断辅助信息计算部计算上述检查部位是否属于正常胃底腺粘膜、正常幽门腺粘膜、胃炎、癌中的某一个。
CN201280040149.1A 2012-03-21 2012-11-28 图像处理装置 Active CN103747718B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-064195 2012-03-21
JP2012064195 2012-03-21
PCT/JP2012/080679 WO2013140667A1 (ja) 2012-03-21 2012-11-28 画像処理装置

Publications (2)

Publication Number Publication Date
CN103747718A true CN103747718A (zh) 2014-04-23
CN103747718B CN103747718B (zh) 2016-03-30

Family

ID=49222155

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280040149.1A Active CN103747718B (zh) 2012-03-21 2012-11-28 图像处理装置

Country Status (5)

Country Link
US (1) US8994801B2 (zh)
EP (1) EP2727514B1 (zh)
JP (1) JP5444511B1 (zh)
CN (1) CN103747718B (zh)
WO (1) WO2013140667A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191424A (zh) * 2018-07-23 2019-01-11 哈尔滨工业大学(深圳) 一种乳腺肿块检测与分类系统、计算机可读存储介质
CN110049709A (zh) * 2016-12-07 2019-07-23 奥林巴斯株式会社 图像处理装置
CN110769737A (zh) * 2017-06-21 2020-02-07 奥林巴斯株式会社 插入辅助装置、插入辅助方法和包括插入辅助装置的内窥镜装置
CN111212591A (zh) * 2017-10-17 2020-05-29 富士胶片株式会社 医疗图像处理装置及内窥镜装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5764592B2 (ja) * 2013-02-22 2015-08-19 東京エレクトロン株式会社 基板処理装置、基板処理装置の監視装置及び基板処理装置の監視方法
KR101598873B1 (ko) * 2014-01-20 2016-03-02 한국과학기술원 영상의 다변수화를 이용한 영상 구별 특징 자동 선별 장치 및 방법
DE112015006378T5 (de) * 2015-04-23 2017-12-14 Olympus Corporation Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
JP6580446B2 (ja) * 2015-10-09 2019-09-25 サイバネットシステム株式会社 画像処理装置及び画像処理方法
JP6581923B2 (ja) * 2016-03-03 2019-09-25 富士フイルム株式会社 画像処理装置とその作動方法および作動プログラム
WO2018079205A1 (ja) 2016-10-27 2018-05-03 富士フイルム株式会社 プロセッサ装置及び内視鏡システム
JP6706339B2 (ja) * 2016-10-27 2020-06-03 富士フイルム株式会社 内視鏡システム
EP3653106A4 (en) 2017-07-14 2020-07-08 Fujifilm Corporation MEDICAL IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM, DIAGNOSTIC ASSISTANCE DEVICE, AND MEDICAL INTERVENTION ASSISTANCE DEVICE
WO2019142243A1 (ja) * 2018-01-16 2019-07-25 オリンパス株式会社 画像診断支援システムおよび画像診断支援方法
JP7187244B2 (ja) * 2018-10-10 2022-12-12 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
WO2020162275A1 (ja) * 2019-02-08 2020-08-13 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
JP7281308B2 (ja) * 2019-03-07 2023-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP7334900B2 (ja) * 2019-05-20 2023-08-29 国立研究開発法人理化学研究所 判別装置、学習装置、方法、プログラム、学習済みモデルおよび記憶媒体
JP6879520B2 (ja) * 2019-08-28 2021-06-02 サイバネットシステム株式会社 画像処理装置及び画像処理方法
CN114521122A (zh) * 2019-09-27 2022-05-20 富士胶片株式会社 图像处理装置、内窥镜系统及图像处理的工作方法
WO2021079691A1 (ja) * 2019-10-23 2021-04-29 富士フイルム株式会社 画像処理装置及びその作動方法
CN111415564B (zh) * 2020-03-02 2022-03-18 武汉大学 基于人工智能的胰腺超声内镜检查导航方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165757A (ja) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd 診断支援装置
US20070191677A1 (en) * 2004-10-29 2007-08-16 Olympus Corporation Image processing method and capsule type endoscope device
CN101150977A (zh) * 2005-04-13 2008-03-26 奥林巴斯医疗株式会社 图像处理装置以及图像处理方法
CN101739659A (zh) * 2008-11-14 2010-06-16 奥林巴斯株式会社 图像处理装置以及图像处理方法
US20100316273A1 (en) * 2005-04-27 2010-12-16 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
CN102056530A (zh) * 2008-06-05 2011-05-11 奥林巴斯株式会社 图像处理装置、图像处理程序以及图像处理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60228165D1 (de) * 2001-05-16 2008-09-25 Olympus Corp Endoskop mit Bildverarbeitungseinrichtung
EP1842481B1 (en) * 2004-12-10 2017-02-08 Olympus Corporation Medical image processing method
EP1870020B1 (en) * 2005-04-13 2015-08-05 Olympus Medical Systems Corp. Image processing apparatus and image processing method
JP5094036B2 (ja) * 2006-04-17 2012-12-12 オリンパスメディカルシステムズ株式会社 内視鏡挿入方向検出装置
JP4451460B2 (ja) * 2007-03-16 2010-04-14 オリンパス株式会社 内視鏡診断支援装置
US8331641B2 (en) * 2008-11-03 2012-12-11 Siemens Medical Solutions Usa, Inc. System and method for automatically classifying regions-of-interest
US8591401B2 (en) * 2010-08-18 2013-11-26 Olympus Corporation Endoscope apparatus displaying information indicating gravity direction on screen

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165757A (ja) * 2000-11-30 2002-06-11 Olympus Optical Co Ltd 診断支援装置
US20070191677A1 (en) * 2004-10-29 2007-08-16 Olympus Corporation Image processing method and capsule type endoscope device
CN101150977A (zh) * 2005-04-13 2008-03-26 奥林巴斯医疗株式会社 图像处理装置以及图像处理方法
US20100316273A1 (en) * 2005-04-27 2010-12-16 Olympus Medical Systems Corp. Image processing apparatus, image processing method and image processing program
CN102056530A (zh) * 2008-06-05 2011-05-11 奥林巴斯株式会社 图像处理装置、图像处理程序以及图像处理方法
CN101739659A (zh) * 2008-11-14 2010-06-16 奥林巴斯株式会社 图像处理装置以及图像处理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110049709A (zh) * 2016-12-07 2019-07-23 奥林巴斯株式会社 图像处理装置
CN110769737A (zh) * 2017-06-21 2020-02-07 奥林巴斯株式会社 插入辅助装置、插入辅助方法和包括插入辅助装置的内窥镜装置
CN111212591A (zh) * 2017-10-17 2020-05-29 富士胶片株式会社 医疗图像处理装置及内窥镜装置
CN111212591B (zh) * 2017-10-17 2022-08-02 富士胶片株式会社 医疗图像处理装置及内窥镜装置
US11574401B2 (en) 2017-10-17 2023-02-07 Fujifilm Corporation Medical image processing apparatus and endoscope apparatus
CN109191424A (zh) * 2018-07-23 2019-01-11 哈尔滨工业大学(深圳) 一种乳腺肿块检测与分类系统、计算机可读存储介质

Also Published As

Publication number Publication date
US20140028821A1 (en) 2014-01-30
JP5444511B1 (ja) 2014-03-19
EP2727514A4 (en) 2015-06-17
EP2727514B1 (en) 2017-05-10
JPWO2013140667A1 (ja) 2015-08-03
CN103747718B (zh) 2016-03-30
EP2727514A1 (en) 2014-05-07
WO2013140667A1 (ja) 2013-09-26
US8994801B2 (en) 2015-03-31

Similar Documents

Publication Publication Date Title
CN103747718B (zh) 图像处理装置
EP1994878B9 (en) Medical image processing device and medical image processing method
CN110600122B (zh) 一种消化道影像的处理方法、装置、以及医疗系统
US8204287B2 (en) Image processing apparatus, image processing method and image processing program
Coimbra et al. MPEG-7 visual descriptors—contributions for automated feature extraction in capsule endoscopy
AU2019431299B2 (en) AI systems for detecting and sizing lesions
US7319781B2 (en) Method and system for multiple passes diagnostic alignment for in vivo images
EP1450287B1 (en) Method of extracting region of interest from tongue image and health monitoring method and apparatus using the tongue image
EP1769729B1 (en) System and method for in-vivo feature detection
EP2305091B1 (en) Image processing apparatus, image processing program, and image processing method
Riegler et al. Eir—efficient computer aided diagnosis framework for gastrointestinal endoscopies
CN103458765B (zh) 图像处理装置
US7840055B2 (en) Computer aided tube and tip detection
US20180365830A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
Wang et al. Reduction of bubble-like frames using a RSS filter in wireless capsule endoscopy video
US20230206435A1 (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method for improving gastrointestinal disease detection rate
Majtner et al. A deep learning framework for autonomous detection and classification of Crohnʼs disease lesions in the small bowel and colon with capsule endoscopy
Deeba et al. A saliency-based unsupervised method for angiectasia detection in endoscopic video frames
Bejakovic et al. Analysis of Crohn's disease lesions in capsule endoscopy images
JP4832794B2 (ja) 画像処理装置及び画像処理プログラム
CN114445406B (zh) 肠镜图像分析方法、装置和医学图像处理设备
KR102355327B1 (ko) 골연령 측정 시스템
JP4855709B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Suman et al. Optimum colour space selection for ulcerated regions using statistical analysis and classification of ulcerated frames from wce video footage
Phillips et al. Video capsule endoscopy: pushing the boundaries with software technology

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20151109

Address after: Tokyo, Japan, Japan

Applicant after: Olympus Corporation

Address before: Tokyo, Japan, Japan

Applicant before: Olympus Medical Systems Corp.

C14 Grant of patent or utility model
GR01 Patent grant