JP6552613B2 - 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理装置の作動方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6552613B2
JP6552613B2 JP2017518712A JP2017518712A JP6552613B2 JP 6552613 B2 JP6552613 B2 JP 6552613B2 JP 2017518712 A JP2017518712 A JP 2017518712A JP 2017518712 A JP2017518712 A JP 2017518712A JP 6552613 B2 JP6552613 B2 JP 6552613B2
Authority
JP
Japan
Prior art keywords
identification
unit
candidate area
area
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017518712A
Other languages
English (en)
Other versions
JPWO2016185617A1 (ja
Inventor
都士也 上山
都士也 上山
北村 誠
誠 北村
光隆 木村
光隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2016185617A1 publication Critical patent/JPWO2016185617A1/ja
Application granted granted Critical
Publication of JP6552613B2 publication Critical patent/JP6552613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本発明は、生体の管腔内を撮像した画像に対して画像処理を行う画像処理装置、画像処理方法、及び画像処理プログラムに関する。
内視鏡やカプセル型内視鏡等の医用観察装置を用いて生体の管腔内(消化管内)を撮像した画像である管腔内画像に対し、腫瘍や病変等の異常領域を検出或いは識別する技術が知られている。
例えば特許文献1には、画像全体の特徴を示す全体特徴量に基づき、画像の属するカテゴリーを識別する全体識別器と、画像内の部分的な特徴を示す部分特徴量に基づき、画像の属するカテゴリーを識別する部分識別器とを備えるカテゴリー識別装置が開示されている。
上記特許文献1において、全体識別器は、入力画像の全体の色分散及び色平均等を特徴量として用いたサポートベクターマシンにより、入力画像のシーンを識別する。一方、部分識別器は、入力画像内のある領域の色分散及び色平均等を特徴量とするサポートベクターマシンにより、入力画像のシーンを識別する。そして、全体識別器及び部分識別器がシーンを識別できなかった画像について、統合識別器が、全体識別器及び部分識別器それぞれの識別結果に基づいて、最終的な識別結果を求める。
特開2008−234623号公報
上記特許文献1においては、予め定められた種類の特徴量や識別器を単独で用いて識別結果を取得している。そのため、上記特許文献1の技術を管腔内画像に適用して、異常領域等の特定領域を検出しようとすると、検出対象とする領域の種類や状態、具体的には病変等の異常の種類や状態によっては、識別を行うことが困難となり、識別精度が低下してしまうという問題がある。
本発明は、上記に鑑みて為されたものであって、検出する領域の種類や状態等に応じた適切な特徴量や識別器を用いて、精度良く特定領域を識別することができる画像処理装置、画像処理方法、及び画像処理プログラムの提供を目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出部と、前記候補領域検出部が検出した前記候補領域に関する情報を取得する候補領域情報取得部と、前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定部と、前記識別手法決定部が決定した識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別部と、を備えることを特徴とする。
本発明に係る画像処理方法は、生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出ステップと、前記候補領域検出ステップにおいて検出された前記候補領域に関する情報を取得する候補領域情報取得ステップと、前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定ステップと、前記識別手法決定ステップにおいて決定された識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別ステップと、を含むことを特徴とする。
本発明に係る画像処理プログラムは、生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出ステップと、前記候補領域検出ステップにおいて検出された前記候補領域に関する情報を取得する候補領域情報取得ステップと、前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定ステップと、前記識別手法決定ステップにおいて決定された識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別ステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、管腔内画像から特定領域の候補領域を検出し、該候補領域に関する情報に基づいて決定された識別手法に基づいて、当該候補領域が特定領域であるか否かを識別するので、候補領域の特性に応じた適切な特徴量や識別器を用いて、精度の良い識別を行うことが可能となる。
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。 図2は、図1に示す画像処理装置の動作を示すフローチャートである。 図3は、図2に示す異常候補領域を検出する処理を示すフローチャートである。 図4は、図2に示す異常候補領域に関する情報の取得処理を示すフローチャートである。 図5は、図2に示す異常候補領域に関する情報に基づいて識別手法を決定する処理を示すフローチャートである。 図6は、本発明の実施の形態1の本変形例1に係る画像処理装置が備える演算部の構成を示すブロック図である。 図7は、本発明の実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。 図8は、本発明の実施の形態2に係る画像処理装置の動作を示すフローチャートである。 図9は、図8に示す複数の識別器の選択処理を示すフローチャートである。 図10は、図9に示す複数の識別器の選択処理を説明するための模式図である。 図11は、図8に示す選択された複数の識別器の統合方法の決定処理を示すフローチャートである。 図12は、図8に示す決定された識別手法による異常候補領域の識別処理を示すフローチャートである。 図13は、図12に示す複数の識別結果を統合する処理を説明するための模式図である。 図14は、本発明の実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。 図15は、線形識別関数の分類を説明するための模式図である。 図16は、本発明の実施の形態3に係る画像処理装置の動作を示すフローチャートである。 図17は、図16に示す異常候補領域に関する情報の取得処理を示すフローチャートである。 図18は、図16に示す識別手法を選択する処理を示すフローチャートである。
以下、本発明の実施の形態に係る画像処理装置、画像処理方法、及び画像処理プログラムについて、図面を参照しながら説明する。なお、これらの実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。本実施の形態1に係る画像処理装置1は、内視鏡等の医用観察装置により生体の管腔内を撮像することによって取得された画像、即ち管腔内画像に対して画像処理を行うことにより、管腔内の特定の部位が写った領域である特定領域を管腔内画像から検出する装置である。本実施の形態1においては、特定領域として、出血、発赤、凝固血、腫瘍、びらん、潰瘍、アフタ、絨毛異常等、病変又は異常とみられる部位が写った領域、即ち異常領域を検出する。これらの異常は、出血、発赤、凝固血等の血管性異常、ポリープ等の腫瘍性異常、びらん、潰瘍、アフタ、絨毛異常等の粘膜性異常の3種類に大別することができる。また、管腔内画像は、通常、各画素位置においてR(赤)、G(緑)、B(青)の波長成分に対する画素レベル(画素値)を持つカラー画像である。
図1に示すように、画像処理装置1は、該画像処理装置1全体の動作を制御する制御部10と、医用観察装置が管腔内を撮像して生成した画像データを取得する画像取得部20と、外部からの操作に応じた信号を制御部10に入力する入力部30と、各種情報や画像の表示を行う表示部40と、画像取得部20によって取得された画像データや種々のプログラムを格納する記憶部50と、画像データに対して所定の画像処理を実行する演算部100とを備える。
制御部10は、CPU(Central Processing Unit)等の汎用プロセッサやASIC(Application Specific Integrated Circuit)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。制御部10が汎用プロセッサである場合、記憶部50が記憶する各種プログラムを読み込むことによって画像処理装置1を構成する各部への指示やデータの転送等を行い、画像処理装置1全体の動作を統括して制御する。また、制御部10が専用プロセッサである場合、プロセッサが単独で種々の処理を実行しても良いし、記憶部50が記憶する各種データ等を用いることで、プロセッサと記憶部50が協働又は結合して種々の処理を実行してもよい。
画像取得部20は、医用観察装置を含むシステムの態様に応じて適宜構成される。例えば、医用観察装置を画像処理装置1に接続する場合、画像取得部20は、医用観察装置において生成された画像データを取り込むインタフェースによって構成される。また、医用観察装置によって生成された画像データを保存しておくサーバを設置する場合、画像取得部20は、サーバと接続される通信装置等で構成され、サーバとデータ通信を行って画像データを取得する。或いは、医用観察装置によって生成された画像データを、可搬型の記憶媒体を用いて受け渡ししても良く、この場合、画像取得部20は、可搬型の記憶媒体を着脱自在に装着し、記憶された画像の画像データを読み出すリーダ装置によって構成される。
入力部30は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって実現され、これらの入力デバイスに対する外部からの操作に応じて発生させた入力信号を制御部10に出力する。
表示部40は、LCDやELディスプレイ等の表示装置によって実現され、制御部10の制御の下で、管腔内画像を含む各種画面を表示する。
記憶部50は、更新記録可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵若しくはデータ通信端子で接続されたハードディスク若しくはCD−ROM等の情報記憶装置及び該情報記憶装置に対する情報の書込読取装置等によって実現される。記憶部50は、画像取得部20によって取得された管腔内画像の画像データの他、画像処理装置1を動作させると共に、種々の機能を画像処理装置1に実行させるためのプログラムや、このプログラムの実行中に使用されるデータ等を格納する。具体的には、記憶部50は、管腔内画像から異常領域を検出する画像処理プログラムを格納するプログラム記憶部51を有する。また、記憶部50は、該画像処理において用いられる識別基準等の情報を格納する。
演算部100は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。演算部100が汎用プロセッサである場合、プログラム記憶部51が記憶する画像処理プログラムを読み込むことにより、取得した管腔内画像から異常領域を検出する画像処理を実行する。また、演算部100が専用プロセッサである場合、プロセッサが単独で種々の処理を実行してもよいし、記憶部50が記憶する各種データ等を用いることで、プロセッサと記憶部50が協働又は結合して画像処理を実行してもよい。
次に、演算部100の構成について説明する。図1に示すように、演算部100は、管腔内画像から異常領域の候補領域(以下、異常候補領域という)を検出する候補領域検出部としての異常候補検出部110と、異常候補検出部110が検出した異常候補領域に関する情報を取得する候補領域情報取得部としての異常候補情報取得部120と、異常候補領域に関する情報をもとに、当該異常候補領域が異常領域であるか否かを識別するための識別手法を決定する識別手法決定部130と、識別手法決定部130が決定した識別手法を用いて、異常候補領域が異常領域であるか否かを識別する識別部140とを備える。
異常候補検出部110は、管腔内画像を複数の領域に分割し、分割された領域ごとに色特徴量、形状特徴量、及びテクスチャ特徴量を算出し、事前に学習した異常モデルとこれらの特徴量との一致度を求めることにより、各領域が異常候補領域であるか否かを判定する。
異常候補情報取得部120は、異常候補領域に関する情報を取得する。本実施の形態1において、異常候補情報取得部120は、異常候補種類推定部121を備え、異常候補領域に関する情報として、異常候補領域が属すると推定される異常の種類、即ち、出血、発赤、凝固血等の血管性異常と、ポリープ等の腫瘍性異常と、びらん、潰瘍、アフタ、絨毛異常等の粘膜性異常とのいずれかを取得する。
識別手法決定部130は、異常候補領域に関する情報に基づいて、当該異常候補領域の識別に用いる識別手法を決定する。本実施の形態1において、識別手法決定部130は識別器選択部131を備える。
ここで、異常領域の識別手法としては、上述した異常の種類に応じて識別精度が異なる複数の識別器が存在する。例えば、出血、発赤、凝固血等の血管性異常は、正常な粘膜表面に対して色の違いが大きい。そのため、血管性異常を識別する際には、色比、色相、彩度等の色特徴量に基づいて識別を行う色特徴量識別器を用いると、高精度な識別を行うことができる。また、ポリープ等の腫瘍性異常は、正常な粘膜表面の構造に対して円形状に膨らんでいるといった形状の違いが大きい。そのため、腫瘍性異常を識別する際には、円形度、面積、フェレ径等の形状特徴量に基づいて識別を行う形状特徴量識別器を用いると、高精度な識別を行うことができる。びらん、潰瘍、アフタ、絨毛異常等の粘膜性異常は、正常な粘膜表面に対して、赤みや白みといった炎症に応じた色変化を伴いつつ、表面構造の変化も生じる。そのため、粘膜性異常を識別する際には、色特徴量識別器と共に、Local Binary Pattern(LBP)やDifference of Gaussian(DoG)等により算出される高周波成分の強度等のテクスチャ特徴量に基づいて識別を行うテクスチャ特徴量識別器を用いると、高精度な識別を行うことができる。
識別器選択部131は、異常候補領域が血管性異常、腫瘍性異常、及び粘膜性異常のいずれに属するかの情報を取得し、異常候補領域が属する異常の種類に応じた識別器を選択する。
識別部140は、識別手法決定部130が決定した識別手法、即ち、色特徴量識別器、形状特徴量識別器、及び色特徴量識別器とテクスチャ特徴量識別器との組み合わせのうちのいずれかを用いて、異常候補領域が異常領域であるか否かを識別する。
次に、画像処理装置1の動作を説明する。図2は、処理対象の管腔内画像に対する画像処理装置1の処理を示すフローチャートである。
まず、ステップS10において、画像処理装置1は、画像取得部20を介して管腔内画像を取得する。本実施の形態1においては、内視鏡によりR、G、Bの各波長成分を含む照明光(白色光)を管腔内に照射して撮像を行うことにより生成され、各画素位置においてこれらの波長成分に対応する画素値(R値、G値、B値)を有する管腔内画像が取得される。
続くステップS11において、異常候補検出部110は、管腔内画像から異常候補領域を検出する。図3は、異常候補領域を検出する処理を示すフローチャートである。
ステップS111において、異常候補検出部110は、管腔内画像に対して領域分割を行う(参考:CG−ART協会、「ディジタル画像処理」第2版、第196頁)。詳細には、近接類似画素の統合による領域分割処理を行う。即ち、ラスタスキャンにより画素を探索し、注目画素に対して画素値が同じ近傍画素に注目画素と同じラベルを付ける作業を画像全体に対して行った後、同じラベルをもつ画素の画素値の平均値を求める処理と、近接する画素の集合の中で画素値の平均値の差が最小となる集合同士を統合するという処理とを繰り返す。それにより、管腔内画像を、画素値が近接する画素同士の集合からなる複数の領域に分割することができる。なお、近接類似画素の統合以外にも公知の種々の手法により領域分割を行っても良い。
続くステップS112において、異常候補検出部110は、管腔内画像を分割した各領域に対し、領域内の色特徴量、形状特徴量、及びテクスチャ特徴量を求める。色特徴量としては、各画素の画素値(R値、G値、B値)をもとに、色比G/R及びB/G値の平均値を算出する。或いは、色比の代わりに、RGB値そのもの、RGB値の分散値、彩度、色相、色差等を用いても良いし、平均値の代わりに中央値や最頻値等の統計値を用いても良い。
また、形状特徴量としては、領域の円形度、フェレ径、及び面積を算出する(参考:CG−ARTS協会、「ディジタル画像処理」第2版、第182〜183頁)。円形度は、領域の面積をS、周囲長をLとすると、4πS/L2によって与えられ、値が1に近づくほど形状が真円に近づくことを示す。なお、面積Sは処理対象の領域に含まれる画素の総数として与えられる。また、周囲長Lは処理対象の領域に対する8連結の輪郭追跡によって求めることができる(CG−ARTS協会、「ディジタル画像処理」第2版、第178〜179頁)。即ち、ラベリングされた画素を基点に周囲の画素を探索して次のラベリング画素に移動するという追跡処理を繰り返す。上下左右の画素の追跡移動した数をC1、斜めに追跡移動した数をC2としたとき、周囲長Lは(C1+√2×C2)によって与えられる。
フェレ径は、水平フェレ径及び垂直フェレ径の2種の値が用いられる。また、面積は、上述したように、領域に含まれる画素の総数である。この他、形状特徴量として、HOG特徴量(Histogram of Oriented Gradients)やSIFT特徴量(Scale Invariant Feature Transform)等を用いても良い。
テクスチャ特徴量としては、例えば、公知技術であるLocal Binary Pattern(LBP)が用いられる(参考:野坂龍佑、他、「Local Binary Patternの隣接関係に基づく照明変動に頑健な特徴抽出」より「2.LBPヒストグラム」、電子情報通信学会技術研究報告、パターン認識・メディア理解、PRMU2011−69、第75〜80頁(2011年9月5〜6日))。LBPは、注目画素とその周囲8方向の画素との画素値の大小関係を、2の8乗である256次元のヒストグラムで表した特徴量である。LBPを本実施の形態1に適用する場合、領域内の各画素と周囲8方向の画素との画素値の大小関係をヒストグラムで表し、これを加算した値をテクスチャ特徴量として用いる。
或いは、領域内を特定周波数成分画像に変換し、特定周波数成分の強度の平均値をテクスチャ特徴量として用いても良い。特定周波数成分画像に変換する方法としては、例えば公知の技術であるDifference of Gaussian(DoG)を用いることができる(参考:アドコム・メディア株式会社、「コンピュータビジョン最先端ガイド2」、第7〜12頁)。
また、テクスチャ特徴量として、共起行列の角度別2次モーメント(Angular Second Moment)、コントラスト(Contrast)、エントロピー(Entropy)(参考:東京大学出版会、「画像解析ハンドブック」、第517〜521頁)等を用いても良い。
続くステップS113において、異常候補検出部110は、事前の学習により取得した異常モデルに基づいて異常候補領域を検出する。詳細には、ステップS112において求めた色特徴量、形状特徴量、及びテクスチャ特徴量の各々をベクトルとして扱い、各ベクトル列を結合し、領域ごとに特徴ベクトルを作成する。このとき、正規化を行い、必要に応じて各ベクトルに重み付けする。そして、事前に作成した異常の識別関数を用いて判定を行う。
具体的には、次式(1)によって与えられる確率モデルに基づく判定指標P(x)を算出する。
Figure 0006552613
判定指標P(x)は、異常候補領域の特徴ベクトルが異常領域の特徴ベクトルらしいか否かを示す指標である。判定指標P(x)の値が大きいほど、異常候補領域は異常領域らしいと言える。つまり、判定指標P(x)は、異常候補領域と異常領域との一致度を表す。また、式(1)に示す記号xは、判定対象の異常候補領域の特徴ベクトル(k行1列)を示す。また、記号μは、事前に取得された複数の異常領域のサンプルにおける特徴ベクトルの平均ベクトル(k行1列)である。記号Zは、事前に取得された異常領域の複数のサンプルにおける特徴ベクトルの分散共分散行列(k行k列)である。記号|Z|はこの行列Zの行列式であり、記号Z-1は、行列Zの逆行列である。
式(1)を用いて異常候補領域の異常領域らしさを表す判定指標P(x)を算出し、この判定指標が閾値以上である場合に、当該領域を異常候補領域として検出する。その後、処理はメインルーチンに戻る。
ステップS11に続くステップS12において、異常候補情報取得部120は、異常候補領域に関する情報を取得する。具体的には、異常候補種類推定部121が、異常候補領域が属すると推定される異常の種類、即ち、血管性異常と腫瘍性異常と粘膜性異常とのうちのいずれかを取得する。
図4は、異常候補領域に関する情報の取得処理を示すフローチャートである。ステップS121において、異常候補種類推定部121は、異常候補領域をラベリングする(参考:CG−ART協会、「ディジタル画像処理」第2版、第181〜182頁)。即ち、同じ連結成分を有する異常候補領域に同じラベルを付け、異なる連結成分を有する異常候補領域に異なるラベルを付ける処理を行う。
続くステップS122において、異常候補種類推定部121は、ラベリングされた領域ごとに色特徴量、形状特徴量、及びテクスチャ特徴量を求める。具体的には、ステップS112と同様に、色特徴量として色比の平均値等を算出し、形状特徴量として領域の円形度、フェレ径、及び面積等を算出し、テクスチャ特徴量としてLBP等を算出する。
続くステップS123において、異常候補種類推定部121は、事前の学習により取得した各種の異常モデルとの一致度を求める。詳細には、ラベリングされた領域ごとに、ステップS122において求めた色特徴量、形状特徴量、及びテクスチャ特徴量を統合して特徴ベクトルを作成する。このとき、正規化を行い、必要に応じて各ベクトルに重み付けする。
そして、式(1)に示す判定指標P(x)に対し、ラベリングされた各領域の特徴ベクトルと、事前に取得された出血、発赤、凝固血等の血管性異常の複数のサンプルの特徴ベクトルとを適用することにより、血管性異常の判定指標P(x)血管を算出する。同様に、事前に取得されたポリープ等の腫瘍性異常の複数のサンプルの特徴ベクトルを式(1)の判定指標P(x)に適用することにより、腫瘍性異常の判定指標P(x)腫瘍を算出する。式(1)に示す判定指標P(x)に対し、同様に事前に取得されたびらん、潰瘍、アフタ、絨毛異常等の粘膜性異常の複数のサンプルの特徴ベクトルを式(1)の判定指標P(x)に適用することにより、粘膜性異常の判定指標P(x)粘膜を算出する。これらの判定指標P(x)血管、P(x)腫瘍、P(x)粘膜の値が、ラベリングされた各領域の各種異常モデルとの一致度を表す。
続くステップS124において、異常候補種類推定部121は、一致度が最も高い異常モデルの種類を判定する。即ち、ステップS123において算出した判定指標P(x)血管、P(x)腫瘍、P(x)粘膜の値が最も大きい異常を、異常候補領域の種類として推定する。
続くステップS125において、異常候補種類推定部121は、異常候補領域の種類を示すラベルを異常候補領域内の各画素に付加する。その後、処理はメインルーチンに戻る。
ステップS12に続くステップS13において、識別手法決定部130は、ステップS12において取得された異常候補領域に関する情報、即ち、異常候補領域に対して推定された異常の種類に基づいて識別手法を決定する。詳細には、識別器選択部131が、異常候補領域の異常の種類に応じて識別器を選択する。
図5は、異常候補領域に関する情報に基づいて識別手法を決定する処理を示すフローチャートである。ステップS131において、識別器選択部131は、異常候補領域に関する情報、即ち、異常の種類を異常候補情報取得部120から取得する。
続くステップS132〜S136において、識別器選択部131は、異常候補領域に関する情報に基づいて識別器を選択する。
詳細にはまず、ステップS132において、識別器選択部131は、異常候補領域に対して推定された異常の種類が血管性異常であるか否かを判定する。血管性異常である場合(ステップS132:Yes)、識別器選択部131は、色特徴量識別器を選択する(ステップS133)。出血等の血管性異常領域は、正常な粘膜領域の表面に対して特に色の違いが大きいため、色特徴量を用いることにより精度の高い識別が可能になるからである。具体的には、異常候補領域における色比の強度、色相、彩度等の色特徴量に基づいて識別を行う色特徴量識別器を選択する。その後、処理はメインルーチンに戻る。
一方、異常の種類が血管性異常でない場合(ステップS132:No)、識別器選択部131は、異常の種類が腫瘍性異常であるか否かを判定する(ステップS134)。腫瘍性異常である場合(ステップS134:Yes)、識別器選択部131は、形状特徴量識別器を選択する(ステップS135)。ポリープ等の腫瘍性異常領域は円形状に膨らむというように、正常な粘膜領域の表面構造に対して特に形状の違いが大きいため、形状特徴量を用いることにより精度の高い識別が可能になるからである。具体的には、異常候補領域の円形度、面積、フェレ径等の形状特徴量に基づいて識別を行う形状特徴量識別器を選択する。その後、処理はメインルーチンに戻る。
一方、異常の種類が腫瘍性異常でない場合(ステップS134:No)、識別器選択部131は、異常の種類が粘膜性異常であると判断して、色特徴量識別器及びテクスチャ特徴量識別器を選択する(ステップS136)。びらんや潰瘍等の粘膜性異常領域は、正常な粘膜領域の表面に対し、赤みや白みといった炎症に基づく色変化を伴いつつ、表面構造も変化するため、色特徴量と共にテクスチャ特徴量を用いることにより精度の高い識別が可能になるからである。具体的には、上述した色特徴量識別器を選択すると共に、LBPやDoGにより算出された高周波数成分強度等のテクスチャ特徴量に基づいて識別を行うテクスチャ特徴量識別器を選択する。その後、処理はメインルーチンに戻る。
ステップS13に続くステップS14において、識別部140は、ステップS13において決定された識別手法(識別器)により異常候補領域の識別を行う。この際、各識別器において用いられる識別境界は、サポートベクターマシン(SVM)等の公知の手法により予め作成しておく。それにより、異常候補領域が異常領域であるか否かが識別される。
続くステップS15において、演算部100は、ステップS14において取得された識別結果を出力する。具体的には、異常候補領域が異常領域であると識別された管腔内画像に対して、異常領域が検出された旨を示すフラグを付加する。併せて、異常領域の種類(血管性異常、腫瘍性異常、粘膜性異常)を示すフラグを当該管腔内画像に付加しても良い。その後、当該管腔内画像に対する処理は終了する。
以上説明したように、本発明の実施の形態1においては、管腔内画像から異常候補領域を検出すると共に、当該異常候補領域に関する情報として、推定される異常の種類を取得し、異常の種類に応じた識別器を選択して用いることにより、異常候補領域が異常領域であるか否かを識別する。それにより、異常であるか否かの識別にあまり関係のない特徴量の影響を排除し、精度の高い識別を行うことが可能となる。また、適切な識別器を選択することにより、識別処理を高速化することも可能になる。
(変形例1)
次に、本発明の実施の形態1の変形例1について説明する。図6は、本変形例1に係る画像処理装置が備える演算部の構成を示すブロック図である。図6に示すように、本変形例1に係る画像処理装置は、図1に示す演算部100の代わりに演算部150を備える。この演算部150は、図1に示す異常候補情報取得部120及び識別手法決定部130の代わりに、異常候補情報取得部160及び識別手法決定部170を備える。演算部150以外の画像処理装置の各部の構成及び動作、並びに、異常候補情報取得部160及び識別手法決定部170以外の演算部150の構成及び動作は、実施の形態1と同様である。
異常候補情報取得部160は、異常候補領域が属すると推定される異常の種類を判定する異常候補種類推定部121と、処理対象の管腔内画像が撮像された臓器の種類を判別する臓器判別部161とを備え、異常候補種類推定部121による異常の種類の推定結果と、臓器判別部161による臓器の種類の判別結果とを異常候補領域に関する情報として取得する。異常候補種類推定部121の動作は実施の形態1と同様である。
臓器判別部161による臓器の種類の判別処理には、公知の種々の技術を適用することができる。一例として、胃、小腸、大腸等の各臓器はそれぞれ特有の色みやテクスチャを有するため、色特徴量やテクスチャ特徴量に基づいてこれらの臓器を判別することができる。具体的には、胃の粘膜は比較的赤みが強い、小腸の粘膜は比較的黄みが強いと共に絨毛の襞の模様が観察される、大腸の粘膜は比較的白みが強い一方、残渣も観察される、といった特徴がある。そこで、管腔内画像全体、或いは、管腔内画像のうちの異常候補領域以外の領域の色特徴量及びテクスチャ特徴量を算出し、事前の学習により取得した臓器モデルとの一致度を求めることにより、臓器の種類を判別することができる。具体的には、上述した式(1)によって与えられる判定指標P(x)に対し、事前に取得された各臓器の色特徴量及びテクスチャ特徴量に基づく特徴ベクトルを適用することにより、各臓器の判定指標、具体的には胃の判定指標P(x)、小腸の判定指標P(x)小腸、及び大腸の判定指標P(x)大腸を算出し、これらの判定指標の値が最も大きい臓器を、当該管腔内画像が撮像された臓器として判別する。
識別手法決定部170は、異常候補領域に対して推定された異常の種類と、管腔内画像が撮像された臓器とに基づいて識別器を選択する識別器選択部171を備える。ここで、消化管内に発生する異常の中は、臓器の種類に応じて発生し易さが異なるものがある。例えば、胃においては、びらんや潰瘍が主要な異常となる。この場合、色特徴量及びテクスチャ特徴量に対する識別精度を高くすることが好ましい。また、小腸においては出血が主要な異常となる。この場合、色特徴量に対する識別精度を高くすることが好ましい。大腸においては、ポリープ等の腫瘍が主要な異常となる。この場合、形状特徴量に対する識別精度を高くすることが好ましい。
そこで、識別器選択部171は、異常の種類及び臓器の種類に基づいて識別器を選択する。選択方法の一例として、異常の種類に応じて選択された識別器と臓器の種類に応じて選択された判別器とを単純に組み合わせる方法が挙げられる。例えば、判定指標P(x)血管、P(x)腫瘍、P(x)粘膜の間では判定指標P(x)血管が最も高く、臓器の判定指標P(x)、P(x)小腸、P(x)大腸の間では判定指標P(x)が最も高い場合、異常の種類に基づき、血管性異常に対して高い識別精度を有する色特徴量識別器が選択され、臓器の種類の種類に基づき、胃において主に発生するびらんや潰瘍に対して高い識別精度を有する色特徴量識別器及びテクスチャ特徴量識別器が選択される。従って、これらの識別器の組み合わせ(論理和)として、色特徴量識別器及びテクスチャ特徴量識別器が選択される。
(実施の形態2)
次に、本発明の実施の形態2について説明する。図7は、本発明の実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。図7に示すように、本実施の形態2に係る画像処理装置は、図1に示す演算部100の代わりに演算部200を備える。この演算部200は、図1に示す識別手法決定部130及び識別部140の代わりに、識別手法決定部210及び識別部220を備える。演算部200以外の画像処理装置の各部の構成及び動作は、並びに、識別手法決定部210及び識別部220以外の演算部200の構成及び動作は、実施の形態1と同様である。
識別手法決定部210は、1つの異常候補領域の識別に際して複数の識別器を選択する識別器選択部211と、識別器選択部211が選択した複数の識別器を統合する際の処理を決定する統合処理決定部212とを備える。統合処理決定部212は、選択された複数の識別器による識別結果を統合する際に用いられる重みを決定する統合重み決定部212aを備える。
識別部220は、識別器選択部211が選択した複数の識別器による複数の識別結果を統合する識別結果統合部221を備え、統合された識別結果を当該異常候補領域の最終的な識別結果として出力する。
次に、本実施の形態2に係る画像処理装置の動作を説明する。図8は、本実施の形態2に係る画像処理装置の動作を示すフローチャートである。なお、図8のステップS10〜S12は、実施の形態1と同様である。また、本実施の形態2において用いられる色特徴量、形状特徴量、及びテクスチャ特徴量の具体例は、実施の形態1において説明したものと同様である。
ステップS12に続くステップS21において、識別手法決定部210は、ステップS12において取得された異常候補領域に関する情報に基づき、複数の識別器を選択する。図9は、複数の識別器の選択処理を示すフローチャートである。また、図10は、複数の識別器の選択処理を説明するための模式図である。
まず、ステップS211において、識別器選択部211は、異常候補情報取得部120から異常候補領域に関する情報を取得する。即ち、異常候補領域に対して推定された異常の種類を取得する。
続くステップS212〜S216において、識別器選択部211は、異常候補領域に関する情報に基づいて複数の識別器を選択する。
ここで、複数の識別器を組み合わせる手法としては、一例として、簡易な識別能力を持つ弱識別器の組み合わせにより識別器全体を構成する、バギング(bagging)やブースティング(boosting)等の公知の学習の手法が用いられる(参照:C.M.ビショップ著、「パターン認識と機械学習 下」、シュプリンガー・ジャパン株式会社、第373〜375頁)。なお、図10においては、7つの識別器を組み合わせたパターンを示しているが、1つのパターンに含める識別器の総数は任意であり、7つに限定されない。例えば、入力部30を介してユーザが識別器の総数を入力することにより、選択及び組み合わせがなされる識別器の数を設定することとしても良い。
詳細にはまず、ステップS212において、識別器選択部211は、異常候補領域に対して推定された異常の種類が血管性異常であるか否かを判定する。血管性異常である場合(ステップS212:Yes)、識別器選択部211は、色特徴量識別器を優先的に選択する(ステップS213)。
具体的には、色特徴量の種類が異なる色特徴量識別器を、形状特徴量識別器やテクスチャ特徴量識別器よりも多く選択する。図10の(a)は、色特徴量識別器を優先的に選択した場合の複数の識別器の組み合わせパターンを示す模式図である。図10の(a)においては、5種類の色特徴量識別器c1〜c5と、1種類の形状特徴量識別器f1と、1種類のテクスチャ特徴量識別器t1とを組み合わせた例を示している。
色特徴量識別器、形状特徴量識別器、及びテクスチャ特徴量識別器を選択する数の比率は、色特徴量識別器が多ければ特に限定されない。この比率は固定値としても良いし、変動値としても良い。一例として、異常候補領域の異常の種類を推定する際に算出された一致度(判定指標P(x)血管、P(x)腫瘍、P(x)粘膜)の比率に応じて、各種識別器の選択数の比率を決定しても良い。その後、処理はメインルーチンに戻る。
一方、異常の種類が血管性異常でない場合(ステップS212:No)、識別器選択部211は、異常の種類が腫瘍性異常であるか否かを判定する(ステップS214)。腫瘍性異常である場合(ステップS214:Yes)、識別器選択部211は、形状特徴量識別器を優先的に選択する(ステップS215)。各種の識別器を選択する数の比率は、形状特徴量識別器が多ければ特に限定されない。比率の決定方法については、血管性異常の場合と同様である。図10の(b)は、形状特徴量識別器を優先的に選択した場合の複数の識別器の組み合わせパターンを示す模式図である。図10の(b)においては、5種類の形状特徴量識別器f1〜f5と、1種類の色特徴量識別器c1と、1種類のテクスチャ特徴量識別器t1とを組み合わせた例を示している。その後、処理はメインルーチンに戻る。
一方、異常の種類が腫瘍性異常でない場合(ステップS214:No)、識別器選択部211は、異常の種類が粘膜性異常であると判断して、色特徴量識別器及びテクスチャ特徴量識別器を優先的に選択する(ステップS216)。各種の識別器を選択する数の比率は、色特徴量識別器及びテクスチャ特徴量識別器が多ければ特に限定されない。比率の決定方法については、血管性異常の場合と同様である。図10の(c)は、色特徴量識別器及びテクスチャ特徴量識別器を優先的に選択した場合の複数の識別器の組み合わせパターンを示す模式図である。図10の(c)においては、3種類の色特徴量識別器c1〜d3と、3種類のテクスチャ特徴量識別器t1〜t3と、1種類の形状特徴量識別器f1とを組み合わせた例を示している。その後、処理はメインルーチンに戻る。
ステップS21に続くステップS22において、統合処理決定部212は、選択された複数の識別器の統合方法を決定する。図11は、選択された複数の識別器の統合方法の決定処理を示すフローチャートである。
まず、ステップS221において、統合処理決定部212は、異常候補領域に関する情報を取得する。
続くステップS222〜S226において、統合重み決定部212aは、異常候補領域に関する情報に基づいて、ステップS21において選択された複数の識別器による識別結果に与える重みの比率を決定する。
ここで、ステップS21において複数の識別器y1〜ym(mは選択された識別器の総数)が選択されたとすると、統合重み決定部212aは、これらの識別器y1〜ymのそれぞれの識別結果である確度P1〜Pmに与えられる重みw1〜wmを、異常候補領域に対して推定された異常の種類に応じて変化するように決定する。なお、重みw1〜wmは、総和が1となるように正規化される。
詳細にはまず、ステップS222において、統合重み決定部212aは、異常候補領域に対して推定された異常の種類が血管性異常であるか否かを判定する。血管性異常である場合(ステップS222:Yes)、統合重み決定部212aは、色特徴量識別器に与える重みの比率を高くする(ステップS223)。重みの比率は、色特徴量識別器に与えられる重みが高ければ特に限定されず、任意の値として良い。或いは、異常候補領域に関する情報(異常の種類)と重みの比率との関係を示すテーブルを予め作成しておき、このテーブルを参照することで重みの比率を決定しても良い。その後、処理はメインルーチンに戻る。
一方、異常の種類が血管性異常でない場合(ステップS222:No)、統合重み決定部212aは、異常の種類が腫瘍性異常であるか否かを判定する(ステップS224)。腫瘍性異常である場合(ステップS224:Yes)、統合重み決定部212aは、形状特徴量識別器に与える重みの比率を高くする(ステップS225)。重みの比率を高くする方法については、血管性異常の場合と同様である。その後、処理はメインルーチンに戻る。
一方、異常の種類が腫瘍性異常でない場合(ステップS224:No)、統合重み決定部212aは、異常の種類が粘膜性異常であると判断して、色特徴量識別器及びテクスチャ特徴量識別器に与える重みの比率を高くする(ステップS226)。重みの比率を高くする方法については、血管性異常の場合と同様である。その後、処理はメインルーチンに戻る。
ステップS22に続くステップS23において、識別部220は、決定された識別手法により異常候補領域を識別する。図12は、決定された識別手法による異常候補領域の識別処理を示すフローチャートである。また、図13は、複数の識別結果を統合する処理を説明するための模式図である。
まず、ステップS231において、識別部220は、ステップS21により選択された複数の識別器による識別演算を行う。具体的には、図13に示すように、複数の識別器(例えば、色特徴量識別器c1、c2、…、形状特徴量識別器f1、テクスチャ特徴量識別器t1等)による識別演算を行い、識別結果として確度P1〜Pmを取得する。
続くステップS232において、識別結果統合部221は、ステップS231において出力された複数の識別結果を、ステップS22において決定された統合方法により統合する。即ち、次式(2)に示すように、複数の識別結果として取得した確度P1〜Pmに対し、ステップS22において決定した各識別器に与えられる重みw1〜wmを用いた重み付け加算を行うことにより、統合された識別結果(確度P)を算出する。
P=P1×w1+P2×w2+…+Pm×wm …(2)
或いは、識別結果統合部221は、式(2)のような重み付け加算の代わりに、より複雑な重み付け演算を行っても良い。例えば、確度Pがある範囲内の場合には確度P1〜Pmに対して重みw1〜wmを単純に掛け合わせて加算するが、確度Pがある範囲を超えた場合には重みw1〜wmに対して係数αを更に乗算した値を掛け合わせるというように、確度Pの値に応じて重みの与え方を変化させても良い。この場合、重み付け演算を行うための算出テーブルを予め作成しておき、この算出テーブルを参照することで演算を行っても良い。その後、処理はメインルーチンに戻る。
ステップS23に続くステップS24において、演算部200は、ステップS23において取得された識別結果を出力する。この出力処理は、実施の形態1と同様である。その後、当該管腔内画像に対する処理は終了する。
以上説明したように、本発明の実施の形態2によれば、異常候補領域に対して推定された異常の種類に応じて、該異常の種類の識別に適した特徴量識別器を優先的して複数の識別器を選択し、これらの識別器により得られた複数の識別結果を、異常の種類に応じた重み付けをした上で統合するので、異常の種類に応じて適切な識別処理を行うことができ、より精度の高い識別結果を得ることが可能となる。
(変形例2−1)
次に、本発明の実施の形態2の変形例2−1について説明する。上記実施の形態2においては、選択された複数の識別器による識別結果に対して、異常候補領域に対して推定された異常の種類に応じた重み付け加算を行った。しかしながら、この重み付けを行わずに、単に加算平均しても良い。ステップS21においては、異常の種類に応じて、特定の種類の特徴量識別器が優先的に選出される。一例として、異常候補領域の異常の種類が血管性異常である場合、色特徴量識別器が他の特徴量識別器に対して数多く選出される。従って、これらの識別器による識別結果を等比率で加算平均した場合であっても、統合された識別結果に対して、特定の種類の特徴量識別器による識別結果の寄与を多くすることができる。
(変形例2−2)
次に、本発明の実施の形態2の変形例2−2について説明する。上記実施の形態2においても、実施の形態1の変形例1と同様に臓器判別部161を設け(図6参照)、処理対象の管腔内画像が撮像された臓器の種類を考慮した識別器の選択や重みの決定を行っても良い。
具体的には、胃においてはびらんや潰瘍が主要な異常となるため、臓器の種類が胃である場合、識別器選択部211は、色及びテクスチャに対する識別精度が高くなるように、色特徴量識別器及びテクスチャ特徴量識別器を優先的に選択する。また、統合重み決定部212aは、色特徴量識別器及びテクスチャ特徴量識別器による識別結果にそれぞれ与える重みの比率を高くする。
或いは、小腸においては出血が主要な異常となるため、臓器の種類が小腸である場合、識別器選択部211は、色特徴量識別器を優先的に選択する。また、統合重み決定部212aは、色特徴量識別器による識別結果に与える重みの比率を高くする。
さらに、大腸においてはポリープ等の腫瘍が主要な異常となるため、臓器の種類が大腸である場合、識別器選択部211は、形状特徴量識別器を優先的に選択する。また、統合重み決定部212aは、形状特徴量識別器による識別結果に与える重みの比率を高くする。
臓器の種類に応じて重みを決定した場合、各種の識別器による識別結果である確度P1〜Pmを、異常の種類に応じて決定した重みw1〜wmと、臓器の種類に応じて決定した重みw1’〜wm’とを用いて、例えば次式(3)によって統合することができる。
P=P1×(w1+w1’)+P2×(w2+w2’)+…+Pm×(wm+wm’)
…(3)
臓器の種類を考慮した別の処理として、識別器選択部211において、異常候補領域に対して推定された異常の種類に基づいて複数の識別器を選択し、統合重み決定部212aにおいて、臓器の種類に応じて各識別器による識別結果に与える重みの比率を決定しても良い。或いは、識別器選択部211において、臓器の種類に応じた優先度で複数の識別器を選択し、統合重み決定部212aにおいて、異常候補領域の異常の種類に応じて各識別器による識別結果に与える重みの比率を決定しても良い。
(実施の形態3)
次に、本発明の実施の形態3について説明する。図14は、本実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。図14に示すように、本実施の形態3に係る画像処理装置は、図1に示す演算部100の代わりに演算部300を備える。この演算部300は、異常候補検出部110と、異常候補情報取得部310と、識別手法決定部320と、識別部330とを備える。このうち、異常候補検出部110の動作は、実施の形態1と同様である。
異常候補情報取得部310は、異常候補検出部110が検出した異常候補領域に対する識別の難易度を判定する識別難易度判定部311を備え、識別難易度判定部311による判定結果を異常候補領域に関する情報として出力する。識別難易度は、異常候補領域を検出した際に付加されたラベル(図4のステップS125参照)に基づいて判定される。具体的には、異常候補領域に対して推定された異常の種類(血管性異常、腫瘍性異常、粘膜性異常)に応じて識別難易度が判定される。
識別手法決定部320は、異常候補領域に関する情報として取得された識別難易度に基づいて識別手法を選択する識別処理選択部321を備える。詳細には、識別処理選択部321は、異常候補領域が異常領域であるか否かの識別を行う際の識別境界の作成する手法を選択する。識別境界の作成手法としては、上述したバギング、サポートベクターマシン、線形識別関数による分類(参考:C.M.ビショップ著、「パターン認識と機械学習 上」、シュプリンガー・ジャパン株式会社、第182〜185頁)等が挙げられる。ここで、線形識別関数による分類とは、図15の(a)に示すように、正常及び異常の2クラスのデータから線形識別関数を求め、図15の(b)に示すように、この線形識別関数を新たなサンプルに適用することで分類する方法である。
識別部330は、識別手法決定部320が決定した識別手法を用いて、異常候補領域が異常領域であるか否かの識別を行う。
次に、本実施の形態3に係る画像処理装置の動作を説明する。図16は、本実施の形態3に係る画像処理装置の動作を示すフローチャートである。なお、図16のステップS10、S11は、実施の形態1と同様である。また、本実施の形態3において用いられる色特徴量、形状特徴量、及びテクスチャ特徴量の具体例は、実施の形態1において説明したものと同様である。
ステップS11に続くステップS31において、異常候補情報取得部310は、異常候補領域に関する情報として、識別難易度を取得する。図17は、異常候補領域に関する情報の取得処理を示すフローチャートである。なお、図17のステップS121〜S125は、実施の形態1と同様である(図4参照)。
ステップS125に続くステップS311において、識別難易度判定部311は、異常候補領域のラベルごとに、識別難易度を判定する。具体的には、血管性異常は、出血の色みが消化管内の粘膜と大きく異なるという特徴を有するため、比較的識別が容易である。従って、識別難易度判定部311は、血管性異常のラベルが付加された異常候補領域に対し、識別難易度は低いと判定する。また、腫瘍性異常は、特徴的な形状を有するものの、溝等と誤認識される可能性のある構造が粘膜表面に存在する場合があり、さらに、色みが粘膜表面の色みと近いため、識別が困難である。従って、識別難易度判定部311は、腫瘍性異常のラベルが付加された異常候補領域に対し、識別難易度は高いと判定する。さらに、粘膜性異常は、撮像環境に応じて粘膜表面の構造の不均一性の見え方が異なるため、比較的識別が困難である。従って、識別難易度判定部311は、粘膜性異常のラベルが付加された異常候補領域に対し、識別難易度は高いと判定する。
なお、識別難易度のレベルは、識別容易と識別困難との二値であっても良いし、識別容易から識別困難まで複数段階が設定されていても良いし、識別容易から識別困難まで連続的に設定されていても良い。また、これらのレベルをユーザが任意に設定できることとしても良い。
続くステップS312において、異常候補情報取得部310は、識別難易度判定部311が判定した識別難易度を、異常候補領域に関する情報として取得する。その後、処理はメインルーチンに戻る。
ステップS31に続くステップS32において、識別手法決定部320は、ステップS31において取得された異常候補領域に関する情報、即ち、識別難易度に基づいて識別手法を決定する。詳細には、識別処理選択部321が、識別難易度に応じて、異常候補領域の識別基準を作成するアルゴリズムを選択する。
図18は、識別手法を選択する処理を示すフローチャートである。まず、ステップS321において、識別処理選択部321は、異常候補領域の識別難易度を異常候補情報取得部310から取得する。
続くステップS322において、識別処理選択部321は、取得した識別難易度が高いか否かを判定する。
この際、異常候補情報取得部310から取得した識別難易度が二値(識別困難、識別容易)で設定されている場合には、取得した識別難易度をそのまま判定結果として用いれば良い。一方、異常候補情報取得部310から取得した識別難易度が複数段階或いは連続的に設定されている場合、識別処理選択部321は、識別難易度に対して閾値処理を行うことにより、識別難易度が高いか否かを判定する。この際の閾値は、ユーザが任意で設定することとしても良い。
識別難易度が高い場合(ステップS322:Yes)、識別処理選択部321は、識別精度が高い識別手法を選択する(ステップS323)。識別精度が高い識別手法とは、一般的に複雑で、多大な特徴量次元数や計算量を有する手法である。具体的には、非線形サポートベクターマシン、ブースティング等の手法が挙げられる。
一方、識別難易度が高くない場合(ステップS322:No)、即ち、識別難易度が低い場合、識別処理選択部321は、簡易的な識別手法を選択する(ステップS324)。簡易的な識別手法とは、識別精度はステップS323において選択される手法ほど高くないが、視覚的にわかり易く、容易な識別手法である。このような識別手法においては、特徴量次元数や計算量の規模が、ステップS323において選択される精度の高い識別手法と比較して圧倒的に小さい。具体的には、確率密度関数、線形識別関数の分類、線形サポートベクターマシン等の手法が挙げられる。その後、処理はメインルーチンに戻る。
ステップS32に続くステップS33において、識別部330は、ステップS32において決定された識別手法により異常候補領域を識別する。詳細には、識別部330は、ステップS32において決定された手法により識別基準を作成し、この識別基準を用いて、ステップS11において検出された異常候補領域が異常領域であるか否かを識別する。
続くステップS34において、演算部300は、ステップS33において取得された識別結果を出力する。この出力処理は、実施の形態1と同様である。その後、当該管腔内画像に対する処理は終了する。
以上説明したように、本発明の実施の形態3においては、異常候補領域の識別難易度に応じて識別手法を選択し、選択した識別手法を用いて当該異常候補領域が異常領域であるか否かを識別する。即ち、識別難易度が高い異常候補領域に対しては、計算量が多く複雑ではあるが、識別精度の高い識別手法を用い、識別難易度が低い異常候補領域に対しては、識別精度は高くないが、視覚的にわかり易く、簡易で計算量が少ない識別手法を用いる。このように、異常候補領域の識別難易度に応じて適切な手法を用いることにより、必要な識別精度を担保しつつ、効率良く識別を行うことが可能となる。
以上説明した実施の形態1〜3及びこれらの変形例は、記憶装置に記憶された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータシステムで実行することによって実現することができる。また、このようなコンピュータシステムを、ローカルエリアネットワーク(LAN)、広域エリアネットワーク(WAN)、又は、インターネット等の公衆回線を介して、他のコンピュータシステムやサーバ等の機器に接続して使用しても良い。この場合、実施の形態1〜3及びこれらの変形例に係る画像処理装置は、これらのネットワークを介して管腔内画像の画像データを取得したり、これらのネットワークを介して接続された種々の出力機器(ビュアーやプリンタ等)に画像処理結果を出力したり、これらのネットワークを介して接続された記憶装置(記憶媒体及びその読取装置等)に画像処理結果を格納するようにしても良い。
本発明は、実施の形態1〜3及びこれらの変形例に限定されるものではなく、各実施の形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。例えば、各実施の形態や変形例に示される全構成要素からいくつかの構成要素を除外して形成しても良いし、異なる実施の形態や変形例に示した構成要素を適宜組み合わせて形成しても良い。
1 画像処理装置
10 制御部
20 画像取得部
30 入力部
40 表示部
50 記憶部
51 画像処理プログラム
100、150、200、300 演算部
110 異常候補検出部
120、160、310 異常候補情報取得部
121 異常候補種類推定部
130、170、210、320 識別手法決定部
140、220、330 識別部
131、171、211 識別器選択部
161 臓器判別部
212 統合処理決定部
212a 統合重み決定部
221 識別結果統合部
311 識別難易度判定部
321 識別処理選択部


Claims (10)

  1. 生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出部と、
    前記候補領域検出部が検出した前記候補領域に関する情報を取得する候補領域情報取得部と、
    前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定部と、
    前記識別手法決定部が決定した識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別部と、
    を備えることを特徴とする画像処理装置。
  2. 前記識別手法決定部は、前記候補領域に関する情報をもとに、複数の識別器のうちから、当該候補領域の識別に用いる識別器を選択する識別器選択部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記候補領域情報取得部は、前記画像の特徴量を用いて、前記候補領域が属する特定領域の種類を推定する候補領域種類推定部を備え、
    前記識別器選択部は、前記候補領域種類推定部が推定した特定領域の種類に基づいて前記識別器を選択する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記識別器選択部は、前記複数の識別器のうちから2つ以上の識別器を選択し、
    前記識別手法決定部は、前記識別器選択部が選択した前記2つ以上の識別器によってそれぞれ得られる2つ以上の識別結果を統合する際の統合処理を決定する統合処理決定部を備え、
    前記識別部は、前記統合処理決定部が決定した統合処理によって前記2つ以上の識別結果を統合することにより、前記候補領域が前記特定領域であるか否かを識別する、
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記候補領域情報取得部は、前記画像の特徴量を用いて、前記候補領域が属する特定領域の種類を推定する候補領域種類推定部を備え、
    前記識別器選択部は、前記候補領域種類推定部が推定した特定領域の種類に応じた優先度で、前記2つ以上の識別器を選択する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記統合処理決定部は、前記2つ以上の識別結果を統合する際に、該2つ以上の識別結果にそれぞれ与えられる2つ以上の重みを決定する統合重み決定部を備える、ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記候補領域情報取得部は、前記画像の特徴量を用いて、前記候補領域が属する特定領域の種類を推定する候補領域種類推定部を備え、
    前記統合重み決定部は、前記候補領域種類推定部が推定した特定領域の種類に応じて、前記2つ以上の重みを決定する、
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記識別手法決定部は、前記候補領域が前記特定領域であるか否かの識別難易度を判定する識別難易度判定部を備え、
    前記識別手法選択部は、前記識別難易度が高いほど識別精度の高い識別手法を選択する、
    ことを特徴とする請求項1に記載の画像処理装置。
  9. 候補領域検出部が、生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出ステップと、
    候補領域情報取得部が、前記候補領域検出ステップにおいて検出された前記候補領域に関する情報を取得する候補領域情報取得ステップと、
    識別手法決定部が、前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定ステップと、
    識別部が、前記識別手法決定ステップにおいて決定された識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別ステップと、
    を含むことを特徴とする画像処理装置の作動方法。
  10. 生体の管腔内を撮像した画像から、該管腔内の特定の部位が写った領域である特定領域の候補領域を検出する候補領域検出ステップと、
    前記候補領域検出ステップにおいて検出された前記候補領域に関する情報を取得する候補領域情報取得ステップと、
    前記候補領域に関する情報をもとに、当該候補領域が前記特定領域であるか否かを識別するための識別手法を決定する識別手法決定ステップと、
    前記識別手法決定ステップにおいて決定された識別手法を用いて、前記候補領域が前記特定領域であるか否かを識別する識別ステップと、
    をコンピュータに実行させることを特徴とする画像処理プログラム。




JP2017518712A 2015-05-21 2015-05-21 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム Active JP6552613B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/064662 WO2016185617A1 (ja) 2015-05-21 2015-05-21 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2016185617A1 JPWO2016185617A1 (ja) 2018-03-08
JP6552613B2 true JP6552613B2 (ja) 2019-07-31

Family

ID=57319557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017518712A Active JP6552613B2 (ja) 2015-05-21 2015-05-21 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US10456009B2 (ja)
JP (1) JP6552613B2 (ja)
CN (1) CN107835654B (ja)
WO (1) WO2016185617A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210138932A (ko) * 2020-05-13 2021-11-22 연세대학교 산학협력단 귀의 병변에 대한 정보 제공 방법 및 이를 이용한 귀의 병변에 대한 정보 제공용 디바이스

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11202003973VA (en) * 2017-10-30 2020-05-28 Japanese Found For Cancer Res Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
WO2019146075A1 (ja) * 2018-01-26 2019-08-01 オリンパス株式会社 内視鏡画像処理装置、内視鏡画像処理プログラム及び内視鏡画像処理方法
JP7015385B2 (ja) * 2018-05-15 2022-02-02 富士フイルム株式会社 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム
JP7017198B2 (ja) 2018-06-22 2022-02-08 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2020049935A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法
JP7127785B2 (ja) * 2018-11-30 2022-08-30 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
CN109919187B (zh) * 2019-01-28 2021-02-12 浙江工商大学 用bagging微调CNN来分类甲状腺滤泡状图片的方法
JP2020139842A (ja) * 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
CN109965829B (zh) * 2019-03-06 2022-05-06 重庆金山医疗技术研究院有限公司 成像优化方法、图像处理装置、成像装置及内窥镜系统
JP2020156903A (ja) * 2019-03-27 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、プログラム、情報処理方法および学習モデルの生成方法
WO2021054477A2 (ja) * 2019-09-20 2021-03-25 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP7044120B2 (ja) * 2020-02-07 2022-03-30 カシオ計算機株式会社 識別装置、識別器学習方法、識別方法及びプログラム
JP7520582B2 (ja) * 2020-06-10 2024-07-23 日立造船株式会社 情報処理装置、判定方法、および情報処理プログラム
WO2022029824A1 (ja) * 2020-08-03 2022-02-10 オリンパス株式会社 診断支援システム、診断支援方法及び診断支援プログラム
JP7532159B2 (ja) 2020-09-15 2024-08-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN113223041B (zh) * 2021-06-25 2024-01-12 上海添音生物科技有限公司 用于自动提取图像中目标区域的方法、系统及存储介质
CN114259197B (zh) * 2022-03-03 2022-05-10 深圳市资福医疗技术有限公司 一种胶囊内窥镜质控方法及系统
CN115035118B (zh) * 2022-08-11 2022-11-01 南通华钛电子科技有限公司 一种基于识别模型的pcb生产线残缺检测方法及系统
WO2024084578A1 (ja) * 2022-10-18 2024-04-25 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4450973B2 (ja) * 2000-11-30 2010-04-14 オリンパス株式会社 診断支援装置
JP4912787B2 (ja) * 2006-08-08 2012-04-11 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理装置の作動方法
JP2008234623A (ja) 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、カテゴリー識別方法、及び、プログラム
JP5576711B2 (ja) * 2010-05-14 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP6265588B2 (ja) * 2012-06-12 2018-01-24 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210138932A (ko) * 2020-05-13 2021-11-22 연세대학교 산학협력단 귀의 병변에 대한 정보 제공 방법 및 이를 이용한 귀의 병변에 대한 정보 제공용 디바이스
KR102344084B1 (ko) * 2020-05-13 2021-12-27 연세대학교 산학협력단 귀의 병변에 대한 정보 제공 방법 및 이를 이용한 귀의 병변에 대한 정보 제공용 디바이스

Also Published As

Publication number Publication date
CN107835654A (zh) 2018-03-23
JPWO2016185617A1 (ja) 2018-03-08
CN107835654B (zh) 2020-03-13
US10456009B2 (en) 2019-10-29
US20180070798A1 (en) 2018-03-15
WO2016185617A1 (ja) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6552613B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
US11790523B2 (en) Autonomous diagnosis of a disorder in a patient from image analysis
Zhang et al. Road crack detection using deep convolutional neural network
US10055843B2 (en) System and methods for automatic polyp detection using convulutional neural networks
Tang et al. Splat feature classification with application to retinal hemorrhage detection in fundus images
Sainju et al. Automated bleeding detection in capsule endoscopy videos using statistical features and region growing
US10360474B2 (en) Image processing device, endoscope system, and image processing method
JP6045396B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US9672610B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
WO2015141692A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5851160B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
WO2016032398A2 (en) Method and device for analysing an image
JP5830295B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP2007307358A (ja) 画像処理方法および装置ならびにプログラム
JP2012073953A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
Do et al. Early melanoma diagnosis with mobile imaging
KR20090131626A (ko) 영상 데이터내의 특정 클래스의 오브젝트를 세그멘테이션하기 위한 시스템 및 방법
JP6552601B2 (ja) 画像処理装置、画像処理装置の作動方法および画像処理プログラム
CN111684461B (zh) 确定图像数据的特征数据的方法、装置、系统及存储介质
Kaushik et al. Medical image segmentation using genetic algorithm
Vieira et al. Segmentation of angiodysplasia lesions in WCE images using a MAP approach with Markov Random Fields
Tuba et al. Bleeding detection in wireless capsule endoscopy images using texture and color features
Maghsoudi Superpixels based segmentation and SVM based classification method to distinguish five diseases from normal regions in wireless capsule endoscopy
Hirata et al. Plankton image classification based on multiple segmentations
Chang et al. Single-shot person re-identification based on improved random-walk pedestrian segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R151 Written notification of patent or utility model registration

Ref document number: 6552613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250