JP6707083B2 - 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6707083B2
JP6707083B2 JP2017525709A JP2017525709A JP6707083B2 JP 6707083 B2 JP6707083 B2 JP 6707083B2 JP 2017525709 A JP2017525709 A JP 2017525709A JP 2017525709 A JP2017525709 A JP 2017525709A JP 6707083 B2 JP6707083 B2 JP 6707083B2
Authority
JP
Japan
Prior art keywords
image
determination unit
unit
image processing
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017525709A
Other languages
English (en)
Other versions
JPWO2017002184A1 (ja
Inventor
隆志 河野
隆志 河野
大和 神田
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017002184A1 publication Critical patent/JPWO2017002184A1/ja
Application granted granted Critical
Publication of JP6707083B2 publication Critical patent/JP6707083B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/126Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning in-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本発明は、生体内を観察する内視鏡により撮像された画像から異常部を検出する画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムに関する。
近年、生体の管腔内を非侵襲に観察可能な医用観察装置として、内視鏡が広く普及している。また、内視鏡により撮像された画像から観察に適さない画像を予め除去したり、病変等の特定の特徴を有する画像を抽出したり、観察対象の画像に対して事前に画質改善を行ったりする診断支援技術の開発も進められている。
例えば特許文献1には、ピットパターン解析等により診断を行う際に、前処理として、ぼけや鏡面反射等を含み、診断に不要な低品質画像の削除、並びに、高コントラスト化及び超解像等の画質改善を行う技術が開示されている。
特表2010−512173号公報
内視鏡により撮像された画像に対して必要な処理は、医師である内視鏡の操作者が撮像中に行った動作によってある程度想定することができる。例えば、操作者が被検体に対して何等かの処置を行っている場合、既に病変が発見されている可能性が高いので、処置中に撮像された画像を診断する必要性は低い。また、操作者が狭帯域光等の特殊光を用いて観察を行っている場合、既に発見された病変を鑑別している可能性が高いので、特殊光の下で撮像された画像からあらためて病変を探す必要性は低い。
この点に関し、上記特許文献1においては、画質に基づいて診断に不要な画像を判別すると共に診断対象の画像の画質を改善するなどして、診断支援の効率化を図っているものの、操作者の動作に応じた画像の判別は行っておらず、本来診断が不要な画像に対して過剰な処理を行ってしまうなど、診断支援の効率化が限定的となっていた。
本発明は、上記に鑑みて為されたものであって、内視鏡により撮像された画像に対し、診断の必要性の低い画像を内視鏡の操作者の動作に応じて判別し、効率の良い診断支援を行うことができる画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定部と、前記動作判定部による判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定部と、前記検出対象画像から前記特定領域を検出する検出部と、備えることを特徴とする。
本発明に係る内視鏡システムは、前記画像処理装置と、前記内視鏡と、を備えることを特徴とする。
本発明に係る画像処理方法は、演算部が、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定ステップと、前記演算部が、前記動作判定ステップにおける判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定ステップと、前記演算部が、前記検出対象画像から前記特定領域を検出する検出ステップと、含むことを特徴とする。
本発明に係る画像処理プログラムは、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定ステップと、前記動作判定ステップにおける判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定ステップと、前記検出対象画像から前記特定領域を検出する検出ステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、画像の撮像時における内視鏡の操作者の動作に応じて、特定領域の検出対象画像を決定するので、診断に必要な画像を抽出して特定領域を検出することができる。従って、効率の良い診断支援を行うことが可能となる。
図1は、本発明の実施の形態1に係る内視鏡システムの構成を示す模式図である。 図2は、図1に示す画像処理装置の構成を示すブロック図である。 図3は、図2に示す処置動作判定部の構成を示すブロック図である。 図4は、図2に示す鑑別動作判定部の構成を示すブロック図である。 図5は、図2に示す注視動作判定部の構成を示すブロック図である。 図6は、襞裏確認動作を説明するための模式図である。 図7は、図2に示す挿入動作判定部の構成を示すブロック図である。 図8は、本発明の実施の形態1に係る画像処理方法を示すフローチャートである。 図9は、画像をもとに動作を判定する処理の詳細を示すフローチャートである。 図10は、本発明の実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。 図11は、本発明の実施の形態2に係る画像処理方法を示すフローチャートである。 図12は、検出対象領域の設定処理の詳細を示すフローチャートである。 図13は、本発明の実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。 図14は、本発明の実施の形態3に係る画像処理方法を示すフローチャートである。
以下、本発明の実施の形態に係る画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラムについて、図面を参照しながら説明する。なお、これら実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(実施の形態1)
図1は、本発明の実施の形態1に係る内視鏡システムの構成例を示す模式図である。図1に示す内視鏡システム1は、被検体の体内に挿入されて撮像を行い、画像を生成して出力する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が生成した画像に対して各種画像処理を施す画像処理装置4と、画像処理装置4により画像処理が施された画像を表示する表示装置5とを備える。
内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、画像処理装置4及び光源装置3と接続する各種ケーブルを内蔵するユニバーサルコード23とを備える。
挿入部21は、先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓針管26とを有する。この挿入部21の先端部24に、光源装置3が発生した照明光により被検体内を照射する照明部と、被検体内において反射された照明光を集光する光学系と、光学系により集光された照明光を受光して光電変換することにより画像信号を生成するCCD又はCMOS等の撮像素子とが設けられている。以下、これらの光学系及び撮像素子をまとめて、撮像部ともいう。
操作部22と先端部24との間には、画像処理装置4との間で電気信号の送受信を行う複数の信号線が束ねられた集合ケーブルと、光を伝送するライトガイドとが接続されている。複数の信号線には、撮像素子が出力した画像信号を画像処理装置4に伝送する信号線及び画像処理装置4が出力する制御信号を撮像素子に伝送する信号線等が含まれる。
操作部22は、湾曲部25を上下方向及び左右方向に湾曲させる湾曲ノブ22aと、生検針、生体鉗子、レーザメス、及び検査プローブ等の処置具を挿入する処置具挿入部22bと、画像処理装置4、光源装置3に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する入力部である複数のスイッチ22cと、を有する。
ユニバーサルコード23は、ライトガイド及び集合ケーブルを少なくとも内蔵している。また、ユニバーサルコード23の操作部22に連なる側と異なる側の端部には、光源装置3に着脱自在なコネクタ部27と、コイル状をなすコイルケーブル28を介してコネクタ部27と電気的に接続され、画像処理装置4と着脱自在な電気コネクタ部29とが設けられている。撮像素子から出力された画像信号は、コイルケーブル28及び電気コネクタ部29を介して画像処理装置4に入力される。また、操作部22に対してなされた操作に関する情報や、光源装置3から出力された照明光の種類(通常光、特殊光等)や強度等に関する情報等は、システム情報としてコイルケーブル28及び電気コネクタ部29を介して画像処理装置4に入力される。
図2は、図1に示す画像処理装置4の構成を示すブロック図である。画像処理装置4は、内視鏡2による検査中に撮像された画像に対し、内視鏡の操作者が撮像時に行っていた動作に応じた画像処理を行う。内視鏡2により撮像される画像は、通常、各画素位置においてR(赤)、G(緑)、B(青)の波長成分に対する画素レベル(画素値)を持つカラー画像である。
図2に示すように、画像処理装置4は、該画像処理装置4全体の動作を制御する制御部10と、内視鏡から画像を取得する画像取得部11と、外部からなされる操作に応じた入力信号を制御部10に入力する操作入力部12と、表示装置5に対して表示用の画像信号を出力するインタフェースである出力部13と、画像取得部11が取得した画像や種々のプログラムを格納する記憶部14と、画像データに対して所定の画像処理を実行する演算部15とを備える。
制御部10は、CPU(Central Processing Unit)等の汎用プロセッサやASIC(Application Specific Integrated Circuit)等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。制御部10が汎用プロセッサである場合、記憶部14が記憶する各種プログラムを読み込むことによって画像処理装置4を構成する各部への指示やデータの転送等を行い、画像処理装置4全体の動作を統括して制御する。また、制御部10が専用プロセッサである場合、プロセッサが単独で種々の処理を実行しても良いし、記憶部14が記憶する各種データ等を用いることで、プロセッサと記憶部14が協働又は結合して種々の処理を実行してもよい。
画像取得部11は、内視鏡2から画像を取り込むインタフェースによって構成される。或いは、内視鏡2から出力された画像を一旦サーバ等の記憶装置に蓄積する構成としても良く、この場合、画像取得部11は、サーバと接続される通信装置等で構成され、サーバとの間でデータ通信を行って画像を取得する。
操作入力部12は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって構成され、これらの入力デバイスに対する外部からの操作に応じて発生した入力信号を制御部10に入力する。
出力部13は、制御部10の制御の下で、表示用の画像信号を表示装置5に出力し、各種画面を表示させる。
記憶部14は、更新記録可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵若しくはデータ通信端子で接続されたハードディスク若しくはCD−ROM等の情報記憶装置及び該情報記憶装置に対する情報の書込読取装置等によって構成される。記憶部14は、画像取得部11が取得した画像データの他、画像処理装置4を動作させると共に、種々の機能を画像処理装置4に実行させるためのプログラムや、このプログラムの実行中に使用されるデータ等を格納する。具体的には、記憶部14は、内視鏡により撮像された画像に対し、撮像時における操作者の動作に応じた画像処理を当該画像処理装置4に実行させる画像処理プログラムを記憶するプログラム記憶部141を有する。
演算部15は、CPU等の汎用プロセッサやASIC等の特定の機能を実行する各種演算回路等の専用プロセッサを用いて構成される。演算部15が汎用プロセッサである場合、プログラム記憶部141が記憶する画像処理プログラムを読み込むことにより、内視鏡により撮像された画像に対し、撮像時における操作者の動作に応じた画像処理を実行する。また、演算部15が専用プロセッサである場合、プロセッサが単独で種々の処理を実行してもよいし、記憶部14が記憶する各種データ等を用いることで、プロセッサと記憶部14が協働又は結合して画像処理を実行してもよい。
次に、演算部15の構成について説明する。図2に示すように、演算部15は、内視鏡2により撮像された被検体内の画像に基づき、当該画像の撮像時における操作者の動作を判定する動作判定部110と、操作者の動作の判定結果に応じて、当該画像を異常領域の検出対象画像とするか否かを決定する画像決定部120と、検出処理画像から異常領域を検出する検出部130とを備える。ここで、異常領域とは、病変部のように、正常な粘膜領域と異なる様相を呈する特定領域のことであり、異常の種類に応じて色特徴量や、形状特徴量や、テクスチャ特徴量等によって識別される。
動作判定部110は、処置動作判定部111と、鑑別動作判定部112と、注視動作判定部113と、挿入動作判定部114とを備える。動作判定部110は、これらの判定部の内の少なくとも1つを備えていれば良く、これらの4つの判定部を全て備えていても良い。
処置動作判定部111は、判定対象の画像の撮像時における操作者の動作が、被検体に対して処置を行う処置動作であるか否かを判定する。処置動作には、各種処置具を用いて治療等を行う動作と、被検体内に送水して洗浄を行う動作とが含まれる。
図3は、処置動作判定部111の構成を示すブロック図である。図3に示すように、処置動作判定部111は、処置具判定部111aと、洗浄動作判定部111bとを有する。処置動作判定部111は、処置具判定部111aと洗浄動作判定部111bとのうちの少なくともいずれかを有していれば良く、両方有していても良い。処置動作判定部111は、これらの判定部の判定結果に基づいて処置動作の有無を判定する。
処置具判定部111aは、被検体の処置に用いた処置具が写った処置具領域が画像内から検出されるか否かを判定する。内視鏡検査において用いられる処置具には、粘膜上皮に局所的に隆起した病変であるポリープを切除するポリペクトミーに使われる高周波スネア、くびれのない小さなポリープをつまんで切除するホットバイオプシーに使われるホットバイオプシー鉗子、隆起が少なく平らな早期の腫瘍等の病変を切除する際に、粘膜下層に生理食塩水などを注入するための局注針等がある。
これらの処置具はいずれも、先端が金属製であり、管形状の軸の先端部に設けられている。そのため、内視鏡により照明光が照射されると高輝度の管形状領域として画像内に現れる。そこで、処置具判定部111aは、輝度が閾値よりも高く、且つ、管形状をなす領域を処置具領域として検出する。詳細には、処置具判定部111aは、まず、画像内の各画素のRGB色成分から輝度ヒストグラムを作成し、粘膜領域等で構成される主要な分布の山をもとに閾値を決定して閾値処理を行うことにより高輝度領域を抽出する。続いて、この高輝度領域の輪郭を抽出し、この輪郭が直線及び円形からなる幾何学的形状により構成されているか否かを、ハフ変換等により判定する。高輝度領域の輪郭が幾何学的形状により構成されている場合、この高輝度領域は処置具領域と判定される。画像内から処置具領域が検出された場合、処置具判定部1111は、撮像時に処置具を用いた処置動作がなされていたと判定する。
洗浄動作判定部111bは、被検体内に送水された洗浄用の水が写った洗浄領域が画像内から検出されるか否かを判定する。洗浄領域は、照明光が水面や水滴に反射されることによって生じる鏡面反射を呈し、且つ面積及び位置の時間変化が大きい。そこで、洗浄動作判定部111bは、輝度が高く、面積及び位置の時間変化が大きい領域を洗浄領域として検出する。詳細には、洗浄動作判定部111bは、まず、画像内の各画素の画素値から輝度を算出し、輝度に対する閾値処理により、高輝度領域を抽出する。そして、抽出した高輝度領域の境界付近における輝度をもとに、境界付近における輝度の差の大きい高輝度領域を鏡面反射領域として抽出する。さらに、当該画像に対して所定フレーム先行する(例えば直前フレーム)画像との間で、鏡面反射領域の面積及び位置の差分を取得し、これらの差分が閾値よりも大きい場合に、当該鏡面反射領域は洗浄領域であると判定する。
或いは、洗浄動作判定部111bは、画像内の特定の周波数成分(例えば高周波数成分)の時間変化が大きい領域を洗浄領域として検出しても良い。画像内から洗浄領域が検出された場合、洗浄動作判定部111bは、撮像時に洗浄動作がなされていたと判定する。
処置動作を判定する別の手法として、内視鏡2の処置具挿入部22bに、処置具が被検体内に挿入されていることを検出するセンサを設け、このセンサから出力される検出信号を内視鏡2から取得することにより、処置動作が行われているか否かをシステム的に判定しても良い。或いは、送水タンクから内視鏡2に送水するためのポンプが作動中であることを示す信号を内視鏡システム1から取得することにより、洗浄動作行われていることをシステム的に判定しても良い。
鑑別動作判定部112は、判定対象の画像の撮像時における操作者の動作が、画像内において観察される病変等に対して病変の程度を判断(鑑別)する鑑別動作であるか否かを判定する。図4は、鑑別動作判定部112の構成を示すブロック図である。図4に示すように、鑑別動作判定部112は、拡大判定部112aと、染色判定部112bと、特殊光判定部112cと、正面視判定部112dと、動き判定部112eとを有する。鑑別動作判定部112は、これらの判定部のうち少なくとも1つを有していれば良く、全てを有していても良い。鑑別動作判定部112は、これらの判定部の判定結果に基づいて鑑別動作の有無を判定する。
拡大判定部112aは、判定対象の画像が拡大画像であるか否か、即ち、内視鏡2の先端部24を粘膜に所定距離以下まで近づけて撮像した画像であるか否かを判定する。詳細には、拡大判定部112aは、まず、画像の中心付近における距離情報を取得する。ここで、距離情報とは、内視鏡2の先端部24から被写体までの距離を表す情報である。距離情報としては、被写体である粘膜表面に写る血管等による吸収が少なく、粘膜表面との距離の相関が見られる値が用いられる。例えば、画素値のRGBの各色成分のうちR成分に対応する波長成分は、ヘモグロビンの吸光帯域から離れており、且つ長波長であるため生体内での吸収、散乱の影響を受け難いので、この波長成分の減衰量は被検体内で進行する距離に対応する。従って、R成分の値を距離情報として用いることができる。この場合、R成分の値が大きいほど距離が近く、R成分の値が小さいほど距離が遠いと判断することができる。拡大判定部112aは、このような距離情報をもとに、画像の中心付近における距離が閾値よりも小さい画像を拡大画像として判定する。例えば距離情報としてR成分の値を用いる場合、画像の中心付近の画素における画素値のR成分の値が閾値よりも大きい画像を拡大画像として判定する。
或いは、拡大画像を判定する別の手法として、拡大判定部112aは、画像内のピットパターンを解析しても良い。操作者が画像を拡大するときは、粘膜上のピットパターンを詳しく観察したい場合であることが多い。そのため、操作者は、ピットパターンがある程度明瞭且つ大きく写るように内視鏡2を操作する。そこで、画像を拡大した際のピットパターンから抽出される周波数成分を予め取得しておき、この周波数成分と、判定対象の画像から抽出した周波数成分とを比較することにより、当該判定対象の画像が拡大画像であるか否かを判定することができる。
拡大画像を判定するさらに別の手法として、拡大判定部112aは、内視鏡2における撮像モードを拡大観察に切り換えたときの切換え信号を内視鏡2から取得することにより、システム的に判定を行っても良い。
染色判定部112bは、判定対象の画像が、被写体である粘膜に染色が施した染色画像であるか否かを判定する。詳細には、染色判定部112bは、まず、画像内に注目領域を設定し、この注目領域内の各画素のRGB各色成分から平均色を算出する。そして、この平均色が、通常の粘膜領域の色相分布から外れているか否かを判定する。例えば、大腸検査において用いられるインジゴカルミンによって粘膜が染色されている場合、平均色は青色方向にずれる。そのような場合、染色判定部112bは、当該画像は染色画像であると判定する。
特殊光判定部112cは、判定対象の画像が特殊光を用いて撮像された特殊光画像である否かを判定する。詳細には、特殊光判定部112cは、まず、画像内に注目領域を設定し、この注目領域内の各画素のRGB各色成分から平均色を算出する。そして、この平均色が、通常の粘膜領域における色相分布から外れているか否かを判定する。例えば、粘膜深部の血管を写し出す緑色の波長帯域の狭帯域光を用いて撮像が行われた場合、平均色は緑色方向にずれる。そのような場合、特殊光判定部112cは、当該画像が特殊光画像であると判定する。
或いは、特殊光画像を判定する別の手法として、特殊光判定部112cは、内視鏡2における撮像モードを特殊光撮像モードに切り換えたときの切換え信号を内視鏡2から取得することにより、システム的に判定を行っても良い。
正面視判定部112dは、判定対象の画像が、被写体である粘膜を正面から撮像した正面視画像であるか否かを判定する。正面視とは、内視鏡2の先端部24に設けられた撮像部の視野が、管腔の側面にあたる粘膜を正面から捉えている状態をいう。
ここで、管腔の奥方向である管深部には照明光が届き難いため、撮像部の視野が管深部方向を向いている場合、画像内の中心付近に輝度の低い管深部領域が写る。また、この場合、管腔の側面にあたる粘膜が斜めに写っているため、画像内の粘膜領域の勾配強度が大きくなる。それに対し、撮像部の視野が粘膜の方向を向いている場合、管深部領域が画像内に写らなくなると共に、粘膜領域が支配的になり、さらに、粘膜領域の勾配強度が小さくなる。そこで、正面視判定部112dは、管深部領域が検出されず、粘膜領域が支配的、即ち、画像内の面積の所定比率以上を占め、且つ粘膜領域の勾配強度が閾値以下である画像を、正面視画像と判定する。粘膜領域の勾配強度は、粘膜領域における距離情報をもとに算出すれば良い。
管深部領域は、輝度が低く、ある程度の大きさの面積を有し、且つ、比較的円形に近い形状(細長くない形状)の領域として検出される。そこで、正面視判定部112dは、まず、画像内から輝度が閾値以下である低輝度領域を検出し、この低輝度領域の面積が所定値以上であるか否かを判定する。低輝度領域の面積が所定値以上である場合、正面視判定部112dはさらに、低輝度領域が細長い形状であるか否かを判定する。細長い形状の判定は、例えば、低輝度領域の外接矩形の面積に対する低輝度領域の面積の比率を算出し、この比率に基づいて行うことができる。具体的には、この比率が所定値以下である場合、低輝度領域の形状は細長い形状であり、当該低輝度領域は管深部領域ではないと判定される。一方、上記比率が所定値よりも大きい場合、当該低輝度領域は比較的円形に近い形状(細長くない形状)であり、当該低輝度領域は管深部領域であると判定される。
動き判定部112eは、画像内に写った構造の動きの小さい画像が一定期間以上連続して撮像されたか否かを判定する。詳細には、動き判定部112eは、まず、所定フレーム(例えば1フレーム又は数フレーム)先行する画像との間で対応する構造の動きを表す量を算出し、この量が閾値以下である画像を動きが小さい動き小画像として抽出する。そして、判定対象の画像が動き小画像であり、且つ、判定対象の画像に先立って、動き小画像が一定期間以上連続して撮像されたか否かを判定する。
画像内に写った構造の動きを表す量の一例を説明する。まず、画像内を複数の矩形領域に分割し、各矩形領域に対してブロックマッチング法(参考:CG−ARTS協会、「ディジタル画像処理」、第二版、第243頁)により動きベクトルを算出する。そして、対比する画像間で相関値の高い矩形領域同士の動き量を表す動きベクトルの長さの代表値(最大値や平均値等)を、構造の動きを表す量として用いることができる。
注視動作判定部113は、判定対象の画像の撮像時における操作者の動作が、被検体内のある領域を操作者が注視する注視動作であるか否かを判定する。図5は、注視動作判定部113の構成を示すブロック図である。図5に示すように、注視動作判定部113は、処置領域判定部113aと、正面視判定部113bと、近景判定部113cと、動き判定部113dと、襞裏確認判定部113eとを有する。なお、注視動作判定部113は、これらの各部のうちの少なくとも1つを有していれば良く、全てを有していても良い。注視動作判定部113は、これらの判定部の判定結果に基づいて注視動作の有無を判定する。
処置領域判定部113aは、判定対象の画像に処置が施されて間もない領域が存在するか否かを判定する。処置が施されて間もない領域が存在すれば、操作者は当然その処置領域を注視していたと考えられるからである。被検体内において処置が施された場合、画像内に止血用のクリップ等の器具や、出血の跡が写った領域が観察される。処置領域判定部113aは、このような器具及び出血の跡が写った領域を処置が施されて間もない処置領域として検出する。
クリップ等の器具は、画像内においては粘膜領域とは異なる色の管形状領域として観察される。そこで、処置領域判定部113aは、まず、画像内の各画素のRGB各色成分から色特徴量の分布を算出し、粘膜領域の色特徴量の分布と異なる分布を呈する領域を候補領域として抽出する。そして、候補領域から輪郭を抽出し、さらに、この輪郭から直線や曲線といった幾何学的形状をハフ変換等により抽出する処理を行う。そして、輪郭から幾何学的形状が抽出された候補領域を器具が写った領域と判定する。また、出血領域については、画像内の各画素のRGB各色成分から色比G/Rを算出し、この色比を閾値処理することにより、鮮やかな赤色の領域を抽出する。
正面視判定部113bは、判定対象の画像が粘膜を正面から撮像した正面視画像であるか否かを判定する。正面視画像の判定方法は、鑑別動作判定部112の正面視判定部112dと同様である。
近景判定部113cは、判定対象の画像が、内視鏡2の先端部24からの距離が所定値以下の領域を撮像した近景画像であるか否かを判定する。詳細には、近景判定部113cは、まず、画像内の各部における距離情報を取得し、これらの距離情報の代表値(最大値や平均値等)を算出する。そして、この代表値が所定の範囲内である場合に、当該画像は近景画像であると判定する。距離情報としては、上述した拡大画像の判定と同様、画素値のR成分の値を用いることができる。
動き判定部113dは、画像内に写った構造の動きの小さい画像が一定期間以上連続して撮像されたか否かを判定する。構造の動きを表す量の算出方法及び判定方法は、鑑別動作判定部112の動き判定部112eと同様である。
襞裏確認判定部113eは、判定対象の画像が、粘膜の襞裏の確認動作中に撮像されたものであるか否かを判定する。この判定は、画像内に内視鏡2の挿入部21の一部が写っているか否かの判定により行われる。図6は、襞裏確認動作を説明するための模式図である。図6に示すように、内視鏡2(図1参照)の挿入部21の挿入方向に対して粘膜の襞P1の裏側を観察する場合、基端側を振り返るように湾曲部25を湾曲させる。そのため、先端部24に設けられた撮像部の視野Vに挿入部21自体が写り込んでしまう場合がある。このように画像に内視鏡2の一部が写っている場合、襞裏確認判定部113eは、当該画像は襞裏確認動作中に撮像されたものと判定する。
内視鏡2の挿入部21が写った領域は、粘膜領域の色特徴量の分布と異なる分布を呈し、且つ、管形状をなす領域として検出される。具体的には、挿入部21は、黒色近傍の色分布を呈する。そこで、襞裏確認判定部113eは、まず、画像内の各画素のRGB色成分をもとに、挿入部21が取り得る色特徴量の分布に含まれる領域を候補領域として抽出する。そして、候補領域から輪郭を抽出し、この輪郭から直線又は曲線の幾何学的形状をハフ変換等により抽出する。そして、輪郭から幾何学的形状が抽出された場合、候補領域は挿入部21の一部であると判定する。
挿入動作判定部114は、判定対象の画像の撮像時における操作者の動作が、被検体の肛門から盲腸に向かう方向に内視鏡を挿入する挿入動作であるか否かを判定する。ここで、内視鏡により大腸の検査を行う場合、通常は、内視鏡を肛門から大腸内に挿入し、内視鏡2の先端部24を盲腸近傍まで進めた後、内視鏡2を大腸から引き抜く復路において病変部等の観察を行う。そのため、内視鏡2を挿入する往路において、操作者は挿入動作に注力し、診断としての観察はあまり行っていない。そのため、操作者の動作が内視鏡2の挿入動作(往路)であるか抜去動作(復路)であるかの判定は、診断対象とする画像の選別に関わってくる。
図7は、挿入動作判定部114の構成を示すブロック図である。図7に示すように、挿入動作判定部114は、往路判定部114aと、移動方向判定部114bとを備える。挿入動作判定部114は、往路判定部114aと移動方向判定部114bとのうち少なくともいずれかを有していれば良く、両方有していても良い。挿入動作判定部114は、これらの判定部の判定結果に基づいて挿入動作の有無を判定する。
往路判定部114aは、被検体内に挿入された内視鏡2(図1参照)が往路、即ち、肛門から小腸側に向かう方向に移動中であるか否かを判定する。詳細には、往路判定部114aは、内視鏡2の挿入部21(図6参照)のうち大腸に挿入された部分の長さである挿入長と、大腸の形状に沿って湾曲する挿入部21の挿入形状とのうちの少なくともいずれかに基づいて、内視鏡2が往路を移動中であるか否かを判定する。挿入長や挿入形状は、内視鏡2に内視鏡挿入形状観測装置(UPD)を設けることにより、システム情報として取得することができる。往路判定部114aは、UPDから得られる挿入長又は挿入形状をもとに、内視鏡2の先端部24が盲腸付近に到達するまでの区間を往路として判定する。
或いは、往路判定部114aは、内視鏡2により順次撮像される画像に対し、盲腸近傍が写っているか否かを判定し、盲腸近傍が写った画像が最初に出現するまでの区間を往路と判定しても良い。
ここで、大腸側から盲腸を観察すると、盲腸は回盲弁で小腸と繋がる以外は行止まりとなるため、画像には管深部領域が写らない。そこで、内視鏡2を大腸の管形状に沿って進めているにもかかわらず、画像に管深部領域が写らなくなった場合に、内視鏡2の先端部24が盲腸近傍に到達したと判定することができる。管深部領域の検出方法は、鑑別動作判定部112の正面視判定部112d(図4参照)と同様である。
ただし、先端部24が粘膜を正面視している場合、盲腸近傍でなくても、画像に管深部領域が写らなくなる。そのため、画像内において粘膜領域が支配的である場合には、粘膜領域における輝度の勾配強度に基づいて、先端部24が盲腸近傍に到達したか否かを判定しても良い。粘膜領域の輝度の勾配強度が小さい(閾値以下)場合には、先端部24が粘膜を正面視しているため、先端部24の向きを変えると、管深部領域が現れる可能性がある。一方、粘膜領域の輝度の勾配強度が大きい(閾値以上)場合には、先端部24は管の奥(進行方向)向いているため、このような状態で管深部領域が検出されなくなった場合には、盲腸近傍に到達したと判定することができる。
移動方向判定部114bは、内視鏡2が当該内視鏡2の先端部24に向かって移動しているのか、或いは、当該内視鏡2の基端部に向かって移動しているのかを判定する。内視鏡2が内視鏡2の先端部24に向かって移動している場合、内視鏡2は往路を移動中と言える。一方、内視鏡2が内視鏡2の基端部に向かって移動している場合、内視鏡2は復路を移動中と言える。
移動方向判定部114bは、挿入部21の挿入形状を取得し、この挿入形状に基づいて、画像内における管深部方向を決定する。なお、挿入形状は、往路判定部114aと同様にシステム情報として取得することができる。例えば、内視鏡挿入形状観測装置(Endoscope Position Detecting Unit:UPD)を用いることにより、内視鏡の先端位置や挿入長のデータを取得することができるため、挿入長が伸びた場合には内視鏡2が先端部24に向かって移動していると判定し、挿入長が短くなった場合には内視鏡2が基端部に向かって移動していると判定する。或いは、画像内における管深部方向を、粘膜襞の輪郭エッジ形状に基づいて検出しても良い。ここで、粘膜襞の輪郭エッジは、基本的に、管深部方向と逆側に凸となる。そこで、粘膜襞の輪郭エッジを抽出し、この輪郭エッジの凹凸を判定することにより、管深部方向を決定することができる。
移動方向判定部114bは、さらに、判定対象の画像に対して所定フレーム先行する(例えば直前フレーム)画像との間における動きベクトルを取得し、この動きベクトルと画像内における管深部方向との関係から、内視鏡2の移動方向を検出する。つまり、動きベクトルの方向と画像内における奥方向が一致している場合、内視鏡2は先端部24に向かって移動していると言える。一方、動きベクトルの方向と画像内における管深部方向が反対向きである場合、内視鏡2は基端部に向かって移動していると言える。
画像決定部120は、動作判定部110による判定結果に応じて、異常領域の検出対象画像を決定する。具体的には、動作判定部110により何等かの動作中に撮像された画像は、異常領域の検出対象画像から外され、それ以外の画像が、異常領域の検出対象画像として決定される。
検出部130は、画像決定部120が検出対象画像として決定した画像から異常領域を検出する処理を実行する。
次に、本実施の形態1に係る画像処理方法を説明する。図8は、本実施の形態1に係る画像処理方法を示すフローチャートである。
まず、ステップS10において、演算部15は、内視鏡2により撮像された画像を判定対象の画像として取得する。詳細には、操作者が操作入力部12に対する操作により、内視鏡システム1による被検体内の検査を開始する命令を入力すると、操作入力部12は、この命令を表す入力信号を発生して制御部10に入力する。これに応じて、制御部10の制御の下で、画像取得部11が内視鏡2からの画像取得を開始する。画像取得部11が取得した画像は一旦記憶部14に保存され、演算部15は、記憶部14から画像を時系列的に順次読み出すことにより取得する。
続くステップS11において、動作判定部110は、取得した画像をもとに、当該画像の撮像時になされていた動作を判定する。上述したように、動作判定部110は、処置動作判定部111と、鑑別動作判定部112と、注視動作判定部113と、挿入動作判定部114とのうちの少なくとも1つを備えていれば良いが、本実施の形態1においては、これらの全てを備えるものとして説明する。
図9は、画像をもとに動作を判定する処理の詳細を示すフローチャートである。まず、ステップS111において、処置動作判定部111は、当該画像の撮像時に処置動作がなされていたか否かを判定する。本実施の形態1においては、処置動作判定部111が処置具判定部111a及び洗浄動作判定部111bの両方を有するものとし、各々が画像に対する判定を行う。処置動作判定部111は、処置具判定部111aが当該画像から処置具領域を検出した場合、又は洗浄動作判定部111bが画像から洗浄領域を検出した場合に、当該画像の撮像時に処置動作がなされていたと判定する。
当該画像の撮像時に処置動作がなされていたと判定された場合(ステップS111:Yes)、動作判定部110は、当該画像は動作中に撮像されたと判定する(ステップS112)。その後、処理はメインルーチンに戻る。一方、当該画像の撮像時に処置動作がなされていないと判定された場合(ステップS111:No)、処理はステップS113に移行する。
ステップS113において、鑑別動作判定部112は、当該画像の撮像時に鑑別動作がなされていたか否かを判定する。本実施の形態1においては、鑑別動作判定部112が拡大判定部112a〜動き判定部112eの全てを有するものとし、各々が当該画像に対する判定を行う。鑑別動作判定部112は、拡大判定部112aが当該画像は拡大画像であると判定した場合、染色判定部112bが当該画像は染色画像であると判定した場合、特殊光判定部112cが当該画像は特殊光画像であると判定した場合、正面視判定部112dが当該画像は正面視画像であると判定した場合、又は、動き判定部112eが、当該画像に至るまで動き小画像が一定期間以上連続して撮像されたと判定した場合に、当該画像の撮像時に鑑別動作がなされていたと判定する。
当該画像の撮像時に鑑別動作がなされていたと判定された場合(ステップS113:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に鑑別動作がなされていないと判定された場合(ステップS113:No)、処理はステップS114に移行する。
ステップS114において、注視動作判定部113は、当該画像の撮像時に注視動作がなされていたか否かを判定する。本実施の形態1においては、注視動作判定部113が処置領域判定部113a〜襞裏確認判定部113eの全てを有するものとし、各々が当該画像に対する判定を行う。注視動作判定部113は、処置領域判定部113aが当該画像内から処置領域を検出した場合、正面視判定部113bが当該画像は正面視画像であると判定した場合、近景判定部113cが当該画像は近景画像であると判定した場合、動き判定部113dが、当該画像に至るまで動き小画像が一定期間以上連続して撮像されたと判定した場合、又は、襞裏確認判定部113eが当該画像は襞裏確認動作中に撮像されたと判定した場合に、当該画像の撮像時に注視動作がなされていたと判定する。
当該画像の撮像時に注視動作がなされていたと判定された場合(ステップS114:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に注視動作がなされていないと判定された場合(ステップS114:No)、処理はステップS115に移行する。
ステップS115において、挿入動作判定部114は、当該画像の撮像時に内視鏡の挿入動作がなされていたか否かを判定する。本実施の形態1においては、挿入動作判定部114が往路判定部114a及び移動方向判定部114bの両方を備えているものとし、各々が当該画像に対する判定を行う。挿入動作判定部114は、往路判定部114aが内視鏡2は往路を進行中と判定した場合、又は、移動方向判定部114bが内視鏡2は管深部方向に進行中と判定した場合に、当該画像の撮像時に内視鏡の挿入動作がなされていたと判定する。
当該画像の撮像時に挿入動作がなされていたと判定された場合(ステップS115:Yes)、処理はステップS112に移行する。一方、当該画像の撮像時に挿入動作がなされていないと判定された場合(ステップS115:No)、動作判定部110は、当該画像は操作者が所定の動作を行っていないときに撮像されたと判定する(ステップS116)。その後、処理はメインルーチンに戻る。
なお、上記ステップS111、S113、S114、S115の全て又は一部の判定を同時並行に行い、それにより得られる複数の判定結果に対して、予め判定の優先順位を決めておいても良い。例えば、処置動作判定、鑑別動作判定、注視動作判定、挿入動作判定の順に優先順位を設定し、優先順位の高い順に判定結果を照会することとしても良い。或いは、これらの判定結果を同時に照会し、少なくとも1つが動作中と判定された場合に当該画像は動作中に撮像されたと判定しても良い。
ステップS11に続くステップS12において、画像決定部120は、操作者が所定の動作を行っていないときに撮像されたと判定された画像を、異常領域の検出対象画像として決定する。具体的には、処置動作、鑑別動作、注視動作、及び挿入動作のいずれも行っていないときに撮像された画像が検出対象画像として決定される。
続くステップS13において、検出部130は、検出対象画像から異常領域を検出する。詳細には、まず、検出対象画像に対し、粘膜領域を検出対象領域として設定する。具体的には、検出対象画像内の色特徴量や形状特徴量や周波数成分をもとに、非粘膜領域である残渣領域、泡領域、暗部領域、及び鏡面反射領域を除去する。
残渣領域、泡領域、暗部領域、及び鏡面反射領域の検出方法は、公知の種々の方法を用いることができる。一例として、残渣領域は、画像内の各画素の画素値(RGBの各色成分)から算出した色特徴量をもとに、粘膜の色特徴量の分布域よりも相対的に黄緑側に分布する領域として検出することができる。粘膜の色特徴量の分布域は、画像内の平均色や主要な色特徴量の分布範囲等に基づいて予め取得しておく。また、泡領域は、所定範囲の周波数成分を持つ領域として検出することができる。暗部領域は、画像内の各画素のRGB各色成分から輝度を算出し、この輝度を閾値処理することにより検出することができる。鏡面反射領域は、各画素のRGB各色成分から算出した色特徴量をもとに白色領域を抽出し、この白色領域の周囲(粘膜領域)の画素の画素値の変化に基づき、曲面近似等で境界を補間することにより検出することができる。なお、色特徴量としては、RGB各色成分をYCbCr変換により算出した色差、HSI変換により算出した色相、彩度、G/R、B/G等の色比を用いることができる。或いは、RGB各色成分をそのまま色特徴量として用いても良い。
続いて、検出部130は、検出対象領域内の任意の1つ以上の領域を判別領域として設定し、各判別領域に対して特徴量を算出する。特徴量としては、色特徴量、輪郭(エッジ)や面形状(画素値勾配)等の形状特徴量、テクスチャ特徴量等の種々の特徴量を用いることができる。そして、これらの特徴量を1つの特徴ベクトルとして統合し、この特徴ベクトルをもとに、各判別領域が異常領域であるか否かを判別するための判別指標を算出する。判別指標の算出方法は公知の技術を用いることができる。一例として、次式(1)に示す確率モデルに基づく判別指標P(x)を算出する。検出部130は、判別指標P(x)が事前に取得された閾値よりも大きい判別領域を異常領域として検出する。
Figure 0006707083
判定指標P(x)は、判別領域の特徴ベクトルが異常領域の特徴ベクトルらしいか否かを示す指標である。判定指標P(x)の値が大きいほど、判別領域は異常領域らしいと言える。つまり、判定指標P(x)は、判別領域と異常領域との一致度を表す。また、式(1)に示す記号xは、判定領域の特徴ベクトル(k行1列)を示す。また、記号μは、事前に取得された複数の異常領域のサンプルにおける特徴ベクトルの平均ベクトル(k行1列)である。記号Zは、事前に取得された異常領域の複数のサンプルにおける特徴ベクトルの分散共分散行列(k行k列)である。記号|Z|はこの行列Zの行列式であり、記号Z-1は、行列Zの逆行列である。
なお、判別領域が異常領域であるか否かの判別については、式(1)を用いる方法以外にも種々の方法を用いることができる。例えば、判別領域の特徴ベクトルと異常領域の代表的な特徴ベクトルとの特徴空間距離に基づく方法や、特徴空間内に分類境界を設定する方法が挙げられる。
続くステップS14において、演算部15は、検出部130による異常領域の検出結果を出力する。詳細には、判定対象の画像から異常領域が検出された場合、制御部10は検出された異常領域を強調表示する画像を生成して、表示装置5に表示させる。強調表示の一例として、異常領域を囲むラインや異常領域を指す矢印などを元の判定対象の画像に重畳表示する。或いは、元の判定対象の画像に、「異常領域あり」といったテキストを重畳表示しても良い。その後、当該判定対象画像に対する処理は終了する。
以上説明したように、本実施の形態1によれば、判定対象の画像の撮像時における操作者の動作を判定し、所定の動作がなされていた画像は異常領域の検出対象とせず、それ以外の画像からのみ異常領域を検出するので、効率の良い診断支援を行うことが可能となる。
(変形例)
次に、本発明の実施の形態1の変形例について説明する。上記実施の形態1において、動作判定部110は、判定対象の画像の各々に対し、処置動作判定、鑑別動作判定、注視動作判定、及び挿入動作判定の全てを実行した。しかしながら、これらの動作判定は必ずしも全てを行う必要はなく、実行させる動作判定の種類を操作者が選択できるようにしても良い。
例えば、被検体内を観察するのみで何ら処置を行わない場合には、処置動作判定を行う必要はない。また、既に挿入動作が終了しているフェーズでは、挿入動作判定を行う必要はない。このように、検査の目的や検査中のフェーズに応じて、動作判定部110に実行させる動作判定の種類を操作者が適宜選択することにより、画像処理を効率的に行うことができる。
実行させる動作判定の種類は、操作入力部12に対する操作により入力することができる。操作入力部12から、1つ以上の動作判定を選択する信号が入力された場合、動作判定部110は、選択された動作判定の種類に応じた判定部に処理を実行させれば良い。
(実施の形態2)
次に本発明の実施の形態2について説明する。図10は、本実施の形態2に係る画像処理装置が備える演算部の構成を示すブロック図である。本実施の形態2に係る画像処理装置は、図1に示す演算部15の代わりに、図10に示す演算部16を備える。演算部16以外の画像処理装置の各部の構成及び動作は、実施の形態1と同様である。
演算部16は、判定対象の画像の撮像時における操作者の動作を判定する動作判定部110と、異常領域の検出対象画像を決定する画像決定部120と、異常領域の検出対象画像を所定の条件で分類する分類部210と、分類部210による分類結果に応じて異常領域の検出処理を行う検出部220とを備える。このうち、動作判定部110及び画像決定部120の構成及び動作は、実施の形態1と同様である。
分類部210は、照明光分類部211と、非粘膜領域検出部212と、画像変化分類部213とを有し、画像決定部120が決定した検出対象画像に対し、これらの各部が各々の条件で分類を行う。なお、分類部210は、これらの各部の内の少なくとも1つを有していれば良く、全てを有していても良い。
照明光分類部211は、撮像時に用いられた照明光に応じて検出対象画像を分類する。具体的には、検出対象画像を、白色光により撮像された画像と、特定の波長帯域の狭帯域光である特殊光により撮像された画像とに分類する。この分類は、鑑別動作判定部112の特殊光判定部112cと同様に、判定対象の画像における平均色に基づいて行う。照明光分類部211は、画像内に設定した注目領域の平均色が粘膜領域における色相分布に対して緑色方向にずれる画像を特殊光により撮像された画像と分類し、それ以外の画像を通常光により撮像された画像と分類する。
非粘膜領域検出部212は、検出対象画像から鉗子等の処置具や、クリップ等の器具や、内視鏡2の一部等が写った領域など、粘膜以外の領域、即ち非粘膜領域を検出する処理を行い、このような非粘膜領域が検出されるか否かで検出対象画像を分類する。鉗子等の処置具が写った領域の検出方法は、処置動作判定部111の処置具判定部111a(図3参照)と同様である。クリップ等の器具が写った領域の検出方法は、注視動作判定部113の処置領域判定部113a(図5参照)と同様である。内視鏡2の一部が写った領域の検出方法は、注視動作判定部113の襞裏確認判定部113e(同上)と同様である。
画像変化分類部213は、先行するフレームの画像に対する検出対象画像の変化の大小により検出対象画像を分類する。詳細には、画像変化分類部213は、所定フレーム先行する(例えば直前フレーム)画像と当該画像との間における動きベクトルを算出する。なお、動きベクトルは、鑑別動作判定部112の動き判定部112e(図4参照)と同様に、画像内を複数の矩形領域に分割し、各矩形領域に対するブロックマッチング法により算出する。
そして、画像変化分類部213は、対比する画像間で相関値の高い矩形領域の数を、画像の変化を表す量として分類を行う。即ち、相関値の高い矩形領域が所定数未満である画像を、変化の大きい画像として分類する。一方、相関値の高い矩形領域が所定数以上存在する画像を、変化の小さい画像として分類する。さらに、画像変化分類部213は、変化の小さい画像が時系列に沿って所定期間連続する場合に、当該連続する期間に含まれる画像を、変化小継続画像と判定する。
検出部220は、分類部210による分類結果に応じて、検出対象画像内に検出対象領域を設定する検出対象領域設定部221を備える。検出対象領域設定部221は、分類部210の構成に応じて、不鮮明領域限定部221aと、非粘膜領域除外部221bと、新出領域限定部221cとのうちの少なくとも1つを有する。分類部210が照明光分類部211、非粘膜領域検出部212、及び画像変化分類部213の全てを有する場合、検出対象領域設定部221も、不鮮明領域限定部221a、非粘膜領域除外部221b、及び新出領域限定部221cの全てを有する。
不鮮明領域限定部221aは、照明光分類部211が特殊光により撮像されたと分類した検出対象画像に対し、テクスチャ構造が不鮮明な領域に限定して検出対象領域を限定する。
非粘膜領域除外部221bは、非粘膜領域検出部212が非粘膜領域を検出した検出対象画像に対し、非粘膜領域以外の領域を検出対象領域として設定する。
新出領域限定部221cは、画像変化分類部213が検出対象画像の変化の大小に応じて分類した検出対象画像に対して検出対象領域を設定する。ここで、新出領域とは、先行するフレームの画像内には存在せず、当該検出対象画像において新たに出現した領域、即ち、内視鏡2の進行方向において新たに視野に入った領域のことである。
次に、本実施の形態2に係る画像処理方法を説明する。図11は、本実施の形態2に係る画像処理方法を示すフローチャートである。なお、図11のステップS10〜S12は、実施の形態1と同様である(図8参照)。
ステップS12に続くステップS21において、分類部210は、ステップS12において決定された検出対象画像を分類する。本実施の形態2においては、分類部210が照明光分類部211、非粘膜領域検出部212、及び画像変化分類部213の全てを備えているものとし、各部が検出対象画像の分類を行う。即ち、検出対象画像が特殊光により撮像された画像であるか否かの分類と、検出対象画像から非粘膜領域が検出されたか否かの分類と、先行するフレームの画像に対する検出対象画像の変化の大小の分類とがなされる。
続くステップS22において、検出対象領域設定部221は、ステップS21における検出対象画像の分類結果に基づいて検出対象領域を設定する。図12は、検出対象領域の設定処理の詳細を示すフローチャートである。本実施の形態2においては、検出対象領域設定部221が不鮮明領域限定部221a、非粘膜領域除外部221b、及び新出領域限定部221cの全てを備えているものとして説明する。
ステップS221において、検出対象領域設定部221は、検出対象画像が特殊光で撮像された画像に分類されたか否かを判定する。特殊光で撮像された画像に分類されていない場合(ステップS221:No)、処理は直接ステップS223に移行する。
一方、検出対象画像が特殊光で撮像された画像に分類された場合(ステップS221:Yes)、不鮮明領域限定部221aは、当該検出対象画像内においてテクスチャ構造が不鮮明な領域を検出対象領域として設定する(ステップS222)。
ここで、特殊光撮像は、通常、鑑別動作中に注目領域のテクスチャ構造の状態を分類するために行われる。そのため、テクスチャ構造が不鮮明な領域、即ち、ぼけている領域は鑑別対象とされていないと考えられる。そこで、本ステップS222においては、鑑別対象にされていない、このぼけている領域を検出対象領域として設定する。ぼけている領域は、画像内の周波数成分のコントラストが、鑑別動作時の許容範囲内であるか否かによって抽出することができる。つまり、コントラストが鑑別動作時の許容範囲外である領域が、検出対象領域として設定される。その後、処理はステップS223に移行する。
ステップS223において、検出対象領域設定部221は、検出対象画像が非粘膜領域が検出された画像に分類されたか否かを判定する。非粘膜領域が検出された画像に分類されていない場合(ステップS223:No)、処理は直接ステップS225に移行する。
一方、非粘膜領域が検出された画像に分類された場合(ステップS223:Yes)、非粘膜領域除外部221bは、当該検出対象画像に対して非粘膜領域以外の領域を検出対象領域に設定する(ステップS224)。具体的には、非粘膜領域に対してマスク処理を行う。なお、ステップS222において既に検出対象領域が設定されている場合には、検出対象領域が新たに加えられる。その後、処理はステップS225に移行する。
ステップS225において、検出対象領域設定部221は、検出対象画像が変化の大きい画像に分類されたか否かを判定する。変化の大きい画像に分類された場合(ステップS225:Yes)、新出領域限定部221cは画像全体を検出対象領域に設定する(ステップS226)。その後、処理はメインルーチンに戻る。
一方、検出対象画像が変化の小さい画像に分類された場合(ステップS225:No)、新出領域限定部221cは、当該検出対象画像において新たに出現した新出領域を検出対象領域に設定する(ステップS227)。なお、ステップS222又はS224において既に検出対象領域が設定されている場合には、検出対象領域が新たに加えられる。
新出領域の位置及び大きさは、画像変化分類部213からブロックマッチング法によって得られた動き方向及び動き幅をもとに決定される。詳細には、まず、動き方向をもとに内視鏡2の動きを分類する。具体的には、動き方向が所定以上の数において同じ方向を向く場合、内視鏡2の動きを平行移動と分類する。また、動き方向が1点を基準に外側を向く場合、即ち、動き方向が1点から外側に向かって拡散している場合、内視鏡2の動きを前進と分類する。動き方向が1点を基準に内側を向く場合、即ち、動き方向が1点に向かって集束している場合、内視鏡2の動きを後進と分類する。それ以外のパターンの場合には新出領域が未検出として、当該検出対象画像を変化の大きい画像と同じ扱いとする。
続いて、動き方向及び動き幅から新出領域の位置及びサイズを推定する。具体的には、内視鏡2の動きの分類が平行移動の場合、新出領域の位置は画像端(左右上下)の4方向の何れかであり、動き方向の基端側の方向、即ち、動きの出発点の方向によって決まる。例えば、動き方向が左下から右上に向かっている場合、新出領域の位置は画像の左端及び下端となる。また、新出領域の大きさは、動き幅をベクトル量とする動き方向ベクトルを新出領域の位置の方向の成分に分解した時の各成分の大きさで決まる。
内視鏡2の動きの分類が前進の場合、新出領域の位置は、動き方向の基端側が集中する上記1点であり、新出領域の大きさは動き幅に決定される。内視鏡2の動きの分類が後進の場合、新出領域の位置は画像端の4方向全てであり、新出領域の大きさは動き幅に決定される。その後、処理はメインルーチンに戻る。
ステップS22に続くステップS23において、検出部220は、ステップS22において設定された検出対象領域から異常領域を検出する。異常領域の検出処理は、検出対象が検出対象領域に限定される点を除いて、実施の形態1(図8のステップS13参照)と同様である。続くステップS14も、実施の形態1と同様である。
以上説明したように、本実施の形態2によれば、画像の撮像時における操作者の動作に基づいて決定された異常領域の検出対象画像に対し、さらに操作者の動作に基づく分類を行い、この分類結果に基づいて異常領域の検出対象領域を絞り込むので、より効率の良い画像処理を行うことが可能となる。
(実施の形態3)
次に、本発明の実施の形態3について説明する。図13は、本実施の形態3に係る画像処理装置が備える演算部の構成を示すブロック図である。本実施の形態3に係る画像処理装置は、図1に示す演算部15の代わりに、図13に示す演算部17を備える。演算部17以外の画像処理装置の各部の構成及び動作は、実施の形態1と同様である。
演算部17は、図10に示す演算部16に対し、検出対象領域設定部221に加えて検出パラメータ設定部311を有する検出部310を備える。検出パラメータ設定部311以外の演算部17の各部の構成は、実施の形態2と同様である。
検出パラメータ設定部311は、画像決定部120が決定した検出対象画像に対して分類部210が行った分類結果に応じて、検出対象領域設定部221が設定した検出対象領域に対する異常領域の検出処理において用いられる検出パラメータを設定する。
次に、本実施の形態3に係る画像処理方法を説明する。図14は、本実施の形態3に係る画像処理方法を示すフローチャートである。なお、図14のステップS10〜S22は、実施の形態2と同様である(図11参照)。
ステップS22に続くステップS31において、検出パラメータ設定部311は、ステップS21における分類結果に基づいて、ステップS22において設定された検出対象領域の各々から異常領域を検出する際の検出パラメータを設定する。ここで、検出パラメータには、異常領域を表す特徴量の特徴空間における識別境界、異常領域の特徴量の分布モデル、識別関数、代表的な分布パターン等が含まれる。このような検出パラメータは、分類部210によって分類され得るバリエーションに応じて、教師データを用いて事前に作成され、記憶部14に記憶される。
具体例として、特殊光により撮像された画像と分類された検出対象画像のうち、テクスチャ構造の鮮明な領域が検出対象領域として設定された場合(図12のステップS222参照)、当該検出対象領域に対し、通常光とは異なる特殊光の色分布モデルに基づいて作成された検出パラメータが記憶部14から読み出されて設定される。また、非粘膜領域を除いた粘膜領域が検出対象領域として設定された場合(図12のステップS224参照)、通常光の下での粘膜の色分布モデルに基づいて作成された検出パラメータが記憶部14から読み出されて設定される。さらに、粘膜領域且つ新出領域といった複数の撮像状況が複合的に生じている領域が検出対象領域として設定された場合、これらの撮像状況に応じた教師データをもとに作成された検出パラメータが記憶部14から読み出されて設定される。
本発明は、実施の形態1〜3及び変形例に限定されるものではなく、各実施の形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。例えば、各実施の形態や変形例に示される全構成要素からいくつかの構成要素を除外して形成しても良いし、異なる実施の形態や変形例に示した構成要素を適宜組み合わせて形成しても良い。
1 内視鏡システム
2 内視鏡
3 光源装置
4 画像処理装置
5 表示装置
10 制御部
11 画像取得部
12 操作入力部
13 出力部
14 記憶部
141 プログラム記憶部
15、16、17 演算部
21 挿入部
22 操作部
22a 湾曲ノブ
22b 処置具挿入部
22c スイッチ
23 ユニバーサルコード
24 先端部
25 湾曲部
26 可撓針管
27 コネクタ部
28 コイルケーブル
29 電気コネクタ部
111 処置動作判定部
111a 処置具判定部
111b 洗浄動作判定部
112 鑑別動作判定部
112a 拡大判定部
112b 染色判定部
112c 特殊光判定部
112d、113b 正面視判定部
112e、113d 動き判定部
113 注視動作判定部
113a 処置領域判定部
113c 近景判定部
113e 襞裏確認判定部
114 挿入動作判定部
114a 往路判定部
114b 移動方向判定部
120 画像決定部
130、220、310 検出部
210 分類部
211 照明光分類部
212 非粘膜領域検出部
213 画像変化分類部
221 検出対象領域設定部
221a 不鮮明領域限定部
221b 非粘膜領域除外部
221c 新出領域限定部
311 検出パラメータ設定部

Claims (28)

  1. 被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定部と、
    前記動作判定部による判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定部と、
    前記検出対象画像から前記特定領域を検出する検出部と、
    を備えることを特徴とする画像処理装置。
  2. 前記動作判定部は、前記撮像時における操作者の動作が、前記処置動作であるか否かを判定する処置動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記処置動作判定部は、
    前記画像内から、輝度が閾値よりも高く、且つ管形状をなす領域を処置具領域として検出する処置具判定部を有し、
    前記処置具判定部が前記処置具領域を検出した場合に、前記撮像時における操作者の動作が前記処置動作であると判定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記処置動作判定部は、
    前記画像内から、鏡面反射を呈し、且つ面積及び位置の時間変化が大きい領域を洗浄領域として検出する洗浄動作判定部を有し、
    前記洗浄動作判定部が前記洗浄領域を検出した場合に、前記撮像時における操作者の動作が前記処置動作であると判定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記動作判定部は、前記撮像時における操作者の動作が、前記鑑別動作であるか否かを判定する鑑別動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  6. 前記鑑別動作判定部は、
    前記画像が前記内視鏡の先端部を被写体に所定距離以下まで近づけて撮像した拡大画像であるか否かを判定する拡大判定部を有し、
    前記拡大判定部が前記画像は前記拡大画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記鑑別動作判定部は、
    前記画像が染色された被写体を撮像した染色画像であるか否かを判定する染色判定部を有し、
    前記染色判定部が前記画像は前記染色画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記鑑別動作判定部は、
    前記画像が特殊光を用いて撮像した特殊光画像であるか否かを判定する特殊光判定部を有し、
    前記特殊光判定部が前記画像は前記特殊光画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  9. 前記鑑別動作判定部は、
    前記画像が被写体を正面から撮像した正面視画像であるか否かを判定する正面視判定部を有し、
    前記正面視判定部が前記画像は前記正面視画像であると判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  10. 前記鑑別動作判定部は、
    前記画像が、所定フレーム先行する画像との間において対応する構造の動きを表す量が閾値以下である動き小画像であり、且つ、前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたか否かを判定する動き判定部を有し、
    前記動き判定部が、前記画像が前記動き小画像であり、且つ前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたと判定した場合に、前記撮像時における操作者の動作が前記鑑別動作であると判定する、
    ことを特徴とする請求項5に記載の画像処理装置。
  11. 前記動作判定部は、前記撮像時における操作者の動作が、前記注視動作であるか否かを判定する注視動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  12. 前記注視動作判定部は、
    前記画像内から、粘膜領域とは異なる色を有する管形状の領域と、出血領域とを検出する処置領域判定部を有し、
    前記処置領域判定部が前記管形状の領域及び前記出血領域を検出した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  13. 前記注視動作判定部は、
    前記画像が被写体を正面から撮像した正面視画像であるか否かを判定する正面視判定部を有し、
    前記正面視判定部が前記画像は前記正面視画像であると判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  14. 前記注視動作判定部は、
    前記画像が、前記内視鏡の先端部からの距離が所定値以下の領域を撮像した近景画像であるか否かを判定する近景判定部を有し、
    前記近景判定部が前記画像は前記近景画像であると判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  15. 前記注視動作判定部は、
    前記画像が、所定フレーム先行する画像との間において対応する構造の動きを表す量が閾値以下である動き小画像であり、且つ、前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたか否かを判定する動き判定部を有し、
    前記動き判定部が、前記画像が前記動き小画像であり、且つ前記画像に先立って前記動き小画像が一定期間以上連続して撮像されたと判定した場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  16. 前記注視動作判定部は、
    前記画像から、前記内視鏡の一部が写った内視鏡領域を検出し、
    前記画像から前記内視鏡領域が検出された場合に、前記撮像時における操作者の動作が前記注視動作であると判定する、
    ことを特徴とする請求項11に記載の画像処理装置。
  17. 前記動作判定部は、前記撮像時における操作者の動作が、前記挿入動作であるか否かを判定する挿入動作判定部を備える、ことを特徴とする請求項1に記載の画像処理装置。
  18. 前記挿入動作判定部は、
    前記被検体の肛門から挿入された前記内視鏡が前記被検体の大腸から盲腸に向かう往路を移動中であるか否かを判定する往路判定部を有し、
    前記往路判定部が前記内視鏡は前記往路を移動中であると判定した場合に、前記撮像時における操作者の動作は前記挿入動作であると判定する、
    ことを特徴とする請求項17に記載の画像処理装置。
  19. 前記挿入動作判定部は、
    前記内視鏡が当該内視鏡の先端部と基端部とのいずれの方向に移動しているかを判定する移動方向判定部を有し、
    前記移動方向判定部が、前記内視鏡は当該内視鏡の先端部に向かって移動していると判定した場合に、前記撮像時における操作者の動作は前記挿入動作であると判定する、
    ことを特徴とする請求項17に記載の画像処理装置。
  20. 当該画像処理装置に対して、前記動作判定部に実行させる前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の動作判定の種類を入力する操作入力部をさらに備える
    ことを特徴とする請求項に記載の画像処理装置。
  21. 前記検出対象画像を所定の条件で分類する分類部をさらに備え、
    前記検出部は、前記分類部による分類結果に応じて、前記検出対象画像に対して前記特定領域の検出対象領域を設定する検出対象領域設定部を備える、
    ことを特徴とする請求項1に記載の画像処理装置。
  22. 前記分類部は、撮像時における照明光の種類に応じて前記検出対象画像を分類する照明光分類部を有し、
    前記検出対象領域設定部は、撮像時における照明光が特殊光であると分類された検出対象画像に対し、当該検出対象画像の周波数成分のコントラストに基づいて前記検出対象領域を設定する、
    ことを特徴とする請求項21に記載の画像処理装置。
  23. 前記分類部は、前記検出対象画像内から非粘膜領域を検出する非粘膜領域検出部を有し、
    前記検出対象領域設定部は、前記非粘膜領域が検出された検出対象画像に対し、前記非粘膜領域以外の領域を前記検出対象領域に設定する、
    ことを特徴とする請求項21に記載の画像処理装置。
  24. 前記分類部は、所定フレーム先行する画像に対する前記検出対象画像の変化の大きさに応じて前記検出対象画像を分類する画像変化分類部を有し、
    前記検出対象領域設定部は、前記変化が大きいと分類された検出対象画像に対し、当該検出対象画像全体を前記検出対象領域に設定し、前記変化が小さいと分類された検出対象画像に対し、前記先行するフレームの画像に存在しない新出領域を前記検出対象領域に設定する、
    ことを特徴とする請求項21に記載の画像処理装置。
  25. 前記分類部による分類結果に応じて、前記検出対象領域から前記特定領域を検出する際に用いられる検出パラメータを設定する検出パラメータ設定部をさらに備えることを特徴とする請求項21に記載の画像処理装置。
  26. 請求項1〜25のいずれか1項に記載の画像処理装置と、
    前記内視鏡と、
    を備えることを特徴とする内視鏡システム。
  27. 演算部が、被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定ステップと、
    前記演算部が、前記動作判定ステップにおける判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定ステップと、
    前記演算部が、前記検出対象画像から前記特定領域を検出する検出ステップと、
    を含むことを特徴とする画像処理方法。
  28. 被検体に挿入された内視鏡が撮像した画像に基づき、前記画像の撮像時における当該内視鏡の操作者の動作が、前記被検体に対して処置を行う処置動作、前記画像内の任意の部分を鑑別する鑑別動作、被写体を注視する注視動作、及び前記内視鏡を前記被検体内に挿入する挿入動作の少なくともいずれかの動作であるか否かを判定する動作判定ステップと、
    前記動作判定ステップにおける判定結果に基づいて、前記処置動作、前記鑑別動作、前記注視動作、及び前記挿入動作の少なくともいずれかの動作時に撮像された前記画像を特定領域の検出対象画像から外し、それ以外の前記画像を前記検出対象画像とする画像決定ステップと、
    前記検出対象画像から前記特定領域を検出する検出ステップと、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2017525709A 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム Active JP6707083B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/068736 WO2017002184A1 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2017002184A1 JPWO2017002184A1 (ja) 2018-05-24
JP6707083B2 true JP6707083B2 (ja) 2020-06-10

Family

ID=57607945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017525709A Active JP6707083B2 (ja) 2015-06-29 2015-06-29 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US11170498B2 (ja)
JP (1) JP6707083B2 (ja)
CN (1) CN107708521B (ja)
DE (1) DE112015006562T5 (ja)
WO (1) WO2017002184A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6823072B2 (ja) * 2016-10-27 2021-01-27 富士フイルム株式会社 プロセッサ装置及び内視鏡システム
JP6833870B2 (ja) 2016-12-07 2021-02-24 オリンパス株式会社 画像処理装置
JP2019180966A (ja) * 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム
WO2019220859A1 (ja) * 2018-05-14 2019-11-21 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP7015385B2 (ja) * 2018-05-15 2022-02-02 富士フイルム株式会社 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム
JP6941233B2 (ja) * 2018-06-04 2021-09-29 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2019244255A1 (ja) * 2018-06-19 2019-12-26 オリンパス株式会社 内視鏡画像処理装置および内視鏡画像処理方法
WO2020008651A1 (ja) * 2018-07-06 2020-01-09 オリンパス株式会社 内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム
CN112423645B (zh) * 2018-07-20 2023-10-31 富士胶片株式会社 内窥镜系统
WO2020036224A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
CN112566537B (zh) * 2018-08-17 2024-09-27 富士胶片株式会社 内窥镜系统
EP3851026B1 (en) * 2018-09-12 2024-10-09 FUJIFILM Corporation Endoscope device, endoscope processor, and endoscope device operation method
US12075969B2 (en) * 2018-10-04 2024-09-03 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
WO2020080299A1 (ja) 2018-10-16 2020-04-23 富士フイルム株式会社 医療画像処理システム及び学習方法
WO2020090002A1 (ja) * 2018-10-30 2020-05-07 オリンパス株式会社 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法
JP7163155B2 (ja) * 2018-12-04 2022-10-31 オリンパス株式会社 画像処理装置
US20220148182A1 (en) * 2019-03-12 2022-05-12 Nec Corporation Inspection device, inspection method and storage medium
JP7060536B2 (ja) * 2019-03-13 2022-04-26 富士フイルム株式会社 内視鏡画像処理装置、内視鏡画像処理装置の作動方法及びプログラム、内視鏡システム
CN114401660A (zh) * 2019-10-01 2022-04-26 奥林巴斯株式会社 内窥镜插入控制装置和内窥镜插入控制方法
CN110974121B (zh) * 2019-12-23 2020-11-03 山东大学齐鲁医院 一种判断消化内窥镜检查是否染色的方法及系统
CN116034307A (zh) 2020-08-24 2023-04-28 富士胶片株式会社 图像处理装置、方法及程序
CN112190222B (zh) * 2020-10-20 2023-06-02 青岛市中心医院 一种消化性溃疡检测装置
WO2022097294A1 (ja) * 2020-11-09 2022-05-12 オリンパス株式会社 情報処理システム、内視鏡システム及び情報処理方法
JPWO2022107492A1 (ja) * 2020-11-17 2022-05-27
CN114366003A (zh) * 2021-12-21 2022-04-19 北京大学 一种内窥镜系统
CN116761075B (zh) * 2023-05-09 2024-05-24 深圳显融医疗科技有限公司 基于内窥镜的图像处理方法、装置、电子设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7981073B2 (en) * 2006-03-30 2011-07-19 Moellstam Anders Method and device for irrigation of body cavities
US20080058593A1 (en) 2006-08-21 2008-03-06 Sti Medical Systems, Llc Computer aided diagnosis using video from endoscopes
US7794396B2 (en) * 2006-11-03 2010-09-14 Stryker Corporation System and method for the automated zooming of a surgical camera
JP2009153621A (ja) * 2007-12-25 2009-07-16 Olympus Corp 生体観察装置および内視鏡装置
EP2394565B1 (en) * 2009-08-07 2013-05-01 Olympus Medical Systems Corp. Medical system
CN102469930B (zh) * 2009-11-06 2014-09-10 奥林巴斯医疗株式会社 内窥镜系统
US9066658B2 (en) * 2010-03-23 2015-06-30 Stryker Corporation Method and system for video based image detection/identification analysis for fluid and visualization control
JP2012020028A (ja) * 2010-07-16 2012-02-02 Hoya Corp 電子内視鏡用プロセッサ
JP5471953B2 (ja) 2010-08-05 2014-04-16 豊田合成株式会社 頭部保護エアバッグ装置
CN102834043B (zh) * 2010-09-14 2015-07-01 奥林巴斯医疗株式会社 内窥镜系统和视野不良判定方法
JP5715372B2 (ja) * 2010-10-15 2015-05-07 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び内視鏡装置
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5800626B2 (ja) * 2011-07-29 2015-10-28 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
JP5735478B2 (ja) * 2012-12-14 2015-06-17 富士フイルム株式会社 内視鏡装置及びその作動方法
US20150080652A1 (en) * 2013-09-18 2015-03-19 Cerner Innovation, Inc. Lesion detection and image stabilization using portion of field of view
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US9805472B2 (en) * 2015-02-18 2017-10-31 Sony Corporation System and method for smoke detection during anatomical surgery
JP5945614B2 (ja) * 2015-03-12 2016-07-05 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法

Also Published As

Publication number Publication date
DE112015006562T5 (de) 2018-03-22
US11170498B2 (en) 2021-11-09
CN107708521B (zh) 2020-06-12
WO2017002184A1 (ja) 2017-01-05
US20180114319A1 (en) 2018-04-26
JPWO2017002184A1 (ja) 2018-05-24
CN107708521A (zh) 2018-02-16

Similar Documents

Publication Publication Date Title
JP6707083B2 (ja) 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
US11607109B2 (en) Endoscopic image processing device, endoscopic image processing method, endoscopic image processing program, and endoscope system
US11910994B2 (en) Medical image processing apparatus, medical image processing method, program, diagnosis supporting apparatus, and endoscope system
CN110913746B (zh) 诊断辅助装置、诊断辅助方法及存储介质
US10194783B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium for determining abnormal region based on extension information indicating state of blood vessel region extending in neighborhood of candidate region
US11642005B2 (en) Endoscope system, endoscope image processing method, and storage medium
US20240304311A1 (en) Medical image processing apparatus, medical image proces sing method, program, and diagnosis support apparatus
JP6840263B2 (ja) 内視鏡システム及びプログラム
JP6824868B2 (ja) 画像解析装置及び画像解析方法
JP2016016185A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2022209390A1 (ja) 内視鏡システム及びその作動方法
US11830185B2 (en) Medical image processing system and learning method
KR20220007667A (ko) 화상 해석 장치 및 화상 해석 방법
CN116916808A (zh) 医用图像处理装置、医用图像处理方法及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200519

R151 Written notification of patent or utility model registration

Ref document number: 6707083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250