WO2017199635A1 - 画像解析装置、画像解析システム、及び画像解析装置の作動方法 - Google Patents
画像解析装置、画像解析システム、及び画像解析装置の作動方法 Download PDFInfo
- Publication number
- WO2017199635A1 WO2017199635A1 PCT/JP2017/014572 JP2017014572W WO2017199635A1 WO 2017199635 A1 WO2017199635 A1 WO 2017199635A1 JP 2017014572 W JP2017014572 W JP 2017014572W WO 2017199635 A1 WO2017199635 A1 WO 2017199635A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- unit
- distribution characteristic
- information
- disease
- Prior art date
Links
- 0 CCC1*CCC1 Chemical compound CCC1*CCC1 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
ビデオプロセッサ3は、被検体内に挿入した内視鏡により取得された被検体の内視鏡画像が入力される画像入力部32と、被検体の内視鏡画像の明るさ分布が略均一になるように被検体の内視鏡画像を補正した明るさ補正画像を生成する画像処理部34と、明るさ補正画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求める分布特性値算出部35と、複数の分布特性値を含む情報を記録する記録部37と、記録部37に記録された複数の分布特性値と分布特性値算出部35により求めた分布特性値との比較を行い、比較の結果から被検体の状態に関する情報を出力する比較情報出力部36と、を具備する。
Description
本発明は画像解析装置、画像解析システム、及び画像解析装置の作動方法に関し、特に、内視鏡画像についての画像解析装置、画像解析システム、及び画像解析装置の作動方法に関する。
従来、CT(Computer Tomography)、MRI(Magnetic Resonance Imaging)等の医用画像装置により取得された医用画像を用いた診断が行われている。
さらに、例えば、特開2013-200642号公報及び特開2016-6635号公報には、医者が患者の医用画像を用いて診断を行うときに参考となる、撮られた医用画像と類似した過去の症例の医用画像を検索する検索システムも提案されている。
しかし、これらの提案に係る検索システムは、基本的には、CTやMRIで得られた医用画像に対して、類似する過去の症例の疾患画像を検索するものであり、粘膜などの画像における色の微妙な変化を有する医用画像については、考慮されていない。
例えば、体内の画像である内視鏡画像の場合、内視鏡の先端部から出射される照明光の配光特性、観察光学系の光軸に対する被写体表面の傾き、内視鏡先端部から観察対象までの距離、あるいは被写体表面が平坦でないこと等によっても、内視鏡先端部の観察光学系により得られる画像に明るさの偏りによる輝度ムラが生じる。
さらに、色の微妙な変化を有する粘膜等の医療画像と類似する、過去の各種症例の粘膜の画像を精度よく検索することができない。
そこで、本発明は、内視鏡画像における輝度ムラの影響を抑制しつつ、得られた色の情報を含む医用画像と類似する画像を精度よく検索できる画像解析装置、画像解析システム、及び画像解析装置の作動方法を提供することを目的とする。
本発明の一態様の画像解析装置は、被検体内に挿入した内視鏡により取得された前記被検体の内視鏡画像が入力される画像入力部と、前記被検体の前記内視鏡画像の明るさ分布が略均一になるように前記内視鏡画像を補正した明るさ補正画像を生成する画像処理部と、前記明るさ補正画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求める分布特性値算出部と、複数の分布特性値を含む情報を記録する記録部と、前記記録部に記録された前記複数の分布特性値と前記分布特性値算出部により求めた前記分布特性値との比較を行い、前記比較の結果から前記被検体の状態に関する情報を出力する比較情報出力部と、を具備する。
本発明の一態様の画像解析システムは、内視鏡と、本発明の画像解析装置とを備える。
本発明の一態様の画像解析装置の作動方法は、画像入力部と、画像処理部と、分布特性値算出部と、比較情報出力部とを具備する画像解析装置の作動方法であって、前記画像入力部において、被検体内に挿入した内視鏡により取得された前記被検体の内視鏡画像を入力し、前記画像処理部において、前記被検体の前記内視鏡画像の明るさ分布が略均一になるように前記内視鏡画像を補正した明るさ補正画像を生成し、前記分布特性値算出部により、前記処理画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求め、前記比較情報出力部において、複数の分布特性値を記録する記録部の前記複数の分布特性値と前記分布特性値算出部により求めた前記分布特性値との比較を行い、前記比較の結果から前記被検体の状態に関する情報を出力する。
以下、図面を参照して本発明の実施の形態を説明する。
なお、以下の説明において、同一要素には同一の符号を付している。さらに、図面は、模式的なものであり、各部の厚みと幅との関係、各部の比率等は、現実と異なることに留意する必要がある。また、図面の相互間においても、互いの寸法や比率が異なる部分が含まれている。
なお、以下の説明において、同一要素には同一の符号を付している。さらに、図面は、模式的なものであり、各部の厚みと幅との関係、各部の比率等は、現実と異なることに留意する必要がある。また、図面の相互間においても、互いの寸法や比率が異なる部分が含まれている。
(システム構成)
図1は、本発明の実施の形態に係る画像解析システムの概略構成を示すブロック図である。
図1は、本発明の実施の形態に係る画像解析システムの概略構成を示すブロック図である。
なお、以下に示す実施の形態においては、“画像解析システム”として内視鏡システムと、“画像解析装置”としてビデオプロセッサとを例に説明する。
図1に示すように、画像解析システムである内視鏡システム1は、内視鏡2と、画像解析装置であるビデオプロセッサ3と、光源装置4と、表示装置5を主に備えている。
図1に示すように、画像解析システムである内視鏡システム1は、内視鏡2と、画像解析装置であるビデオプロセッサ3と、光源装置4と、表示装置5を主に備えている。
内視鏡システム1は、本実施の形態においては、システム全体として、白色光による通常光観察が可能なだけでなく、狭帯域光観察(NBI:Narrow Band Imaging。以下、NBIという)にも対応可能となっている。
内視鏡2は、被検体200内に挿入される細長の挿入部(図示せず)を備え、さらに、当該挿入部の先端部に配設された、被検体200の画像を撮像して画像信号を取得するための撮像部11と、光源装置4からの照明光を伝送するライトガイド12と、被検体200に照明光を照射する照明部13と、を備える。内視鏡2の挿入部の先端部の先端の同じ面に、被検体の像を取得する被検体像取得部と被検体を照明する照明窓が配置されている。
なお、ここでは、照明はライトガイドを利用して行われているが、複数の発光ダイオード(以下、LEDという)などの発光素子を挿入部の先端部に設け、複数のLEDの照明光を照射するようにしてもよい。
また、当該内視鏡2は、ノイズ成分を少なくしてNBIによる拡大観察を行うために、その先端には、例えば先端フードまたは先端アタッチメント等が装着可能になっている。
また、当該内視鏡2は、ノイズ成分を少なくしてNBIによる拡大観察を行うために、その先端には、例えば先端フードまたは先端アタッチメント等が装着可能になっている。
また、内視鏡2には、図示しない操作部が設けられており、検査者である内視鏡システム1のユーザは、操作部に設けられたフリーズボタン、レリーズボタン及び湾曲操作ノブなどの操作部材を操作することにより、被検体200内の部位、例えば小腸絨毛、胃粘膜の画像取得、及び挿入部の先端部に設けられた湾曲部の湾曲操作、等を行うことができる。
光源装置4は、内視鏡2とビデオプロセッサ3に接続されている。光源装置4は、光源41と、光源ドライバ42と、回転フィルタ43と、駆動部44と、駆動ドライバ45と、光源制御部46と、を備える。
光源41は、白色LEDまたはキセノンランプ等を用いて構成され、光源制御部46の制御のもと、白色光を発生する。光源ドライバ42は、光源制御部46の制御下に光源41に白色光を発生せしめる。光源41が発生した光は、回転フィルタ43および集光レンズ(図示せず)およびライトガイド12を経由して内視鏡2の照明部13から照射される。
回転フィルタ43は、狭帯域光観察(以下、NBIという)モード時に、光源41が発した白色光の光路上に配置され、回転することにより、光源41が発する白色光を受けてNBIに対応した光、すなわち、波長415nm付近(例えば、およそ400nm~440nm)の青色光と、波長540nm付近(例えば、およそ525nm~555nm)の緑色光との各波長領域を含む狭帯域化した光を透過させる。なお、図1では、通常光観察のためのフィルタは、省略されている。
よって、NBIモード時には、照明部13は、被検体を白色光より狭い帯域の狭帯域光で照明する。内視鏡2において得られる画像は、白色光より狭い所定の波長帯域の照明光で被検体を照明した際の反射光の画像である。
ここで、本実施の形態において採用するNBIでは、通常、青色と緑色の狭帯域光を腸粘膜面に照射し、青色の反射光を青色と緑色に、緑色の反射光を赤色に変換した内視鏡画像を表示装置5上に表示するようになっている。
なお、本実施の形態では、NBIのために、波長415nm付近の青色光と波長540nm付近の緑色光の2つの狭帯域光が用いられているが、波長415nm付近の青色光と波長540nm付近の緑色光の2つの狭帯域光のいずれかのみを用いてもよく、さらに1つ又は2つ以上の他の波長帯域の狭帯域光を用いるようにしてもよい。
内視鏡システム1が通常光観察モードに設定されているときには、光源装置4は、白色光を照明光として出射し、NBIモードに設定されているときには、光源装置4は、狭帯域化した光を照明光として出射する。
駆動ドライバ45は、光源制御部46の制御下に駆動部44に所定の電流を供給し、駆動部44は、光源制御部46の制御下に、ビデオプロセッサ3から送信される同期信号を基準として回転フィルタ43を回転動作させる。
表示装置5は、ビデオプロセッサ3に接続され、所定の映像ケーブルを介してビデオプロセッサ3が生成した被検体画像等をビデオプロセッサ3から受信して表示する機能を有する。
(ビデオプロセッサの構成)
内視鏡2及び光源装置4が接続されたビデオプロセッサ3は、内視鏡システム1全体を統括的に制御する制御部31と、制御部31により制御される画像入力部32と、信号生成部33と、画像処理部34と、分布特性値算出部35と、画像解析部を含む比較情報出力部36と、記録部37と、を含んでいる。
内視鏡2及び光源装置4が接続されたビデオプロセッサ3は、内視鏡システム1全体を統括的に制御する制御部31と、制御部31により制御される画像入力部32と、信号生成部33と、画像処理部34と、分布特性値算出部35と、画像解析部を含む比較情報出力部36と、記録部37と、を含んでいる。
なお、本実施の形態においてビデオプロセッサ3は、内視鏡2の撮像部11からの撮像信号の信号処理装置としての機能を果たすと共に、「画像解析装置」としての役目を果たすようになっている。
ビデオプロセッサ3は、中央処理装置(以下、CPUという)、ROM、RAM及びハードディスク装置などを有して構成されている。制御部31は、CPUがROM等に記憶された各種プログラムを読み出して実行することによって、内視鏡システム1の全体の動作制御及び各機能の実現を行う。
ビデオプロセッサ3は、操作パネル等の入力装置(図示せず)を有しており、ユーザが観察モードの設定、パラメータの入力、患者情報などの各種情報をビデオプロセッサ3に設定あるいは入力することができるようになっている。入力された情報は、記録部37において記憶される。また、情報制御部38は、患者情報などの情報を比較情報出力部36へ出力することができる。
疾患候補検索を行う場合、外部からユーザが入力した情報(基本的な患者情報)や分布特性値算出部から自動で取得された情報(分布特性値や撮影モードや各種患者情報)は、比較情報出力部36から情報制御部38を介して、記録部37に保存される。疾患候補検索を行わない場合、情報は分布特性値算出部35から情報制御部38へ送られる。
記録部37は、メモリとしての機能を有するものであるため、情報制御部38は、記録された情報を呼び出したり、画像等他の情報と紐付けて保存させたりといった、情報に各種操作を行う。
画像入力部32、信号生成部33、画像処理部34、分布特性値算出部35、比較情報出力部36及び記録部37の動作制御も、CPUがROM等に記憶された各種プログラムを読み出して実行することによって行われる。
画像入力部32は、内視鏡2の撮像部11からの内視鏡画像IMGの撮像信号を受信して、撮像信号からフレーム毎の画像データを生成する。すなわち、画像入力部32には、撮像部11によって取得された被検体の内視鏡画像IMGが入力され、画像入力部32は、各フレームの画像データを生成する。また、後述するように、画像入力部32は、内視鏡2からの撮像信号に基づいて画像データを所定フレーム数分だけ記憶するRAMなどのメモリ32aを有し、入力された画像データを、時系列順にソートして制御部31からの制御信号により指定されたフレームの画像データを、信号生成部33へ出力する機能も有する。
信号生成部33は、画像入力部32からの内視鏡画像IMGの画像データから、補正用画像CPの画像データを作成する。
図2は、信号生成部33の構成を示すブロック図である。信号生成部33は、補正前画像取得部51と、構造化要素指定部52と、補正用画像作成部53とを含む。
図2は、信号生成部33の構成を示すブロック図である。信号生成部33は、補正前画像取得部51と、構造化要素指定部52と、補正用画像作成部53とを含む。
補正前画像取得部51は、画像入力部32からの内視鏡画像IMGの解析対象領域AAの画像データを取得する処理部である。すなわち、内視鏡画像IMGについての、照明光の配光特性等による明るさ分布が補正される前の画像である補正前画像BPが、補正前画像取得部51に入力される。
構造化要素指定部52は、解析対象に合わせた構造化要素パラメータを指定する処理部である。構造化要素指定部52は、内視鏡画像IMGについて、解析対象に合わせた構造化要素パラメータを、解析対象である補正前画像BPの画像データから算出する。構造化要素パラメータは、解析対象の大きさに応じた値となるように算出される。構造化要素指定部52の構成及び構造化要素パラメータの算出方法については、後述する。
補正用画像作成部53は、後述する画像処理によって、画像データを補正するために用いられる補正用画像CPを作成し出力する処理部である。補正用画像CPの作成方法については、後述する。
図1に戻り、画像処理部34は、内視鏡画像IMGについて、補正前画像BPと補正用画像CPの画像データを入力して、補正した画像データすなわち補正後画像APを生成する画像処理を行う処理部である。
図3は、画像処理部34の構成を示すブロック図である。画像処理部34は、補正前画像入力部61と、補正用画像入力部62と、画像差分抽出部63とを含む。
補正前画像入力部61は、解析対象となる補正前画像BPを入力する処理部である。内視鏡画像IMGの補正前画像BPは、画像入力部32から出力される。
補正前画像入力部61は、解析対象となる補正前画像BPを入力する処理部である。内視鏡画像IMGの補正前画像BPは、画像入力部32から出力される。
補正用画像入力部62は、補正用画像作成部53において作成された補正用画像CPを取得する処理部である。内視鏡画像IMGの補正用画像CPは、信号生成部33から出力される。
画像差分抽出部63には、内視鏡画像IMGについての、補正前画像BPと補正用画像CPとが入力される。画像差分抽出部63は、補正前画像BPと補正用画像CPとの差分をとって、差分画像を抽出し、差分画像を補正後画像APとして出力する。よって、画像差分抽出部63は、内視鏡画像IMGの解析対象領域AAの補正後画像APを生成して、分布特性値算出部35へ出力する。補正後画像APは、画像の明るさ分布が略均一になるように、内視鏡画像を補正した明るさ補正画像である。
すなわち、画像処理部34は、被検体の内視鏡画像の明るさ分布が略均一になるように被検体の内視鏡画像を補正した明るさ補正画像を生成する画像生成部を構成する。
すなわち、画像処理部34は、被検体の内視鏡画像の明るさ分布が略均一になるように被検体の内視鏡画像を補正した明るさ補正画像を生成する画像生成部を構成する。
画像処理部34における補正後画像APの生成処理については、後述する。
図1に戻り、分布特性値算出部35は、内視鏡画像IMGについて、補正後画像APを入力して、分布特性値の算出を行う処理部である。
図1に戻り、分布特性値算出部35は、内視鏡画像IMGについて、補正後画像APを入力して、分布特性値の算出を行う処理部である。
図4は、分布特性値算出部35の構成を示すブロック図である。分布特性値算出部35は、色成分値抽出部71と、合算輝度値算出部72と、輝度値分布特性値算出部73とを有する。
色成分値抽出部71は、画像差分抽出部63から出力された内視鏡画像IMGの補正後画像APにおける各色成分値(赤色成分値(以下、R成分値ともいう),緑色成分値(以下、G成分値ともいう),青色成分値(以下、B成分値ともいう))を抽出する。
合算輝度値算出部72は、色成分値抽出部71において抽出した内視鏡画像IMGの補正後画像APに係る各色成分値の合算値に係る輝度値(合算輝度値)を算出する。
合算輝度値算出部72は、色成分値抽出部71において抽出した内視鏡画像IMGの補正後画像APに係る各色成分値の合算値に係る輝度値(合算輝度値)を算出する。
輝度値分布特性値算出部73は、補正後画像APにおける各色成分値(R成分値,G成分値,B成分値)に係る分布特性値と、合算輝度値算出部72において算出した合算輝度値に係る分布特性値とを、分布特性値情報DCとして算出する。なお、本実施の形態において「分布特性値」は、解析対象領域AA内の複数の画素の画素値分布すなわち輝度値分布の標準偏差として求められる。
よって、分布特性値算出部35は、画像差分抽出部63により生成された内視鏡画像IMGの補正後画像APの色成分値を抽出すると共に、抽出した色成分値の合算値に係る輝度値の分布特性値及び抽出した各色成分値に係る輝度値の分布特性値を、分布特性値情報DCとしてそれぞれ算出する(詳細については後述する)。
すなわち、分布特性値算出部35は、明るさ補正画像である補正後画像APにおける赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求める。なお、分布特性値算出部35は、NBIモード下で被検体を狭帯域光で照明したとき、明るさ補正画像である補正後画像APにおける少なくとも緑色成分及び青色成分をそれぞれ抽出して、色成分毎の分布特性値を求める。
比較情報出力部36は、分布特性値算出部35において得られた各分布特性値と一致するあるいは類似する分布特性値を有する疾患情報を検索して疾患候補情報CAとして出力する。
図5は、比較情報出力部36の構成を示すブロック図である。比較情報出力部36は、分布特性値入力部74と、疾患情報照合部75と、疾患候補決定部76と、情報出力部77とを有する。
図5は、比較情報出力部36の構成を示すブロック図である。比較情報出力部36は、分布特性値入力部74と、疾患情報照合部75と、疾患候補決定部76と、情報出力部77とを有する。
分布特性値入力部74は、輝度値分布特性値算出部73からの分布特性値情報DCを入力する処理部である。
疾患情報照合部75は、分布特性値情報DCと、記録部37に記録された疾患情報DIに含まれる各疾患の分布特性値とを比較し、一致度を算出する処理部である。
疾患情報照合部75は、分布特性値情報DCと、記録部37に記録された疾患情報DIに含まれる各疾患の分布特性値とを比較し、一致度を算出する処理部である。
分布特性値として、解析対象領域AA内の複数の画素の輝度値分布の標準偏差が用いられ、分布特性値情報DCに含まれる標準偏差と、後述する記録部37に記録された疾患情報DI中の標準偏差とが比較される。
さらに、疾患情報照合部75では、比較結果から、所定の演算に基づく、一致度も、疾患情報に含まれる疾患毎に算出される。一致度とは、分布特性値情報DCに含まれる標準偏差と疾患情報の標準偏差とが類似する割合あるいは一致する割合である。
疾患候補決定部76は、疾患情報照合部75からの一致度の情報に基づいて、一致度の高い疾患を、記録部37に記録された疾患情報DIの中から疾患候補として決定する。
情報出力部77は、疾患候補決定部76で特定された疾患候補情報CAを生成して、表示装置5へ出力する。
情報出力部77は、疾患候補決定部76で特定された疾患候補情報CAを生成して、表示装置5へ出力する。
なお、表示装置5には、画像入力部32からの内視鏡画像IMGも入力されており、ライブ画像及び静止画が表示可能となっている。
図1に戻り、記録部37は、テンプレート情報としての疾患情報DIが記録されたハードディスク装置などの大容量メモリである。
図1に戻り、記録部37は、テンプレート情報としての疾患情報DIが記録されたハードディスク装置などの大容量メモリである。
テンプレート情報は、被検体の部位毎に、複数の症例の内視鏡画像の画像データと、その各画像データと関連付けられた分布特性値データを含む。すなわち、記録部37は、複数の疾患の情報を含む。
記録部37は、複数の疾患画像の複数の分布特性値データと共に、疾患画像における赤色成分、緑色成分、及び青色成分の輝度値分布の情報と、疾患画像の情報とを、テンプレート情報として含む。
例えば検査部位が胃であれば、各症例は、萎縮性胃炎又は転移性胃癌などであり、記録部37には、疾患情報DIとして、胃の症例毎に、典型的な複数の症例の内視鏡画像の画像データと、その各画像データについての上述した分布特性値データ、ここでは、標準偏差データとが関連付けられて、記憶されている。疾患情報DIは、記録部37に事前に登録される。
さらに、疾患情報DIは、観察モード毎に記録部37に記録されている。ここでは、NBIモードと、白色光を用いた通常光観察モードのそれぞれの疾患情報DIが記録されており、後述する疾患の推定は、NBIモードで得られた内視鏡画像だけではなく、白色光による通常光観察モードで得られた内視鏡画像にも適用可能である。
なお、各症例の内視鏡画像の分布特性値も、各症例の内視鏡画像の画像データに対して上述した信号生成部33及び画像処理部34の処理を行って得られた明るさ補正画像に基づいて算出される。
すなわち、記録部37には、複数の分布特性値を含む情報が記録され、記録部37に記録された複数の分布特性値の各々は、疾患画像の解析対象領域AAにおける明るさ分布が略均一になるように疾患画像を補正した明るさ補正画像の分布特性値である。具体的には、記録部37に記録された複数の分布特性値の各々は、疾患画像の明るさ分布が略均一になるように疾患画像を補正した明るさ補正画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値である。
さらになお、ここでは、解析対象領域AA内の分布特性値が記録部37に登録されるが、内視鏡画像全体の分布特性値も記録部37に登録するようにしてもよい。
また、ここでは、記録部37は、ビデオプロセッサ3内に設けられたメモリであるが、図1において点線で示すように、外部のネットワーク37Xa、例えばインターネットに接続されたサーバ等の外部装置37Xでもよい。すなわち、ビデオプロセッサ3は、ネットワークを介して外部装置を通信するための通信部を有して、記録部である外部装置からテンプレート情報を取得するようにしてもよい。
また、ここでは、記録部37は、ビデオプロセッサ3内に設けられたメモリであるが、図1において点線で示すように、外部のネットワーク37Xa、例えばインターネットに接続されたサーバ等の外部装置37Xでもよい。すなわち、ビデオプロセッサ3は、ネットワークを介して外部装置を通信するための通信部を有して、記録部である外部装置からテンプレート情報を取得するようにしてもよい。
さらにまた、ここでは、各疾患について1つの症例の情報をテンプレート情報として記録部37に登録しているが、各疾患について複数の症例の情報をテンプレート情報として記録部37に登録するようにしてもよい。その場合、疾患推定に用いられる分布特性値として、複数の分布特性値の平均値も記録部37に登録され、その平均値が疾患推定に用いられる。
さらに、各疾患画像の部分画像の分布特性値も、記録部37に登録するようにしてもよい。例えば、胃の粘膜画像中のポリープの部分の画像における分布特性値も、胃の症例についてのテンプレート情報として記録部37に登録しておくと、後述する再検索において変更する条件として、部分画像の分布特性値からの疾患判定が可能となる。
さらに、各疾患画像の部分画像の分布特性値も、記録部37に登録するようにしてもよい。例えば、胃の粘膜画像中のポリープの部分の画像における分布特性値も、胃の症例についてのテンプレート情報として記録部37に登録しておくと、後述する再検索において変更する条件として、部分画像の分布特性値からの疾患判定が可能となる。
テンプレート情報として登録されているデータは、明るさ分布を略均一になるよう処理した画像のデータ、又はその分布特性値であってもよい。
次に、構造化要素指定部52の構成について説明する。
図6は、信号生成部33の構造化要素指定部52の構成を示すブロック図である。
信号生成部33の構造化要素指定部52は、図6に示すように、エッジ検出部81、閉曲線エッジ検出部82、大きさフィルタ処理部83、二重閉曲線エッジ検出部84、二重閉曲線エッジ特定部85、解析対象特定部86、内接円描画部87、内接円平均サイズ算出部88、及び構造化要素指定制御部89を含んで構成されている。
構造化要素指定部52は、内視鏡画像IMGについて、補正用画像作成部53において補正用画像CPを作成するときに用いられる構造化要素パラメータを指定する処理部である。
図6は、信号生成部33の構造化要素指定部52の構成を示すブロック図である。
信号生成部33の構造化要素指定部52は、図6に示すように、エッジ検出部81、閉曲線エッジ検出部82、大きさフィルタ処理部83、二重閉曲線エッジ検出部84、二重閉曲線エッジ特定部85、解析対象特定部86、内接円描画部87、内接円平均サイズ算出部88、及び構造化要素指定制御部89を含んで構成されている。
構造化要素指定部52は、内視鏡画像IMGについて、補正用画像作成部53において補正用画像CPを作成するときに用いられる構造化要素パラメータを指定する処理部である。
エッジ検出部81は、画像に対して例えばエッジ検出フィルタをかけることにより、エッジ検出を行う。
閉曲線エッジ検出部82は、エッジ検出部81により検出されたエッジの中から、閉曲線をなすエッジをさらに検出する。
閉曲線エッジ検出部82は、エッジ検出部81により検出されたエッジの中から、閉曲線をなすエッジをさらに検出する。
大きさフィルタ処理部83は、閉曲線エッジ検出部82により検出された閉曲線エッジの中から、閉曲線エッジの大きさが注目要素として取り得る範囲内(例えば、腸管の絨毛として取り得る大きさの範囲内)であるもののみを選択する処理を行う。
二重閉曲線エッジ検出部84は、閉曲線エッジ検出部82により検出され、さらに例えば大きさフィルタ処理部83により選択された閉曲線エッジの中から、さらに、二重をなす(つまり、外側閉曲線エッジと、この外側閉曲線エッジ内に含まれる内側閉曲線エッジと、で構成される)二重閉曲線エッジを検出する。
二重閉曲線エッジ特定部85は、二重閉曲線エッジ検出部84により検出された二重閉曲線エッジの内の、内側閉曲線エッジ内の領域の色と、内側閉曲線エッジと外側閉曲線エッジとの間の領域の色と、が異なる場合に、内側閉曲線エッジ内の領域を中心部として特定する。
このとき、二重閉曲線エッジ特定部85は、さらに、内側閉曲線エッジ内の領域の色が注目要素の中心部に該当する第1の色範囲(一例として注目要素が腸管の絨毛である場合には、第1の色範囲は例えば赤に近い色範囲)内であって、内側閉曲線エッジと外側閉曲線エッジとの間の領域の色が注目要素の周辺部に該当する第2の色範囲(第1の色範囲とは異なる第2の色範囲)(一例として注目要素が腸管の絨毛である場合には、第2の色範囲は例えば白に近い色範囲)内である場合に、内側閉曲線エッジ内の領域を中心部として特定するようになっている。
なお、色の相違は、上述したように、色相と彩度と輝度との少なくとも1つの相違に基づき判定する。従って、色範囲は、色相、彩度、輝度の内の、何れか1つの範囲、または2つ以上の組み合わせにより決まる範囲となる。例えば、色範囲を色相および彩度の組み合わせにより決まる範囲としてもよいし、あるいは色範囲を輝度範囲としても構わない(すなわち、輝度のみに基づいて中心部と周辺部とを区別するようにしても構わない)。注目要素が腸管の絨毛であって色範囲を輝度範囲とした場合には、例えば、第1の色範囲はやや低輝度の範囲、第2の色範囲は第1の色範囲よりも高輝度の範囲とすればよい。
さらに、二重閉曲線エッジ特定部85は、大きさフィルタ処理部83により内側閉曲線エッジおよび外側閉曲線エッジの大きさが注目要素として取り得る範囲内であると判定された場合にのみ、内側閉曲線エッジ内の領域を中心部として特定すると、より好ましい。
解析対象特定部86は、二重閉曲線エッジ特定部85において特定された1又は2以上の二重閉曲線のエッジの内側閉曲線を、解析対象として特定する処理を行う。
内接円描画部87は、各解析対象に内接する円を描画する処理を行う。
内接円描画部87は、各解析対象に内接する円を描画する処理を行う。
内接円平均サイズ算出部88は、内接円描画部87において描画された全ての内接円の平均サイズ、ここでは直径の平均値を算出する処理を行う。
構造化要素指定制御部89は、構造化要素指定部52内の各部、つまり、上述したエッジ検出部81、閉曲線エッジ検出部82、大きさフィルタ処理部83、二重閉曲線エッジ検出部84、二重閉曲線エッジ特定部85、解析対象特定部86、内接円描画部87、および内接円平均サイズ算出部88を制御して、後に詳述する図11及び図12を参照して説明するような動作を行わせる。
構造化要素指定制御部89は、構造化要素指定部52内の各部、つまり、上述したエッジ検出部81、閉曲線エッジ検出部82、大きさフィルタ処理部83、二重閉曲線エッジ検出部84、二重閉曲線エッジ特定部85、解析対象特定部86、内接円描画部87、および内接円平均サイズ算出部88を制御して、後に詳述する図11及び図12を参照して説明するような動作を行わせる。
以上のような構成を有する内視鏡システム1を利用して、医者は、内視鏡の挿入部を体内に挿入し、表示装置5に表示される被検体内の内視鏡画像を見ながら、患者の診断を行う。
診断前に、医者は、患者についての各種情報、例えば患者ID、氏名、年齢、病歴などの情報を、ビデオプロセッサ3の操作パネル等の入力装置(図示せず)を用いて、ビデオプロセッサ3に入力する。入力された患者情報は、記録部37に記憶される。
医者は、内視鏡画像を見ながら、疾患の有無の判定などを行うが、以下に説明するように、ビデオプロセッサ3は、内視鏡画像に類似する疾患情報DIを、医者が診断する上で参考となる情報として、表示装置5に表示可能となっている。
(作用)
次に、内視鏡システム1の動作について説明する。
次に、内視鏡システム1の動作について説明する。
はじめに、ユーザが挿入部の先端部に先端フードを装着して内視鏡システム1をNBIモードに設定して小腸絨毛あるいは胃粘膜を拡大観察する場合における内視鏡システム1の全体の処理の流れについて説明する。
<全体の流れ>
はじめに、被検体の内視鏡画像と類似する疾患情報DIを抽出して出力するまでの全体の流れを説明する。
図7は、撮像して得られた内視鏡画像から、その内視鏡画像と類似する疾患情報を検索して出力するまでの処理の全体の流れを説明するための図である。内視鏡システム1のユーザである医者は、ビデオプロセッサ3に検査する部位の情報を入力する。例えば、医者は、小腸絨毛の検査であれば、「小腸」を、胃粘膜の検査であれば、「胃」を、検査部位の情報として、ビデオプロセッサ3に入力する。
はじめに、被検体の内視鏡画像と類似する疾患情報DIを抽出して出力するまでの全体の流れを説明する。
図7は、撮像して得られた内視鏡画像から、その内視鏡画像と類似する疾患情報を検索して出力するまでの処理の全体の流れを説明するための図である。内視鏡システム1のユーザである医者は、ビデオプロセッサ3に検査する部位の情報を入力する。例えば、医者は、小腸絨毛の検査であれば、「小腸」を、胃粘膜の検査であれば、「胃」を、検査部位の情報として、ビデオプロセッサ3に入力する。
医者は、小腸絨毛あるいは胃粘膜をNBIモードで拡大観察しているときに、あるタイミングで内視鏡の操作部のレリーズボタンを押して、静止画を取得して記録することができる。
図7において、あるタイミングt1でそのレリーズボタンが押されたとすると、制御部31は、そのタイミングt1の前後、あるいはタイミングt1以降の、所定フレーム数の内視鏡画像を、画像入力部32のメモリ32aに記憶させる。
画像入力部32のメモリ32aには、時系列順にソートされた複数のフレームFLsの画像データが記憶される。そして、複数のフレームFLsの中から、広いハレーション領域のない画像が、内視鏡画像IMGとして選択される。すなわち、画像入力部32は、タイミングt1で取得された被検体の内視鏡画像IMGを、入力して取得する。
そして、取得された内視鏡画像IMGから抽出された解析対象領域AAが、補正前画像BPとして抽出される。補正前画像BPから、補正用画像CPが作成される。補正用画像CPは、明るさに全体的な傾きがある明るさ分布を補正して補正前画像BPを構成する色成分への光学的な影響を抑制する明るさ分布補正用のデータである。
上述した信号生成部33が、内視鏡画像IMGの明るさに全体的な傾きがある明るさ分布を補正して内視鏡画像IMGを構成する色成分への光学的な影響を抑制するための明るさ分布補正データである補正用画像CPを、補正前画像である内視鏡画像IMGを用いて作成する。
補正後画像APは、補正前画像BPと補正用画像CPとから作成される。作成された補正後画像APは、照明の配光特性、観察光学系の光軸に対する被写体表面の傾き、挿入部の先端部から観察対象までの距離、あるいは被写体表面が平坦でないこと等による画像の明るさ分布の影響のない画像となっている。
画像処理部34が、分布補正データとしての補正用画像CPを内視鏡画像IMGに作用させた処理画像である補正後画像APを生成する。上述したように、補正後画像APは、明るさ分布が略均一にされた明るさ補正画像である。
補正後画像APについて、分布特性値が算出される。分布特性値算出部35が、処理画像である補正後画像APにおける色成分を抽出して分布特性値を求める。
比較情報出力部36は、分布特性値算出部35において算出された分布特性値と、記録部37に記録されたテンプレート情報の分布特性値とを比較して、分布特性値が一致するあるいは類似する疾患の疾患情報DIを、疾患候補情報CAとして出力する。
具体的には、比較情報出力部36は、記録部37に記録された複数の分布特性値の情報における赤色成分、緑色成分、及び青色成分と、補正後画像APにおける赤色成分、緑色成分、及び青色成分とをそれぞれ比較する。
すなわち、比較情報出力部36は、記録部37の複数の分布特性値と分布特性値算出部35により求めた分布特性値との比較を行い、その比較の結果から被検体の状態に関する情報を出力する。
疾患候補情報CAに含まれる疾患情報DIは、表示装置5の画面上に表示され、医者は、内視鏡画像と、疾患情報を参考情報として用いながら、診断を行うことができる。
次に、ビデオプロセッサ3における内視鏡画像IMGの取得から疾患情報DIの提示までの処理について説明する。
図8及び図9は、内視鏡画像の取得から疾患情報の提示までの処理を示すフローチャートである。
次に、ビデオプロセッサ3における内視鏡画像IMGの取得から疾患情報DIの提示までの処理について説明する。
図8及び図9は、内視鏡画像の取得から疾患情報の提示までの処理を示すフローチャートである。
医者であるユーザは、内視鏡システム1を利用して、被検体内の内視鏡画像を表示装置5に表示させながら、被検体内の内視鏡画像観察を行う。
ここでは、ユーザは、内視鏡システム1をNBIの拡大観察モードに設定して、NBIの内視鏡画像を表示装置5に表示させながら、被検体内を観察する。観察中に得られた内視鏡画像は、図示しないハードディスク装置などの大容量記憶装置に記憶される。
ここでは、ユーザは、内視鏡システム1をNBIの拡大観察モードに設定して、NBIの内視鏡画像を表示装置5に表示させながら、被検体内を観察する。観察中に得られた内視鏡画像は、図示しないハードディスク装置などの大容量記憶装置に記憶される。
例えば、ユーザによるレリーズボタンの操作が行われると、内視鏡画像IMGの取得が行われる。具体的には、ユーザによるレリーズボタンの操作が行われると、制御部31は、レリーズボタンの押下のタイミングに応じて、上述したように複数のフレームの内視鏡画像がメモリ32aに記憶されるように画像入力部32を制御する。
図8及び図9の処理の実行は、ユーザがレリーズボタンを押下することによって開始される。制御部31の制御下で、画像入力部32は、内視鏡2から経時的に取得してメモリ32aに記憶された被検体の画像データを、時系列順にソートする(ステップS11)。
画像入力部32は、広いハレーション等の領域を有する不適格画像なフレームが、ソートされた複数のフレームの画像データ中にあるか否かを判定する(ステップS12)。画素値が0から255の範囲内の値であるとき、閾値を例えば230として、画素値が230以上である画素領域が、フレーム中で所定の割合以上を占めるとき、そのフレームは、不適格画像と判定される。すなわち、画像入力部32は、ステップS11でソートされた複数の画像の各々が、色成分値を抽出するのに適さない不適格画像であるか否かを判定する。例えば、輝度値が所定値以上である画素数が、1フレームの画像データ中に所定数以上存在すると、そのフレームの画像は、ハレーション領域が広いので、不適格画像の画像と判定される。不適格領域の例としては、ハレーションが生じている領域以外にも、例えば気泡が生じている領域、ピントがぼけている領域、などが挙げられる。
複数のフレームの画像データ中に、不適格画像が存在するとき(ステップS12:YES)、画像入力部32は、ステップS11で得られた複数のフレームの画像データの中から、不適格画像と判定された1又は2以上のフレームの画像データを削除する(ステップS13)。
なお、ここでは、画像入力部32が、各フレームの各画素の画素値と、所定の閾値としての所定値とを比較して、各フレーム中にハレーション等の領域の広さが所定値以上であると、不適格画像の画像と判定するが、不適格画像の画像と判定をユーザに行わせるようにしてもよい。例えば、ハレーション等の領域が所定値以上の広さを有するフレームの画像を表示装置5の画面上に表示して、ユーザに、不適格画像の画像であるか否かを判定させ、フレーム単位で不適格画像を削除させるようにしてもよい。
画像入力部32は、ステップS12の後又はステップS13の後、不適格画像のない複数のフレームの画像データの中から、画像解析の対象とする画像を選択して取得する画像選択を行い、信号生成部33に出力する(ステップS14)。すなわち、画像入力部32は、内視鏡2より取得された被検体の画像の中から、色成分値を抽出するのに適さない不適格要素を所定値以上含む画像を除いて、1枚の内視鏡画像IMGを選択する。
なお、S14では、1枚の内視鏡画像IMGが選択されているが、複数の内視鏡画像IMGが選択されるようにしてもよい。
さらになお、ここでは、レリーズボタンの押下に応じて、複数のフレームFLsの画像を取得しているが、1枚の内視鏡画像のみが取得されるようにしてもよい。
さらになお、ここでは、レリーズボタンの押下に応じて、複数のフレームFLsの画像を取得しているが、1枚の内視鏡画像のみが取得されるようにしてもよい。
信号生成部33は、その取得した画像についての解析対象領域AAの設定を行う(ステップS15)。信号生成部33の補正前画像取得部51は、画像解析の対象とする内視鏡画像IMGを取得して、その内視鏡画像IMGについての解析対象領域AAの設定を行う。ステップS15の処理が、内視鏡画像IMGに解析対象領域AAを設定する解析対象領域設定部を構成する。言い換えれば、ステップS15の処理は、画像入力部32から入力された内視鏡画像IMG中の所定の領域を解析対象領域AAとして定める領域抽出部を構成する。
図10は、内視鏡画像中の解析対象領域AAを説明するための図である。
解析対象領域AAは、色成分を正確に抽出する画素領域として、内視鏡画像IMG中に予め設定される。解析対象領域AAの設定は、ユーザによって設定されてもよいし、内視鏡システム1に予め設定されていてもよい。
解析対象領域AAは、色成分を正確に抽出する画素領域として、内視鏡画像IMG中に予め設定される。解析対象領域AAの設定は、ユーザによって設定されてもよいし、内視鏡システム1に予め設定されていてもよい。
ここでは、解析対象領域AAは、内視鏡画像IMG中のピントの合っている中央付近の矩形領域であり、画像の歪みも少ない領域である。ユーザが画像中に設定する場合は、ピントの合っている領域でかつ画像の歪みの少ない領域という選択条件に加えて、明るさのなるべく均一で、ハレーションがない、あるいは少ない領域であるいう条件も加重される。
なお、図10では、内視鏡画像IMGについて1つの解析対象領域AAが設定されているが、解析対象領域AAは、内視鏡画像IMGの中に複数設定されるようにしてもよい。
信号生成部33は、補正前画像BPから補正用画像CPの作成を行う(ステップS16)。
信号生成部33は、補正前画像BPから補正用画像CPの作成を行う(ステップS16)。
補正前画像BPは、内視鏡画像IMGであり、補正前画像取得部51において取得される。信号生成部33において、内視鏡画像IMGについて補正用画像CPの作成が行われる。
構造化要素指定部52が解析対象である内視鏡画像IMGに合わせた構造化要素を指定し、補正用画像作成部53は、指定された構造化要素パラメータを用いて、内視鏡画像IMGについて補正用画像CPを作成する。
具体的には、信号生成部33は、内視鏡画像IMGから抽出した閉曲線で囲まれた領域を複数抽出して、抽出された各領域の内接円の平均サイズに基づいて、明るさ分布補正データとしての補正用画像CPを作成する。
なお、解析対象領域AAが、内視鏡画像IMG中に複数設定されたときは、信号生成部33は、内視鏡画像IMGに設定された解析対象領域AA毎に、明るさ分布補正データである補正用画像CPを作成する。
(構造化要素の指定処理)
まず、構造化要素指定部52における構造化要素の指定処理について説明する。
図11及び図12は、構造化要素の指定処理の流れの例を示すフローチャートである。
まず、構造化要素指定部52における構造化要素の指定処理について説明する。
図11及び図12は、構造化要素の指定処理の流れの例を示すフローチャートである。
構造化要素指定部52は、上述したように、図6に示す構成を有する。エッジ検出部81が、解析対象領域AAに対して、エッジ検出フィルタをかけることにより、エッジ成分を抽出してエッジを検出する(ステップS31)。
次に、閉曲線エッジ検出部82が、エッジ検出部81により検出されたエッジの中から、閉曲線をなすエッジをさらに検出する(ステップS32)。
続いて、大きさフィルタ処理部83が、閉曲線エッジ検出部82により検出された閉曲線エッジの大きさ(例えば、閉曲線の最大径、平均径、あるいは閉曲線で囲まれる領域の面積など)を算出し、算出した大きさが、注目要素として取り得る範囲内(例えば、腸管の絨毛として取り得る大きさの範囲内)となる閉曲線エッジのみを選択する(ステップS33)。
続いて、大きさフィルタ処理部83が、閉曲線エッジ検出部82により検出された閉曲線エッジの大きさ(例えば、閉曲線の最大径、平均径、あるいは閉曲線で囲まれる領域の面積など)を算出し、算出した大きさが、注目要素として取り得る範囲内(例えば、腸管の絨毛として取り得る大きさの範囲内)となる閉曲線エッジのみを選択する(ステップS33)。
そして、二重閉曲線エッジ検出部84が、大きさフィルタ処理部83を通過した閉曲線エッジの中から、二重閉曲線エッジを全て検出する(ステップS34)。
なお、二重閉曲線エッジを構成する内側閉曲線エッジおよび外側閉曲線エッジは、何れも、ステップS33における大きさフィルタ処理部83の処理を通過しているために、注目要素として取り得る範囲内の大きさであると判定された閉曲線エッジである。
なお、二重閉曲線エッジを構成する内側閉曲線エッジおよび外側閉曲線エッジは、何れも、ステップS33における大きさフィルタ処理部83の処理を通過しているために、注目要素として取り得る範囲内の大きさであると判定された閉曲線エッジである。
さらに、二重閉曲線エッジ特定部85は、二重閉曲線エッジ検出部84により検出された複数の二重閉曲線エッジの中から、1つを選択して(ステップS35)、内側閉曲線エッジの内側の色、例えば各画素の色成分値の平均値が、注目要素の中心部に該当する第1の色範囲内であるか否かを判定する(ステップS36)。
ここで、内側閉曲線エッジの内側の色が第1の色範囲外であると判定した場合には、ステップS36で選択した二重閉曲線エッジを注目要素と同定することなく、処理は、ステップS39に移行する。
内側閉曲線エッジの内側の色が第1の色範囲内であると判定した場合には(ステップS36:YES)、二重閉曲線エッジ特定部85は、さらに、選択した二重閉曲線エッジの、外側閉曲線エッジと内側閉曲線エッジとの間の色、例えば各画素の色成分値の平均値が、注目要素の周辺部に該当する第2の色範囲内であるか否かを判定する(ステップS37)。
ここで、選択した二重閉曲線エッジの、外側閉曲線エッジと内側閉曲線エッジとの間の色が第2の色範囲内であると判定した場合には(ステップS37:YES)、二重閉曲線エッジ特定部85は、ステップS35で選択した二重閉曲線エッジを注目要素として特定する。
ここで、外側閉曲線エッジと内側閉曲線エッジとの間の色が第2の色範囲外であると判定した場合には、ステップS35で選択した二重閉曲線エッジを注目要素と同定することなく、処理は、ステップS39に移行する。
ステップS38の後、構造化要素指定制御部89は、二重閉曲線エッジ検出部84により検出された複数の二重閉曲線エッジの中に、ステップS36~S38の処理を未だ行っていない未処理の二重閉曲線エッジが存在するか否かを判定し(ステップS39)、存在する場合には、処理は、ステップS35に戻り、次の二重閉曲線エッジに対してステップS35の処理を行う。
こうして、ステップS39において、全ての二重閉曲線エッジに対してステップS35以降の処理が行われたと判定された場合には(ステップS39:NO)、解析対象特定部86は、ステップS38で特定された一又は2以上の二重閉曲線のエッジの内側閉曲線を、解析対象として特定する(ステップS40)。
内接円描画部87は、各解析対象に内接する円を描画する(ステップS41)。
内接円描画部87は、各解析対象に内接する円を描画する(ステップS41)。
内接円平均サイズ算出部88は、ステップS41で描画された全ての内接円の平均サイズ、ここでは直径の平均値を算出する(ステップS42)。
ステップS42で算出された平均サイズに相当する値を、構造化要素パラメータとして設定する(ステップS43)。
ステップS42で算出された平均サイズに相当する値を、構造化要素パラメータとして設定する(ステップS43)。
図13及び図14を用いて、具体的な構造化要素パラメータの意義を説明する。
図13は、被検体の内視鏡画像および注目要素の1つを拡大して示す図である。図14は、注目要素である腸管の繊毛の構造を示す図である。
図13は、被検体の内視鏡画像および注目要素の1つを拡大して示す図である。図14は、注目要素である腸管の繊毛の構造を示す図である。
例えば、図13に示すような内視鏡画像IMGにおいて、ステップS35では、二重閉曲線エッジが注目要素として特定されるが、1つの二重閉曲線は、腸管の1つの絨毛に対応する。
図14に示すように、腸管の絨毛は、中心部にある中心リンパ管CLの周りの部位に毛細血管BCが分布し、その外側に粘膜上皮MEが形成されて絨毛の表面を構成する構造を有している。
このような腸管の絨毛を、血液中のヘモグロビンに吸収され易い狭帯域化された波長の光を用いたNBIにより拡大観察すると、毛細血管BCの部分が粘膜上皮MEとは異なる色として観察される。
こうした絨毛を上から撮像した画像部分を観察すると、粘膜上皮MEの画像部分が環状の周辺部OBJpとして観察され、粘膜上皮MEに囲まれる毛細血管BCの画像部分が粘膜上皮MEと色が異なる中心部OBJcとして観察される。よって、上述したように、中心部OBJcと周辺部OBJpとの色の違いを利用して、注目要素OBJが決定される。
そして、上述したステップS40では、各二重閉曲線のエッジの内側閉曲線が解析対象とされ、ステップS41では、各内側閉曲線に内接する円が描画される。図13において、二点鎖線で示す円が、ステップS41で描画された内側閉曲線の内接円ICである。例えば、小腸絨毛の毛細血管BCに対応する中心部OBJcの画像の形状が楕円形であれば、内接円ICの直径は、その楕円の短軸の長さとなる。
さらに、ステップS42では、全ての内接円ICの平均サイズが算出され、ステップS43では、算出された平均サイズが構造化要素パラメータとして設定される。すなわち、構造化要素パラメータは、解析対象の大きさに応じた値である。
なお、ここでは、構造化要素指定部52が解析対象である内視鏡画像IMGに基づいて、構造化要素パラメータを決定しているが、図2において点線で示すように、予め設定された値PPを構造化要素パラメータとして設定するようにしてもよい。
例えば、ユーザが、小腸絨毛の拡大観察において使用する値PPを予め指定することによって、構造化要素パラメータとして設定するようにしてもよい。また、被写体と、挿入部の先端部との距離に応じて、小腸絨毛の大きさが変化するので、距離に応じて複数の値PPを予め用意しておき、ユーザは、画像解析するときに距離に応じた値を選択するようにしてもよい。
以上のようにして得られた構造化要素は、解析対象である小腸の絨毛の色成分を検出するために最適なパラメータ値である。ここでは、構造化要素は、解析対象となる内側閉曲線の内接円ICの直径の平均値を越えない値に設定される。
さらに、ここでは、解析対象の画像から構造化要素パラメータを算出して求めるようにしているので、内視鏡2の挿入部の先端部と被写体間の距離が変化しても、色成分を検出する画像について構造化要素がリアルタイムで決定される。
なお、ここでは、構造化要素は、注目画素を中心とする複数の画素を含む円形形状を有しているが、構造化要素を規定する範囲の形状は、円以外の形状でもよく、解析対象に応じて変更してもよい。
(補正用画像の作成処理)
次に、補正用画像作成部53における補正用画像の作成処理について説明する。
次に、補正用画像作成部53における補正用画像の作成処理について説明する。
図8のステップS16では、構造化要素指定部52において指定された構造化要素パラメータを用いて、補正用画像CPが作成される。
補正用画像作成部53は、内視鏡画像IMGの補正前画像BPについて、以下に説明する画像処理を実行することによって補正用画像CPを作成する。
補正用画像作成部53は、内視鏡画像IMGの補正前画像BPについて、以下に説明する画像処理を実行することによって補正用画像CPを作成する。
図15は、内視鏡画像の例を示す図である。図16は、図15に示す内視鏡画像の解析対象領域AA内の二点鎖線で示すラインL上の画素群の輝度分布を示すグラフである。図16には、内視鏡画像のラインL上の画素x1からxnの範囲の画素群の輝度値分布が示されている。
図15に示す内視鏡画像は、左下部分から右上部分に向かって明るさが低下するような明るさ分布を有している。従って、図16に示すように、ラインLの画素群の輝度値は、左側が高く右側が低くなっている。
このような照明の配光特性、又は観察光学系の光軸に対する被写体表面の傾き等による画像の明るさ分布を有する内視鏡画像の色成分を検出すると、各画素の輝度値は、明るさ分布の影響を受けるため、各色成分の輝度値を正確に検出することが困難である。
例えば、内視鏡画像の色成分の輝度値の標準偏差の値に基づいて疾患情報を検索する場合、内視鏡画像が照明の配光特性等の影響によって画像の明るさ分布が変化してしまうため、疾患情報を正確に検出することは困難である。
そこで、本実施の形態では、補正前画像BPに対して所定の画像処理を行って補正し、補正後画像APを生成し、その補正後画像APの色成分から被検体の輝度値を抽出する。
図17は、構造化要素を説明するための図である。図17は、構造化要素パラメータとしての、補正前画像BPに対して行う画像処理に用いられる輝度情報取得範囲を示す。
図17は、構造化要素を説明するための図である。図17は、構造化要素パラメータとしての、補正前画像BPに対して行う画像処理に用いられる輝度情報取得範囲を示す。
図17において、点線で示す範囲内の画素が、注目画素PIについて、後述する収縮演算及び膨張演算を用いた画像処理が行われるときの構造要素となる。図17において、1で示す画素が、構造化要素の画素である。
ここでは、構造要素パラメータは、注目画素PIを中心とする、直径Rの円の領域内の画素群であり、注目画素について輝度情報を取得する範囲を規定する。直径Rは、上述した解析対象となる内側閉曲線の内接円ICの直径の平均値である。なお、図17では、二点鎖線で示す円内の画素群が構造化要素である。1で示す画素群が、注目画素について輝度情報を取得する範囲の画素である。すなわち、構造化要素は、後述する所定の演算が行われるときの、注目画素PIについての輝度情報が取得される範囲を示す。
構造化要素指定部52は、その直径Rに対応する画素群の情報を、構造化要素パラメータとして、補正用画像作成部53に出力する。
補正用画像作成部53は、補正前画像BPの解析対象領域AA内の左端の画素から右端に向かってかつ最上辺のラインから最下辺のラインに向かって、左上の画素から右下について所定の演算処理を実行する。ここでは、所定の演算処理は、オープニング処理である。オープニング処理は、ある回数例えば3回の収縮処理を実行後、収縮処理と同じ回数の膨張演算を実行する処理を含む。
補正用画像作成部53は、補正前画像BPの解析対象領域AA内の左端の画素から右端に向かってかつ最上辺のラインから最下辺のラインに向かって、左上の画素から右下について所定の演算処理を実行する。ここでは、所定の演算処理は、オープニング処理である。オープニング処理は、ある回数例えば3回の収縮処理を実行後、収縮処理と同じ回数の膨張演算を実行する処理を含む。
図18は、補正用画像CPを作成する処理の流れの例を示すフローチャートである。画像処理部34は、補正前画像BPに対して収縮演算処理を所定回数実行し(ステップS51)、その後、収縮演算処理が行われた画像に対して、膨張演算処理を所定回数実行する(ステップS52)。
収縮演算処理は、注目画素を含む構造化要素内の複数の画素の画素値の最小値を、注目画素の画素値とする演算処理である。膨張演算処理は、注目画素を含む構造化要素内の複数の画素の画素値の最大値を、注目画素の画素値とする演算処理である。
なお、注目画素PIが補正前画像BPの周辺領域にあるとき、直径Rの円の領域内には、存在しない画素が含まれるが、そのような場合は、存在する画素のみで演算を行う、存在しない画素を直径Rの円の領域内の平均輝度値に置き換える、等の処理を行うことによって、収縮演算及び膨張演算が行われる。
以上のように、補正用画像作成部53は、例えば、補正前画像BPの左端の画素から右端に向かってかつ最上辺のラインから最下辺のラインに向かって、構造化要素指定部52において算出された構造化要素を用いて、各画素について収縮演算を実行し、その後、同様の収縮演算を2回実行する。その後、同様の順番で、構造化要素指定部52において算出された構造化要素を用いて、各画素について膨張演算を実行し、その後、同様の膨張演算を2回実行する。すなわち、補正用画像作成部53は、3回の収縮演算の後、左上から右下の各画素について膨張演算を1回実行し、その後、さらに2回実行する。
オープニング処理で用いられる構造化要素は、構造化要素指定部52において算出された、観察対象である小腸絨毛に対応する二重閉曲線のエッジの内側閉曲線の平均サイズである。
以上の処理を実行することにより、補正用画像CPが生成される。
なお、ここでは、補正用画像作成部53は、所定の演算処理として、オープニング処理を用いて、補正用画像CPを作成しているが、クロージング処理を用いて、補正用画像CPを作成してもよい。
なお、ここでは、補正用画像作成部53は、所定の演算処理として、オープニング処理を用いて、補正用画像CPを作成しているが、クロージング処理を用いて、補正用画像CPを作成してもよい。
クロージング処理は、1回以上の膨張演算の後に、膨張演算と同じ回数の収縮演算を行う処理である。
なお、上述したオープニング処理などにおいては、注目画素を含む構造化要素内の複数の画素内におけるハレーション要素である画素を除いて、膨張演算及び収縮演算を行うようにしてもよい。
なお、上述したオープニング処理などにおいては、注目画素を含む構造化要素内の複数の画素内におけるハレーション要素である画素を除いて、膨張演算及び収縮演算を行うようにしてもよい。
図19は、生成された補正用画像CP内の画素群の輝度値分布を示すグラフである。図19は、図15に示した内視鏡画像IMGの解析対象領域AA内のラインL上の画素群の輝度値分布を示す。補正用画像CPは、左から右に向かって明るさが低下するような明るさ分布を有している。従って、図19に示すように、ラインLの画素群の輝度値は、左側が高く右側が低くなっている。
図8に戻り、画像処理部34の補正前画像入力部61は、補正前画像BPを入力し、補正用画像入力部62は、信号生成部33において作成された補正用画像CPを入力し、画像差分抽出部63は、解析対象領域AAにおける補正前画像BPと補正用画像CPの差分画像を抽出する(ステップS17)。
ステップS16では、補正用画像CPが作成される。ステップS17では、補正前画像BP内の各画素と、補正用画像CP内の対応する画素との差分を取ることによって、差分画像を抽出して、補正後画像APが作成される。補正後画像APは、ステップS15において定められた内視鏡画像IMG中の解析対象領域AAの明るさ補正画像である。
図20は、生成された補正後画像AP内の画素群の輝度値分布を示すグラフである。図20は、図15に示した内視鏡画像の解析対象領域AA内のラインL上の画素群の輝度値分布を示す。補正後画像APは、図16の場合と比較して明るさ分布が略均一で、照明光の配光特性等による輝度ムラを抑制した画像となっている。
分布特性値算出部35における色成分値抽出部71が、補正後画像APの各画素の色成分値、例えば、R成分値、G成分値、およびB成分値を抽出する(ステップS18)。すなわち、色成分値抽出部71は、補正後画像APを構成する各画素の各色成分値(R成分値,G成分値,B成分値)を抽出する。
この後、分布特性値算出部35の合算輝度値算出部72において、色成分値抽出部71において抽出した補正後画像APに係る各色成分値の合算輝度値が算出される。
この後、分布特性値算出部35の合算輝度値算出部72において、色成分値抽出部71において抽出した補正後画像APに係る各色成分値の合算輝度値が算出される。
そして分布特性値算出部35の輝度値分布特性値算出部73が、合算輝度値算出部72において算出した、補正後画像APの解析対象領域AA内の各画素の色成分値毎に係る分布特性値と、解析対象領域AA内の合算輝度値に係る分布特性値とを算出して抽出する(ステップS19)。
なお、ステップS14において、複数の内視鏡画像を選択したときは、複数の内視鏡画像の解析対象領域の色成分を抽出し(ステップS18)、選択された複数の内視鏡画像の各々について、分布特性値を算出して、算出された複数の分布特性値の平均値を、ステップS19における分布特性値としてもよい。
上述したように本実施の形態においては、「分布特性値」は、解析対象領域AA内の複数の複数の画素値分布の標準偏差として求められる。すなわち、分布特性値算出部35は、処理画像である補正後画像APにおける解析対象領域AAの色成分を抽出して分布特性値を求める。
図21は、補正後画像APにおける輝度値のヒストグラムである。
図21は、横軸に、補正後画像APの対象領域における輝度値を、縦軸に、当該輝度値に対応する画素数を示したヒストグラムである。図21の示す輝度値分布は、輝度ムラの影響を除去した、3つの色成分のうちの1つの色成分の輝度値分布である。
図21は、横軸に、補正後画像APの対象領域における輝度値を、縦軸に、当該輝度値に対応する画素数を示したヒストグラムである。図21の示す輝度値分布は、輝度ムラの影響を除去した、3つの色成分のうちの1つの色成分の輝度値分布である。
分布特性値算出部35は、内視鏡画像IMGの補正後画像AP内に、ハレーション、気泡等の不適格要素(すなわち不適格画素)があるか否かを判定する(ステップS20)。画素値が0から255の範囲内の値であるとき、差分画像である補正後画像APでは、閾値を例えば100として、画素値が100以上である画素は、不適格画素と判定される。
分布特性値算出部35は、内視鏡画像IMGの補正後画像APの中に、ハレーション等の不適格要素すなわち不適格画素があれば、補正後画像APから不適格画素を除外して(ステップS20)、不適格要素を除外した画素群についてステップS18及びS19の処理を実行する。すなわち、分布特性値算出部35は、補正後画像APにおいて色成分値を抽出するのに適さない不適格要素を除外して分布特性値を抽出する。
なお、ステップS20の処理においては不適格要素があると判定された場合、補正後画像AP中に不適格要素があることを告知するメッセージ等を表示装置5に表示し、ユーザに、ステップS21の処理を実行するか否かをユーザに選択させるようにしてもよい。
次に、情報制御部38は、患者情報、検査部位の情報、判定パラメータ情報などの各種情報を取得する(ステップS22)。患者情報、検査部位の情報等は、ユーザにより検査前に図示しない入力装置から入力される。判定パラメータ情報は、疾患の推定あるいは判定のための閾値などを含み、予め設定されたデフォルト情報をRAM等から読み込むことによって取得されてもよく、あるいはユーザに入力させるようにしてもよい。
情報制御部38は、取得した患者情報、判定パラメータ情報などの設定情報が、後述する疾患候補を抽出して、疾患候補を表示するために必要な情報として、十分であるかを判定する(ステップS23)。言い換えれば、疾患候補を抽出して、疾患候補を表示するために必要な情報が揃っているか否かが判定される。
患者情報、判定パラメータ情報などの設定情報が十分でないとき(ステップS23:NO)、情報制御部38は、情報の入力処理を行う(ステップS24)。
入力処理は、例えば、不十分な情報、あるいは不足している情報の入力をユーザに促すためのメッセージと、情報を入力するための入力フィールドを、表示装置5の画面上に表示して、ユーザに情報の入力をさせることによって行われる。
入力処理は、例えば、不十分な情報、あるいは不足している情報の入力をユーザに促すためのメッセージと、情報を入力するための入力フィールドを、表示装置5の画面上に表示して、ユーザに情報の入力をさせることによって行われる。
患者情報、判定パラメータ情報などの設定情報が十分であるとき(ステップS23:YES)、情報制御部38は、疾患候補を検索するか否かを判定する(ステップS25)。検索しない場合(ステップS25:NO)、被検体の情報(内視鏡画像、明るさ分布を略均一になるように処理した画像、分布特性値など)を分布特性値算出部35から情報制御部38に送り、記録部37に疾患情報として記録する(ステップS26)。疾患候補を検索する場合(ステップS25:YES)、情報制御部38は、比較情報出力部36を機能させて、補正後画像APの分布特性値情報DCを、テンプレート情報と比較して、疾患候補を抽出する(ステップS27)。
比較情報出力部36では、分布特性値入力部74が、分布特性値算出部35から分布特性値情報DCを受信する。疾患情報照合部75は、分布特性値入力部74からの分布特性値情報DCと、記録部37に記録されたテンプレート情報に含まれる複数の疾患情報の分布特性値とを照合して、各テンプレート情報の疾患候補との一致度を算出する。
なお、ステップS19では、内視鏡画像IMGのRGBの3つ色成分についての輝度値分布の分布特性値及びそれらの合算値の分布特性値が算出され、ステップS27では、算出されたこれらの4つの分布特性値と、各疾患情報DIのRGBの3つの色成分についての輝度値分布の分布特性値及びそれらの合算値の分布特性値とを比較しているが、ステップS27で比較する色成分は、ユーザによって選択可能であってもよい。これは、疾患によっては、特定の色成分において分布特性値が大きく異なる場合もあるので、疾患候補を抽出するために用いられる分布特性値の色成分は、ユーザによって選択可能にしてもよい。
疾患候補決定部76は、疾患情報照合部75において算出された各疾患候補の一致度の情報に基づいて、出力する疾患候補を決定する。
例えば、一致度が高い疾患候補が1つあるいは複数選択されて、出力する疾患候補が決定される。
例えば、一致度が高い疾患候補が1つあるいは複数選択されて、出力する疾患候補が決定される。
情報出力部77は、疾患候補決定部76において決定された疾患候補情報CAを生成して表示装置5へ出力する(ステップS28)。
図22は、表示装置5に表示される疾患候補情報の表示例を示す図である。
図22は、表示装置5に表示される疾患候補情報の表示例を示す図である。
ステップS28の疾患候補情報の出力処理は、図22に示すような画像を生成する処理である。図22は、表示装置5に表示される拡大観察中における被検体情報と、疾患候補情報を示すユーザインターフェースの例を示す。
ユーザは、内視鏡検査中は、ライブ画像が表示装置5の表示画面5a上に表示されている。内視鏡検査中において、レリーズボタンが押下されると、図8及び図9の処理が実行され、ステップS28の処理により、表示装置5の表示画面5a上には、図22に示すような疾患候補提示画面が表示される。表示画面5aに表示される画面には、ライブ画像表示部G1と、標準偏差グラフ表示部G2と、ライブ画像における輝度値の分布を示す輝度値分布表示部G3と、疾患候補情報を表示する疾患候補表示部G4と、再検索ボタンG5とが表示される。
ライブ画像表示部G1は、内視鏡2から得られる内視鏡画像のライブ画像が表示される領域である。すなわち、ライブ画像表示部G1には、リアルタイムの内視鏡画像が表示される。ライブ画像表示部G1には、解析対象領域AA(点線で示す)も示されている。
なお、S11~S19の処理は、バックグラウンドで、リアルタイムで入力される内視鏡画像に対しても行われている。
なお、S11~S19の処理は、バックグラウンドで、リアルタイムで入力される内視鏡画像に対しても行われている。
標準偏差グラフ表示部G2は、内視鏡画像の時間経過tに沿った、解析対象領域AA内の複数の画素の輝度値分布の標準偏差の変化を示す領域である。標準偏差グラフ表示部G2における標準偏差は、バックグラウンドで実行されるステップS19の処理タイミングを含む複数のタイミングで、例えば略1秒毎のタイミングで、サンプリングされた解析対象領域AA内の複数の画素の各色成分値の合算値に係る輝度値分布の標準偏差である。ここでは、現時点Tcから過去の所定の期間の標準偏差が表示されている。
輝度値分布表示部G3は、ライブ画像表示部G1に表示されるライブ画像の輝度値分布、標準偏差が、リアルタイムで表示される。輝度値分布表示部G3における輝度値分布も、バックグラウンドで実行されるステップS19の処理タイミングを含む複数のタイミングで、サンプリングされた補正後画像APに係る各色成分値の合算値の輝度値に基づいて決定される。輝度値分布表示部G3は、このような輝度値分布の様子をリアルタイムで表示する。
なお、標準偏差グラフ表示部G2に表示する標準偏差及び輝度値分布表示部G3に表示する輝度値分布は、ユーザが指定した色成分、例えば、RGBのうちのいずれかについての標準偏差及び輝度値分布も表示可能となっている。
疾患候補表示部G4には、1又は2以上の疾患候補の情報が表示される。ここでは、分布特性値の一致度が高い、上位2つの疾患候補の情報G4a、G4bが、表示画面5a上に表示されている。
表示画面5a上に表示される疾患候補の情報G4a、G4bは、テンプレート情報の一部である疾患候補情報CAに含まれる情報であり、疾患候補名表示部g1、疾患部位の内視鏡画像表示部g2、疾患候補の分布を示すグラフ表示部g3及び一致度情報表示部g4を含む。
疾患候補名表示部g1には、候補の順位と、疾患候補名が表示される。ここでは、胃の疾患の第1候補及び第2候補の例として、それぞれ疾患Aと疾患Bが文字で示されている。
疾患部位の内視鏡画像表示部g2には、テンプレート情報に含まれる疾患画像が表示される。ここでは、第1候補の疾患画像と、第2候補の疾患画像が表示されている。
グラフ表示部g3には、テンプレート情報に含まれる疾患画像の輝度値分布が表示される。ここでは、第1候補の疾患画像の輝度値分布と第2候補の疾患画像の輝度値分布が表示されている。
グラフ表示部g3には、テンプレート情報に含まれる疾患画像の輝度値分布が表示される。ここでは、第1候補の疾患画像の輝度値分布と第2候補の疾患画像の輝度値分布が表示されている。
一致度情報表示部g4には、テンプレート情報に含まれる疾患画像の分布特性値と、内視鏡画像の分布特性値との一致率が表示される。ここでは、内視鏡画像の解析対象領域AAの分布特性値の、第1候補の疾患画像の分布特性値と第2候補の疾患画像の分布特性値のそれぞれに対する一致度が表示されている。
以上のように、比較情報出力部36は、記録部37の複数の分布特性値と分布特性値算出部35により求めた分布特性値との一致度の情報を出力する。さらに、比較情報出力部36は、分布特性値算出部35により求めた分布特性値に係わる色成分の分布を示すグラフと共に、一致度の情報を表示装置5に表示するように疾患候補情報CAを表示装置5に出力する。また、比較情報出力部36は、一致度の情報に係わる疾患画像を表示装置5に表示する。
ユーザは、疾患候補表示部G4にはレリーズボタンを押下したときに取得された内視鏡画像の分布特性値に基づいて、推定された疾患の候補の情報が表示画面5a上に表示されるので、診断における疾患判定の参考にすることができる。
なお、記録部37のテンプレート情報として用いられている疾患画像について、疾患画像の患者の識別子(ID)、年齢、検査日、既往症、家族歴などの情報も記録部37に登録しておき、疾患候補表示部G4に併せて表示するようにしてもよい。
さらになお、図22のユーザインターフェースには、疾患候補について、その疾患が見やすい観察モードの表示、疾患の分類定義に関するガイドラインなどの情報の表示、外部の疾患情報サイトの情報の表示もできるようにしてもよい。
また、ユーザは、各種閾値などの判定条件を変更して、再検索したい場合がある。例えば、表示された疾患候補がユーザの想定した疾患でない場合に、判定パラメータを変更したり、疾患候補を抽出するために使用する色成分をRGBの中の1つあるいは2つの色成分のみを使用して疾患候補を抽出したり、画像の輝度値が所定の値、例えば100未満の画素だけを使用して疾患候補を抽出したい場合がある。例えば、Rの色成分の信号は、例えば深部の血管の情報をより多く含むので、ユーザは、そのようなより深部の画像情報に着目して疾患を推定したい場合、Rの色成分のみを使用して疾患候補を抽出したい場合もある。
ユーザは、そのような条件の変更をして再検索する場合は、処理は、ステップS25へ移行する。
ユーザは、そのような条件の変更をして再検索する場合は、処理は、ステップS25へ移行する。
また、ユーザは、解析対象領域内の部分を限定したりして、疾患候補を再度抽出したい場合もある。例えば解析対象領域内のポリープのある部分だけの分布特性値を得て再検索する場合は、解析対象領域内のその部分を解析対象領域として限定するために、処理は、点線で示すように、ステップS18へ移行する。
再検索ボタンG5は、検索条件を変更して再度検索する場合に使用されるボタンである。
再検索ボタンG5は、検索条件を変更して再度検索する場合に使用されるボタンである。
よって、情報制御部38は、ユーザにより、再検索の指示がされたか否かを判定し(ステップS29)、再検索の指示がされたときは(ステップS29:YES)、条件変更処理を実行する(ステップS30)。
条件変更は、例えば、表示装置5の画面上に条件変更用画面あるいはウインドウを表示して、ユーザに判定パラメータなどの設定変更ができるようにして行われる。
条件変更処理後は、ステップS25の処理が実行されて、変更された条件の下で、疾患候補の抽出が行われる。
条件変更処理後は、ステップS25の処理が実行されて、変更された条件の下で、疾患候補の抽出が行われる。
再検索の指示がされないときは(ステップS29:NO)、上述した疾患候補の抽出処理は、終了する。
ここで、疾患間における輝度値分布の違いと、疾患間における輝度値分布の標準偏差の違いについて説明する。
ここで、疾患間における輝度値分布の違いと、疾患間における輝度値分布の標準偏差の違いについて説明する。
図23~図28は、内視鏡画像の解析対象領域AAにおける色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図23は、胃の正常粘膜の内視鏡画像のRGBの3つの色成分の輝度値の合算値を基準化した輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図23は、胃の正常粘膜の内視鏡画像のRGBの3つの色成分の輝度値の合算値を基準化した輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図24は、胃の正常粘膜の内視鏡画像のRの色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図25は、胃の正常粘膜の内視鏡画像のGの色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図26は、胃の疾患Aの粘膜の内視鏡画像のRGBの3つの色成分の輝度値の合算値を基準化した輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図26は、胃の疾患Aの粘膜の内視鏡画像のRGBの3つの色成分の輝度値の合算値を基準化した輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図27は、胃の疾患Aの粘膜の内視鏡画像のRの色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図28は、胃の疾患Aの粘膜の内視鏡画像のGの色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図28は、胃の疾患Aの粘膜の内視鏡画像のGの色成分の輝度値と、各輝度値に対応する画素数を示したヒストグラムである。
図23から図28によれば、正常粘膜における上述した合算値の標準偏差は、20.9で、疾患Aの粘膜における上述した合算値の標準偏差は、21.8であった。正常粘膜におけるRの色成分の標準偏差は、20.3で、疾患Aの粘膜におけるRの色成分の標準偏差は、17.7であった。正常粘膜におけるGの色成分の標準偏差は、19.8で、疾患Aの粘膜におけるGの色成分の標準偏差は、20.4であった。
このように、正常粘膜と疾患Aの粘膜は、標準偏差の値が異なっている。特に、疾患Aの粘膜におけるRGBの色成分の合算値の標準偏差は、正常粘膜における合算値の標準偏差よりも、0.9だけ高く、疾患Aの粘膜におけるGの色成分の標準偏差は、正常粘膜におけるGの色成分の標準偏差よりも、0.6だけ高いが、疾患Aの粘膜におけるRの色成分の標準偏差は、正常粘膜におけるRの色成分の標準偏差よりも、2.6だけ低い。
同様に、疾患に応じてこの標準偏差は、合算値よりも、色成分毎に、異なっていることが判明した。
同様に、疾患に応じてこの標準偏差は、合算値よりも、色成分毎に、異なっていることが判明した。
図29は、輝度値分布の標準偏差の小さい内視鏡画像の例を示す図である。図30は、輝度値分布の標準偏差の大きい内視鏡画像の例を示す図である。
輝度値分布の標準偏差の小さい内視鏡画像は、図29に示すように、全体に明暗の差が小さい画像である。
輝度値分布の標準偏差の小さい内視鏡画像は、図29に示すように、全体に明暗の差が小さい画像である。
輝度値分布の標準偏差の大きい内視鏡画像は、図30に示すように、全体に明暗の差が大きい画像である。
図31は、疾患毎の標準偏差の違いを示すグラフである。図31は、RGBの3つの輝度値の合算値の標準偏差を示している。
図31は、疾患毎の標準偏差の違いを示すグラフである。図31は、RGBの3つの輝度値の合算値の標準偏差を示している。
図31に示すように、例えば、胃の正常粘膜の場合(NS)、標準偏差がσsであるが、疾患A(C1)、疾患B(C2)、疾患C(C3)、疾患D(C4)、疾患E(C5)の場合、標準偏差は、それぞれσ1、σ2、σ3、σ4、σ5であり、正常な胃粘膜の標準偏差σsと異なっている。
さらに、RGBの輝度値分布の標準偏差も、正常粘膜と各疾患間において、かつ、複数の疾患間においても異なっている。
さらに、RGBの輝度値分布の標準偏差も、正常粘膜と各疾患間において、かつ、複数の疾患間においても異なっている。
よって、内視鏡画像の各色成分の輝度値分布の分布特性値、ここでは標準偏差を、複数の疾患画像の各色成分の輝度値分布の分布特性値と比較して、一致度から疾患候補を抽出して、検査部位の疾患を、推定することができる。
以上のように、上述した実施の形態によれば、内視鏡画像における輝度ムラの影響を抑制しつつ、得られた色の情報を含む医用画像と類似する画像を精度よく検索できる画像解析装置、画像解析システム、及び画像解析装置の作動方法を提供することができる。
なお、ここでは、この推定は、分布特性値としての標準偏差を用いているが、輝度値分布の分散に基づいて、検査部位の疾患を、推定してもよい。
さらになお、上述した実施の形態では、本実施の形態の画像解析装置の適用対象として、小腸絨毛あるいは胃粘膜が例として説明されているが、本実施の形態の画像解析装置は、小腸絨毛及び胃粘膜以外にも、食道、大腸などの他の臓器の疾患候補の抽出にも適用可能である。
さらになお、上述した実施の形態では、本実施の形態の画像解析装置の適用対象として、小腸絨毛あるいは胃粘膜が例として説明されているが、本実施の形態の画像解析装置は、小腸絨毛及び胃粘膜以外にも、食道、大腸などの他の臓器の疾患候補の抽出にも適用可能である。
例えば、小腸であれば、小腸腫瘍、クローン病、原因不明の消化管出血などの疾患候補の抽出に、大腸であれば、潰瘍性大腸炎、大腸癌、クローン病などの疾患候補の抽出に、食道であれば、慢性胃炎、胃潰瘍、急性胃炎などの疾患候補の抽出に、本実施の形態の画像解析装置は、適用可能である。
さらに、疾患候補の抽出だけでなく、診断における状態の判定にも、本実施の形態の画像解析装置は、適用可能である。
例えば、小腸であれば、バイエル板の変化、大腸であれば、ピットパターンの診断、胃であれば、ヘリコバクターピロリ菌の有無、食道であれば、バレット食道の状態、等の診断にも利用することができる。
例えば、小腸であれば、バイエル板の変化、大腸であれば、ピットパターンの診断、胃であれば、ヘリコバクターピロリ菌の有無、食道であれば、バレット食道の状態、等の診断にも利用することができる。
また、被検体に所定の負荷(所定の作用)を与え、当該負荷(作用)を与える前後にまたがって内視鏡2において被検体の画像を経時的に取得するようにして、負荷(作用)を与えた後の内視鏡画像に基づいて、あるいは負荷(作用)を与えた前後の内視鏡画像に基づいて、疾患候補の抽出を行うようにしてもよい。
ここで、上述した被検体に与える“所定の作用”とは、例えば、被検体に対する薬液の投与である。“薬液”とは、例えば、生理食塩水、ブドウ糖、液状の脂肪(脂肪乳剤等)を指し、具体的な負荷(作用)の一例としては、ブドウ糖の散布である。
また、前記“所定の作用”とは、上述した薬液の投与に限らず、静脈注射、体腔内への送気、または、物理的に処置具もしくは内視鏡自体を体内に接触させる等の作用であってもよい。
また、前記“所定の作用”とは、上述した薬液の投与に限らず、静脈注射、体腔内への送気、または、物理的に処置具もしくは内視鏡自体を体内に接触させる等の作用であってもよい。
上述した実施の形態によれば、照明の配光特性、あるいは挿入部の先端部から観察対象までの距離等による画像の明るさ分布の影響を有しない画像を用いて、被検体の色成分の輝度値分布を得ることができる。
特に、被検体が固定されていないような場合、あるいは拡大観察モード時のように被検体と挿入部の先端部間の距離変化し易い場合であっても、照明の配光特性等による画像の明るさ分布の影響を有しない画像を用いて、被検体の色成分の輝度値分布を得ることができる。
なお、上述した例では、構造化要素は画像に基づいてリアルタイムで決定しているが、ユーザが画像を見て、挿入部の先端部から被写体までの距離を入力あるいは選択することによって、距離に応じた構造化要素が用いられるようにしてもよい。
さらになお、上述した実施の形態の画像解析装置は、NBIモードと通常光観察モードを有しているが、これらのモード以外のモード、例えば、蛍光観察、赤外光観察などの他の特殊光観察モードにおいて得られた被検体の内視鏡画像にも、上述した実施の形態は適用可能である。
次に、上述した実施の形態の変形例について説明する。
(変形例1)
上述した実施の形態では、テンプレート情報である疾患情報は、記録部37に予め記録されているが、記録部37に疾患情報を追加できるようにしてもよい。
上述した実施の形態では、テンプレート情報である疾患情報は、記録部37に予め記録されているが、記録部37に疾患情報を追加できるようにしてもよい。
図32は、変形例1に係わる記録部の構成を示すブロック図である。
変形例1に係わる記録部37Aは、記録部37に加えて、疾患情報入力部91と選別部92を含む。
変形例1に係わる記録部37Aは、記録部37に加えて、疾患情報入力部91と選別部92を含む。
記録部37には、各種疾患情報が、予め記録されているが、疾患情報を追加することによって、推定対象疾患の数を増やしたり、同じ疾患について複数の情報を利用したりして、疾患推定の精度を向上させたい場合もある。そこで、本変形例1では、記録部37には、テンプレート情報が追加できるようになっている。
疾患情報入力部91は、疾患情報DIを入力する入力部である。疾患情報入力部91への疾患情報DI の入力は、ネットワークからあるいは可搬型の記録媒体から、自動あるいは手動により行われる。
選別部92は、入力された疾患情報DIの中から、ユーザが、テンプレート情報として記録部37に登録する疾患情報DIを選別する処理を行う。
テンプレート情報として記録部37に登録する疾患情報DIを選別は、ユーザの指示ISにより行われ、テンプレート情報が記録部37に追加登録される。登録対象として選別された疾患情報は、小腸、胃、大腸などの部位を特定する部位情報及び内視鏡画像を含み、内視鏡画像の各色成分の輝度値から算出された輝度値分布の分布特性値も併せて登録される。
テンプレート情報として記録部37に登録する疾患情報DIを選別は、ユーザの指示ISにより行われ、テンプレート情報が記録部37に追加登録される。登録対象として選別された疾患情報は、小腸、胃、大腸などの部位を特定する部位情報及び内視鏡画像を含み、内視鏡画像の各色成分の輝度値から算出された輝度値分布の分布特性値も併せて登録される。
このような記録部37Aを用いることによって、テンプレート情報を増やして、より疾患推定の精度向上を図ることができる。
(変形例2)
上述した実施の形態では、記録部37には、疾患毎に、分布特性値として、標準偏差あるいは分散のデータが記録され、その記録された分布特性値に基づいて、疾患候補が抽出されているが、分布特性値に加えて、疾患毎の輝度値分布の波形データも記録し、波形の一致度あるいは類似度の情報も考慮して、疾患候補を抽出するようにしてもよい。すなわち、輝度値分布の波形データに基づいて、波形の形状から疾患推定を行うようにしてもよい。
上述した実施の形態では、記録部37には、疾患毎に、分布特性値として、標準偏差あるいは分散のデータが記録され、その記録された分布特性値に基づいて、疾患候補が抽出されているが、分布特性値に加えて、疾患毎の輝度値分布の波形データも記録し、波形の一致度あるいは類似度の情報も考慮して、疾患候補を抽出するようにしてもよい。すなわち、輝度値分布の波形データに基づいて、波形の形状から疾患推定を行うようにしてもよい。
図33及び図34は、変形例2に係わる、ある色成分の輝度値分布の波形データの例を示すグラフである。図33及び図34は、横軸に、補正後画像APの解析対象領域AAにおける輝度値を、縦軸に、当該輝度値に対応する画素数を示したヒストグラムである。
輝度値分布の波形中のある範囲における波形の形状に基づいて、疾患推定を行いたい場合がある。そのような場合、ステップS25及びS28において、検索条件としての、波形中の範囲及び波形の形状パラメータの指定を、ユーザが行う。
例えば、図33の場合、ユーザは、波形中の範囲として、画素数がLL1からLL2の範囲RRを指定し、形状パラメータとして、指定された範囲RR内における波形の傾きθ1とθ2を指定する。傾きθ1とθ2は、それぞれ、範囲RR内における波形曲線の近似直線EL1とEL2の傾きである。
テンプレート情報中には、疾患画像の波形データも記憶されている。ステップS25では、ユーザにより指定された波形データにおける範囲RRと傾きθ1、θ2について、補正後画像APの波形データとテンプレート情報中の波形データとを比較して、波形の傾きθ1とθ2の一致度を算出し、分布特性値に、輝度値分布の波形の形状の一致度あるいは類似度も加味して、疾患候補を抽出する。
例えば、図34の場合、ユーザは、波形の形状の一致度を判定する範囲として、所定の間隔DRを有する曲線DC1とDC2を指定する。
例えば、図34の場合、ユーザは、波形の形状の一致度を判定する範囲として、所定の間隔DRを有する曲線DC1とDC2を指定する。
ステップS25では、ユーザにより指定された波形データにおける曲線DC1とDC2により規定される範囲について、補正後画像APの波形データとテンプレート情報中の波形データとを比較して、波形の一致度を算出し、分布特性値に、輝度値分布の波形の形状の一致度あるいは類似度も加味して、疾患候補を抽出する。波形の一致度は、例えばパターンマッチングなどを用いて算出される。
図33では、ユーザは、範囲RRの設定を変更可能であり、図34では、間隔DR、及び曲線DC1,DC2の形状を変更可能である。
よって、ユーザは、波形形状も加味した疾患候補の情報を得て、疾患の診断を行うことができる。
(変形例3)
ユーザが疾患を予め想定できるとき、画像解析装置は、その想定した疾患に応じた観察モードを自動的に選択して内視鏡画像を取得し、その取得した内視鏡画像から上述した分布特性値を算出し、想定した疾患の画像における分布特性値との一致度を算出するようにしてもよい。
ユーザが疾患を予め想定できるとき、画像解析装置は、その想定した疾患に応じた観察モードを自動的に選択して内視鏡画像を取得し、その取得した内視鏡画像から上述した分布特性値を算出し、想定した疾患の画像における分布特性値との一致度を算出するようにしてもよい。
図35は、本変形例3に係わる内視鏡画像の取得から疾患情報の提示までの処理を示すフローチャートの一部である。図35は、上述した図8と図9に示す処理を含む。
ユーザが、操作パネル等の入力装置(図示せず)を用いて、想定した疾患名をビデオプロセッサ3に入力すると、情報制御部38は、ユーザにより想定された疾患名の情報を取得する(ステップS61)。
ユーザが、操作パネル等の入力装置(図示せず)を用いて、想定した疾患名をビデオプロセッサ3に入力すると、情報制御部38は、ユーザにより想定された疾患名の情報を取得する(ステップS61)。
記録部37などには、複数の疾患名の情報と、各疾患の診断に適した観察モードの情報が、予め登録されている。
制御部31は、入力された想定される疾患名に基づいて、その疾患の観察に適した観察モードを選択し(ステップS62)、内視鏡システム1を選択された観察モードで動作させる(ステップS63)。その結果、内視鏡システムは、選択された観察モードで動作する。
制御部31は、入力された想定される疾患名に基づいて、その疾患の観察に適した観察モードを選択し(ステップS62)、内視鏡システム1を選択された観察モードで動作させる(ステップS63)。その結果、内視鏡システムは、選択された観察モードで動作する。
ステップS63の後は、図8のステップS11の処理に移行する。ステップS11移行後の処理については、説明は省略するが、ステップS25では、入力された疾患名に対応するテンプレート情報に基づいて疾患候補が抽出される。
結果として、疾患候補の抽出の精度が向上する。
(変形例4)
上述した実施の形態では、設定された観察モード、上記の例ではNBIのときの内視鏡画像を用いて、疾患候補が抽出されているが、複数の観察モードで得られた複数の疾患候補から、疾患候補を出力するようにしてもよい。
上述した実施の形態では、設定された観察モード、上記の例ではNBIのときの内視鏡画像を用いて、疾患候補が抽出されているが、複数の観察モードで得られた複数の疾患候補から、疾患候補を出力するようにしてもよい。
例えば、ある部位の通常光観察モードにおける内視鏡画像から推定した1又は2以上の疾患と、その部位についてNBIモードにおける内視鏡画像から推定した1又は2以上の疾患との中から、一致度の高い順に疾患候補をユーザに提示したり、あるいはそれぞれのモードで得られた最も一致度の高い疾患候補をユーザに提示するようにしてもよい。
(変形例5)
上述した実施の形態では、補正前画像取得部51は、内視鏡2で得られた画像を補正前画像BPとして取得し、補正前画像BPは、構造化要素指定部52と補正用画像作成部53へそのまま供給されている。これに対して、本変形例5の信号生成部33は、内視鏡2で得られた画像を補正前画像BPに対して、シミュレーションにより得られたあるいは実機で得られた配光特性による輝度ムラを補正し、補正された補正前画像BPPを、構造化要素指定部52と補正用画像作成部53へ供給するように構成されている。
上述した実施の形態では、補正前画像取得部51は、内視鏡2で得られた画像を補正前画像BPとして取得し、補正前画像BPは、構造化要素指定部52と補正用画像作成部53へそのまま供給されている。これに対して、本変形例5の信号生成部33は、内視鏡2で得られた画像を補正前画像BPに対して、シミュレーションにより得られたあるいは実機で得られた配光特性による輝度ムラを補正し、補正された補正前画像BPPを、構造化要素指定部52と補正用画像作成部53へ供給するように構成されている。
以下、変形例5に関わる構成のみについて説明する。
図36は、本変形例5に係わる信号生成部33Aのブロック図である。補正前画像取得部51において取得された補正前画像BPは、配光特性による輝度ムラを補正する輝度ムラ補正部51Aに入力される。輝度ムラ補正部51Aには、輝度ムラデータBUと、補正前画像取得部51からの補正前画像BPが入力され、補正前画像BPは、輝度ムラデータBUに基づいて、照明光の配光特性による輝度ムラを抑制するように補正され、輝度ムラのない補正前画像BPPが生成される。
図36は、本変形例5に係わる信号生成部33Aのブロック図である。補正前画像取得部51において取得された補正前画像BPは、配光特性による輝度ムラを補正する輝度ムラ補正部51Aに入力される。輝度ムラ補正部51Aには、輝度ムラデータBUと、補正前画像取得部51からの補正前画像BPが入力され、補正前画像BPは、輝度ムラデータBUに基づいて、照明光の配光特性による輝度ムラを抑制するように補正され、輝度ムラのない補正前画像BPPが生成される。
輝度ムラ補正部51Aは、画像入力部32に入力された内視鏡画像IMGに対して、シミュレーション又は実測により得られた照明光の配光特性による輝度ムラをなくすための補正を行う処理部である。
図37は、輝度ムラのない補正前画像BPPの生成処理を説明するための図である。図37に示すように、補正前画像BPは、元々配光特性による輝度ムラを有している。図37では、補正前画像BPは、右上が暗くなるような輝度ムラを有している。輝度ムラ補正部51Aは、輝度ムラデータBUを用いて、輝度ムラが無くなるように補正前画像BPを補正して、輝度ムラのない補正前画像BPPを生成する。すなわち、信号生成部33Aは、輝度ムラ補正部51Aにより輝度ムラが補正された内視鏡画像IMGを用いて、明るさ分布補正データである補正用画像CPを作成する。
輝度ムラデータBUは、内視鏡2の挿入部の先端部の照明光学系を通る光の配光シミュレーションにより得られるデータでもよいし、内視鏡2の照明光の配光分布を実際に測定して得られたデータでもよい。
輝度ムラは、被写体と、挿入部の先端部との間の距離に応じて変化するので、その距離毎の輝度ムラデータBUが、シミュレーション演算あるいは実測により設定される。
輝度ムラデータBUは、シミュレーション演算においては、距離毎のシミュレーションにより生成することができる。
輝度ムラデータBUは、シミュレーション演算においては、距離毎のシミュレーションにより生成することができる。
輝度ムラデータBUは、実測の場合は、例えばホワイトバランスキャップを内視鏡2の挿入部の先端部あるいは先端部の近傍に配置して、距離毎に撮像して得られた内視鏡画像から生成することができる。
ユーザは、内視鏡画像を見ながら、被写体(例えば小腸絨毛)の大きさに応じて、すなわち被写体の画像を見て推定した挿入部の先端部から被写体までの距離に応じて、使用する輝度ムラデータBUを選択あるいは指定する。
その結果、輝度ムラ補正部51Aは、選択された輝度ムラデータBUにより、補正前画像BPが元々有する明るさ分布を除去して、輝度ムラのない補正前画像BPPを出力する。
その結果、輝度ムラ補正部51Aは、選択された輝度ムラデータBUにより、補正前画像BPが元々有する明るさ分布を除去して、輝度ムラのない補正前画像BPPを出力する。
本変形例5によれば、輝度ムラのない補正前画像BPPが、構造化要素指定部及び補正用画像作成部53に供給されるので、被検体の色成分の輝度値をより正確に検出することができる。
(変形例6)
上述した実施の形態は、補正前画像BPから構造化要素を用いたオープニング処理などの画像処理を行うことによって、補正用画像CPを作成しているが、本実施の形態は、補正前画像BP上のサンプリング点における複数の画素値に基づいて、補正用画像CPを作成している。
本変形例6の内視鏡システムは、実施の形態の内視鏡システムと略同じ構成を有しているので、同じ構成要素については、同じ符号を用いて、異なる構成要素のみを説明する。
上述した実施の形態は、補正前画像BPから構造化要素を用いたオープニング処理などの画像処理を行うことによって、補正用画像CPを作成しているが、本実施の形態は、補正前画像BP上のサンプリング点における複数の画素値に基づいて、補正用画像CPを作成している。
本変形例6の内視鏡システムは、実施の形態の内視鏡システムと略同じ構成を有しているので、同じ構成要素については、同じ符号を用いて、異なる構成要素のみを説明する。
本変形例6の内視鏡システムは、実施の形態の内視鏡システム1の信号生成部の構成のみが異なっている。
図38は、変形例6の信号生成部33Bのブロック図である。信号生成部33Bは、補正前画像取得部51と、輝度情報取得部52Aと、補正用画像作成部53Aを含んでいる。補正前画像取得部51において取得された補正前画像BPは、輝度情報取得部52Aに入力され、輝度情報取得部52Aは、指定された複数の点SPの輝度情報を取得する。
図38は、変形例6の信号生成部33Bのブロック図である。信号生成部33Bは、補正前画像取得部51と、輝度情報取得部52Aと、補正用画像作成部53Aを含んでいる。補正前画像取得部51において取得された補正前画像BPは、輝度情報取得部52Aに入力され、輝度情報取得部52Aは、指定された複数の点SPの輝度情報を取得する。
図39は、補正前画像BPにおいて指定された3点を説明するための図である。図39は、輝度情報を取得する複数の点SPとして、3点SP1,SP2,SP3が指定された場合を示す。複数の点SPは、ユーザが画面上で指定してもよいし、解析対象領域AA内で予め設定された点でもよい。
信号生成部33Bの補正用画像作成部53Aは、指定された3点SP1,SP2,SP3の輝度値により決定される平面を算出し、算出された平面の傾きの方向と大きさに応じた補正用平面、すなわち補正用画像CPを生成する。すなわち、補正用画像作成部53Aで作成される補正用画像CPは、3点SP1,SP2,SP3の輝度値により決定される平面の傾きによって輝度値分布を規定する画像である。
信号生成部33Bは、内視鏡画像IMG中の複数の点における明るさの差に基づいて明るさ分布補正データから補正用画像CPを作成する。
補正用画像作成部53Aは、内視鏡画像IMGの明るさに全体的な傾きがある明るさ分布を補正して内視鏡画像IMGを構成する色成分への光学的な影響を抑制するための補正用画像CPを、内視鏡画像IMGの3点SP1,SP2,SP3の輝度値を用いて作成する。
補正用画像作成部53Aは、内視鏡画像IMGの明るさに全体的な傾きがある明るさ分布を補正して内視鏡画像IMGを構成する色成分への光学的な影響を抑制するための補正用画像CPを、内視鏡画像IMGの3点SP1,SP2,SP3の輝度値を用いて作成する。
画像処理部34は、補正用画像作成部53Aで作成される補正用画像CPを用いて、内視鏡画像IMGの補正前画像BPから、補正後画像APを作成する。
よって、本変形例6によっても、照明の配光特性等による画像の明るさ分布の影響を有しない補正後画像APを作成することできる。
(変形例7)
上述した実施の形態及び各変形例において、撮像して得られた内視鏡画像は、図22のライブ画像表示部G1に表示され、解析対象領域AAも併せて表示されるが、ユーザの指示に応じて、解析対象領域AA内の画像をカラーマップ表示に変更できるようにしてもよい。
よって、本変形例6によっても、照明の配光特性等による画像の明るさ分布の影響を有しない補正後画像APを作成することできる。
(変形例7)
上述した実施の形態及び各変形例において、撮像して得られた内視鏡画像は、図22のライブ画像表示部G1に表示され、解析対象領域AAも併せて表示されるが、ユーザの指示に応じて、解析対象領域AA内の画像をカラーマップ表示に変更できるようにしてもよい。
図40は、変形例7に係わる、ライブ画像表示部G1の解析対象領域AA内の画像がカラーマップ表示されている例を示す図である。
解析対象領域AAの複数の画素は、各画素の輝度値に応じた色で表示されている。図40では、各画素は、輝度値に応じて指定された色で表示されている。例えば、輝度値が0~100の範囲で、その範囲を6つの範囲に分け、6つの色を、赤、橙、黄、緑、青、群青としたとき、輝度値の最も高い範囲L6の画素は、赤(図40では黒で示している)で表示し、次に輝度値が高い範囲L5の画素は、橙(図40では濃いグレーで示している)で表示される。同様にして、輝度値がL4,L3,L2,L1の画素は、それぞれ、黄、緑、青、群青で表示される。
解析対象領域AAの複数の画素は、各画素の輝度値に応じた色で表示されている。図40では、各画素は、輝度値に応じて指定された色で表示されている。例えば、輝度値が0~100の範囲で、その範囲を6つの範囲に分け、6つの色を、赤、橙、黄、緑、青、群青としたとき、輝度値の最も高い範囲L6の画素は、赤(図40では黒で示している)で表示し、次に輝度値が高い範囲L5の画素は、橙(図40では濃いグレーで示している)で表示される。同様にして、輝度値がL4,L3,L2,L1の画素は、それぞれ、黄、緑、青、群青で表示される。
このようなカラーマップ表示を利用することで、ユーザは、輝度値の高い領域あるいは低い領域を視覚的に簡単に認識することができる。
(変形例8)
上述した実施の形態及び各変形例では、内視鏡観察を行っているときに得られた内視鏡画像についての疾患候補が表示されているが、内視鏡観察を行ったときの画像を記憶装置に記録しておき、検査後に、その記録された画像から選択された内視鏡画像IMGに対して、疾患候補が表示されるようにしてもよい。言い換えれば、被検体の画像の色成分の検出を、いわゆるオンラインで被検体の検査中にリアルタイムで行ってもよいし、検査後にオフラインで行ってもよい。
上述した実施の形態及び各変形例では、内視鏡観察を行っているときに得られた内視鏡画像についての疾患候補が表示されているが、内視鏡観察を行ったときの画像を記憶装置に記録しておき、検査後に、その記録された画像から選択された内視鏡画像IMGに対して、疾患候補が表示されるようにしてもよい。言い換えれば、被検体の画像の色成分の検出を、いわゆるオンラインで被検体の検査中にリアルタイムで行ってもよいし、検査後にオフラインで行ってもよい。
以上のように、上述した実施の形態及び各変形例によれば、内視鏡画像における輝度ムラの影響を抑制しつつ、得られた色の情報を含む医用画像と類似する画像を精度よく検索できる画像解析装置、画像解析システム、及び画像解析装置の作動方法を提供することができる。
本明細書における各「部」は、実施の形態の各機能に対応する概念的なもので、必ずしも特定のハードウエアやソフトウエア・ルーチンに1対1には対応しない。従って、本明細書では、以下、実施の形態の各機能を有する仮想的回路ブロック(部)を想定して実施の形態を説明した。また、本実施の形態における各手順の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。さらに、本実施の形態における各手順の各ステップの全てあるいは一部をハードウエアにより実現してもよい。
なお、以上説明した動作を実行するプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等の可搬媒体や、ハードディスク等の記憶媒体に、その全体あるいは一部が記録され、あるいは記憶されている。そのプログラムがコンピュータにより読み取られて、動作の全部あるいは一部が実行される。あるいは、そのプログラムの全体あるいは一部を通信ネットワークを介して流通または提供することができる。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本発明の内視鏡システムを実現することができる。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
本出願は、2016年5月18日に日本国に出願された特願2016-99750号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。
Claims (15)
- 被検体内に挿入した内視鏡により取得された前記被検体の内視鏡画像が入力される画像入力部と、
前記被検体の前記内視鏡画像の明るさ分布が略均一になるように前記内視鏡画像を補正した明るさ補正画像を生成する画像処理部と、
前記明るさ補正画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求める分布特性値算出部と、
複数の分布特性値を含む情報を記録する記録部と、
前記記録部に記録された前記複数の分布特性値と前記分布特性値算出部により求めた前記分布特性値との比較を行い、前記比較の結果から前記被検体の状態に関する情報を出力する比較情報出力部と、
を具備したことを特徴とする画像解析装置。 - 前記分布特性値に係わる前記色成分は選択可能であることを特徴とする請求項1に記載の画像解析装置。
- 前記記録部に記録された前記複数の分布特性値の各々は、疾患画像の明るさ分布が略均一になるように前記疾患画像を補正した前記明るさ補正画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の前記分布特性値であることを特徴とする請求項1に記載の画像解析装置。
- 前記比較情報出力部は、前記記録部に記録された前記複数の分布特性値の情報における赤色成分、緑色成分、及び青色成分と、前記明るさ補正画像における赤色成分、緑色成分、及び青色成分とをそれぞれ比較することを特徴とする請求項1に記載の画像解析装置。
- 前記記録部は、前記複数の疾患画像の前記複数の分布特性値と共に、前記疾患画像における赤色成分、緑色成分、及び青色成分の輝度値分布の情報を、テンプレート情報として含むことを特徴とする請求項1に記載の画像解析装置。
- 前記記録部は、複数の疾患の情報を含むことを特徴とする請求項1に記載の画像解析装置。
- 前記テンプレート情報は、前記疾患画像の情報もさらに含むことを特徴とする請求項6に記載の画像解析装置。
- 前記画像入力部から入力された前記内視鏡画像中の所定の領域を解析対象領域として定める領域抽出部を有し、
前記明るさ補正画像は、前記領域抽出部により定められた前記所定の領域の補正画像であることを特徴とする請求項1に記載の画像解析装置。 - 前記内視鏡は、前記被検体を白色光または白色光より狭い帯域の狭帯域光で照明する照明部を有し、
前記被検体を前記狭帯域光で照明したとき、前記分布特性値算出部は、前記明るさ補正画像における少なくとも緑色成分及び青色成分をそれぞれ抽出して、色成分毎の前記分布特性値を求めることを特徴とする請求項1に記載の画像解析装置。 - 前記比較情報出力部は、前記記録部の前記複数の分布特性値と前記分布特性値算出部により求めた前記分布特性値との一致度の情報を出力することを特徴とする請求項1に記載の画像解析装置。
- 前記比較情報出力部は、前記分布特性値算出部により求めた前記分布特性値に係わる色成分の分布を示すグラフと共に、前記一致度の情報を表示装置に表示するように出力することを特徴とする請求項10に記載の画像解析装置。
- 前記比較情報出力部は、前記表示装置に、前記一致度の情報に係わる疾患画像を前記表示装置に表示するように出力することを特徴とする請求項11に記載の画像解析装置。
- 前記分布特性値は、前記明るさ補正画像の色成分の輝度値分布の標準偏差または分散であることを特徴とする請求項1に記載の画像解析装置。
- 請求項1に記載の内視鏡と、
請求項1に記載の画像解析装置と、
を備えたことを特徴とする画像解析システム。 - 画像入力部と、画像処理部と、分布特性値算出部と、比較情報出力部とを具備する画像解析装置の作動方法であって、
前記画像入力部において、被検体内に挿入した内視鏡により取得された前記被検体の内視鏡画像を入力し、
前記画像処理部において、前記被検体の前記内視鏡画像の明るさ分布が略均一になるように前記内視鏡画像を補正した明るさ補正画像を生成し、
前記分布特性値算出部により、前記処理画像における赤色成分、緑色成分、及び青色成分の少なくとも1つを抽出して、抽出した色成分の分布特性値を求め、
前記比較情報出力部において、複数の分布特性値を記録する記録部の前記複数の分布特性値と前記分布特性値算出部により求めた前記分布特性値との比較を行い、前記比較の結果から前記被検体の状態に関する情報を出力することを特徴とする画像解析装置の作動方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017561981A JP6368870B2 (ja) | 2016-05-18 | 2017-04-07 | 画像解析装置、画像解析システム、及び画像解析装置の作動方法 |
US16/191,707 US20190122392A1 (en) | 2016-05-18 | 2018-11-15 | Image analyzing apparatus, image analyzing system, and method of operating image analyzing apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016099750 | 2016-05-18 | ||
JP2016-099750 | 2016-05-18 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/191,707 Continuation US20190122392A1 (en) | 2016-05-18 | 2018-11-15 | Image analyzing apparatus, image analyzing system, and method of operating image analyzing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017199635A1 true WO2017199635A1 (ja) | 2017-11-23 |
Family
ID=60325217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/014572 WO2017199635A1 (ja) | 2016-05-18 | 2017-04-07 | 画像解析装置、画像解析システム、及び画像解析装置の作動方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190122392A1 (ja) |
JP (1) | JP6368870B2 (ja) |
WO (1) | WO2017199635A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142243A1 (ja) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | 画像診断支援システムおよび画像診断支援方法 |
JP2020054444A (ja) * | 2018-09-28 | 2020-04-09 | 株式会社Nttドコモ | 口腔癌診断システム及び口腔癌診断プログラム |
WO2020090002A1 (ja) * | 2018-10-30 | 2020-05-07 | オリンパス株式会社 | 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法 |
WO2021005733A1 (ja) * | 2019-07-10 | 2021-01-14 | サイバネットシステム株式会社 | 画像解析装置及び画像解析方法 |
WO2023026538A1 (ja) * | 2021-08-27 | 2023-03-02 | ソニーグループ株式会社 | 医療支援システム、医療支援方法及び評価支援装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6935790B2 (ja) * | 2018-10-15 | 2021-09-15 | 株式会社Sumco | 石英るつぼ内周面の評価方法及び石英るつぼ内周面の評価装置 |
CN111598908A (zh) * | 2020-04-24 | 2020-08-28 | 山东易华录信息技术有限公司 | 一种图像分析筛选系统及装置 |
CN113129392B (zh) * | 2021-05-17 | 2022-07-26 | 杭州万事利丝绸文化股份有限公司 | 一种颜色搭配方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061638A (ja) * | 2006-09-29 | 2007-03-15 | Olympus Corp | 診断支援装置及び診断支援方法 |
JP2010227255A (ja) * | 2009-03-26 | 2010-10-14 | Olympus Corp | 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法 |
WO2014073527A1 (ja) * | 2012-11-07 | 2014-05-15 | オリンパスメディカルシステムズ株式会社 | 医療用画像処理装置 |
JP2014161355A (ja) * | 2013-02-21 | 2014-09-08 | Olympus Corp | 画像処理装置、内視鏡装置、画像処理方法及びプログラム |
WO2016175098A1 (ja) * | 2015-04-27 | 2016-11-03 | オリンパス株式会社 | 画像解析装置、画像解析システム、画像解析装置の作動方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7761240B2 (en) * | 2004-08-11 | 2010-07-20 | Aureon Laboratories, Inc. | Systems and methods for automated diagnosis and grading of tissue images |
GB2525588A (en) * | 2014-04-22 | 2015-11-04 | Biosignatures Ltd | Real-time endoscopic image enhancement |
US10839510B2 (en) * | 2015-08-19 | 2020-11-17 | Colorado Seminary, Which Owns And Operates The University Of Denver | Methods and systems for human tissue analysis using shearlet transforms |
-
2017
- 2017-04-07 WO PCT/JP2017/014572 patent/WO2017199635A1/ja active Application Filing
- 2017-04-07 JP JP2017561981A patent/JP6368870B2/ja active Active
-
2018
- 2018-11-15 US US16/191,707 patent/US20190122392A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061638A (ja) * | 2006-09-29 | 2007-03-15 | Olympus Corp | 診断支援装置及び診断支援方法 |
JP2010227255A (ja) * | 2009-03-26 | 2010-10-14 | Olympus Corp | 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法 |
WO2014073527A1 (ja) * | 2012-11-07 | 2014-05-15 | オリンパスメディカルシステムズ株式会社 | 医療用画像処理装置 |
JP2014161355A (ja) * | 2013-02-21 | 2014-09-08 | Olympus Corp | 画像処理装置、内視鏡装置、画像処理方法及びプログラム |
WO2016175098A1 (ja) * | 2015-04-27 | 2016-11-03 | オリンパス株式会社 | 画像解析装置、画像解析システム、画像解析装置の作動方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142243A1 (ja) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | 画像診断支援システムおよび画像診断支援方法 |
JP2020054444A (ja) * | 2018-09-28 | 2020-04-09 | 株式会社Nttドコモ | 口腔癌診断システム及び口腔癌診断プログラム |
JP7067743B2 (ja) | 2018-09-28 | 2022-05-16 | 株式会社Nttドコモ | 口腔癌診断システム及び口腔癌診断プログラム |
WO2020090002A1 (ja) * | 2018-10-30 | 2020-05-07 | オリンパス株式会社 | 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法 |
CN112969402A (zh) * | 2018-10-30 | 2021-06-15 | 奥林巴斯株式会社 | 内窥镜系统以及用于内窥镜系统的图像处理装置和图像处理方法 |
JPWO2020090002A1 (ja) * | 2018-10-30 | 2021-09-30 | オリンパス株式会社 | 内視鏡システム及び内視鏡システムに用いる画像処理装置及び画像処理方法 |
JP7138719B2 (ja) | 2018-10-30 | 2022-09-16 | オリンパス株式会社 | 内視鏡システムに用いる画像処理装置、内視鏡システム及び内視鏡システムの作動方法 |
WO2021005733A1 (ja) * | 2019-07-10 | 2021-01-14 | サイバネットシステム株式会社 | 画像解析装置及び画像解析方法 |
WO2023026538A1 (ja) * | 2021-08-27 | 2023-03-02 | ソニーグループ株式会社 | 医療支援システム、医療支援方法及び評価支援装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017199635A1 (ja) | 2018-05-31 |
JP6368870B2 (ja) | 2018-08-01 |
US20190122392A1 (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6368870B2 (ja) | 画像解析装置、画像解析システム、及び画像解析装置の作動方法 | |
US11734820B2 (en) | Medical image processing device, medical image processing method, and medical image processing program | |
CN110325100B (zh) | 内窥镜系统及其操作方法 | |
US9445713B2 (en) | Apparatuses and methods for mobile imaging and analysis | |
JP6234648B1 (ja) | 画像解析装置、画像解析システム、及び画像解析装置の作動方法 | |
JP6920931B2 (ja) | 医療画像処理装置、内視鏡装置、診断支援装置、及び、医療業務支援装置 | |
US11910994B2 (en) | Medical image processing apparatus, medical image processing method, program, diagnosis supporting apparatus, and endoscope system | |
US20210153730A1 (en) | Endoscope system | |
US11449988B2 (en) | Medical image processing apparatus | |
JP7050817B2 (ja) | 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム | |
US20210145248A1 (en) | Endoscope apparatus, operating method of endoscope apparatus, and information storage medium | |
EP4091532A1 (en) | Medical image processing device, endoscope system, diagnosis assistance method, and program | |
JP2023014380A (ja) | 内視鏡システム | |
WO2020054543A1 (ja) | 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム | |
JPWO2019220916A1 (ja) | 医療画像処理装置、医療画像処理方法及び内視鏡システム | |
WO2020188682A1 (ja) | 診断支援装置、診断支援方法及びプログラム | |
WO2020184257A1 (ja) | 医用画像処理装置及び方法 | |
JP6785990B2 (ja) | 医療画像処理装置、及び、内視鏡装置 | |
CN116745861A (zh) | 通过实时影像获得的病变判断系统的控制方法、装置及程序 | |
JP7289241B2 (ja) | ファイリング装置、ファイリング方法及びプログラム | |
US20220222840A1 (en) | Control device, image processing method, and storage medium | |
US11978209B2 (en) | Endoscope system, medical image processing device, and operation method therefor | |
JP6866497B2 (ja) | 医療画像処理装置、及び、内視鏡装置 | |
US20230410304A1 (en) | Medical image processing apparatus, medical image processing method, and program | |
EP4356814A1 (en) | Medical image processing device, medical image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2017561981 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17799067 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17799067 Country of ref document: EP Kind code of ref document: A1 |