JP2016158682A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2016158682A
JP2016158682A JP2015037540A JP2015037540A JP2016158682A JP 2016158682 A JP2016158682 A JP 2016158682A JP 2015037540 A JP2015037540 A JP 2015037540A JP 2015037540 A JP2015037540 A JP 2015037540A JP 2016158682 A JP2016158682 A JP 2016158682A
Authority
JP
Japan
Prior art keywords
image
image data
luminance
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015037540A
Other languages
English (en)
Inventor
洋祐 池本
Yosuke Ikemoto
洋祐 池本
水口 直志
Naoshi Mizuguchi
直志 水口
敦 小師
Atsushi Koshi
敦 小師
俊雄 橘
Toshio Tachibana
俊雄 橘
太田 紀子
Noriko Ota
紀子 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2015037540A priority Critical patent/JP2016158682A/ja
Priority to CN201680000509.3A priority patent/CN106102556B/zh
Priority to US15/106,968 priority patent/US20180153384A1/en
Priority to EP16728211.0A priority patent/EP3263011A1/en
Priority to PCT/JP2016/055150 priority patent/WO2016136700A1/ja
Publication of JP2016158682A publication Critical patent/JP2016158682A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

【課題】内視鏡画像に付される病変部を示す印と内視鏡画像との位置ずれを防止する画像処理装置を提供する。【解決手段】生体組織を撮影した複数の画像データからなるカラー動画像データを取得する画像データ取得手段と、カラー動画像データに基づいて撮影シーンを判定するシーン判定手段と、画像データに基づいて、画像データが表す画像に写された生体組織の病変の重症度を示すスコアを画素毎に計算するスコア計算手段と、スコアの分布を示す印を画像上に付すマーキング手段と、を備え、マーキング手段が、スコアの分布を詳細に示す印を付す詳細マーキング処理と、スコアの分布を詳細マーキング処理よりも簡易的に示す印を付す簡易マーキング処理と、とを実行可能であり、撮影シーンの判定結果に応じて、詳細マーキング処理と簡易マーキング処理のいずれかを実行する。【選択図】図4

Description

本発明は、生体組織の画像を処理する画像処理装置に関する。
一般に、生体組織の病変部は正常な部位とは異なる色を呈する。カラー内視鏡装置の性能向上により、正常組織とわずかに色の異なる病変部の識別も可能になってきている。しかしながら、術者が内視鏡画像上のわずかな色の相違により正常組織から病変部を正確に識別できるようになるには、熟練者の指導下で長期間のトレーニングを受ける必要があった。また、熟練した術者であっても、わずかな色の違いから病変部を識別することは容易ではなく、慎重な作業が要求された。
そこで、病変部の識別を容易にするために、白色光の照明下で撮影した内視鏡画像データに対して、色情報に基づいて被写体が病変部か否かを判定し、病変部と判定された箇所の画素の色を変更するカラーマッピング処理を行う電子内視鏡装置が提案されている。
特開2014−18332号公報
特許文献1の電子内視鏡装置では、全ての画素に対してカラーマッピング処理が行われるため、カラーマッピング処理に必要な計算量が非常に多い。そのため、スクリーニング検査時等の画像の動きが速いときには、カラーマッピング処理が遅くなり、内視鏡画像が撮影されるフレームレートに追従できなくなる。その結果、カラーマッピングが、その基となった内視鏡画像の後に撮影された別の内視鏡画像に対して施されることになるため、内視鏡画像とカラーマッピングとの間に位置ずれが生じるという問題があった。
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、内視鏡画像に付される病変部を示す印と内視鏡画像との位置ずれを防止することである。
本発明の一実施形態によれば、生体組織を撮影した複数の画像データからなるカラー動画像データを取得する画像データ取得手段と、カラー動画像データに基づいて撮影シーンを判定するシーン判定手段と、画像データに基づいて、画像データが表す画像に写された生体組織の病変の重症度を示すスコアを画素毎に計算するスコア計算手段と、スコアの分布を示す印を画像上に付すマーキング手段と、を備え、マーキング手段が、スコアの分布を詳細に示す印を付す詳細マーキング処理と、スコアの分布を詳細マーキング処理よりも簡易的に示す印を付す簡易マーキング処理と、を実行可能であり、撮影シーンの判定結果に応じて、詳細マーキング処理と簡易マーキング処理のいずれかを実行する、画像処理装置が提供される。
また、上記の画像処理装置において、シーン判定手段が、カラー動画像データに撮影された画像検査の種類を判定する構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、スクリーニング検査と精査のいずれの撮影シーンであるかを判定し、マーキング手段が、スクリーニング検査の撮影シーンと判定されたときに、簡易マーキング処理を行い、精査の撮影シーンと判定されたときに、詳細マーキング処理を行う構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、画像の動きの解析を行う動画解析手段を備えた構成としてもよい。
また、上記の画像処理装置において、動画解析手段が、連続する複数の画像データに基づいて速度場を計算する速度場計算手段を備え、速度場の計算結果に基づいて、画像検査の種類を判定する構成としてもよい。
また、上記の画像処理装置において、動画解析手段が、速度場を構成する各画素の速度ベクトルの大きさの代表値を計算して画像速度として取得する画像速度計算手段を備えた構成としてもよい。
また、上記の画像処理装置において、動画解析手段が、画像速度の単位時間当たりの変化量である画像速度変化率を計算する画像速度変化率計算手段を備えた構成としてもよい。
また、上記の画像処理装置において、動画解析手段が、画像データの解像度を低減する低解像度化手段を備えた構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、画像データの輝度を画素値とする輝度画像データを生成する輝度画像データ生成手段を備えた構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、
輝度画像データにより表される輝度画像を単純化する画像単純化手段を備えた構成としてもよい。
また、上記の画像処理装置において、画像単純化手段が、輝度画像を低解像度化する低解像度化手段と、低解像度化された輝度画像に対してぼかし処理を施すぼかし手段と、ぼかし処理された輝度画像を元の解像度に戻す高解像度化手段と、を備えた構成としてもよい。
また、上記の画像処理装置において、画像単純化手段が、輝度画像データの階調を低減させる低階調化手段を備えた構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、輝度画像に基づいて輝度の等高線を表す等高線画像データを生成する等高線画像データ生成手段を備えた構成としてもよい。
また、上記の画像処理装置において、等高線画像データ生成手段が、輝度画像の勾配を計算するベクトル微分演算手段を備えた構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、等高線の密集度を計算する等高線密集度計算手段を備え、等高線の密集度に基づいて撮影シーンを判定する構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、画像内の輝度勾配を計算する輝度勾配計算手段を備え、輝度勾配に基づいて撮影シーンを判定する構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、画像の低輝度領域の円形度を計算する円形度計算手段を備え、円形度に基づいて撮影シーンを判定する構成としてもよい。
また、上記の画像処理装置において、シーン判定手段が、画像の低輝度領域の重心を計算する重心計算手段を備え、重心に基づいて撮影シーンを判定する構成としてもよい。
本発明の一実施形態によれば、内視鏡画像に付される病変部を示す印と内視鏡画像との位置ずれが防止される。
本発明の実施形態に係る電子内視鏡装置の概略構成を示すブロック図である。 本発明の実施形態に係る電子内視鏡装置の画像処理に関する回路の概略構成を示したブロック図である。 画像メモリの記憶領域の概略構成を示す図である。 画像処理回路が行う処理の手順を示すフローチャートである。 TE処理に使用されるゲイン曲線の一例である。 有効画素判定処理の手順を示すフローチャートである。 病変判定処理の手順を示すフローチャートである。 生体組織像の画素値をHS座標空間にプロットした散布図である。 スコア計算処理の手順を示すフローチャートである。 色相距離、彩度距離と相関値との関係を示すグラフである。 典型的な内視鏡画像の明暗分布を説明する図である。 シーン判定処理の手順を示すフローチャートである。 動画解析処理の手順を示すフローチャートである。 輝度勾配計算処理の手順を説明するフローチャートである。 輝度勾配計算処理を説明する図である。(a)は輝度画像の一例であり、(b)は輝度指数の勾配の絶対値のグラフの一例であり、(c)は等高線画像の一例である。 検査種別判定処理の手順を示すフローチャートである。 マーキング画像の例を示す図である。 表示画面生成処理によって生成される表示画面の一例である。
以下、本発明の画像処理装置の実施形態について図面を参照しながら説明する。なお、以下においては、本発明の一実施形態として電子内視鏡システムを例に取り説明する。
[電子内視鏡装置1全体の構成]
図1は、本発明の電子内視鏡装置1の構成を示すブロック図である。図1に示されるように、電子内視鏡装置1は、電子スコープ100、プロセッサ200及びモニタ900を備えている。
プロセッサ200は、システムコントローラ202及びタイミングコントローラ204を備えている。システムコントローラ202は、メモリ212に記憶された各種プログラムを実行し、電子内視鏡装置1全体を統合的に制御する。また、システムコントローラ202は、操作パネル214に接続されている。システムコントローラ202は、操作パネル214より入力される術者からの指示に応じて、電子内視鏡装置1の各動作及び各動作のためのパラメーターを変更する。タイミングコントローラ204は、各部の動作のタイミングを調整する同期信号を電子内視鏡装置1内の各回路に出力する。
ランプ208は、ランプ電源イグナイタ206による始動後、照射光Lを射出する。ランプ208は、例えば、キセノンランプ、ハロゲンランプ、水銀ランプ、メタルハライドランプ等の高輝度ランプやLED(Light Emitting Diode)である。照射光Lは、主に可視光領域から不可視である赤外光領域に広がるスペクトルを持つ光(又は少なくとも可視光領域を含む白色光)である。
ランプ208より射出された照射光Lは、集光レンズ210によりLCB(Light Carrying Bundle)102の入射端面に集光されてLCB102内に入射される。
LCB102内に入射された照射光Lは、LCB102内を伝播して電子スコープ100の先端に配置されたLCB102の射出端面より射出され、配光レンズ104を介して被写体に照射される。照射光Lにより照射された被写体からの戻り光は、対物レンズ106を介して固体撮像素子108の受光面上で光学像を結ぶ。
固体撮像素子108は、補色市松色差線順次方式の単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子108は、受光面上で結像した被写体の光学像を撮像して、アナログ撮像信号を出力する。具体的には、固体撮像素子108は、受光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、イエローYe、シアンCy、グリーンG、マゼンタMgの色信号を生成し、生成された垂直方向に隣接する2つの画素の色信号を加算し混合して得た走査線を順次出力する。なお、固体撮像素子108は、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えられてもよい。固体撮像素子108はまた、原色系フィルタ(ベイヤ配列フィルタ)を搭載したものであってもよい。
電子スコープ100の接続部内には、ドライバ信号処理回路110が備えられている。ドライバ信号処理回路110には、上述の走査線からなるアナログ撮像信号がフィールド周期で固体撮像素子108より入力される。なお、以降の説明において「フィールド」は「フレーム」に置き替えてもよい。本実施形態において、フィールド周期、フレーム周期はそれぞれ、1/60秒、1/30秒である。ドライバ信号処理回路110は、固体撮像素子108より入力されるアナログ撮像信号に対して所定の処理を施してプロセッサ200の画像処理回路220に出力する。
ドライバ信号処理回路110はまた、メモリ120にアクセスして電子スコープ100の固有情報を読み出す。メモリ120に記録される電子スコープ100の固有情報には、例えば、固体撮像素子108の画素数や感度、動作可能なフィールドレート、型番等が含まれる。ドライバ信号処理回路110は、メモリ120より読み出された固有情報をシステムコントローラ202に出力する。
システムコントローラ202は、電子スコープ100の固有情報に基づいて各種演算を行い、制御信号を生成する。システムコントローラ202は、生成された制御信号を用いて、プロセッサ200に接続されている電子スコープに適した処理がなされるようにプロセッサ200内の各種回路の動作やタイミングを制御する。
タイミングコントローラ204は、システムコントローラ202によるタイミング制御に従って、同期信号を生成する。ドライバ信号処理回路110は、タイミングコントローラ204から供給される同期信号に従って、プロセッサ200が生成するビデオ信号のフィールドレートに同期したタイミングで固体撮像素子108を駆動制御する。
画像処理回路220は、システムコントローラ202による制御の下、電子スコープ100から出力される撮像信号に基づいて画像データを生成する。また、画像処理回路220は、生成された画像データを使用してモニタ表示用の画面データを生成し、この画面データを所定のビデオ・フォーマットのビデオ信号に変換して出力する。ビデオ信号はモニタ900に入力され、被写体のカラー画像がモニタ900の表示画面に表示される。
図2は、電子内視鏡装置1の画像処理に関する回路の概略構成を示したブロック図である。
ドライバ信号処理回路110は、駆動回路112とAFE(Analog Front End)114を備えている。駆動回路112は、同期信号に基づいて固体撮像素子108の駆動信号を生成する。AFE114は、固体撮像素子108から出力されるアナログ撮像信号に対して、ノイズ除去、信号増幅・ゲイン補正及びA/D変換を行い、デジタル撮像信号を出力する。なお、本実施形態においてAFE114が行う処理の全部又は一部を固体撮像素子108又は画像処理回路220が行う構成としてもよい。
画像処理回路220は、基本処理部220a、出力回路220b、TE(Tone Enhancement:トーン強調)処理部221、有効画素判定部222、色空間変換部223、病変判定部224、スコア計算部225、マーキング処理部226、画像メモリ227、表示画面生成部228、メモリ229及びシーン判定部230を備えている。画像処理回路220の各部が行う処理については後述する。
図3は、画像メモリ227が備える記憶領域の概略構成を示す図である。本実施形態の画像メモリ227には、4つの記憶領域P、P、P、Pが設けられている。記憶領域Pは、基本処理部220aが生成する通常観察画像データN(通常観察画像NPを表す画像データ)を記憶する領域である。なお、記憶領域Pには連続して生成された二以上の通常観察画像データNを記憶させることができる。また、記憶領域Pへのデータの書き込み/読み出しは、先入れ先出し方式(FIFO)により行われる。記憶領域Pは、TE処理部221が生成するトーン強調画像データE(トーン強調画像EPを表す画像データ)を記憶する領域である。記憶領域Pは、マーキング処理部226が生成するカラーマップ画像データCM(カラーマップ画像CMPを表す画像データ)を記憶する領域である。記憶領域Pは、マーキング処理部226が生成するマーキング画像データM(マーキング画像MPを表す画像データ)を記憶する領域である。
また、図2に示されるように、メモリ229には、フラグテーブルFT、スコアテーブルST、色相相関値テーブルHCT及び彩度相関値テーブルSCT及び表示色テーブルDCTが格納される。フラグテーブルFT及びスコアテーブルSTは、それぞれ通常観察画像データNの各画素(x,y)に関する解析結果を示すフラグF(x,y)、スコアSc(x,y)から構成された数値テーブルである。具体的には、フラグF(x,y)は対応する画素(x,y)に写された組織の病変の有無を示すパラメーターであり、スコアSc(x,y)はその病変の重症度を示すパラメーターである。表示色テーブルDCTは、スコアSc(x,y)とカラーマップ画像CMPの表示色(カラーコード)との対応関係を規定する数値テーブルである。色相相関値テーブルHCT及び彩度相関値テーブルSCTについては後述する。
[基本処理S1]
次に、画像処理回路220が行う処理について説明する。
図4は、画像処理回路220が行う処理の手順を示すフローチャートである。AFE114から出力されたデジタル信号は、先ず基本処理部220aによって一般的な信号処理(基本処理S1)が行われて、通常観察画像データNが生成される。
基本処理S1には、AFE114から出力されたデジタル撮像信号を輝度信号Y及び色差信号Cb、Crに変換する処理、輝度信号Y及び色差信号Cb、Crから原色信号R、G、Bを分離する原色分離処理、オフセット成分を除去するクランプ処理、欠陥画素の画素値を周囲の画素の画素値を用いて補正する欠陥補正処理、単色の画素値からなる撮像データ(RAWデータ)をフルカラーの画素値からなる画像データに変換するデモザイク処理(補間処理)、カラーマトリクスを用いて撮像素子の分光特性を補正するリニアマトリクス処理、照明光のスペクトル特性を補正するホワイトバランス処理、空間周波数特性の劣化を補償する輪郭補正等が含まれる。
なお、本実施形態において基本処理部220aが行う処理の全部又は一部をドライバ信号処理回路110又は固体撮像素子108が行う構成としてもよい。
基本処理部220aによって生成された通常観察画像データNは、TE処理部221及びシーン判定部230に入力されると共に、画像メモリ227の記憶領域Pに記憶される。
[動作モード判定処理S2]
次に、画像解析モードに設定されているか否かが判断される(S2)。本発明の実施形態に係る画像解析モードは、画像データの各画素について色情報を解析し、色情報の解析結果から所定の判定基準に基づいて病変部が写された画素(以下「病変画素」という。)であるか否かを判定して、病変画素を識別表示する動作モードである。判定する病変の種類は、検査内容に応じて選択することができる。以下に説明する例は、炎症性腸疾患(IBD)の病変である炎症(浮腫や易出血性を含む赤変病変)の観察像に特有な色域の画素を抽出して、識別表示するものである。
なお、本実施形態の電子内視鏡装置1は、画像解析モードと通常観察モードの2つの動作モードで動作するように構成されている。動作モードは、電子スコープ100の操作部130やプロセッサ200の操作パネル214に対するユーザ操作によって切り換えられる。通常観察モードに設定されている場合は(S2:No)、処理はS12へ進む。
[TE(トーン強調)処理S3]
画像解析モードが選択されている場合は(S2:Yes)、次にTE処理部221によるTE処理S3が行われる。TE処理S3は、病変の判定精度を上げるために、通常観察画像データNの各原色信号R,G,Bに対して非線形なゲイン(利得)を与えるゲイン調整を行い、判定対象の病変に特有の色域(特にその境界部)付近におけるダイナミックレンジを実質的に広げて、色表現の実効的な分解能を高める処理である。具体的には、TE処理S3では、各原色信号R,G,Bに対して、図5に示すような非線形のゲインを与えて原色信号R´,G´,B´(トーン強調画像データE)を取得する処理が行われる。例えば、図5のゲイン曲線は、潰瘍に特徴的な色域の境界領域Rから、炎症に特徴的な色域の境界領域Rにかけて、傾きが急峻になっている。このようなゲイン曲線に従ってゲインを与えることにより、境界領域Rから境界領域Rにかけて原色信号R´(原色信号Rに対してTE処理S3を施した信号)の実質的なダイナミックレンジを広げることができ、より精密な閾値判定が可能になる。
なお、TE処理S3により、炎症部は赤く、潰瘍部は白く、正常部は緑色に色味が変化する。そのため、TE処理S3によって生成されたトーン強調画像データEをモニタ900に表示した場合、TE処理S3前の通常観察画像データNを表示した場合よりも病変部(炎症部や潰瘍部)を容易に視認することができる。なお、上記のTE処理S3は、本発明に適用可能な色彩強調処理の一例であり、TE処理S3に替えて、色の質、具体的には色相又は彩度(あるいは色度)のコントラストを高める他の種類の色彩強調処理を使用してもよい。
[有効画素判定処理S4]
TE処理S3が完了すると、次にトーン強調画像データEに対して有効画素判定部222による有効画素判定処理S4が行われる。なお、TE処理S3を省略して、通常観察画像データNに対して有効画素判定処理S4を行うこともできる。
図6は、有効画素判定処理S4の手順を示すフローチャートである。有効画素判定処理S4は、画素値が画像解析に適したものであるか否かを判定する処理であり、画像データを構成する全ての画素(x,y)について順次行われる。有効画素判定処理S4では、まず各画素(x,y)について、トーン強調画像データEの原色信号R´(x,y),G´(x,y),B´(x,y)から、下記の数式1により補正輝度int(x,y)が計算される(S41)。
なお、計算した補正輝度int(x,y)の値は、次の適正露出判定処理S42に使用される。また、数式1から分かるように、補正輝度int(x,y)は、原色信号R´(x,y),G´(x,y),B´(x,y)の単純平均ではなく、ヒト(術者)の比視感度特性に基づいた加重平均として求められる。
次に、各画素について、処理S41において計算したトーン強調画像データEの補正輝度int(x,y)及び原色信号R´(x,y),G´(x,y),B´(x,y)に基づいて、画像解析に適した露出レベルであるか否かを判定する適正露出判定処理S42が行われる。適正露出判定処理S42では、次の2つの条件(数式2、数式3)の少なくとも一方(或いは、両方)を満たす場合に、適正露出(S42:Yes)と判定する。なお、数式2により補正輝度int(x,y)(全体の光量)の上限値が規定され、数式3により各原色信号R´(x,y),G´(x,y),B´(x,y)の下限値が規定されている。
画素(x,y)について、数式2又は数式3(或いは、数式2及び数式3)を満たし、適正露出と判定されると(S42:Yes)、有効画素判定部222は、メモリ229に格納されているフラグテーブルFTの画素(x,y)に対応するフラグF(x,y)の値を「1」に書き換える(S43)。
なお、フラグF(x,y)は、0〜2のいずれかのフラグ値をとる。各フラグ値の定義は以下の通りである。
0:画素データ無効
1:正常又は未判定(画素データ有効)
2:病変(炎症)
また、適正露出判定処理S42において、数式2、数式3のいずれの条件も(或いは、いずれかの条件を)満たさず、露出不適正と判定されると(S42:No)、有効画素判定部222は、フラグF(x,y)の値を「0」に書き換える(S44)。
次に、処理S45では、全ての画素(x,y)について処理が完了したかどうかが判定される。全ての画素(x,y)の処理が完了するまで、上記の処理S41〜S45が繰り返される。
[色空間変換処理S5]
有効画素判定処理S4が完了すると、次にトーン強調画像データEに対して色空間変換部223により色空間変換処理S5が行われる。色空間変換処理S5は、RGB3原色で定義されるRGB空間の画素値を、色相(Hew)・彩度(Saturation)・輝度(Intensity)の3要素で定義されるHSI(Heu-Saturation-Intensity)空間の画素値に変換する処理である。具体的には、色空間変換処理S5において、トーン強調画像データEの各画素(x,y)の原色信号R´(x,y),G´(x,y),B´(x,y)が、色相H(x,y),彩度S(x,y),輝度I(x,y)に変換される。
また、露出が不足又は過剰な画素のデータは精度が低く、解析結果の信頼度を下げてしまう。そのため、色空間変換処理S5は、フラグF(x,y)の値が「1」に設定された(すなわち、上述の有効画素判定処理S4において適正露出と判定された)画素(x,y)についてのみ行われる。
色空間変換部223によって生成された各画素(x,y)の色相H(x,y)、彩度S(x,y)及び輝度I(x,y)からなる判定用画像データJ{H(x,y),S(x,y),I(x,y)}は、病変判定部224に入力される。
[病変判定処理S6]
色空間変換処理S5が完了すると、次に病変判定部224により判定用画像データJを用いた病変判定処理S6が行われる。病変判定処理S6は、内視鏡画像の各画素(x,y)について、判定用画像データJがHS空間(色相−彩度空間)上の後述する領域α、β(図8)のいずれにプロットされるかによって、その画素に写された生体組織の状態(炎症部であるか否か)を判定する処理である。なお、HS空間は、色度空間と同様に、色の質(明るさ・輝度を除いた色の要素)を表す空間である。例えば、CIE 1976 L*a*b*色空間等の他の色空間上で画像解析を行う場合には、病変判定部224は色度空間(例えばa*b*空間)上で行われる。
図7は、病変判定処理S6の手順を示すフローチャートである。病変判定処理S6は、画像データを構成する全ての画素(x,y)について順次行われる。病変判定処理S6では、まず、フラグテーブルFTを参照して、各画素(x,y)のデータが有効であるか否かを判断する(S61)。フラグF(x,y)の値が「1」(画素データ有効)であれば、次に炎症判定処理S62を行う。また、フラグF(x,y)の値が「0」(画素データ無効)であれば、炎症判定処理S62を行わずに、処理S64へ進む。
ここで、炎症判定処理S62について説明する。図8は、複数の炎症性腸疾患患者の内視鏡画像データから取得した判定用画像データJをHS空間上にプロットした散布図である。
図8の散布図は、右側下方の破線で囲まれた領域βと、それ以外の領域αとに区分される。本発明者の研究により、炎症性腸疾患の内視鏡診断に熟練した医師によって炎症部と判断された部位の画素の大半が領域βにプロットされ、非炎症部と判断された部位の画素の大半が領域αにプロットされることが判明した。このことは、生体組織を撮像した内視鏡観察画像の色相(色合い)と彩度(鮮やかさ)の2つの情報により、生体組織の状態(炎症の有無)を十分な確度で判別できることを意味している。
炎症判定処理S62においては、各画素(x,y)の判定用画像データJ{(H(x,y),S(x,y)}が、図8の領域βにプロットされるか否かが判定される。具体的には、判定用画像データJ{(H(x,y),S(x,y)}は、以下の数式4及び数式5の両方を満たす場合に、領域βにプロットされる(すなわち炎症部の画素と判定される)。また、判定用画像データJ{(H(x,y),S(x,y)}は、数式4及び数式5の少なくとも一方を満たさない場合に、領域αにプロットされる(すなわち炎症部の画素ではないと判定される)。なお、δS1、δH1及びδH2は、術者によって設定可能な補正値であり、これらの補正値の設定によって判定の厳しさ(感度)等を適宜調整することができる。
画素(x,y)の判定用画像データJ{(H(x,y),S(x,y)}が領域βにプロットされる場合は(S62:Yes)、画素(x,y)に対応するフラグF(x,y)の値が「2」(炎症)に書き換えられ(S63)、処理S64に進む。また、判定用画像データJ{H(x,y),S(x,y)}が領域βにプロットされない場合は(S62:No)、フラグF(x,y)は書き換えられずに、処理S64に進む。
処理S64では、全ての画素(x,y)について処理が完了したかどうかが判定される。全ての画素(x,y)の処理が完了するまで、上記の処理S61〜S64が繰り返される。
[スコア計算:S7]
病変判定処理S6が完了すると、次にスコア計算処理S7が行われる。スコア計算処理S7は、判定用画像データJの画素値に基づいて、病変部の重症度の評価値であるスコアSc(x,y)を計算する処理である。スコア計算処理S7は、全ての画素(x,y)について順次行われる。なお、以下に説明するスコア計算のアルゴリズムは一例であり、本発明は様々なアルゴリズムにより算出したスコアの画面表示に適用することができる。
(スコア計算の原理)
ここで、本実施形態のスコア計算の原理について簡単に説明する。炎症部は、血管の拡張及び血漿成分の血管外への漏出等を伴い、症状が進行するほど、表面の正常粘膜が脱落するため、血液の色に近付くことが知られている。そのため、炎症部の色と血液の色との相関の程度(後述する相関値CV)が、炎症部の重症度を示す良い指標となる。本実施形態では、各画素(x,y)の判定用画像データJ{H(x,y),S(x,y)}と血液の色(色相、彩度)との相関値CV(x,y)を計算して、これを炎症部の重症度を示すスコアSc(x,y)として使用する。
(病変部の判定:S71)
図9は、スコア計算処理S7の手順を示すフローチャートである。スコア計算処理S7では、まずフラグテーブルFTが読み出され、画素(x,y)に対応するフラグF(x,y)の値が「2」(炎症)であるか否かが判断される(S71)。
フラグF(x,y)の値が「2」(炎症)である場合、すなわち画素(x,y)が病変画素である場合は(S71:Yes)、処理はS72へ進む。また、画素(x,y)が病変画素でない場合は(S71:No)、処理はS79へ進む。
(彩度の補正:S72)
血液や血液を含有する生体組織の画像の彩度は、輝度に依存することが知られている。具体的には、輝度と彩度は負の相関を有し、明るいほど彩度が低下する。S72では、本発明者が開発した以下の補正式(数式6)を使用して、判定用画像データJ(x,y)の輝度I(x,y)による彩度S(x,y)の変動が補正される。この補正により、スコア計算の精度を高めることができる。
但し、
Icorr.(x,y):判定用画像データJの補正後の輝度
Scorr.(x,y):判定用画像データJの補正後の彩度
Iref:基準値となる血液サンプルデータの輝度
Sref:基準値となる血液サンプルデータの彩度
θ:血液サンプルデータの輝度値と彩度値との相関係数(cosθ)を与える角度
なお、血液サンプルの彩度と輝度の相関係数(実測値)は−0.86であり、θ=149.32(deg)が適用される。
(色相距離DHUEの計算:S73)
次に、数式7により、色相距離DHUE(x,y)が計算される(S73)。色相距離DHUEは、血液サンプルデータの色相Hrefを基準とした、判定用画像データJ(x,y)の色相の相対値である。
(色相相関値HCVの決定:S74)
次に、色相距離DHUE(x,y)から色相相関値HCV(x,y)が決定される(S74)。色相相関値HCV(x,y)は、炎症部の重症度と強い相関を有するパラメーターである。図10(a)は、色相距離DHUEと色相相関値HCVとの関係を図示したグラフである。色相距離DHUEは、±30°以内の範囲(以下「色相近似範囲R11」という。)において、炎症部の重症度と強い相関を有し、それ以外の範囲(以下「色相近似外範囲R12」という。)においては殆ど相関を有しない。そのため、本実施形態の色相相関値HCV(x,y)は、色相近似外範囲R12においては最小値の0.0に設定され、色相近似範囲R11においては色相距離DHUE(x,y)が0°に近づくほど線形的に増加するように設定されている。また、色相相関値HCV(x,y)は、最小値が0.0、最大値が1.0となるように規格化されている。
図10(a)に示す色相距離DHUEと色相相関値HCVとの関係は、色相相関値テーブルHCTとしてメモリ229に格納されている。色相相関値テーブルHCTを参照することにより、色相距離DHUE(x,y)に対応する色相相関値HCV(x,y)が取得される。
(彩度距離DSATの計算:S75)
次に、数式8により、彩度距離DSAT(x,y)が計算される(S75)。彩度距離DSAT(x,y)は、血液サンプルデータの彩度Srefを基準とする、判定用画像データJ(x,y)の彩度の相対値である。
(彩度相関値SCVの決定:S76)
次に、彩度距離DSAT(x,y)から彩度相関値SCV(x,y)が決定される(S76)。彩度相関値SCV(x,y)も、炎症部の重症度と強い相関を有するパラメーターである。図10(b)は、彩度距離DSATと彩度相関値SCVとの関係を図示したグラフである。彩度距離DSATは、所定値以上の負の範囲(以下、「彩度近似範囲R22」という。)において、炎症部の重症度と強い相関を有し、負の所定値以下の範囲(以下「彩度近似外範囲R23」という。)においては殆ど相関を有しない。また、彩度距離DSATがゼロ以上の範囲、すなわち、病変画素の彩度が血液サンプルデータの彩度Sref以上となる範囲(以下「彩度一致範囲R21」という。)においては、重症度が極めて高いと考えられる。そのため、本実施形態の彩度相関値SCV(x,y)は、彩度一致範囲R21において最大値の1.0に設定され、彩度近似外範囲R23において最小値の0.0に設定され、彩度近似範囲R22において線形的に増加するように設定されている。また、彩度相関値SCV(x,y)も、最小値が0.0、最大値が1.0となるように規格化された値である。
図10(b)に示す彩度距離DSATと彩度相関値SCVとの関係は、彩度相関値テーブルSCTとしてメモリ229に格納されている。彩度相関値テーブルSCTを参照することにより、彩度距離DSAT(x,y)に対応する彩度相関値SCV(x,y)が取得される。
(相関値CVの計算:S77)
次に、色相相関値HCV(x,y)と彩度相関値SCV(x,y)との乗算により、病変画素(x,y)の色と血液の色との相関値CV(x,y)を得る。なお、相関値CV(x,y)も、最小値が0.0、最大値が1.0となるように規格化された値となる。また、相関値CV(x,y)は、0.1ポイント刻みで11段階に区分される。
(スコアSc更新:S78)
また、相関値CV(x,y)は炎症の重症度の良い指標となるため、スコアテーブルSTのスコアSc(x,y)の値が相関値CV(x,y)によって書き換えられる(S78)。
(スコアSc更新:S79)
また、画素(x,y)が病変画素でない場合は(S71:No)、上述した相関値CV(x,y)の計算を行わずに、スコアテーブルSTのスコアSc(x,y)の値が「0」に書き換えられる(S79)。これにより、少ない計算量で全ての画素(x,y)に対してスコアSc(x,y)を与えることができる。
処理S80では、全ての画素(x,y)について処理が完了したかどうかが判定される。全ての画素(x,y)の処理が完了するまで、上記の処理S71〜S80が繰り返される。
[シーン判定:S8]
スコア計算処理S7の完了後(又は、TE処理S3からスコア計算処理S7までの一連の処理と平行して)、シーン判定部230によってシーン判定処理S8が行われる。
ここで、本発明の実施形態に係るシーン判定処理S8の概要を説明する。通常、内視鏡検査は、大きく2段階(2種類の検査)に分けて行われる。第1段階は、検査対象(例えば上部消化管内視鏡検査の場合は、食道、胃及び十二指腸の内壁)の全体を通して観察して、病変の疑いのある箇所を探索する「スクリーニング検査」である。第2段階は、スクリーニング検査において発見された病変の疑いのある箇所を詳細に観察して、病変組織/正常組織の判定や、病変組織である場合には、その種類や重症度の判定を行う「精査」である。通常は、最初にスクリーニング検査が行われ、続けて精査が行われる。
図11は、典型的な内視鏡画像の明暗分布を説明する図である。図11(a)は、スクリーニング検査時の内視鏡画像に典型的な明暗分布の例であり、図11(b)、(c)は、精査時の内視鏡画像に典型的な明暗分布の例である。
また、表1は、スクリーニング検査時に撮影される内視鏡画像(図11(a)参照)と、精査時に撮影される内視鏡画像(図11(b)参照)との特徴を対比したものである。
一般的なスクリーニング検査では、電子スコープ100の挿入部101の先端101a(図1)を一旦消化管内の検査範囲の最奥部まで差し込み、挿入部101を消化管から徐々に引き抜きながら、検査範囲の全長に亘って観察が行われる。また、スクリーニング検査における観察は、挿入部101の先端101aを僅かに消化管内壁側に向けて、消化管の周方向に視野を走査しながら行われる。スクリーニング検査は、検査対象が特定の部位に限定されず広範囲に及ぶため、効率的に検査を行う必要がある。そのため、電子スコープ100の先端101aと被写体(消化管内壁)との距離を中〜遠距離に維持して行われる。具体的には、スクリーニング検査は、電子スコープ100の挿入部101を消化管と略平行にした状態(或いは、先端101aをわずかに消化管内壁に向けた状態)で行われる。
したがって、スクリーニング検査時に撮影される内視鏡画像は、図11(a)に示されるように、画像中央部に電子スコープ100の先端101aから離れた暗い消化管内壁が写り、画像周辺部に電子スコープ100の先端101aに近い明るく照明された消化管内壁が写ったものとなる。また、内視鏡画像中の暗い(低輝度の)箇所は、略円形状となる。
また、スクリーニング検査の画像は、明るく照らされた先端101aの近傍から、ほとんど照明光が届かずに暗い遠方までが写るため、画像内での明暗(輝度)の変化が大きくなる。
また、スクリーニング検査は、上述のように、電子スコープ100の先端101aを動かしながら行われるため、スクリーニング検査時に撮影される内視鏡画像は、動きが速いものとなる。
一方、精査は、電子スコープ100の先端101aを消化管内壁の特定の箇所(スクリーニング検査により病変が疑われた箇所)に向けて近接させて行われる。そのため、精査時に撮影される内視鏡画像の中央部(又は略全面)には、電子スコープ100の先端101aに近い明るく照明された消化管内壁が写り、周辺部には、先端101aから離れた暗い消化管内壁が写る。従って、内視鏡画像中の暗い箇所は、非円形状となる。
また、精査は、被写体の微細な形状やテクスチャを観察するために、なるべく電子スコープ100の先端101aを動かさないようにして行われる。そのため、精査時に撮影される内視鏡画像は、動きが少なく、緩やかなものとなる。
また、精査の画像には、電子スコープ100の先端101aから離れた暗い箇所はほとんど写らないため、画像内での明暗の変化は緩やかなものとなる。
本実施形態のシーン判定処理S8は、表1に記載された特徴(特に画像の動き)に基づいて、検査の状況(すなわち、スクリーニング検査中であるか、精査中であるか)を判定する処理である。
図12は、シーン判定処理S8の手順を示すフローチャートである。シーン判定処理S8では、内視鏡画像の動きの解析を行う動画解析処理S81と、内視鏡画像内の明暗の分布を解析する輝度勾配計算処理S82と、動画解析処理S81及び輝度勾配計算処理S82の解析結果に基づいて検査の種別(スクリーニング検査/精査)を判定する検査種別判定処理S83とを含む。
(動画解析:S81)
図13は、動画解析処理S81の手順を示すフローチャートである。
(低解像度化:S811)
動画解析処理S81では、まず、通常観察画像NPの解像度(画素数)を1/n(nは整数)に低減させて低解像度通常観察画像NPに変換する低解像度化処理S811が行われる。この処理は、後段の各処理に必要な計算量を減らすためのものであり、本実施形態では、通常観察画像NPの解像度が1/16に低減される。具体的には、通常観察画像NPがn画素×n画素(4画素×4画素)のブロックに分割され、各ブロック内のn画素(16画素)が新たな1画素に統合される。その際に、ブロック毎に画素値N(x,y)の代表値(例えば、ブロック内の画素値N(x,y)の平均値、中間値又は最頻値)が計算され、この代表値が低解像度通常観察画像NPの画素値となる。
(速度場計算:S812)
次に、最新のフレームと一つ前のフレームの低解像度通常観察画像NPから、速度ベクトル場{V(x,y),V(x,y)}(以下、「速度場(V,V)」と略記する。)が計算される(S812)。この速度場は、例えば勾配法やLucas-Kanade法等により計算されるオプティカルフロー(Optical Flow)である。
(平均速度計算:S813)
次に、数式9により、速度場(V,V)の二乗平均平方根である画像速度PVを求める。画像速度PVは、画像全体の平均的な速度の大きさを表すパラメーターである。
但し、
N:速度場の要素数(低解像度通常観察画像NPの画素数)
(画像速度変化率計算:S814)
次に、画像速度PVを時間微分した画像速度変化率PV´(単位時間当たりの画像速度PVの変化量)を計算する。また、画像速度変化率PV´は平滑化処理が施される。具体的には、直近の所定時間内(例えば1秒間)に撮影された複数の低解像度通常観察画像NPについて画像速度変化率PV´の代表値(例えば、平均値、中間値又は最頻値)が計算され、この代表値が画像速度変化率PV´として使用される。なお、画像速度PVを単に時間微分した値は高周波成分のノイズ(術者が意図していない電子スコープ100の振動等に起因する画像の動き)を多く含む。そのため、平滑化処理を行わず、画像速度PVの時間微分をそのまま使用してシーン判定処理S83を行うと、判定結果が不安定になり、表示モードの頻繁な変更を招いてしまう。
(輝度勾配計算:S82)
動画解析処理S81の次に、通常観察画像NP内の輝度の勾配(後述する密集度LDφの最大値LDmax)を計算する輝度勾配計算処理S82が行われる。
図14は、輝度勾配計算処理S82の手順を説明するフローチャートである。
図15は、輝度勾配計算処理S82を説明する図である。図15(a)は後述する輝度画像LP[輝度指数Lu(x,y)]の一例であり、図15(b)は輝度指数Lu(x,y)の勾配の絶対値のグラフの一例であり、図15(c)は後述する等高線画像CPの一例である。
(輝度値計算:S820)
輝度勾配計算処理S82では、まず、数式10により、通常観察画像NPの各画素(x,y)の輝度指数Lu(x,y)が計算され、輝度指数Lu(x,y)を要素(画素値)とする輝度画像データLu(輝度画像LPを表す画像データ)が生成される(S820)。なお、本実施形態では、通常観察画像データNの各画素の原色信号R(x,y),G(x,y),B(x,y)の値の単純平均により輝度指数Lu(x,y)が計算されるが、固体撮像素子108の分光感度特性に応じた加重平均により、或いは、数式1のように人間の比視感度特性に応じた加重平均により輝度指数Lu(x,y)を計算してもよい。また、原色信号の平均ではなく、単なる総和として、輝度指数Lu(x,y)を計算してもよい。
(低解像度化:S821)
次に、輝度画像データLuの解像度(画素数)を1/n(nは整数)に低減させて、輝度指数Lu(x,y)を要素(画素値)とする輝度画像データLu(輝度画像LPを表す画像データ)に変換する低解像度化処理S821が行われる。この処理は、上述の低解像度化処理S811と同様のものである。低解像度化処理S821は、後段の各処理に必要な計算量を減らすと共に、輝度画像Luを単純化する。
(ぼかし:S822)
次に、ぼかし処理S822が行われる。ぼかし処理S822は、各画素について、その画素を中心とする所定領域(例えば3画素×3画素)に含まれる画素の輝度指数Lu(x,y)の代表値(例えば、平均値、中間値又は最頻値)を計算して、この代表値(輝度指数Lu(x,y))を要素(画素値)とする輝度画像データLu(輝度画像LPを表す画像データ)を生成する。ぼかし処理S822は、輝度画像LPを更に単純化する。
(高解像度化:S823)
次に、輝度画像データLuの解像度(画素数)をn倍(nは整数)に増大させ、元の輝度画像データLuと同じ解像度に戻した輝度画像データLu(輝度画像LPを表す画像データ)を生成する高解像度化処理S823が行われる。高解像度化処理S823は、各画素をn画素×n画素に分割することによって行われる。高解像度化によって解像度(画素数)は増加するが、画像自体が変化することはない。
(低階調化:S824)
次に、輝度画像データLuに対して、画素値の階調を低減させる低階調化処理S824が行われ、輝度画像データLu(輝度画像LPを表す画像データ)が生成される。低階調化処理S824では、例えば256階調から8階調又は16階調に階調が低減される。
以上に説明した低解像度化処理S821、ぼかし処理S822、高解像度化処理S823及び低階調化処理S824により、輝度画像LPの単純化が効果的に行われる。また、これらの処理に代えて、輝度画像データLuをフーリエ変換し、高周波成分を除去した後に、フーリエ逆変換を行うことでも、同様に輝度画像LPを単純化することができる。また、ぼかし処理S822を複数回行うだけでも同様の効果が得られる。
(ベクトル微分演算:S825)
次に、輝度画像データLuに対して、ベクトル微分演算処理S825が行われる。具体的には、輝度指数Lu(x,y)の勾配(gradient)が計算される。
図15(a)に示されるように、輝度画像LPは、幾つかの輝度の異なる領域(図15においては5つの領域R、R、R、R、R)から構成された、階段状の極めて単純な構造を有している。このような輝度画像LP(輝度指数Lu(x,y))の勾配を計算すると、図15(b)に示されるように、領域の境界のみに大きさを有する値が得られる(領域の境界以外の勾配はゼロとなる)。従って、ベクトル微分演算処理S825によって、輝度画像LPの各階調の領域の境界線、すなわち輝度の等高線CL(等高線画像CP)を表す等高線画像データCDが得られる。
(円形度計算:S826)
次に、等高線画像データCDを使用して、輝度画像LPにおける最も暗い画像領域(最低階調領域R)の円形度Vroundが数式11により計算される(S826)。
但し、
NRL.:最低階調領域R内の画素数(面積)
LRL.:最低階調領域Rの等高線長(周囲長)
(重心計算:S827)
次に、等高線画像データCDを使用して、最低階調領域Rの重心GPが数式12により計算される(S827)。
但し、
XRLmin:最低階調領域RにおけるX座標最小値
XRLmax:最低階調領域RにおけるX座標最大値
YRLmin:最低階調領域RにおけるY座標最小値
YRLmax:最低階調領域RにおけるY座標最大値
(密集度計算:S828)
次に、等高線画像データCDを使用して、重心GPを起点とする8方位(0、π/4、π/2、3π/4、π、5π/4、3π/2、7π/4)における等高線CLの密集度LDを計算する(S828)。等高線CLの密集度LDは、重心GPからの放射方向における単位長さ当たりの等高線CLの数として定義される。
図15(a)の輝度画像LP及び図15(c)の等高線画像CPには、輝度の低い方から順に領域R(最低階調領域R)、R、R、R、Rの5つの領域が写されている。このうち、輝度の低い領域R、R、Rの等高線CL、CL、CLは、全周が等高線画像CPに写されている。本実施形態では、全周(或いは、少なくとも密集度LDを計算する8方位における各点)が等高線画像CPに写された等高線CL、CL、CLのみを使用して等高線CLの密集度LDが計算される。
等高線CLの密集度LDの計算では、まず、重心GPから8方位に延びる放射線(破線)と、計算に使用される最外周の等高線CLとの交点Q、Qπ/4、Qπ/2、Q3π/4、Qπ、Q5π/4、Q3π/2、Q7π/4を検出する。そして、重心GPと各交点Q、Qπ/4、Qπ/2、Q3π/4、Qπ、Q5π/4、Q3π/2、Q7π/4との距離d、dπ/4、dπ/2、d3π/4、dπ、d5π/4、d3π/2、d7π/4(不図示)を使用して、数式13により計算される。
但し、
φ:密集度を計算する方位
LDφ:方位φにおける等高線CLの密集度
dφ:重心GPから交点Qφまでの距離
nφ:重心GPから方位φに延びる放射線と交差する等高線CLの数(nφ=3)
(密集度最大値計算:S829)
次に、密集度計算S828において計算された密集度LDφの最大値LDmaxを求める。この値が輝度画像LPの輝度勾配となる。
(検査種別判定:S83)
図16は、検査種別判定処理S83の手順を示すフローチャートである。
(画像速度変化率判定:S831)
検査種別判定処理S83では、まず、画像速度変化率PV´が所定の閾値ThPV´以下であるか否かを判定する画像速度変化率判定S831が行われる。画像速度変化率PV´が閾値ThPV´超えるような激しい画像の動きが生じている場合には、通常観察画像NPに手ぶれが生じるため、後述するマーキング処理(S10、S11)を正確に行うことができない。また、画像の動きが速いため、マーキングの情報を術者が正確に認識することも困難である。そのため、画像速度変化率PV´が閾値ThPV´超える場合には(S831:No)、直ぐに検査種別判定処理S83から抜けて、マーキング処理(S10、S11)を行わずに表示画面生成処理S12(図4)に進む。これにより、通常観察画像NPがそのままモニタ900に表示される。また、画像速度変化率PV´が閾値ThPV´未満の場合は(S831:Yes)、次の重心判定S832に進む。
(重心判定:S832)
重心判定S832では、最低階調領域Rの重心GPが、等高線画像CPの中央部の所定領域内に位置しているか否かが判定される。重心GPが所定領域内にある場合は(S832:Yes)、処理は次の円形度判定S833に進む。また、重心GPが所定領域内にない場合は(S832:No)、円形度判定S833を行わず、処理は密集度判定S834に進む。
(円形度判定:S833)
円形度判定S833では、円形度Vroundが所定の閾値(例えば0.6)よりも大きいか否かが判定される。円形度Vroundが閾値0.6よりも大きければ(S833:Yes)、検査種別がスクリーニング検査と判定される(S837)。また、円形度Vroundが閾値0.6以下であれば(S833:No)、続いて密集度判定S834が行われる。
(密集度判定:S834)
密集度判定S834では、密集度LDが所定の閾値ThLDよりも大きいか否かが判定される。密集度LDが閾値ThLDよりも小さければ(S834:No)、精査と判定される(S836)。また、密集度LDが閾値ThLD以上であれば(S834:Yes)、続いて画像速度判定S835が行われる。
(画像速度判定:S835)
画像速度判定S835では、画像速度PVが所定の閾値ThPVよりも大きいか否かが判定される。画像速度PVが閾値ThPVよりも大きければ(S835:Yes)、スクリーニング検査と判定される(S837)。また、画像速度PVが閾値ThPV以下であれば(S835:No)、精査と判定される(S836)。
なお、画像速度PV及び画像速度変化率PV´は、検査時の電子スコープ100の先端部の動きに関するパラメーターである。また、輝度勾配と、最低階調領域Rの円形度Vround及び重心GPの位置は、被写体である消化管内壁に対する電子スコープ100の先端部の姿勢によって決まるパラメーターである。すなわち、本実施形態の検査種別判定S83は、内視鏡画像から推定される電子スコープ100の先端部の動きと姿勢に基づいて、内視鏡検査の種別を判定するものである。
[マーキング処理の種類の決定:S9]
次に、シーン判定処理S8における検査種別の判定結果に基づいて、マーキング処理部226が行うマーキング処理の種類が決定される(S9)。精査と判定された場合には(S9:Yes)、精細マーキング処理S10が行われる。また、スクリーニング検査と判定された場合には(S9:No)、簡易マーキング処理S11が行われる。
(精細マーキング:S10)
精細マーキング処理S10では、通常観察画像NPにおける重症度の分布を色別表示したカラーマップ画像CMPが、通常観察画像NPに重ねるマーキング用画像データとして生成される。精細マーキング処理S10で生成されるカラーマップ画像CMPは、通常観察画像NPの対応する画素(x,y)のスコアSc(x,y)に応じて定められた表示色Col(x,y)を画素値としてもつ。
精細マーキング処理S10では、先ず、メモリ229に格納された表示色テーブルDCTが参照され、スコアSc(x,y)に基づいて各画素に適用される表示色Col(x,y)が決定される。次いで、表示色Col(x,y)を画素値とするカラーマップ画像データCMが生成され、画像メモリ227の記憶領域Pに記憶される。精細マーキング処理S10によって生成されるカラーマップ画像CMPの例を図17(a)に示す。そして、通常観察画像NP(又はトーン強調画像EP)の上にカラーマップ画像CMPを重畳させる画像合成(オーバーレイ表示)が行われ、マーキング画像データMが生成される。
なお、表示色テーブルDCTは、スコアScとカラーマップ画像CMPの表示色(カラーコード)との対応関係を規定する数値テーブルである。表示色テーブルDCTの一例を表2に示す。また、表示色は、11段階のスコアSc毎に異なる色が設定される。なお、スコアSc(x,y)の値がゼロ(正常組織)の画素(x,y)に対しては、無色透明を示す空の値(null値)が与えられるため、正常組織の画素は精細マーキング処理S10によって着色されない。また、各画素(x,y)に付すべき色の指定は、RGBによる指定に限らず、他の色表現(例えば、色相及び/又は彩度)によって指定することもできる。また、図17(a)に示されるように、着色される領域を別の表示色(例えば赤色)の輪郭線で囲んでもよい。
(簡易マーキング:S11)
簡易マーキング処理S11も、精細マーキング処理S10と同様の処理であるが、簡略化された表示色テーブルDCT(表3)が使用される。具体的には、簡易マーキング処理S11では、スコアScが所定値(例えば0.6)未満の重症度が低い画素に対して無色透明を示す空の値(null値)の表示色Col(x,y)が与えられ、スコアScが所定値以上で重症度の高い画素には単一色(例えば黄色)の表示色Col(x,y)が与えられる。簡易マーキング処理S11を行った場合のマーキング画像MPの一例を図17(b)に示す。
簡易マーキング処理S11を採用することにより、処理に必要な計算量が大幅に削減されるため、動きの速い画像でも、画像処理がフレームレートに追従でき、病変部に正確に印を付すことが可能になる。また、重症度の高い箇所に限定して簡単な構成(単一色)の印が付されるため、印の視認性が良く、動きの速い画像でも術者は重症度の高い箇所を正確に把握することができる。
(簡易マーキング処理S11の変形例)
図17(c)に、簡易マーキング処理S11において生成されるマーキング画像MPの変形例を示す。この変形例では、通常観察画像NPにおいてスコアScが最大となる画素の位置に、予め設定された印MX(例えば▲マーク)が付されたカラーマップ画像CMP(及びマーキング画像MP)が生成される。この変形例では、画素毎に表示色の判定を行う必要がないため、より少ない処理量でマーキングを行うことができる。
[表示画面生成〜出力:S12〜S13]
精細マーキング処理S10又は簡易マーキング処理S11が完了すると、次に表示画面生成処理S12が行われる。表示画面生成処理S12は、画像メモリ227に記憶された各種画像データを使用して、モニタ900に表示するための表示画面データを生成する処理であり、画像処理回路220の表示画面生成部228によって行われる。表示画面生成部228は、システムコントローラ202の制御に応じて、複数種類の表示画面データを生成することができる。生成された表示画面データは、出力回路220bにより、ガンマ補正等の処理が行われた後、所定のビデオ・フォーマットのビデオ信号に変換され、モニタ900に出力される(出力処理S13)。
図18は、表示画面生成処理S12によって生成される表示画面の一例であり、画像解析モードでの内視鏡観察中に表示される解析モード観察画面320である。解析モード観察画面320は、撮影日時が表示される日時表示領域321と、検査に関連する基本的な情報(例えば、カルテ番号、患者名、術者名)を表示する基本情報表示領域322と、通常観察画像NP(又はトーン強調画像EP)を表示する通常画像表示領域324と、マーキング画像MPを表示する解析画像表示領域325を備えている。
表示画面生成処理S12において、表示画面生成部228は、画像メモリ227の記憶領域群Pから通常観察画像データN(又は、記憶領域群Pからトーン強調画像データE)を読み出し、通常画像表示領域324に通常観察画像NP(又は、トーン強調画像EP)を表示する。また、画像メモリ227の記憶領域群Pからマーキング画像データMを読み出し、解析画像表示領域325にマーキング画像MPを表示する。また、日時表示領域321及び基本情報表示領域322には、システムコントローラ202から提供された情報が表示される。
術者は、解析モード観察画面320を見ながら内視鏡観察を行う。具体的には、解析画像表示領域325に表示されるマーキング画像MPを参照しつつ、通常画像表示領域324に表示される通常観察画像NP(又はトーン強調画像EP)を見ながら内視鏡観察を行う。マーキング画像MPにおいてマーキングされた部位について特に慎重に観察を行うことで、病変部を見落とすことなく、正確な診察を行うことができる。
表示画面生成処理S12及び出力処理S13が完了すると、次に、内視鏡観察を継続するか否かが判断される(S14)。プロセッサ200の操作パネル214に対して、内視鏡観察終了又は電子内視鏡装置1の運転停止を指示するユーザ操作が行われる(S14:No)まで、上記の処理S1〜S13が繰り返される。
なお、上記の実施形態は、本発明を電子内視鏡装置に適用した例であるが、本発明はこの構成に限定されない。例えば、電子内視鏡装置によって撮影された内視鏡観察映像を再生する映像再生装置に本発明を適用することができる。また、内視鏡画像以外の観察画像(例えば、通常のビデオカメラにより撮影した体表の観察画像や、手術中の体内の観察画像)の解析にも本発明を適用することができる。
また、本実施形態では、内視鏡画像から推定される電子スコープ100の先端部の動きと姿勢に基づいて内視鏡検査の種別を判定する構成が採用されているが、本発明はこの構成に限定されない。例えば、検査中の内視鏡挿入部の形状や位置を検出する挿入形状検出機能(特開2013−85744号公報に一例が開示されている。)を電子スコープに設け、挿入形状検出機能による電子スコープの先端部の動きと姿勢の検出結果に基づいて内視鏡検査の種別を判定する構成としてもよい。
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本発明の実施形態に含まれる。
1 電子内視鏡装置
100 電子スコープ
200 電子内視鏡用プロセッサ
220 画像処理回路
220a 基本処理部
221 TE処理部
222 有効画素判定部
223 色空間変換部
224 病変判定部
225 スコア計算部
226 マーキング処理部
227 画像メモリ
228 メモリ
229 表示画面生成部
220b 出力回路
230 シーン判定部
900 モニタ

Claims (18)

  1. 生体組織を撮影した複数の画像データからなるカラー動画像データを取得する画像データ取得手段と、
    前記カラー動画像データに基づいて撮影シーンを判定するシーン判定手段と、
    前記画像データに基づいて、該画像データが表す画像に写された前記生体組織の病変の重症度を示すスコアを画素毎に計算するスコア計算手段と、
    前記スコアの分布を示す印を前記画像上に付すマーキング手段と、
    を備え、
    前記マーキング手段が、
    前記スコアの分布を詳細に示す前記印を付す詳細マーキング処理と、
    前記スコアの分布を前記詳細マーキング処理よりも簡易的に示す印を付す簡易マーキング処理と、を実行可能であり、
    前記撮影シーンの判定結果に応じて、前記詳細マーキング処理と前記簡易マーキング処理のいずれかを実行する、
    画像処理装置。
  2. 前記シーン判定手段が、
    前記カラー動画像データに撮影された画像検査の種類を判定する、
    請求項1に記載の画像処理装置。
  3. 前記シーン判定手段が、
    スクリーニング検査と精査のいずれの撮影シーンであるかを判定し、
    前記マーキング手段が、
    スクリーニング検査の撮影シーンと判定されたときに、前記簡易マーキング処理を行い、
    精査の撮影シーンと判定されたときに、前記詳細マーキング処理を行う、
    請求項2に記載の画像処理装置。
  4. 前記シーン判定手段が、
    前記画像の動きの解析を行う動画解析手段を備えた、
    請求項3に記載の画像処理装置。
  5. 前記動画解析手段が、
    連続する複数の前記画像データに基づいて速度場を計算する速度場計算手段を備え、
    前記速度場の計算結果に基づいて、前記画像検査の種類を判定する、
    請求項4に記載の画像処理装置。
  6. 前記動画解析手段が、
    前記速度場を構成する各画素の速度ベクトルの大きさの代表値を計算して画像速度として取得する画像速度計算手段を備えた、
    請求項4又は請求項5に記載の画像処理装置。
  7. 前記動画解析手段が、
    前記画像速度の単位時間当たりの変化量である画像速度変化率を計算する画像速度変化率計算手段を備えた、
    請求項6に記載の画像処理装置。
  8. 前記動画解析手段が、
    前記画像データの解像度を低減する低解像度化手段を備えた、
    請求項4から請求項7のいずれか一項に記載の画像処理装置。
  9. 前記シーン判定手段が、
    前記画像データの輝度を画素値とする輝度画像データを生成する輝度画像データ生成手段を備えた、
    請求項8に記載の画像処理装置。
  10. 前記シーン判定手段が、
    前記輝度画像データにより表される輝度画像を単純化する画像単純化手段を備えた、
    請求項9に記載の画像処理装置。
  11. 前記画像単純化手段が、
    前記輝度画像を低解像度化する低解像度化手段と、
    低解像度化された前記輝度画像に対してぼかし処理を施すぼかし手段と、
    ぼかし処理された前記輝度画像を元の解像度に戻す高解像度化手段と、を備えた、
    請求項10に記載の画像処理装置。
  12. 前記画像単純化手段が、
    前記輝度画像データの階調を低減させる低階調化手段を備えた、
    請求項10又は請求項11に記載の画像処理装置。
  13. 前記シーン判定手段が、
    前記輝度画像に基づいて輝度の等高線を表す等高線画像データを生成する等高線画像データ生成手段を備えた、
    請求項9に記載の画像処理装置。
  14. 前記等高線画像データ生成手段が、
    前記輝度画像の勾配を計算するベクトル微分演算手段を備えた、
    請求項13に記載の画像処理装置。
  15. 前記シーン判定手段が、
    前記等高線の密集度を計算する等高線密集度計算手段を備え、
    前記等高線の密集度に基づいて前記撮影シーンを判定する、
    請求項13又は請求項14に記載の画像処理装置。
  16. 前記シーン判定手段が、
    前記画像内の輝度勾配を計算する輝度勾配計算手段を備え、
    前記輝度勾配に基づいて前記撮影シーンを判定する、
    請求項1から請求項15のいずれか一項に記載の画像処理装置。
  17. 前記シーン判定手段が、
    前記画像の低輝度領域の円形度を計算する円形度計算手段を備え、
    前記円形度に基づいて前記撮影シーンを判定する、
    請求項1から請求項16のいずれか一項に記載の画像処理装置。
  18. 前記シーン判定手段が、
    前記画像の低輝度領域の重心を計算する重心計算手段を備え、
    前記重心に基づいて前記撮影シーンを判定する、
    請求項1から請求項17のいずれか一項に記載の画像処理装置。
JP2015037540A 2015-02-27 2015-02-27 画像処理装置 Pending JP2016158682A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015037540A JP2016158682A (ja) 2015-02-27 2015-02-27 画像処理装置
CN201680000509.3A CN106102556B (zh) 2015-02-27 2016-02-23 图像处理装置
US15/106,968 US20180153384A1 (en) 2015-02-27 2016-02-23 Image processing apparatus
EP16728211.0A EP3263011A1 (en) 2015-02-27 2016-02-23 Image processing device
PCT/JP2016/055150 WO2016136700A1 (ja) 2015-02-27 2016-02-23 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037540A JP2016158682A (ja) 2015-02-27 2015-02-27 画像処理装置

Publications (1)

Publication Number Publication Date
JP2016158682A true JP2016158682A (ja) 2016-09-05

Family

ID=56788789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037540A Pending JP2016158682A (ja) 2015-02-27 2015-02-27 画像処理装置

Country Status (5)

Country Link
US (1) US20180153384A1 (ja)
EP (1) EP3263011A1 (ja)
JP (1) JP2016158682A (ja)
CN (1) CN106102556B (ja)
WO (1) WO2016136700A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016189622A1 (ja) * 2015-05-25 2018-03-15 オリンパス株式会社 画像処理装置、医用観察システムおよび画像処理プログラム
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
KR101943011B1 (ko) 2018-01-22 2019-01-28 주식회사 뷰노 피검체의 의료 영상 판독을 지원하는 방법 및 이를 이용한 장치
WO2019159770A1 (ja) * 2018-02-13 2019-08-22 Hoya株式会社 内視鏡システム
WO2020054543A1 (ja) * 2018-09-11 2020-03-19 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
JP2020509455A (ja) * 2017-02-28 2020-03-26 ヴェリリー ライフ サイエンシズ エルエルシー プログラム可能光源を使用する画像のマルチクラス分類のシステムおよび方法
WO2021033215A1 (ja) 2019-08-16 2021-02-25 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法
WO2021033216A1 (ja) 2019-08-16 2021-02-25 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6581923B2 (ja) * 2016-03-03 2019-09-25 富士フイルム株式会社 画像処理装置とその作動方法および作動プログラム
JP6833495B2 (ja) * 2016-12-15 2021-02-24 オリンパス株式会社 内視鏡
US10643311B2 (en) * 2018-03-22 2020-05-05 Hiwin Technologies Corp. Method for correcting dehazed medical image
CN108846871B (zh) * 2018-06-25 2021-06-22 Tcl华星光电技术有限公司 一种图像处理方法及装置
WO2020040059A1 (ja) * 2018-08-23 2020-02-27 富士フイルム株式会社 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US11948303B2 (en) 2021-02-26 2024-04-02 Capsovision Inc. Method and apparatus for objective assessment of gastrointestinal conditions based on images captured in the GI tract

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4823725B2 (ja) * 2006-03-15 2011-11-24 オリンパスメディカルシステムズ株式会社 医療用画像処理装置
JP5309120B2 (ja) * 2010-12-20 2013-10-09 富士フイルム株式会社 内視鏡装置
JP2013085744A (ja) 2011-10-19 2013-05-13 Hoya Corp 挿入形状検出機能を備えた軟性内視鏡
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6067264B2 (ja) * 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
JP6097629B2 (ja) * 2013-04-26 2017-03-15 Hoya株式会社 病変評価情報生成装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016189622A1 (ja) * 2015-05-25 2018-03-15 オリンパス株式会社 画像処理装置、医用観察システムおよび画像処理プログラム
US11145053B2 (en) 2016-12-07 2021-10-12 Olympus Corporation Image processing apparatus and computer-readable storage medium storing instructions for specifying lesion portion and performing differentiation classification in response to judging that differentiation classification operation is engaged based on signal from endoscope
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
JPWO2018105063A1 (ja) * 2016-12-07 2019-07-04 オリンパス株式会社 画像処理装置
US11699102B2 (en) 2017-02-28 2023-07-11 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
US11229353B2 (en) 2017-02-28 2022-01-25 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
JP2020509455A (ja) * 2017-02-28 2020-03-26 ヴェリリー ライフ サイエンシズ エルエルシー プログラム可能光源を使用する画像のマルチクラス分類のシステムおよび方法
KR101943011B1 (ko) 2018-01-22 2019-01-28 주식회사 뷰노 피검체의 의료 영상 판독을 지원하는 방법 및 이를 이용한 장치
WO2019159770A1 (ja) * 2018-02-13 2019-08-22 Hoya株式会社 内視鏡システム
JPWO2019159770A1 (ja) * 2018-02-13 2020-12-17 Hoya株式会社 内視鏡システム
US11436728B2 (en) 2018-02-13 2022-09-06 Hoya Corporation Endoscope system
WO2019159435A1 (ja) * 2018-02-13 2019-08-22 Hoya株式会社 内視鏡システム
JPWO2020054543A1 (ja) * 2018-09-11 2021-08-30 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020054543A1 (ja) * 2018-09-11 2020-03-19 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
JP7326308B2 (ja) 2018-09-11 2023-08-15 富士フイルム株式会社 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2021033215A1 (ja) 2019-08-16 2021-02-25 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法
WO2021033216A1 (ja) 2019-08-16 2021-02-25 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
US20180153384A1 (en) 2018-06-07
EP3263011A1 (en) 2018-01-03
CN106102556A (zh) 2016-11-09
CN106102556B (zh) 2018-05-01
WO2016136700A1 (ja) 2016-09-01

Similar Documents

Publication Publication Date Title
WO2016136700A1 (ja) 画像処理装置
JP6584090B2 (ja) 画像処理装置
JP6346576B2 (ja) 画像処理装置
US11701032B2 (en) Electronic endoscope processor and electronic endoscopic system
CN110325100B (zh) 内窥镜系统及其操作方法
JP6067264B2 (ja) 画像処理装置及び内視鏡装置
US20150294463A1 (en) Image processing device, endoscope apparatus, image processing method, and information storage device
US10512433B2 (en) Correction data generation method and correction data generation apparatus
JP6150554B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
CN106714651A (zh) 评价值计算装置以及电子内窥镜系统
JP6270967B2 (ja) 画像処理装置及び内視鏡装置
JP6531202B2 (ja) 画像処理装置
US10646102B2 (en) Processor for electronic endoscope, and electronic endoscope system
US10659658B2 (en) Processor for electronic endoscope, and electronic endoscope system
US11559186B2 (en) Evaluation value calculation device and electronic endoscope system
CN111065315B (zh) 电子内窥镜用处理器以及电子内窥镜系统
JP6420358B2 (ja) 内視鏡システム及び評価値計算装置
US20240087090A1 (en) Processor for electronic endoscope and electronic endoscopic system
JP2015008781A (ja) 画像処理装置、内視鏡装置及び画像処理方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170717