JPWO2020008651A1 - 内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム - Google Patents

内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム Download PDF

Info

Publication number
JPWO2020008651A1
JPWO2020008651A1 JP2020528672A JP2020528672A JPWO2020008651A1 JP WO2020008651 A1 JPWO2020008651 A1 JP WO2020008651A1 JP 2020528672 A JP2020528672 A JP 2020528672A JP 2020528672 A JP2020528672 A JP 2020528672A JP WO2020008651 A1 JPWO2020008651 A1 JP WO2020008651A1
Authority
JP
Japan
Prior art keywords
lesion
analysis unit
image
image processing
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020528672A
Other languages
English (en)
Other versions
JP7084994B2 (ja
Inventor
健人 速水
健人 速水
大和 神田
大和 神田
北村 誠
誠 北村
明広 窪田
明広 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2020008651A1 publication Critical patent/JPWO2020008651A1/ja
Application granted granted Critical
Publication of JP7084994B2 publication Critical patent/JP7084994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2446Optical details of the image relay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡用画像処理装置32は、被写体を内視鏡21にて撮像して得られた複数の観察画像が順次入力される画像入力部33と、内視鏡21の観察対象である病変部を観察画像から検出する病変検出部34と、病変部の検出結果を観察画像に付加して出力する表示制御部36とを備える。表示制御部36は、病変の状態を解析する病変状態解析部36bと、病変部の状態に応じて病変部の検出結果の表示延長時間を設定する表示延長時間設定部36cとを備える。

Description

本発明は、内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラムに関する。
従来より、医療分野や工業用分野で内視鏡が広く利用されている。例えば、医療分野では、術者は、表示装置に表示された被検体内の内視鏡画像を見て病変部を発見及び識別し、病変部に対する処置具を用いた処理を行うことができる。
術者が内視鏡画像を見る際に病変部の見落としを抑制するために、内視鏡画像から検出された病変部に、枠などのマーカによる強調表示を付与して表示させる画像処理装置は、一般的に広く知られている。
ところで、内視鏡観察においては、内視鏡により撮像される体腔内の被写体と、当該体腔内に挿入される当該内視鏡の挿入部との相対位置が常時変化し得るため、一旦検出された病変部を、全フレームで正しく検出することは難しい。そこで、病変部が検出されなかったフレームに対し、病変部が検出された直近のフレームの情報を用いてマーカなどを延長表示させる方法が考えられる。
例えば、一般画像向けに表示情報を延長表示させる方法として提案されている、日本国特開2009−105705号公報を内視鏡画像用画像処理装置に適用することにより、マーカなどの延長表示を実現することは可能である。
しかし、日本国特開2009−105705号公報による延長表示手段では、どんな状況においても一定時間延長処理を行っている。このため、例えば、明らかな病変に対しては、必要以上にマーカが長く表示されることにより、視認性を損なってしまうという問題があった。また、例えば、気づきにくい病変部に対しては、病変部を識別する前にマーカが消失してしまうことにより、病変部を見落とす可能性があるという問題があった。
本発明は、前述した事情に鑑みてなされたものであり、内視鏡観察において発生し得る病変部の見落としを低減させ、かつ、視認性を向上させることが可能な内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラムを提供することを目的としている。
本発明の一態様の内視鏡用画像処理装置は、被写体を内視鏡にて撮像して得られた複数の観察画像が順次入力される画像入力部と、前記内視鏡の観察対象である病変部を前記観察画像から検出する病変検出部と、前記病変部の検出結果を前記観察画像に付加して出力する表示制御出力部とを備える。前記表示制御出力部は、病変の状態を解析する病変状態解析部と、前記病変部の状態に応じて前記病変部の検出結果の表示延長時間を設定する表示延長時間設定部とを備える。
本発明の一態様の内視鏡用画像処理方法は、被写体を内視鏡にて撮像して得られた複数の観察画像を順次入力し、前記内視鏡の観察対象である病変部を前記観察画像から検出し、前記病変部の状態を解析し、前記状態に応じて前記病変部の検出結果の表示延長時間を設定し、前記病変部の検出結果を前記観察画像に付加して出力する。
本発明の一態様の内視鏡用画像処理プログラムは、画像入力部が、被写体を内視鏡にて撮像して得られた複数の観察画像を順次取得するステップと、病変検出部が、前記内視鏡の観察対象である病変部を前記観察画像から検出するステップと、病変状態解析部が、病変部の状態を解析するステップと、表示延長時間設定部が、前記病変部の状態に応じて前記検出結果の表示延長時間を設定するステップと、表示制御出力部が、前記病変部の検出結果を前記観察画像に付加して出力するステップと、をコンピュータに実行させる。
第1の実施形態に係る画像処理装置を含む内視鏡システムの要部の構成を示す図。 第1の実施形態に係る画像処理装置の画像処理に係る構成の一例を説明するためのブロック図。 第1の実施形態に係る画像処理装置において行われる処理の一例を示すフローチャート。 第1の実施形態に係る画像処理装置において行われる処理の一例を説明するためのタイムチャート。 第1の実施形態に係る画像処理装置において行われる処理の、別の一例を説明するためのタイムチャート。 第1の実施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の一例を示す図。 第1の実施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の別の一例を示す図。 第1の実施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の別の一例を示す図。 第2の実施形態に係る病変状態解析部の構成の一例を説明するためのブロック図。 第2の実施形態に係る病変解析処理の流れの一例を示すフローチャート。 第2の実施形態の変形例に係る病変解析処理の流れの一例を示すフローチャート。 第3の実施形態に係る病変解析処理の流れの一例を示すフローチャート。 第3の実施形態の変形例に係る病変解析処理の流れの一例を示すフローチャート。
以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置を含む内視鏡システムの要部の構成を示す図である。内視鏡システム1は、図1に示すように、光源駆動装置11と、内視鏡21と、ビデオプロセッサ31と、内視鏡用画像処理装置(以下、画像処理装置と示す)32と、表示装置41と、を有して構成されている。
光源駆動装置11は、例えば、ドライブ回路を具備して構成されている。また、光源駆動装置11は、内視鏡21及びビデオプロセッサ31に接続されている。また、光源駆動装置11は、ビデオプロセッサ31からの光源制御信号に基づき、内視鏡21の光源部23を駆動させるための光源駆動信号を生成し、当該生成した光源駆動信号を内視鏡21へ出力するように構成されている。
内視鏡21は、光源駆動装置11及びビデオプロセッサ31に接続されている。また、内視鏡21は、被検者の体腔内に挿入可能な細長形状の挿入部22を有して構成されている。また、挿入部22の先端部には、光源部23と、撮像部24と、が設けられている。
光源部23は、例えば、白色LEDのような発光素子を具備して構成されている。また、光源部23は、光源駆動装置11から出力される光源駆動信号に応じて発光することにより照明光を発生し、当該発生した照明光を生体組織等の被写体へ出射するように構成されている。
撮像部24は、例えば、カラーCCDまたはカラーCMOSのようなイメージセンサを有して構成されている。また、撮像部24は、ビデオプロセッサ31から出力される撮像制御信号に応じた動作を行うように構成されている。また、撮像部24は、光源部23からの照明光により照明された被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力するように構成されている。
ビデオプロセッサ31は、光源駆動装置11及び内視鏡21に接続されている。また、ビデオプロセッサ31は、光源部23の発光状態を制御するための光源制御信号を生成して光源駆動装置11へ出力するように構成されている。また、ビデオプロセッサ31は、撮像部24の撮像動作を制御するための撮像制御信号を生成して出力するように構成されている。また、ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像G1を生成し、当該生成した観察画像G1を画像処理装置32へ1フレームずつ順次出力するように構成されている。
画像処理装置32は、画像処理回路等の電子回路を具備して構成されている。また、画像処理装置32は、ビデオプロセッサ31から出力される観察画像G1に基づいて表示用画像を生成し、当該生成した表示用画像を表示装置41に表示させるための動作を行うように構成されている。また、画像処理装置32は、図2に示すように、画像入力部33と、病変検出部34と、表示制御部36と、を有して構成されている。図2は、第1の実施形態に係る画像処理装置の画像処理に係る構成の一例を説明するためのブロック図である。
画像入力部33は、ビデオプロセッサ31から入力される観察画像G1を、病変検出部34へ出力する。
病変検出部34は、画像入力部33から順次出力される観察画像G1に含まれる病変領域Ln(n=1、2…)を検出するように構成されている。病変検出部34は、例えば、ディープラーニング等の学習手法でポリープ画像を識別可能な機能を予め取得した画像識別器を観察画像G1に対して適用する処理を行うことにより、当該観察画像G1から病変領域Lnを検出する。なお、病変領域Lnの検出は、上記に示す学習手法に限定されず、他の手法を用いてもよい。例えば、特開2007−244518号公報に開示のようなポリープ候補検出処理などを用いてもよい。
表示制御出力部としての表示制御部36は、表示装置41に接続されている。また、表示制御部36は、強調処理部36aと、病変状態解析部36bと、表示延長時間設定部36cと、記録部36dとを有して構成されている。表示制御部36は、ビデオプロセッサ31から順次出力される観察画像G1を用いて表示用画像を生成するための処理を行うとともに、当該生成した表示用画像を表示装置41の表示画面41Aに表示させるための処理を行うように構成されている。
強調処理部36aは、病変検出部34で検出された病変領域Lnの位置を強調するために、当該病変領域Lnを囲むマーカ画像G2を生成して、観察画像G1に付加する強調処理を行う。強調処理は、病変領域Lnが検出された時点から開始される。また、強調処理は、病変領域Lnの検出が途絶してから、表示延長時間設定部36cにおいて設定された表示延長時間が経過後に終了する。なお、病変領域Lnが検出された後、画面外に病変領域Lnが移動してしまった場合や、病変領域Lnの検出に失敗してしまった場合も、途絶に含まれる。
なお、強調処理部36aの強調処理により付加されるマーカ画像G2は、病変候補Lnの位置を視覚情報として提示可能な限りにおいては、どのような形態を具備していてもよく、例えば、四角形、三角形、円形、星形等どのような画像でも構わない。また、マーカ画像G2は、病変領域Lnの位置を示すことができるものであれば、病変領域Lnを囲まない画像であっても構わない。例えば、病変領域Lnの明るさや色調を周辺領域とは異なるものとすることによって病変領域Lnの位置を示してもよい。更には、支援情報として病変領域を示すメッセージを生成し、病変領域の近傍や観察画面の周辺等にポップアップメッセージなどの形式で表示したり、フラグを生成して表示したりすることによって、その存在を示してもよい。
病変状態解析部36bは、病変検出部34で検出された病変領域Lnの状態を解析する。解析の結果は、表示延長時間設定部36cに出力される。
表示延長時間設定部36cは、強調処理部36aで生成されたマーカ画像G2の表示延長時間を、病変領域Lnの状態の解析結果に基づき設定する。なお、表示延長時間設定部36cで設定される表示延長時間とは、観察画像G1に付加表示されていたマーカ画像G2を、病変領域Lnの検出が途絶した後においても表示用画像に表示させる時間のことである。表示延長時間設定部36cには、2種類以上の表示延長時間が予め設定されており、病変状態解析部36bから入力される解析結果に応じて、適切な表示延長時間が選択される。
表示延長時間は、フレーム数によって規定される。例えば、第1の表示延長時間として1フレーム、第2の表示延長時間として10フレームが予め設定されている。1秒間のフレーム数が30であるとき、第1の表示延長時間は約0.03秒、第2の表示延長時間は約0.33秒となる。
病変領域Lnの状態を解析した結果、病変領域Lnが見づらい状態であったり、悪性度が高かったりする場合、術者が病変部を見落とすことを防ぐために、第2の表示延長時間を選択する。一方、病変領域Lnが見やすい状態であったり、悪性度が低かったりする場合、視認性を向上させるために、第1の表示延長時間を選択する。
記録部36dは、ビデオプロセッサ31から順次出力される複数の観察画像G1を複数の記録画像R1として順次(時系列順に)記録するように構成されている。
表示装置41は、モニタ等を具備し、画像処理装置32から出力される表示用画像を表示することができるように構成されている。
続いて、本実施形態の作用について説明する。図3は、第1の実施形態に係る画像処理装置において行われる処理の一例を示すフローチャートである。
内視鏡21は、例えば、光源駆動装置11及びビデオプロセッサ31の電源が投入された際に、被写体へ照明光を出射し、当該被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力する。
ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像G1を生成し、当該生成した観察画像G1を画像処理装置32へ1フレームずつ順次出力する。すなわち、画像入力部33は、ビデオプロセッサ31から生体内管腔画像である内視鏡画像(観察画像G1)を取得する(S1)。画像入力部33は、取得した画像を病変検出部34に出力する。
病変検出部34は、例えば、ディープラーニング等の学習手法でポリープ画像を識別可能な機能を予め取得した画像識別器を観察画像G1に対して適用する処理を行うことにより、当該観察画像G1から病変領域Lnを検出する(S2)。病変領域Lnの検出結果は、表示制御部36に出力される。
表示制御部36では、病変状態解析部36bにおいて、病変領域Lnの状態を解析する。病変状態解析部36bでは、画像解析によって病変領域Lnの重要性(悪性度など)や、位置などを判定し、見落としの可能性などを評価する(S3)。病変領域Lnの状態の解析結果は、表示延長時間設定部36cに入力される。
続いて、表示延長時間設定部36cは、病変領域Lnの状態の解析結果に基づき、病変領域Lnを強調するために表示画面に付加するマーカ画像G2の表示延長時間を、病変領域Lnの状態の解析結果に基づき設定する(S4)。病変領域Lnが見づらい状態であったり、悪性度が高かったりする場合(S4、YES)、S6に進み、表示延長時間を長く設定する。一方、病変領域Lnが見やすい状態であったり、悪性度が低かったりする場合、(S4、NO)、S5に進み、表示延長時間を短く設定する。
S5、または、S6の処理によって、表示延長時間の設定が終了すると、S7の処理に進む。S7では、強調処理部36aにおいて、病変領域Lnを囲むマーカ画像G2を生成して、観察画像G1に付加する強調処理を行う。強調処理は、病変領域Lnが検出された時点から開始され、病変領域Lnが画面外に移動したり検出に失敗したりすることにより、病変領域Lnの検出が途絶してから表示延長時間が経過した時点で終了する。表示制御部36は、観察画像G1に必要に応じてマーカ画像G2を付与した画像を、表示用画像として表示装置41に出力し、一連の処理を終了する。
図4と図5とは、本実施形態に係る画像処理装置において行われる処理の一例を説明するためのタイムチャートである。図4は、病変領域Lnが見づらい状態であったり、悪性度が高かったりする場合のタイムチャートであり、図5は、病変領域Lnが見やすい状態であったり、悪性度が低かったりする場合のタイムチャートである。また、図6は、本実施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の一例を示す図である。
表示制御部36は、病変検出部34による病変領域L1の検出が開始されたタイミング(=時刻Ta)において、病変領域L1にマーカ画像G2を付与した観察画像G1を表示画面41Aの表示領域D1に配置した表示用画像を表示させるための処理を行う。そして、このような表示制御部36の動作によれば、例えば、図4及び図5の時刻TaからTbの期間において、図6に示すような表示用画像が表示装置41の表示画面41Aに表示される。
また、表示制御部36は、病変検出部34による病変領域L1の検出が途絶したタイミング(=時刻Tb)から、表示延長時間が経過したタイミング(=時刻Tc、Td)までの期間、観察画像G1へのマーカ画像G2の付与を継続する。
すなわち、病変検出部34が病変領域L1の検出を継続している時間TLの間は、病変領域Lnの状態によらず、観察画像G1にマーカ画像G2が付加された状態の表示画像が生成され表示される。病変領域L1の検出が途絶したタイミング以降は、病変領域Lnの状態に応じて、マーカ画像G2の付与時間が変わる。
すなわち、病変領域Lnが見づらい状態であったり、悪性度が高かったりする場合には、病変領域L1の検出が途絶したタイミングから表示延長時間TD1の間、観察画像G1にマーカ画像G2が付加された状態の表示画像が生成され、表示装置41の表示画面41Aに表示される。一方、病変領域Lnが見やすい状態であったり、悪性度が低かったりする場合には、病変領域L1の検出が途絶したタイミングから表示延長時間TD2(TD2<TD1)の間、観察画像G1にマーカ画像G2が付加された状態の表示画像が生成され、表示装置41の表示画面41Aに表示される。
このように、上述の実施形態によれば、病変領域Lnの状態に応じて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整することで、内視鏡観察において発生し得る病変部の見落としを低減させ、かつ、視認性を向上させることができる。
なお、上述では、予め設定された2種類の時間TD1、TD2の中から適切な表示延長時間を選択しているが、病変領域Lnの状態に応じ、3種類以上の表示延長時間から選択するように構成してもよい。
また、上述では、表示用画像は、動画像である観察画像G1を有して構成されるが、表示用画像は、観察画像G1と静止画像である記録画像R1とによって構成されても構わない。
図7は、本実施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の別の一例を示す図である。表示制御部36は、病変領域L1の検出が途絶した場合に、病変候補検出部34bによる病変領域L1の検出が途絶したタイミングにおいて、観察画像G1を表示画面41Aの表示領域D1に配置し、かつ、病変領域L1の検出中に記録部36dが記録した記録画像R1を表示画面41Aの表示領域D2に配置した表示用画像を表示させるための処理を開始する。そして、病変領域L1の検出が途絶したタイミングから表示延長時間が経過したタイミングにおいて、記録画像R1を表示画面41Aの表示領域D2に配置する処理を終了する。
このような表示制御部36の動作によれば、例えば、病変領域L1の検出が途絶したタイミング(=時刻Tb)以降、表示延長時間が経過するまでの間、図6の観察画像G1に相当する記録画像R1が表示領域D2に配置された表示用画像が表示装置41の表示画面41Aに表示される。なお、表示領域D2は、例えば、表示画面41A上において、前述の表示領域D1よりも小さなサイズを有する領域として予め設定されているものとする。
すなわち、上述のようにサブ画面を用いて病変領域L1の検出が途絶した後も、病変領域Lnの位置を術者に示すことで、観察画像G1に対する視認性の低下を抑制しつつ、病変部の見落としを更に低減させることができる。
また、図8に示すように、表示画面41Aの表示領域D2には、記録画像R1だけでなく、当該画像の病変領域L1にマーカ画像G2を付加して表示してもよい。図8は、本施形態に係る画像処理装置の処理を経て表示装置に表示される表示用画像の別の一例を示す図である。記録画像R1にも強調処理を施しマーカ画像G2を付加して表示することで、病変部の位置が更に識別容易になり、見落としを更に低減させることができる。
(第2の実施形態)
上述の第1の実施形態では、病変領域Lnの状態に応じて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整しているが、本実施形態では、病変領域Lnの視認性を解析し、その結果に基づいて表示延長時間を決定する。
本実施形態の画像処理装置は、第1の実施形態の画像処理装置32と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。
図9は、第2の実施形態に係る病変状態解析部の構成の一例を説明するためのブロック図である。なお、図9は、以下に説明する本実施形態に係る構成だけでなく、本実施形態の後に説明する第3の実施形態に係る構成も含めて示している。各部の動作については、下記の説明の対応する箇所で詳述する。
図10は、第2の実施形態に係る病変解析処理の流れの一例を示すフローチャートである。図10の処理には、図9における病変状態解析部36b中の視認性解析部361、特に、病変単位情報解析部361Aが係る。
病変状態解析部36bは、病変領域Lnの視認性を解析する。まず、視認性の解析を行う項目を選択する(S11)。視認性の解析項目としては、例えば、(a)内視鏡21と病変領域Lnとの距離、(b)観察画像G1における病変領域Lnの専有面積の割合、(c)病変領域Lnの形状、(d)病変領域Lnのサイズ、(e)観察画像G1における病変領域Lnの位置、(f)病変領域Lnの色・輝度、(g)病変領域Lnの位置する臓器部位、などの項目があげられる。病変状態解析部36bは、これらの中から選択された項目について、解析を行う。なお、視認性の解析は、1つの項目のみを選択して行ってもよいし、複数の項目を選択して行ってもよい。
(a)内視鏡21と病変領域Lnとの距離
本項目が解析項目として選択された場合、以下に説明する処理(S12)が行われる。S12の処理には、図9における病変距離推定部361A1が係る。
病変距離推定部361A1は、画像内の各画素までの撮像距離を推定する。ここでは、公知の様々な技術のうち、画像を基に撮影対象を均等拡散面と仮定した撮影距離推定について説明する。
具体的には、まず、低吸収波長成分として、生体内での吸収あるいは散乱の度合いが最も低い低吸収波長(例えば赤色(R)の波長)成分が選択される。これは、粘膜表面に映る血管等による画素値低下を抑え、最も粘膜表面との撮像距離に相関する画素値情報を得るためであり、赤色(R)、緑色(G)、青色(B)の3つの成分からなる画像においては、赤(R)成分が血液の吸収帯域から離れる波長、かつ長波長の成分で、生体内での吸収、散乱の影響を受け難いためであり、赤(R)成分が選択される。
そして、病変距離推定部361A1は、低吸収波長成分の画素値を基に均等拡散面を仮定した撮像距離を推定する。具体的には、撮像距離は、次の式(1)により算出される。
Figure 2020008651
ここで、rは、撮像距離を示し、Iは、事前に測定して得られた光源の放射強度を示し、Kは、事前に測定された、平均値である粘膜表面の拡散反射係数を示す。θは、粘膜表面の法線ベクトルと該表面から光源までのベクトルのなす角を示し、内視鏡21の挿入部先端部の光源と粘膜表面の位置関係により決まる値であり、平均的な値が事前に設定される。Lは、撮像距離推定対象の粘膜表面が映る画素のR成分値を示す。
なお、撮像距離推定の前に、各処理の精度低下要因と成り得る光学系や照明系による画素値ムラの補正や、鏡面反射、残渣、泡等の非粘膜領域の除外を行っても良い。
また、ここでは、画像に基づく方法を示したが、その他にも測距センサ等に基づいて算出しても良い。
以上のように、病変距離推定部361A1は、内視鏡21と病変領域Lnとの距離とを推定し、解析結果として出力する。
(b)観察画像G1における病変領域Lnの専有面積の割合
本項目が解析項目として選択された場合、以下に説明する処理(S13)が行われる。S13の処理には、図9における病変専有面積算出部361A2が係る。
病変専有面積算出部361A2は、観察画像G1において病変領域Lnが占める面積の割合を算出する。具体的には、例えば、ディープラーニング等の学習手法でポリープ画像を識別可能な機能を予め取得した画像識別器を観察画像G1に対して適用する処理を行うことにより、当該観察画像G1から病変領域Lnを検出する。そして、病変領域Lnに含まれる画素数を算出する。最後に、病変領域Lnに含まれる画素数を、観察画像G1を構成する全画素数で除することにより、専有面積率を算出する。
なお、病変領域Lnの位置情報は、病変検出部34から取得してもよい。また、病変領域Lnの検出は、上記に示す学習手法に限定されず、他の手法を用いてもよい。例えば、特開2007−244518号公報に開示のようなポリープ候補検出処理などを用いてもよい。
以上のように、病変専有面積算出部361A2は、観察画像G1における病変領域Lnの専有面積の割合を算出し、解析結果として出力する。
(c)病変領域Lnの形状
本項目が解析項目として選択された場合、以下に説明する処理(S14)が行われる。S14の処理には、図9における病変形状解析部361A3が係る。
病変形状解析部361A3は、病変部の形状に基づいた鑑別分類を行う。具体的には、病変形状解析部361A3は、病変領域を示すマスク画像を作成し、その画像に基づいて形状特徴量を算出する。形状特徴量は、SVM等の分類器を用いて、機械学習により生成された複数のクラスの1つに分類される。ここで、形状特徴量としては、円形度、モーメント、フラクタル次元などの公知のパラメータが用いられる。
例えば、大腸ポリープの場合、隆起型(I型)と表面型(II型)があり、隆起型の中でも、立ち上がりにくびれの無い無茎性(Is)、立ち上がりにくびれのある亜有茎性(Isp) 、茎のある有茎性(Ip)がある。表面型では、隆起型(IIa)、平坦型(IIb)、陥凹型(IIc)などの分類がなされる。
例えば、胃ポリープの場合、粘膜下腫瘍型(隆起I型)、無茎型(隆起II型)、亜有茎型(隆起III型)、有茎型(隆起IV型)がある。また、例えば胃癌の場合、表在型(0型)、腫瘤型(1型)、潰瘍限局型(2型)、潰瘍浸潤型(3型)、びまん性浸潤型(4型)などの分類がなされる。
以上のように、病変形状解析部361A3は、病変部の形状を鑑別し、解析結果として出力する。
(d)病変領域Lnのサイズ
本項目が解析項目として選択された場合、以下に説明する処理(S15)が行われる。S15の処理には、図9における病変サイズ推定部361A4が係る。
病変サイズ推定部361A4は、まず、画像内の各画素までの撮像距離を推定する。撮像距離の推定は、上述した手法などを用いて病変サイズ推定部361A4において行ってもよいし、病変距離推定部361A1において処理を行い、結果を取得してもよい。
次に、病変サイズ推定部361A4は、病変近辺の画素の撮像距離に対して、その撮像距離より小さい閾値および大きい閾値を設け、その閾値処理により病変のある撮像距離帯の領域を抽出する。病変サイズ推定部361A4は、その領域の円形度を算出し、所定値より大きかった場合、その領域を管腔として検出する。
最後に、病変サイズ推定部361A4は、管腔と病変部を比較し、病変部のサイズを推定する。
具体的には、病変サイズ推定部361A4は、検出した管腔の円周長に対して病変の長さが占める割合を算出することにより、病変の実際のサイズを推定する。なお、各臓器部位(位置)の管腔の周長を解剖学に基づいて事前に設定しておき、サイズ推定の精度を向上させることもできる。例えば、大腸検査の場合に、挿入部の挿入量から、大腸の病変部の部位(位置)推定を行い、事前に設定しておいた管腔の周長と比較して、サイズ推定の精度を向上させるようにしてもよい。
以上のように、病変サイズ推定部361A4は、内視鏡画像に写る管腔の円形サイズと比較して病変部のサイズを推定し、解析結果として出力する。
(e)観察画像G1における病変領域Lnの位置
本項目が解析項目として選択された場合、以下に説明する処理(S16)が行われる。S16の処理には、図9における病変位置解析部361A5が係る。
病変位置解析部361A5は、まず、例えば、ディープラーニング等の学習手法でポリープ画像を識別可能な機能を予め取得した画像識別器を観察画像G1に対して適用する処理を行うことにより、当該観察画像G1から病変領域Lnを検出し、位置情報を取得する。なお、病変領域Lnの検出は、上記に示す学習手法に限定されず、他の手法を用いてもよい。例えば、特開2007−244518号公報に開示のようなポリープ候補検出処理などを用いてもよい。また、病変領域Lnの位置情報は、病変検出部34や、病変専有面積算出部361A2から取得してもよい。
次に、観察画像G1における病変領域Lnの位置を解析する。具体的な手法の一例を以下に説明する。まず、観察画像G1中における観察画像G1を垂直方向に3等分、水平方向に3等分し、9つのブロックに分割する。例えば、観察画像G1が1920×1080画素の場合、画像の左上を原点(0、0)とすると、(0、0)〜(640、360)の領域(1A)、(641、0)〜(1280、360)の領域(1B)、(1281、0)〜(1920、360)の領域(1C)、(0、361)〜(640、720)の領域(2A)、(641、361)〜(1280、720)の領域(2B)、(1281、361)〜(1920、720)の領域(2C)、(0、721)〜(640、1080)の領域(3A)、(641、721)〜(1280、1080)の領域(3B)、(1281、721)〜(1920、1080)の領域(3C)、に分割する。
この1A〜3Cの9ブロックのうち、病変領域Lnが存在するブロックを特定し、病変領域Lnの位置として出力する。なお、病変領域Lnが複数ブロックに跨って存在する場合、病変領域Lnが存在する面積が最も大きいブロックを、病変領域Lnが存在するブロックとする。なお、病変領域Lnが存在するブロックの特定方法は、上述の方法に限定されず、例えば、病変領域Lnの中心に位置する画素が存在するブロックとするなど他の方法を用いてもよい。また、観察画像G1を分割して生成するブロック数は9ブロックに限定されず、例えば、2×2=4ブロック、4×4=16ブロックなどとしてもよい。
また、病変領域Lnの位置は、上述したブロック位置でなく、観察画像G1の中心画素位置からの距離として算出してもよい。
以上のように、病変位置解析部361A5は、観察画像G1における病変領域Lnの位置を特定し、解析結果として出力する。
(f)病変領域Lnの色・輝度
本項目が解析項目として選択された場合、以下に説明する処理(S17)が行われる。S17の処理には、図9における病変色・輝度解析部361A6が係る。
病変色・輝度解析部361A6は、観察画像G1が赤色(R)、緑色(G)、青色(B)の3つの成分からなる画像である場合、病変領域Lnに含まれる画素について、それぞれの画素値(R画素値、G画素値、B画素値)を抽出する。そして、R画素値、G画素値、B画素値のそれぞれについて平均を求め、病変領域Lnの色画素値とする。なお、病変領域Lnの画素値の算出には、平均ではなく、最頻値など他の統計値を用いてもよい。
また、病変領域Lnに含まれる画素について、それぞれの輝度値を抽出して平均値を求め、病変領域Lnの輝度値とする。なお、輝度値の算出には、平均ではなく、最頻値など他の統計値を用いてもよい。
以上のように、病変色・輝度解析部361A6は、観察画像G1における病変領域Lnの色画素値・輝度値を算出し、解析結果として出力する。
(g)病変領域Lnの位置する臓器部位
本項目が解析項目として選択された場合、以下に説明する処理(S18)が行われる。S18の処理には、図9における臓器部位解析部361A7が係る。
臓器部位解析部361A7は、観察部位の推定を行う。例えば、観察する臓器が大腸の場合は、直腸、S状結腸、下行結腸、左結腸曲(脾彎曲部)、横行結腸、右結腸曲(肝彎曲部)、上行結腸及び盲腸を認識し、観察する臓器が胃の場合は、噴門、胃底部、胃体部、胃角部、前庭部、幽門部、幽門及び十二指腸を認識し、小腸の場合は、空腸、回腸を認識し、食道の場合は、頸部食道、胸部食道、腹部食道を認識する。具体的には、それぞれの写った画像データを収集し、その画像データを用いて機械学習させることで、SVM等を用いて部位(位置)推定を行うことができる。
以上のように、臓器部位解析部361A7は、観察部位を推定し、解析結果として出力する。
S12からS18の処理のうち、選択された1つ以上の項目の処理が終了すると、病変状態解析部36bは、これらの解析結果に基づき、視認性を判定する(S19)。まず、解析項目ごとに視認性を判定する。
(a)内視鏡21と病変領域Lnとの距離
解析結果として病変距離推定部361A1から出力された内視鏡21と病変領域Lnとの距離が、予め設定されている所定の距離より大きい場合、視認性が低いと判定する。一方、内視鏡21と病変領域Lnとの距離が、所定の距離以下である場合、視認性が高いと判定する。
(b)観察画像G1における病変領域Lnの専有面積の割合
解析結果として病変専有面積算出部361A2から出力された病変領域Lnの専有率が、予め設定されている所定の割合(例えば5パーセント)以下である場合、視認性が低いと判定する。一方、病変領域Lnの専有率が、所定の割合より大きい場合、視認性が高いと判定する。
(c)病変領域Lnの形状
解析結果として病変形状解析部361A3から出力された病変領域Lnの形状が、予め設定された視認性の高い形状に該当する場合、視認性が高いと判定する。例えば、次にあげる形状が視認性の高い形状として設定される。
病変部が大腸である場合:表面平坦型(IIb)、表面陥凹型(IIc)。
病変部が胃である場合:粘膜下腫瘍型(隆起I型)。
また、病変領域Lnの形状が、予め設定された視認性の低い形状に該当する場合、視認性が低いと判定する。例えば、次にあげる形状が視認性の低い形状として設定される。
病変部が大腸である場合:無茎性(Is)、亜有茎性(Isp) 、有茎性(Ip)、表面隆起型(IIa)。
病変部が胃である場合:無茎型(隆起II型)、亜有茎型(隆起III型)、有茎型(隆起IV型)、腫瘤型(1型)、潰瘍限局型(2型)、潰瘍浸潤型(3型)、びまん性浸潤型(4型)。
(d)病変領域Lnのサイズ
解析結果として病変サイズ推定部361A4から出力された病変領域Lnのサイズが、予め設定されている所定のサイズ(例えば5mm)以下である場合、視認性が低いと判定する。一方、病変領域Lnのサイズが、所定のサイズより大きい場合、視認性が高いと判定する。
(e)観察画像G1における病変領域Lnの位置
解析結果として病変位置解析部361A5から出力された病変領域Lnの位置に応じて、視認性を判定する。すなわち、病変領域Lnの位置が画像中心から離れている場合、視認性が低いと判定する。一方、病変領域Lnの位置が画像中心に近い場合、視認性が高いと判定する。
例えば、解析結果として、病変領域Lnが存在するブロック位置が出力された場合、予めブロックごとに登録されている視認性を判定結果とする。具体的には、例えば、観察画像G1が3×3=9ブロックに分割されており、画像の4隅に位置する4つのブロック(ブロック1A、3A、1C、3C)は視認性が低いと登録されており、その他の5つのブロック(ブロック2A、1B、2B、3B、2C)は視認性が高いと登録されているとする。この場合、病変領域Lnが存在するブロック位置が、ブロック1A、3A、1C、3Cであれば、視認性が低いと判定し、ブロック2A、1B、2B、3B、2Cであれば、視認性が高いと判定する。
解析結果として、観察画像G1の中心画素位置からの距離が出力された場合、予め設定されている所定の距離より大きい場合、視認性が低いと判定する。一方、所定の距離以下である場合、視認性が高いと判定する。
(f)病変領域Lnの色・輝度
解析結果として病変色・輝度解析部361A6から出力された病変領域Lnの色・輝度が、正常粘膜の色・輝度に近い場合、視認性が低いと判定する。一方、病変領域Lnの色・輝度が、正常粘膜の色・輝度と離れている場合、視認性が高いと判定する。判定基準となる正常粘膜の色(色画素値)・輝度(輝度値)は、予め登録したものを用いてもよいし、病変領域Lnが存在する観察画像G1における、正常粘膜部分の値を用いてもよい。
(g)病変領域Lnの位置する臓器部位
解析結果として臓器部位解析部361A7から出力された病変領域Lnの位置する臓器部位が、予め設定された視認性の高い部位に該当する場合、視認性が高いと判定する。例えば、次にあげる臓器部位が視認性の高い部位として設定される。
病変部が大腸である場合:下行結腸、横行結腸、盲腸。
病変部が胃である場合:噴門、胃底部、胃体部、胃角部、前庭部、幽門部、幽門及び十二指腸。
病変部が小腸である場合:空腸、回腸。
病変部が食道である場合:頸部食道、胸部食道、腹部食道。
また、病変領域Lnの位置する臓器部位が、予め設定された視認性の低い部位に該当する場合、視認性が低いと判定する。例えば、次にあげる臓器部位が視認性の低い部位として設定される。
病変部が大腸である場合:直腸、S字結腸、左結腸曲(脾彎曲部)、右結腸曲(肝彎曲部)、上行結腸。
すなわち、病変が多発する部位や、検査画像が見づらく病変を見落としやすい部位である場合、視認性が低い部位として判定する。
S11において、視認性の解析項目として1項目のみが選択された場合、病変状態解析部36bは、当該項目に関する視認性判定結果を病変領域Lnの視認性として出力し、一連の病変解析処理を終了する。S11において、視認性の解析項目として2項目以上が選択された場合、選択された項目の視認性判定結果を参照し、病変領域Lnの視認性を決定する。
複数の項目が選択された場合の視認性の決定方法としては、例えば、多数決方式があげられる。すなわち、選択された項目の視認性判定結果のうち、視認性が高いと判定された項目の数が、視認性が低いと判定された項目の数よりも多い場合、病変領域Lnの視認性は高いと決定する。一方、視認性が高いと判定された項目の数が、視認性が低いと判定された項目の数以下の場合、病変領域Lnの視認性は低いと決定する。
また、別の決定方法として、例えば、ポイント方式があげられる。すなわち、上述した(a)〜(g)の各項目のそれぞれについて、視認性に応じてポイントが付与される。例えば、各項目において、視認性が低いと判定された場合は+1ポイント、視認性が高いと判定された場合は−1ポイントが付与される。なお、特に視認性に寄与する項目(例えば、項目(c)や項目(e))に関しては、視認性が低いと判定された場合には+3ポイント、視認性が高いと判定された場合には−3ポイントなど、他の項目に比べて重み付けされたポイントが付与されるように設定してもよい。
選択された項目の視認性判定結果をポイント換算して総和を算出し、予め設定された閾値(例えば1ポイント)よりもポイントの総和が大きい場合、病変領域Lnの視認性が低いと判定し出力する。一方、ポイントの総和が、予め設定された閾値以下の場合、病変領域Lnの視認性が高いと判定し、出力する。
判定結果は、表示延長時間設定部36cに出力される。表示延長時間設定部36cは、病変状態解析部36bの視認性判定結果に基づき、適切な表示延長時間を選択する。すなわち、視認性が低いほど、表示延長時間を長く設定する。また、視認性判定結果に基づき、表示延長時間設定部36cにおいて表示延長時間を算出してもよい。例えば、上述した(a)〜(g)の各項目のそれぞれについて、検出結果に応じて延長表示時間(フレーム数)の増減値を予め設定しておく。例えば、項目(d)病変領域Lnのサイズに関し、大きいサイズの場合は−2フレーム、普通のサイズの場合は±0フレーム、小さいサイズの場合は+2フレームのように設定しておく。また、例えば、項目(a)内視鏡21と病変領域Lnとの距離に関し、所定距離範囲よりも離れている場合は+2フレーム、所定の範囲内の場合は±0フレーム、所定距離範囲よりも近いの場合は−2フレームのように、全項目について設定しておく。そして、選択された項目の視認性判定結果に基づき延長表示時間(フレーム数)の増減値の総和を算出し、表示延長時間を設定することも可能である。
なお、ポイント方式を用いる場合、(a)〜(g)の各項目における視認性判定もポイント方式で行ってもよい。例えば、項目(d)に関し、病変領域Lnの位置が観察画像G1の中心画素位置から第1の閾値までの範囲内に存在する場合は−1ポイント、第1の閾値から第2の閾値までの範囲内に存在する場合は0ポイント、第2の閾値から第3の閾値までの範囲内に存在する場合は+1ポイント(ただし、第1の閾値<第2の閾値<第3の閾値)を付与する。付与されたポイントを視認性の判定結果として出力し、S19においては、各項目の判定結果として出力されるポイントの総和を算出する方式を用いてもよい。
以上のように、上述の実施形態によれば、病変状態解析部36bにより解析される病変領域Lnの視認性に基づいて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整することで、内視鏡観察において発生し得る病変部の見落としを低減させ、かつ、視認性を向上させることができる。
(第2の実施形態の変形例)
上述の第2の実施形態では、病変単位で視認性を判定しているが、本変形例では、画像単位で視認性を判定している。
図11は、本変形例に係る病変解析処理の流れの一例を示すフローチャートである。図11の処理には、図9における病変状態解析部36b中の視認性解析部361、特に、画像単位情報解析部361Bが係る。
病変状態解析部36bは、観察画像G1における病変領域Lnの視認性を解析する。画像単位で視認性を解析する場合、病変個数解析部361B1において、観察画像G1中に存在する病変領域Lnの個数を抽出する(S21)。
次に、病変状態解析部36bは、病変個数解析部361B1において抽出された病変領域Lnの個数に基づき、観察画像G1の視認性を判定する(S22)。すなわち、個数病変領域Lnの個数が予め設定された閾値(例えば、3個)よりも多い場合、視認性が低いと判定する。一方、個数病変領域Lnの個数が予め設定された閾値以下である場合、視認性が高いと判定する。
判定結果は、表示延長時間設定部36cに出力される。表示延長時間設定部36cは、病変状態解析部36bの視認性判定結果に基づき、適切な表示延長時間を選択する。
なお、画像単位の解析結果と病変単位の解析結果の両方を用いて、視認性の判定を行ってもよい。すなわち、図10に示すS11からS18の一連の手順を行って病変単位の視認性の解析を行った後、引き続き図11に示すS21の手順を行う。これらの手順によって取得した、病変単位の解析結果と画像単位の解析結果とを用いて、総合的に視認性の判定を行ってもよい。
以上のように、本変形例によれば、上述した各実施形態と同様の効果を得ることができる。
(第3の実施形態)
上述の第2の実施形態では、病変領域Lnの視認性に応じて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整しているが、本実施形態では、病変領域Lnの重要度を解析し、その結果に基づいて表示延長時間を決定する。
本実施形態の画像処理装置は、第1の実施形態の画像処理装置32と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。
図12は、第3の実施形態に係る病変解析処理の流れの一例を示すフローチャートである。図12の処理には、図9における病変状態解析部36b中の重要度解析部362、特に、病変種類解析部362Aが係る。
病変状態解析部36bは、病変領域Lnの重要度を解析する。まず、重要度の解析を行う項目を選択する(S31)。重要度の解析項目としては、例えば、(h)病変領域Lnの悪性度、(i)病変領域Lnの位置する臓器部位、(j)病変領域Lnの色・輝度、などの項目があげられる。病変状態解析部36bは、これらの中から選択された項目について、解析を行う。なお、悪性度の解析は、1つの項目のみを選択して行ってもよいし、複数の項目を選択して行ってもよい。
(h)病変領域Lnの悪性度
本項目が解析項目として選択された場合、以下に説明する処理(S21)が行われる。S21の処理には、図9における悪性度解析部362A1が係る。
悪性度解析部362A1は、病変領域Lnの悪性度を分類する。悪性度の分類は、観察方法によって選択され、例えば、狭帯域観察を行っている場合には、NICE(NBI International Colorectal Endoscopic)分類や、JNET(The Japan NBI Expert Team)分類などの、既存の悪性度分類を用いて、病変領域Lnの悪性度を分類する。
NICE分類は、単純なType1〜3の3つのカテゴリ分類で、(1)色調(color)、(2)微細血管構築(vessels)、(3)表面構造(surface pattern)の3つの視点から分類を行う。Type1は非腫瘍を、Type2は腺腫から粘膜内癌を、Type3はSM深部浸潤癌の指標となっている。
また、色素拡大観察の場合、PITパターン分類などを用いて、病変領域Lnの悪性度を分類する。
以上のように、悪性度解析部362A1は、病変領域Lnの悪性度を分類し、解析結果として出力する。
(i)病変領域Lnの位置する臓器部位
本項目が解析項目として選択された場合、以下に説明する処理(S33)が行われる。S33の処理には、図9における臓器部位解析部362A2が係る。
臓器部位解析部362A2は、観察部位の推定を行う。例えば、観察する臓器が大腸の場合は、直腸、S状結腸、下行結腸、左結腸曲(脾彎曲部)、横行結腸、右結腸曲(肝彎曲部)、上行結腸及び盲腸を認識し、観察する臓器が胃の場合は、噴門、胃底部、胃体部、胃角部、前庭部、幽門部、幽門及び十二指腸を認識し、小腸の場合は、空腸、回腸を認識し、食道の場合は、頸部食道、胸部食道、腹部食道を認識する。具体的には、それぞれの写った画像データを収集し、その画像データを用いて機械学習させることで、SVM等を用いて部位(位置)推定を行うことができる。
以上のように、臓器部位解析部362A2は、観察部位を推定し、解析結果として出力する。なお、臓器部位解析部362A2の処理内容は、臓器部位解析部361A7と同様であるので、臓器部位解析部361A7の結果を用いてもよい。
(j)病変領域Lnの色・輝度
本項目が解析項目として選択された場合、以下に説明する処理(S34)が行われる。S34の処理には、図9における病変色・輝度解析部362A3が係る。
病変色・輝度解析部362A3は、観察画像G1が赤色(R)、緑色(G)、青色(B)の3つの成分からなる画像である場合、病変領域Lnに含まれる画素について、それぞれの画素値(R画素値、G画素値、B画素値)を抽出する。そして、R画素値、G画素値、B画素値のそれぞれについて平均を求め、病変領域Lnの色画素値とする。なお、病変領域Lnの画素値の算出には、平均ではなく、最頻値など他の統計値を用いてもよい。
また、病変領域Lnに含まれる画素について、それぞれの輝度値を抽出して平均値を求め、病変領域Lnの輝度値とする。なお、輝度値の算出には、平均ではなく、最頻値など他の統計値を用いてもよい。
以上のように、病変色・輝度解析部362A3は、観察画像G1における病変領域Lnの色画素値・輝度値を算出し、解析結果として出力する。なお、病変色・輝度解析部362A3の処理内容は、病変色・輝度解析部361A6と同様であるので、病変色・輝度解析部361A6の処理結果を用いてもよい。
S32からS34の処理のうち、選択された1つ以上の項目の処理が終了すると、病変状態解析部36bは、これらの解析結果に基づき、重要度を決定する(S35)。まず、解析項目ごとに重要度を判定する。
(h)病変領域Lnの悪性度
解析結果として悪性度解析部362A1から出力された病変領域Lnの悪性度が、予め設定されたカテゴリに該当する場合、重要度が高いと判定する。
(i)病変領域Lnの位置する臓器部位
解析結果として臓器部位解析部362A2から出力された病変領域Lnの位置する臓器部位が、予め設定された重要度の高い部位に該当する場合、重要度が高いと判定する。例えば、次にあげる臓器部位が重要度の高い部位として設定される。例えば、次にあげる臓器部位が視認性の高い部位として設定される。
病変部が大腸である場合:S字結腸。
また、病変領域Lnの位置する臓器部位が、上述の部位以外の場合、重要度が低いと判定する。すなわち、放置すると病状が悪化するリスクが高い部位の場合、重要度が高い部位として判定する。なお、病変領域Lnの位置する臓器部位は、視認性の判定項目としてもあげられているが、視認性の高低と重要度の高低とは、それぞれ独立の評価指標で判定される。
(j)病変領域Lnの色・輝度
解析結果として病変色・輝度解析部362A3から出力された病変領域Lnの色・輝度が、予め登録されている重要度の高い病変部の色・輝度に近い場合、重要度が高いと判定する。なお、病変領域Lnの色・輝度も、視認性の判定項目としてもあげられているが、視認性の高低と重要度の高低とは、それぞれ独立の評価指標で判定される。
S31において、重要度の解析項目として1項目のみが選択された場合、病変状態解析部36bは、当該項目に関する重要度判定結果を病変領域Lnの重要度として出力し、一連の病変解析処理を終了する。S31において、重要度の解析項目として2項目以上が選択された場合、選択された項目の重要度判定結果を参照し、病変領域Lnの重要度を決定する。
複数の項目が選択された場合の重要度の決定方法は、視認性の決定方法と同様に、多数決方式やポイント方式などを用いることができる。
判定結果は、表示延長時間設定部36cに出力される。表示延長時間設定部36cは、病変状態解析部36bの重要度判定結果に基づき、適切な表示延長時間を選択する。すなわち、重要度が高いほど、表示延長時間を長く設定する。
以上のように、上述の実施形態によれば、病変状態解析部36bにより解析される病変領域Lnの重要度に基づいて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整することで、内視鏡観察において発生し得る病変部の見落としを低減させ、かつ、視認性を向上させることができる。
(第3の実施形態の変形例)
上述の第3の実施形態では、病変の種類に基づき重要度を判定しているが、本変形例では、病変の形状やサイズにより重要度を判定している。
図13は、本変形例に係る病変解析処理の流れの一例を示すフローチャートである。図13の処理には、図9における病変状態解析部36b中の重要度解析部362、特に、病変形状・サイズ解析部362Bが係る。
病変状態解析部36bは、病変領域Lnの重要度を解析する。まず、重要度の解析を行う項目を選択する(S41)。病変の形状やサイズに関する重要度の解析項目としては、例えば、(k)病変領域Lnの形状、(l)病変領域Lnのサイズ、などの項目があげられる。病変状態解析部36bは、これらの中から選択された項目について、解析を行う。なお、悪性度の解析は、1つの項目のみを選択して行ってもよいし、複数の項目を選択して行ってもよい。
(k)病変領域Lnの形状
本項目が解析項目として選択された場合、以下に説明する処理(S42)が行われる。S42の処理には、図9における病変形状解析部362B1が係る。
病変形状解析部362B1は、病変部の形状に基づいた鑑別分類を行う。具体的には、病変形状解析部362B1は、病変領域を示すマスク画像を作成し、その画像に基づいて形状特徴量を算出する。形状特徴量は、SVM等の分類器を用いて、機械学習により生成された複数のクラスの1つに分類される。ここで、形状特徴量としては、円形度、モーメント、フラクタル次元などの公知のパラメータが用いられる。
例えば、大腸ポリープの場合、隆起型(I型)と表面型(II型)があり、隆起型の中でも、立ち上がりにくびれの無い無茎性(Is)、立ち上がりにくびれのある亜有茎性(Isp) 、茎のある有茎性(Ip)がある。表面型では、隆起型(IIa)、平坦型(IIb)、陥凹型(IIc)などの分類がなされる。
例えば、胃ポリープの場合、粘膜下腫瘍型(隆起I型)、無茎型(隆起II型)、亜有茎型(隆起III型)、有茎型(隆起IV型)がある。また、例えば胃癌の場合、表在型(0型)、腫瘤型(1型)、潰瘍限局型(2型)、潰瘍浸潤型(3型)、びまん性浸潤型(4型)などの分類がなされる。
以上のように、病変形状解析部362B1は、病変部の形状を鑑別し、解析結果として出力する。なお、病変形状解析部362B1の処理内容は、病変形状解析部361A3と同様であるので、病変形状解析部361A3の結果を用いてもよい。
(l)病変領域Lnのサイズ
本項目が解析項目として選択された場合、以下に説明する処理(S43)が行われる。S43の処理には、図9における病変サイズ推定部362B2が係る。
病変サイズ推定部362B2は、まず、画像内の各画素までの撮像距離を推定する。撮像距離の推定は、上述した手法などを用いて病変サイズ推定部361A4において行ってもよいし、病変距離推定部361A1において処理を行い、結果を取得してもよい。
次に、病変サイズ推定部362B2は、病変近辺の画素の撮像距離に対して、その撮像距離より小さい閾値および大きい閾値を設け、その閾値処理により病変のある撮像距離帯の領域を抽出する。病変サイズ推定部362B2は、その領域の円形度を算出し、所定値より大きかった場合、その領域を管腔として検出する。
最後に、病変サイズ推定部362B2は、管腔と病変部を比較し、病変部のサイズを推定する。
具体的には、病変サイズ推定部362B2は、検出した管腔の円周長に対して病変の長さが占める割合を算出することにより、病変の実際のサイズを推定する。なお、各臓器部位(位置)の管腔の周長を解剖学に基づいて事前に設定しておき、サイズ推定の精度を向上させることもできる。例えば、大腸検査の場合に、挿入部の挿入量から、大腸の病変部の部位(位置)推定を行い、事前に設定しておいた管腔の周長と比較して、サイズ推定の精度を向上させるようにしてもよい。
以上のように、病変サイズ推定部362B2は、内視鏡画像に写る管腔の円形サイズと比較して病変部のサイズを推定し、解析結果として出力する。なお、病変サイズ推定部362B2の処理内容は、病変サイズ推定部361A4と同様であるので、病変サイズ推定部361A4の結果を用いてもよい。
S42、S43の処理のうち、選択された1つ以上の項目の処理が終了すると、病変状態解析部36bは、これらの解析結果に基づき、重要度を決定する(S44)。まず、解析項目ごとに重要度を判定する。
(k)病変領域Lnの形状
解析結果として病変形状解析部362B1から出力された病変領域Lnの形状が、予め設定された重要度の高い形状に該当する場合、重要度が高いと判定する。例えば、次にあげる形状が重要度の高い形状として設定される。
病変部が大腸である場合:表面平坦型(IIb)、表面陥凹型(IIc)。
病変部が胃である場合:腫瘤型(1型)、潰瘍限局型(2型)、潰瘍浸潤型(3型)、びまん性浸潤型(4型)。
また、病変領域Lnの形状が、上述の形状以外の場合、重要度が低いと判定する。すなわち、放置すると病状が悪化するリスクが高い形状の場合、重要度が高い部位として判定する。なお、病変領域Lnの形状は、視認性の判定項目としてもあげられているが、視認性の高低と重要度の高低とは、それぞれ独立の評価指標で判定される。
(l)病変領域Lnのサイズ
解析結果として病変サイズ推定部362B2から出力された病変領域Lnのサイズが、予め設定されている所定のサイズ(例えば5mm)以下である場合、重要度が低いと判定する。一方、病変領域Lnのサイズが、所定のサイズより大きい場合、重要度が高いと判定する。なお、病変領域Lnのサイズは、視認性の判定項目としてもあげられているが、視認性の高低と重要度の高低とは、それぞれ独立の評価指標で判定される。
複数の項目が選択された場合の重要度の決定方法は、視認性の決定方法と同様に、多数決方式やポイント方式などを用いることができる。
判定結果は、表示延長時間設定部36cに出力される。表示延長時間設定部36cは、病変状態解析部36bの重要度判定結果に基づき、適切な表示延長時間を選択する。すなわち、重要度が高いほど、表示延長時間を長く設定する。
なお、病変種類による解析結果と病変形状・サイズによる解析結果の両方を用いて、重要度の判定を行ってもよい。すなわち、図12に示すS31からS34の一連の手順を行って病変種類による重要度の解析を行った後、引き続き図13に示すS41からS43の手順を行う。これらの手順によって取得した、病変種類による解析結果と病変形状・サイズによる解析結果とを用いて、総合的に重要度の判定を行ってもよい。
また、視認性の解析結果と、重要度の解析結果の両方を用いて、病変の状態を判定してもよい。
以上のように、上述した各実施形態及び変形例によれば、病変領域Lnの状態に応じて、病変領域Lnの検出が途絶した後にマーカ画像G2を継続表示させる時間(表示延長時間)を調整することで、内視鏡観察において発生し得る病変部の見落としを低減させ、かつ、視認性を向上させることができる内視鏡用画像処理装置を提供することができる。
本発明は、上述した実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
本発明の一態様の内視鏡用画像処理装置は、被写体を内視鏡にて撮像して得られた複数の観察画像が順次入力される画像入力部と、前記内視鏡の観察対象である病変部を前記観察画像から検出する病変検出部と、前記病変部の検出結果を前記観察画像に付加して出力する表示制御出力部とを備える。前記表示制御出力部は、検出された前記病変部に係る、前記内視鏡からの距離、占有面積、形状、大きさ、前記観察画像における位置、色、輝度および臓器部位の少なくとも1つである視認性を解析する視認性解析部を有する病変状態解析部と、解析された前記視認性に応じて前記病変部の検出結果の表示延長時間を設定する表示延長時間設定部とを備える。
本発明の一態様の内視鏡用画像処理方法は、被写体を内視鏡にて撮像して得られた複数の観察画像を順次入力し、前記内視鏡の観察対象である病変部を前記観察画像から検出し、検出された前記病変部に係る、前記内視鏡からの距離、占有面積、形状、大きさ、前記観察画像における位置、色、輝度および臓器部位の少なくとも1つである視認性を解析し、解析された前記視認性に応じて前記病変部の検出結果の表示延長時間を設定し、前記病変部の検出結果を前記観察画像に付加して出力する。
本発明の一態様の内視鏡用画像処理プログラムは、画像入力部が、被写体を内視鏡にて撮像して得られた複数の観察画像を順次取得するステップと、病変検出部が、前記内視鏡の観察対象である病変部を前記観察画像から検出するステップと、病変状態解析部が、検出された前記病変部に係る、前記内視鏡からの距離、占有面積、形状、大きさ、前記観察画像における位置、色、輝度および臓器部位の少なくとも1つである視認性を解析するステップと、表示延長時間設定部が、解析された前記視認性に応じて前記病変部の検出結果の表示延長時間を設定するステップと、表示制御出力部が、前記病変部の検出結果を前記観察画像に付加して出力するステップと、をコンピュータに実行させる。

Claims (29)

  1. 被写体を内視鏡にて撮像して得られた複数の観察画像が順次入力される画像入力部と、
    前記内視鏡の観察対象である病変部を前記観察画像から検出する病変検出部と、
    前記病変部の検出結果を前記観察画像に付加して出力する表示制御出力部とを備え、
    前記表示制御出力部は、病変の状態を解析する病変状態解析部と、前記病変部の状態に応じて前記病変部の検出結果の表示延長時間を設定する表示延長時間設定部とを備えることを特徴とする内視鏡用画像処理装置。
  2. 前記病変状態解析部は、前記病変部の視認性を解析する視認性解析部を備えることを特徴とする、請求項1に記載の内視鏡用画像処理装置。
  3. 前記視認性解析部は、前記病変部ごとの視認性を解析する病変単位情報解析部を備えることを特徴とする、請求項2に記載の内視鏡用画像処理装置。
  4. 前記病変単位情報解析部は、前記病変部の前記内視鏡からの距離を推定する病変距離推定部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  5. 前記病変単位情報解析部は、前記観察画像における前記病変部の専有面積を算出する病変専有面積算出部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  6. 前記病変単位情報解析部は、前記病変部の形状を解析する病変形状解析部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  7. 前記病変形状解析部は、前記内視鏡の観察対象臓器部位が大腸のときは無茎性、亜有茎性、有茎性、表面隆起型、表面平坦型、表面陥凹型のいずれの形状であるかを解析し、前記観察対象臓器部位が胃のときは粘膜下腫瘍型、無茎型、亜有茎型、有茎型、表在型、腫瘤型、潰瘍限局型、潰瘍浸潤型、びまん性浸潤型のいずれの形状であるかを解析することを特徴とする、請求項6に記載の内視鏡用画像処理装置。
  8. 前記病変単位情報解析部は、前記病変部自体の大きさを推定する病変サイズ推定部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  9. 前記病変単位情報解析部は、前記観察画像における前記病変部の位置を解析する病変位置解析部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  10. 前記病変単位情報解析部は、前記病変部の色及び輝度のうち少なくとも一方を解析する病変色輝度解析部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  11. 前記病変単位情報解析部は、前記内視鏡の観察対象である臓器の部位を解析する臓器部位解析部を備えることを特徴とする、請求項3に記載の内視鏡用画像処理装置。
  12. 前記臓器部位解析部は、前記臓器が大腸のときは直腸、S状結腸、下行結腸、左結腸曲(脾彎曲部)、横行結腸、右結腸曲(肝彎曲部)、上行結腸及び盲腸を推定し、前記臓器が胃のときは噴門、胃底部、胃体部、胃角部、前庭部、幽門部、幽門及び十二指腸を推定し、前記臓器が小腸のときは、空腸、回腸を推定し、前記臓器が食道のときは、頸部食道、胸部食道、腹部食道を推定することを特徴とする、請求項11に記載の内視鏡用画像処理装置。
  13. 前記視認性解析部は、前記観察画像ごとに視認性を解析する画像単位情報解析部を備えることを特徴とする、請求項2に記載の内視鏡用画像処理装置。
  14. 前記画像単位情報解析部は、前記観察画像における前記病変部の個数を解析する病変個数解析部を備えることを特徴とする、請求項13に記載の内視鏡用画像処理装置。
  15. 前記表示延長時間設定部は、前記視認性解析部の解析結果に基づき、視認性が高いと判定された場合は前記表示延長時間を短く設定し、視認性が低いと判定された場合は前記表示延長時間を長く設定することを特徴とする、請求項2に記載の内視鏡用画像処理装置。
  16. 前記病変状態解析部は、前記病変部の重要度を解析する重要度解析部を備えることを特徴とする、請求項1に記載の内視鏡用画像処理装置。
  17. 前記重要度解析部は、前記病変部の種類による重要度を解析する病変種類解析部を備えることを特徴とする、請求項16に記載の内視鏡用画像処理装置。
  18. 前記病変種類解析部は、前記病変部の悪性度を解析する悪性度解析部を備えることを特徴とする、請求項17に記載の内視鏡用画像処理装置。
  19. 前記病変種類解析部は、前記内視鏡の観察対象である臓器の部位を解析する臓器部位解析部を備えることを特徴とする、請求項17に記載の内視鏡用画像処理装置。
  20. 前記臓器部位解析部は、前記臓器が大腸のときは直腸、S状結腸、下行結腸、左結腸曲(脾彎曲部)、横行結腸、右結腸曲(肝彎曲部)、上行結腸及び盲腸を推定し、前記臓器が胃のときは噴門、胃底部、胃体部、胃角部、前庭部、幽門部、幽門及び十二指腸を推定し、前記臓器が小腸のときは、空腸、回腸を推定し、前記臓器が食道のときは、頸部食道、胸部食道、腹部食道を推定することを特徴とする、請求項19に記載の内視鏡用画像処理装置。
  21. 前記病変種類解析部は、前記病変部の色及び輝度を解析する病変色輝度解析部を備えることを特徴とする、請求項17に記載の内視鏡用画像処理装置。
  22. 前記重要度解析部は、前記病変部の形状やサイズによる重要度を解析する病変形状サイズ解析部を備えることを特徴とする、請求項16に記載の内視鏡用画像処理装置。
  23. 前記病変形状サイズ解析部は、前記病変部の形状を解析する病変形状解析部を備えることを特徴とする、請求項22に記載の内視鏡用画像処理装置。
  24. 前記病変形状解析部は、前記内視鏡の観察対象臓器部位が大腸のときは無茎性、亜有茎性、有茎性、表面隆起型、表面平坦型、表面陥凹型のいずれの形状であるかを解析し、前記観察対象臓器部位が胃のときは粘膜下腫瘍型、無茎型、亜有茎型、有茎型、表在型、腫瘤型、潰瘍限局型、潰瘍浸潤型、びまん性浸潤型のいずれの形状であるかを解析することを特徴とする、請求項23に記載の内視鏡用画像処理装置。
  25. 前記病変形状サイズ解析部は、前記病変部自体の大きさを推定する病変サイズ推定部を備えることを特徴とする、請求項22に記載の内視鏡用画像処理装置。
  26. 前記表示延長時間設定部は、前記重要度解析部の解析結果に基づき、重要度が高いと判定された場合は前記表示延長時間を長く設定し、重要度が低いと判定された場合は前記表示延長時間を短く設定することを特徴とする、請求項16に記載の内視鏡用画像処理装置。
  27. 前記病変状態解析部は、前記病変部の視認性を解析する視認性解析部と前記病変部の重要度を解析する重要度解析部とを備え、前記表示延長時間設定部は、前記視認性解析部の解析結果と前記重要度解析部の解析結果に応じて前記表示延長時間を設定することを特徴とする、請求項1に記載の内視鏡用画像処理装置。
  28. 被写体を内視鏡にて撮像して得られた複数の観察画像を順次入力し、
    前記内視鏡の観察対象である病変部を前記観察画像から検出し、
    前記病変部の状態を解析し、前記状態に応じて前記病変部の検出結果の表示延長時間を設定し、
    前記病変部の検出結果を前記観察画像に付加して出力することを特徴とする、内視鏡用画像処理方法。
  29. 画像入力部が、被写体を内視鏡にて撮像して得られた複数の観察画像を順次取得するステップと、
    病変検出部が、前記内視鏡の観察対象である病変部を前記観察画像から検出するステップと、
    病変状態解析部が、病変部の状態を解析するステップと、
    表示延長時間設定部が、前記病変部の状態に応じて前記検出結果の表示延長時間を設定するステップと、
    表示制御出力部が、前記病変部の検出結果を前記観察画像に付加して出力するステップと、
    をコンピュータに実行させることを特徴とする内視鏡用画像処理プログラム。
JP2020528672A 2018-07-06 2018-07-06 内視鏡用画像処理装置、及び、内視鏡用画像処理装置の作動方法、並びに、内視鏡用画像処理プログラム Active JP7084994B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/025791 WO2020008651A1 (ja) 2018-07-06 2018-07-06 内視鏡用画像処理装置、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2020008651A1 true JPWO2020008651A1 (ja) 2021-03-18
JP7084994B2 JP7084994B2 (ja) 2022-06-15

Family

ID=69060039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528672A Active JP7084994B2 (ja) 2018-07-06 2018-07-06 内視鏡用画像処理装置、及び、内視鏡用画像処理装置の作動方法、並びに、内視鏡用画像処理プログラム

Country Status (4)

Country Link
US (1) US11656451B2 (ja)
JP (1) JP7084994B2 (ja)
CN (1) CN112312822A (ja)
WO (1) WO2020008651A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110214A1 (ja) * 2018-11-28 2020-06-04 オリンパス株式会社 内視鏡システム、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム
WO2022230607A1 (ja) * 2021-04-26 2022-11-03 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法
WO2023276017A1 (ja) * 2021-06-30 2023-01-05 オリンパスメディカルシステムズ株式会社 画像処理装置、内視鏡システム及び画像処理方法
WO2023126999A1 (ja) * 2021-12-27 2023-07-06 日本電気株式会社 画像処理装置、画像処理方法、及び、記憶媒体
WO2023187886A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2023250387A1 (en) * 2022-06-23 2023-12-28 Memorial Sloan-Kettering Cancer Center Systems and methods for differentiating between tissues during surgery
CN115496748B (zh) * 2022-11-08 2023-03-14 武汉楚精灵医疗科技有限公司 小肠图像的肠段识别方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244518A (ja) * 2006-03-14 2007-09-27 Olympus Medical Systems Corp 画像解析装置及び画像解析方法
WO2011096279A1 (ja) * 2010-02-05 2011-08-11 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理方法
JP2014018333A (ja) * 2012-07-17 2014-02-03 Hoya Corp 画像処理装置及び内視鏡装置
WO2015137016A1 (ja) * 2014-03-14 2015-09-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017104192A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 医用観察システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050152588A1 (en) * 2003-10-28 2005-07-14 University Of Chicago Method for virtual endoscopic visualization of the colon by shape-scale signatures, centerlining, and computerized detection of masses
WO2006124648A2 (en) * 2005-05-13 2006-11-23 The University Of North Carolina At Chapel Hill Capsule imaging devices, systems and methods for in vivo imaging applications
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
JP5106928B2 (ja) * 2007-06-14 2012-12-26 オリンパス株式会社 画像処理装置および画像処理プログラム
JP4950836B2 (ja) 2007-10-24 2012-06-13 富士フイルム株式会社 撮像装置およびその動作制御方法
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP6067264B2 (ja) * 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
US9269395B2 (en) * 2012-08-10 2016-02-23 Canon Kabushiki Kaisha Display control apparatus, display apparatus, and method for controlling the same
CN107708521B (zh) * 2015-06-29 2020-06-12 奥林巴斯株式会社 图像处理装置、内窥镜系统、图像处理方法以及图像处理程序
CN108135457B (zh) * 2015-10-26 2020-02-21 奥林巴斯株式会社 内窥镜图像处理装置
JP6602969B2 (ja) * 2016-05-23 2019-11-06 オリンパス株式会社 内視鏡画像処理装置
WO2017216922A1 (ja) * 2016-06-16 2017-12-21 オリンパス株式会社 画像処理装置及び画像処理方法
WO2019036363A1 (en) * 2017-08-14 2019-02-21 Progenity Inc. TREATMENT OF GASTROINTESTINAL TRACT DISEASE WITH GLATIRAMER OR A PHARMACEUTICALLY ACCEPTABLE SALT THEREOF
JP6827557B2 (ja) * 2017-10-26 2021-02-10 富士フイルム株式会社 医療画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244518A (ja) * 2006-03-14 2007-09-27 Olympus Medical Systems Corp 画像解析装置及び画像解析方法
WO2011096279A1 (ja) * 2010-02-05 2011-08-11 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理方法
JP2014018333A (ja) * 2012-07-17 2014-02-03 Hoya Corp 画像処理装置及び内視鏡装置
WO2015137016A1 (ja) * 2014-03-14 2015-09-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017104192A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 医用観察システム

Also Published As

Publication number Publication date
WO2020008651A1 (ja) 2020-01-09
CN112312822A (zh) 2021-02-02
JP7084994B2 (ja) 2022-06-15
US11656451B2 (en) 2023-05-23
US20210149182A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7084994B2 (ja) 内視鏡用画像処理装置、及び、内視鏡用画像処理装置の作動方法、並びに、内視鏡用画像処理プログラム
JP6833870B2 (ja) 画像処理装置
JP6657480B2 (ja) 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
JP6602969B2 (ja) 内視鏡画像処理装置
JP5242381B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP5444511B1 (ja) 画像処理装置
JP7413585B2 (ja) 医用画像処理装置、作動方法、プログラム、及び記録媒体、診断支援装置並びに内視鏡システム
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
CN113573654A (zh) 用于检测并测定病灶尺寸的ai系统
JP6640865B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6640866B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
US8666135B2 (en) Image processing apparatus
WO2020110214A1 (ja) 内視鏡システム、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム
JP5749864B2 (ja) 画像処理装置
US20210000327A1 (en) Endoscopic image processing apparatus, endoscopic image processing method, and recording medium
JPWO2012153568A1 (ja) 医用画像処理装置
JP2009028248A (ja) 医療用画像処理装置及び医療用画像処理方法
JP6824868B2 (ja) 画像解析装置及び画像解析方法
Masci et al. Interobserver agreement among endoscopists on evaluation of polypoid colorectal lesions visualized with the Pentax i-Scan technique
WO2023026538A1 (ja) 医療支援システム、医療支援方法及び評価支援装置
CN115038374A (zh) 图像处理装置、图像处理方法以及程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220603

R151 Written notification of patent or utility model registration

Ref document number: 7084994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151