JPWO2018078724A1 - 内視鏡画像処理装置及び内視鏡画像処理方法 - Google Patents
内視鏡画像処理装置及び内視鏡画像処理方法 Download PDFInfo
- Publication number
- JPWO2018078724A1 JPWO2018078724A1 JP2018546972A JP2018546972A JPWO2018078724A1 JP WO2018078724 A1 JPWO2018078724 A1 JP WO2018078724A1 JP 2018546972 A JP2018546972 A JP 2018546972A JP 2018546972 A JP2018546972 A JP 2018546972A JP WO2018078724 A1 JPWO2018078724 A1 JP WO2018078724A1
- Authority
- JP
- Japan
- Prior art keywords
- time
- region
- observation image
- interest
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 86
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims abstract description 105
- 238000004364 calculation method Methods 0.000 claims abstract description 41
- 238000003384 imaging method Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 30
- 230000003902 lesion Effects 0.000 description 140
- 230000003287 optical effect Effects 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 208000037062 Polyps Diseases 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 238000005286 illumination Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0676—Endoscope light sources at distal tip of an endoscope
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
内視鏡画像処理装置は、被写体を撮像して得られた観察画像が順次入力されるとともに、観察画像に対して注目領域を検出するための処理を行う注目領域検出部と、注目領域検出部により注目領域が検出された際に、注目領域が観察画像内に出現してからの経過時間である出現時間を算出する出現時間算出部と、出現時間が所定時間に達したタイミングにおいて、観察画像内に存在する注目領域の位置を強調するための強調処理を開始する強調処理部と、を有する。
Description
本発明は、内視鏡画像処理装置及び内視鏡画像処理方法に関する。
従来、内視鏡装置では、術者が、観察画像を見て病変部の有無等を判断している。術者が観察画像を見る際に病変部の見落としを抑止するため、例えば、日本国特開2011−255006号公報に示されるように、画像処理により検出された注目領域にアラート画像を付加して観察画像を表示する内視鏡装置が提案されている。
しかしながら、従来の内視鏡装置では、術者が病変部を発見する前にアラート画像が表示されることがあり、アラート画像によって示されていない領域に対する術者の注意力を低下させ、また、術者の目視による病変部発見意欲を削ぎ、病変部発見能力の向上を妨げる懸念がある。
そこで、本発明は、術者に対し、観察画像に対する注意力の低下を抑え、病変部発見能力の向上を妨げずに、注目領域を提示する内視鏡画像処理装置及び内視鏡画像処理方法を提供することを目的とする。
本発明の一態様の内視鏡画像処理装置は、被写体を撮像して得られた観察画像が順次入力されるとともに、当該観察画像に対して注目領域を検出するための処理を行う注目領域検出部と、前記注目領域検出部により前記注目領域が検出された際に、前記注目領域が前記観察画像内に出現してからの経過時間である出現時間を算出する出現時間算出部と、前記出現時間が所定時間に達したタイミングにおいて、前記観察画像内に存在する前記注目領域の位置を強調するための強調処理を開始する強調処理部と、を有する。
本発明の一態様の内視鏡画像処理方法は、被写体を撮像して得られた観察画像に対して注目領域を検出するための処理を行うステップと、前記注目領域が検出された際に、前記注目領域が前記観察画像内に出現してからの経過時間である出現時間を算出するステップと、前記出現時間が所定時間に達したタイミングにおいて、前記観察画像内に存在する前記注目領域の位置を強調するための強調処理を開始するステップと、を有する。
以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
内視鏡システム1は、図1に示すように、光源駆動装置11と、内視鏡21と、ビデオプロセッサ31と、内視鏡画像処理装置32と、表示装置41と、を有して構成されている。図1は、実施形態に係る内視鏡画像処理装置を含む内視鏡システムの要部の構成を示す図である。
光源駆動装置11は、例えば、ドライブ回路を具備して構成されている。また、光源駆動装置11は、内視鏡21及びビデオプロセッサ31に接続されている。また、光源駆動装置11は、ビデオプロセッサ31からの光源制御信号に基づき、内視鏡21の光源部23を駆動させるための光源駆動信号を生成し、当該生成した光源駆動信号を内視鏡21へ出力するように構成されている。
内視鏡21は、光源駆動装置11及びビデオプロセッサ31に接続されている。また、内視鏡21は、被検者の体腔内に挿入可能な細長形状の挿入部22を有して構成されている。また、挿入部22の先端部には、光源部23と、撮像部24と、が設けられている。
光源部23は、例えば、白色LEDのような発光素子を具備して構成されている。また、光源部23は、光源駆動装置11から出力される光源駆動信号に応じて発光することにより照明光を発生し、当該発生した照明光を生体組織等の被写体へ出射するように構成されている。
撮像部24は、例えば、カラーCCDまたはカラーCMOSのようなイメージセンサを有して構成されている。また、撮像部24は、ビデオプロセッサ31から出力される撮像制御信号に応じた動作を行うように構成されている。また、撮像部24は、光源部23からの照明光により照明された被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力するように構成されている。
ビデオプロセッサ31は、光源駆動装置11及び内視鏡21に接続されている。また、ビデオプロセッサ31は、光源部23の発光状態を制御するための光源制御信号を生成して光源駆動装置11へ出力するように構成されている。また、ビデオプロセッサ31は、撮像部24の撮像動作を制御するための撮像制御信号を生成して出力するように構成されている。また、ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像G1を生成し、当該生成した観察画像G1を内視鏡画像処理装置32へ1フレームずつ順次出力するように構成されている。
内視鏡画像処理装置32は、ビデオプロセッサ31から出力される観察画像G1に基づいて表示用画像を生成し、当該生成した表示用画像を表示装置41に表示させるための動作を行うように構成されている。また、内視鏡画像処理装置32は、図2に示すように、注目領域検出部34と、継続検出判定部35と、表示制御部36と、出現時間算出部38と、を有して構成されている。なお、本実施形態によれば、例えば、内視鏡画像処理装置32の各部が、個々の電子回路として構成されていてもよく、または、FPGA(Field Programmable Gate Array)等の集積回路における回路ブロックとして構成されていてもよい。また、本実施形態によれば、例えば、内視鏡画像処理装置32の少なくとも一部がCPUにより構成されていてもよい。図2は、実施形態に係る内視鏡画像処理装置の具体的な構成の一例を説明するためのブロック図である。
注目領域検出部34は、ビデオプロセッサ31から順次出力される観察画像G1に関する所定の特徴量を算出し、さらに、当該算出した所定の特徴量に基づき、観察画像G1に含まれる注目領域である病変候補領域Lを検出するように構成されている。すなわち、注目領域検出部34は、内視鏡21により被写体を撮像して得られた複数の観察画像G1が順次入力されるとともに、当該複数の観察画像G1の各々に対して病変候補領域Lを検出するための処理を行うように構成されている。また、注目領域検出部34は、図2に示すように、特徴量算出部34aと、病変候補検出部34bと、を有して構成されている。
特徴量算出部34aは、ビデオプロセッサ31から順次出力される観察画像G1に関する所定の特徴量を算出し、当該算出した所定の特徴量を病変候補検出部34bへ出力するように構成されている。
具体的には、特徴量算出部34aは、例えば、観察画像G1を所定のサイズに分割して得られる複数の小領域のうちの一の小領域内の各画素と、当該一の小領域に隣接する小領域内の各画素と、における輝度の変化量または濃度の変化量を示す値である傾き値を、当該複数の小領域毎の特徴量として算出する。なお、特徴量算出部34aは、観察画像G1を定量的に評価可能な値を算出する限りにおいては、前述の傾き値とは異なる値を特徴量として算出するものであってもよい。
病変候補検出部34bは、1つ以上のポリープモデル情報が予め格納されているROM等の不揮発性のメモリ(不図示)を有して構成されている。
具体的には、病変候補検出部34bのメモリに格納されているポリープモデル情報は、例えば、多数のポリープ画像における共通点及び/または類似点を定量化して得られる特徴量を具備して構成されている。
病変候補検出部34bは、特徴量算出部34aから出力される所定の特徴量と、メモリから読み込んだ複数のポリープモデル情報と、に基づいて病変候補領域Lを検出し、当該検出した病変候補領域Lを示す情報である病変候補情報ILを取得し、当該取得した病変候補情報ILを継続検出判定部35、表示制御部36及び出現時間算出部38へそれぞれ出力するように構成されている。
具体的には、病変候補検出部34bは、例えば、特徴量算出部34aから出力される一の小領域の特徴量と、メモリから読み込んだ複数のポリープモデル情報に含まれる少なくとも1つの特徴量と、が一致している場合に、当該一の小領域を病変候補領域Lとして検出する。また、病変候補検出部34bは、前述の方法により検出した病変候補領域Lの位置情報及びサイズ情報を含む病変候補情報ILを取得し、当該取得した病変候補情報ILを継続検出判定部35、表示制御部36及び出現時間算出部38へそれぞれ出力する。
なお、病変候補領域Lの位置情報は、観察画像G1内における病変候補領域Lの位置を示す情報であり、例えば、観察画像G1内に存在する病変候補領域Lの画素位置として取得される。また、病変候補領域Lのサイズ情報は、観察画像G1内における病変候補領域Lの大きさを示す情報であり、例えば、観察画像G1に存在する病変候補領域Lの画素数として取得される。
なお、注目領域検出部34は、観察画像G1から病変候補領域Lを検出するための処理を行う限りにおいては、特徴量算出部34a及び病変候補検出部34bを有して構成されていなくてもよい。具体的には、注目領域検出部34は、例えば、ディープラーニング等の学習手法でポリープ画像を識別可能な機能を予め取得した画像識別器を観察画像G1に対して適用する処理を行うことにより、当該観察画像G1から病変候補領域Lを検出するように構成されていてもよい。
継続検出判定部35は、病変候補検出部34bから出力される各病変候補情報ILのうち、現フレームより1フレーム前の病変候補情報ILを格納可能なRAM等の揮発性のメモリ(不図示)を有して構成されている。
継続検出判定部35は、例えば、病変候補検出部34bから出力される第1の病変候補情報と、当該第1の病変候補情報よりも1フレーム前にメモリに格納された第2の病変候補情報と、に基づき、当該第1の病変候補情報により示される第1の病変候補領域と、当該第2の病変候補情報により示される第2の病変候補領域と、が同一の病変候補領域Lであるか否かを判断するように構成されている。そして、継続検出判定部35は、前述の第1及び第2の病変候補領域が同一の病変候補領域Lである場合に、観察画像G1における病変候補領域Lの検出が継続しているとの判定結果を取得して出現時間算出部38へ出力するように構成されている。また、継続検出判定部35は、前述の第1及び第2の病変候補領域が同一の病変候補領域Lではない場合に、観察画像G1における病変候補領域Lの検出が途絶したとの判定結果を取得して出現時間算出部38へ出力するように構成されている。
表示制御部36は、ビデオプロセッサ31から順次出力される観察画像G1を用いて表示用画像を生成するための処理を行うとともに、当該生成した表示用画像を表示装置41の表示画面41Aに表示させるための処理を行うように構成されている。また、表示制御部36は、ビデオプロセッサ31から順次出力される観察画像G1と、病変候補検出部34bから出力される病変候補情報ILと、出現時間算出部38から出力される出現時間TS(後述)と、に基づき、当該観察画像G1内に存在する病変候補領域Lを強調するための強調処理(後述)を強調処理部36aにおいて行うとともに、当該強調処理を施した表示用画像を表示装置41の表示画面41Aに表示させるように構成されている。
強調処理部36aは、出現時間TSが所定時間TH(例えば0.5秒)に達したタイミングにおいて、病変候補情報ILに基づき、観察画像G1内に存在する病変候補領域Lの位置を強調するためのマーカ画像G2を生成して当該観察画像G1に付加する処理である強調処理を開始するように構成されている。
なお、強調処理部36aの強調処理により付加されるマーカ画像G2は、病変候補領域Lの位置を視覚情報として提示可能な限りにおいては、どのような形態を具備していてもよい。換言すると、強調処理部36aは、病変候補領域Lの位置を強調するためのマーカ画像G2を生成する限りにおいては、病変候補情報ILに含まれる位置情報のみを用いて強調処理を行うものであってもよく、または、病変候補情報ILに含まれる位置情報及びサイズ情報の両方を用いて強調処理を行うものであってもよい。
出現時間算出部38は、ビデオプロセッサ31から順次出力される観察画像G1と、病変候補検出部34bから出力される病変候補情報ILと、継続検出判定部35から出力される判定結果と、に基づき、当該病変候補情報ILにより示される病変候補領域Lが検出された際に、当該病変候補領域Lが当該観察画像G1内に出現してからの経過時間である出現時間TSを算出するための処理を行うように構成されている。また、出現時間算出部38は、前述の処理により得られた出現時間TSを表示制御部36へ出力するように構成されている。また、出現時間算出部38は、図2に示すように、注目領域逆追跡部38aと、注目領域速度推定部38bと、推定検出時間設定部38cと、出現時間算出部38dと、を有して構成されている。
注目領域逆追跡部38aは、ビデオプロセッサ31から順次出力される観察画像G1に基づき、当該観察画像G1に含まれる全ての画素の動きベクトルにより構成されるベクトル場である、当該観察画像G1のオプティカルフローを1フレーム毎に取得するための処理を行うように構成されている。また、注目領域逆追跡部38aは、ビデオプロセッサ31から順次出力される観察画像G1と、当該観察画像G1のオプティカルフローと、を時系列にかつ複数フレーム分格納することが可能なRAM等の揮発性のメモリ(不図示)を有して構成されている。また、注目領域逆追跡部38aは、前述のように取得した現在の観察画像G1のオプティカルフローと、メモリに格納された1または複数フレーム分の過去の観察画像G1のオプティカルフローと、病変候補検出部34bから出力される病変候補情報ILと、に基づき、病変候補領域Lが最初に出現した観察画像G1が入力されてから現在の観察画像G1が入力されるまでの時間である画像入力時間TPを算出するための処理(後述)を行うように構成されている。
注目領域速度推定部38bは、ビデオプロセッサ31から順次出力される観察画像G1に基づき、当該観察画像G1に含まれる全ての画素の動きベクトルにより構成されるベクトル場である、当該観察画像G1のオプティカルフローを1フレーム毎に取得するための処理を行うように構成されている。また、注目領域速度推定部38bは、ビデオプロセッサ31から順次出力される観察画像G1を時系列にかつ複数フレーム分格納することが可能なRAM等の揮発性のメモリを有して構成されている。また、注目領域速度推定部38bは、病変候補検出部34bから出力される病変候補情報ILと、前述のように取得した現在の観察画像G1のオプティカルフローと、に基づき、病変候補領域Lの推定移動速度VQを算出するための処理(後述)を行うように構成されている。
推定検出時間設定部38cは、ビデオプロセッサ31から順次出力される観察画像G1と、病変候補検出部34bから出力される病変候補情報ILと、に基づき、病変候補検出部34bにおける病変候補領域Lの検出に要したと推定される時間である推定検出時間TMを設定するための処理(後述)を行うように構成されている。
出現時間算出部38dは、病変候補検出部34bから病変候補情報ILが入力された際に、継続検出判定部35から出力される判定結果に基づき、注目領域検出部34による病変候補領域Lの検出が開始されてからの経過時間である継続検出時間TKを計測するように構成されている。また、出現時間算出部38dは、注目領域逆追跡部38aにより算出された画像入力時間TPと、注目領域速度推定部38bにより算出された推定移動速度VQと、推定検出時間設定部38cにより設定された推定検出時間TMと、前述のように計測した継続検出時間TKと、に基づき、出現時間TSを算出するための処理(後述)を行うように構成されている。
表示装置41は、モニタ等を具備し、内視鏡画像処理装置32から出力される表示用画像を画面上に表示することができるように構成されている。
続いて、本実施形態の作用について、図3等を適宜参照しつつ説明する。なお、以下においては、簡単のため、1つの病変候補領域L1が観察画像G1内に出現する場合を例に挙げて説明する。図3は、実施形態に係る内視鏡画像処理装置において行われる処理の一例を説明するための図である。
内視鏡21は、例えば、光源駆動装置11及びビデオプロセッサ31の電源が投入された際に、被写体へ照明光を出射し、当該被写体からの反射光を受光し、当該受光した反射光を撮像して撮像信号を生成し、当該生成した撮像信号をビデオプロセッサ31へ出力する。
ビデオプロセッサ31は、内視鏡21から出力される撮像信号に対して所定の処理を施すことにより被写体の観察画像G1を生成し、当該生成した観察画像G1を画像処理装置32へ1フレームずつ順次出力する。
表示制御部36は、病変候補領域L1が観察画像G1内に出現していない期間、すなわち、図3の時刻Taよりも前の期間において、例えば、図4に示すような観察画像G1を含む表示用画像を表示装置41に表示させるための処理を行う。また、表示制御部36は、病変候補領域L1の少なくとも一部が観察画像G1内に出現したタイミング、すなわち、図3の時刻Taのタイミングにおいて、例えば、図5に示すような観察画像G1を含む表示用画像を表示装置41に表示させるための処理を行う。図4及び図5は、実施形態に係る内視鏡画像処理装置の処理を経て表示装置に表示される表示用画像の一例を示す図である。
病変候補検出部34bは、図3の時刻Taよりも後の時刻Tbのタイミングにおいて、観察画像G1内に出現している病変候補領域L1を検出し、当該検出した病変候補領域L1を示す情報である病変候補情報IL1を取得し、当該取得した病変候補情報IL1を継続検出判定部35、表示制御部36及び出現時間算出部38へそれぞれ出力する。
表示制御部36は、図3の時刻Tbのタイミング、すなわち、病変候補領域L1が観察画像G1内に出現しかつ病変候補検出部34bにより検出されたタイミングにおいて、例えば、図6に示すような観察画像G1を含む表示用画像を表示装置41に表示させるための処理を行う。図6は、実施形態に係る内視鏡画像処理装置の処理を経て表示装置に表示される表示用画像の一例を示す図である。
出現時間算出部38は、時刻Tbのタイミングにおいて、ビデオプロセッサ31から順次出力される観察画像G1と、病変候補検出部34bから出力される病変候補情報IL1と、継続検出判定部35から出力される判定結果と、に基づいて出現時間TSを算出するための処理を開始する。
ここで、出現時間算出部38の各部において行われる出現時間TSの算出に係る処理の具体例について説明する。
注目領域逆追跡部38aは、ビデオプロセッサ31から順次出力される観察画像G1に基づき、当該観察画像G1のオプティカルフローを1フレーム毎に取得するとともに、当該観察画像G1と、当該観察画像G1のオプティカルフローと、を順次メモリに格納する。また、注目領域逆追跡部38aは、現フレーム(最新のフレーム)に相当するフレームFNの観察画像G1Nと、当該フレームFNの1つ前のフレームであるフレームFMの観察画像G1Mと、に基づき、当該観察画像G1Nのオプティカルフローを取得する。また、注目領域逆追跡部38aは、前述のように取得した観察画像G1Nのオプティカルフローと、メモリに格納された観察画像G1Mのオプティカルフローと、病変候補検出部34bから出力される病変候補情報IL1と、に基づき、フレームFMの1つ前のフレームであるフレームFLの観察画像G1Lに含まれる病変候補領域L1の位置を逆追跡する。そして、注目領域逆追跡部38aは、前述のような逆追跡を1フレーム毎に連続的に行うことにより、病変候補領域L1が観察画像G1内に含まれなくなる直前のフレームを、当該病変候補領域L1が観察画像G1内に最初に出現したフレームであるフレームFAとして特定する。
注目領域逆追跡部38aは、フレームFAからフレームFNまでのフレーム数と、ビデオプロセッサ31から出力される観察画像G1のフレームレート(フレーム毎秒)と、に基づき、当該フレームFAの観察画像G1Aが内視鏡画像処理装置32に入力されてから当該フレームFNの観察画像G1Nが内視鏡画像処理装置32に入力されるまでの時間である画像入力時間TPを算出する。
すなわち、注目領域逆追跡部38aは、フレームFNの観察画像G1Nを起点として病変候補領域L1の位置を1フレーム毎に連続的に逆追跡することによりフレームFAの観察画像G1Aを特定するとともに、当該フレームFAから当該フレームFNまでのフレーム数に基づいて画像入力時間TPを算出する。
なお、注目領域逆追跡部38aは、観察画像G1に含まれる全ての画素の動きベクトルにより構成されるベクトル場を当該観察画像G1のオプティカルフローとして取得するものに限らず、例えば、病変候補領域L1に含まれる各画素の動きベクトル群により構成される局所的なベクトル場を当該観察画像G1のオプティカルフローとして取得するようにしてもよい。
また、注目領域逆追跡部38aは、フレームFAの観察画像G1Aを特定する際に、病変候補領域L1の位置を1フレーム毎に連続的に逆追跡するものに限らず、例えば、ぼけまたはハレーションの強い観察画像G1を1フレーム以上スキップしつつ病変候補領域L1の位置を逆追跡するようにしてもよい。
注目領域速度推定部38bは、観察画像G1N及び観察画像G1Mに基づき、当該観察画像G1Nのオプティカルフローを取得する。また、注目領域速度推定部38bは、病変候補検出部34bから出力される病変候補情報IL1に基づき、前述のように取得した観察画像G1Nのオプティカルフローに含まれる各動きベクトルの中から、病変候補領域L1に含まれる各画素の動きベクトル群を特定するとともに、当該特定した動きベクトル群に基づき、当該観察画像G1Nに含まれる当該病変候補領域L1の推定移動速度VQを算出する。
なお、注目領域速度推定部38bは、前述のような処理を行うものに限らず、例えば、観察画像G1Nのオプティカルフローに含まれる全ての画素の動きベクトルに基づいて(病変候補領域L1及び背景領域を含む)画像全域の移動速度を算出するとともに、当該算出した画像全域の移動速度を推定移動速度VQとして取得するようにしてもよい。
推定検出時間設定部38cは、観察画像G1Nと、病変候補検出部34bから出力される病変候補情報IL1と、に基づき、当該観察画像G1Nに含まれる当該病変候補領域L1の撮像状態を示す1つ以上のパラメータを取得するための処理を行う。また、推定検出時間設定部38cは、前述の処理を経て取得したパラメータを用いて所定の演算を行うことにより、病変候補領域L1の検出難度に相当する値である評価値E1を算出する。
具体的には、推定検出時間設定部38cは、観察画像G1Nと、病変候補検出部34bから出力される病変候補情報IL1と、に基づき、例えば、当該病変候補情報IL1により特定される病変候補領域L1の位置、当該病変候補情報IL1により特定される病変候補領域L1のサイズ、当該観察画像G1Nにおけるコントラストの高さ、及び、当該観察画像G1Nにおけるぼけの強さのうちの少なくとも1つのパラメータを取得するための処理を行うとともに、当該取得したパラメータを用いて所定の演算を行うことにより評価値E1を算出する。
評価値E1は、例えば、病変候補領域L1の位置が観察画像G1Nの縁部に近い場合、当該病変候補領域L1のサイズが小さい場合、当該観察画像G1Nのコントラストが低い場合、及び、当該観察画像G1Nのぼけが強い場合において、相対的に大きな値として算出される。また、評価値E1は、例えば、病変候補領域L1の位置が観察画像G1Nの中心に近い場合、当該病変候補領域L1のサイズが大きい場合、当該観察画像G1Nのコントラストが高い場合、及び、当該観察画像G1Nのぼけが弱い場合において、相対的に小さな値として算出される。すなわち、評価値E1は、病変候補領域L1の検出難度の高低に応じて変動する値として算出される。
推定検出時間設定部38cは、前述の所定の演算により算出される評価値Eと、注目領域検出部34が観察画像G1内に出現した病変候補領域L1の検出に要する平均時間として予め設定されている平均検出時間ATと、の間の対応関係を示すテーブルデータTDAを参照することにより、評価値E1に等しいまたは最も近い評価値を特定する。そして、推定検出時間設定部38cは、前述のように特定した評価値に対応する平均検出時間を、病変候補検出部34bにおける病変候補領域L1の検出に要したと推定される時間である推定検出時間TMとして設定する。
なお、テーブルデータTDAは、例えば、図7に示すような、複数の評価値Ea、Eb、Ec、…と、複数の平均検出時間ATa、ATb、ATc、…と、の間の対応関係を特定可能なデータとして構成されている。そのため、例えば、テーブルデータTDAに含まれるEbが評価値E1に等しいまたは最も近いものとして特定された場合においては、当該テーブルデータTDAに含まれるATbが推定検出時間TMとして設定される。図7は、実施形態に係る内視鏡画像処理装置の処理において用いられるテーブルデータの一例を示す図である。
すなわち、以上に述べたような処理によれば、推定検出時間設定部38cは、観察画像G1Nに含まれる病変候補領域L1の撮像状態を示す1つ以上のパラメータに基づいて推定検出時間TMを設定する。
なお、本実施形態の推定検出時間設定部38cは、例えば、後述の重み係数WQが0以外の値である場合に、観察画像G1Nに含まれる病変候補領域L1の撮像状態を示す1つ以上のパラメータに加え、当該病変候補領域L1の推定移動速度VQの大きさを用いて評価値E1の算出及び推定検出時間TMの設定を行うようにしてもよい。そして、このような場合においては、例えば、推定移動速度VQが大きくなるに従って評価値E1が増加し得るとともに、推定移動速度VQが小さくなるに従って評価値E1が減少し得る。
出現時間算出部38dは、観察画像G1Nの縁部と、病変候補情報IL1に基づいて得られる病変候補領域L1の重心位置と、の間の最短距離RNを算出するとともに、当該算出した最短距離RNと、注目領域速度推定部38bにより算出された推定移動速度VQと、に基づき、病変候補領域L1が観察画像G1内に入ってから現在の位置へ移動するまでに要したと推定される時間である推定移動時間TQを算出する。具体的には、出現時間算出部38dは、最短距離RNを推定移動速度VQの大きさである|VQ|で除する(=RN/|VQ|)ことにより推定移動時間TQを算出する。
出現時間算出部38dは、推定検出時間設定部38cにより設定された推定検出時間TMと、図3の時刻Tbのタイミングを起点として計測される継続検出時間TKと、に基づき、病変候補領域L1が観察画像G1内に出現してからの経過時間を病変候補検出部34bによる当該病変候補領域L1の検出状況に応じて推定した時間である推定経過時間TRを算出する。具体的には、出現時間算出部38dは、推定検出時間TMと、推定検出時間TMと、を加える(=TM+TK)ことにより推定経過時間TRを算出する。
出現時間算出部38dは、画像入力時間TPと、推定移動時間TQと、推定経過時間TRと、を下記数式(1)に適用することにより、出現時間TSを算出する。
なお、上記数式(1)のWP、WQ及びWRは、0以上1以下等の所定の範囲内に属する値としてそれぞれ設定される重み係数を表すものとする。また、上記数式(1)のWP、WQ及びWRは、例えば、画像入力時間TP、推定移動時間TQ及び推定経過時間TRの蓋然性を示す値である尤度としてそれぞれ算出されるものとする。
そして、上記数式(1)を用いた処理によれば、例えば、WP=WQ=WR=1に設定された場合には、画像入力時間TPと、推定移動時間TQと、推定経過時間TRと、の平均値が出現時間TSとして算出される。また、上記数式(1)を用いた処理によれば、例えば、WQ=WR=0に設定された場合には、画像入力時間TPと重み係数WPとを乗じて(=TP×WP)得られる値が出現時間TSとして算出される。また、上記数式(1)を用いた処理によれば、例えば、WP=WR=0に設定された場合には、推定移動時間TQと重み係数WQとを乗じて(=TQ×WQ)得られる値が出現時間TSとして算出される。また、上記数式(1)を用いた処理によれば、例えば、WP=WQ=0に設定された場合には、推定経過時間TRと重み係数WRとを乗じて(=TR×WR)得られる値が出現時間TSとして算出される。また、上記数式(1)を用いた処理によれば、重み係数WP、WQまたはWRのいずれか1つを0に設定して出現時間TSを算出することもできる。
すなわち、以上に述べたような処理によれば、出現時間算出部38dは、画像入力時間TPと、推定移動時間TQと、推定経過時間TRと、のうちの少なくとも1つに基づいて出現時間TSを算出する。
出現時間算出部38は、図3の時刻Tdのタイミング、すなわち、病変候補領域L1が観察画像G1内から消失するタイミングの直前まで、以上に例示したような処理を繰り返し行うことにより、出現時間TSをリアルタイムに算出するとともに、当該算出した出現時間TSを表示制御部36へ出力する。
表示制御部36の強調処理部36aは、図3の時刻Tcのタイミング、すなわち、出現時間算出部38dにより算出された出現時間TSが所定時間THに達したタイミングにおいて、病変候補領域L1の位置を強調するためのマーカ画像G2を観察画像G1に付加する強調処理を開始する。また、表示制御部36の強調処理部36aは、図3の時刻Tdのタイミングにおいて、前述の強調処理を停止する。そして、このような表示制御部36の動作によれば、時刻Tcのタイミングにおいて、例えば、図8に示すような、マーカ画像G2を含む観察画像G1が表示装置41の画面上に表示される。また、前述のような表示制御部36の動作によれば、時刻Tdのタイミングにおいて、例えば、図9に示すような観察画像G1が表示装置41の画面上に表示される。図8及び図9は、実施形態に係る内視鏡画像処理装置の処理を経て表示装置に表示される表示用画像の一例を示す図である。
ここで、時刻Taから時刻Tbに達する直前までの期間においては、病変候補領域L1の少なくとも一部が観察画像G1内に出現している一方で、注目領域検出部34(病変候補検出部34b)による当該病変候補領域L1の検出が完了しないような状況が発生し得る。そのため、例えば、注目領域検出部34による病変候補領域L1の検出が完了したタイミングに相当する時刻Tcのタイミングを起点として所定時間THの計測が開始された場合には、当該病変候補領域L1の位置を強調するための強調処理が開始されるタイミングが、当該病変候補領域L1の検出に要した時間だけ遅れてしまうものと考えられる。従って、図3の時刻Tcのタイミングを起点として所定時間THの計測が開始された場合には、観察画像G1内に出現したにも関わらず、強調処理部36aによる強調処理が施されないまま観察画像G1内から消失してしまうような病変候補領域L1の発生頻度が高くなることに伴い、術者の目視による病変部の見落としが発生し易くなってしまうものと考えられる。
これに対し、以上に述べたような表示制御部36及び出現時間算出部38の動作によれば、病変候補領域L1が観察画像G1内に出現してからの経過時間である出現時間TSが算出されるとともに、当該出現時間TSが所定時間THに達したタイミングにおいて強調処理部36aによる強調処理が開始されるため、術者の目視による病変部の見落としを極力防ぐことができる。すなわち、本実施形態によれば、術者に対し、観察画像G1に対する注意力の低下を抑え、病変部発見能力の向上を妨げずに、注目領域を提示することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
Claims (12)
- 被写体を撮像して得られた観察画像が順次入力されるとともに、当該観察画像に対して注目領域を検出するための処理を行う注目領域検出部と、
前記注目領域検出部により前記注目領域が検出された際に、前記注目領域が前記観察画像内に出現してからの経過時間である出現時間を算出する出現時間算出部と、
前記出現時間が所定時間に達したタイミングにおいて、前記観察画像内に存在する前記注目領域の位置を強調するための強調処理を開始する強調処理部と、
を有することを特徴とする内視鏡画像処理装置。 - 前記出現時間算出部は、前記注目領域検出部により検出された一の注目領域が最初に出現したフレームである第1のフレームの観察画像が入力されてから現フレームである第2のフレームの観察画像が入力されるまでの時間である第1の時間と、前記一の注目領域が前記観察画像内に入ってから現在の位置へ移動するまでに要したと推定される時間である第2の時間と、前記経過時間を前記注目領域検出部による前記一の注目領域の検出状況に応じて推定した時間である第3の時間と、のうちの少なくとも1つに基づいて前記出現時間を算出する
ことを特徴とする請求項1に記載の内視鏡画像処理装置。 - 前記出現時間算出部は、前記第2のフレームの観察画像を起点として前記一の注目領域の位置を逆追跡することにより前記第1のフレームの観察画像を特定するとともに、前記第1のフレームから前記第2のフレームまでのフレーム数に基づいて前記第1の時間を算出する
ことを特徴とする請求項2に記載の内視鏡画像処理装置。 - 前記出現時間算出部は、前記第2のフレームの観察画像に含まれる前記一の注目領域の推定移動速度に基づいて前記第2の時間を算出する
ことを特徴とする請求項2に記載の内視鏡画像処理装置。 - 前記出現時間算出部は、前記注目領域検出部における前記一の注目領域の検出に要したと推定される時間である推定検出時間と、前記注目領域検出部による前記一の注目領域の検出が開始されてからの経過時間である継続検出時間と、に基づいて前記第3の時間を算出する
ことを特徴とする請求項2に記載の内視鏡画像処理装置。 - 前記出現時間算出部は、前記第2のフレームの観察画像に含まれる前記一の注目領域の撮像状態を示す1つ以上のパラメータに基づいて前記推定検出時間を設定する
ことを特徴とする請求項5に記載の内視鏡画像処理装置。 - 被写体を撮像して得られた観察画像に対して注目領域を検出するための処理を行うステップと、
前記注目領域が検出された際に、前記注目領域が前記観察画像内に出現してからの経過時間である出現時間を算出するステップと、
前記出現時間が所定時間に達したタイミングにおいて、前記観察画像内に存在する前記注目領域の位置を強調するための強調処理を開始するステップと、
を有することを特徴とする内視鏡画像処理方法。 - 前記注目領域を検出するための処理により検出された一の注目領域が最初に出現したフレームである第1のフレームの観察画像が内視鏡画像処理装置に入力されてから現フレームである第2のフレームの観察画像が前記内視鏡画像処理装置に入力されるまでの時間である第1の時間と、前記一の注目領域が前記観察画像内に入ってから現在の位置へ移動するまでに要したと推定される時間である第2の時間と、前記経過時間を前記一の注目領域の検出状況に応じて推定した時間である第3の時間と、のうちの少なくとも1つに基づいて前記出現時間が算出される
ことを特徴とする請求項7に記載の内視鏡画像処理方法。 - 前記第2のフレームの観察画像を起点として前記一の注目領域の位置を逆追跡することにより前記第1のフレームの観察画像が特定されるとともに、前記第1のフレームから前記第2のフレームまでのフレーム数に基づいて前記第1の時間が算出される
ことを特徴とする請求項8に記載の内視鏡画像処理方法。 - 前記第2のフレームの観察画像に含まれる前記一の注目領域の推定移動速度に基づいて前記第2の時間が算出される
ことを特徴とする請求項8に記載の内視鏡画像処理方法。 - 前記一の注目領域の検出に要したと推定される時間である推定検出時間と、前記一の注目領域の検出が開始されてからの経過時間である継続検出時間と、に基づいて前記第3の時間が算出される
ことを特徴とする請求項8に記載の内視鏡画像処理方法。 - 前記第2のフレームの観察画像に含まれる前記一の注目領域の撮像状態を示す1つ以上のパラメータに基づいて前記推定検出時間が設定される
ことを特徴とする請求項11に記載の内視鏡画像処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/081608 WO2018078724A1 (ja) | 2016-10-25 | 2016-10-25 | 内視鏡画像処理装置及び内視鏡画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018078724A1 true JPWO2018078724A1 (ja) | 2019-09-05 |
Family
ID=62023266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018546972A Pending JPWO2018078724A1 (ja) | 2016-10-25 | 2016-10-25 | 内視鏡画像処理装置及び内視鏡画像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10893792B2 (ja) |
JP (1) | JPWO2018078724A1 (ja) |
WO (1) | WO2018078724A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018198161A1 (ja) * | 2017-04-24 | 2018-11-01 | オリンパス株式会社 | 内視鏡画像処理装置及び内視鏡画像処理方法 |
JP6956853B2 (ja) * | 2018-03-30 | 2021-11-02 | オリンパス株式会社 | 診断支援装置、診断支援プログラム、及び、診断支援方法 |
WO2019244255A1 (ja) * | 2018-06-19 | 2019-12-26 | オリンパス株式会社 | 内視鏡画像処理装置および内視鏡画像処理方法 |
WO2020036109A1 (ja) * | 2018-08-17 | 2020-02-20 | 富士フイルム株式会社 | 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法 |
EP3841959B1 (en) | 2018-08-20 | 2024-10-16 | FUJIFILM Corporation | Medical image processing device |
JP7280270B2 (ja) * | 2018-08-20 | 2023-05-23 | 富士フイルム株式会社 | 内視鏡システム |
WO2020039929A1 (ja) * | 2018-08-23 | 2020-02-27 | 富士フイルム株式会社 | 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法 |
CN112739250B (zh) * | 2018-09-18 | 2024-10-15 | 富士胶片株式会社 | 医用图像处理装置、处理器装置及医用图像处理方法 |
JP7038641B2 (ja) * | 2018-11-02 | 2022-03-18 | 富士フイルム株式会社 | 医療診断支援装置、内視鏡システム、及び作動方法 |
JP7373335B2 (ja) * | 2019-09-18 | 2023-11-02 | 富士フイルム株式会社 | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム |
CN116977411B (zh) * | 2022-12-01 | 2024-03-19 | 开立生物医疗科技(武汉)有限公司 | 内镜移动速度估计方法及装置、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009142552A (ja) * | 2007-12-17 | 2009-07-02 | Olympus Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2011036371A (ja) * | 2009-08-10 | 2011-02-24 | Tohoku Otas Kk | 医療画像記録装置 |
JP5220780B2 (ja) * | 2010-02-05 | 2013-06-26 | オリンパス株式会社 | 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法 |
JP5597021B2 (ja) | 2010-04-15 | 2014-10-01 | オリンパス株式会社 | 画像処理装置及びプログラム |
JP2011255006A (ja) * | 2010-06-09 | 2011-12-22 | Olympus Corp | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 |
EP3360461A4 (en) | 2015-11-10 | 2019-05-08 | Olympus Corporation | ENDOSCOPE DEVICE |
-
2016
- 2016-10-25 WO PCT/JP2016/081608 patent/WO2018078724A1/ja active Application Filing
- 2016-10-25 JP JP2018546972A patent/JPWO2018078724A1/ja active Pending
-
2019
- 2019-04-19 US US16/389,581 patent/US10893792B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10893792B2 (en) | 2021-01-19 |
US20190239718A1 (en) | 2019-08-08 |
WO2018078724A1 (ja) | 2018-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018078724A1 (ja) | 内視鏡画像処理装置及び内視鏡画像処理方法 | |
JP6602969B2 (ja) | 内視鏡画像処理装置 | |
US11871903B2 (en) | Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium | |
US11176665B2 (en) | Endoscopic image processing device and endoscopic image processing method | |
CN108348145B (zh) | 内窥镜装置 | |
WO2017216922A1 (ja) | 画像処理装置及び画像処理方法 | |
US20170046842A1 (en) | Image processing apparatus and image processing method | |
WO2018203383A1 (ja) | 画像処理装置、及び、画像処理プログラム | |
JP5276225B2 (ja) | 医用画像処理装置及び医用画像処理装置の作動方法 | |
US11341637B2 (en) | Endoscope image processing device and endoscope image processing method | |
JP7282796B2 (ja) | 医用画像処理装置、医用画像処理装置の作動方法、及びプログラム、診断支援装置並びに内視鏡システム | |
JPWO2017073337A1 (ja) | 内視鏡装置及びビデオプロセッサ | |
US11656451B2 (en) | Image processing apparatus for endoscope, image processing method for endoscope, and recording medium | |
US12020808B2 (en) | Medical image processing apparatus, medical image processing method, program, and diagnosis support apparatus | |
US20180098685A1 (en) | Endoscope apparatus | |
JP6956853B2 (ja) | 診断支援装置、診断支援プログラム、及び、診断支援方法 | |
US20210338042A1 (en) | Image processing apparatus, diagnosis supporting method, and recording medium recording image processing program | |
US11432707B2 (en) | Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion |