JP6749473B2 - 内視鏡システム及びその作動方法 - Google Patents

内視鏡システム及びその作動方法 Download PDF

Info

Publication number
JP6749473B2
JP6749473B2 JP2019508755A JP2019508755A JP6749473B2 JP 6749473 B2 JP6749473 B2 JP 6749473B2 JP 2019508755 A JP2019508755 A JP 2019508755A JP 2019508755 A JP2019508755 A JP 2019508755A JP 6749473 B2 JP6749473 B2 JP 6749473B2
Authority
JP
Japan
Prior art keywords
region
interest
unit
image
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019508755A
Other languages
English (en)
Other versions
JPWO2018179991A1 (ja
Inventor
駿平 加門
駿平 加門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2018179991A1 publication Critical patent/JPWO2018179991A1/ja
Application granted granted Critical
Publication of JP6749473B2 publication Critical patent/JP6749473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Description

本発明は、内視鏡システム及びその作動方法に関する。
医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が広く行われている。内視鏡システムは、内視鏡を被検体内に挿入した状態で、光源装置が発する照明光を内視鏡の先端から出し、照明中の被検体内を内視鏡が撮像して画像信号を出力し、画像信号を用いてプロセッサ装置が内視鏡画像を生成し、この内視鏡画像を表示部に表示する。これにより、医師は内視鏡画像を見て診断を行うことができる。
内視鏡診断において、医師は、臓器内の病変や良性腫瘍など注意して観察すべき所定の関心領域の全てを、コンスタントに検出することに努めているが、それら関心領域を検出する精度は、医師の経験や技量によって影響を受け、また、医師の疲労度によっても影響を受ける。そのため、このような医師による診断精度のばらつきを抑えるため、日々の診療で取得される膨大な内視鏡データをコンピュータによって解析して診断に役立つ情報を抽出する技術が開発されつつある。例えば、内視鏡診断時にコンピュータが医師に代わって関心領域を自動で検出する自動検出機能は、医師による関心領域の見落としを防ぐことができるため、内視鏡診断の確度を上げるものとして期待されている。
特許文献1には、CT(Computed Tomography)装置などの画像診断装置によって生成したCT画像を用いて仮想内視鏡画像を生成し、この仮想内視鏡画像から関心領域を検出することが記載されている。特許文献1では、医師などのユーザに未だ提供していない未提示領域を関心領域として検出している。また、特許文献1では、CT画像を用いて管腔の外形像を生成し、関心領域を外形像上の対応する位置に重ねて表示させている。
特許文献2には、CT画像を用いて生成した仮想内視鏡画像を用いて、病変部などの関心領域を自動検出することが記載されている。
特開2011−036600号 特開2012−024518号
内視鏡診断では、往路にて関心領域を検出し、復路にて関心領域を精査または処置する場合がある。このような診断の復路において、検出済みの関心領域の位置情報を再探索に利用可能であるが、そうしたシステムは現在のところ存在しない。また、別のクリニック等の他施設から紹介された患者を診断する場合もあり、このような場合には別の医師が診断を行うことがあるため、検出済みの関心領域の位置情報は、再探索に有用である。なお、特許文献1,2ではCT画像を利用して関心領域を検出するものの、これにより検出済みの関心領域を内視鏡診断において再探索する場合にも、検出済みの関心領域の位置情報は有用である。
本発明は、検出済みの関心領域を容易に再探索することができる内視鏡システム及びその作動方法を提供することを目的とする。
本発明の内視鏡システムは、内視鏡と、内視鏡画像取得部と、関心領域検出部と、位置情報取得部と、表示部と、内視鏡挿入形状情報取得部と、第2マーキング画像生成部と、を備える。内視鏡画像取得部は、内視鏡により管腔内を撮像して得た内視鏡画像を取得する。関心領域検出部は、内視鏡画像を用いて、管腔内の関心領域を検出する。位置情報取得部は、関心領域の位置情報を取得する。表示部は、関心領域の位置情報を表示する。内視鏡挿入形状情報取得部は、管腔内に挿入されている内視鏡の挿入部の形状情報を取得する。第2マーキング画像生成部は、挿入部の形状情報を用いて画像処理することにより内視鏡挿入形状画像を取得し、かつ、内視鏡挿入形状画像において関心領域の位置情報に対応する箇所にマーキングをした第2マーキング画像を生成する。表示部は、第2マーキング画像を表示する。
管腔は、複数の管腔部位に区分けされており、関心領域の位置情報は、複数の管腔部位のうち、関心領域を検出した管腔部位の管腔部位情報であり、表示部は、管腔部位情報を関心領域の位置情報として表示してもよい。
関心領域の位置情報は、管腔内の基準構造からの距離情報であり、表示部は、距離情報を関心領域の位置情報として表示してもよい。
管腔内への内視鏡の挿入部の挿入長を取得する挿入長取得部を備え、表示部は、挿入長のうち、関心領域を検出した挿入長を、関心領域の位置情報として表示してもよい。
管腔の模式図において関心領域の位置情報に対応する箇所にマーキングをした第1マーキング画像を生成する第1マーキング画像生成部を備え、表示部は、第1マーキング画像を表示してもよい。
管腔内に挿入中の内視鏡の挿入状態を取得する挿入状態取得部を備え、表示部は、内視鏡の挿入状態を模式図の対応する箇所に表示することが好ましい。
関心領域に対して鑑別を行う鑑別部を備えることが好ましい。鑑別部は、関心領域が病変部と正常部とのいずれであるかの鑑別を少なくとも含む鑑別結果を出力することが好ましい。鑑別結果は、病変部の種類をさらに含むことが好ましい。鑑別結果は、鑑別結果に対する確信度をさらに含むことが好ましい。
鑑別結果を記憶する鑑別結果記憶部を備えることが好ましい。
表示部は、鑑別部の鑑別結果に応じてマーキングの表示態様を変更することが好ましい。
関心領域の位置情報と内視鏡の挿入状態とに基づき警告を行う警告部を備えることが好ましい。警告部は、鑑別部の鑑別結果に応じて警告態様を変更することが好ましい。
関心領域の生体特徴量を算出する生体特徴量算出部を備え、表示部は、鑑別部の鑑別結果に加え生体特徴量を用いてマーキングの表示態様を変更することが好ましい。
関心領域の位置情報を記憶する関心領域位置情報記憶部を備えることが好ましい。
本発明の内視鏡システムの作動方法は、内視鏡画像取得部が、内視鏡により管腔内を撮像して得た内視鏡画像を取得するステップと、関心領域検出部が、内視鏡画像を用いて、管腔内の関心領域を検出するステップと、位置情報取得部が、関心領域の位置情報を取得するステップと、内視鏡挿入形状情報取得部が、管腔内に挿入されている内視鏡の挿入部の形状情報を取得するステップと、第2マーキング画像生成部が、挿入部の形状情報を用いて画像処理することにより内視鏡挿入形状画像を取得し、かつ、内視鏡挿入形状画像において関心領域の位置情報に対応する箇所にマーキングをした第2マーキング画像を生成するステップと、表示部が、関心領域の位置情報と第2マーキング画像とを表示するステップと、を有する。
本発明の内視鏡システム及びその作動方法によれば、検出済みの関心領域を容易に再探索することができる。
第1実施形態の内視鏡システムの外観図である。 内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、青色光Bx、緑色光G、赤色光Rの分光スペクトルを示すグラフである。 通常光の分光スペクトルを示すグラフである。 特殊光の分光スペクトルを示すグラフである。 挿入長の取得方法を示す説明図である。 内視鏡の挿入部の挿入状態を取得する方法を説明する説明図である。 関心領域探索用画像処理部の機能を示すブロック図である。 関心領域の検出について説明する説明図である。 別の関心領域の検出について説明する説明図である。 第1マーキング画像を説明する説明図である。 関心領域探索モードの一連の流れを説明するフローチャートである。 第1マーキング画像を表示した表示部の表示画面を示す図である。 鑑別結果に応じて警告表示が変更された表示画面を示す図である。 関心領域の位置情報として管腔部位情報を表示した表示画面を示す図である。 関心領域の位置情報として基準構造からの距離情報を表示した表示画面を示す図である。 関心領域の位置情報として挿入長を表示した表示画面を示す図である。 生体特徴量算出部を有する関心領域探索用画像処理部の機能を示すブロック図である。 第2マーキング画像生成部を有する関心領域探索用画像処理部の機能を示すブロック図である。 第2マーキング画像を説明する説明図である。 第2実施形態の内視鏡システムの機能を示すブロック図である。 第2実施形態の通常光の分光スペクトルを示すグラフである。 第2実施形態の特殊光の分光スペクトルを示すグラフである。 第3実施形態の内視鏡システムの機能を示すブロック図である。 回転フィルタの平面図である。
[第1実施形態]
図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、表示部18と、操作入力部19とを有する。内視鏡12は、被検体として生体の管腔内を撮像する。光源装置14は管腔内を照明する照明光を内視鏡12に供給する。プロセッサ装置16は、内視鏡12により撮像して得た内視鏡画像に対し所定の画像処理を行うことにより表示画像を生成する。表示部18は、表示画像と表示画像に付帯する情報等を表示するモニタである。操作入力部19は、キーボードとマウス等のコンソールであり、機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。表示部18及び操作入力部19は、プロセッサ装置16と電気的に接続している。
内視鏡12は、光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続している。内視鏡12は、挿入部12aと、操作部12bとを有する。
挿入部12aは、管腔内に挿入する部分である。挿入部12aは、先端部21と、湾曲部22と、可撓管部23とを有しており、先端側からこの順番に連結している。先端部21は、先端面に、照明窓と、観察窓と、送気・送水ノズルと、鉗子出口とを有する(いずれも図示無し)。照明窓は、照明光を観察部位に照射するためのものである。観察窓は、観察部位からの光を取り込むためのものである。送気・送水ノズルは、照明窓及び観察窓を洗浄するためのものである。鉗子出口は、鉗子と電気メス等の処置具を用いて各種処置を行うためのものである。湾曲部22は、複数の湾曲駒を連結して構成したものであり、上下左右方向に湾曲する。可撓管部23は、可撓性を有しており、食道や腸等の曲がりくねった管道に挿入可能である。
操作部12bは、アングルノブ25と、画像記憶操作部26と、モード切替部27と、ズーム操作部28とを有する。アングルノブ25は、湾曲部22を湾曲させ、先端部21が所望の方向に向ける操作に用いる。画像記憶操作部26は、静止画像及び又は動画像をストレージ(図示無し)に記憶させる操作に用いる。モード切替部27は、観察モードを切り替える操作に用いる。ズーム操作部28は、ズーム倍率を変更する操作に用いる。
内視鏡システム10は、観察モードとして、通常モードと、特殊モードと、関心領域探索モードとを有している。通常モードでは、管腔内を自然な色合いで写した画像(以下、通常画像という)を取得する。特殊モードでは、管腔内の血管を少なくとも強調した画像(以下、特殊画像という)を取得する。関心領域探索モードは、詳しくは後述するが、管腔内の関心領域を検出し、検出した関心領域の位置情報を表示部18に表示する。
図2に示すように、光源装置14は、照明光を発する光源部30と、光源部30を制御する光源制御部32とを備えている。光源部30は、本実施形態では波長域が異なる複数色の半導体光源である。半導体光源としてはLED(Light Emitting Diode)等がある。
本実施形態では、光源部30は、V−LED(Violet Light Emitting Diode)30a、B−LED(Blue Light Emitting Diode)30b、G−LED(Green Light Emitting Diode)30c、及びR−LED(Red Light Emitting Diode)30dの4色のLEDと、光学フィルタ30eとを有している。
図3に示すように、V−LED30aは、波長帯域が380nm〜420nmの紫色光Vを発する。B−LED30bは、波長帯域が420nm〜500nmの青色光Bを発する。G−LED30cは、波長帯域が480nm〜600nmの緑色光Gを発する。R−LED30dは、波長帯域が600nm〜650nmの赤色光Rを発する。なお、各色の光は、それぞれの中心波長とピーク波長とが同じであっても良いし、異なっていても良い。
光学フィルタ30eは、LEDが発光した光の波長帯域を調整する。本実施形態では、光学フィルタ30eは、B−LED30bの光路上に配されており、B−LED30bの波長帯域のうちの短波長成分を透過させる。B−LED30bの波長帯域のうちの長波長成分は粘膜と血管とのコントラストを低下させる要因とされているため、B−LED30bの波長帯域のうちの短波長成分を後述するライトガイド34に供給することが好ましい。本実施形態では、光学フィルタ30eは、B−LED30bの波長帯域のうち、450nm以下の光を透過させることにより、波長帯域が420nm〜450nmの青色光Bxを生成する。なお、光学フィルタ30eの配置は、本実施形態ではB−LED30bの光路上としているが、これに限るものではない。例えば光学フィルタ30eをG−LED30cの光路上に配する等しても良い。また、光学フィルタ30eにより透過させる波長成分は、適宜設定可能である。例えば光学フィルタ30eをG−LED30cの光路上に配した場合は、光学フィルタ30eは、G−LED30cの波長帯域の一部を透過させる。
光源制御部32は、各LED30a〜30dの点灯及び消灯、各LED30a〜30dの各射出光量のバランス(以下、光量比という)等を独立に制御することによって、照明光の発光タイミング、発光期間、光量、及び分光スペクトルの調節を行う。また、光源制御部32は、光学フィルタ30eの変更等によって、照明光の波長帯域を制御する。本実施形態では、光源制御部32は、各LED30a〜30dを駆動する電流と電圧とを調整することによって、各LED30a〜30dの光量比を観察モードごとに制御する。
図4に示すように、光源制御部32は、通常モードでは、各LED30a〜30dの全てを点灯させる。紫色光Vと青色光Bと緑色光Gと赤色光Rとの光量比は、青色光Bxの光強度のピークが、他の各色光のいずれの光強度のピークよりも大きくなるように設定されている。これにより、通常モードでは、光源装置14から、紫色光Vと青色光Bxと緑色光Gと赤色光Rとを含む多色光が通常光として発生する。通常光は、青色帯域から赤色帯域まで一定以上の強度を有しているため、ほぼ白色となっている。
図5に示すように、光源制御部32は、特殊モードでは、各LED30a〜30dの全てを点灯させる。紫色光Vと青色光Bと緑色光Gと赤色光Rとの光量比は、紫色光Vの光強度のピークが、他の各色光のいずれの光強度のピークよりも大きくなるように設定されている。また、緑色光Gと赤色光Rと各光強度のピークは、紫色光Vと青色光Bxとの各光強度のピークよりも小さくなるように設定されている。これにより、特殊モードでは、紫色光Vと青色光Bxと緑色光Gと赤色光Rとを含み、かつ、通常モードとは光量比が異なる多色光が、特殊光として発生する。特殊光は、紫色光Vが占める割合が大きいことから、青みを帯びた光となっている。なお、特殊光は、4色全ての光が含まれていなくてもよく、4色のLED30a〜30dのうち少なくとも1色のLEDからの光が含まれていればよい。
光源制御部32は、関心領域探索モードでは、操作入力部19により入力された光量比に従って、各LED30a〜30dの発光を制御する。例えば、通常モードの光量比と特殊モードの光量比等が入力される。これにより、関心領域探索モードでは、通常光または特殊光が発生される。また、関心領域探索モードでは、通常光と特殊光とを交互に発生することも可能とされており、この場合には、内視鏡画像として、通常画像と特殊画像とが交互に取得される。
また、関心領域探索モードでは、ヘモグロビンの酸素飽和度を取得するための光量比も入力可能とされている。ヘモグロビンの酸素飽和度を取得する場合は、光源制御部32は、撮像フレームごとに照明光を切り替える。具体的には、第1の撮像フレームではB−LED30bを点灯し、その次の第2の撮像フレームではB−LED30bとG−LED30cとR−LED30dとを点灯する。また、光源制御部32は、光学フィルタ30eの透過波長を制御し、撮像フレームを切り替える毎に、発生させる青色光の波長帯域を変える。第1の撮像フレームでは、中心波長及び波長帯域が470±10nmの狭帯域な青色光を発生させる。この第1の撮像フレームで発生する青色光の中心波長及び波長帯域は、青色波長帯域の中で酸化ヘモグロビンと還元ヘモグロビンの吸光係数の差が概ね極大になる中心波長及び波長帯域である。第2の撮像フレームでは、中心波長が約450±10nmであり、波長帯域が約400nm〜500nmの広帯域な青色光を発生させる。そして、各照明光を用いて管腔内をそれぞれ照明し、撮像して得た内視鏡画像と酸素飽和度との相関関係に基づき管腔内の酸素飽和度が算出される。これにより、酸素飽和度を表す画像が取得される。
光源部30が発した照明光は、挿入部12a内に挿通したライトガイド34に入射する。ライトガイド34は、内視鏡12及びユニバーサルコードに内蔵しており、照明光を内視鏡12の先端部21まで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド34としては、マルチモードファイバを使用することができる。一例として、ライトガイド34には、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3〜0.5mmの細径なファイバケーブルを使用することができる。
先端部21は、照明光学系36と撮像光学系38とを有している。照明光学系36は、照明レンズ40を有している。ライトガイド34を伝搬した照明光は、照明レンズ40を介して管腔内を照明する。撮像光学系38は、対物レンズ42と、ズームレンズ44と、イメージセンサ46とを有している。これら対物レンズ42及びズームレンズ44を介して、管腔内の粘膜等からの反射光、散乱光、及び蛍光等の各種の光がイメージセンサ46に入射する。ズームレンズ44は、ズーム操作部28の操作によりテレ端とワイド端の間で自在に移動する。
イメージセンサ46は、原色系のカラーセンサであり、青色カラーフィルタが設けられたB画素(青色画素)、緑色カラーフィルタが設けられたG画素(緑色画素)、及び、赤色カラーフィルタが設けられたR画素(赤色画素)の3種類の画素を有する。このイメージセンサ46で管腔内を撮像することにより、B画像(青色画像)、G画像(緑色画像)、R画像(赤色画像)の3種類の内視鏡画像が得られる。
イメージセンサ46としては、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等を利用可能である。なお、イメージセンサ46は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及びグリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に得られる各色の画像は、原色系のカラーセンサを用いる場合と同様のB画像、G画像、R画像に変換することができる。また、イメージセンサ46の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
プロセッサ装置16は、コントローラ52と、内視鏡画像取得部54と、画像処理部60と、表示制御部68と、挿入状態取得部70とを備えている。
コントローラ52は、CPU(Central processing unit)、制御プログラムや制御に必要な設定データを記憶するROM(Read only memory)、制御プログラムをロードする作業メモリとしてのRAM(Random access memory)等を有する。コントローラ52は、CPUが制御プログラムを実行することにより、プロセッサ装置16の各部を制御する他、光源制御部32とイメージセンサ46とを制御する。
内視鏡画像取得部54は、イメージセンサ46からB画像、G画像、およびR画像を内視鏡画像を取得する。内視鏡画像取得部54は、DSP(Digital Signal Processor)56とノイズ低減部58とを有し、これらによって内視鏡画像に各種処理を施す。
DSP56は、内視鏡画像に対して、例えば、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理は、イメージセンサ46の欠陥画素の画素値を補正する。オフセット処理は、欠陥補正処理した画像から暗電流成分を除き、正確なゼロレベルを設定する。ゲイン補正処理は、オフセット処理した画像に特定のゲインを乗じることにより各画像の信号レベルを整える。
リニアマトリクス処理は、ゲイン補正処理した画像の色再現性を高める。ガンマ変換処理は、リニアマトリクス処理した画像の明るさや彩度を整える。デモザイク処理(等方化処理、又は同時化処理とも言う)は、ガンマ変換処理した画像において、欠落した画素の画素値を補間する。欠落した画素とは、イメージセンサ46において他の色の画素が配置されているために画素値がない画素である。
ノイズ低減部58は、DSP56でデモザイク処理等を施した画像に対して、例えば、移動平均法やメディアンフィルタ法等によるノイズ低減処理を施し、ノイズを低減する。
画像処理部60は、内視鏡画像取得部54から内視鏡画像を取得し、取得した内視鏡画像に対して所定の画像処理を施し、管腔内を写した表示画像を生成する。画像処理部60は、通常画像処理部62と、特殊画像処理部64と、関心領域探索用画像処理部66とを有する。
通常画像処理部62は、通常モード時に作動し、BGR各色の画像に対して、色変換処理、色彩強調処理、及び構造強調処理等の画像処理を行い、通常画像を生成する。色変換処理は、BGR各色の画像に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(ルックアップテーブル)処理などを行う。色彩強調処理は、画像の色彩を強調する処理であり、構造強調処理は、例えば、血管やピットパターン等の観察対象の構造を強調する処理である。
特殊画像処理部64は、特殊モード時に作動し、血管を強調する上記各種画像処理を行うことにより、特殊画像を生成する。特殊モードはV−LED30aの射出光量が大きいため、特殊画像では表層血管が強調されている。
関心領域探索用画像処理部66は、関心領域探索モード時に作動し、内視鏡画像から関心領域を検出し、検出した関心領域の位置情報を表示する。本実施形態では、関心領域の位置情報を内視鏡画像とともに表示部18に表示する。関心領域探索用画像処理部66の詳細は別の図面を用いて後述する。
表示制御部68は、表示部18を制御し、画像処理部60が生成した表示画像を表示させる。これにより、通常モードでは通常画像が表示され、特殊モードでは特殊画像が表示され、関心領域探索モードでは内視鏡画像と関心領域の位置情報とが表示される。
挿入状態取得部70は、管腔内に挿入中の内視鏡12の挿入状態を取得する。挿入状態取得部70は、取得した内視鏡12の挿入状態を関心領域探索用画像処理部66に入力する。本実施形態では、挿入状態取得部70は、管腔内への挿入部12aの挿入長に基づき、挿入部12aの挿入状態を取得する。
図6に示すように、内視鏡12の挿入部12aの外周面には、管腔内への挿入部12aの挿入長を測定するための測定用目盛り71が設けられている。この測定用目盛り71は、挿入部12aの長手方向に沿って所定ピッチ(例えば、1cm刻み)で設けられた点から構成される。患者の口(上部内視鏡の場合)や肛門(下部内視鏡の場合)には測定用目盛り71を検出する目盛り検出センサ72が設けられている。なお、図6では、目盛り検出センサ72が、患者が口に咥えているマウスピースMPに設けられていることを示している。目盛り検出センサ72は、測定用目盛り71を検出することにより、挿入部12aの挿入長が取得する。このように本実施形態では、測定用目盛り71と目盛り検出センサ72とにより挿入長取得部を構成する。目盛り検出センサ72は、プロセッサ装置16と有線又は無線で接続しており、挿入部12aの挿入長をプロセッサ装置16の挿入状態取得部70に送信する。
図7に示すように、挿入状態取得部70は、挿入部12aが管腔内を往復する診断経路Qにおいて挿入部12aの挿入長に対応する先端部21の位置を検出し、これにより先端部21の検出位置を取得する。この先端部21の検出位置の取得は、挿入部12aの挿入長が測定される毎に行われる。図7において、符合P1、P2は、先端部21の検出位置を示している。この例では、先端部21の検出位置P2は、先端部21の検出位置P1よりも管腔内の奥側とされている。すなわち、検出位置P2の挿入長は、検出位置P1の挿入長よりも長い。
なお、本実施形態では、挿入部12aの挿入長を用いて先端部21の検出位置を取得しているが、これに限られず、例えば挿入部12aに磁気センサ(図示無し)を設け、この磁気センサで得た情報を用いて、先端部21の検出位置と挿入部12aの形状情報などを取得してもよい。また、被検体をX線で撮像することにより得たX線画像を用いて、先端部21の検出位置を取得してもよい。
関心領域探索用画像処理部66について説明する。図8に示すように、関心領域探索用画像処理部66は、関心領域検出部80と、位置情報取得部81と、鑑別部82と、警告部83と、第1マーキング画像生成部84と、記憶部85と、を有する。
関心領域検出部80は、内視鏡画像取得部54から取得した内視鏡画像を用いて、管腔内の関心領域を検出する。関心領域は、管腔内において病変部と正常部との少なくともいずれかを含む領域である。
関心領域検出部80は、内視鏡画像から関心領域を検出する処理を自動で行う。例えば、関心領域検出部80は、関心領域のテンプレート画像を複数予め記憶しており、内視鏡画像においてテンプレート画像とマッチングする領域を関心領域として検出する。ここで、「マッチング」とは、比較する領域の類似度が一致する他、比較する領域の類似度の差分が一定の範囲内に収まっていることも含む。関心領域検出部80は、この例ではテンプレートマッチングにより関心領域を検出しているが、これに限られず、例えば深層学習、エッジ検出、およびテクスチャ解析等により関心領域を検出しても良い。
図9は、管腔内における先端部21の検出位置P1で得た内視鏡画像86から関心領域を検出する具体例である。図10は、管腔内における先端部21の検出位置P2で得た内視鏡画像87から関心領域を検出する具体例である。関心領域検出部80は、図9に示す内視鏡画像86からは関心領域R1を検出し、また、図10に示す内視鏡画像87からは関心領域R2を検出する。
位置情報取得部81は、関心領域検出部80により検出された関心領域の位置情報を取得する。具体的には、位置情報取得部81は、関心領域が検出された内視鏡画像を得た先端部21の検出位置を、関心領域の位置情報として取得する。この例では、先端部21の検出位置P1を関心領域R1の位置情報として取得し、先端部21の検出位置P2を関心領域R2の位置情報として取得する。
鑑別部82は、関心領域検出部80により検出された関心領域に対して鑑別を行う。具体的には、鑑別部82は、関心領域が病変部と正常部とのいずれであるかの鑑別を少なくとも行い、この鑑別の鑑別結果を出力する。本実施形態では、鑑別部82は、病変部と正常部との鑑別に加え、腺腫(良性ポリープともいう)の鑑別も行う。例えば、図9に示す内視鏡画像86の関心領域R1に対しては腺腫との鑑別結果が得られる。また、図10に示す内視鏡画像87の関心領域R2に対しては病変部との鑑別結果が得られる。鑑別方法としては、人工知能(AI(Artificial Intelligence))を用いることが好ましい。なお、鑑別方法としては、AIの他、深層学習、テンプレートマッチング、テクスチャ解析、周波数解析等を用いても良い。
また、鑑別部82は、病変部の種類の鑑別を行ってもよい。すなわち、鑑別部82により出力される鑑別結果は、病変部の種類をさらに含むものでもよい。病変部の種類は、診断を行う部位による。例えば、大腸の診断では、鑑別部82は、正常、過形成ポリープ(HP:Hyperplastic Polyp)、SSA/P(Sessile Serrated Adenoma / Polyp)、腺腫(TSA:Traditional Serrated Adenoma)、側方発達型腫瘍(LST:Laterally Spreading Tumor)、及びがんのいずれかの種類に鑑別する。鑑別を行う病変部の種類は、例えば、操作入力部19の入力により設定されるようにしてもよい。なお、鑑別部82は、さらに処置箇所の鑑別を行ってもよい。すなわち、鑑別結果は、処置箇所をさらに含むものでもよい。
第1マーキング画像生成部84は、管腔の模式図において関心領域の位置情報に対応する箇所にマーキングをした第1マーキング画像を生成する。本実施形態では、第1マーキング画像を表示部18に表示させることにより、関心領域の位置情報を表示させる。第1マーキング画像生成部84は、管腔の模式図として、胃、食道、大腸などの部位ごとの模式図を予め記憶している。いずれの部位の模式図を用いるかは、例えば操作入力部19の入力により設定される。本実施形態では大腸の模式図が設定される。
図11に示すように、第1マーキング画像90には、模式図92において、関心領域R1の位置情報としての先端部21の検出位置P1に対応する箇所に、関心領域R1が検出されたことを示すマークM1が重ねて表示される。また、第1マーキング画像90には、模式図92において、関心領域R2の位置情報としての先端部21の検出位置P2に対応する箇所に、関心領域R2が検出されたことを示すマークM2が重ねて表示される。これにより、ユーザは、関心領域の位置を認識することが可能である。なお、図11では、関心領域が検出されたことを示すマークM1,M2を円形としているが、これに限られず、多角形などでもよい。
また、第1マーキング画像生成部84は、挿入状態取得部70により取得した内視鏡12の挿入状態を模式図92の対応する箇所に表示させる。図11において、符号Lは、内視鏡12の挿入状態を示す。内視鏡12の挿入状態Lは、本実施形態では、挿入部12aの挿入長に応じた長さで表される。なお、図11では、先端部21が往路の終端まで到達したときの内視鏡12の挿入状態Lを示している。
また、第1マーキング画像生成部84は、鑑別部82の鑑別結果に応じてマーキングの表示態様を変更する。マーキングの表示態様の変更方法としては、マーキングの色と大きさと太さと形状と濃淡等を変える方法がある。この例では、腺腫を示すマークM1と病変部を示すマークM2との線の太さを互いに異ならせることにより、鑑別結果の違いを表している。図11では、マークM2の線の太さを、マークM1の線の太さよりも太くしている。なお、病変が極めて要注意であることをユーザに意識させる場合は、黄色や赤色等で表示させることが好ましい。
警告部83は、関心領域の位置情報と内視鏡12の挿入状態とに基づき警告を行う。具体的には、警告部83は、関心領域の位置情報としての先端部21の検出位置と、現在の先端部21の検出位置との距離を求め、この距離が閾値以下である場合に警告信号を生成する。本実施形態では、警告部83は、生成した警告信号を表示制御部68に入力し、先端部21が関心領域に近いことを警告するための警告表示を行わせる。警告表示の方法としては、文字と数字と記号などにより表す方法がある。なお、警告は、警告表示に限られない。例えば、警告部83は、生成した警告信号をスピーカ(図示無し)に入力し、このスピーカから警告音を出力させるようにしてもよい。また、振動や、フラッシュ光などを用いても良い。
また、警告部83は、鑑別部82の鑑別結果に応じて警告態様を変更する。この例では、警告表示の表示態様を変更する。例えば、腺腫との鑑別結果が得られた場合は表示部18に「!」と表示させ、病変部との鑑別結果が得られた場合は表示部18に「!!」と表示させる。なお、警告として警告音を出力させる場合においても鑑別結果に応じて警告態様を変更してもよい。警告音の警告態様を変更する方法としては、例えば、警告音の音量を変更する方法と、警告音の音の高さを変更する方法などがある。
記憶部85は、関心領域の位置情報を記憶する。本実施形態では、記憶部85は、関心領域の位置情報と鑑別結果とを記憶する。すなわち、記憶部85は、関心領域位置情報記憶部としての機能と、関心領域位置情報記憶部としての機能とを有する。また、記憶部85は、関心領域の位置情報と鑑別結果とを対応付けして記憶することが好ましい。なお、記憶部85は、関心領域の位置情報と鑑別結果とのいずれか一方のみを記憶してもよいし、関心領域の位置情報と第1マーキング画像90とを対応付けして記憶してもよい。
次に、関心領域探索モードの一連の流れについて、図12のフローチャートに沿って説明する。関心領域探索モードでは、操作入力部19により入力された光量比に従って照明光を発生する。照明光で照明中の管腔内を内視鏡12により撮像することにより、内視鏡画像が得られる。この内視鏡画像はプロセッサ装置16に送信される。これにより、プロセッサ装置16内の内視鏡画像取得部54が内視鏡画像を取得する(ステップS11)。内視鏡画像取得部54により取得された内視鏡画像は、各種処理が施され、関心領域探索用画像処理部66に入力される。
また、関心領域探索モードでは、挿入状態取得部70が、内視鏡12の挿入状態を取得する。内視鏡12の挿入状態は、管腔内への挿入部12aの挿入長に基づき取得される。挿入部12aの挿入長は、挿入長取得部により測定される。挿入長取得部は、この例では測定用目盛り71と目盛り検出センサ72とにより構成されており、目盛り検出センサ72が測定用目盛り71を検出することにより、挿入部12aの挿入長を取得する。また、挿入状態取得部70は、挿入部12aの挿入長を用いて先端部21の検出位置を取得する。挿入状態取得部70により取得された内視鏡12の挿入状態は、関心領域探索用画像処理部66に入力される。
関心領域探索用画像処理部66では、関心領域検出部80が、内視鏡画像を用いて、管腔内の関心領域を検出する(ステップS12)。関心領域の検出は、内視鏡画像が得られる毎に自動で行われる。
位置情報取得部81は、関心領域検出部80により検出された関心領域の位置情報を取得する(ステップS13)。この例では、位置情報取得部81は、関心領域が検出され内視鏡画像を得た先端部21の検出位置を、関心領域の位置情報として取得する。
位置情報取得部81により取得された関心領域の位置情報は表示部18に表示される(ステップS14)。これにより、医師などのユーザは、表示部18に表示された関心領域の位置情報を見ながら内視鏡12を操作することができるため、検出済みの関心領域を容易に再探索することができる。この結果、検出済みの関心領域R1,R2の再探索にかかる診断時間が短縮される。本発明は、診断の復路または他施設において関心領域の再探索を行う際に特に有効である。
また、関心領域の位置情報の表示は、管腔の模式図92において関心領域の位置情報に対応する箇所にマーキングをした第1マーキング画像90を表示部18に表示させることにより行われる。第1マーキング画像90は、第1マーキング画像生成部84により生成される。
例えば、図13に示すように、表示部18の表示画面に第1マーキング画像90が表示される。なお、図13では、第1マーキング画像90に加え、内視鏡画像86を表示させている。第1マーキング画像90には、関心領域R1が検出されたことを示すマークM1と、関心領域R2が検出されたことを示すマークM2とが表示される。これにより、ユーザは関心領域の位置を容易に認識することができるため、関心領域R1,R2の再探索にかかる診断時間がより短縮される。
また、第1マーキング画像90には、内視鏡12の挿入状態Lが模式図92の対応する箇所に表示される。図13では、内視鏡12の挿入状態Lの先端はマークM1の位置にある。すなわち、管腔内における内視鏡12の先端部21が、関心領域R1が検出された検出位置P1にあることを示している。これにより、ユーザは現在の内視鏡12の挿入状態を把握することができるため、内視鏡12の先端部21を目的とする位置に短時間で移動させることができる。この結果、診断時間がより短縮される。
また、マークM1とマークM2とは、鑑別部82の鑑別結果に応じて表示態様が異なる。図13では、マークM2の線の太さがマークM1よりも太い。これにより、ユーザは鑑別結果を容易に認識することができる。
また、表示部18の表示画面には、先端部21が関心領域に近いことを警告する警告表示95が行われる(図13参照)。これにより、関心領域の見落としが防止される。
警告表示95は、鑑別部82の鑑別結果に応じて表示態様が変更される。図13では、鑑別部82により腺腫との鑑別結果が得られた場合の警告表示95として「!」が示されている。
一方、図14に示すように、内視鏡12の挿入状態Lの先端がマークM2の位置にある場合、すなわち、管腔内における内視鏡12の先端部21が、関心領域R2が検出された検出位置P2にある場合は、警告表示95が「!!」に変更される。このように、関心領域R2は鑑別部82により病変部との鑑別結果が得られた領域であるから、より強調した警告表示95とすることが好ましい。これにより、ユーザに対し病変が極めて要注意であることを意識させることができるため、精査または処置が必要とされる関心領域の見落としがより確実に防止される。
位置情報取得部81により取得された関心領域の位置情報は、関心領域位置情報記憶部としての記憶部85に記憶される。記憶部85に記憶した関心領域の位置情報は、例えば、他の施設での内視鏡診断時に使用される。これにより、他施設での関心領域の再探索にかかる診断時間がより確実に短縮される。
鑑別部82により出力された鑑別結果は、鑑別結果記憶部としての記憶部85に記憶される。これにより、例えば他施設で鑑別結果が利用可能となる。
なお、関心領域の位置情報の表示方法は、本実施形態のように第1マーキング画像90を表示させる方法に限られない。例えば、関心領域の位置情報として、管腔を区分けした複数の管腔部位の管腔部位情報を表示させてもよい。例えば大腸の場合は、管腔部位として、盲腸と上行結腸と横行結腸と下行結腸とS状結腸と直腸などに区分けされる。管腔部位情報は、例えば管腔部位の名称などである。位置情報取得部81は、管腔内において関心領域が検出された管腔部位を特定し、特定した管腔部位の管腔部位情報を関心領域の位置情報として取得する。位置情報取得部81は、例えば、内視鏡画像を用いて、テンプレートマッチングと深層学習とエッジ検出とテクスチャ解析と周波数解析等により管腔部位を特定する。なお、管腔部位の特定方法としては、上記のように内視鏡画像を用いる方法に限られず、例えば、磁気センサとX線画像と挿入部12aの挿入長などに基づき管腔部位を特定してもよい。位置情報取得部81により取得された管腔部位情報は、関心領域の位置情報として表示部18に表示される。
図15は、関心領域R1と関心領域R2とが検出された場合において、表示部18の表示画面に、関心領域R1を検出した管腔部位の管腔部位情報と、関心領域R2を検出した管腔部位の管腔部位情報とを表示させた具体例である。この例では、管腔部位情報として管腔部位の名称をテキストで表示しており、関心領域R1は下行結腸で検出されたことを示し、関心領域R2は横行結腸で検出されたことを示している。
なお、図15では、管腔の模式図94が表示されている。模式図94は、盲腸と上行結腸と横行結腸と下行結腸とS状結腸と直腸とに対応するように6分割されている。模式図94において、下行結腸に対応する区域と横行結腸に対応する区域とは、他の区域とは異なる表示態様で表示されている。さらに、図15では、下行結腸に対応する区域と横行結腸に対応する区域との違いを、ハッチングの間隔の違いにより表している。この例では表示部18の表示画面に模式図94も表示させているが、管腔部位情報の表示方法はこれに限られない。なお、関心領域が検出された区域は、鑑別結果に応じて表示態様を変更してもよい。
また、関心領域の位置情報として、管腔内に含まれる基準構造からの距離情報を表示させてもよい。基準構造は、バウヒン弁(回盲弁)や肛門、「肛門から数えて何枚目のヒダ」などの特徴的な構造である。いずれの基準構造を用いるかは、例えば操作入力部19の入力により設定される。また、検出された関心領域ごとに設定可能とされている。基準構造は、例えば関心領域検出部80により内視鏡画像から検出される。例えばバウヒン弁は、先端部21が往路の終端まで到達した場合に得た内視鏡画像から検出される。なお、肛門は、挿入部12aの挿入長から求めてもよい。基準構造の検出方法は、上記の方法に限られず、例えば、磁気センサとX線画像などから検出してもよい。位置情報取得部81は、関心領域の検出位置と基準構造の検出位置とを用いて、関心領域の基準構造からの距離情報を取得する。そして、位置情報取得部81により取得された距離情報は、関心領域の位置情報として表示部18に表示される。
図16は、関心領域R1と関心領域R2とが検出された場合において、表示部18の表示画面に、関心領域R1の位置を肛門からの距離で表示し、関心領域R2の位置をバウヒン弁からの距離で表示した具体例である。図16では、距離情報をテキストと数値とにより表示しており、関心領域R1については「肛門からAcm」と表示され、関心領域R2については「バウヒン弁からBcm」と表示されている。なお、図16ではテキストと数値とにより距離情報を表示するとともに管腔の模式図96を表示させているが、基準構造からの距離情報の表示方法はこれに限られない。
また、関心領域の位置情報として、挿入長取得部により取得した挿入部12aの挿入長のうち、関心領域を検出した挿入長を表示部18に表示させてもよい。
図17は、関心領域R1と関心領域R2とが検出された場合において、表示部18の表示画面に、関心領域R1を検出した挿入長と、関心領域R2を検出した挿入長とを表示した具体例である。この例では、挿入長を数値により表示しており、関心領域R1を検出した挿入長はXcmとされ、関心領域R2を検出した挿入長はYcmとされている。なお、図17では挿入長を数値で表示するとともに管腔の模式図98を表示させているが、挿入長の表示方法はこれに限られない。
なお、上記実施形態では、鑑別部82の鑑別結果に応じてマーキングの表示態様を変更しているが、鑑別部82の鑑別結果に加え、内視鏡画像から関心領域の生体特徴量を算出し、この生体特徴量を用いてマーキングの表示態様を変更するようにしてもよい。
この場合は、図18に示すように、関心領域探索用画像処理部66の代わりに、関心領域探索用画像処理部100を備える。関心領域探索用画像処理部100は、関心領域探索用画像処理部66の各部材に加え、生体特徴量算出部102をさらに有する。関心領域探索用画像処理部66と同じ部材については説明を省略する。
生体特徴量算出部102は、内視鏡画像から生体特徴量を算出する。生体特徴量の算出には、関心領域検出部80により関心領域が検出された内視鏡画像が用いられる。生体特徴量は、血管の性質を表す情報であり、例えば、血管の本数、血管の分岐数、血管の分岐角度、分岐点間距離、血管の交差数、血管の太さ、血管の太さの変化、血管の太さの変化の複雑度、血管の長さ、血管の間隔、血管の深さ、血管の高低差、血管の傾き、血管の面積、血管の密度、血管のコントラスト、血管の色、血管の色の変化、血管の蛇行度、血管の血液濃度、血管の酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、血管の走行パターン、及び血管の血流量等である。生体特徴量算出部102は、これらの生体特徴量のうちのいずれかを算出する。なお、生体特徴量の種類は上記した例のみに限定されない。
生体特徴量を用いた表示態様の変更方法としては、例えば鑑別結果を用いた表示態様の変更方法とは異なる変更方法が用いられる。具体的には、上記実施形態のように鑑別結果の違いをマーキングの太さで表している場合は、生体特徴量は例えばマーキングの色で表す。なお、上記のように鑑別結果と生体特徴量とで表示態様の変更方法を異ならせることに限らず、鑑別結果と生体特徴量との両方を用いて、例えばマーキングの太さを変えるなどしても良い。
なお、生体特徴量算出部102により算出された生体特徴量を表示部18に表示させてもよい。また、生体特徴量を関心領域の位置情報と対応付けして記憶部85に記憶させてもよい。
なお、上記実施形態では、管腔の模式図92において関心領域の位置情報に対応する箇所にマーキングした第1マーキング画像90を表示部18に表示しているが、これに代えて、管腔内に挿入されている挿入部12aの挿入形状を画像化した内視鏡挿入形状画像を取得し、この内視鏡挿入形状画像において関心領域の位置情報に対応する箇所にマーキングした第2マーキング画像を表示部18に表示させてもよい。
この場合は、図19に示すように、第1マーキング画像生成部84の代わりに、第2マーキング画像生成部108を備える。また、挿入状態取得部70は、挿入部12aに設けられた磁気センサ(図示無し)で得た情報を用いて挿入部12aの形状情報を取得する。すなわち、挿入状態取得部70は、管腔内に挿入されている内視鏡12の挿入部12aの形状情報を取得する内視鏡挿入形状情報取得部として機能する。
第2マーキング画像生成部108は、内視鏡挿入形状情報取得部としての挿入状態取得部70により取得された挿入部12aの形状情報を用いて画像処理を行うことにより内視鏡挿入形状画像を取得する。内視鏡挿入形状画像では、表示部18の表示画面において挿入部12aの形状が3次元的に表される。そして、第2マーキング画像生成部108は、内視鏡挿入形状画像において関心領域の位置情報に対応する箇所にマーキングをした第2マーキング画像を生成する。
図20は、関心領域R1と関心領域R2とが検出された場合において、内視鏡挿入形状画像110上に、関心領域R1が検出されたことを示すマークM1と、関心領域R2が検出されたことを示すマークM2とが表示された第2マーキング画像112を示す。内視鏡挿入形状画像110は、挿入している管腔の形状に近い形状をしている。このため、ユーザは、内視鏡挿入形状画像110とマークM1,M2とにより関心領域の位置を認識することが可能である。この結果、検出済みの関心領域R1,R2の再探索にかかる診断時間が短縮される。
なお、第2マーキング画像生成部108は、鑑別部82の鑑別結果に応じてマーキングの表示態様を変更してもよい。また、第2マーキング画像生成部108は、鑑別部82の鑑別結果に加え、生体特徴量を用いてマーキングの表示態様を変更するようにしてもよい。
記憶部85は、関心領域の位置情報と第2マーキング画像112とを対応付けして記憶してもよい。
また、鑑別部82の鑑別結果は、表示部18に表示させてもよい。なお、上記で示した人工知能等を用いた鑑別は100%の精度で病変鑑別を保証するものとは限らない。したがって、鑑別部82は、鑑別結果の確信度をさらに算出し、表示部18に表示してもよい。すなわち、鑑別部82により出力される鑑別結果は、この鑑別結果に対する確信度をさらに含むものでもよい。確信度の算出方法の一例として、病変部であるとの鑑別結果に対する確信度を算出する場合を説明する。この場合では、病変部特有の画像的情報として複数のテンプレート画像を鑑別部82に予め記憶させておき、内視鏡画像においてテンプレート画像とマッチングする部分の検出を行い、マッチングしたテンプレート画像の数とテンプレート画像の総数との比率を確信度として算出する。なお、確信度の算出方法はこれに限られない。また、鑑別結果に対して医師が同意するかを確認するための「同意ボタン」を表示部18に表示し、鑑別結果に対する最終的な承認は医師に任せる形をとってもよい。この場合には、「同意ボタン」に対する操作は、操作入力部19により行うことが好ましい。
[第2実施形態]
第2実施形態では、上記第1実施形態で示した4色のLED30a〜30dの代わりに、レーザ光源と蛍光体を用いて観察対象の照明を行う。以下においては、第1実施形態と異なる部分のみ説明を行い、第1実施形態と略同様の部分については、説明を省略する。
図21に示すように、第2実施形態の内視鏡システム200では、光源装置14の光源部30において、4色のLED30a〜30dの代わりに、中心波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記。LDは「Laser Diode」を表す)204と、中心波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(「405LD」と表記)206とが設けられている。これら各光源204、206の半導体発光素子からの発光は、光源制御部208により個別に制御されており、青色レーザ光源204の出射光と、青紫色レーザ光源206の出射光の光量比は変更自在になっている。
光源制御部208は、通常モードの場合には、青色レーザ光源204を点灯させる。これに対して、特殊モードの場合には、青色レーザ光源204と青紫色レーザ光源206の両方を点灯させるとともに、青色レーザ光の発光比率を青紫色レーザ光の発光比率よりも大きくなるように制御している。関心領域探索モードの場合には、操作入力部19により入力された光量比に従って発光される。
なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源204及び青紫色レーザ光源206は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
照明光学系36には、照明レンズ40の他に、ライトガイド34からの青色レーザ光又は青紫色レーザ光が入射する蛍光体210が設けられている。蛍光体210は、青色レーザ光によって励起され、蛍光を発する。また、青色レーザ光の一部は、蛍光体210を励起させることなく透過する。青紫色レーザ光は、蛍光体210を励起させることなく透過する。蛍光体210を出射した光は、照明レンズ40を介して、管腔内を照明する。
ここで、通常モードにおいては、主として青色レーザ光が蛍光体210に入射する。図22に示すように、青色レーザ光、及び青色レーザ光により蛍光体210から励起発光する蛍光を合波した通常モード用の広帯域光が通常光となる。この通常光で照明された管腔内をイメージセンサ46で撮像することによって通常画像が得られる。
一方、特殊モードにおいては、青紫色レーザ光と青色レーザ光の両方が蛍光体210に入射する。図23に示すように、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体210から励起発光する蛍光を合波した特殊モード用の広帯域光が特殊光となる。この特殊光で照明された管腔内をイメージセンサ46で撮像することによって特殊画像が得られる。
また、関心領域探索モードにおいては、操作入力部19により入力された光量比に従って発光された照明光により管腔内が照明される。そして、照明光照明された管腔内をイメージセンサ46で撮像することによって内視鏡画像が得られる。そして、関心領域検出部80により内視鏡画像から管腔内の関心領域が検出され、位置情報取得部81により関心領域の位置情報が取得される。取得された関心領域の位置情報は表示部18に表示される。
なお、蛍光体210は、青色レーザ光の一部を吸収して、緑色〜黄色に励起発光する複数種の蛍光体(例えばYKG系蛍光体、或いはBAM(BaMgAl1017)などの蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体210の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。
[第3実施形態]
第3実施形態では、4色のLED30a〜30dの代わりに、キセノンランプ等の白色光光源と回転フィルタを用いて観察対象の照明を行う。また、カラーのイメージセンサ46に代えて、モノクロの撮像センサで観察対象の撮像を行っても良い。以下においては、第1実施形態と異なる部分のみ説明を行い、第1実施形態と略同様の部分については、説明を省略する。
図24に示す内視鏡システム300では、光源装置14において、内視鏡システム10の各LED30a〜30dに代えて、白色光光源部302と、回転フィルタ304と、フィルタ切替部306とが設けられている。また、撮像光学系38には、カラーのイメージセンサ46の代わりに、カラーフィルタが設けられていないモノクロのイメージセンサ308が設けられている。また、白色光光源部302と回転フィルタ304との間には絞り303が設けられており、この絞り303は絞り制御部305によって開口部の面積が調整される。
白色光光源部302はキセノンランプや白色LED等であり、波長域が青色から赤色に及ぶ白色光を発する。回転フィルタ304は、回転軸に近い一番近い内側に設けた通常モード用フィルタ310と、この通常モード用フィルタ310の外側に設けた特殊モード用フィルタ312、関心領域探索モード用フィルタ314とを備えている(図25参照)。
フィルタ切替部306は、回転フィルタ304を径方向に移動する。具体的には、フィルタ切替部306は、モード切替部27により通常モードにセットした場合に、通常モード用フィルタ310を白色光の光路に挿入する。フィルタ切替部306は、特殊モードにセットした場合に、特殊モード用フィルタ312を白色光の光路に挿入する。フィルタ切替部306は、関心領域探索モードにセットした場合に、関心領域探索モード用フィルタ314を白色光の光路に挿入する。
図25に示すように、通常モード用フィルタ310には、周方向に沿って、Bbフィルタ310aと、Gフィルタ310bと、Rフィルタ310cとが設けられている。Bbフィルタ310aは、白色光のうち400〜500nmの波長範囲を持つ広帯域の青色光Bbを透過する。Gフィルタ310bは、白色光のうち緑色光Gを透過する。Rフィルタ310cは、白色光のうち赤色光Rを透過する。したがって、通常モード時には、回転フィルタ304が回転することで、通常光として、広帯域の青色光Bbと緑色光Gと赤色光Rとが観察対象に向けて順次照射される。
特殊モード用フィルタ312には、周方向に沿って、Bnフィルタ312aと、Gnフィルタ312bとが設けられている。Bnフィルタ312aは、白色光のうち400〜450nmの青色狭帯域光Bnを透過する。Gnフィルタ312bは、白色光のうち530〜570nmの緑色狭帯域光Gnを透過する。したがって、特殊モード時には、回転フィルタ304が回転することで、特殊光として、青色狭帯域光と緑色狭帯域光が観察対象に向けて順次照射される。
関心領域探索モード用フィルタ314には、この例では、周方向に沿って、Bbフィルタ314a、Gフィルタ314b、Rフィルタ314c、Bnフィルタ314d、Gnフィルタ314eが設けられている。Bbフィルタ314aは、白色光のうち広帯域の青色光Bbを透過する。Gフィルタ314bは、白色光のうち緑色光Gを透過する。Rフィルタ314cは、白色光のうち赤色光Rを透過する。Bnフィルタ314dは、白色光のうち青色狭帯域光Bnを透過する。Gnフィルタ314eは、白色光のうち緑色狭帯域光Gnを透過する。したがって、関心領域探索モード時には、回転フィルタ304が回転することで、通常光として、広帯域の青色光Bb、緑色光G、赤色光Rが観察対象に順次照射されるとともに、特殊光として、青色狭帯域光、緑色狭帯域光が観察対象に順次照射される。
内視鏡システム300では、通常モード時には、広帯域の青色光Bb、緑色光G、赤色光Rで管腔内を照明する毎にモノクロのイメージセンサ308で管腔内を撮像する。これにより、広帯域の青色光Bbの照明時にBc画像信号が得られ、緑色光Gの照明時にGc画像信号が得られ、赤色光Rの照明時にRc画像信号が得られる。これらBn画像信号、Gc画像信号とRc画像信号によって、通常画像が構成される。
特殊モード時には、青色狭帯域光Bn、緑色狭帯域光Gnで管腔内を照明する毎にモノクロのイメージセンサ308で管腔内を撮像する。これにより、青色狭帯域光Bnの照明時にBn画像信号が得られ、緑色狭帯域光Gnの照射時にGn画像信号が得られる。これらBn画像信号とGn画像信号によって、特殊画像が構成される。
関心領域探索モードの場合には、広帯域の青色光Bbの照明時に得られるBc画像信号、緑色光Gの照明時に得られるGc画像信号、赤色光Rの照明時に得られるRc画像信号に基づいて、内視鏡画像が得られる。また、青色狭帯域光Bnの照明時に得られるBn画像信号と、緑色狭帯域光Gnの照射時に得られるGn画像信号とに基づいて、内視鏡画像が得られる。内視鏡画像が得られる毎に関心領域の検出が行われるとともに、関心領域の位置情報の取得が行われる。そして、取得され関心領域の位置情報が表示部18に表示される。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
14 光源装置
16 プロセッサ装置
18 表示部
19 操作入力部
21 先端部
22 湾曲部
23 可撓管部
25 アングルノブ
26 画像記憶操作部
27 モード切替部
28 ズーム操作部
30 光源部
30a V−LED
30b B−LED
30c G−LED
30d R−LED
30e 光学フィルタ
32 光源制御部
34 ライトガイド
36 照明光学系
38 撮像光学系
40 照明レンズ
42 対物レンズ
44 ズームレンズ
46 イメージセンサ
52 コントローラ
54 内視鏡画像取得部
56 DSP
58 ノイズ低減部
60 画像処理部
62 通常画像処理部
64 特殊画像処理部
66 関心領域探索用画像処理部
68 表示制御部
70 挿入状態取得部
71 測定用目盛り
72 目盛り検出センサ
80 関心領域検出部
81 位置情報取得部
82 鑑別部
83 警告部
84 第1マーキング画像生成部
85 記憶部
86 内視鏡画像
87 示す内視鏡画像
90 第1マーキング画像
92,94,96,98 模式図
95 警告表示
100 関心領域探索用画像処理部
102 生体特徴量算出部
108 第2マーキング画像生成部
110 内視鏡挿入形状画像
112 第2マーキング画像
200 第2実施形態の内視鏡システム
204 青色レーザ光源
206 青紫色レーザ光源
208 光源制御部
210 蛍光体
300 内視鏡システム
302 白色光光源部
303 絞り
304 回転フィルタ
305 絞り制御部
306 フィルタ切替部
308 イメージセンサ
310 通常モード用フィルタ
310a Bbフィルタ
310b Gフィルタ
310c Rフィルタ
312 特殊モード用フィルタ
312a Bnフィルタ
312b Gnフィルタ
314 関心領域探索モード用フィルタ
314a Bbフィルタ
314b Gフィルタ
314c Rフィルタ
314d Bnフィルタ
314e Gnフィルタ
B 青色光
G 緑色光
L 内視鏡の挿入状態
M1 マーク
M2 マーク
P1 先端部の検出位置
P2 先端部の検出位置
Q 診断経路
R 赤色光
R1 関心領域
R2 関心領域
V 紫色光

Claims (17)

  1. 内視鏡と、
    前記内視鏡により管腔内を撮像して得た内視鏡画像を取得する内視鏡画像取得部と、
    前記内視鏡画像を用いて前記管腔内の関心領域を検出する関心領域検出部と、
    前記関心領域の位置情報を取得する位置情報取得部と、
    前記関心領域の位置情報を表示する表示部と、
    前記管腔内に挿入されている前記内視鏡の挿入部の形状情報を取得する内視鏡挿入形状情報取得部と、
    前記挿入部の形状情報を用いて画像処理することにより内視鏡挿入形状画像を取得し、かつ、前記内視鏡挿入形状画像において前記関心領域の位置情報に対応する箇所にマーキングをした第2マーキング画像を生成する第2マーキング画像生成部と、
    を備え、
    前記表示部は、前記第2マーキング画像を表示する内視鏡システム。
  2. 前記管腔の模式図において前記関心領域の位置情報に対応する箇所にマーキングをした第1マーキング画像を生成する第1マーキング画像生成部を備え、
    前記表示部は、前記第1マーキング画像を表示する請求項1に記載の内視鏡システム。
  3. 前記管腔内に挿入中の前記内視鏡の挿入状態を取得する挿入状態取得部を備え、
    前記表示部は、前記内視鏡の挿入状態を前記模式図の対応する箇所に表示する請求項2に記載の内視鏡システム。
  4. 前記関心領域に対して鑑別を行う鑑別部を備える請求項3に記載の内視鏡システム。
  5. 前記鑑別部は、前記関心領域が病変部と正常部とのいずれであるかを少なくとも含む鑑別結果を出力する請求項4に記載の内視鏡システム。
  6. 前記鑑別結果は、病変部の種類をさらに含む請求項5に記載の内視鏡システム。
  7. 前記鑑別結果は、前記鑑別結果に対する確信度をさらに含む請求項5または6に記載の内視鏡システム。
  8. 前記鑑別結果を記憶する鑑別結果記憶部を備える請求項5から7のいずれか1項に記載の内視鏡システム。
  9. 前記表示部は、前記鑑別部の鑑別結果に応じて前記マーキングの表示態様を変更する請求項4から8のいずれか1項に記載の内視鏡システム。
  10. 前記関心領域の位置情報と前記内視鏡の挿入状態とに基づき警告を行う警告部を備える請求項4または9のいずれか1項に記載の内視鏡システム。
  11. 前記警告部は、前記鑑別部の鑑別結果に応じて警告態様を変更する請求項10に記載の内視鏡システム。
  12. 前記関心領域の生体特徴量を算出する生体特徴量算出部を備え、
    前記表示部は、前記鑑別部の鑑別結果に加え前記生体特徴量を用いて前記マーキングの表示態様を変更する請求項4から11のいずれか1項に記載の内視鏡システム。
  13. 前記管腔は、複数の管腔部位に区分けされており、
    前記関心領域の位置情報は、複数の前記管腔部位のうち、前記関心領域を検出した前記管腔部位の管腔部位情報であり、
    前記表示部は、前記管腔部位情報を前記関心領域の位置情報として表示する請求項1に記載の内視鏡システム。
  14. 前記関心領域の位置情報は、前記管腔内の基準構造からの距離情報であり、
    前記表示部は、前記距離情報を前記関心領域の位置情報として表示する請求項1に記載の内視鏡システム。
  15. 前記管腔内への前記内視鏡の挿入部の挿入長を取得する挿入長取得部を備え、
    前記表示部は、前記挿入長のうち、前記関心領域を検出した前記挿入長を、前記関心領域の位置情報として表示する請求項1に記載の内視鏡システム。
  16. 前記関心領域の位置情報を記憶する関心領域位置情報記憶部を備える請求項1から15のいずれか1項に記載の内視鏡システム。
  17. 内視鏡画像取得部が、内視鏡により管腔内を撮像して得た内視鏡画像を取得するステップと、
    関心領域検出部が、前記内視鏡画像を用いて、前記管腔内の関心領域を検出するステップと、
    位置情報取得部が、前記関心領域の位置情報を取得するステップと、
    内視鏡挿入形状情報取得部が、前記管腔内に挿入されている前記内視鏡の挿入部の形状情報を取得するステップと、
    第2マーキング画像生成部が、前記挿入部の形状情報を用いて画像処理することにより内視鏡挿入形状画像を取得し、かつ、前記内視鏡挿入形状画像において前記関心領域の位置情報に対応する箇所にマーキングをした第2マーキング画像を生成するステップと、
    表示部が、前記関心領域の位置情報と前記第2マーキング画像とを表示するステップと、
    を有する内視鏡システムの作動方法。
JP2019508755A 2017-03-30 2018-02-19 内視鏡システム及びその作動方法 Active JP6749473B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017068040 2017-03-30
JP2017068040 2017-03-30
PCT/JP2018/005690 WO2018179991A1 (ja) 2017-03-30 2018-02-19 内視鏡システム及びその作動方法

Publications (2)

Publication Number Publication Date
JPWO2018179991A1 JPWO2018179991A1 (ja) 2020-01-09
JP6749473B2 true JP6749473B2 (ja) 2020-09-02

Family

ID=63675142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508755A Active JP6749473B2 (ja) 2017-03-30 2018-02-19 内視鏡システム及びその作動方法

Country Status (5)

Country Link
US (1) US11272830B2 (ja)
EP (1) EP3603483A4 (ja)
JP (1) JP6749473B2 (ja)
CN (1) CN110461210A (ja)
WO (1) WO2018179991A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015006295T5 (de) * 2015-04-06 2017-11-30 Olympus Corporation Bildverarbeitungsvorrichtung, Vorrichtung zur biologischen Beobachtung und Bildverarbeitungsverfahren
CN109310302B (zh) * 2016-06-06 2021-07-06 奥林巴斯株式会社 用于内窥镜装置的控制装置和内窥镜装置
CN110325098A (zh) 2016-11-28 2019-10-11 适内有限责任公司 具有可分离一次性轴的内窥镜
US20190021677A1 (en) * 2017-07-18 2019-01-24 Siemens Healthcare Gmbh Methods and systems for classification and assessment using machine learning
US10810460B2 (en) 2018-06-13 2020-10-20 Cosmo Artificial Intelligence—AI Limited Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
US11100633B2 (en) 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
JP6924727B2 (ja) * 2018-06-25 2021-08-25 富士フイルム株式会社 内視鏡装置
WO2020012872A1 (ja) * 2018-07-09 2020-01-16 富士フイルム株式会社 医用画像処理装置、医用画像処理システム、医用画像処理方法、及びプログラム
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法
EP3922163A4 (en) * 2019-02-08 2022-04-06 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, ENDOSCOPE SYSTEM AND MEDICAL IMAGE PROCESSING METHOD
WO2020174747A1 (ja) * 2019-02-26 2020-09-03 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
US20220148182A1 (en) 2019-03-12 2022-05-12 Nec Corporation Inspection device, inspection method and storage medium
CN112566540B (zh) 2019-03-27 2023-12-19 Hoya株式会社 内窥镜用处理器、信息处理装置、内窥镜系统、程序以及信息处理方法
JP7290729B2 (ja) * 2019-08-13 2023-06-13 富士フイルム株式会社 画像診断支援装置、内視鏡システム、画像診断支援装置の作動方法、及び画像診断支援プログラム
CN114667093A (zh) * 2019-11-05 2022-06-24 奥林巴斯株式会社 内窥镜装置、显示用图像输出方法以及程序
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
WO2021146904A1 (zh) * 2020-01-21 2021-07-29 云象科技股份有限公司 内视镜检测系统及其方法
JP2022071617A (ja) * 2020-10-28 2022-05-16 富士フイルム株式会社 内視鏡システム及び内視鏡装置
JP7154274B2 (ja) * 2020-12-01 2022-10-17 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN113012162A (zh) * 2021-03-08 2021-06-22 重庆金山医疗器械有限公司 一种内窥镜检查区域的清洁度检测方法、装置及相关设备
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle
WO2023100310A1 (ja) * 2021-12-02 2023-06-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援システム、内視鏡検査支援方法、および記録媒体
WO2023181175A1 (ja) * 2022-03-23 2023-09-28 オリンパスメディカルシステムズ株式会社 内視鏡検査支援システム、内視鏡検査支援方法および記憶媒体
WO2024095864A1 (ja) * 2022-10-31 2024-05-10 富士フイルム株式会社 処理装置、内視鏡装置、及び処理方法
WO2024095866A1 (ja) * 2022-10-31 2024-05-10 富士フイルム株式会社 処理装置、内視鏡装置、及び処理方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083889A (ja) * 1998-09-09 2000-03-28 Olympus Optical Co Ltd 内視鏡形状検出システム
US6432041B1 (en) 1998-09-09 2002-08-13 Olympus Optical Co., Ltd. Endoscope shape detecting apparatus wherein form detecting processing is controlled according to connection state of magnetic field generating means
JP4153963B2 (ja) 2006-06-12 2008-09-24 オリンパスメディカルシステムズ株式会社 内視鏡挿入形状検出装置
WO2008149674A1 (ja) * 2007-06-05 2008-12-11 Olympus Corporation 画像処理装置、画像処理プログラムおよび画像処理方法
US8771177B2 (en) * 2008-07-08 2014-07-08 Karl Storz Imaging, Inc. Wide angle flexible endoscope
JP5377153B2 (ja) 2009-08-18 2013-12-25 株式会社東芝 画像処理装置、画像処理プログラムおよび医用診断システム
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5580637B2 (ja) * 2010-03-30 2014-08-27 オリンパス株式会社 画像処理装置、内視鏡装置の作動方法及びプログラム
JP2012024518A (ja) 2010-07-28 2012-02-09 Fujifilm Corp 内視鏡観察を支援する装置および方法、並びに、プログラム
US8579800B2 (en) 2011-03-22 2013-11-12 Fabian Emura Systematic chromoendoscopy and chromocolonoscopy as a novel systematic method to examine organs with endoscopic techniques
JP5851204B2 (ja) 2011-10-31 2016-02-03 オリンパス株式会社 管状挿入装置
JP5787030B2 (ja) * 2012-03-29 2015-09-30 株式会社島津製作所 医療用x線装置
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6206869B2 (ja) * 2013-05-28 2017-10-04 国立大学法人名古屋大学 内視鏡観察支援装置
JP6120762B2 (ja) * 2013-12-13 2017-04-26 オリンパス株式会社 画像処理装置
CN106163371B (zh) 2014-03-31 2018-09-28 奥林巴斯株式会社 内窥镜系统
JP2016021216A (ja) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 所見入力支援システム、装置、方法およびプログラム
JP6741759B2 (ja) * 2016-05-19 2020-08-19 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
JP6602969B2 (ja) * 2016-05-23 2019-11-06 オリンパス株式会社 内視鏡画像処理装置

Also Published As

Publication number Publication date
EP3603483A1 (en) 2020-02-05
JPWO2018179991A1 (ja) 2020-01-09
WO2018179991A1 (ja) 2018-10-04
CN110461210A (zh) 2019-11-15
US11272830B2 (en) 2022-03-15
EP3603483A4 (en) 2020-04-22
US20200008653A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
JP6749473B2 (ja) 内視鏡システム及びその作動方法
US11033175B2 (en) Endoscope system and operation method therefor
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
US10231658B2 (en) Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
JP5604248B2 (ja) 内視鏡画像表示装置
US20120190922A1 (en) Endoscope system
JP6596502B2 (ja) 内視鏡装置
JP7190597B2 (ja) 内視鏡システム
US11064864B2 (en) Processor device, endoscope system, and method of operating processor device
JP7289296B2 (ja) 画像処理装置、内視鏡システム及び画像処理装置の作動方法
JPWO2017104046A1 (ja) 内視鏡装置
JP6924837B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置
WO2019220801A1 (ja) 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
JP2013013559A (ja) 電子内視鏡システム、光源装置、及び電子内視鏡システムの制御方法
WO2021229684A1 (ja) 画像処理システム、内視鏡システム、画像処理方法及び学習方法
JP7130043B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US20230237659A1 (en) Image processing apparatus, endoscope system, operation method of image processing apparatus, and non-transitory computer readable medium
Raj et al. Enhanced vascular features in porcine gastrointestinal endoscopy using multispectral imaging
JP6731065B2 (ja) 内視鏡システム及びその作動方法
WO2021111756A1 (ja) 内視鏡システム、制御プログラム、及び表示方法
JP6850358B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
JP2021065293A (ja) 画像処理方法、画像処理装置、画像処理プログラム、教師データ生成方法、教師データ生成装置、教師データ生成プログラム、学習済みモデル生成方法、学習済みモデル生成装置、診断支援方法、診断支援装置、診断支援プログラム、およびそれらのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200811

R150 Certificate of patent or registration of utility model

Ref document number: 6749473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250