JPWO2018155560A1 - 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 - Google Patents

内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 Download PDF

Info

Publication number
JPWO2018155560A1
JPWO2018155560A1 JP2019501416A JP2019501416A JPWO2018155560A1 JP WO2018155560 A1 JPWO2018155560 A1 JP WO2018155560A1 JP 2019501416 A JP2019501416 A JP 2019501416A JP 2019501416 A JP2019501416 A JP 2019501416A JP WO2018155560 A1 JPWO2018155560 A1 JP WO2018155560A1
Authority
JP
Japan
Prior art keywords
image
unit
region
endoscope system
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019501416A
Other languages
English (en)
Other versions
JP6752958B2 (ja
Inventor
拓明 山本
拓明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2018155560A1 publication Critical patent/JPWO2018155560A1/ja
Application granted granted Critical
Publication of JP6752958B2 publication Critical patent/JP6752958B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

異なる特徴を有する複数の領域をほぼ同時かつ正確に判別できる内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法を提供する。
内視鏡システム(10)は、光源部(20)と、イメージセンサ(48)と、画像取得部(54)と、第1画像生成部(81)と、第2画像生成部(82)と、領域判別部(84)と、を備える。光源部(20)は、波長が異なる複数種類の照明光を発光する。画像取得部(54)は、それぞれの照明光に対応する画像を取得する。第1画像生成部(81)は、表示用画像(121)のベースとなる第1画像(白色光画像(101))を生成する。第2画像生成部(82)は、第1画像の生成に用いた画像とは対応する波長が異なる画像を少なくとも1つ用いて、第2画像(明暗領域判別画像(112)等)を生成する。領域判別部(84)は、第2画像を用いて、観察対象における領域を判別する。

Description

本発明は、観察対象の一部分の領域を判別する内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法に関する。
医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムを用いた診断が一般的になっている。特に、近年においては、観察対象の一部分の領域を判別する内視鏡システムが知られている。例えば、特許文献1〜3に記載の内視鏡システムは、粘膜輪郭、暗部、鏡面反射、泡、または、残渣が写った領域を判別する。
また、観察したい領域の特徴等に合わせて観察モードを切り替える内視鏡システムが知られている(特許文献4)。この他、CT(Computed Tomography)画像等の医用画像においては、領域ごとの画素値の出現頻度を表すヒストグラムの形状に基づいて、領域の判別を行うことが知られている(特許文献5)。
特開2016−019665号公報 特開2016−016185号公報 特開2012−192051号公報 特開2016−131837号公報 特許5854561号
内視鏡画像において特定の特徴を有する領域を判別すること(以下、領域判別という)は従来から行われているが、判別する領域の特徴または観察対象の状況等によってはロバスト性が低く、領域を誤判別してしまうこともある。例えば、粘膜と残液とを区別するために、残液がある領域を判別しようとするとする場合、残液が薄いと判別が難しく、残液がある領域を正しく判別できなかったり、残液がある領域をある程度判別できたとしても、判別した領域の輪郭が不正確であったりすることがある。領域判別にヒストグラムを用いれば、他の領域判別の方法よりも比較的正確な結果が得られやすいが、ヒストグラムを用いた領域判別でも、上記のように粘膜と残液とを区別する領域判別は難しく、不正確な結果になってしまうことがある。
また、特定の特徴を有する組織または構造等を強調して観察し得る観察モードを用意すれば、その特定の特徴を有する組織または構造等を有する領域の判別精度は向上する。しかし、観察モードを設ける場合、用意した観察モードは基本的に1種類の特定の組織または構造の識別に特化しているので、用意した観察モードで取得及び表示する1つの画像から、異なる特徴を有する複数の領域を同時かつ正確に判別するのは困難である。
本発明は、異なる特徴を有する複数の領域をほぼ同時かつ正確に判別できる内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法を提供することを目的とする。
本発明の内視鏡システムは、光源部と、画像取得部と、第1画像生成部と、第2画像生成部と、領域判別部と、を備える。光源部は、波長が異なる複数種類の照明光を発光する。画像取得部は、それぞれの照明光を用いて観察対象を撮像するイメージセンサと、それぞれの照明光に対応する画像を取得する。第1画像生成部は、画像のうちいずれかの画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成する。第2画像生成部は、画像取得部が取得した画像のうち、第1画像の生成に用いた画像とは対応する波長が異なる画像を少なくとも1つ用いて、第2画像を生成する。領域判別部は、第2画像を用いて、観察対象における領域を判別する。
第1画像を用いて、領域判別部が判別した領域のうち少なくとも1つの領域を強調した表示用画像を生成する強調処理部を備えることが好ましい。
第2画像生成部は、それぞれの照明光に対応する画像のうち、第1画像の生成に使用する画像とは異なるタイミングで取得した画像を少なくとも1つ使用して第2画像を生成することが好ましい。
イメージセンサは色の異なる複数のカラーフィルタを有し、照明光を用いて観察対象を撮像した際に、画像取得部は、照明光ごとに、かつ、カラーフィルタごとに画像を取得することが好ましい。
第2画像生成部は、1または複数の画像を用いて第2画像を生成することが好ましい。
領域判別部は、観察対象の暗部である領域、ハレーションした領域、血管がある領域、または、残渣もしくは残液が付着した領域のうちのいずれか1以上を判別することが好ましい。
領域判別部が判別する領域の種類を設定する領域判別設定部と、領域判別設定部が設定した領域の種類にしたがって、発光する照明光の種類を制御する光源制御部と、を備えることが好ましい。
第2画像生成部は、互いに異なる複数の第2画像を生成し、かつ、領域判別部は、第2画像ごとにそれぞれ種類が異なる領域を判別することが好ましい。
領域判別部が複数の領域を判別する場合に、強調処理部は、領域判別部が判別した領域ごとに強調の仕方を変えて表示用画像を生成することが好ましい。
領域判別部が判別した領域について、診断を支援する情報を算出する支援情報算出部を備えることが好ましい。
本発明のプロセッサ装置は、光源部と、イメージセンサと、を備える内視鏡システムのプロセッサ装置であり、画像取得部と、第1画像生成部と、第2画像生成部と、領域判別部と、を備える。光源部は、波長が異なる複数種類の照明光を発光する。イメージセンサは、それぞれの照明光を用いて観察対象を撮像する。画像取得部は、それぞれの照明光に対応する画像を取得する。第1画像生成部は、画像取得部が取得した画像のうちいずれかの画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成する。第2画像生成部は、画像取得部が取得した画像のうち、第1画像の生成に用いた画像とは対応する波長が異なる画像を少なくとも1つ用いて、第2画像を生成する。領域判別部は、第2画像を用いて、観察対象における領域を判別する。
本発明の内視鏡システムの作動方法は、光源が、波長が異なる複数種類の照明光を発光するステップを備える。本発明の内視鏡システムの作動方法は、イメージセンサが、それぞれの照明光を用いて観察対象を撮像するステップを備える。本発明の内視鏡システムの作動方法は、画像取得部が、それぞれの照明光に対応する画像を取得するステップを備える。本発明の内視鏡システムの作動方法は、第1画像生成部が、画像取得部が取得した画像のうちいずれかの画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成するステップを備える。本発明の内視鏡システムの作動方法は、第2画像生成部が、画像取得部が取得した画像のうち、第1画像の生成に用いた画像とは対応する波長が異なる画像を少なくとも1つ用いて、第2画像を生成するステップを備える。また、本発明の内視鏡システムの作動方法は、領域判別部が、第2画像を用いて、観察対象における領域を判別するステップを備える。
本発明の内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法によれば、異なる特徴を有する複数の領域を同時かつ正確に判別することができる。
内視鏡システムの外観図である。 内視鏡システムのブロック図である。 カラーフィルタの特性を示すグラフである。 画像処理部のブロック図である。 内視鏡システムの動作を示すフローチャートである。 照明光と取得する画像の対応関係を示す説明図である。 白色光画像(第1画像)である。 明暗領域判別画像(第2画像)である。 血管領域判別画像(第2画像)である。 残液領域判別画像(第2画像)である。 表示用画像である。 別の表示用画像である。 診断支援情報算出部を設けた画像処理部のブロック図である。 カプセル内視鏡の概略図である。
図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19と、を備える。内視鏡12は、観察対象を撮像する。光源装置14は、照明光を発生する。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。モニタ18はプロセッサ装置16で生成する表示用の画像(以下、表示用画像121という。図11参照)を表示する表示部である。コンソール19は、プロセッサ装置16等への設定入力等を行う入力デバイスである。
内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dと、を有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。湾曲部12cが湾曲することにより、先端部12dが所望の方向に向く。なお、先端部12dには、観察対象に向けて空気や水等を噴射する噴射口(図示しない)が設けられている。また、操作部12bには、アングルノブ12eの他、ズーム操作部13が設けられている。ズーム操作部13を操作することによって、観察対象を拡大または縮小して撮像することができる。
図2に示すように、光源装置14は、照明光を発光する光源部20と、光源部20の駆動を制御する光源制御部22と、を備える。
光源部20は、例えば、中心波長または波長帯域が異なる(以下、単に「波長が異なる」という)光を発光する複数のLED(Light Emitting Diode)を光源として備えており、各LEDの発光または点灯、及び、光量の調節等により、波長が異なる複数種類の照明光を発光することができる。例えば、光源部20は、波長帯域が比較的広い広帯域な紫色光、青色光、緑色光、及び赤色光を、それぞれ照明光として発光できる。特に、光源部20は、広帯域な紫色光、青色光、緑色光、及び赤色光の他に、狭帯域(波長帯域が10nmから20nm程度の範囲であることをいう)な紫色光、青色光、緑色光、及び赤色光を照明光として発光できる。より具体的には、光源部20は、照明光として、中心波長が約400nmの狭帯域紫色光、中心波長が約450nmの第1狭帯域青色光、中心波長が約470nmの第2狭帯域青色光、中心波長が約540nmの狭帯域緑色光、及び、中心波長が約640nmの狭帯域赤色光を発光できる。この他、光源部20は、広帯域または狭帯域な紫色光、青色光、緑色光、及び赤色光を組み合わせることにより、白色光を照明光として発光することができる。また、本実施形態においては、光源部20は、第1狭帯域青色光と、狭帯域緑色光と、狭帯域赤色光とによって形成する狭帯域混合光を照明光として発光する場合がある。
なお、光源部20には、LEDの代わりに、LD(Laser Diode)と蛍光体と帯域制限フィルタとの組み合わせや、キセノンランプ等のランプと帯域制限フィルタの組み合わせ等を用いることができる。もちろん、光源部20をLEDで構成する場合も、蛍光体または帯域制限フィルタを組み合わせて使用することができる。
光源制御部22は、光源部20を構成する各光源の点灯または消灯のタイミング、及び、点灯時の発光量等をそれぞれ独立に制御する。その結果、光源部20は、波長が異なる複数種類の照明光を発光することができる。また、光源制御部22は、イメージセンサ48の撮像のタイミング(いわゆるフレーム)に合わせて光源部20を制御する。本実施形態においては、光源制御部22の制御により、光源部20は、イメージセンサ48の撮像のフレームに合わせて、白色光、狭帯域紫色光、第2狭帯域青色光、及び、狭帯域混合光をそれぞれ照明光として順次繰り返し発光する。
また、光源制御部22は、領域判別をする領域の種類及び数等に応じて、光源部20から発光する照明光の種類を制御する。これにより、光源制御部22は、領域判別のために必要な撮像のフレーム数を必要最小限に抑える。具体的には、内視鏡システム10は、少なくとも観察対象の暗部である領域(以下、暗部領域102という。図7参照)、ハレーションした領域(以下、ハレーション領域という。図示しない)、残渣もしくは残液が付着した領域(以下、残液領域104という。図7参照)、または、血管がある領域(以下、血管領域103という。図7参照)のうちいずれか1以上を判別する。その結果、内視鏡システム10においては、粘膜が写る領域と、上記暗部領域102、ハレーション領域、残液領域104、または血管領域103と、を識別する。本実施形態においては、上記各領域を全てを領域判別する。そのために、本実施形態においては、光源制御部22は、光源部20が順次に発光する照明光の種類を、白色光、狭帯域紫色光、第2狭帯域青色光、及び、狭帯域混合光に設定する。
光源部20が発光した照明光は、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード内に内蔵されており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用できる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3〜0.5mmの細径なファイバケーブルを使用できる。
内視鏡12の先端部12dには、照明光学系30aと撮影光学系30bが設けられている。照明光学系30aは、照明レンズ45を有しており、この照明レンズ45を介して照明光が観察対象に向けて出射する。撮影光学系30bは、対物レンズ46、ズームレンズ47、及びイメージセンサ48を有している。イメージセンサ48は、対物レンズ46及びズームレンズ47を介して、観察対象から戻る照明光の反射光等(反射光の他、散乱光、観察対象が発する蛍光、または、観察対象に投与等した薬剤に起因した蛍光等を含む)を用いて観察対象を撮影する。ズームレンズ47は、ズーム操作部13の操作をすることで移動し、イメージセンサ48を用いて撮影する観察対象を拡大または縮小する。
イメージセンサ48は、色の異なる複数のカラーフィルタを有する。イメージセンサ48は、例えば原色系のカラーフィルタを有するカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。図3に示すように、青色カラーフィルタは、主として紫色から青色の光を透過する。緑色カラーフィルタは、主として緑色の光。赤色カラーフィルタは、主として赤色の光を透過する。上記のように原色系のイメージセンサ48を用いて観察対象を撮影すると、最大で、B画素から得るB画像(青色画像)、G画素から得るG画像(緑色画像)、及び、R画素から得るR画像(赤色画像)の3種類の画像を同時に得ることができる。
なお、イメージセンサ48としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ48は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色−原色色変換をすれば、B画像、G画像、及びR画像に変換できる。また、カラーセンサの代わりに、カラーフィルタを設けていないモノクロセンサをイメージセンサ48として使用できる。この場合、BGR等各色の照明光を用いて観察対象を順次撮像することにより、上記各色の画像を得ることができる。
プロセッサ装置16は、制御部52と、画像取得部54と、画像処理部61と、表示制御部66と、を有する。
制御部52は、照明光の照射タイミングと撮影のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。また、コンソール19等を用いて、領域判別をする領域の種類及び数等を設定した場合には、制御部52は、その設定を光源制御部22に入力する。
画像取得部54は、イメージセンサ48から観察対象の画像を取得する。本実施形態においては、イメージセンサ48はカラーフィルタを有するので、画像取得部54は、照明光ごとに、かつ、カラーフィルタごとに画像を取得する。すなわち、任意の1つの照明光を用いて、イメージセンサ48が観察対象を1回の撮像すると、画像取得部54は、各カラーフィルタの色に対応した複数の画像を取得する。
画像取得部54は、DSP(Digital Signal Processor)56と、ノイズ低減部58と、変換部59と、を有し、これらを用いて、取得した画像に必要に応じて各種処理を施す。
DSP56は、取得した画像に対し、必要に応じて欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種処理を施す。
欠陥補正処理は、イメージセンサ48の欠陥画素に対応する画素の画素値を補正する処理である。オフセット処理は、欠陥補正処理を施した画像から暗電流成分を低減し、正確な零レベルを設定する処理である。ゲイン補正処理は、オフセット処理をした画像にゲインを乗じることにより各画像の信号レベルを整える処理である。リニアマトリクス処理は、オフセット処理をした画像の色再現性を高める処理であり、ガンマ変換処理は、リニアマトリクス処理後の画像の明るさや彩度を整える処理である。デモザイク処理(等方化処理や同時化処理とも言う)は、欠落した画素の画素値を補間する処理であり、ガンマ変換処理後の画像に対して施す。欠落した画素とは、カラーフィルタの配列に起因して(イメージセンサ48において他の色の画素を配置しているため)、画素値がない画素である。例えば、B画像はB画素において観察対象を撮影して得る画像なので、G画素やR画素に対応する位置の画素には画素値がない。デモザイク処理は、B画像を補間して、イメージセンサ48のG画素及びR画素の位置にある画素の画素値を生成する。YC変換処理は、デモザイク処理後の画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrに変換する処理である。
ノイズ低減部58は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrに対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部59は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色の画像に再変換する。
画像処理部61は、画像取得部54が取得した画像を用いて、モニタ18に表示する表示用画像121を生成する。そのために、図4に示すように、画像処理部61は、第1画像生成部81と、第2画像生成部82と、領域判別設定部83と、領域判別部84と、強調処理部86と、を備える。
第1画像生成部81は、画像取得部54が取得した画像のうちいずれかの画像を用いて第1画像を生成する。第1画像とは、表示部であるモニタ18に表示する表示用画像121のベースとなる画像である。本実施形態においては、第1画像は、照明光に白色光を用いて観察対象を撮像して得る自然な色合いの白色光画像101(図7参照)である。なお、第1画像生成部81は、第1画像を生成する際に、必要に応じて、画像取得部54が取得した画像に対して、色変換処理、色彩強調処理、及び構造強調処理を施す。色変換処理は、BGR各色の画像に対して3×3のマトリクス処理、階調変換処理、3次元LUT(ルックアップテーブル)処理等を行う。色彩強調処理は、画像の色彩を強調する処理であり、構造強調処理は、例えば、血管やピットパターン等の観察対象の組織や構造を強調する処理である。
第2画像生成部82は、画像取得部54が取得した画像のうち、1または複数の画像を用いて第1画像とは異なる第2画像を生成する。より具体的には、第2画像生成部82は、画像取得部54が取得した前記画像のうち、第1画像の生成に用いた画像とは対応する波長が異なる画像を少なくとも1つ用いて、第2画像を生成する。第2画像とは、領域判別部84が行う領域判別に使用する領域判別用の画像である。「第1画像とは異なる」とは、基本的には、第2画像生成部82が第2画像の生成に使用する画像が、第1画像生成部81が第1画像の生成に使用する画像とは、種類、個数、または組み合わせが相違することをいう。すなわち、第2画像は、使用する画像の種類、個数、または組み合わせが相違すれば、観察対象の組織または構造等の識別性が実質的に第1画像と相違する画像である。例えば、第1画像生成部81が3種類の画像を用いて第1画像を生成する場合、これらとは別の画像を1または複数使用して生成する画像は第2画像である。第1画像の生成に使用する3種類の画像のうちから選択した1種類の画像、または、第1画像の生成に使用する画像のうちから選択した1種類の画像に構造強調処理等の処理を施した画像も第2画像である。第1画像の生成に使用する3種類の画像のうち2種類の画像を用いて演算等をして生成する画像、または、第1画像の生成に使用する3種類の画像にさらに別の画像を加えて演算等して生成する画像等も第2画像である。
本明細書においては、「第1画像とは異なる第2画像」には、第1画像生成部81が第1画像の生成に使用する画像と種類、個数、及び組み合わせが同じ画像を使用する場合でも、第1画像の生成に使用する画像を用いて演算をして生成する画像、または、第1画像の生成に使用する画像に対する各種処理の軽重等を変更した画像も含む。これらの画像も観察対象の組織または構造等の識別性が実質的に第1画像と相違するからである。
第2画像生成部82は、領域判別の設定に基づいて1または複数の第2画像を生成する。領域判別の設定とは、具体的には、判別する領域の種類等であり、領域判別設定部83が、コンソール19等の入力デバイスを用いた入力に基づいて、領域判別の設定をする。
領域判別設定部83は、判別する領域の種類を設定した際には、判別する領域の種類にしたがって、照明光の種類、光量、及び発光順序等を設定する。以下、領域判別の設定には、判別する領域の種類の他、判別する領域の種類に応じて二次的に設定する照明光の種類、光量、及び発光順序等を含む。領域判別設定部83は、暗部領域102、ハレーション領域、血管領域103、または、残液領域104についてそれぞれ個別に領域判別をするか否かを設定できる。したがって、第2画像生成部82は、領域判別の設定に基づき、領域判別に使用する第2画像を選択的に生成する。
本実施形態においては、領域判別の設定は、暗部領域102、ハレーション領域、残液領域104、及び、血管領域103を全て領域判別する設定とする。このため、第2画像生成部82は、暗部領域102及びハレーション領域を領域判別するための画像(以下、明暗領域判別画像112という。図8参照)と、血管領域103を判別するための画像(以下、血管領域判別画像113という。図9参照)と、残液領域104を領域判別するための画像(以下、残液領域判別画像114という。図10参照)と、を生成する。
明暗領域判別画像112は、第1画像と比較して観察対象の明暗が明瞭な画像である。第2画像生成部82は、明暗領域判別画像112を、例えば、第1画像の生成に使用する画像を演算して生成する。この場合、明暗領域判別画像112は、概ね第1画像の輝度の分布を強調した画像である。
残液領域判別画像114は、第1画像と比較して残渣及び残液の有無及び輪郭等を明瞭にした画像である。第2画像生成部82は、残液領域判別画像114を、例えば、第1画像の生成に使用する画像とは異なる画像であり、かつ、第1画像の生成に使用する画像とは異なるタイミングで取得した画像を少なくとも1つ使用して生成する。
血管領域判別画像113は、第1画像と比較して特定の血管(本実施形態においては粘膜のごく表層にある血管)の有無及び輪郭等を明瞭にした画像である。第2画像生成部82は、血管領域判別画像113を、例えば、第1画像の生成に使用する画像とは異なる画像であり、かつ、第1画像の生成に使用する画像とは異なるタイミングで取得した画像を少なくとも1つ使用して生成する。
これらの明暗領域判別画像112、血管領域判別画像113、及び、残液領域判別画像114は、いずれも第2画像であり、各々に、生成に使用する画像の種類、個数、もしくは組み合わせ、または、生成する際の演算もしくは処理の軽重が第1画像と相違する。また、明暗領域判別画像112、血管領域判別画像113、及び、残液領域判別画像114は、生成に使用する画像の種類、個数、もしくは組み合わせ、または、生成する際の演算もしくは処理の軽重等が互いに相違する。このため、第2画像生成部82は、明暗領域判別画像112、血管領域判別画像113、及び、残液領域判別画像114という、互いに異なる複数の第2画像を生成する。
なお、領域判別設定部83は、領域判別の設定を、制御部52にも入力する。そして、制御部52は、領域判別の設定を光源制御部22に入力する。その結果、光源制御部22は、領域判別設定部83が設定した領域の種類にしたがって光源部20から発光する照明光の種類、光量、発光順序等を制御する。
領域判別部84は、第2画像を用いて、観察対象における特定の特徴を有する領域を判別する。各領域の判別は、例えば、画素値の出現頻度を表すヒストグラムの形状の利用、または、予め設定した閾値と画素値との比較等によって行う。より具体的には、領域判別部84は、領域判別の設定に基づいて、暗部領域102、ハレーション領域、血管領域103、または、残液領域104のうちいずれか1以上を判別する。暗部領域102またはハレーション領域を領域判別する場合、領域判別部84は、第1画像よりも暗部及びハレーションが明瞭な明暗領域判別画像112を使用する。血管領域103を領域判別する場合、領域判別部84は、第1画像よりも血管が明瞭な血管領域判別画像113を使用する。同様に、残液領域104を領域判別する場合、領域判別部84は、第1画像よりも残渣及び残液が明瞭な残液領域判別画像114を使用する。すなわち、領域判別部84が特徴が異なる複数の領域を判別する場合、第2画像生成部82は互いに異なる複数の第2画像を生成し、かつ、領域判別部84は、これらの第2画像ごとにそれぞれ種類が異なる領域を判別する。
強調処理部86は、第1画像を用いて、領域判別部84が判別した領域のうち少なくとも1つの領域を強調した表示用画像121を生成する。特に本実施形態においては、強調処理部86は、領域判別部84が判別した領域をごとに強調の仕方を変えて表示用画像121を生成する。「強調の仕方を変えて」とは、周波数強調処理、エッジ強調処理、着色処理等をして判別した領域内にある組織または構造もしくは判別した領域全体を、粘膜等の他の領域と比較して識別性を向上する際に、判別した領域ごとに施す処理の種類を変更すること、または、判別した領域ごとに処理の軽重を変えることをいう。
表示制御部66は、画像処理部61から表示用画像121を取得し、取得した表示用画像121を表示に適した形式に変換してモニタ18に順次出力表示する。これにより、医師等は、表示用画像121を用いて観察対象を観察できる。
次に、内視鏡システム10の動作の流れを、図5に示すフローチャートに沿って説明する。内視鏡システム10を使用する際には、まず、コンソール19等を用いて領域判別の設定をする(S11)。本実施形態においては、暗部領域102、ハレーション領域、血管領域103、及び、残液領域104の領域判別を全て有効に設定し、かつ、これらの各領域を判別するための照明光の種類、光量、発光順序等を設定する。
その結果、内視鏡12を用いて観察対象を撮像すると(S12)、図6に示すように、第1フレームにおいては、画像取得部54は、白色光を照明光に使用してB画素から得る画像(以下、B1画像という)と、白色光を照明光に使用してG画素から得る画像(以下、G1画像という)と、白色光を照明光に使用してR画素から得る画像(以下、R1画像という)と、を取得する。次いで、第2フレームにおいては、画像取得部54は、狭帯域紫色光を照明光に使用してB画素から得る画像(以下、B2画像という)と、狭帯域紫色光を照明光に使用してG画素から得る画像(以下、G2画像という)と、狭帯域紫色光を照明光に使用してR画素から得る画像(以下、R2画像という)と、を取得する。そして次の第3フレームにおいては、画像取得部54は、第2狭帯域青色光を照明光に使用してB画素から得る画像(以下、B3画像という)と、第2狭帯域青色光を照明光に使用してG画素から得る画像(以下、G3画像という)と、第2狭帯域青色光を照明光に使用してR画素から得る画像(以下、R3画像という)と、を取得する。その後、第4フレームにおいては、画像取得部54は、狭帯域混合光を照明光に使用してB画素から得る画像(以下、B4画像という)と、狭帯域混合光を照明光に使用してG画素から得る画像(以下、G4画像という)と、狭帯域混合光を照明光に使用してR画素から得る画像(以下、R4画像という)と、を取得する。
上記のように観察対象を撮像して各種画像を取得すると、第1画像生成部81は、第1フレームで取得したB1画像、G1画像、及びR1画像を用いて、第1画像である白色光画像101を生成する(S13)。図7に示すように、白色光画像101は、観察対象を自然な色合いで表示する医師等が最も見慣れているという点で最も観察しやすいので、表示用画像121のベースとするには最適な画像である。しかし、照明光が届き難い管腔の奥は暗部領域102となっており観察対象を観察し難く、かつ、暗部と明部の境界も曖昧であって、少なくとも境界においては暗部領域102を判別し難い。また、白色光画像101においては、粘膜のごく表層にある細い血管がある血管領域103を判別できる場合もあるが、基本的には血管領域103の血管は観察し難い。さらに、白色光画像101においては、残液等の濃度や残存範囲の広さ等によっては残液領域104を判別できる場合もあるが、残液等の濃度や残存範囲の広さ等によっては残液領域104を判別し難い場合がある。なお、白色光画像101においては、粘膜表面からの照明光の鏡面反射等に起因してハレーションを起こしている領域がある場合があるが、粘膜等を正常に観察し得る領域と比較して、明るさが極端な値になっているという点で本質的には暗部領域102と同様であるから、本実施形態ではハレーション領域の図示等は省略する。
内視鏡システム10は、上記のように第1画像生成部81において白色光画像101(第1画像)を生成するとともに、第2画像生成部82において各領域を判別するために第2画像を生成する(S14)。具体的には、第2画像生成部82は、明暗領域判別画像112、血管領域判別画像113、及び、残液領域判別画像114の3種類の第2画像を生成する。そして、領域判別部84は、これらの第2画像を用いて領域判別をする(S15)。具体的には、領域判別部84は、明暗領域判別画像112を用いて暗部領域102を判別する(存在する場合にはハレーション領域の判別も含む)。また、領域判別部84は、血管領域判別画像113を用いて血管領域103を判別し、かつ、残液領域判別画像114を用いて残液領域104を判別する。
第2画像生成部82は、第1フレームで取得したB1画像、G1画像、及び、R1画像を用いて観察対象の輝度を演算し、その分布を表す明暗領域判別画像112を生成する。このため、図8に示すように、明暗領域判別画像112は、白色光画像101と比較して、暗部領域102及び暗部領域102の境界が鮮明になる。一方で、明暗領域判別画像112においては、血管領域103及び残液領域104の識別性は白色光画像101と同程度かそれ以下である。したがって、領域判別部84は、明暗領域判別画像112を用いることで、白色光画像101を用いる場合よりも正確に暗部領域102を判別できる。ハレーション領域がある場合も同様である。
また、第2画像生成部82は、第2フレームで取得したB2画像と、第4フレームで取得したB4画像とを用いて血管領域判別画像113を生成する。より具体的には、第2画像生成部82は、まず、B2画像とB4画像の差分画像(例えば、B2画像からB4画像を引いた画像)または比率画像(例えばB2画像/B4画像)を算出する。そして、B2画像またはB4画像の一方を輝度チャンネルに割当て、かつ、上記差分画像または比率画像を色差チャンネルに割り当てることにより、血管領域判別画像113を生成する。こうして生成した血管領域判別画像113は、図9に示すように、狭帯域紫色光と狭帯域混合光が含む第1狭帯域青色光の粘膜下への深達度の違いに起因して、白色光画像101よりも血管領域103にある血管が粘膜等との色の違いにより鮮明である。一方で、血管領域判別画像113においては、暗部領域102及び残液領域104は、血管領域103の血管と比較して相対的に識別性が低下しており、これらの識別性は白色光画像101と同程度かそれ以下である。このため、領域判別部84は、血管領域判別画像113を用いることで、白色光画像101を用いるよりも場合よりも正確に血管領域103を判別できる。
また、第2画像生成部82は、第3フレームで取得したB3画像と、第4フレームで取得したB4画像、G4画像、及びR4画像と、を用いて残液領域判別画像114を生成する。より具体的には、第2画像生成部82は、まず、G4画像に対するB4画像の比(以下、B4/G4という)と、G4画像に対するB3画像の比(以下、B3/G4という)と、G4画像に対するR4画像の比(以下、R4/G4という)を算出する。次いで、式1にしたがって、演算値“Z”を算出する。式1における位相φは観察対象が含むヘモグロビンの酸素飽和度に対して演算値“Z”が不変となるように定める。位相φは予め実験等により求めることができる。
[式1] Z=(B4/G4)×cosφ−(B3/G4)×sinφ
演算値“Z”は、ビリルビン等の黄色色素を含む残液等がなければ、観察対象の酸素飽和度に依らず、比R4/G4に応じた一定の値になる。一方、演算値"Z"は、黄色色素を含む残液等があると、観察対象の酸素飽和度に依らないが、残液等が含む黄色色素の量(濃度)に応じて変動する。このため、第2画像生成部82は、実際に算出した比R4/G4の値において残液等がない場合に演算値"Z"がとる値Z0を基準として、実際に算出した比R4/G4の値において実際に算出した演算値“Z”の変化量ΔZ(=Z−Z0)を算出する。この変化量ΔZは、残液等の有無及び量を表す値になる。したがって、第2画像生成部82は、変化量ΔZの値を画素値とした残液領域判別画像114を生成する。
こうして生成した残液領域判別画像114は、図10に示すように、白色光画像101と比較して、残液領域104の有無及び残液領域104と粘膜等の他の領域の違いが明瞭である。一方で、残液領域判別画像114においては、暗部領域102及び血管領域103の識別性は、白色光画像101と同程度かそれ以下である。したがって、領域判別部84は、残液領域判別画像114を用いることで、白色光画像101等を用いる場合よりも正確に残液領域104を判別することができる。
なお、通常、残液等の有無及び量を測定する場合、残液等が含む黄色色素に起因した青色光の吸光量を利用しやすい。しかし、青色光は観察対象が含むヘモグロビンの酸素飽和度に起因して変動する。その結果、単に青色光の吸光量(例えば、白色光画像101の生成に使用するB1画像の画素値)に基づいて残液等の有無及び量を測定すると不正確な結果になる場合がある。したがって、本実施形態においては、黄色色素の有無及び量に起因して値が大きく変動し、かつ、酸素飽和度の値に起因しては値がほぼ変動しないB4画像と、黄色色素の有無及び量に起因してB4画像と同程度に値が変動し、かつ、酸素飽和度の値に起因して値が大きく変動するB3画像と、を用いて、酸素飽和度の依存性をほぼ排除し、ほぼ黄色色素の有無及び量に起因して値が変動する演算値“Z”を利用している。
領域判別部84が、暗部領域102、ハレーション領域、血管領域103、及び、残液領域104を判別すると、強調処理部86は、第1画像である白色光画像101において領域判別部84が判別した各領域をそれぞれに強調処理することにより(S16)、表示用画像121を生成する。そして、表示制御部66は、強調処理部86が出力する表示用画像121をモニタ18に表示する(S17)。内視鏡システム10は、上記動作を観察終了、または、領域判別の設定の変更まで繰り返し行う(S18)。
上記のように、内視鏡システム10は、領域判別をする際に、表示に適した第1画像とは別に、領域判別に適した第2画像を生成する。そして、第1画像ではなく、第2画像を用いて領域判別をする。このため、従来の内視鏡システムで行っているように、表示に適した(内視鏡システム10における第1画像)を用いて領域判別をする場合と比較して、内視鏡システム10は、領域判別の精度が良い。特に、複数の領域を判別する場合には、従来の内視鏡システムと、内視鏡システム10とでは、領域判別の精度の差が顕著である。また、内視鏡システム10は、複数の領域をほぼ同時に判別できる。
さらに、内視鏡システム10は、領域判別に使用する第2画像を表示するのではなく、表示に適した白色光画像101(第1画像)において、領域判別部84が判別した領域を強調する。このため、内視鏡システム10の表示用画像121は、図11に示すように、白色光画像101と同様に、基本的には観察対象を自然に観察することができ、かつ、判別した各領域においては組織または構造等を正確に強調して表示することができる。
なお、上記実施形態においては、表示用画像121は、暗部領域102においては観察対象の視認性を向上し、血管領域103においては血管領域103にある血管の視認性を向上し、かつ、残液領域104においては残液等の視認性を向上しているが、代わりに、図12に示す表示用画像122のように、領域判別部84が判別した各領域の輪郭を表示することにより、各領域の存在を強調しても良い。この場合、領域判別部84が判別した各領域の輪郭は、色もしくは線種、または、領域内の着色等により、どのような領域が存在するのかを表示することが好ましい。
上記実施形態においては、領域判別部84が判別した領域を強調した表示用画像121をモニタ18に表示しているが、表示用画像121を生成及び表示する代わりに、または、表示用画像121を生成及び表示した上でさらに、領域判別部84が判別した領域について、診断を支援する情報を算出するとなお良い。この場合、図13に示すように、画像処理部61に、診断支援情報算出部130を設ける。診断支援情報算出部130は、領域判別部84が判別した領域について、診断を支援する情報(以下、診断支援情報という)を算出する。診断支援情報とは、例えば、病変である可能性を示す指標、または、その領域が病変である可能性を判断し得る指標(例えば酸素飽和度等)等である。
診断支援情報算出部130は、領域判別部84が判別した領域について、診断支援情報を求めるので、表示する画像の全体について診断支援情報を算出する必要がない。また、診断支援情報算出部130は、血管領域103についてだけ診断支援情報を算出する等、領域判別部84が判別した領域のうち、必要な領域に限って診断支援情報を算出する。通常は、診断支援情報の算出は非常に時間またはマシンパワーを要する重い処理である。しかし、上記のように、診断支援情報算出部130は、正確に判別された領域であり、かつ、必要な領域に限って診断支援情報をするので、実現し得る軽量な演算量で、かつ正確に診断支援情報を算出することができる。これは、リアルタイムに診断支援情報を提供する際に特に有益である。
領域判別部84が判別した領域に関する情報は、上記のように診断支援情報の算出する他にも、3次元構造の抽出等において任意に利用できる。
上記実施形態においては、第2フレームと第4フレームの2フレームで得る画像を使用して血管領域判別画像113を生成しているが、上記実施形態とは別の方法で、血管領域103の識別性を向上した血管領域判別画像113を生成する場合には、1フレーム分の画像を使用して血管領域判別画像113を生成できる場合がある。
また、上記実施形態において示している通り、第2画像生成部82は、複数のフレームで取得した画像を使用して第2画像を生成することができる。このように、第2画像の生成に必要な画像を複数のフレームにわたって取得する場合には、第2画像の生成に使用する画像に位置合わせ処理またはブレ補正処理等の補正処理を行った上で第2画像の生成に使用することが好ましい。補正処理をする場合、さらに領域判別精度が向上する。
上記実施形態においては、イメージセンサ48は1つであるが、内視鏡システム10は、イメージセンサ48よりも高感度なイメージセンサ(以下、高感度センサという)を併用できる。高感度センサを併用する場合、例えば、観察対象が含む蛍光物質または観察対象に注入等した蛍光物質が発光する蛍光を用いて観察対象を撮像し、得られた蛍光画像を、第2画像の生成に使用できる。
上記実施形態においては、領域判別部84は、暗部領域102、ハレーション領域、血管領域103、または、残液領域104のいずれかの領域を判別するが、これらは一例であり、領域判別部84は、これらの他にも他の特徴を有する領域を判別し得る。例えば、発赤している発赤領域、粘膜が萎縮している萎縮領域等を、上記各領域に加え、または、上記各領域の代わりに、判別することができる。また、領域判別部84が、暗部領域102、ハレーション領域、血管領域103、または、残液領域104をそれぞれ判別する方法も一例であり、それぞれ上記実施形態とは異なる方法で判別することができる。この場合、第2画像の生成方法も、領域判別部84における領域判別の方法にしたがって変更する。
上記実施形態においては、イメージセンサ48が設けられた内視鏡12を被検体内に挿入して観察を行う内視鏡システム10において本発明を実施しているが、カプセル内視鏡システムにおいても本発明は好適である。図14に示すように、例えば、カプセル内視鏡システムにおいては、カプセル内視鏡700と、プロセッサ装置(図示しない)とを少なくとも有する。
カプセル内視鏡700は、光源部702と制御部703と、イメージセンサ704と、画像処理部706と、送受信アンテナ708と、を備えている。光源部702は、光源部20に対応する。制御部703は、光源制御部22及び制御部52と同様に機能する。また、制御部703は、送受信アンテナ708を用いて、カプセル内視鏡システムのプロセッサ装置と無線を使用して通信可能である。カプセル内視鏡システムのプロセッサ装置は、上記実施形態のプロセッサ装置16とほぼ同様であるが、画像取得部54及び画像処理部61に対応する画像処理部706はカプセル内視鏡700に設けられ、表示用画像121は、送受信アンテナ708を介してプロセッサ装置に送信される。イメージセンサ704はイメージセンサ48と同様に構成される。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13 ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20、702 光源部
22 光源制御部
30a 照明光学系
30b 撮影光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48、704 イメージセンサ
52、703 制御部
54 画像取得部
56 DSP
58 ノイズ低減部
59 変換部
61、706 画像処理部
66 表示制御部
81 第1画像生成部
82 第2画像生成部
83 領域判別設定部
84 領域判別部
86 強調処理部
101 白色光画像
102 暗部領域
103 血管領域
104 残液領域
112 明暗領域判別画像
113 血管領域判別画像
114 残液領域判別画像
121、122 表示用画像
130 診断支援情報算出部
700 カプセル内視鏡
708 送受信アンテナ

Claims (12)

  1. 波長が異なる複数種類の照明光を発光する光源部と、
    それぞれの前記照明光を用いて観察対象を撮像するイメージセンサと、
    それぞれの前記照明光に対応する画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像のうちいずれかの前記画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成する第1画像生成部と、
    前記画像取得部が取得した前記画像のうち、前記第1画像の生成に用いた前記画像とは対応する前記波長が異なる前記画像を少なくとも1つ用いて、第2画像を生成する第2画像生成部と、
    前記第2画像を用いて、前記観察対象における領域を判別する領域判別部と、
    を備える内視鏡システム。
  2. 前記第1画像を用いて、前記領域判別部が判別した前記領域のうち少なくとも1つの前記領域を強調した前記表示用画像を生成する強調処理部を備える請求項1に記載の内視鏡システム。
  3. 前記第2画像生成部は、それぞれの照明光に対応する前記画像のうち、前記第1画像の生成に使用する前記画像とは異なるタイミングで取得した前記画像を少なくとも1つ使用して前記第2画像を生成する請求項1に記載の内視鏡システム。
  4. 前記イメージセンサは色の異なる複数のカラーフィルタを有し、
    前記照明光を用いて前記観察対象を撮像した際に、前記画像取得部は、前記照明光ごとに、かつ、前記カラーフィルタごとに前記画像を取得する請求項1に記載の内視鏡システム。
  5. 前記第2画像生成部は、1または複数の前記画像を用いて前記第2画像を生成する請求項1に記載の内視鏡システム。
  6. 前記領域判別部は、前記観察対象の暗部である領域、ハレーションした領域、血管がある領域、または、残渣もしくは残液が付着した領域のうちのいずれか1以上を判別する請求項1に記載の内視鏡システム。
  7. 前記領域判別部が判別する前記領域の種類を設定する領域判別設定部と、
    前記領域判別設定部が設定した領域の種類にしたがって、発光する前記照明光の種類を制御する光源制御部と、
    を備える請求項1に記載の内視鏡システム。
  8. 前記第2画像生成部は、互いに異なる複数の前記第2画像を生成し、かつ、
    前記領域判別部は、前記第2画像ごとにそれぞれ種類が異なる領域を判別する請求項1に記載の内視鏡システム。
  9. 前記領域判別部が複数の領域を判別する場合に、
    前記強調処理部は、前記領域判別部が判別した領域ごとに強調の仕方を変えて前記表示用画像を生成する請求項2に記載の内視鏡システム。
  10. 前記領域判別部が判別した領域について、診断を支援する情報を算出する支援情報算出部を備える請求項1に記載の内視鏡システム。
  11. 波長が異なる複数種類の照明光を発光する光源部と、それぞれの前記照明光を用いて観察対象を撮像するイメージセンサと、を備える内視鏡システムのプロセッサ装置において、
    それぞれの前記照明光に対応する画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像のうちいずれかの前記画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成する第1画像生成部と、
    前記画像取得部が取得した前記画像のうち、前記第1画像の生成に用いた前記画像とは対応する前記波長が異なる前記画像を少なくとも1つ用いて、第2画像を生成する第2画像生成部と、
    前記第2画像を用いて、前記観察対象における領域を判別する領域判別部と、
    を備えるプロセッサ装置。
  12. 光源が、波長が異なる複数種類の照明光を発光するステップと、
    イメージセンサが、それぞれの前記照明光を用いて観察対象を撮像するステップと、
    画像取得部が、それぞれの前記照明光に対応する画像を取得するステップと、
    第1画像生成部が、前記画像取得部が取得した前記画像のうちいずれかの前記画像を用いて、表示部に表示する表示用画像のベースとなる第1画像を生成するステップと、
    第2画像生成部が、前記画像取得部が取得した前記画像のうち、前記第1画像の生成に用いた前記画像とは対応する前記波長が異なる前記画像を少なくとも1つ用いて、第2画像を生成するステップと、
    領域判別部が、前記第2画像を用いて、前記観察対象における領域を判別するステップと、
    を備える内視鏡システムの作動方法。
JP2019501416A 2017-02-24 2018-02-22 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 Active JP6752958B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017033980 2017-02-24
JP2017033980 2017-02-24
PCT/JP2018/006473 WO2018155560A1 (ja) 2017-02-24 2018-02-22 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法

Publications (2)

Publication Number Publication Date
JPWO2018155560A1 true JPWO2018155560A1 (ja) 2019-12-12
JP6752958B2 JP6752958B2 (ja) 2020-09-09

Family

ID=63253945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501416A Active JP6752958B2 (ja) 2017-02-24 2018-02-22 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法

Country Status (5)

Country Link
US (1) US11510599B2 (ja)
EP (1) EP3586718B1 (ja)
JP (1) JP6752958B2 (ja)
CN (1) CN110337259B (ja)
WO (1) WO2018155560A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110325098A (zh) 2016-11-28 2019-10-11 适内有限责任公司 具有可分离一次性轴的内窥镜
WO2020194693A1 (ja) * 2019-03-28 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
CN110742572A (zh) * 2019-09-29 2020-02-04 吕晶 用于内窥成像的记录系统
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
WO2023212190A1 (en) * 2022-04-28 2023-11-02 Board Of Regents, The University Of Texas System Continuous blood flow visualization with laser speckle contrast imaging

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008154846A (ja) * 2006-12-25 2008-07-10 Olympus Corp 蛍光内視鏡および蛍光測定方法
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5854561B2 (ja) 1977-07-04 1983-12-05 古河電気工業株式会社 プラスチツクシ−ス電気ケ−ブルの分岐接続方法
JP3217343B2 (ja) * 1989-03-23 2001-10-09 オリンパス光学工業株式会社 画像処理装置
US7428333B2 (en) * 2004-01-23 2008-09-23 Old Dominion University Visibility improvement in color video stream
EP1938274A2 (en) * 2005-09-12 2008-07-02 D.V.P. Technologies Ltd. Medical image processing
JP2008259595A (ja) * 2007-04-10 2008-10-30 Hamamatsu Photonics Kk 蛍光観察装置
JP5767775B2 (ja) * 2009-07-06 2015-08-19 富士フイルム株式会社 内視鏡装置
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
EP2504812B1 (en) 2009-11-27 2019-08-07 Cadens Medical Imaging Inc. Method and system for filtering image data and use thereof in virtual endoscopy
JP5541914B2 (ja) * 2009-12-28 2014-07-09 オリンパス株式会社 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
JP5771598B2 (ja) * 2010-03-24 2015-09-02 オリンパス株式会社 内視鏡装置
JP5457247B2 (ja) * 2010-03-26 2014-04-02 富士フイルム株式会社 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び電子内視鏡システムの作動方法
JP5766986B2 (ja) 2011-03-16 2015-08-19 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6006199B2 (ja) * 2011-03-31 2016-10-12 オリンパス株式会社 蛍光観察装置
JP5802440B2 (ja) * 2011-06-02 2015-10-28 オリンパス株式会社 蛍光観察装置
JP5419930B2 (ja) * 2011-07-04 2014-02-19 富士フイルム株式会社 電子内視鏡システム、光源装置、及び電子内視鏡システムの作動方法
JP5419931B2 (ja) * 2011-07-04 2014-02-19 富士フイルム株式会社 内視鏡システム、光源装置、及び内視鏡システムの作動方法
JP5385350B2 (ja) * 2011-08-16 2014-01-08 富士フイルム株式会社 画像表示方法および装置
JP5948203B2 (ja) * 2011-10-12 2016-07-06 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5844230B2 (ja) * 2011-10-12 2016-01-13 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
EP2926713A4 (en) * 2012-11-30 2016-07-20 Olympus Corp OBSERVATION DEVICE
JP6150583B2 (ja) * 2013-03-27 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
CN108109134B (zh) * 2013-10-28 2021-12-03 富士胶片株式会社 图像处理装置及其工作方法
JP6039639B2 (ja) * 2014-02-27 2016-12-07 富士フイルム株式会社 内視鏡システム、内視鏡システム用プロセッサ装置、内視鏡システムの作動方法、及び内視鏡システム用プロセッサ装置の作動方法
JP6210923B2 (ja) * 2014-04-07 2017-10-11 オリンパス株式会社 生体観察システム
JP6371613B2 (ja) 2014-07-09 2018-08-08 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6405138B2 (ja) 2014-07-15 2018-10-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6367683B2 (ja) * 2014-10-21 2018-08-01 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6285370B2 (ja) 2015-01-22 2018-02-28 富士フイルム株式会社 内視鏡用のプロセッサ装置、内視鏡用のプロセッサ装置の作動方法、内視鏡用の制御プログラム、及び内視鏡システム
JP2016152874A (ja) * 2015-02-20 2016-08-25 Hoya株式会社 光源装置
JPWO2017010013A1 (ja) * 2015-07-16 2018-04-26 オリンパス株式会社 画像処理装置、撮像システム、画像処理方法、及び画像処理プログラム
JP6759240B2 (ja) * 2015-12-17 2020-09-23 オリンパス株式会社 内視鏡装置
JP6894894B2 (ja) * 2016-06-22 2021-06-30 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008154846A (ja) * 2006-12-25 2008-07-10 Olympus Corp 蛍光内視鏡および蛍光測定方法
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法

Also Published As

Publication number Publication date
JP6752958B2 (ja) 2020-09-09
US20190374141A1 (en) 2019-12-12
EP3586718A4 (en) 2020-03-18
EP3586718B1 (en) 2023-08-30
WO2018155560A1 (ja) 2018-08-30
EP3586718A1 (en) 2020-01-01
CN110337259A (zh) 2019-10-15
CN110337259B (zh) 2023-01-06
US11510599B2 (en) 2022-11-29

Similar Documents

Publication Publication Date Title
JP6785941B2 (ja) 内視鏡システム及びその作動方法
JP6488249B2 (ja) 血管情報取得装置、内視鏡システム及び血管情報取得方法
JP6752958B2 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
US11259692B2 (en) Endoscope system, processor device, and method for operating endoscope system
EP3430969B1 (en) Endoscopic system and operation method thereof
US9907493B2 (en) Endoscope system processor device, endoscope system, operation method for endoscope system processor device, and operation method for endoscope system
JP6538634B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP6408457B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
US20180206738A1 (en) Endoscope system and method of operating endoscope system
JP6629639B2 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2017183324A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
CN111107778B (zh) 医疗图像处理系统、内窥镜系统、诊断支持装置及医疗服务支持装置
US20190357759A1 (en) Endoscope system, processor device, and method for operating endoscope system
JPWO2017183339A1 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2017077772A1 (ja) プロセッサ装置、内視鏡システム、及び画像処理方法
JP6779025B2 (ja) 画像処理装置及びその作動方法並びに内視鏡用プロセッサ装置及びその作動方法
JP2019030406A (ja) 内視鏡システム
JP6763025B2 (ja) プロセッサ装置及びプロセッサ装置の作動方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200819

R150 Certificate of patent or registration of utility model

Ref document number: 6752958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250