JP2014144034A - 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2014144034A
JP2014144034A JP2013012816A JP2013012816A JP2014144034A JP 2014144034 A JP2014144034 A JP 2014144034A JP 2013012816 A JP2013012816 A JP 2013012816A JP 2013012816 A JP2013012816 A JP 2013012816A JP 2014144034 A JP2014144034 A JP 2014144034A
Authority
JP
Japan
Prior art keywords
information
unit
image
image processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013012816A
Other languages
English (en)
Other versions
JP2014144034A5 (ja
JP6112879B2 (ja
Inventor
Junpei Takahashi
順平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013012816A priority Critical patent/JP6112879B2/ja
Priority to PCT/JP2013/075626 priority patent/WO2014115371A1/ja
Publication of JP2014144034A publication Critical patent/JP2014144034A/ja
Priority to US14/728,067 priority patent/US20150294463A1/en
Publication of JP2014144034A5 publication Critical patent/JP2014144034A5/ja
Application granted granted Critical
Publication of JP6112879B2 publication Critical patent/JP6112879B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Geometry (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】後段の処理に有用な凹凸構造の情報を取得可能な画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム等を提供すること。
【解決手段】画像処理装置は、被写体の像を含む撮像画像を取得する画像取得部350と、その撮像画像を撮像する際の撮像部から被写体までの距離に基づく距離情報を取得する距離情報取得部313と、距離情報に基づいて被写体の凹凸情報を抽出凹凸情報として取得する凹凸情報取得部314と、撮像画像の所定領域毎に、抽出凹凸情報を除外又は抑制するか否かの判定を行う判定部315と、除外又は抑制すると判定された所定領域の抽出凹凸情報を除外し、又は凹凸の度合いを抑制する凹凸情報修正部316と、を含む。
【選択図】図1

Description

本発明は、画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム等に関する。
内視鏡装置を用いた生体内部の観察、診断においては、生体の微小な凹凸状態を観察することで早期病変部か否かの識別を行う手法が広く用いられている。また、生体用の内視鏡装置ではなく、工業用の内視鏡装置においても、被写体(例えば被写体表面)の凹凸構造を観察することは有用であり、例えば直接の目視が難しいパイプ内部等に発生した亀裂の検出等が可能になる。また、内視鏡装置以外の画像処理装置においても、処理対象となる画像から被写体の凹凸構造を検出することが有用であることは多い。
このような被写体の凹凸構造を利用した処理の一例として、凹凸構造の強調が考えられる。例えば、画像処理により撮像画像の構造(例えば溝等の凹凸構造)を強調する手法として、特定の空間周波数を強調する画像処理や、以下の特許文献1に開示される手法が知られている。或は、画像処理ではなく、被写体側に何らかの変化(例えば色素散布)を生じさせて、変化後の被写体を撮像する手法が知られている。
特許文献1には、局所的な抽出領域の注目画素をその周辺画素の輝度レベルを比較し、注目領域が周辺領域よりも暗い場合には着色される処理を行うことで、凹凸構造を強調する手法が開示されている。
特開2003−88498号公報
上記のような強調処理に限らず、被写体の凹凸構造の情報を後段の処理に用いる場合に、その後段の処理に有用な凹凸構造の情報のみを含んでいるとは限らないという課題がある。例えば、生体用の内視鏡装置において凹凸構造の強調処理を行う場合、生体本来の凹凸でない凹凸構造(例えば処置具や、誤検出された凹凸)が含まれると、その不要な凹凸構造まで強調されてしまうことになる。
本発明の幾つかの態様によれば、後段の処理に有用な凹凸構造の情報を取得可能な画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム等を提供できる。
本発明の一態様は、被写体の像を含む撮像画像を取得する画像取得部と、前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得する凹凸情報取得部と、前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行う判定部と、前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制する凹凸情報修正部と、を含む画像処理装置に関係する。
本発明の他の態様は、上記に記載の画像処理装置を含む内視鏡装置に関係する。
本発明の更に他の態様は、被写体の像を含む撮像画像を取得し、前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得し、前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得し、前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行い、前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制する画像処理方法に関係する。
本発明の更に他の態様は、被写体の像を含む撮像画像を取得し、前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得し、前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得し、前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行い、前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制するステップを、コンピューターに実行させる画像処理プログラムに関係する。
画像処理装置の構成例。 第1実施形態における内視鏡装置の構成例。 ベイヤー配列の色フィルターの構成例。 赤色フィルター、青色フィルター、緑色フィルターの分光感度特性例。 第1実施形態における画像処理部の詳細な構成例。 凹凸情報取得部の詳細な構成例。 図7(A)〜図7(C)はフィルター処理による抽出凹凸情報の抽出処理についての説明図。 画像や距離マップ、凹凸マップにおける座標(x,y)についての説明図。 第1実施形態における判定部の詳細な構成例。 色相値についての説明図。 輝点識別部の詳細な構成例。 輝点識別処理についての説明図。 輝度値に応じたノイズ特性の例。 処置具識別部の詳細な構成例。 図15(A)〜図15(D)は、凹凸情報修正処理についての説明図。 第1実施形態における画像処理のフローチャート例。 第1実施形態における要否判定処理のフローチャート例。 第2実施形態における内視鏡装置の構成例。 第2実施形態における光源スペクトルの例。 第2実施形態における画像処理部の詳細な構成例。 第2実施形態における判定部の詳細な構成例。 第2実施形態における画像処理のフローチャート例。 第2実施形態における要否判定処理のフローチャート例。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
例えば以下では、修正した抽出凹凸情報を強調処理に用いる場合を例に説明するが、強調処理に限らず種々の処理に用いることが可能である。以下では、強調処理において有用でない凹凸情報(例えば残渣や輝点等の領域の抽出凹凸情報)に対して修正を行うが、修正するか否かの判定条件は、後段の処理内容に応じて設定されればよい。
1.本実施形態の手法
内視鏡装置を用いて消化管の早期病変を鑑別・範囲診断する際、生体表面の微小な凹凸が重要視される。内視鏡装置では画像を強調する処理として特定の空間周波数を強調する処理が一般的に用いられるが、その強調処理では生体表面の微小な凹凸を強調することはできない。
そのため、日本国内ではインジゴカルミン等の色素散布が一般的に実施されている。色素を散布することで、微小な凹凸のコントラストが強調される。しかしながら、色素散布はドクターにとって煩雑な作業である。また検査時間が長くなるため、患者の負担も大きい。また、色素撒布後は生体表面を元の状態で観察することができなくなる他、色素を用いることでコストが増す問題もある。日本国外では色素散布を行う習慣がなく(作業の煩雑性やコストの観点が理由)、通常の白色光源を用いた観察のみなので、早期病変を見落とす危険性がある。
これらの課題を改善するため、色素散布を行う事なく画像処理で生体表面の凹凸のコントラストを強調表示できれば、日本国内のドクターや患者にとってメリットが高い。また日本国外では、新たな診断手法を提案でき、上記のような見落としの防止に貢献できる。
上述の特許文献1には、色素散布の状態を画像処理によって擬似的に再現する手法が開示されている。この手法では、局所的な抽出領域の注目画素とその周辺画素の輝度レベルを比較し、注目領域が周辺領域よりも暗い場合には着色させる。しかしながら、この手法では、生体表面までの距離が遠いほど生体表面から反射してくる反射光量が少なくなるため暗く撮影されるという仮定に基づいている。そのため、例えば輝点周辺や、手前の構造物の陰や、血管とその周辺の粘膜等といった生体表面の微小な凹凸に関係ない情報も、凹凸情報として誤検出するという課題がある。
このように、被写体の凹凸構造を強調する処理では、強調する必要のない凹凸構造や強調しない方がよい凹凸構造まで強調されてしまうという課題がある。
図1に、このような課題を解決できる画像処理装置の構成例を示す。画像処理装置は、被写体の像を含む撮像画像を取得する画像取得部350と、その撮像画像を撮像する際の撮像部から被写体までの距離に基づく距離情報を取得する距離情報取得部313と、距離情報に基づいて被写体の凹凸情報を抽出凹凸情報として取得する凹凸情報取得部314と、撮像画像の所定領域(画素又は所定サイズの領域)毎に、抽出凹凸情報を除外又は抑制するか否かの判定を行う判定部315と、除外又は抑制すると判定された所定領域の抽出凹凸情報を除外し、又は凹凸の度合いを抑制する凹凸情報修正部316と、を含む。
このようにすれば、撮像画像に対応する抽出凹凸情報から、所定の判定条件に該当する(例えば後段の処理に必要でない又は後段の処理に用いるべきでない)領域の抽出凹凸情報を除外又は抑制することができる。後段の処理として生体凹凸構造の強調処理を行う場合、ユーザーにとって観察したい凹凸構造に対して強調処理を行うことが可能となる。即ち、生体に固有の凹凸でない凹凸構造に対する強調処理や、本来凹凸でない部分が強調処理により誤って凹凸構造として見えること等を、抑制することができる。
ここで距離情報とは、撮像画像の各位置と、その各位置での被写体までの距離とが対応付けられた情報である。例えば距離情報は距離マップである。距離マップとは、例えば後述する撮像部200の光軸方向をZ軸とした場合に、XY平面の各点(例えば各画素)について、被写体までのZ軸方向での距離(奥行き・深度)をその点の値としたマップのことである。
なお距離情報は、撮像部200から被写体までの距離に基づいて取得される種々の情報であればよい。例えば、ステレオ光学系で三角測量する場合は、視差を生む2つのレンズを結ぶ面の任意の点を基準にした距離を距離情報とすればよい。或は、Time of Flight方式を用いた場合は、例えば、撮像素子面の各画素位置を基準にした距離を距離情報として取得すればよい。これらは、距離計測の基準点を撮像部200に設定した例であるが、基準点は、撮像部200以外の任意の場所、例えば、撮像部や被写体を含む3次元空間内の任意の場所に設定してもよく、そのような基準点を用いた場合の情報も本実施形態の距離情報に含まれる。
撮像部200から被写体までの距離とは、例えば撮像部200から被写体までの奥行き方向の距離であることが考えられる。一例としては、撮像部200の光軸方向での距離を用いればよい。例えば、撮像部200の光軸に対して垂直な方向に視点を設定した場合には、当該視点において観察される距離(当該視点を通る、光軸に平行な線上での撮像部200から被写体までの距離)であってもよい。
例えば、距離情報取得部313は、撮像部200の第1の基準点を原点とした第1の座標系における各対応点の座標を、公知の座標変換処理によって、3次元空間内の第2の基準点を原点とした第2の座標系における対応点の座標に変換し、その変換後の座標をもとに距離を計測してもよい。この場合、第2の座標系における第2の基準点から各対応点までの距離は、第1の座標系における第1の基準点から各対応点までの距離、すなわち「撮像部から各対応点までの距離」となり、両者は一致する。
また、距離情報取得部313は、撮像部200に基準点を設定した場合に取得される距離マップ上の各画素間の距離値の大小関係と同様の大小関係が維持できるような位置に仮想の基準点を設置することで、撮像部200から対応点までの距離をもとにした距離情報を取得してもよい。例えば、距離情報取得部313は、撮像部200から3つの対応点までの実際の距離が「3」、「4」、「5」である場合、各画素間の距離値の大小関係が維持されたまま、それら距離が一律に半分にされた「1.5」、「2」、「2.5」を取得してもよい。図6等で後述するように凹凸情報取得部314が抽出処理パラメーターを用いて凹凸情報を取得する場合、凹凸情報取得部314は、撮像部200に基準点を設定した場合と比較して、抽出処理パラメーターとして異なるパラメーターを用いることになる。抽出処理パラメーターの決定には距離情報を用いる必要があるため、距離計測の基準点が変わることで距離情報の表し方が変化した場合には、抽出処理パラメーターの決定手法も変化するためである。例えば、後述するようにモルフォロジー処理により抽出凹凸情報を抽出する場合には、抽出処理に用いる構造要素のサイズ(例えば球の直径)を調整して、調整後の構造要素を用いて凹凸部の抽出処理を実施する。
また抽出凹凸情報とは、距離情報から特定の構造に関する情報を抽出した情報である。より具体的には、抽出凹凸情報は、距離情報から大局的な距離変動(狭義には管腔構造による距離変動)を除外した情報である。
例えば、凹凸情報取得部314は、距離情報と、被写体の構造に関する既知の特性を表す情報である既知特性情報(例えば生体表面に存在する凹凸部の幅や深さ等を表すディメンジョン情報)とに基づいて、既知特性情報により特定される特性と合致する被写体の凹凸部を、抽出凹凸情報として距離情報から抽出する。
このようにすれば、抽出したい所望の凹凸部(例えば生体の病変に起因する凹凸部)に関する既知特性情報に基づいて、その既知特性情報に合致する凹凸情報を分離することができる。これにより、所望の凹凸部に関する抽出凹凸情報を取得し、例えば強調処理等の後段の処理に用いることができる。
なお本実施形態ではこれに限定されず、強調処理等の後段の処理を適切に行えるだけの処理(例えば大局的な構造を除外する処理)を行えば十分である。即ち、抽出凹凸情報の取得において既知特性情報を用いることは必須でない。
2.第1実施形態
2.1.内視鏡装置
図2に、第1実施形態における内視鏡装置の構成例を示す。内視鏡装置は、光源部100、撮像部200、プロセッサー部300(制御装置)、表示部400、外部I/F部500を含む。
光源部100は、白色光源110と、その白色光源110からの白色光をライトガイドファイバー210に集光する集光レンズ120と、を含む。
撮像部200は、例えば、体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200は、光源部100の白色光を撮像部200先端まで導くライトガイドファイバー210と、そのライトガイドファイバー210により導かれた白色光を拡散させて生体表面に照射する照明レンズ220と、生体表面からの光を集光する対物レンズ231、232と、集光した光を検出する撮像素子241、242と、その撮像素子241、242により光電変換されたアナログ信号をデジタル信号に変換するA/D変換部250と、を含む。また撮像部200は、スコープの種類情報(例えば識別番号)を記憶するメモリー260を含む。
図3に示すように、撮像素子241、242は例えばベイヤー配列の色フィルターを有する。その色フィルターは赤色フィルターr、青色フィルターg、緑色フィルターbの3種類のフィルターで構成されている。各色フィルターは、例えば図4に示す分光感度特性を有する。
対物レンズ231、232は所定の視差画像(以下、ステレオ画像)を撮影可能な間隔で配置される。対物レンズ231、232は、それぞれ撮像素子241、242に対して被写体を結像させる。後述するように、ステレオ画像に対してステレオマッチング処理を行うことにより、撮像部200の先端から生体表面までの距離情報を取得可能である。なお以下では、撮像素子241で撮像された画像を左画像と呼び、撮像素子242で撮像された画像を右画像と呼び、左画像及び右画像を合わせてステレオ画像と呼ぶ。
プロセッサー部300は、画像処理部310、制御部320を含む。画像処理部310は、A/D変換部250から出力されるステレオ画像に対して、後述する画像処理を施して表示画像を生成し、その表示画像を表示部400へ出力する。制御部320は、内視鏡装置の各部を制御する。例えば、後述する外部I/F部500からの信号に基づいて、画像処理部310の動作を制御する。
表示部400は、プロセッサー部300から出力される表示画像を動画表示可能な表示装置である。表示部400は、例えばCRT(Cathode-Ray Tube display)や液晶モニター等により構成される。
外部I/F部500は、内視鏡装置に対するユーザーからの入力等を行うためのインターフェースである。外部I/F部500は、電源のオン/オフを行うための電源スイッチや、撮影モードやその他各種のモードを切り換えるためのモード切換ボタン等を含む。また、外部I/F部500は、強調処理のオン/オフ指示を行うことができる不図示の強調処理ボタンを有してもよい。ユーザーは、その強調処理ボタンを操作することにより強調処理のオン/オフ指示を行うことができる。外部I/F部500からの強調処理のオン/オフ指示信号は、制御部320へ出力される。
2.2.画像処理部
図5に、画像処理部310の詳細な構成例を示す。画像処理部310は、同時化処理部311と、画像構成処理部312と、距離情報取得部313(距離マップ取得部)と、凹凸情報取得部314(凹凸マップ取得部)と、判定部315(要否判定部)と、凹凸情報修正部316(凹凸マップ修正部)と、強調処理部317と、を含む。同時化処理部311は、図1の画像取得部350に対応する。
A/D変換部250は同時化処理部311に接続されている。同時化処理部311は画像構成処理部312、距離情報取得部313及び判定部315に接続されている。距離情報取得部313は凹凸情報取得部314に接続されている。判定部315及び凹凸情報取得部314は、凹凸情報修正部316に接続されている。凹凸情報修正部316及び画像構成処理部312は、強調処理部317に接続されている。強調処理部317は表示部400に接続されている。制御部320は、同時化処理部311、画像構成処理部312、距離情報取得部313、凹凸情報取得部314、判定部315、凹凸情報修正部316、強調処理部317に接続されており、これらの各部を制御する。
同時化処理部311は、A/D変換部250から出力されるステレオ画像に対して、同時化処理を施す。上述したように、撮像素子241、242はベイヤー配列の色フィルターを有するため、各画素が有する信号はR,G,Bのうちいずれか一つのみである。そのため公知のバイキュービック補間等を用いてRGB画像を生成する。同時化処理部311は同時化処理後のステレオ画像を画像構成処理部312、距離情報取得部313及び判定部315へ出力する。
画像構成処理部312は、同時化処理部311から出力されるステレオ画像に対して、例えば既知のWB処理やガンマ処理等を施し、処理後のステレオ画像を強調処理部317へ出力する。
距離情報取得部313は、同時化処理部311から出力されるステレオ画像に対してステレオマッチング処理を行い、撮像部200の先端から生体表面までの距離情報を取得する。具体的には、左画像を基準画像として、その基準画像の処理対象画素を通るエピポーラ線上で、処理対象画素及びその周辺領域(所定サイズのブロック)と右画像とのブロックマッチング演算を行う。そして、ブロックマッチング演算において最大相関となる位置を視差として検出し、その視差を奥行き方向の距離に変換する。この変換は撮像部200の光学倍率の補正処理を含んでいる。例えば、処理対象画素を1画素ずつずらしていき、ステレオ画像と同一画素数の距離マップを距離情報として取得する。距離情報取得部313は、その距離マップを凹凸情報取得部314へ出力する。なお、右画像を基準画像としても良いことはいうまでもない。
凹凸情報取得部314は、管腔や襞等消化官の形状に依存する距離情報を除いた生体表面の凹凸部を表す凹凸情報を距離情報から抽出し、その凹凸情報を抽出凹凸情報として凹凸情報修正部316へ出力する。具体的には、凹凸情報取得部314は、抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等のディメンジョン情報)を表す既知特性情報に基づいて、所望のディメンジョン特性を有する凹凸部を抽出する。凹凸情報取得部314の詳細については後述する。
判定部315は、抽出凹凸情報を除外又は抑制する領域を、画像の特徴量(例えば色相値やエッジ量等)が所定条件に該当するか否かにより判定する。具体的には、判定部315は、残渣や処置具等に該当する画素を、抽出凹凸情報を取得する必要がない画素として検出する。また判定部315は、平坦領域や暗部、輝点等にその該当する画素を、距離マップの生成が困難な(距離マップの信頼性が低い)画素として検出する。判定部315は、検出した画素の位置情報を凹凸情報修正部316へ出力する。判定部315の詳細については後述する。なお、上記のように各画素について判定を行ってもよいし、或は、撮像画像を所定サイズのブロックに分割し、その各ブロックについて判定を行ってもよい。
凹凸情報修正部316は、抽出凹凸情報を除外又は抑制すると判定された領域(以下、除外対象領域と呼ぶ)の抽出凹凸情報を除外し、或は凹凸度合いを抑制する。例えば、抽出凹凸情報は平坦部では一定値(一定距離)となっているので、その一定値に設定することで除外対象領域の抽出凹凸情報を除外する。或は、除外対象領域の抽出凹凸情報に対して平滑化フィルター処理を行うことで、除外対象領域での凹凸度合いを抑制する。凹凸情報修正部316の詳細については後述する。
強調処理部317は、抽出凹凸情報に基づいて撮像画像に対して強調処理を行い、処理後の画像を表示画像として表示部400へ出力する。後述するように、強調処理部317は、例えば生体の凹部に対応する領域に対して、青色を濃くする処理を行う。このような処理を行うことで、色素散布の手間を要することなく、生体表層の凹凸を強調表示することが可能となる。
2.3.凹凸情報取得処理
図6に、凹凸情報取得部314の詳細な構成例を示す。凹凸情報取得部314は、記憶部601、既知特性情報取得部602、抽出処理部603を含む。以下では凹凸部のサイズを表す既知特性情報に基づいて、ローパスフィルター処理の周波数特性を設定する場合を例に説明するが、本実施形態はこれに限定されない。例えば、予め決まった周波数特性がローパスフィルターに設定されていてもよい。この場合、記憶部601や既知特性情報取得部602を省略できる。
既知特性情報取得部602は、記憶部601からディメンジョン情報(抽出したい生体の凹凸部のサイズ情報)を既知特性情報として取得し、そのディメンジョン情報に基づいてローパスフィルター処理の周波数特性を決定する。抽出処理部603は、その周波数特性のローパスフィルター処理を距離マップに対して施し、管腔や襞等に関する形状情報を抽出する。そして、抽出処理部603は、その形状情報を距離マップから減算することで、生体表層の凹凸マップ(所望サイズの凹凸部の情報)を生成し、その凹凸マップを抽出凹凸情報として凹凸情報修正部316へ出力する。
図7(A)に、距離マップの例を模式的に示す。以下では説明の便宜上、一次元の距離マップを考え、矢印で示す方向に距離の軸をとる。距離マップには、P1に示す生体のおおまかな構造の情報(例えば管腔や襞等の形状情報)と、P2に示す生体表層の凹凸部の情報の両方を含んでいる。図7(B)に示すように、抽出処理部603が距離マップに対してローパスフィルター処理を行い、生体のおおまかな構造の情報を抽出する。そして図7(C)に示すように、抽出処理部603が、生体のおおまかな構造の情報を距離マップから減算し、生体表層の凹凸情報である凹凸マップを生成する。
図8に示すように、画像や距離マップ、凹凸マップにおける水平方向をx軸と定義し、垂直方向をy軸と定義する。また、画像(又はマップ)の左上を基準座標(0,0)とする。距離マップの座標(x,y)における距離をdist(x,y)と定義し、ローパスフィルター処理後の距離マップの座標(x,y)における距離(形状情報)をdist_LPF(x,y)と定義すると、凹凸マップの座標(x,y)における凹凸情報diff(x,y)は下式(1)で求められる。
次に、ディメンジョン情報からカットオフ周波数(広義には抽出処理パラメーター)を決定する処理の詳細について説明する。
既知特性情報取得部602は、生体表面から病変部起因の抽出したい生体固有の凹凸部のサイズ(幅や高さや深さ等のディメンジョン情報)、及び観察部位情報に基づく部位固有の管腔及び襞のサイズ(幅や高さや奥行き等のディメンジョン情報)等を、記憶部601から取得する。
ここで観察部位情報は、例えばスコープID情報に基づいて決定される、観察対象としている部位を表す情報であり、この観察部位情報は既知特性情報に含まれてもよい。例えば上部消化器用スコープだと観察部位は食道、胃、十二指腸であり、下部消化器用スコープだと観察部位は大腸と判定される情報である。抽出したい凹凸部のディメンジョン情報、及び部位固有の管腔及び襞のディメンジョン情報は、部位に応じて異なるものであるため、既知特性情報取得部602では、観察部位情報に基づいて取得された標準的な管腔及び襞のサイズ等の情報を抽出処理部603へ出力する。
抽出処理部603は、入力された距離情報に対して所定サイズ(例えばN×N画素(Nは2以上の自然数))のローパスフィルター処理を施す。そして、その処理後の距離情報(局所平均距離)に基づいて、適応的に抽出処理パラメーターを決定する。具体的には、病変部起因の抽出したい生体固有の凹凸部を平滑化すると共に、観察部位固有の管腔及び襞の構造が保持されるローパスフィルターの特性を決定する。既知特性情報から、抽出対象である凹凸部や、除外対象である襞、管腔構造の特性がわかるため、それらの空間周波数特性は既知となり、ローパスフィルターの特性を決定可能である。また、局所平均距離に応じて見かけ上の構造の大きさが変わるため、局所平均距離に応じてローパスフィルターの特性を決定する。
ローパスフィルター処理は、例えば下式(2)に示すガウスフィルターや、下式(3)に示すバイラテラルフィルターにより実現される。ここでp(x)は、距離マップにおける座標xでの距離を表す。なお簡単のため一次元フィルターの式を記載しているが、実際には座標(x,y)についての二次元フィルターを適用する。これらのフィルターの周波数特性はσ、σ、σνで制御する。このとき、距離マップの画素に一対一で対応するσマップを、抽出処理パラメーターとして作成してもよい。なお、バイラテラルフィルターの場合は、σ、σνの両方或いは一方のσマップを作成してもよい。
σとしては、例えば抽出したい生体固有の凹凸部のサイズに対応する距離マップの画素間距離D1の所定倍α(>1)よりも大きく、観察部位固有の管腔及び襞のサイズに対応する距離マップの画素間距離D2の所定倍β(<1)よりも小さい値を設定する。例えば、σ=(α*D1+β*D2)/2*Rσと設定してもよい。ここでRσは、局所平均距離の関数であり、局所平均距離が小さいほど値が大きく、局所平均距離が大きいほど値が小さい。
なお、本実施形態では上記のようなローパスフィルター処理を用いた抽出処理に限定されず、例えばモルフォロジー処理により抽出凹凸情報を取得してもよい。この場合、距離マップに対して所定カーネルサイズ(構造要素の大きさ(球の直径))のオープニング処理、クロージング処理を行う。抽出処理パラメーターは構造要素の大きさである。例えば構造要素として球を用いる場合、その球の直径として、観察部位情報に基づく部位固有の管腔及び襞のサイズよりも小さく、病変部起因の抽出したい生体固有の凹凸部のサイズよりも大きい直径を設定する。また、局所平均距離が小さいほど直径を大きくし、局所平均距離が大きいほど直径を小さくする。クロージング処理により得られた情報と、元の距離情報との差分を取ることで、生体表面の凹部が抽出される。また、オープニング処理により得られた情報と、元の距離情報との差分を取ることで、生体表面の凸部が抽出される。
以上の実施形態によれば、凹凸情報取得部314は、既知特性情報に基づいて抽出処理パラメーターを決定し、決定された抽出処理パラメーターに基づいて、被写体の凹凸部を抽出凹凸情報として抽出する。
これにより、既知特性情報により決定された抽出処理パラメーターを用いて抽出凹凸情報の抽出処理(例えば分離処理)を行うことが可能になる。抽出処理の具体的な手法は、上述したモルフォロジー処理やフィルター処理等が考えられるが、いずれにせよ抽出凹凸情報を精度よく抽出するためには、距離情報に含まれる種々の構造の情報から、所望の凹凸部に関する情報を抽出しつつ、他の構造(例えば襞等の生体固有の構造)を除外する制御が必要になる。ここでは既知特性情報に基づいて抽出処理パラメーターを設定することで、そのような制御を実現する。
また本実施形態では、撮像画像が、生体の内部を撮像した生体内画像であり、既知特性情報取得部602は、被写体が生体のいずれの部位に対応するかを表す部位情報と、生体の凹凸部に関する情報である凹凸特性情報を、既知特性情報として取得してもよい。そして凹凸情報取得部314は、部位情報と、凹凸特性情報に基づいて、抽出処理パラメーターを決定する。
このようにすれば、生体内画像を対象とする場合(例えば生体用の内視鏡装置に本実施形態の画像処理装置が用いられる場合)に、当該生体内画像の被写体の部位に関する部位情報を、既知特性情報として取得することが可能になる。本実施形態の手法を生体内画像を対象として適用する場合には、早期病変部の検出等に有用な凹凸構造を抽出凹凸情報として抽出することが想定されるが、早期病変部に特徴的な凹凸部の特性(例えばディメンジョン情報)は部位によって異なる可能性がある。また、除外対象である生体固有の構造(襞等)は部位によって当然異なる。よって、生体を対象とするのであれば、部位に応じた適切な処理を行う必要があり、本実施形態では部位情報に基づいて当該処理を行うものとする。
また本実施形態では、凹凸情報取得部314は、既知特性情報に基づいて、オープニング処理及びクロージング処理に用いられる構造要素のサイズを、抽出処理パラメーターとして決定し、決定されたサイズの構造要素を用いたオープニング処理及びクロージング処理を行って、被写体の凹凸部を抽出凹凸情報として抽出する。
このようにすれば、オープニング処理及びクロージング処理(広義にはモルフォロジー処理)に基づいて抽出凹凸情報を抽出することが可能になる。その際の抽出処理パラメーターは、オープニング処理及びクロージング処理で用いられる構造要素のサイズである。本実施形態では構造要素として球を想定しているため、抽出処理パラメーターとは球の直径等を表すパラメーターとなる。
2.4.要否判定処理
さて、仮に、凹凸マップ(抽出凹凸情報)を除外又は抑制するか否かの判定(以下、要否判定と呼ぶ)を行わなかったとする。そうすると、例えば残渣や処置具等診断に無関係な領域の凹凸マップも生成されるため、強調処理部317により残渣や処置具の凹部も青く強調されてしまい、非常に見難い画像となる。
また、ステレオマッチングにより距離マップ(距離情報)を取得する場合、生体表面に構造が存在しない平坦領域やノイズが多い暗部では、距離マップを安定して生成することが困難である。また、輝点は光源の正反射成分であり、左画像と右画像ではその出方が異なるため、ステレオマッチングでは正確な距離の取得が困難である。そのため、これらの領域では、元々存在しない凹凸が凹凸マップとして取得される可能性がある。このような誤検出が生じた場合、本来平坦な領域であるにもかかわらず、凹凸が存在するかのように青く強調されてしまうため、誤診を招く危険性がある。
以上のように、凹凸マップを修正せずにそのまま強調処理に用いると、医師にとって見難い画像となるだけでなく、誤診を招く危険性がある。
そこで本実施形態では、判定部315が凹凸マップの要否判定を行う。即ち、残渣や処置具等の画素を、凹凸マップを取得する必要がない画素として識別し、平坦領域や暗部、輝点等の画素を、距離マップの生成が困難な画素として識別する。そして、凹凸情報修正部316が、それらの画素における凹凸マップの凹凸情報を除外又は抑制する処理を行う。
図9に、判定部315の詳細な構成例を示す。判定部315は、輝度色差画像生成部610(輝度算出部)と、色相算出部611と、彩度算出部612と、エッジ量算出部613と、残渣識別部614と、輝点識別部615と、暗部識別部616と、平坦領域識別部617と、処置具識別部618と、凹凸情報要否判定部619と、を含む。
同時化処理部311は輝度色差画像生成部610に接続されている。輝度色差画像生成部610は、色相算出部611、彩度算出部612と、エッジ量算出部613と、輝点識別部615と、暗部識別部616と、平坦領域識別部617と、処置具識別部618と、に接続されている。色相算出部611は残渣識別部614に接続されている。彩度算出部612は、処置具識別部618に接続されている。エッジ量算出部613は輝点識別部615と平坦領域識別部617と、処置具識別部618に接続されている。残渣識別部614と、輝点識別部615と、暗部識別部616と、平坦領域識別部617と、処置具識別部618はそれぞれ凹凸情報要否判定部619に接続されている。凹凸情報要否判定部619は凹凸情報修正部316に接続されている。制御部320は、輝度色差画像生成部610と、色相算出部611と、彩度算出部612と、エッジ量算出部613と、残渣識別部614と、輝点識別部615と、暗部識別部616と、平坦領域識別部617と、処置具識別部618と、凹凸情報要否判定部619にそれぞれ接続されており、これらの各部を制御する。
輝度色差画像生成部610は、同時化処理部311からのRGB画像(基準画像)に基づいてYCbCr画像(輝度色差画像)を算出し、そのYCbCr画像を色相算出部611、彩度算出部612、エッジ量算出部613、輝点識別部615及び暗部識別部616へ出力する。YCbCr画像の算出には、下式(4)を用いる。
ここで、R(x,y)、G(x,y)、B(x,y)は、それぞれ座標(x,y)の画素のR信号値、G信号値、B信号値である。Y(x,y)、Cb(x,y)、Cr(x,y)は、それぞれ座標(x,y)の画素のY信号値、Cb信号値、Cr信号値である。
色相算出部611は、YCbCr画像の各画素での色相値H(x,y)[deg]を算出し、その色相値H(x,y)を残渣識別部614へ出力する。図10に示すように、色相値H(x,y)は、CrCb平面での角度で定義され、0〜359の値を取る。色相値H(x,y)は、下式(5)〜(11)を用いて算出する。
即ち、Cr=0の場合は、下式(5)〜(7)を用いて色相値H(x,y)を算出する。Cb=0の場合には下式(5)を用い、Cb>0の場合には下式(6)を用い、Cb<0の場合には下式(7)を用いる。
Cr≠0の場合、下式(8)〜(11)を用いて色相値H(x,y)を算出する。下式(8)〜(11)において、“tan−1()”は、括弧内の数値の逆正接[deg]を返す関数である。また“|V|”は実数Vの絶対値を取得する処理を表す。Cr>0且つCb≧0(第1象限)の場合には下式(8)を用い、Cr<0且つCb≧0(第2象限)の場合には下式(9)を用い、Cr<0且つCb<0(第3象限)の場合には下式(10)を用い、Cr>0且つCb<0(第4象限)の場合には下式(11)を用いる。
なお、H(x,y)=360[deg]の場合には、H(x,y)=0[deg]とする。
彩度算出部612は、YCbCr画像の各画素での彩度値S(x,y)を算出し、その彩度値S(x,y)を処置具識別部618へ出力する。彩度値S(x,y)の算出には例えば下式(12)を用いる。
エッジ量算出部613は、YCbCr画像の各画素でのエッジ量E(x,y)を算出し、そのエッジ量E(x,y)を輝点識別部615、平坦領域識別部617及び処置具識別部618へ出力する。エッジ量の算出には例えば下式(13)を用いる。
残渣識別部614は、色相算出部611で算出した色相値H(x,y)に基づいて、基準画像内から残渣に相当する画素を識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば“0”,“1”の2値とすればよい。即ち、残渣識別された画素には識別信号“1”を設定し、それ以外の画素には識別信号“0”を設定する。
生体は一般に赤い色味(色相値0〜20、340〜359[deg])を有するのに対し、残渣は黄色い色味(色相値270〜310[deg])を有する。そのため、例えば色相値H(x,y)が270〜310[deg]の画素を残渣と識別すればよい。
図11に、輝点識別部615の詳細な構成例を示す。輝点識別部615は、輝点境界識別部701と、輝点領域識別部702と、を含む。
輝度色差画像生成部610とエッジ量算出部613は、輝点境界識別部701に接続されている。輝点境界識別部701は、輝点領域識別部702に接続されている。輝点境界識別部701と、輝点領域識別部702は、凹凸情報要否判定部619に接続されている。制御部320は、輝点境界識別部701と輝点領域識別部702に接続されており、これらの各部を制御する。
輝点境界識別部701は、輝度色差画像生成部610からの輝度値Y(x,y)と、エッジ量算出部613からのエッジ量E(x,y)とに基づいて、基準画像内から輝点に相当する画素を識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば輝点と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。また、輝点境界識別部701は、輝点と識別された全ての画素の座標(x,y)を輝点領域識別部702と凹凸情報要否判定部619へ出力する。
次に、輝点の識別手法について詳細に説明する。輝点は輝度値Y(x,y)とエッジ量E(x,y)が共に大きいという特徴を有する。そのため、輝度値Y(x,y)が所定の閾値th_Yより大きく、且つエッジ量E(x,y)が所定の閾値th_E1より大きい画素を輝点と識別する。即ち、下式(14)を満たす画素を輝点と識別する。
さて、エッジ量E(x,y)が大きいのは輝点と生体の境界部(輝点境界部)のみであり、その輝点境界部で囲まれた輝点の内側領域(輝点中央部)はエッジ量E(x,y)が小さい。そのため、単に輝度値Y(x,y)とエッジ量E(x,y)だけで輝点を識別すると、輝点境界部の画素のみが輝点と識別され、輝点中央部は輝点と識別されない。そこで本実施形態では、輝点領域識別部702が、輝点中央部の画素も輝点と識別する。
図12に示すように、輝点境界識別部701は、輝点境界部の画素PX1(グレーの網掛けで示す)を輝点と識別する。輝点領域識別部702は、その画素PX1で囲まれる画素PX2(斜線の網掛けで示す)を輝点と識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、識別信号は、例えば輝点と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。
暗部識別部616は、輝度値Y(x,y)に基づいて、基準画像内から暗部に相当する画素を識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば暗部と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。具体的には、暗部識別部616は、下式(15)に示すように輝度値Y(x,y)が所定の閾値th_darkよりも小さい画素を暗部と識別する。
平坦領域識別部617は、エッジ量E(x,y)に基づいて、基準画像内から平坦部に相当する画素を識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば平坦部と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。具体的には、平坦領域識別部617は、下式(16)に示すようにエッジ量E(x,y)が所定の閾値th_E2(x,y)よりも小さい画素を平坦部と識別する。
平坦領域におけるエッジ量E(x,y)は、画像のノイズ量に依存する。ここでノイズ量は、所定領域における輝度値の標準偏差として定義される。一般に、画像が明るくなるほど(輝度値が大きくなるほど)ノイズ量は増加するため、固定の閾値で平坦領域を識別することは困難である。そこで本実施形態では、輝度値Y(x,y)に応じて適応的に閾値th_E2(x,y)を設定する。
具体的には、平坦領域におけるエッジ量は、画像のノイズ量に比例して大きくなる特徴がある。また、ノイズ量は輝度値Y(x,y)に依存し、一般的には図13に示す特性を有する。そこで、平坦領域識別部617は、図16に示した輝度値とノイズ量の特性を先見情報(ノイズモデル)として保持しておき、そのノイズモデル及び輝度値Y(x,y)に基づいて、下式(17)を用いて閾値th_E2(x,y)を設定する。
ここで、noise{Y(x,y)}は、輝度値Y(x,y)に対応するノイズ量を返す関数である(図16の特性)。また、co_NEは、そのノイズ量をエッジ量に変換するための係数である。
上記のノイズモデルは、撮像部(スコープ)の種類毎に異なる特性を有する。例えば、制御部320が、撮像部200のメモリー260に保持されている識別番号を参照することで、接続されているスコープの種類を特定してもよい。平坦領域識別部617は、制御部320から送られる信号(スコープの種類)に基づいて、使用するノイズモデルを選択してもよい。
なお、上記の実施形態では、画素毎の輝度値に基づいてノイズ量を算出する例を示したが、本発明はこれに限定されるものではない。例えば、所定領域の輝度値の平均値に基づいて、ノイズ量を算出してもよい。
図14に、処置具識別部618の詳細な構成例を示す。処置具識別部618は、処置具境界識別部711と、処置具領域識別部712と、を含む。
彩度算出部612とエッジ量算出部613と輝度色差画像識別部610は、処置具境界識別部711に接続されている。処置具境界識別部711は、処置具領域識別部712に接続されている。処置具領域識別部712は、凹凸情報要否判定部619に接続されている。制御部320は、処置具境界識別部711と処置具領域識別部712に接続されており、これらの各部を制御する。
処置具境界識別部711は、彩度算出部612からの彩度値S(x,y)とエッジ量算出部613からのエッジ量E(x,y)とに基づいて、基準画像内から処置具に相当する画素を識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば処置具と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。
処置具は生体部位と比較して、エッジ量E(x,y)が大きく、彩度値S(x,y)が小さい特徴がある。そのため、下式(18)に示すように、彩度値S(x,y)が所定の閾値th_Sよりも小さく、且つ、エッジ量E(x,y)が所定の閾値th_E3より大きい画素を、処置具に相当する画素と識別する。
一般的に、同じ色味を有する被写体でも、輝度値Y(x,y)に比例して彩度値S(x,y)は大きくなる。そのため、上式(18)に示すように彩度値S(x,y)を輝度値Y(x,y)で正規化(除算)する。
さて、エッジ量E(x,y)が大きいのは処置具と生体の境界部(処置具境界部)のみであり、その処置具境界部で囲まれた処置具の内側領域(処置具中央部)はエッジ量E(x,y)が小さい。そのため、エッジ量E(x,y)と彩度値S(x,y)だけで処置具を識別すると、処置具境界部の画素が処置具と識別され、処置具中央部は処置具と識別されない。そこで本実施形態では、処置具領域識別部712が、処置具中央部の画素を処置具と識別する。
具体的には、処置具領域識別部712は、図12で説明した手法と同様の手法により処置具中央部の画素を処置具として識別し、その識別結果を識別信号として凹凸情報要否判定部619へ出力する。識別信号は、例えば処置具と識別された画素の識別信号を“1”に設定し、それ以外の画素の識別信号を“0”に設定すればよい。
なお、本実施形態では、上述した閾値th_Y、th_dark、th_S、th_E1、th_E3、co_NEとして所定値を予め設定する構成としてもよいし、それらの閾値を外部I/F部500を介してユーザーが設定する構成としてもよい。
凹凸情報要否判定部619は、残渣識別部614、輝点識別部615、暗部識別部616、平坦領域識別部617及び処置具識別部618からの識別結果に基づいて、各画素の抽出凹凸情報の要否を判定し、その要否判定結果を凹凸情報修正部316へ出力する。具体的な判定方法としては、上記5つの識別部において、残渣、輝点、暗部、平坦領域、処置具の何れかに相当すると識別された画素(いずれかの識別信号が“1”の画素)の抽出凹凸情報を“否”(除外又は抑制の対象である)と判定する。例えば“否”の画素の識別信号を“1”に設定し、その識別信号を識別結果として出力する。
2.5.凹凸情報修正処理
次に、凹凸情報修正部316が行う処理について詳細に説明する。凹凸情報修正部316は、要否判定の結果(識別信号)に基づいて凹凸マップを修正する処理を行う。具体的には、抽出凹凸情報を“否”(除外又は抑制する)と判定された画素(例えば識別信号“1”の画素)に対応する凹凸マップ上の画素に対して、ローパスフィルター処理を施す。これにより、残渣、輝点、暗部、平坦領域、処置具の何れかに相当すると識別された画素の抽出凹凸情報が抑制される。凹凸情報修正部316はローパスフィルター処理後の凹凸マップを、強調処理部317へ出力する。
図15(A)〜図15(D)を用いて具体的に説明する。図15(A)に、距離マップの例を示す。説明の便宜上、一次元データの距離マップを示す。Q1は処置具が存在する領域を示し、Q2は生体表面に凹凸のある領域を示す。図15(B)に、抽出処理部603が、距離マップに対してローパスフィルター処理を施した結果の例を示す。図15(C)に示すように、抽出処理部603が、元の距離マップ(図15(A))からローパスフィルター処理後の距離マップ(図15(B))を減算し、凹凸マップを生成する。この凹凸マップには、処置具の凹凸情報QT1も含まれているため、この凹凸マップに基づいて強調処理部317が強調処理を施すと、診断に無関係の処置具領域が強調されてしまい、医師にとって見難い画像となってしまう。
この点、本実施形態では、上述した手法により判定部315が処置具、残渣、輝点、暗部、平坦領域に相当する画素を識別し、その画素の抽出凹凸情報を“否”と判定する。そして、図15(D)に示すように、凹凸情報修正部316が、抽出凹凸情報を“否”と判定された凹凸マップ上の画素に対してローパスフィルター処理を行うことで、凹凸マップを修正する。以上の処理により、処置具、残渣、輝点、暗部、平坦領域のいずれかに相当する画素の抽出凹凸情報が抑制される。この凹凸マップには、生体表面の凹凸情報QT2のみが残るので、生体表面の凹凸構造のみを強調し、診断に無関係の領域に対する強調を抑制できる。
2.6.強調処理
次に、強調処理部317が行う処理について詳細に説明する。以下では、一例として所定の色成分を強調する処理を説明するが、本実施形態はこれに限定されず、例えばコントラスト補正等の種々の強調処理を適用できる。
強調処理部317は、下式(19)に示す強調処理を行う。ここで、diff(x,y)は、凹凸情報取得部314が上式(1)により算出した抽出凹凸情報である。上式(1)から分かるように、距離マップにおいてローパスフィルター処理後の距離マップよりも奥の部分(凹部)ではdiff(x,y)>0である。また、R(x,y)’、G(x,y)’、B(x,y)’は、それぞれ強調処理後の座標(x,y)のR信号値、G信号値、B信号値である。また、係数Co_R、Co_G、Co_Bは0より大きい任意の実数である。係数Co_R、Co_G、Co_Bには、予め所定値が設定されてもよいし、外部I/F部を介してユーザーにより値が設定される構成としてもよい。
上記の強調処理では、凹部に対応するdiff(x,y)>0の画素のB信号値が強調されるので、凹部の青みが強調された表示画像を生成できる。また、diff(x,y)の絶対値が大きいほど青みが強調されるので、凹部の深いところほど青みが濃くなる。このようにして、インジゴカルミン等の色素散布を再現することが可能となる。
2.7.変形構成例
なお上記の実施形態では、画素毎に凹凸情報の要否を判定する例を示したが、本実施形態はこれに限定されない。例えば、n×nの局所領域毎に、上述した凹凸情報の要否を判定してもよい。この場合、局所領域単位で凹凸情報の要否を判定するため、判定回数を削減でき、回路規模の面でメリットがある。局所領域を大きくしすぎると強調処理後の画像にブロック状のアーティファクトを生じる可能性があるため、アーティファクトを生じない程度のサイズで局所領域を設定すればよい。
また上記の実施形態では、撮像方式を原色ベイヤー方式としたが、本実施形態はこれに限定されない。例えば、面順次や補色単板、原色2板、原色3板等の他の撮像方式としてもよい。
また上記の実施形態では、観察モードは白色光源を用いた通常光観察としたが、本実施形態はこれに限定されない。例えば、観察モードとしてNBI(Narrow Band Imaging)等に代表される特殊光観察を用いてもよい。なお、NBI観察時には、残渣の色相値が通常光観察時と異なり、赤い色味を有する。具体的には、通常光観察時には残渣の色相値が上述したように270〜310[deg]なのに対し、NBI観察時には色相値が0〜20、340〜359[deg]となる。そのためNBI観察時は、残渣識別部614は、例えば色相値H(x,y)が0〜20、340〜359[deg]の画素を残渣と識別すればよい。
2.8.ソフトウェア
上記の実施形態では、プロセッサー部300を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されない。例えば、撮像装置を用いて予め取得された画像信号と距離情報に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
この場合、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
図16に、画像処理部310が行う処理をソフトウェアで実現する場合のフローチャートを示す。この処理を開始すると、まず撮影条件に関するヘッダ情報を読み込む(ステップS1)。ヘッダ情報は、例えば撮像部200の(距離情報に対する)光学倍率や2つの撮像素子241、242間の距離等である。
次に、撮像部200で取得されたステレオ画像(左画像、右画像)を読み込む(ステップS2)。そして、そのステレオ画像に対して同時化処理を施す(ステップS3)。次に、ヘッダ情報及び同時化後のステレオ画像に基づいて、ステレオマッチング法を用いて、基準画像(左画像)の距離マップ(距離情報)を取得する(ステップS4)。次に、距離マップから生体の凹凸部の情報を抽出し、凹凸マップ(抽出凹凸情報)を取得する(ステップS5)。
次に、上述の手法により、基準画像の画素毎に抽出凹凸情報の要否(除外又は抑制するか否か)の判定を行う(ステップS6)。この要否判定処理の詳細フローについては後述する。次に、ステップS6において“否”(除外又は抑制する)と判定された画素に対応する抽出凹凸情報に対してローパスフィルター処理を施すことで、凹凸マップを修正する(ステップS7)。次に、基準画像に対して、例えば既知のWB処理やガンマ処理等を施す(ステップS8)。次に、ステップS7で修正した凹凸マップに基づいて、ステップS8で処理した基準画像に対して、上式(19)により凹凸部を強調する処理を施し(ステップS9)、強調処理後の画像を出力する(ステップS10)。
動画像の全ての画像に対して上述の処理を施した場合には処理を終了し、上述の処理を施していない画像が残っている場合にはステップS2を再び実行する(ステップS11)。
図17に、ステップS6の要否判定処理の詳細なフローチャートを示す。この処理を開始すると、上式(4)を用いて基準画像(RGB画像)をYCbCr画像に変換する(ステップS61)。
次に、上式(5)〜(11)を用いて基準画像の色相値H(x,y)を画素毎に算出する(ステップS61)。また、上式(12)を用いて、基準画像の彩度値S(x,y)を画素毎に算出する(ステップS62)。また、上式(13)を用いて、基準画像のエッジ量E(x,y)を画素毎に算出する(ステップS63)。なお、ステップS61〜S63は順不同である。
次に、色相値H(x,y)が270〜310[deg]となる画素を残渣と識別する(ステップS64)。また、輝度値Y(x,y)及びエッジ量E(x,y)が上式(14)を満たす画素と、その画素で囲まれる領域内の画素とを輝点と識別する(ステップS65)。また、輝度値Y(x,y)が上式(15)を満たす画素を暗部と識別する(ステップS66)。また、エッジ量E(x,y)が上式(16)を満たす画素を平坦領域と識別する(ステップS67)。また、彩度値S(x,y)及びエッジ量E(x,y)が上式(18)を満たす画素と、その画素で囲まれる領域内の画素とを処置具と識別する(ステップS68)。なお、ステップS64〜S68は順不同である。
次に、ステップS64〜S68において、残渣、輝点、暗部、平坦領域、処置具の何れかと識別された画素についての抽出凹凸情報を“否”(除外又は抑制する)と判定する(ステップS69)。
以上の実施形態によれば、色素散布の手間を要することなく生体表層の凹凸部のみを強調することができるため、医師及び患者の負担軽減に繋がる。また、残渣や処置具等診断に不必要な領域が強調されなくなるため、医師が診断し易い画像を提供することが可能となる。また、平坦領域や暗部、輝点領域等、本来凹凸が存在しない領域を強調されることを抑制できるため、誤診の危険性もなくすことができる。また、第2実施形態で後述するような測距センサーを設ける必要がないため、撮像部200の構成を比較的簡素にできるメリットがある。
また本実施形態では、判定部315は、撮像画像の画素値に基づく特徴量が、除外又は抑制の対象に対応する所定条件を満たすか否かを、所定領域(画素又は所定サイズのブロック)毎に判定する。
このようにすれば、凹凸情報を除外又は抑制する対象の特徴量が有する条件を所定条件として設定し、その所定条件に合致する領域を検出することにより、後段の処理に有用でない被写体の凹凸情報を判定できる。
また本実施形態では、判定部315は、色相値H(x,y)が所定条件を満たす所定領域(例えば画素)の抽出凹凸情報を、除外又は抑制すると判定する。例えば、所定条件は、色相値H(x,y)が、残渣の色に対応する所定範囲(例えば270〜310[deg])に属するという条件である。
このようにすれば、例えば残渣等の除外又は抑制の対象に特徴的な色相(色合い)を所定条件に設定することで、その色相の条件に合致する領域を、後段の処理に有用でない被写体として判定できる。
また本実施形態では、判定部315は、彩度値S(x,y)が所定条件を満たす所定領域の抽出凹凸情報を、除外又は抑制すると判定する。例えば、所定条件は、彩度値S(x,y)が、処置具の色に対応する所定範囲に属するという条件である。より具体的には、所定条件は、彩度値S(x,y)を輝度値Y(x,y)で除算した値が、処置具の彩度に対応する彩度閾値th_Sより小さく、且つ、エッジ量E(x,y)が、処置具のエッジ量に対応するエッジ量閾値th_E3よりも大きいという条件(上式(18))である。
このようにすれば、例えば処置具等の除外又は抑制の対象に特徴的な彩度(色の鮮やかさ)を所定条件に設定することで、その彩度の条件に合致する領域を、後段の処理に有用でない被写体として判定できる。また、処置具は彩度が小さくエッジ量が大きいという特徴があるため、彩度とエッジ量を組み合わせることで、処置具の領域をより高精度に判定できる。
また本実施形態では、判定部315は、輝度値Y(x,y)が所定条件を満たす所定領域の前記抽出凹凸情報を、除外又は抑制すると判定する。例えば、所定条件は、輝度値Y(x,y)が、輝点の輝度に対応する輝度閾値th_Yより大きいという条件である。より具体的には、所定条件は、輝度値Y(x,y)が輝度閾値th_Yより大きく、且つ、エッジ量E(x,y)が、輝点のエッジ量に対応するエッジ量閾値th_E1より大きいという条件(上式(14))である。或は、所定条件は、輝度値Y(x,y)が、暗部の輝度に対応する輝度閾値th_darkより小さいという条件(上式(15))である。
このようにすれば、例えば輝点や暗部等の除外又は抑制の対象に特徴的な輝度(明るさ)を所定条件に設定することで、その輝度の条件に合致する領域を、後段の処理に有用でない被写体として判定できる。また、輝点は輝度及びエッジ量が大きいという特徴があるため、輝度とエッジ量を組み合わせることで、輝点の領域をより高精度に判定できる。
また本実施形態では、判定部315は、エッジ量E(x,y)が所定条件を満たす所定領域の抽出凹凸情報を、除外又は抑制すると判定する。例えば、所定条件は、エッジ量E(x,y)が、処置具のエッジ量に対応するエッジ量閾値th_E3よりも大きいという条件(上式(18))である。或は、所定条件は、エッジ量E(x,y)が、輝点のエッジ量に対応するエッジ量閾値th_E1よりも大きいという条件(上式(14))である。或は、所定条件は、エッジ量E(x,y)が、平坦部のエッジ量に対応するエッジ量閾値th_E2(x,y)よりも小さいという条件(上式(16))である。
このようにすれば、例えば処置具や輝点、平坦部等の除外又は抑制の対象に特徴的なエッジ量(例えば画像の高周波成分や、微分画像の画素値)を所定条件に設定することで、そのエッジ量の条件に合致する領域を、後段の処理に有用でない被写体として判定できる。
また本実施形態では、判定部315は、輝度値Y(x,y)が大きいほどノイズ量が大きくなる撮像画像のノイズ特性noise{Y(x,y)}に応じて、輝度値Y(x,y)が大きいほどエッジ量閾値th_E2(x,y)を大きい値に設定する(上式(17))。
平坦部では被写体の凹凸による画素値変化が小さいため、ノイズによる画素値変化がエッジ量に影響している。そのため、ノイズ量に応じてエッジ量の閾値を設定することで、ノイズ量に影響されず高精度に平坦部を判定できる。
また本実施形態では、画像取得部350(同時化処理部311)は、撮像画像としてステレオ画像(視差画像)を取得する。距離情報取得部313は、ステレオ画像に対するステレオマッチング処理により距離情報(例えば距離マップ)を取得する。判定部315は、撮像画像に基づく特徴量が輝点及び暗部、平坦部に対応する所定条件を満たす所定領域の抽出凹凸情報を、除外又は抑制すると判定する。
輝点は生体粘膜表面での正反射によって生じるため、視点の異なる右画像と左画像とで出現位置が異なっている。そのため、ステレオマッチングによって輝点領域に誤った距離情報が検出される可能性がある。また、暗部ではノイズが支配的になるため、そのノイズによってステレオマッチングの精度が低下する可能性がある。また、平坦部では被写体の凹凸による画素値変化が小さいため、ノイズによってステレオマッチングの精度が低下する可能性がある。この点、本実施形態では、輝点及び暗部、平坦部を検出できるため、上記のような誤った距離情報から生成された抽出凹凸情報を除外又は抑制できる。
3.第2実施形態
3.1.内視鏡装置
図18に、第2実施形態における内視鏡装置の構成例を示す。内視鏡装置は、光源部100、撮像部200、プロセッサー部300(制御装置)、表示部400、外部I/F部500を含む。なお表示部400及び外部I/F部500は第1の実施形態と同様の構成であるため、説明を省略する。以下の説明では、第1の実施形態と異なる構成・動作について説明し、第1の実施形態と同様の構成・動作については適宜説明を省略する。
光源部100は、白色光源110と、青色レーザー光源111と、白色光源110及び青色レーザー光源111の合成光をライトガイドファイバー210に集光する集光レンズ120と、を含む。
白色光源110及び青色レーザー光源111は、制御部320からの制御信号に基づいてパルス点灯制御される。図19に示すように、白色光源110のスペクトルは400〜700[nm]の帯域を有し、青色レーザー光源111のスペクトルは370〜380[nm]の帯域を有する。
撮像部200は、ライトガイドファイバー210と、照明レンズ220と、対物レンズ231と、撮像素子241と、測距センサー243と、A/D変換部250と、ダイクロイックプリズム270と、を含む。ライトガイドファイバー210、照明レンズ220、対物レンズ231、撮像素子241は第1の実施形態と同一であるため、説明を省略する。
ダイクロイックプリズム270は、青色レーザー光源111のスペクトルに相当する370〜380[nm]の短波長域の光を反射し、白色光源110の波長に相当する400〜700[nm]の光を透過する特性を有する。そのダイクロイックプリズム270で反射された短波長域の光(青色レーザー光源111の反射光)は、測距センサー243で検出される。一方、透過された光(白色光源110の反射光)は、撮像素子241に結像される。測距センサー243は、青色レーザー光の点灯開始から、その青色レーザー光の反射光が検出されるまでの時間に基づいて距離を測定するTOF(Time of Flight)方式の測距センサーである。青色レーザー光の点灯開始のタイミングに関する情報は、制御部320から送られる。
測距センサー243で取得された距離情報のアナログ信号は、A/D変換部250でデジタル信号の距離情報(距離マップ)に変換されて、プロセッサー部300へ出力される。
プロセッサー部300は、画像処理部310と制御部320とを含む。画像処理部310は、A/D変換部250から出力される画像に対して後述する画像処理を施して表示画像を生成し、その表示画像を表示部400へ出力する。制御部320は、後述する外部I/F部500からの信号に基づいて、画像処理部310の動作を制御する。また制御部320は白色光源110、青色レーザー光源111及び測距センサー243に接続されており、これらを制御する。
3.2.画像処理部
図20に、画像処理部310の詳細な構成例を示す。画像処理部310は、同時化処理部311と、画像構成処理部312と、凹凸情報取得部314と、判定部315と、凹凸情報修正部316と、強調処理部317と、を含む。同時化処理部311、画像構成処理部312、強調処理部317の構成は第1の実施形態と同一であるため、説明を省略する。なお本実施形態では、図1の距離情報取得部313にはA/D変換部250(又は、A/D変換部250から距離マップを読み出す不図示の読み出し部)が対応する。
A/D変換部250は同時化処理部311と凹凸情報取得部314に接続されている。同時化処理部311は画像構成処理部312及び判定部315に接続されている。判定部315及び凹凸情報取得部314は、凹凸情報修正部316に接続されている。凹凸情報修正部316及び画像構成処理部312は、強調処理部317に接続されている。強調処理部317は表示部400に接続されている。制御部320は、同時化処理部311、画像構成処理部312、凹凸情報取得部314、判定部315、凹凸情報修正部316、強調処理部317に接続されており、これらの各部を制御する。
凹凸情報取得部314は、A/D変換部250から出力される距離マップから、管腔や襞等消化官の形状に依存する距離情報を除いた、生体表面の凹凸情報を凹凸マップ(抽出凹凸情報)として算出する。凹凸マップの算出方法は、第1の実施形態と同様である。
このように測距センサー243を使用して距離マップを取得する場合には、輝点、暗部及び平坦領域においても、正確な凹凸マップを取得することが可能となる。そのため、第1の実施形態で上述したステレオマッチング特有の課題(輝点や暗部、平坦領域においてステレオマッチングの精度が低下する)は解決される。
そのため、本実施形態では輝点、暗部及び平坦領域を識別する必要がない。しかしながら、残渣や処置具が強調されてしまう課題は解決されない。具体的には、残渣や処置具等診断に無関係な領域の凹凸情報が強調されてしまう。そこで本実施形態では、残渣と処置具を識別する処理を行う。
図21に、判定部315の詳細な構成例を示す。判定部315は、輝度色差画像生成部610と、色相算出部611と、彩度算出部612と、エッジ量算出部613と、残渣識別部614と、処置具識別部618と、凹凸情報要否判定部619と、を含む。
この判定部315は、第1の実施形態における判定部315から、輝点識別部615、暗部識別部616、平坦領域識別部617を除いた構成である。即ち、残渣識別部614は、色相値H(x,y)に基づいて残渣に相当する画素を識別し、処置具識別部618は、エッジ量E(x,y)と彩度値S(x,y)と輝度値Y(x,y)に基づいて処置具に相当する画素を識別する。そして、凹凸情報要否判定部619は、残渣及び処置具のいずれかに相当すると識別された画素の抽出凹凸情報を除外又は抑制すると判定する。なお、各部の詳細な処理は第1実施形態と同様であるため、説明を省略する。
本実施形態によれば、色素散布の手間を要することなく生体表層の凹凸部のみを強調することができるため、医師及び患者の負担軽減に繋がる。また、残渣や処置具等の診断に不必要な領域が強調されなくなるため、医師が診断し易い画像を提供することが可能となる。また、測距センサー243を用いて距離マップを取得するため、輝点、暗部、平坦領域を識別する必要がない。そのため、第1実施形態と比較して、プロセッサーの回路規模を削減できるメリットがある。
なお上記の実施形態ではA/D変換部250が距離マップを取得したが、本実施形態はこれに限定されない。例えば画像処理部310が距離情報取得部313を含み、距離情報取得部313が撮像画像からぼけパラメーターを算出し、そのぼけパラメーターに基づいて距離情報を取得してもよい。この場合、フォーカスレンズ位置を移動させながら第1、第2の画像を撮像し、各画像を輝度値に変換し、各画像の輝度値の2次微分を算出し、それらの平均値を算出する。そして、第1の画像の輝度値と第2の画像の輝度値との差分を算出し、その差分から2次微分の平均値を除算し、ぼけパラメーターを算出し、ぼけパラメーターと被写体距離との関係(例えばルックアップテーブルに記憶される)から距離情報を取得する。なお、この手法を用いる場合には青色レーザー光源111及び測距センサー243を省略できる。
3.3.ソフトウェア
上記の実施形態では、プロセッサー部300を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されない。例えば、撮像装置を用いて予め取得された画像信号と距離情報に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
図22に、画像処理部310が行う処理をソフトウェアで実現する場合のフローチャートを示す。この処理を開始すると、まず撮像部200で取得された画像を読み込む(ステップS20)。
次に、その画像に対して同時化処理を施す(ステップS21)。次に、測距センサー243で取得された距離マップ(距離情報)を読み込む(ステップS22)。次に、距離マップから生体の凹凸部の情報を抽出し、凹凸マップ(抽出凹凸情報)を取得する(ステップS23)。
次に、上述の手法により、撮像画像の画素毎に抽出凹凸情報の要否(除外又は抑制するか否か)の判定を行う(ステップS24)。この要否判定処理の詳細フローについては後述する。次に、ステップS24において“否”(除外又は抑制する)と判定された画素に対応する抽出凹凸情報に対してローパスフィルター処理を施すことで、凹凸マップを修正する(ステップS25)。次に、撮像画像に対して、例えば既知のWB処理やガンマ処理等を施す(ステップS26)。次に、ステップS25で修正した凹凸マップに基づいて、ステップS26で処理した撮像画像に対して、上式(19)により凹凸部を強調する処理を施し(ステップS27)、強調処理後の画像を出力する(ステップS28)。
動画像の全ての画像に対して上述の処理を施した場合には処理を終了し、上述の処理を施していない画像が残っている場合にはステップS20を再び実行する(ステップS29)。
図23に、ステップS24の要否判定処理の詳細なフローチャートを示す。図23に示すステップS80〜S86は、第1実施形態のフロー(図17)のステップS60〜S64、S68、S69に対応する。即ち、第2実施形態では、第1実施形態のフローからステップS65〜S67を除いたフローとなる。各ステップの処理は第1実施形態と同様のため説明を省略する。
以上の実施形態によれば、距離情報取得部(本実施形態では例えばA/D変換部250、或はA/D変換部250から距離情報を読み出す不図示の読み出し部)は、撮像部200が有する測距センサー243(例えばTOF法による測距センサー)からの測距信号に基づいて距離情報(例えば距離マップ)を取得する。判定部315は、撮像画像に基づく特徴量が処置具及び残渣に対応する所定条件を満たす所定領域の抽出凹凸情報を、除外又は抑制すると判定する。
本実施形態では測距センサー243によって距離情報を得ることができるため、ステレオ画像から距離情報を取得する手法のようなステレオマッチングの誤検出が生じない。そのため、輝点や暗部、平坦領域を判定する必要がなくなり、要否判定処理を簡素化できるので、回路規模や処理量を削減できる。
以上、本発明を適用した実施形態及びその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。更に、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
100 光源部、110 白色光源、111 青色レーザー光源、
120 集光レンズ、200 撮像部、210 ライトガイドファイバー、
220 照明レンズ、231 対物レンズ、241,242 撮像素子、
243 測距センサー、250 A/D変換部、260 メモリー、
270 ダイクロイックプリズム、300 プロセッサー部、
310 画像処理部、311 同時化処理部、312 画像構成処理部、
313 距離情報取得部、314 凹凸情報取得部、315 判定部、
316 凹凸情報修正部、317 強調処理部、320 制御部、
350 画像取得部、400 表示部、500 外部I/F部、
601 記憶部、602 既知特性情報取得部、603 抽出処理部、
610 輝度色差画像生成部、611 色相算出部、612 彩度算出部、
613 エッジ量算出部、614 残渣識別部、615 輝点識別部、
616 暗部識別部、617 平坦領域識別部、618 処置具識別部、
619 凹凸情報要否判定部、701 輝点境界識別部、
702 輝点領域識別部、711 処置具境界識別部、
712 処置具領域識別部、
b 緑色フィルター、Cb(x,y),Cr(x,y) 色差値、
E(x,y) エッジ量、g 青色フィルター、H(x,y) 色相値、
P1 生体のおおまかな構造、P2 生体表層の凹凸部、
PX1 輝点境界部の画素、PX2 輝点境界部の画素で囲まれる画素、
Q1 処置具領域、Q2 生体表面の凹凸領域、
QT1 処置具の凹凸情報、QT2生体表面の凹凸情報、
r 赤色フィルター、S(x,y) 彩度値、th_dark 輝度閾値、
th_E1,th_E2(x,y),th_E3 エッジ量閾値、
th_S 彩度閾値、th_Y 輝度閾値、Y(x,y) 輝度値

Claims (25)

  1. 被写体の像を含む撮像画像を取得する画像取得部と、
    前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
    前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得する凹凸情報取得部と、
    前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行う判定部と、
    前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制する凹凸情報修正部と、
    を含むことを特徴とする画像処理装置。
  2. 請求項1において、
    前記判定部は、
    前記撮像画像の画素値に基づく特徴量が、前記除外又は抑制の対象に対応する所定条件を満たすか否かを、前記所定領域毎に判定することを特徴とする画像処理装置。
  3. 請求項2において、
    前記判定部は、
    前記撮像画像の色相値を前記特徴量として算出する色相算出部を有し、
    前記判定部は、
    前記色相値が前記所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  4. 請求項3において、
    前記所定条件は、前記色相値が、残渣の色に対応する所定範囲に属するという条件であることを特徴とする画像処理装置。
  5. 請求項2において、
    前記判定部は、
    前記撮像画像の彩度値を前記特徴量として算出する彩度算出部を有し、
    前記判定部は、
    前記彩度値が前記所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  6. 請求項5において、
    前記所定条件は、前記彩度値が、処置具の色に対応する所定範囲に属するという条件であることを特徴とする画像処理装置。
  7. 請求項6において、
    前記判定部は、
    前記撮像画像のエッジ量を前記特徴量として算出するエッジ量算出部と、
    前記撮像画像の輝度値を前記特徴量として算出する輝度算出部と、
    を有し、
    前記所定条件は、前記彩度値を前記輝度値で除算した値が、処置具の彩度に対応する彩度閾値よりも小さく、且つ、前記エッジ量が、処置具のエッジ量に対応するエッジ量閾値よりも大きいという条件であることを特徴とする画像処理装置。
  8. 請求項2において、
    前記判定部は、
    前記撮像画像の輝度値を前記特徴量として算出する輝度算出部を有し、
    前記判定部は、
    前記輝度値が前記所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  9. 請求項8において、
    前記所定条件は、前記輝度値が、輝点の輝度に対応する輝度閾値よりも大きいという条件であることを特徴とする画像処理装置。
  10. 請求項9において、
    前記判定部は、
    前記撮像画像のエッジ量を前記特徴量として算出するエッジ量算出部を有し、
    前記所定条件は、前記輝度値が前記輝度閾値よりも大きく、且つ、前記エッジ量が、輝点のエッジ量に対応するエッジ量閾値よりも大きいという条件であることを特徴とする画像処理装置。
  11. 請求項8において、
    前記所定条件は、前記輝度値が、暗部の輝度に対応する輝度閾値よりも小さいという条件であることを特徴とする画像処理装置。
  12. 請求項2において、
    前記判定部は、
    前記撮像画像のエッジ量を前記特徴量として算出するエッジ量算出部を有し、
    前記判定部は、
    前記エッジ量が前記所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  13. 請求項12において、
    前記所定条件は、前記エッジ量が、処置具のエッジ量に対応するエッジ量閾値よりも大きいという条件であることを特徴とする画像処理装置。
  14. 請求項12において、
    前記所定条件は、前記エッジ量が、輝点のエッジ量に対応するエッジ量閾値よりも大きいという条件であることを特徴とする画像処理装置。
  15. 請求項12において、
    前記所定条件は、前記エッジ量が、平坦部のエッジ量に対応するエッジ量閾値よりも小さいという条件であることを特徴とする画像処理装置。
  16. 請求項15において、
    前記判定部は、
    前記撮像画像の輝度値を前記特徴量として算出する輝度算出部を有し、
    前記判定部は、
    前記輝度値が大きいほどノイズ量が大きくなる前記撮像画像のノイズ特性に応じて、前記輝度値が大きいほど前記エッジ量閾値を大きい値に設定することを特徴とする画像処理装置。
  17. 請求項1において、
    前記凹凸情報修正部は、
    前記判定部により前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報に対して、平滑化処理を施すことを特徴とする画像処理装置。
  18. 請求項1において、
    前記凹凸情報修正部は、
    前記判定部により前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を、非凹凸部に対応した所定値に設定することを特徴とする画像処理装置。
  19. 請求項1において、
    前記凹凸情報修正部からの前記抽出凹凸情報に基づいて、前記撮像画像に対して強調処理を行う強調処理部を含むことを特徴とする画像処理装置。
  20. 請求項1において、
    前記凹凸情報取得部は、
    前記距離情報と、前記被写体の構造に関する既知の特性を表す情報である既知特性情報とに基づいて、前記既知特性情報により特定される特性と合致する前記被写体の凹凸部を、前記抽出凹凸情報として前記距離情報から抽出することを特徴とする画像処理装置。
  21. 請求項1において、
    前記画像取得部は、
    前記撮像画像としてステレオ画像を取得し、
    前記距離情報取得部は、
    前記ステレオ画像に対するステレオマッチング処理により前記距離情報を取得し、
    前記判定部は、
    前記撮像画像に基づく特徴量が輝点及び暗部、平坦部に対応する所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  22. 請求項1において、
    前記距離情報取得部は、
    前記撮像部が有する測距センサーからの測距信号に基づいて前記距離情報を取得し、
    前記判定部は、
    前記撮像画像に基づく特徴量が処置具及び残渣に対応する所定条件を満たす前記所定領域の前記抽出凹凸情報を、前記除外又は抑制すると判定することを特徴とする画像処理装置。
  23. 請求項1に記載の画像処理装置を含むことを特徴とする内視鏡装置。
  24. 被写体の像を含む撮像画像を取得し、
    前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得し、
    前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得し、
    前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行い、
    前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制することを特徴とする画像処理方法。
  25. 被写体の像を含む撮像画像を取得し、
    前記撮像画像を撮像する際の撮像部から前記被写体までの距離に基づく距離情報を取得し、
    前記距離情報に基づいて前記被写体の凹凸情報を抽出凹凸情報として取得し、
    前記撮像画像の所定領域毎に、前記抽出凹凸情報を除外又は抑制するか否かの判定を行い、
    前記除外又は抑制すると判定された前記所定領域の前記抽出凹凸情報を除外し、又は凹凸の度合いを抑制するステップを、
    コンピューターに実行させる画像処理プログラム。
JP2013012816A 2013-01-28 2013-01-28 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム Expired - Fee Related JP6112879B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013012816A JP6112879B2 (ja) 2013-01-28 2013-01-28 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
PCT/JP2013/075626 WO2014115371A1 (ja) 2013-01-28 2013-09-24 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
US14/728,067 US20150294463A1 (en) 2013-01-28 2015-06-02 Image processing device, endoscope apparatus, image processing method, and information storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013012816A JP6112879B2 (ja) 2013-01-28 2013-01-28 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2014144034A true JP2014144034A (ja) 2014-08-14
JP2014144034A5 JP2014144034A5 (ja) 2016-03-17
JP6112879B2 JP6112879B2 (ja) 2017-04-12

Family

ID=51227178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013012816A Expired - Fee Related JP6112879B2 (ja) 2013-01-28 2013-01-28 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20150294463A1 (ja)
JP (1) JP6112879B2 (ja)
WO (1) WO2014115371A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199531A1 (ja) * 2016-05-16 2017-11-23 ソニー株式会社 撮像装置及び内視鏡
JP2018508246A (ja) * 2015-01-22 2018-03-29 マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス及び方法
KR101862167B1 (ko) 2016-12-15 2018-05-29 연세대학교 산학협력단 방광 관련 질환에 관한 정보제공방법
JP2019098005A (ja) * 2017-12-06 2019-06-24 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
JP2020058623A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
US11432713B2 (en) 2017-06-15 2022-09-06 Olympus Corporation Endoscope system, endoscope image processing method, and computer readable recording medium for generating a three-dimensional shape image
US11992192B2 (en) 2018-07-23 2024-05-28 Olympus Corporation Endoscope apparatus

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10117563B2 (en) * 2014-01-09 2018-11-06 Gyrus Acmi, Inc. Polyp detection from an image
JP2015156937A (ja) * 2014-02-24 2015-09-03 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2017022358A1 (ja) * 2015-08-06 2017-02-09 ソニー・オリンパスメディカルソリューションズ株式会社 医療用信号処理装置、医療用表示装置、及び医療用観察システム
GB201701012D0 (en) * 2017-01-20 2017-03-08 Ev Offshore Ltd Downhole inspection assembly camera viewport
CN110769731B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
US11010895B2 (en) * 2017-11-02 2021-05-18 Hoya Corporation Processor for electronic endoscope and electronic endoscope system
JP7050817B2 (ja) * 2017-12-25 2022-04-08 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
JP7256046B2 (ja) * 2019-03-22 2023-04-11 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、医療用画像処理装置の作動方法および医療用画像処理プログラム
US20200345291A1 (en) * 2019-05-01 2020-11-05 Stuart M. Bradley Systems and methods for measuring volumes and dimensions of objects and features during swallowing observation
CN110490856B (zh) 2019-05-06 2021-01-15 腾讯医疗健康(深圳)有限公司 医疗内窥镜图像的处理方法、系统、机器设备和介质
CN111950317B (zh) * 2020-08-07 2024-05-14 量子云码(福建)科技有限公司 一种微观编码图像提取装置及提取图像后鉴别真伪的方法
CN112927154B (zh) * 2021-03-05 2023-06-02 上海炬佑智能科技有限公司 ToF装置、深度相机以及灰度图像增强方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244589A (ja) * 2006-03-15 2007-09-27 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2008044466A1 (fr) * 2006-10-11 2008-04-17 Olympus Corporation Dispositif, procédé et programme de traitement d'image
JP2010005095A (ja) * 2008-06-26 2010-01-14 Fujinon Corp 内視鏡装置における距離情報取得方法および内視鏡装置
JP2012143340A (ja) * 2011-01-11 2012-08-02 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013013481A (ja) * 2011-07-01 2013-01-24 Panasonic Corp 画像取得装置および集積回路

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5467754B2 (ja) * 2008-07-08 2014-04-09 Hoya株式会社 電子内視鏡用信号処理装置および電子内視鏡装置
JP5658931B2 (ja) * 2010-07-05 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5959168B2 (ja) * 2011-08-31 2016-08-02 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007244589A (ja) * 2006-03-15 2007-09-27 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2008044466A1 (fr) * 2006-10-11 2008-04-17 Olympus Corporation Dispositif, procédé et programme de traitement d'image
JP2010005095A (ja) * 2008-06-26 2010-01-14 Fujinon Corp 内視鏡装置における距離情報取得方法および内視鏡装置
JP2012143340A (ja) * 2011-01-11 2012-08-02 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013013481A (ja) * 2011-07-01 2013-01-24 Panasonic Corp 画像取得装置および集積回路

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508246A (ja) * 2015-01-22 2018-03-29 マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス及び方法
WO2017199531A1 (ja) * 2016-05-16 2017-11-23 ソニー株式会社 撮像装置及び内視鏡
US11506789B2 (en) * 2016-05-16 2022-11-22 Sony Corporation Imaging device and endoscope
KR101862167B1 (ko) 2016-12-15 2018-05-29 연세대학교 산학협력단 방광 관련 질환에 관한 정보제공방법
US11432713B2 (en) 2017-06-15 2022-09-06 Olympus Corporation Endoscope system, endoscope image processing method, and computer readable recording medium for generating a three-dimensional shape image
JP2019098005A (ja) * 2017-12-06 2019-06-24 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
US11992192B2 (en) 2018-07-23 2024-05-28 Olympus Corporation Endoscope apparatus
JP2020058623A (ja) * 2018-10-10 2020-04-16 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム
JP7220542B2 (ja) 2018-10-10 2023-02-10 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム

Also Published As

Publication number Publication date
WO2014115371A1 (ja) 2014-07-31
US20150294463A1 (en) 2015-10-15
JP6112879B2 (ja) 2017-04-12

Similar Documents

Publication Publication Date Title
JP6112879B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP6150583B2 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6176978B2 (ja) 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム
JP6045417B2 (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP6150554B2 (ja) 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP5462084B2 (ja) 画像処理装置及びプログラム
JP6210962B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP2011218090A (ja) 画像処理装置、内視鏡システム及びプログラム
US20160089011A1 (en) Endoscope system, processor device, and method for operating endoscope system
CN105308651B (zh) 检测装置、学习装置、检测方法、学习方法
WO2019159770A1 (ja) 内視鏡システム
JP6150555B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
JP6150617B2 (ja) 検出装置、学習装置、検出方法、学習方法及びプログラム
JP6128989B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP6184928B2 (ja) 内視鏡システム、プロセッサ装置
JP2010179023A (ja) 画像処理方法および装置
JP6168878B2 (ja) 画像処理装置、内視鏡装置及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R151 Written notification of patent or utility model registration

Ref document number: 6112879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees