JP2009153970A - 画像処理システム、画像処理方法、およびプログラム - Google Patents

画像処理システム、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2009153970A
JP2009153970A JP2008309067A JP2008309067A JP2009153970A JP 2009153970 A JP2009153970 A JP 2009153970A JP 2008309067 A JP2008309067 A JP 2008309067A JP 2008309067 A JP2008309067 A JP 2008309067A JP 2009153970 A JP2009153970 A JP 2009153970A
Authority
JP
Japan
Prior art keywords
image
light
unit
depth
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008309067A
Other languages
English (en)
Other versions
JP5257891B2 (ja
Inventor
Hiroshi Yamaguchi
博司 山口
Shinichi Shimozu
臣一 下津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008309067A priority Critical patent/JP5257891B2/ja
Publication of JP2009153970A publication Critical patent/JP2009153970A/ja
Application granted granted Critical
Publication of JP5257891B2 publication Critical patent/JP5257891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】物体の内部に存在するオブジェクトのぼけを物体の表面までの距離に応じて適切に補正することができる画像処理システムを提供すること。
【解決手段】画像処理システムは、物体の内部に存在するオブジェクトの画像を補正する。画像処理システムは、オブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部と、物体の表面からオブジェクトまでの深さを特定する深さ特定部と、オブジェクト画像を撮像した撮像部から物体の表面までの距離情報を特定する距離情報特定部と、距離情報および深さに応じて、オブジェクト画像を補正する画像補正部とを備える。
【選択図】図1

Description

本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、物体の内部に存在するオブジェクトの画像を補正する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。
特許文献1に記載の内視鏡では、予め定められた所定範囲についての画像信号に対して、対物光学系の点ひろがり関数を用いて像のボケを解消する処理を施す。これにより、撮像部への入射光量を大きく確保する一方、対物光学系の焦点深度不足による像のボケを解消できるとされている。
また、暗室内で人工太陽光が照射された収穫対象物を2値化情報として取り込みこれをCRTディスプレイ上にドット表示するCCDカメラと、収穫対象物上に基準ポインタとして表示させる一対のレーザ投光器とを備える測定処理装置が知られている(例えば、特許文献2参照。)。この測定処理装置は、CRTディスプレイ上にドット表示された基準ポインタP1、P2間の距離と実際の収穫対象物上における基準ポインタ間の距離との比率によりCRTディスプレイに表示される収穫対象物の面積ならびに周囲長を求めて、これを比率により比較演算して収穫対象物の位置、形状および大きさを認識する。また、固定焦点レンズと光電変換部であるCCDとよりなり水平画角α、垂直画角βを持つCCDカメラと、光軸X−Xに対し一定間隔LA/2を置いてCCDカメラの両サイドに設けた放射角θを持つ一組の放射状垂直平行レーザ光を放射するレーザ光源とを備える距離測定装置が知られている(例えば、特許文献3参照。)。
特開平10−165365号公報 特開平7―250538号公報 特開2000―230807号公報
例えば生体内部に存在する血管等のオブジェクトを、オブジェクトからの光を用いて観察する場合、オブジェクトの像がぼける問題がある。つまり、オブジェクトからの光が生体内を通過する間に散乱されて、オブジェクトの輪郭が不明瞭になってしまう。医師が内視鏡を用いて診断あるいは施術する場合、血管等のオブジェクトの位置を正確に認識することができることが望ましいので、オブジェクトの輪郭におけるぼけを補正して、鮮明な画像を医師に提供することが望まれる。しかしながら、特許文献1−3の技術では、内部に存在するオブジェクトのぼけを補正することができない。
上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部と、物体の表面からオブジェクトまでの深さを特定する深さ特定部と、オブジェクト画像を撮像した撮像部から物体の表面までの距離情報を特定する距離情報特定部と、距離情報および深さに応じて、オブジェクト画像を補正するオブジェクト画像補正部とを備える。
オブジェクト画像補正部は、距離情報および深さに応じて、オブジェクト画像の広がりを補正してよい。オブジェクト画像補正部は、距離情報および深さに応じて、オブジェクトから表面までの間でオブジェクトからの光が散乱されることによるオブジェクト画像の広がりを補正してよい。
表面からオブジェクトまでの深さに対応付けて、オブジェクト画像の広がりを補正する補正値を格納する補正テーブルをさらに備え、オブジェクト画像補正部は、距離情報、深さ特定部が特定した深さ、および補正値に基づいて、オブジェクト画像の広がりを補正してよい。
補正テーブルは、表面からオブジェクトまでの深さに対応づけて、実空間上における補正値を格納しており、オブジェクト画像補正部は、実空間上における補正値を、距離情報に応じてオブジェクト画像上における補正値に変換する補正値変換部と、補正値変換部により得られたオブジェクト画像上における補正値に基づいて、オブジェクト画像の広がりを補正するオブジェクト像補正部とを有してよい。
オブジェクト画像補正部は、深さが深いほど、オブジェクト画像の広がりをより大きく補正してよい。オブジェクト画像補正部は、距離情報が示す距離が小さいほど、オブジェクト画像の広がりをより大きく補正してよい。
オブジェクトからの、異なる複数の波長領域に属する光によってそれぞれ撮像された複数の光画像を取得する光画像取得部をさらに備え、深さ特定部は、複数の光画像の画像内容に基づいて、深さを特定してよい。複数の光画像ごとにオブジェクトの画像領域を特定するオブジェクト領域特定部をさらに備え、深さ特定部は、オブジェクト領域特定部が特定した画像領域における輝度に基づいて、深さを特定してよい。なお、光画像取得部は、オブジェクトの内部のルミネッセンス物質が発した光を含む異なる複数の波長領域に属する光によって複数の光画像を取得してもよい。
光画像取得部は、オブジェクトから反射した光による複数の光画像を取得してよい。光画像取得部は、オブジェクトに白色光を照射してオブジェクトから反射した光に含まれる異なる複数の波長領域に属する光によって、複数の光画像を取得してよい。光画像取得部は、異なる複数の波長領域の光をオブジェクトに照射してオブジェクトから反射した光によって、複数の光画像を取得してよい。
オブジェクト画像補正部により補正されたオブジェクト画像の表示を、深さに応じて制御する表示制御部とをさらに備えてよい。表示制御部は、オブジェクト画像補正部により補正されたオブジェクト画像の明るさまたは色を、深さに応じて変化させて表示させてよい。なお、物体の表面に向けて撮像部の撮像方向に略平行に照射された光による物体の表面の像である表面像を含む画像を取得する表面画像取得部をさらに備え、距離情報特定部は、表面画像取得部が取得した画像に含まれる表面像の大きさに基づいて、距離情報を特定してよい。
本発明の第2の形態によると、画像処理方法であって、物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得段階と、物体の表面からオブジェクトまでの深さを特定する深さ特定段階と、オブジェクト画像を撮像した撮像部から物体の表面までの距離情報を特定する距離情報特定段階と、距離情報および深さに応じて、オブジェクト画像を補正する画像補正段階とを備える。
本発明の第3の形態によると、画像処理システム用のプログラムであって、画像処理システムを、物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部、物体の表面からオブジェクトまでの深さを特定する深さ特定部、オブジェクト画像を撮像した撮像部から物体の表面までの距離情報を特定する距離情報特定部、距離情報および深さに応じて、オブジェクト画像を補正する画像補正部として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態における画像処理システム10の一例を検体20とともに示す。画像処理システム10は、物体の内部に存在するオブジェクトまでの深さに応じて、オブジェクトの画像を補正する。画像処理システム10は、内視鏡100、画像処理部140、出力部180、光照射部150、制御部105、およびICG注入部190を備える。なお、図1において、A部は、内視鏡100の先端部102を拡大して示す。制御部105は、撮像制御部160および発光制御部170を有する。
ICG注入部190は、ルミネッセンス物質であるインドシアニングリーン(ICG)を、この発明における物体の一例である検体20に注入する。なお、本実施形態においてルミネッセンス物質としてICGを例示するが、ルミネッセンス物質として、ICG以外の蛍光物質を用いてもよい。ICGは、例えば波長750nmの赤外線に励起されて、810nmを中心とするブロードなスペクトルの蛍光を発する。
検体20が生体である場合、ICG注入部190は、静脈注射によって、生体の血管内にICGを注入する。画像処理システム10は、ICGからのルミネッセンス光により、生体内の血管を撮像する。なお、ルミネッセンス光は、物体からの光の一例であり、蛍光および燐光を含む。また、ルミネッセンス光は、励起光等の光による光ルミネッセンスの他に、化学ルミネッセンス、摩擦ルミネッセンス、熱ルミネッセンスによるルミネッセンス光を含む。なお、血管は、この発明におけるオブジェクトの一例であってよい。
なお、ICG注入部190は、例えば制御部105による制御によって、生体内のICG濃度が略一定に維持されるよう、ICGを検体20に注入する。なお、検体20は、例えば人体であってよい。なお、検体20の内部には血管等のオブジェクトが存在する。本実施形態の画像処理システム10は、検体20の表面(器官等の内表面を含む)より深部に存在するオブジェクトの、表面からの深さを検出する。また、画像処理システム10は、検出した深さに応じて、オブジェクトの画像におけるぼけを補正する。
内視鏡100は、撮像部110、ライトガイド120、および鉗子口130を有する。内視鏡100の先端部102には、撮像部110の一部としての対物レンズ112を有する。また先端部102には、ライトガイド120の一部としての出射口124および出射口126を有する。また、内視鏡100の先端部102は、ノズル138を有する。
鉗子口130には鉗子135が挿入され、鉗子口130は鉗子135を先端部102にガイドする。なお、鉗子135は、各種の先端形状を備えてよい。なお、鉗子口130には、鉗子の他に、生体を処置する種々の処置具が挿入されてよい。ノズル138は、水あるいは空気を送出する。
光照射部150は、内視鏡100の先端部102から照射される光を発生する。光照射部150で発生する光は、検体20の内部に含むルミネッセンス物質を励起してルミネッセンス光を発光させる励起光の一例としての赤外線、および検体20に照射する照射光を含む。照射光には、例えばR成分、G成分、およびB成分の成分光を含む。
撮像部110は、ルミネッセンス物質が発するルミネッセンス光および照射光がオブジェクトで反射する反射光により画像を撮像する。撮像部110は、例えばCCD等の2次元撮像デバイスと光学系とを含んでよく、光学系には対物レンズ112を含む。ルミネッセンス物質が発する光が赤外線である場合、撮像部110は、赤外線画像を撮像できる。オブジェクトへの照射光がRGBの各成分を含む例えば白色光である場合、撮像部110は、可視光画像を撮像できる。
なお、オブジェクトからの光としては、オブジェクト内に存在するルミネッセンス物質が発する蛍光または燐光等のルミネッセンス光、あるいはオブジェクトに照射された光が反射した反射光またはオブジェクトを透過した透過光を例示できる。すなわち、撮像部110は、オブジェクトの内部のルミネッセンス物質が発した光、オブジェクトから反射した光、またはオブジェクトを透過した光により、オブジェクトの画像を撮像する。なお、撮像部110は、R成分、G成分、B成分、およびルミネッセンス光の波長成分に属する成分光のそれぞれの光を、時分割または空間分割で受光することによって別個に受光することができる。
なお、撮像部110は、オブジェクトからの光に限らず、種々の方法でオブジェクトを撮像することができる。例えば、撮像部110は、X線、γ線等の電磁放射線、或いはアルファ線等の粒子線を含む放射線を利用してオブジェクトを撮像してよい。また、撮像部110は、種々の波長の電磁波、電波、音波を利用してオブジェクトを撮像してよい。
ライトガイド120は、例えば光ファイバで構成できる。ライトガイド120は、光照射部150で発生した光を内視鏡100の先端部102にガイドする。ライトガイド120は、先端部102に設けられた出射口124および出射口126を含むことができる。光照射部150で発生した光は、出射口124および出射口126から検体20に照射される。
なお、出射口124からの光は、撮像部110による撮像範囲をカバーする範囲に照射される。例えば、出射口124からの光は、線114で示されるような撮像部110が光を受光することができる範囲に少なくとも照射される。一方、出射口126からの光は、物体の表面に向けて撮像部110の撮像方向に略平行に光を照射される。例えば、出射口126からの光は、線128で示されるような、撮像部110による撮像範囲内に照射される、撮像部110の撮像方向に略平行な光線を主として含むスポット光であってよい。出射口124および出射口126からの光により、撮像部110は少なくとも物体の表面を撮像することができる。
画像処理部140は、撮像部110から取得した画像データを処理する。出力部180は、画像処理部140が処理した画像データを出力する。撮像制御部160は、撮像部110による撮像を制御する。発光制御部170は、撮像制御部160からの制御を受けて、光照射部150を制御する。例えば撮像部110が、赤外線および照射光を時分割で撮像する場合に、赤外線および照射光の照射タイミングと撮像部110の撮像タイミングとを同期させるよう制御する。
なお、画像処理部140は、撮像部110により撮像された画像に基づいて、表面からオブジェクトまでの深さと物体の表面までの距離とを特定する。そして、画像処理部140は、特定した深さと距離とに応じて、撮像部110により撮像されたオブジェクトの画像を補正する。
図2は、画像処理部140のブロック構成の一例を示す。画像処理部140には、オブジェクト画像取得部210、光画像取得部212、表面画像取得部214、オブジェクト領域特定部216、オブジェクト画像補正部220、補正テーブル222、距離情報特定部240、動き特定部270、被写体画像生成部280、表示制御部260、および深さ特定部230を有する。オブジェクト画像補正部220は、補正値変換部224、およびオブジェクト像補正部226を含む。
光画像取得部212は、検体20の内部に存在する血管等のオブジェクトからの光の画像である光画像を取得する。具体的には、光画像取得部212は、物体の内部に存在するオブジェクトからの光の画像である光画像を取得する。より具体的には、光画像取得部212は、オブジェクトからの光によって撮像部110が撮像した画像を、光画像として取得する。
オブジェクトからの光としてルミネッセンス物質が発するルミネッセンス光を利用する場合、光画像取得部212が取得する光画像には、物体の表面からルミネッセンス物質を励起する励起光が進入できる深さまでの範囲に存在するオブジェクトの像が含まれる。例えば、内視鏡100の先端部102から照射されるルミネッセンス物質の励起光は、一例として750nmの波長を有するから、検体20の比較的深部(例えば数cm程度)にまで到達する。よって、光画像取得部212が取得する光画像には、検体20の比較的深部に存在する血管像が含まれる。なお、血管像は、この発明における光画像の一例であってもよい。
なお、励起光が到達することができる深さの範囲に存在するルミネッセンス物質は、当該励起光によって励起されるから、光画像取得部212が取得する光画像には、励起光が到達できる深さの範囲に存在する血管像が含まれる。なお、血管が深い位置に存在するほど、血管からの蛍光が検体20で散乱されるから、深い位置の血管像ほどボケを多く含むことになる。
オブジェクトからの光としてオブジェクトからの反射光を利用する場合、光画像取得部212が取得する光画像には、オブジェクトへの照射光が進入して反射する深さの範囲に存在するオブジェクトが含まれる。物体への照射光の進入深さは照射光の波長に依存するから、赤色光は青色光より物体内部に深く進入でき、緑色光はそれらの中間深さまで進入できる。赤外線は赤色光より物体内部に深く進入できる。よって、光画像には、物体表面からの照射する光の波長範囲を反映した進入深さまでの範囲に存在するオブジェクトが含まれることになる。
このように、光画像取得部212は、血管等のオブジェクトからの、異なる複数の波長領域に属する光によってそれぞれ撮像された複数の光画像を取得する。当該波長領域は、任意の波長領域であってよく、例えば可視光のR成分を中心とする赤色領域、G成分を中心とする緑色領域、B成分を中心とする青色領域を例示できる。また、当該波長領域は、ICGからの蛍光が属する波長領域を複数に分割した波長領域であってよく、例えばICGからの蛍光における波長領域のうち、長波長領域、中波長領域、短波長領域を例示できる。
深さ特定部230は、複数の光画像の画像内容に基づいて、血管等のオブジェクトまでの深さを特定する。例えば、深さ特定部230は、波長が相違すれば検体20への光の進入深さが相違する性質を利用して、あるいは、波長が相違すれば検体20内での光の吸収率が相違する性質を利用して、血管等のオブジェクトの深さ検出に利用する。すなわち、深さ特定部230は、青色領域の光画像により識別できる血管は、当該青色領域に属する波長の光が反射する深さ領域に存在すると判断する。同様に、深さ特定部230は、緑色領域の光画像により識別できる血管は、当該緑色領域に属する波長の光が反射する深さ領域に存在すると判断する。また、深さ特定部230は、赤色領域の光画像により識別できる血管は、当該赤色領域に属する波長の光が反射する深さ領域に存在すると判断する。
また、深さ特定部230は、血管内のICGが発した蛍光のうち、長波長領域に属する光の吸収は、短波長領域に属する光の吸収より小さいから、長波長領域、中波長領域あるいは短波長領域の光による光画像に含まれる血管像の明るさの比から当該血管の深さを推定する。例えば、深さ特定部230は、長波長領域の光による光画像に含まれる血管像の明るさに対して、短波長領域の光画像に含まれる血管像が暗ければ、当該血管は深い位置に存在すると判断する。また、深さ特定部230は、逆に、長波長領域の光による光画像に係る血管像の明るさに対して、短波長領域の光による光長画像に係る血管像が明るければ、短波長領域の光を吸収するであろう光の行路が長くなく、当該血管は浅い位置に存在すると推定する。
以上のように、深さ特定部230は、光の波長による物体への進入深さ(反射光の進入深さ)の相違を利用して血管等のオブジェクトの深さを検出することができる。この場合、光画像取得部212は、オブジェクトから反射した反射光の画像を、光画像として取得してよい。また、光画像取得部212は、オブジェクトに白色光を照射してオブジェクトから反射した光に含まれる異なる複数の波長領域に属する光による複数の光画像を取得してもよい。あるいは光画像取得部212は、異なる複数の波長領域の光をオブジェクトに照射してオブジェクトから反射した光によって、複数の光画像を取得してもよい。
また、上述したように、深さ特定部230が物体の深部で発光した蛍光の波長による吸収率の相違を利用して血管等のオブジェクトの深さを検出する場合には、光画像取得部212は、オブジェクトの内部のルミネッセンス物質が発した光を含む異なる複数の波長領域に属する光による複数の光画像を取得する。なお、オブジェクトに照射される光は、光照射部150が発光して出射口124から照射される。
このように、深さ特定部230は、光画像が光の進入深さの情報を含むから、光画像に含まれるオブジェクトの明るさ(輝度)を比較または演算してオブジェクトの深さを計算することができる。例えば、オブジェクト領域特定部216は、複数の光画像ごとにオブジェクトの画像領域を特定する。そして、深さ特定部230は、オブジェクト領域特定部216が特定したオブジェクトの画像領域における輝度に基づいて、表面からオブジェクトまでの深さを特定する。
例えば深さ特定部230は、長波長の波長領域における画像領域の輝度に対する短波長の波長領域における画像領域の輝度の比に基づいて、深さを特定する。また、深さ特定部230は、画像領域における最高輝度または平均輝度に基づいて深さを特定してもよい。
他にも、深さ特定部230は、オブジェクトの画像領域の端部における輝度の変化率に基づいて深さを特定してもよい。当該輝度の変化率は、例えば画像空間における位置(距離)を変数とする輝度の微分係数で表現できる。当該微分係数は画像領域に係るオブジェクトのボケの大きさを数値化した例であり、微分係数が大きいほどボケは小さく、オブジェクトはより浅い位置に存在すると推定できる。
また、当該輝度の変化率は、例えば画像空間における位置(距離)を変数とする輝度の分布における半値幅によって表現できる。半値幅が大きいほどボケは大きく、半値幅が小さいとオブジェクトはより浅い位置に存在すると推定できる。このようにして、深さ特定部230は、物体の表面からオブジェクトまでの深さを特定することができる。
距離情報特定部240は、光画像を撮像した撮像部110から物体の表面までの距離を特定する。なお、この発明における距離情報は、実空間上における距離そのものであってもよく、実空間上の距離を示す指標であってもよい。なお、以後の説明において、単に距離と記載されている場合は、特にことわらない限り、撮像部110から物体の表面までの距離を示す。
例えば、表面画像取得部214は、物体の表面に向けて撮像部110の撮像方向に略平行に照射された光による物体の表面の像である表面像を含む画像を取得する。そして、距離情報特定部240は、表面画像取得部214が取得した画像に含まれる表面像の大きさに基づいて、距離を特定する。なお、当該略平行な光は、光照射部150から発光されて出射口126を経て照射されたスポット光であってよい。
オブジェクト画像取得部210は、オブジェクトからの光によって撮像されたオブジェクト画像を取得する。なお、撮像部110は、表面を通じてオブジェクトを撮像してよい。そして、オブジェクト画像取得部210は、表面を通じて撮像されたオブジェクトの画像を取得する。例えば、オブジェクト画像取得部210は、オブジェクトからのルミネッセンス光により撮像部110によって撮像されたオブジェクト画像を取得する。
オブジェクト画像補正部220は、距離情報特定部240が特定した距離および深さ特定部230が特定した深さに応じて、オブジェクト画像を補正する。具体的には、オブジェクト画像補正部220は、距離情報特定部240が特定した距離および深さ特定部230が特定した深さに応じて、オブジェクト画像を補正する。より具体的には、オブジェクト画像補正部220は、距離情報特定部240が特定した距離および深さ特定部230が特定した深さに応じて、オブジェクト画像の広がりを補正する。さらに具体的には、オブジェクト画像補正部220は、距離情報特定部240が特定した距離および深さ特定部230が特定した深さに応じて、オブジェクトから表面までの間でオブジェクトからの光が散乱されることによるオブジェクト画像の広がりを補正する。
オブジェクト画像補正部220が補正した補正画像は出力部180に供給され、出力部180から表示される。なお、補正テーブル222は、表面からオブジェクトまでの深さに対応付けて、オブジェクト画像の広がりを補正する補正値を格納している。そして、オブジェクト画像補正部220は、距離情報特定部240が特定した距離、深さ特定部230が特定した深さ、および補正テーブル222が格納している補正値に基づいて、オブジェクト画像の広がりを補正する。
なお、表面画像取得部214は、一例として撮像部110によって撮像された物体の表面の画像を取得する。すなわち表面画像取得部214は、視認すると同等の画像を取得する。例えば、表面画像取得部214は、照射光が物体表面で反射された反射光により撮像部110が撮像した画像を、表面画像として取得する。例えば、表面画像取得部214は、白色光である照射光が照射光が物体表面で反射された反射光により撮像部110が撮像した画像を、表面画像として取得する。
なお、撮像部110は、オブジェクト画像と表面画像とを、異なるタイミングで撮像してよい。例えば、撮像部110は、白色光を照射することにより可視光の表面画像を連続的に撮像しており、所定のタイミングにおいて白色光にかえて励起光を照射することによりオブジェクト画像を撮像してよい。この場合、動き特定部270は、励起光を照射したタイミングと、白色光を照射したタイミングとの間におけるオブジェクトの動きを特定する。被写体画像像生成部280は、白色光を照射することにより得られた表面画像、および、動き特定部270が特定した動きに基づき、励起光を照射したタイミングにおいて得られるべき表面画像を生成する。なお、オブジェクト画像と表面画像とを時分割で撮像する場合における制御部105、撮像部110、光照射部150、動き特定部270、および被写体画像像生成部280の機能および動作については、図6以降の図面に関連してより詳細に説明する。
表示制御部260は、表面画像および補正画像の出力部180への表示を制御する。例えば、表示制御部260は、オブジェクト画像補正部220により補正されたオブジェクト画像の表示を、深さ特定部230が特定した深さに応じて制御する。具体的には、表示制御部260は、オブジェクト画像補正部220により補正されたオブジェクト画像の明るさまたは色を、深さに応じて変化させて出力部180に表示させる。あるいは表示制御部260は、表面画像と補正画像とを並べて出力部180に表示してもよい。その他、表示制御部260は、オブジェクトの深さ情報を数値として出力部180に表示してもよい。
以下に、オブジェクト画像補正部220が含む各構成要素の動作について説明する。オブジェクト画像補正部220は、補正値変換部224およびオブジェクト像補正部226を含む。補正テーブル222は、表面からオブジェクトまでの深さに対応づけて、実空間上における補正値を格納している。つまり、補正テーブル222は、実スケールにおける補正値を格納している。この場合に、補正値変換部224は、補正テーブル222が格納している実空間上における補正値を、距離情報特定部240が特定した距離に応じてオブジェクト画像上における補正値に変換する。
オブジェクト像補正部226は、補正値変換部224により得られたオブジェクト画像上における補正値に基づいて、オブジェクト画像の広がりを補正する。これにより、オブジェクト画像補正部220は、表面の位置に応じて、オブジェクト像のぼけをオブジェクト画像上において適切に補正することができる。
なお、深さ特定部230は、複数のオブジェクトのそれぞれまでの表面からの深さを特定してよい。深さ特定部230は、複数のオブジェクトのそれぞれまでの表面からの深さを算出してよい。そして、オブジェクト画像補正部220は、複数のオブジェクトのそれぞれまでの深さに基づいて、オブジェクト画像における複数のオブジェクトのそれぞれの像の広がりを補正してよい。
図3は、検体20の内部で光が反射等する様子を模式的に示す。検体20の内部にはオブジェクトの一例である血管810が存在する。血管にはルミネッセンス物質であるICGが注入されており、血管810の内部にはICGが存在する。検体20にはICGの励起光である赤外線Iirと、オブジェクトである血管810への照射光である赤色光Ir、緑色光Ig、および青色光Ibとが照射される。
赤外線Iirは、検体20の比較的深い位置(深さdir)まで進入でき、表面から深さdirの間に存在する血管810内のICGは赤外線Iirによって励起される。よって深さdirより浅い位置に存在する血管810の像は、ICGからの蛍光Rfによってオブジェクト画像として取得される。なお、オブジェクト画像として取得された血管810の像には、ぼけを伴う。
赤色光Irは、深さdrまで進入して深さdrの近傍で反射される。よって、赤色光Irの赤色反射光Rrには深さdr近傍の血管810の像情報が含まれる。赤色反射光Rrによる血管810の像は赤色領域の光による光画像として取得され、当該光画像には、深さdr近傍の血管810の画像が含まれる。
緑色光Igは、深さdgまで進入して深さdgの近傍で反射される。よって、緑色光Igの緑色反射光Rgには深さdg近傍の血管810の像情報が含まれる。緑色反射光Rgによる血管810の像は緑色領域の光による光画像として取得され、当該光画像には、深さdg近傍の血管810の画像が含まれる。
青色光Ibは、深さdbまで進入して深さdbの近傍で反射される。よって、青色光Ibの青色反射光Rbには深さdb近傍の血管810の像情報が含まれる。青色反射光Rbによる血管810の像は青色領域の光による光画像として取得され、当該光画像には、深さdb近傍の血管810の画像が含まれる。
前述したように、深さ特定部230は、赤色反射光Rr、緑色反射光Rg、緑色反射光Rgの光によるそれぞれの光画像から、血管810の深さを特定することができる。オブジェクト画像補正部220は、深さ特定部230が特定した深さから蛍光Rfによるオブジェクト画像を補正することができる。
図4は、検体20の内部からの光がぼける様子を模式的に示す。検体20の表面400から深さd1だけ離れた検体20内の位置410に点光源が存在とすると仮定する。この点光源から撮像部110への光は、位置410から表面400までの間に検体20によって散乱されて、表面400上においてh1で示されるような輝度分布を持つ。ここで、xは、撮像方向に垂直な面内における、実空間におけるx座標を示す。
一方、検体20の表面400から深さd2だけ離れた検体20内の位置420に点光源が存在とすると仮定する。この点光源から撮像部110への光は、位置420から表面400までの間に検体20によって散乱されて、表面400上においてh2で示されるような輝度分布を持つ。なお、本図においては1次元で広がりの程度を表しているが、表面における輝度分布は、二次元的に分布することは言うまでもない。
このように、より深い位置にある点光源からの光は、表面においてより広がっている。このため、位置420にあるオブジェクトからの光によるオブジェクト像は、位置410にあるオブジェクトからの光によるオブジェクト像より大きなぼけを有することになる。なお、この広がりは表面から点光源までの深さに応じて定まるので、広がりの程度は、実空間スケールで定められる。したがって、オブジェクトが存在する深さに応じて、実空間上における点拡がり関数が定まる。したがって、深さ特定部230が撮像部110による撮像方向成分の深さを特定するとともに、距離情報特定部240が表面までの距離を撮像することによって、オブジェクト画像補正部220は、当該深さおよび距離に応じた点拡がり関数に基づいて、オブジェクト画像の広がりを補正することができる。
一例として、補正テーブル222は、深さをパラメータとして持つ点広がり関数の逆フィルタを格納している。そして、補正値変換部224は、距離情報特定部240が特定した距離に応じて、当該逆フィルタを画像上において変換する逆フィルタに変換する。そして、オブジェクト像補正部226は、オブジェクト領域特定部216が特定したオブジェクト画像のそれぞれを、補正値変換部224が変換した逆フィルタを用いて補正する。
他にも、補正テーブル222は、深さおよび距離をパラメータとして持つ点広がり関数の逆フィルタを格納していてもよい。そして、オブジェクト像補正部226は、オブジェクト領域特定部216が特定したオブジェクト像のそれぞれを、距離情報特定部240が特定した距離および深さ特定部230が特定した深さに応じた逆フィルタを用いて補正してもよい。
図5は、オブジェクト画像補正部220によって補正された血管像560および血管像570の一例を示す。撮像部110によって撮像された画像500は、ぼけを伴う血管像510および血管像520を含む。なお、血管像510が示す血管は、血管像520が示す血管より浅い位置に存在しており、血管像510のぼけは血管像520より小さい。
表面画像取得部214が取得した画像には、撮像部110の撮像方向に略平行に照射されたスポット光による表面像が含まれる。スポット光が表面で反射した光によって撮像部110により撮像された表面像は、スポット光が表面に照射された範囲の表面の画像となる。距離情報特定部240は、スポット光による表面像の大きさに基づいて、撮像部110と表面との間の距離を特定する。例えば、距離情報特定部240は、スポット光による表面像の径および面積の少なくとも一方に基づいて、撮像部110と表面との間の距離を特定してよい。
なお、出射口126から出射されるスポット光の、進行方向に垂直な平面への投影像の形状は、略円形であってよい。スポット光の形状が既知である場合には、距離情報特定部240は、スポット光による表面像の形状にさらに基づいて、撮像部110と表面との間の距離を特定してもよい。例えば、距離情報特定部240は、当該形状が円形である場合には、表面像の短径に基づいて、撮像部110と表面との間の距離を特定してもよい。また、距離情報特定部240は、当該形状が円形である場合には、表面像の楕円度にさらに基づいて、撮像部110と表面との間の距離を特定してもよい。これにより、距離情報特定部240は、スポット光が表面に垂直に入射していない場合であっても、表面像の大きさおよび形状から距離を特定することができる。
また、深さ特定部230は、前述したようにして表面から血管までの深さを算出することができる。オブジェクト領域特定部216は、血管の領域として画像500から血管像510および520の領域を抽出する。オブジェクト画像補正部220は、オブジェクト領域特定部216が特定した血管像510および血管像520の領域に対して、表面から撮像部110までの距離および深さ特定部230が特定した血管までの深さに応じて、上述したように逆フィルタを用いて補正する。
結果として、オブジェクト画像補正部220は、深さが深いほど、オブジェクト画像の広がりをより大きく補正する。また、オブジェクト画像補正部220は、距離情報が示す距離が短いほど、オブジェクト画像の広がりをより大きく補正する。例えば、血管像510が示す血管は、血管像520が示す血管より浅い位置に存在するので、オブジェクト画像補正部220が血管像520に施すぼけ補正量は、血管像510に施すぼけ補正量より大きい。
オブジェクト画像補正部220は、血管像510のぼけを補正して血管像560を表示制御部260に出力するとともに、血管像520のぼけを補正して血管像570を表示制御部260に出力する。表示制御部260は、例えば濃淡を変えて、あるいは色を変えて表面からの深さを出力部180から表示させる。本実施形態の画像処理システム10を適用すれば、例えば医師が出力部180から表示された画面を見つつ手術等を実施するとき、表面観察によっては視認できない内部の血管を鮮明に認識できる場合がある。また、医師は内部の血管の深さ情報を参照しつつ手術等を実施できる利点が得られる場合がある。
なお、本実施形態において、発光制御部170は、距離情報特定部240が特定した距離に応じて、発光強度を制御してもよい。例えば、発光制御部170は、距離情報特定部240が特定した距離がより近い距離を示す場合に、より小さい強度の光を光照射部150から照射させてよい。また、発光制御部170は、距離情報特定部240が特定した距離が予め定められた値より大きい場合には、光照射部150からの光の照射を停止してもよい。なお、距離情報特定部240は、超音波またはレーザを表面に向けて照射すること等によって、表面までの距離を特定してもよい。
図6は、撮像部110の構成の一例を示す。撮像部110は、対物レンズ112、撮像デバイス810、分光フィルタ部820、および受光側励起光カットフィルタ部830を有する。撮像デバイス810は、第1受光素子851aを含む複数の第1受光素子851、第2受光素子852aおよび第2受光素子852bを含む複数の第2受光素子852、第3受光素子853aを含む複数の第3受光素子853を含む。
以下に、撮像部110が有する構成要素の機能および動作を説明する。以下の説明においては、説明が複雑になることを防ぐべく、複数の第1受光素子851を総称して第1受光素子851と呼び、複数の第2受光素子852を総称して第2受光素子852と呼び、複数の第3受光素子853を総称して第3受光素子853と呼ぶ場合がある。また、複数の第1受光素子851、複数の第2受光素子852、複数の第3受光素子853を総称して、単に受光素子と呼ぶ場合がある。
第1受光素子851、第2受光素子852、および第3受光素子853は、対物レンズ112を通じて供給された被写体からの光を受光する。具体的には、第1受光素子851は、特定波長領域の光および特定波長領域と異なる第1波長領域の光を受光する。特徴波長領域としては、ルミネッセンス光の波長領域など、赤外領域を例示することができる。また、第2受光素子852は、特定波長領域と異なる第2波長領域の光を受光する。また、第3受光素子853は、特定波長領域、第1波長領域、および第2波長領域と異なる、第3波長領域の光を受光する。
なお、第1波長領域、第2波長領域、および第3波長領域は互いに異なる波長領域であって、他の波長領域が含まない波長領域を含む。また、第1受光素子851、第2受光素子852、および第3受光素子853は、所定のパターンで2次元的に配列されている。
分光フィルタ部820は、第1波長領域の光、第2波長領域の光、および第3波長領域の光のいずれかの光を通過する複数のフィルタ要素を含む。各フィルタ要素は、第1受光素子851、第2受光素子852、および第3受光素子853のそれぞれの受光素子に応じて2次元的に配列されている。個々の受光素子は、個々のフィルタ要素が通過した光を受光する。このように、第1受光素子851、第2受光素子852、第3受光素子853は、互いに異なる波長領域の光を受光する。
受光側励起光カットフィルタ部830は、被写体と第2受光素子852および第3受光素子853の間に少なくとも設けられ、励起光の波長領域の光をカットする。そして、第2受光素子852および第3受光素子853は、被写体からの反射光を受光側励起光カットフィルタ部830を通じて受光する。このため、第2受光素子852および第3受光素子853は、励起光が被写体から反射した反射光を実質的に受光することがない。
なお、受光側励起光カットフィルタ部830は、励起光の波長領域の光および特定波長領域の光をカットしてもよい。この場合、第2受光素子852および第3受光素子853は、一例として被写体からのルミネッセンス光を実質的に受光することがない。
なお、受光側励起光カットフィルタ部830は、被写体と第1受光素子851との間に設けられてもよい。この場合、被写体と第1受光素子851との間に設けられた受光側励起光カットフィルタ部830は、特定波長領域の光を透過する。
なお、受光側励起光カットフィルタ部830は、分光フィルタ部820と同様に、第1受光素子851、第2受光素子852、および第3受光素子853のそれぞれの受光素子に応じて2次元的に配列されたフィルタ要素を含んでよい。そして、第1受光素子851に光を供給するフィルタ要素は、第1波長領域および特定波長領域の光を少なくとも通過させる。なお、第1受光素子851に光を供給するフィルタ要素は、励起光の波長領域の光をカットしてもよい。一方、第2受光素子852に光を供給するフィルタ要素は、励起光の波長領域の光および特定波長領域の光をカットし、第2波長領域の光を少なくとも通過させる。また、第3受光素子853に光を供給するフィルタ要素は、励起光の波長領域の光および特定波長領域の光をカットし、第3波長領域の光を少なくとも通過させる。
画像処理部140は、第1受光素子851a、第2受光素子852a、第2受光素子852b、および第3受光素子853aが受光した受光量に少なくとも基づいて、1画素の画素値を決定する。すなわち、第1受光素子851a、第2受光素子852a、第2受光素子852b、および第3受光素子853aの2次元配列構造により一の画素素子が形成され、当該画素素子配列が2次元的に配列されることによって複数の画素素子が形成される。なお、受光素子は、本図に示した配列構造に限られず、多様な配列構造で配列されてよい。
図7は、第1受光素子851、第2受光素子852、および第3受光素子853の分光感度特性の一例を示す。線930、線910、および線920は、それぞれ第1受光素子851、第2受光素子852、および第3受光素子853の分光感度分布を示す。例えば、第1受光素子851は、他の受光素子が実質的に感度を有しない650nm近傍の波長の光に感度を有する。また、第2受光素子852は、他の受光素子が実質的に感度を有しない450nm近傍の波長の光に感度を有する。また、第3受光素子853は、他の受光素子が実質的に感度を有しない550nm近傍の波長の光に感度を有する。
また、第1受光素子851は、特定波長領域の一例である赤外領域(例えば、810nm)の光を受光することができる。この分光感度特性は、受光側励起光カットフィルタ部830および分光フィルタ部820の透過特性および各受光素子の分光感度による。
このように、第1受光素子851、第2受光素子852、および第3受光素子853は、それぞれR成分の光、B成分の光、およびG成分の光を受光する。また、第1受光素子851は、特定波長領域の一例である赤外領域の光も受光することができる。なお、第1受光素子851、第2受光素子852、および第3受光素子853は、一例としてCCD、CMOS等の撮像素子であってよい。そして、受光側励起光カットフィルタ部830の分光透過率、分光フィルタ部820が含むフィルタ要素の分光透過率、および撮像素子自体の分光感度の組合せによって、第1受光素子851、第2受光素子852、および第3受光素子853は、それぞれ線930、線910、および線920で示す分光感度特性を持つ。
図8は、光照射部150の構成の一例を示す。光照射部150は、発光部1010および光源側フィルタ部1020を有する。発光部1010は、励起光の波長領域、第1波長領域、第2波長領域、および第3波長領域を含む波長領域の光を発光する。本実施形態では、発光部1010は、一例としてキセノンランプであってよい。
図9は、光源側フィルタ部1020の構成の一例を示す。図9は、発光部1010から光源側フィルタ部1020に光が導かれる方向に見た場合の構造を示す。光源側フィルタ部1020は、照射光カットフィルタ部1120および励起光カットフィルタ部1110を含む。なお、発光制御部170は、光源側フィルタ部1020の中心軸を中心として、発光部1010が発光した光が進む方向に略垂直な面内で、光源側フィルタ部1020を回転させる。
励起光カットフィルタ部1110は、第1波長領域の光、第2波長領域の光、および第3波長領域の光を通過して、励起光の波長領域の光を実質的にカットする。また、照射光カットフィルタ部1120は、励起光の波長領域の光、第2波長領域の光、および第3波長領域の光を通過する。なお、照射光カットフィルタ部1120は、第1波長領域の光も実質的にカットすることが望ましい。なお、発光部1010からの光は、光源側フィルタ部1020の中心軸からずれた位置に導かれる。
したがって、発光部1010からの光が励起光カットフィルタ部1110に導かれているタイミングでは、発光部1010からの光のうち、励起光の波長領域の光は励起光カットフィルタ部1110により実質的にカットされ、第1波長領域の光、第2波長領域の光、および第3波長領域の光は励起光カットフィルタ部1110を通過する。したがって、このタイミングでは、第1波長領域の光、第2波長領域の光、および第3波長領域の光が実質的に被写体に照射されることになる。
一方、発光部1010からの光が照射光カットフィルタ部1120に導かれているタイミングでは、発光部1010からの光のうち、励起光の波長領域の光、第2波長領域の光、および第3波長領域の光が照射光カットフィルタ部1120を通過する。したがって、このタイミングでは、励起光、第2波長領域の光、および第3波長領域の光が実質的に被写体に照射されることになる。
なお、撮像部110は、撮像制御部160の制御により、可視光である第1波長領域の光、第2波長領域の光、および第3波長領域の光が照射されているタイミングで、照射された光を検体20が反射した反射光を受光する。そして、表面画像取得部214は、撮像部110が受光した光の受光量に基づき、表面画像の一例としての可視光による被写体画像を生成する。照射された光が実質的に白色光である場合には、表面画像は白色光画像ということができる。
また、撮像部110は、撮像制御部160の制御により、励起光、第2波長領域の光、および第3波長領域の光が照射されているタイミングで、被写体の内部のICGが発したルミネッセンス光と、検体20による第2波長領域の光および第3波長領域の光の反射光とを受光する。そして、オブジェクト画像取得部210は、第1受光素子851の受光量に応じた信号を第1受光素子851から取得して、第1受光素子851が受光したルミネッセンス光の受光量に基づきルミネッセンス光の被写体画像を生成する。また、表面画像取得部214は、第2受光素子852および第3受光素子853からの信号に基づく第2波長領域の光および第3波長領域の光の受光量と、他のタイミングにおいて第1受光素子851が受光した第1波長領域の光の受光量とに基づいて可視光の被写体画像を生成する。
図10は、撮像部110による撮像タイミングおよび画像処理部140が生成した画像の一例を示す。撮像制御部160は、時刻t1200、t1201、t1202、t1203、・・・において、オブジェクトからの光により撮像部110に撮像させる。また、発光制御部170は、撮像制御部160によるタイミング制御により、時刻t1200、t1201、およびt1203を含む第1のタイミングにおいて、発光部1010が発光した光を励起光カットフィルタ部1110を通じて被写体に照射させる。このように、発光制御部170による制御により、光照射部150は第1のタイミングにおいて、第1波長領域、第2波長領域、および第3波長領域を含む波長領域の光を被写体に照射する。
そして、撮像制御部160は、第1のタイミングにおいて、第1波長領域、第2波長領域、および第3波長領域を含む波長領域の光を被写体に照射して被写体から反射した反射光のうち、第1波長領域の光を第1受光素子851に受光させ、反射光のうち第2波長領域の光を第2受光素子852に受光させ、反射光のうち第3波長領域の光を第3受光素子853に受光させる。このように、撮像制御部160は、第1のタイミングにおいて、被写体からの第1波長領域の光を第1受光素子851に受光させ、被写体からの第2波長領域の光を第2受光素子852に受光させ、被写体からの第3波長領域の光を第3受光素子853に受光させる。
また、時刻t1202を含む第2のタイミングにおいては、発光制御部170は、撮像制御部160によるタイミング制御により、発光部1010が発光した光を照射光カットフィルタ部1120を通じて被写体に照射させる。このように、発光制御部170による制御により、光照射部150は第2のタイミングにおいて、励起光、第2波長領域、および第3波長領域を含む波長領域の光を被写体に照射する。
そして、第2のタイミングにおいては、撮像制御部160は、被写体が発光した特定波長領域の光を、第1受光素子851に受光させる。すなわち、撮像制御部160は、第2のタイミングにおいて、被写体からの特定波長領域の光を第1受光素子851に受光させる。
このように、制御部105は、第2のタイミングにおいて、第1波長領域の光を被写体に照射せずに、励起光、第2波長領域の光、および第3波長領域の光を被写体に照射して、被写体が発光した特定波長領域の光を第1受光素子851に受光させるとともに、被写体から反射した反射光のうち第2波長領域の光を第2受光素子852に受光させ、反射光のうち第3波長領域の光を第3受光素子853に受光させる。なお、励起光の波長領域は、第1波長領域、第2波長領域、および第3波長領域のいずれとも異なる波長領域であって、第1波長領域、第2波長領域、および第3波長領域に含まれない波長領域を含む。
以上説明したように、制御部105は、第1受光素子851、第2受光素子852、および第3受光素子853に受光させる光のスペクトルを制御する。そして、画像処理部140は、それぞれのタイミングにおいて受光素子が受光した受光量に基づき、各種の波長領域の光による画像を生成する。
具体的には、表面画像取得部214は、時刻t1200、時刻t1201、および時刻t1203のそれぞれにより代表されるタイミングにおいて受光素子が受光した受光量に基づいて、被写体画像1220a、被写体画像1220b、および被写体画像1220dを生成する。被写体画像1220a、被写体画像1220b、および被写体画像1220dは、実質的には、白色光を照射した場合に得られる可視光画像とみなすことができる。被写体画像1220aは血管画像1222aおよび血管画像1224aを含み、被写体画像1220bは血管画像1222bおよび血管画像1224bを含み、被写体画像1220dは血管画像1222dおよび血管画像1224dを含む。
なお、被写体画像1220a、被写体画像1220b、および被写体画像1220dは、血管画像の他に、物質の表面の画像である表面像を含む。このように、表面画像取得部214は、第1のタイミングにおいて第1受光素子851が受光した第1波長領域の光、第1のタイミングにおいて第2受光素子852が受光した第2波長領域の光、および第1のタイミングにおいて第3受光素子853が受光した第3波長領域の光により、第1のタイミングにおける被写体の表面画像を生成する。
また、オブジェクト画像取得部210は、時刻t1202により代表されるタイミングにおいて受光素子が受光した受光量に基づいて、血管画像1222c、血管画像1224c、および血管画像1226cを含む被写体画像1220cを生成する。被写体画像1220cは、被写体からのルミネッセンス光による被写体の画像とみなすことができる。なお、被写体画像1220cは、オブジェクト画像補正部220による上述のぼけ補正処理の対象の画像となる。
また、被写体画像像生成部280は、時刻t1201に代表されるタイミングにおいて第1受光素子851が受光した受光量、時刻t1202に代表されるタイミングにおいて第2受光素子852および第3受光素子853が受光した受光量に基づいて、血管画像1232cおよび血管画像1234cを含む被写体画像1230cを生成する。被写体画像1230cは、時刻t1202に代表されるタイミングにおいて取得されるべき、可視光による被写体画像とみなすことができる。
このように、画像処理部140は、第2のタイミングにおいて第2受光素子852が受光した第2波長領域の光、および、第1のタイミングにおいて第1受光素子851が受光した第1波長領域の光により、第2のタイミングにおける可視光による被写体画像を生成する。したがって、画像処理部140は、ルミネッセンス光画像を撮像しているタイミングにおいても、可視光による画像を生成することができる。出力部180は、被写体画像1220a、被写体画像1220b、被写体画像1230c、被写体画像1220d、・・・を連続的に表示することによって、コマ落ちのない映像を提供することができる。
検体20が人体のような赤い血液を含む生体である場合、可視光画像におけるR成分の空間周波数成分は、G成分およびB成分の空間周波数成分より小さい場合が多い。このため、R成分がコマ落ちしたことによる映像の劣化度は、G成分およびB成分がコマ落ちする場合に比べると小さい場合が多い。このため、G成分およびB成分がコマ落ちする場合よりも、映像における見た目のギクシャク感を低減することができる。したがって、画像処理システム10によると、映像内容として実質的にコマ落ちのない可視光映像を提供することができる場合がある。
上記のように、画像処理システム10によると、赤外領域の励起光により検体20から生じた赤外領域のルミネッセンス光により、被写体画像1220cを撮像することができる。可視光より波長が長い励起光は、可視光に比べて物質によって吸収されにくいので、可視光に比べて物質の深く(たとえば1cm程度)まで侵入して、検体20にルミネッセンス光を生じさせる。また、ルミネッセンス光は、励起光よりさらに波長が長いので、物質表面まで達し易い。このため、画像処理システム10によると、可視光によって得られた被写体画像1220a、被写体画像1220b、および被写体画像1220dには含まれない、深層の血管画像1226dを含む被写体画像1220cを得ることができる。
なお、出力部180は、被写体画像1220cと、被写体画像1220cが撮像されたタイミングの近傍のタイミングで撮像された被写体画像1220bまたは被写体画像1220dとを合成した合成画像を生成して外部に出力してよい。例えば、出力部180は当該合成画像を表示してよい。また、出力部180は、被写体画像1220cを、被写体画像1220bまたは被写体画像1220dに対応づけて記録してもよい。
また、制御部105は、可視光画像を撮像するタイミングでは、発光部1010からの光のうち、励起光の波長領域およびルミネッセンス光の波長領域の光をカットして被写体に照射する。このため、画像処理システム10によると、可視光画像に物質内部の血管画像を含まない、物質表面の観察に適した物質表面の画像を提供することができる。
図11は、動きが補正された表面画像の生成を説明する図である。図10の説明においては、説明を簡単にするために、内視鏡100の先端部102の動き、検体20の動きなど、画像の大きな時間変化をもたらす要因がないものとして、時刻t1201のタイミングで第1受光素子851の受光量に応じたR信号と、時刻t1202のタイミングで第2受光素子852および第3受光素子853の受光量にそれぞれ応じたB信号およびG信号を多重化して、被写体画像1230cを生成する処理の一例を説明した。この処理では、内視鏡100の先端部102の動き、検体20の動きなどに起因して、可視光画像においてR信号と他の色の信号との間にずれが生じる場合がある。
図11および図12に関連して、上記の動きなどによる可視光画像への影響を補正するための画像処理部140の動作および機能、特に動き特定部270および被写体画像像生成部280の動作を中心に説明する。
動き特定部270は、複数のタイミングにおけるB信号による画像に基づいて、当該画像におけるオブジェクトの動きを特定する。ここで、オブジェクトの動きは、検体20自身の動き、内視鏡100の先端部102の動き、撮像部110のズーム値の時間変化など、画像の時間変化をもたらす動きを含む。また、内視鏡100の先端部102の動きは、撮像部110の撮像位置の時間変化をもたらす先端部102の位置の時間変化、撮像部110の撮像方向の時間変化をもたらす先端部102の向きの時間変化を含む。
ここで、動き特定部270は、時刻t1201および時刻t1202におけるB信号の画像に基づいて、オブジェクトの動きを特定する。例えば、動き特定部270は、複数の画像からそれぞれ抽出されたオブジェクトをマッチングすることにより、オブジェクトの動きを特定してよい。
被写体画像生成部280は、当該動きに基づいて時刻t1201のタイミングでのR信号を補正して、時刻t1202のタイミングで得られるべきR信号を生成する。そして、被写体画像生成部280は、補正により生成されたR信号、時刻t1202のタイミングでのB信号、時刻t1202のタイミングでのG信号を多重化して、時刻t1202での表面画像を生成する。
画像1321bは、時刻t1201における第1受光素子851からのR信号の画像とする。画像1322bおよび画像1322cは、それぞれ時刻t1201および時刻t1202における第2受光素子852からのB信号の画像とする。画像1323bおよび画像1323cは、それぞれ時刻t1201および時刻t1202における第3受光素子853からのG信号の画像とする。
ここでは、動き特定部270は、画像1322bおよび画像1322cの画像内容に基づいて動きを特定する。具体的には、動き特定部270は、画像1322bおよび画像1322cから、同じ被写体を示すオブジェクトを抽出する。本図の例では、動き特定部270は、画像1322bおよび画像1322cから、それぞれオブジェクト1352bおよびオブジェクト1352cを抽出する。
動き特定部270は、オブジェクト1352bおよびオブジェクト1352cのそれぞれの位置の差を算出する。本図の例では、説明を簡単にすべく、当該位置の差が画像上のy方向に生じているとして、動き特定部270は、オブジェクト1352bの位置とオブジェクト1352cの位置との位置差Δy1を算出する。
被写体画像生成部280は、算出した位置差Δy1に応じた量だけ画像1321bをy方向にずらすことによって、画像1321cを生成する。被写体画像生成部280は、画像1321c、画像1322c、画像1323cを合成することにより、表面画像1330cを生成する。なお、ここでいう合成は、画像1321cを示すR信号、画像1322cを示すB信号、画像1323cを示すG信号を、所定の重みづけで多重化する処理を含む。
なお、上記の説明では、B信号の画像1322を用いて動きを特定する場合について説明したが、同様にして、G信号の画像1323を用いて動きを特定することもできる。動き特定部270が動きを特定するためにいずれの波長領域の画像を用いるかは、撮像された画像のコントラストに基づいて決定してよい。例えば、動き特定部270は、コントラストがより大きい画像をより優先して用いて、動きを特定してよい。表面の微細構造の像が明瞭であるなど、微細構造の像を動き特定用のオブジェクトとして用いることができる場合には、B信号の画像を用いて動きをより正確に特定することができる場合がある。また、表面のより大きな凹凸構造の像が明瞭であるなど、凹凸構造の像を動き特定用のオブジェクトとして用いることができる場合には、G信号の画像を用いて動きをより正確に特定することができる場合がある。
また、被写体画像生成部280は、R信号の画像に対する動きの補正量を、画像領域毎に異ならせてよい。例えば、撮像部110の撮像方向が被写体表面に垂直であり、内視鏡100の先端部102が被写体表面に水平に移動しているとすると、オブジェクトの移動量はどの画像領域でも等しいとみなすことができる。一方、例えば撮像部110の撮像方向が被写体表面に垂直でない場合には、先端部102から遠方の領域が撮像された画像領域における動き量は、先端部102に近い領域が撮像された画像領域より動き量が小さくなる場合がある。
被写体画像生成部280が、R信号の画像に対する動きの補正量を画像領域毎に算出するためには、被写体表面と撮像部110との間の位置関係が既知または推定できれば、当該位置関係および画像領域の位置に基づいて、動きの補正量を算出することができる。なお、被写体画像生成部280は、先端部102の位置・向きを制御する制御値、撮像部110のズーム値を制御する制御値など、画像の時間変化をもたらす内視鏡100を操作する制御値を取得して、当該制御値に基づき、R信号の画像に対する動きの補正量を算出してもよい。
他にも、動き特定部270はオブジェクトの動きを画像領域毎に算出してもよい。被写体画像生成部280は、画像領域毎のオブジェクトの動きに基づき、各画像領域の画像に対する動きの補正量を算出してもよい。
なお、動き特定部270は、画像領域毎に動きを特定する場合には、いずれの波長領域の光による画像を用いて動きを特定するかを、画像領域毎に決定してよい。例えば、動き特定部270は、画像領域毎に各画像のコントラストを算出する。そして、動き特定部270は、各画像領域について、より大きいコントラストが算出された波長領域の光による複数の画像を他の波長の画像より優先して選択して、選択した複数の画像を用いてオブジェクトの動きを特定してよい。
以上図10および図11に関連して説明したように、動き特定部270は、第1のタイミングにおいて第2受光素子852が受光した第2波長領域の光による画像、および、第2のタイミングにおいて複数の第2受光素子852が受光した第2波長領域の光による画像に基づいて、第1のタイミングおよび第2のタイミングの間における画像上のオブジェクトの動きを特定する。そして、被写体画像生成部280は、第1のタイミングにおいて第1受光素子851が受光した第1波長領域の光、第2のタイミングにおいて第2受光素子852が受光した第2波長領域の光、および動きに基づいて、第2のタイミングにおける表面画像を生成する。
図12は、動きが補正された表面画像の生成の他の例を説明する図である。本図で説明する例では、動き特定部270は、時刻t1200のタイミングで得られたR信号の画像1421aおよび時刻t1201のタイミングで得られたR信号の画像1421bを用いて、オブジェクトの動きを特定する。図11に関連して説明した方法と同様に、動き特定部270は、画像1421aおよび画像1421bから、同じ被写体を示すオブジェクトを抽出する。本図の例では、動き特定部270は、画像1421aおよび画像1421bから、それぞれオブジェクト1451aおよびオブジェクト1451bを抽出する。
そして、動き特定部270は、オブジェクト1451aおよびオブジェクト1451bのそれぞれの位置の差を算出する。本図の例でも、説明を簡単にすべく当該位置差が画像上のy方向に生じているとして、動き特定部270は、オブジェクト1451aの位置とオブジェクト1451bの位置との位置差Δy2を算出する。そして、図11に関連して説明した方法と同様に、被写体画像生成部280は、算出した位置差Δy2に応じた量だけ画像1421bをy方向にずらすことによって、画像1421cを生成する。被写体画像像生成部280は、画像1421c、時刻t1202における第3受光素子853からのG信号の画像である画像1422c、および、時刻t1202における第3受光素子853からのG信号の画像である画像1423cを合成することにより、表面画像1430cを生成する。
なお、上記においては画像1421aおよび画像1421bを用いて動きを特定したが、動き特定部270は、画像1421bと、時刻t1203で得られたR信号の画像を用いて、動きを特定してもよい。このように、動き特定部270は、動きが補正されたR信号の画像を生成する対象時刻である時刻t1201の前後の時刻のタイミングを含む複数のタイミングで得られた画像から、動きを特定してよい。可視光画像の表示をある程度遅延させることが許容できる場合には、後のタイミングの画像も用いることで、動きの特定精度をより高めることができる場合がある。
以上図12に関連して説明したように、動き特定部270は、第1のタイミングを含む第2のタイミング以外の複数のタイミングにおいて第1受光素子851が受光した第1波長領域の光による複数の画像に基づいて、複数のタイミングの間における画像上のオブジェクトの動きを特定する。そして、被写体画像生成部280は、第1のタイミングにおいて第1受光素子851が受光した第1波長領域の光、第2のタイミングにおいて第2受光素子852が受光した第2波長領域の光、および動きに基づいて、第2のタイミングにおける表面画像を生成する。
なお、図11および図12に関連して、動きの特定処理の一例として、動き特定部270が2のタイミングで撮像された画像を用いて動きを特定する処理を説明したが、動き特定部270は、3以上のタイミングで撮像された画像を用いて動きを特定してもよい。また、動き特定部270は、B信号の画像およびG信号の画像に加えて、さらにR信号の画像の中から、動きを特定するために用いる波長領域の画像を、画像領域毎に選択することができる。
なお、オブジェクト画像補正部220は、被写体画像1220cに対して上述のぼけ補正処理を施す場合に、動き特定部270が特定した動きに基づき、被写体画像1220cに含まれる血管画像1222cおよび血管画像1224cが、他の被写体画像1220に含まれる血管画像1222および血管画像1224のいずれに対応しているかを特定することができる。
また、第2受光素子852および第3受光素子853は、当該ルミネッセンス光の波長領域の光に感度を有しており、時刻t1202に代表されるタイミングにおいて、被写体からのルミネッセンス光を受光してよい。この場合、分光フィルタ部820、および受光側励起光カットフィルタ部830は、ルミネッセンス光の波長領域の光を透過してよい。
この場合、オブジェクト画像取得部210は、第1受光素子851、第2受光素子852、第3受光素子853のうち、近傍の複数の受光素子からの画像信号を加算する画素加算処理をすることにより、オブジェクト画像を生成してよい。なお、受光素子からの画像信号とは、各受光素子の受光量に応じた電荷量を示す信号であってよい。当該電荷量を示す信号は、各受光素子の受光量に応じたアナログ信号であってよく、アナログ信号をA/D変換して得られたデジタル信号であってもよい。いずれの画素加算処理によっても、信号成分を増加することができる。一方、画素加算処理によるランダムなノイズ成分の増加量は、画素加算処理による信号成分の増加量に比べて小さい。このため、画素加算しない場合に比べて、S/N比を向上することができる。
また、動き特定部270は、図11および図12に関連して説明した方法と同様にして、時刻t1202に代表されるタイミング以外の複数のタイミングで得られたR信号、G信号、またはB信号のいずれかを用いて動きを特定することができる。そして、被写体画像像生成部280は、当該動きに基づき、時刻t1202に代表されるタイミング以外のタイミングで得られた可視光の被写体画像を補正することにより、時刻t1202に代表されるタイミングにおいて得られるべき可視光の被写体画像を生成することができる。
なお、上記の説明において、光照射部150の構成として、可視光の波長領域および励起光の波長領域を含む光を発光することができる一の光源および回転フィルタを用いた構成を例示した。その他にも、光照射部150は、異なる波長領域の光を発光する複数の発光素子の発光を制御することにより、励起光を含む光および可視光を時分割で発光することもできる。例えば、可視光領域の光を発光する発光素子としてはLEDなどの半導体素子を例示することができる。また、励起光を発光する発光素子としては、半導体レーザなどの半導体素子を例示することができる。また、励起されて蛍光などのルミネッセンス光を発光する蛍光体を、発光素子として用いることもできる。
なお、発光制御部170は、複数の発光素子のそれぞれの発光強度を各タイミングで制御することにより、励起光を含む光および可視光を時分割で発光することもできる。「複数の発光素子のそれぞれの発光強度を各タイミングで制御する」とは、発光させる発光素子の組み合わせを各タイミングで異ならせる制御を含む。
また、発光素子は、内視鏡100の先端部102に設けられてもよい。なお、発光素子は、電気励起により発光する発光素子であってよく、光励起により発光する発光素子であってもよい。発光素子が光励起により発光する発光素子である場合、光照射部150は、当該発光素子を励起する励起用の光を発光する励起部と、当該発光素子とを含んでよい。ここで当該発光素子は、励起用の光の波長に応じて異なるスペクトルの光を発光してよい。この場合、発光制御部170は、当該励起部が発光する励起用の光の波長を各タイミングで制御することにより、照射光のスペクトルを制御することができる。また、同一の励起用の光により各発光素子が発光する光のスペクトルが、複数の発光素子の間で異なってもよい。また、励起用の光のうち、当該発光素子を透過した光が、照射光として被写体に照射されてもよい。
なお、上記の説明においては、撮像部110において受光側に分光フィルタ部820を有する構成を例に挙げて説明した。その他の構成としては、撮像部110は分光フィルタ部820を有してなくてよい。この場合、光照射部150は、Rの波長領域の光、Gの波長領域の光、Bの波長領域の光、励起光の波長領域の光を時分割で照射してよい。可視光が照射されているタイミングにおける複数の受光素子からの信号を多重化することにより、表面画像取得部214は可視光の被写体画像を生成することができる。また、オブジェクト画像取得部210は、励起光が照射されているタイミングにおける受光素子からの信号によりルミネッセンス光の被写体画像を生成することができる。
なお、Rの波長領域の光、Gの波長領域の光、Bの波長領域の光、励起光の波長領域の光を時分割で照射するための光照射部150の構成としては、上述したような可視光および励起光の波長領域を含む波長領域の光を発光することができる一以上の光源と、各波長領域の光を主として選択的に透過する複数のフィルタ部を有する回転フィルタを用いた構成を用いることができる。その他にも、上述したような異なる波長領域の光を発光する複数の発光素子の発光を制御する構成を用いることもできる。
また、各波長領域の光を時分割で照射する構成においても、動き特定部270は、図11および図12に関連して説明した方法と同様にして、複数のタイミングにおけるいずれかの色成分の画像信号を用いて動きを特定することができる。そして、被写体画像像生成部280は、例えばRの波長領域の光が照射されているタイミングにおけるR信号の画像および当該動きに基づき、Rの波長領域の光が照射されていない他のタイミングにおいて得られるべきR信号の画像を生成することができる。Gの波長領域の光が照射されていないタイミングにおけるG信号の画像、Bの波長領域の光が照射されていないタイミングにおけるB信号の画像についても同様にして生成することで、被写体画像像生成部280は、各タイミングにおいて得られるべき可視光の表面画像を生成することができる。
図13は、本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。本実施形態に係る画像処理システム10は、CPU周辺部、入出力部、およびレガシー入出力部を備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有する。
ホスト・コントローラ1582は、RAM1520と、高転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像処理システム10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理システム10が起動時に実行するブート・プログラム、画像処理システム10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
RAM1520を介してハードディスクドライブ1540に提供される通信プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。通信プログラムは、記録媒体から読み出され、RAM1520を介して画像処理システム10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像処理システム10にインストールされて実行される通信プログラムは、CPU1505等に働きかけて、画像処理システム10を、図1から図12にかけて説明した画像処理システム10が備える各構成要素として機能させる。例えば、当該プログラムは、画像処理システム10を、図1から図12にかけて説明した撮像部110、画像処理部140、出力部180、光照射部150、および制御部105等として機能させる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
一実施形態における画像処理システム10の一例を検体20とともに示す図である。 画像処理部140のブロック構成の一例を示す図である。 検体20の内部で光が反射等する様子を模式的に示す図である。 検体20の内部からの光がぼける様子を模式的に示す図である。 オブジェクト画像補正部220によって補正された血管像560および血管像570の一例を示す図である。 撮像部110の構成の一例を示す図である。 第1受光素子851、第2受光素子852、および第3受光素子853の分光感度特性の一例を示す図である。 光照射部150の構成の一例を示す図である。 光源側フィルタ部1020の構成の一例を示す図である。 撮像部110による撮像タイミングおよび画像処理部140が生成した画像の一例を示す図である。 動きが補正された表面画像の生成を説明する図である 動きが補正された表面画像の生成の他の例を説明する図である。 本実施形態に係る画像処理システム10のハードウェア構成の一例を示す図である。
符号の説明
10 画像処理システム
20 検体
100 内視鏡
102 先端部
105 制御部
110 撮像部
112 対物レンズ
114、128 線
120 ライトガイド
124 出射口
126 出射口
130 鉗子口
135 鉗子
138 ノズル
140 画像処理部
150 光照射部
160 撮像制御部
170 発光制御部
180 出力部
190 ICG注入部
210 オブジェクト画像取得部
212 光画像取得部
214 表面画像取得部
216 オブジェクト領域特定部
220 オブジェクト画像補正部
222 補正テーブル
224 補正値変換部
226 オブジェクト像補正部
230 深さ特定部
240 距離情報特定部
260 表示制御部
410、420 位置
500 画像
510、520、560、570 血管像
820 分光フィルタ部
830 受光側励起光カットフィルタ部
851 第1受光素子
852 第2受光素子
853 第3受光素子
930、910、920 線
1010 発光部
1020 光源側フィルタ部
1110 励起光カットフィルタ部
1120 照射光カットフィルタ部
1110 励起光カットフィルタ部
1020 光源側フィルタ部
1220、1230 被写体画像
1222、1224、1226、1232、1234 血管画像
1321、1321、1322、1323 画像
1330 表面画像
1352 オブジェクト
1421、1422、1423 画像
1430 表面画像
1451 オブジェクト
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM

Claims (18)

  1. 物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部と、
    前記物体の表面から前記オブジェクトまでの深さを特定する深さ特定部と、
    前記オブジェクト画像を撮像した撮像部から前記物体の表面までの距離情報を特定する距離情報特定部と、
    前記距離情報および前記深さに応じて、前記オブジェクト画像を補正するオブジェクト画像補正部と
    を備える画像処理システム。
  2. 前記オブジェクト画像補正部は、前記距離情報および前記深さに応じて、前記オブジェクト画像の広がりを補正する
    請求項1に記載の画像処理システム。
  3. 前記オブジェクト画像補正部は、前記距離情報および前記深さに応じて、前記オブジェクトから前記表面までの間で前記オブジェクトからの光が散乱されることによる前記オブジェクト画像の広がりを補正する
    請求項2に記載の画像処理システム。
  4. 前記表面からオブジェクトまでの深さに対応付けて、前記オブジェクト画像の広がりを補正する補正値を格納する補正テーブル
    をさらに備え、
    前記オブジェクト画像補正部は、前記距離情報、前記深さ特定部が特定した前記深さ、および前記補正値に基づいて、前記オブジェクト画像の広がりを補正する
    請求項2または3に記載の画像処理システム。
  5. 前記補正テーブルは、表面からオブジェクトまでの深さに対応づけて、実空間上における前記補正値を格納しており、
    前記オブジェクト画像補正部は、
    実空間上における前記補正値を、前記距離情報に応じて前記オブジェクト画像上における補正値に変換する補正値変換部と、
    前記補正値変換部により得られた前記オブジェクト画像上における補正値に基づいて、前記オブジェクト画像の広がりを補正するオブジェクト像補正部と
    を有する請求項4に記載の画像処理システム。
  6. 前記オブジェクト画像補正部は、前記深さが深いほど、前記オブジェクト画像の広がりをより大きく補正する
    請求項2乃至5のいずれかに記載の画像処理システム。
  7. 前記オブジェクト画像補正部は、前記距離情報が示す距離が短いほど、前記オブジェクト画像の広がりをより大きく補正する
    請求項2乃至6のいずれかに記載の画像処理システム。
  8. 前記オブジェクトからの、異なる複数の波長領域に属する光によってそれぞれ撮像された複数の光画像を取得する光画像取得部
    をさらに備え、
    前記深さ特定部は、前記複数の光画像の画像内容に基づいて、前記深さを特定する
    請求項2乃至7のいずれかに記載の画像処理システム。
  9. 前記複数の光画像ごとに前記オブジェクトの画像領域を特定するオブジェクト領域特定部
    をさらに備え、
    前記深さ特定部は、前記オブジェクト領域特定部が特定した画像領域における輝度に基づいて、前記深さを特定する
    請求項8に記載の画像処理システム。
  10. 前記光画像取得部は、前記オブジェクトの内部のルミネッセンス物質が発した光を含む異なる複数の波長領域に属する光によって前記複数の光画像を取得する
    請求項8または9に記載の画像処理システム。
  11. 前記光画像取得部は、前記オブジェクトから反射した光による前記複数の光画像を取得する
    請求項8または9に記載の画像処理システム。
  12. 前記光画像取得部は、前記オブジェクトに白色光を照射して前記オブジェクトから反射した光に含まれる異なる複数の波長領域に属する光によって、前記複数の光画像を取得する
    請求項11に記載の画像処理システム。
  13. 前記光画像取得部は、異なる複数の波長領域の光を前記オブジェクトに照射して前記オブジェクトから反射した光によって、前記複数の光画像を取得する
    請求項11に記載の画像処理システム。
  14. 前記オブジェクト画像補正部により補正された前記オブジェクト画像の表示を、前記深さに応じて制御する表示制御部と
    をさらに備える請求項10に記載の画像処理システム。
  15. 前記表示制御部は、前記オブジェクト画像補正部により補正された前記オブジェクト画像の明るさまたは色を、前記深さに応じて変化させて表示させる
    請求項14に記載の画像処理システム。
  16. 前記物体の表面に向けて前記撮像部の撮像方向に略平行に照射された光による前記物体の表面の像である表面像を含む画像を取得する表面画像取得部
    をさらに備え、
    前記距離情報特定部は、前記表面画像取得部が取得した画像に含まれる前記表面像の大きさに基づいて、前記距離情報を特定する
    請求項1乃至15のいずれかに記載の画像処理システム。
  17. 物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得段階と、
    前記物体の表面から前記オブジェクトまでの深さを特定する深さ特定段階と、
    前記オブジェクト画像を撮像した撮像部から前記物体の表面までの距離情報を特定する距離情報特定段階と、
    前記距離情報および前記深さに応じて、前記オブジェクト画像を補正する画像補正段階と
    を備える画像処理方法。
  18. 画像処理システム用のプログラムであって、前記画像処理システムを、
    物体の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部、
    前記物体の表面から前記オブジェクトまでの深さを特定する深さ特定部、
    前記オブジェクト画像を撮像した撮像部から前記物体の表面までの距離情報を特定する距離情報特定部、
    前記距離情報および前記深さに応じて、前記オブジェクト画像を補正する画像補正部
    として機能させるプログラム。
JP2008309067A 2007-12-05 2008-12-03 画像処理システムおよびプログラム Active JP5257891B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008309067A JP5257891B2 (ja) 2007-12-05 2008-12-03 画像処理システムおよびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007314496 2007-12-05
JP2007314496 2007-12-05
JP2008309067A JP5257891B2 (ja) 2007-12-05 2008-12-03 画像処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2009153970A true JP2009153970A (ja) 2009-07-16
JP5257891B2 JP5257891B2 (ja) 2013-08-07

Family

ID=40303428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008309067A Active JP5257891B2 (ja) 2007-12-05 2008-12-03 画像処理システムおよびプログラム

Country Status (3)

Country Link
US (1) US8358821B2 (ja)
EP (1) EP2067432A3 (ja)
JP (1) JP5257891B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152880A (ja) * 2014-02-19 2015-08-24 オリンパス株式会社 画像処理装置及び顕微鏡システム
WO2022181263A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 医療用画像処理装置、医療用画像処理方法、及びプログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7667180B2 (en) * 2007-11-07 2010-02-23 Fujifilm Corporation Image capturing system, image capturing method, and recording medium
JP5329177B2 (ja) * 2007-11-07 2013-10-30 富士フイルム株式会社 撮像システムおよびプログラム
JP5267143B2 (ja) * 2008-03-27 2013-08-21 富士フイルム株式会社 撮像装置およびプログラム
TR201901658T4 (tr) 2008-05-20 2019-02-21 Univ Health Network Floresan bazli görüntüleme ve i̇zleme i̇çi̇n ci̇haz ve metot
JP5250342B2 (ja) * 2008-08-26 2013-07-31 富士フイルム株式会社 画像処理装置およびプログラム
US8300093B2 (en) * 2009-01-12 2012-10-30 Fujifilm Corporation Endoscope image processing method and apparatus, and endoscope system using the same
US8743220B2 (en) 2009-09-14 2014-06-03 Cognex Corporation System and method for acquiring a still image from a moving image
US8542281B2 (en) 2009-09-14 2013-09-24 Cognex Corporation System and method for acquiring a still image from a moving image
JP5681915B2 (ja) * 2010-03-27 2015-03-11 旭光電機株式会社 血液採取装置
JP5395725B2 (ja) * 2010-04-05 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5371920B2 (ja) * 2010-09-29 2013-12-18 富士フイルム株式会社 内視鏡装置
JP5715372B2 (ja) * 2010-10-15 2015-05-07 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び内視鏡装置
JP2012090889A (ja) * 2010-10-28 2012-05-17 Olympus Corp 蛍光観察装置
US20120262596A1 (en) * 2011-04-18 2012-10-18 Infineon Technologies Ag Image focusing devices and methods for controlling an image focusing device
JP5948203B2 (ja) * 2011-10-12 2016-07-06 富士フイルム株式会社 内視鏡システム及びその作動方法
DE102011122602A1 (de) * 2011-12-30 2013-07-04 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
JP5570674B2 (ja) 2012-04-10 2014-08-13 株式会社国際電気通信基礎技術研究所 物体観測装置、物体観測方法、および記録媒体
JP6128888B2 (ja) * 2013-02-27 2017-05-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6168876B2 (ja) 2013-06-24 2017-07-26 オリンパス株式会社 検出装置、学習装置、検出方法、学習方法及びプログラム
CN106714670A (zh) 2014-07-24 2017-05-24 大学健康网络 用于诊断目的的数据的收集和分析
JP6243364B2 (ja) * 2015-01-26 2017-12-06 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
US10058256B2 (en) * 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
EP3437545A4 (en) * 2016-03-31 2019-08-21 Sony Corporation CONTROL DEVICE, ENDOSCOPE IMAGE CAPTURE DEVICE, CONTROL METHOD, PROGRAM, AND ENDOSCOPE SYSTEM
US10515281B1 (en) 2016-12-29 2019-12-24 Wells Fargo Bank, N.A. Blood vessel image authentication
KR102315341B1 (ko) * 2017-03-17 2021-10-20 삼성전자주식회사 객체의 구성 정보에 대응하는 그래픽 효과를 제공하기 위한 방법 및 그 전자 장치
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11589819B2 (en) 2019-06-20 2023-02-28 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a laser mapping imaging system
US11550057B2 (en) * 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
DE102022126995A1 (de) * 2022-10-14 2024-04-25 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung und Verfahren zur medizinischen Bildgebung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541901A (ja) * 1991-08-09 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH10165365A (ja) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd 内視鏡
JP2003215469A (ja) * 2002-01-18 2003-07-30 Olympus Optical Co Ltd 内視鏡装置
JP2005323758A (ja) * 2004-05-13 2005-11-24 Olympus Corp 電子内視鏡装置
JP2006133856A (ja) * 2004-11-02 2006-05-25 Kao Corp 画像形成方法
JP2009153969A (ja) * 2007-12-05 2009-07-16 Fujifilm Corp 位置特定システム、位置特定方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807487B2 (ja) * 1988-11-02 1998-10-08 オリンパス光学工業株式会社 内視鏡装置
JPH07250538A (ja) 1994-03-15 1995-10-03 Mitsubishi Agricult Mach Co Ltd 収穫対象物の測定処理装置および方法
AU5665996A (en) * 1995-05-16 1996-11-29 Afmc Lo/Jaz System and method for enhanced visualization of subcutaneous structures
JP2000230807A (ja) 1999-02-10 2000-08-22 Micro Research:Kk 平行光を利用した距離測定方法とその装置
JP3586157B2 (ja) * 1999-12-20 2004-11-10 オリンパス株式会社 被検体観察装置
US7383076B2 (en) * 2000-11-27 2008-06-03 The General Hospital Corporation Fluorescence-mediated molecular tomography
US7403812B2 (en) * 2001-05-17 2008-07-22 Xenogen Corporation Method and apparatus for determining target depth, brightness and size within a body region
US6956602B2 (en) * 2001-09-27 2005-10-18 Fujinon Corporation Electronic endoscope for highlighting blood vessel
US7616985B2 (en) * 2002-07-16 2009-11-10 Xenogen Corporation Method and apparatus for 3-D imaging of internal light sources
US7599731B2 (en) * 2002-07-16 2009-10-06 Xenogen Corporation Fluorescent light tomography
JP2007314496A (ja) 2006-05-23 2007-12-06 Hiroshima Kasei Ltd ジェルを製造する方法およびジェル

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0541901A (ja) * 1991-08-09 1993-02-23 Olympus Optical Co Ltd 三次元計測用内視鏡装置
JPH10165365A (ja) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd 内視鏡
JP2003215469A (ja) * 2002-01-18 2003-07-30 Olympus Optical Co Ltd 内視鏡装置
JP2005323758A (ja) * 2004-05-13 2005-11-24 Olympus Corp 電子内視鏡装置
JP2006133856A (ja) * 2004-11-02 2006-05-25 Kao Corp 画像形成方法
JP2009153969A (ja) * 2007-12-05 2009-07-16 Fujifilm Corp 位置特定システム、位置特定方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152880A (ja) * 2014-02-19 2015-08-24 オリンパス株式会社 画像処理装置及び顕微鏡システム
WO2022181263A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 医療用画像処理装置、医療用画像処理方法、及びプログラム

Also Published As

Publication number Publication date
EP2067432A3 (en) 2012-12-26
US20090147998A1 (en) 2009-06-11
JP5257891B2 (ja) 2013-08-07
US8358821B2 (en) 2013-01-22
EP2067432A2 (en) 2009-06-10

Similar Documents

Publication Publication Date Title
JP5257891B2 (ja) 画像処理システムおよびプログラム
JP5278854B2 (ja) 画像処理システムおよびプログラム
JP5376206B2 (ja) 位置特定システムおよびプログラム
JP5329177B2 (ja) 撮像システムおよびプログラム
US20090114799A1 (en) Image capturing system, image capturing method, and recording medium
JP5435532B2 (ja) 画像処理システム
US8295917B2 (en) Fluorescence endoscope and fluorometry method
KR20200104372A (ko) 광 결핍 환경에서의 초분광 이미징
EP2520211B1 (en) Fluorescence endoscope device
US8169471B2 (en) Image capturing system, image capturing method, and computer readable medium
US20090124854A1 (en) Image capturing device and image capturing system
JP5246643B2 (ja) 撮像システムおよびプログラム
JP5349899B2 (ja) 撮像システムおよびプログラム
US20090143671A1 (en) Position identifying system, position identifying method, and computer readable medium
JP5087771B2 (ja) 撮像システム、内視鏡システム、およびプログラム
JP5196435B2 (ja) 撮像デバイスおよび撮像システム
JP2009131616A (ja) 撮像システム、撮像方法、およびプログラム
JP6535701B2 (ja) 撮像装置
JP5130899B2 (ja) 撮像システムおよびプログラム
JP2009136395A (ja) 位置特定システム、位置特定方法、およびプログラム
JP2009136327A (ja) 位置特定システム、位置特定方法、およびプログラム
JP2009136394A (ja) 位置特定システム、位置特定方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5257891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250