JP2017536171A - 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法 - Google Patents

軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法 Download PDF

Info

Publication number
JP2017536171A
JP2017536171A JP2017524035A JP2017524035A JP2017536171A JP 2017536171 A JP2017536171 A JP 2017536171A JP 2017524035 A JP2017524035 A JP 2017524035A JP 2017524035 A JP2017524035 A JP 2017524035A JP 2017536171 A JP2017536171 A JP 2017536171A
Authority
JP
Japan
Prior art keywords
image
scene
unit
imaging system
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017524035A
Other languages
English (en)
Other versions
JP6496940B2 (ja
Inventor
マルクス カム
マルクス カム
パウル シュプリンガー
パウル シュプリンガー
ティモ エメリヒ
ティモ エメリヒ
ゾルタン ファシウス
ゾルタン ファシウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2017536171A publication Critical patent/JP2017536171A/ja
Application granted granted Critical
Publication of JP6496940B2 publication Critical patent/JP6496940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/03Circuitry for demodulating colour component signals modulated spatially by colour striped filters by frequency separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

撮像システム(500)は、シーン(900)から、シーン(900)が非構造化光で照明されるとき、異なる波長範囲内の第1の画像をキャプチャし、シーン(900)が構造化光で照明されるとき、異なる波長範囲内の第2の画像をキャプチャする、光学ユニット(100)を含む。それによって、軸上色収差を有する撮像レンズユニット(112)は、シーン(900)と撮像センサユニット(118)との間に配置される。奥行き処理ユニット(200)は、光学三角測量を用いて、第2の画像に基づき、奥行き情報(DI)を生成してもよい。シャープネス処理ユニット(300)は、奥行き情報(DI)を使用して、第1の画像を結合することによって、出力画像(OImg)を生成する。撮像システム(500)の光学ユニット(100)は、例として、内視鏡において実装されてもよい。【選択図】図3A

Description

本開示は、奥行き情報を用いて、異なる波長範囲の画像間でシャープネス情報を交換する撮像システムに関する。本開示は、さらに、内視鏡、及び撮像方法に関する。
デジタル撮像システムでは、光学系が3Dシーンから光をキャプチャし、キャプチャされた光を画像平面に配置された2D画像センサ上に投射する。鮮鋭な画像を得るために高い空間周波数が取得され得る範囲の被写界深度は、光学系の物理的寸法に特に依存する。撮像システムへのいくつかの適用例、例えば、燃焼室などの空洞の非破壊検査用の工業用内視鏡、又は、診断及び低侵襲手術用の医療用内視鏡などは、光学系のレンズシステムに対して非常に近い距離に位置する物体を、抑制された物理的寸法及び光学系の絞り値及び焦点距離で結像し、浅い被写界深度を有する。
高いシャープネス及び大きな被写界深度を兼ね備えた小型の光学系を組み合わせた撮像システムが必要とされる。本実施形態の目的は、独立請求項の主題によって達成される。従属請求項は、さらなる実施形態を定義する。
前段落は、概略的な導入として提供されており、下記の特許請求の範囲を限定することを意図するものではない。説明する実施形態は、さらなる利点と共に、添付図面と併せて以下の詳細な説明を参照することにより、最もよく理解されるであろう。
実施形態によれば、撮像システムは、シーンから、シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャするように構成される光学ユニットであって、軸上色収差を有する撮像レンズユニットが、シーンと撮像センサユニットとの間に配置される、光学ユニットを含む。奥行き処理ユニットは、奥行き情報を生成する。シャープネス処理ユニットは、奥行き情報を使用して、第1の画像を結合することによって、出力画像を生成する。
別の実施形態によれば、内視鏡は、チューブ部と、チューブ部の端面に取り付けられる先端部と、を含む。先端部は、シーンから、シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャする光学ユニットを含む。軸上色収差を有する撮像レンズユニットは、シーンと撮像センサユニットとの間に配置される。
さらなる実施形態によれば、撮像方法は、シーンから、シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャすることであって、軸上色収差を有する撮像レンズユニットが、シーンと撮像センサユニットとの間に配置されることを含む。奥行き情報は、第2の画像に基づいて生成される。出力画像は、奥行き情報を使用すること、及び第1の画像を結合することによって生成される。
さらなる実施形態によれば、撮像システムは、シーンから、シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャする機器、例えば、走査機器に配置される第1の手段を含む。第2の手段は、第2の画像に基づいて、奥行き情報を生成し、第2の手段は、信号伝送に関して第1の手段に接続される。第3の手段は、奥行き情報を用いて出力画像を生成し、第1の画像が結合される。第3の手段は、信号伝送に関して第1の手段及び第2の手段に接続される。
以下の図面では、同様の参照番号は、いくつかの図を通して同一又は対応する部分を指定する。図面の要素は、必ずしも互いに対して一定の縮尺ではない。説明する実施形態の特徴は、互いに組み合わされて、さらなる実施形態を形成し得る。
本実施形態に係る撮像システムの概略ブロック図である。 図1の撮像システムの光学ユニットの実施形態の概略ブロック図である。 狭帯域照明に関する本実施形態の効果を説明するための、照明ユニットの発光スペクトルの概略図である。 本実施形態に係る図2A中の光学ユニットの撮像ユニットの詳細を示す概略図である。 図3Aの撮像ユニットの概略断面図である。 本実施形態に係る図2Aの光学ユニットの投射ユニットの詳細を示す概略図である。 図4Aの投射ユニットの光学素子の概略平面図であり、本実施形態に係るシャドーパターンを示す。 本実施形態に係る図1の奥行き処理ユニットの機能ブロックを示す概略ブロック図である。 図5Aの奥行き処理ユニットで使用されるスケール係数の効果を示す、概略図である。 本実施形態に係る図1のシャープネス処理ユニットの機能ブロックを示す概略ブロック図である。 さらなる実施形態に係るプロセッサシステムの概略機能ブロック図である。 さらなる実施形態に係る内視鏡の概略斜視図である。 さらなる実施形態に係る撮像方法の簡略化したフローチャートである。 本実施形態の効果を説明する、補正された色収差を有するレンズのカラーチャネルのぼけ関数をプロットした図である。 本実施形態の効果を説明する、濃色レンズのカラーチャネルのぼけ関数をプロットした図である。
図1は、例えば、カメラ、工業検査システム、又は、例えば腹腔鏡などの診断及び/若しくは低侵襲手術のための医療用内視鏡といった、撮像装置の撮像システム500を示す。実施形態によれば、撮像システムの開口径は、5mmより小さく、例えば、3mmである。撮像システム500は、シーン900が、非構造化光で完全に照明されているときに、異なる波長範囲に割り当てられる、2つ以上の第1の画像RImg、GImg、BImgをキャプチャする、光学ユニット100を含む。同一のシーン900が、構造化光で照明されているときに、光学ユニット100は、同様に、異なる波長範囲の第2の画像RPat、GPat、BPatをキャプチャする。光学ユニット100は、第1の画像及び第2の画像を交互にキャプチャするように制御可能である。光学ユニット100の光路101において、軸上色収差を有する撮像レンズユニット112は、シーン900と、衝突光を第1の画像RImg、GImg、BImg及び第2の画像RPat、GPat、BPatを表す電気信号又はデジタル情報に変換する撮像センサユニット118と、の間に配置される。
奥行き処理ユニット200は、構造化光での照明によって得られる第2の画像RPat、GPat、BPatを受信し、構造化光でシーン900を照明中に適用されるシャドーパターンを記述するパターン情報PIを、さらに受信又は保持する。光学三角測量を適用することによって、奥行き処理ユニット200は、画像の詳細、物体、第2の画像RPat、GPat、BPat内の単一画素又は画素群に関する奥行き情報DIを得る。奥行き処理ユニット200は、機能ブロック、例えば、ソフトウェアプログラム、電子回路、又はソフトウェアプログラムと電子回路の組み合わせである。ここで、ソフトウェアプログラムは、プロセッサ又はコントローラにおいて実行されるプログラムコードである。
シャープネス処理ユニット300は、第1の画像RImg、GImg、BImg、及び奥行き情報DIを受信し、第1の画像RImg、GImg、BImgの改良バージョンを取得するために、奥行き情報DIを使用して第1の画像RImg、GImg、BImg間でシャープネス情報を交換してもよい。シャープネス処理ユニット300は、さらに、第1の画像RImg、GImg、BImgの改良バージョンを結合して、出力画像OImgを生成する。ここで、奥行き情報DIが使用されてもよい。シャープネス処理ユニット300は、機能ブロック、例えば、ソフトウェアプログラム、電子回路、又はソフトウェアプログラムと電子回路の組み合わせである。奥行き処理ユニット200及びシャープネス処理ユニット300は、異なる集積回路、又は、同一の集積回路に統合されてもよい。
光学ユニットの所与の寸法について、撮像システム500は、深い被写界深度を超えて画質を向上させ、解像度の低下を回避する。解像度は、通常は、絞り値依存のぼけによって制限される。さらに、撮像システム500は、完全な視野を介した画像コンテンツにほとんど依存しない、奥行き情報DIを得る。奥行き情報DIは、撮像装置のユーザに、シーンに関するさらなる情報を提供するために使用されてもよい。例えば、奥行き情報DIは、モニタ又はディスプレイ上へのシーン900の3D表現のために使用されてもよい。
図2A及び図2Bは、光学ユニット100の詳細を参照する。照明ユニット190は、第1の画像RImg、GImg、BImgのキャプチャ中にシーンを完全に照明する。ここで、第1の画像RImg、GImg、BImgのキャプチャ中に、シーン900を照明する光は、構造化されていない。投射ユニット150は、第2の画像RPat、GPat、BPatのキャプチャ中に、構造化光でシーンを照明する。照明ユニット190及び投射ユニット150は、交互にアクティブとなる。撮像ユニット110は、軸上色収差を有し、濃色レンズとしての効果がある撮像レンズユニット112、並びに、第1の画像RImg、GImg、BImg及び第2の画像RPat、GPat、BPatをキャプチャする撮像センサユニット118を含む。
本実施形態によれば、照明ユニット190は、出射面191がシーン900の方向を向き、接合面192が外部光源に接続可能な、1つ又は複数の光ファイバ195を含む。第1の画像RImg、GImg、BImgのキャプチャ中、白色光、又は、可視光、UV(ultraviolet:紫外線)照射及びIR(infrared:赤外線)照射を含む波長範囲内の複数の狭い波長範囲が、光ファイバ195を通じてシーン900に供給される。
別の実施形態によれば、照明ユニット190は、光学ユニット100を入れるハウジングに統合される、LED(light emitting diode:発光ダイオード)などの1つ又は複数のアクティブ光源を含む。光源は、白色光、又は、可視光、UV照射及びIR照射を含む波長範囲内の複数の狭い波長範囲を放射してもよい。
照明ユニット190は、少なくとも撮像センサユニット118によって使用される波長範囲内の照射で、シーン900を照明するように配置される。例えば、撮像センサユニット118が、赤、緑及び青の波長範囲を感知する場合、照明ユニット190は、少なくとも赤、緑及び青の波長範囲、例えば、少なくとも赤色光から少なくとも青色光までの波長範囲内で、シーン900を照明する。撮像センサユニット118が、IR照射に対する感度が高い場合、照明ユニット190は、IR帯域でも、シーンを照明する。
投射ユニット150は、投射照明ユニット158、照明されるシーン900と投射照明ユニット158との間に配置される投射レンズユニット152、及び、投射ユニット150の光路内の光学素子154と、を含む。
投射照明ユニット158は、出射面191がシーン900の方向を向き、接合面192が外部光源に接続可能な、1つ又は複数の光ファイバ195を含んでもよい。別の実施形態によれば、投射照明ユニット158は、光学ユニット100を入れるハウジングに統合される、LEDなどの1つ又は複数のアクティブ光源を含む。投射照明ユニット158は、照明ユニット190と同一のスペクトル分布を有する照射を放射してもよい。さらなる実施形態によれば、共通の光ファイバ、光ファイバ束、又は、アクティブ光源が、例えば、切替可能な光ゲート又は偏光器による照明ユニット190及び投射照明ユニット158として、交互に有効である。
投射レンズユニット152は、軸上色収差を有するレンズシステムであってもよい。本実施形態によれば、投射レンズユニット152は、撮像レンズユニット112と同一の軸上色収差特性を示す。
投射照明ユニット158と照明されるシーン900との間の光路105内の光学素子154は、グレーレベルパターンを有するレチクルとして動作し、それは、少なくとも一部が影になっている、即ち、第2の画像RPat、GPat、BPatのキャプチャ中に完全には照明されていない、シーン900の部分を定義する。
撮像ユニット110の撮像レンズユニット112及び撮像センサユニット118は、投射ユニット150の光軸105と一致しない光軸101に沿って配置される。撮像ユニット110の光軸101、及び、投射ユニット150の光軸105は、互いに交差してもよい。別の実施形態によれば、光軸101、105は、互いに平行であってもよい。ここで、光軸101、105間の距離は、この距離が、光学ユニット100自体の直径を越えることができないように、撮像レンズユニット112と投射レンズユニット152との間の間隔を制限する光学ユニット100の直径によって制限される。本実施形態によれば、光軸101、105間の距離は、最大で2.5mmである。
本実施形態によれば、撮像ユニット110及び投射ユニット150は、同一の視野を有し、横並び又は上下並びに配置して、互いに整列されてもよい。双方の光学系は、2.5mmより短い、例えば、2mm〜2.5mmの範囲内の小さな眼球内距離(intraocular distance)を有し、例として、全部のシステム寸法が、現在の腹腔鏡デバイスと同等であってもよい。
図2Bの図は、構造光及び非構造光でシーンを照明するための狭帯域レーザ照射を用いる実施形態を参照する。例えば、照明ユニット190及び投射照明ユニット158の双方が、図中に示すように、赤、緑、及び青のレーザ光194a、194b、194cでシーンを照明する。さらに、図2Bの図は、図3Bに示すような赤、緑、及び青のカラーフィルタ部114aについてのカラーフィルタ伝送特性119a、119b、119cをさらに示す。波長依存倍率(wavelength dependent magnification)は、第1及び第2の画像をぼかすことができないため、半離散波長(quasi discrete wavelength)を使用することによって、より鮮鋭な第1及び第2の画像がもたらされる。
図3A及び図3Bは、撮像ユニット110をより詳細に示す。シーンのキャプチャ中、可視光、UV照射、及びIR照射を含んでもよく、シーンの画像について記述的(descriptive)である照射は、絞りユニット111の絞り111a及び撮像レンズユニット112を通過して、撮像センサユニット118上に入射する。絞り111aの大きさは、固定又は制御可能であってもよい。
撮像レンズユニット112は、軸上色収差を示し、例えば、第1の焦点面FIRにおいて赤外線放射、焦点面FRにおいて赤色可視光、焦点面FGにおいて緑色光、及び、焦点面FBにおいて青色光を結像してもよい。撮像レンズユニット112は、複数のセグメントを含むマイクロレンズアレイであってもよく、ここで、撮像レンズユニット112の各レンズセグメントが、撮像センサユニット118の1つの単一画素センサ118a、及び、カラーフィルタユニット114の1つのカラーフィルタ部114aに割り当てられてもよい。
本実施形態によれば、撮像レンズユニット112は、ガラス又はプラスティックなどの高分散性素材で形成される複合レンズであってもよい。その場合に、焦点距離が波長の関数として変化するように、屈折率は、入射光の波長の関数である。撮像レンズユニット112が、球面収差及び/若しくは視野依存収差(field dependent aberrations)を全く示さないか、又は、軽微な球面収差及び/若しくは視野依存収差のみを示すように、撮像レンズユニット112は、球面収差及び/又は視野依存収差を補償する補償素子を含んでもよい。撮像レンズユニット112は、さらに、異なる焦点面において異なる拡大率を補償するように設計されてもよい。
撮像レンズユニット152の軸上色収差に起因して、カラー画像の青、緑、赤、及び赤外線は、近距離から遠距離までの異なる距離で焦点を合わせる。カラー画像の間でシャープネスを交換することによって、撮像ユニット110の動作範囲が拡大する。以下では、可視スペクトルのサブ範囲、及び、IR及びUVなどの、可視スペクトルに隣接する波長範囲のサブ範囲は、波長範囲が人間の眼で知覚可能か否かに関わらず、「カラー」と呼ばれる。例えば、「カラーフィルタ」は、また、IR又はUVスペクトル範囲における照射のみを通過させるフィルタであってもよい。
撮像センサユニット118は、複数の画素センサ118aを含み、ここで、各画素センサ118aは、入射光による光信号を電気信号へと変換するフォトセンサを含む。画素センサ118aは、1つの平面又は異なる平面の半導体基板に形成されてもよい。画素センサ間のピッチ(中心間)距離は、0.5μm〜2μmの範囲内にあってもよい。本実施形態によれば、撮像センサユニット118は、約2MP解像度を有するHD(high definition:高精細)画像センサであってもよい。
例えば、撮像センサユニット118は、半導体基板の基板表面に沿って形成されている、深いフォトダイオードが表面フォトダイオードの数ミクロン下の基板部に形成された垂直集積型フォトダイオード構造を有してもよい。可視光は、半導体基板の表面部において吸収される一方、赤外線照射は、より深く半導体基板に浸透する。結果として、深いフォトダイオードは、赤外線照射のみを受信する。別の実施形態によれば、撮像センサユニット118は、フォトダイオードがアレイ状に配置された、横集積型フォトダイオード構造を有してもよい。
カラーフィルタユニット114は、撮像レンズユニット112及び撮像センサユニット118の間、又は、開口ユニット111及び撮像レンズユニット112の間に配置されてもよい。カラーフィルタユニット114は、撮像センサユニット118に密着して配置されてもよく、複数のカラーフィルタ部114aを含んでもよい。ここで、各カラーフィルタ部114aは、例えば、緑、赤、青、マゼンタ、黄、白、IR、又はUVのフィルタカラーを有する。
各画素センサ118aがカラー固有の画像情報を受信するように、各カラーフィルタ部114aは、1つの単一画素センサ118aに割り当てられてもよい。例えば、カラーフィルタ部114aは、行と列にマトリクス状に配置されてもよい。異なるフィルタカラーに割り当てられるカラーフィルタ部114aは、行方向及び列方向に沿って規則的に交互になっていてもよい。例えば、2×2マトリクスを形成する4つのカラーフィルタ部114aの各グループは、ベイヤーモザイクパターンを形成してもよい。ここで、フィルタカラー「緑」を有するカラーフィルタ部114aは、2×2マトリクスの第1の対角線上に配置され、フィルタカラー「赤」を有する1つのカラーフィルタ部114a及びフィルタカラー「青」を有する1つのカラーフィルタ部114aは、2×2マトリクスの他の対角線上に配置される。ベイヤーモザイクパターンでは、緑色が人間の眼に対する輝度情報のほとんどを伝達することを考慮して、フィルタカラー「緑」についてのサンプリング率が、フィルタカラー「赤」及び「青」のサンプリング率の2倍である。
別の実施形態によれば、カラーフィルタ部114aは、第4のフィルタカラーとして「エメラルド」を有するRGBEモザイクパターン、1つのシアン、2つの黄及び1つのマゼンタのカラーフィルタ部114aを有するCYYMモザイクパターン、又は、1つのシアン、1つの黄、1つの緑及び1つのマゼンタのカラーフィルタ部114aが、2×2単位マトリクスに配置された、CYGMモザイクパターンを形成するように配置されてもよい。これらは、カラーフィルタユニット114の範囲内に繰り返し配置される。別の実施形態によれば、カラーフィルタユニット114は、3つの異なるフィルタカラーの3つのカラーフィルタ部、及び、カラーフィルタリング特性を持たず、可視スペクトル内の全色に対して透明な1つの透明フィルタ部を有する単位マトリクスのモザイクを含む。透明フィルタ部及びカラーフィルタ部114aは、RGBWモザイクパターン、例として、例えば4×4又は2×4のRGBWモザイクパターン、を形成するように配置されてもよい。
本実施形態によれば、カラーフィルタ114は、IR又はUV照射に対して透明な、少なくとも1つのカラーフィルタ部の種類を含む。例えば、カラーフィルタ114は、各2×2単位マトリクスが、1つの赤、1つの緑、1つの青、及び1つの赤外線カラーフィルタ部114aを含み、単位マトリクスが、モザイクパターンを形成するように規則的に配置された、RGBIRフィルタである。R、G、B、及びIRの4つのカラーは、2×2の単位マトリクス内に任意の順列によって配列され得る。
IR及び/又はUV照射は、カラーフィルタ部114a間のIR照射又はUV照射に対して透明な、フィルタ部114a内のカラーフィルタユニット114を通過してもよい。他の実施形態によれば、カラーフィルタ部114aは、赤外線照射の周波数範囲の一部に対して透明であってもよいため、カラーフィルタユニット114は、深いフォトダイオードに割り当てられる部分を含まない。
図4Aは、投射レンズユニット152と、投射照明ユニット158と投射レンズユニット152との間に配置される光学素子154と、を有する投射ユニット150を示す。図示された実施形態によれば、投射照明ユニット158は、例えば、LED又はLEDアレイなどのアクティブ光源196である。投射レンズユニット152は、同一の軸上色収差を含む撮像レンズユニット112と同一の光学性能を有してもよい。ハイパークロマティック投射レンズユニット152の場合、少なくとも1つのカラーチャネルにおいて鮮鋭であるため、構造化光パターンが検出され、より確実に処理され得る。さらに、濃色の投射レンズユニット152は、撮像レンズユニット112の倍率色収差(lateral chromatic aberration)及び歪曲収差(distortion)を逆に補償してもよい。
図4Bは、図4Aの光学素子154の詳細を示す。光学素子154は、レチクルの表面上にインプリントされ得るシャドーパターンを有する微細構造レチクルであってもよい。シャドーパターンは、非シャドーイング(白色)部分及びシャドーイング部分を含み、後者は、完全なシャドーイング(黒)又は部分的なシャドーイング(グレースケール)のいずれかである。本実施形態によれば、シャドーイング部分のグレースケール又はグレーレベルは、元のパターンと投射されたパターンとの間のマッピングにおける曖昧さを回避するために、符号化されてもよい。例えば、4つの異なるグレースケールレベルは、光学素子154のシャドーパターンを結像された物体上に投影することから生じる構造化光パターン内の12個の異なる種類のエッジを符号化してもよい。
部分的なシャドーイング部分は、例えば、1方向に沿って変化するストライプパターンなどの1Dパターン、又は、例えば、2つの直交する方向に沿って変化するドットパターン若しくはグリッドなどの2Dパターンを形成してもよい。シャドーパターンは、構造化光パターンを復元する間に起こり得る曖昧さを減少させるためのグレーコード化合成パターンであってもよい。
図4Bに示されるシャドーパターン810は、パターン化された水平線812を含み、水平線812は、グレーレベルの白WSを有する白線814で分けられてもよい。水平線は、全体のシャドーパターンが5つの異なるグレーレベルを含むように、黒と白の間の4つの異なるグレーレベルGA、GB、GC、GDの12個のフィールド821を含み得る、繰り返しパターン820を含む。
シーン900上に投射される際、シーン900内の物体の異なる距離が、投射ユニット150の光軸105に対して遠くの観察者に対し、投射された構造化光パターンを歪める。投射された構造化光パターンと、パターン情報PIによって記述されるインプリントされたシャドーパターンにおける、対応する点とを比較することによって、奥行き情報DIは、少なくとも、構造光パターンのエッジ上の画素について、第2の画像RPat、GPat、BPatから導出され得る。
図5Aは、奥行き処理ユニット200の機能ブロック、及び奥行き処理ユニット200によって実行され得る奥行き感知のプロセスを示す。機能ブロック210、220、230、240、250のそれぞれは、例えば、集積回路、FPGA(field programmable gate array:フィールドプログラマブルゲートアレイ)、ASIC(application specific integrated circuit:特定用途向け集積回路)、若しくはDSP(digital signal processor:デジタル信号プロセッサ)などの電子回路、又は、デジタル信号プロセッサにおいて実行され得るプログラムルーチン、又は、両者の組み合わせに対応してもよい。
奥行き処理ユニット200の第1の機能ブロック210は、構造化光でシーンを照明中に、光学ユニット100によって取得された第2の画像、特に、例えば、赤の波長範囲内でキャプチャされ、投射されたシャドーパターンを含む画像RPatを受信する。構造化光は、構造化白色光、又は、IR照射、可視光、及びUV照射を含むスペクトル範囲内の、少なくとも2つの離れた狭い波長範囲の構造化光であってもよい。
奥行き推定の精度及び堅牢性を向上させるために、第1の機能ブロック210は、白色光情報を使用して、第2の画像RPat、GPat、BPatに投射されたシャドーパターンを復元するためのスケール係数を得てもよい。2Dシャドーパターンに基づく、空間情報を排他的に使用する実施形態によれば、スケール係数は、現在の第2の画像RPat、GPat、BPatの白色(影になっていない)部分から決定される。
図5Bは、非構造化光を用いた照明によって取得される第1の画像WL中の画素値wl1、wl2、グレーレベルsl1、sl2、sl3のフィールドで構造化光を用いた照明によって取得される第2の画像SL中の、対応する画素値x1、x2、及び、非構造化光を用いた照明によって取得される後続の画像WLnxt中の対応する画素値wl1nxt、wl2nxt、を使用することによる、動きがない場合のスケール係数sfの計算及び使用を示す。
スケール係数sfは、非構造化光を用いた照明によって取得される時間的に隣接する画像中で観測される画素値をワーピング(warping)すること、及び、ワーピングの結果の逆数値を形成することによって、取得されてもよい。本実施形態によれば、スケール係数sf(x1)は、255/((wl1+wl1nxt)/2)であってもよい。
スケール係数sfは、構造化光を用いた照明によって取得される画像中の対応する画素値x1、x2と乗算されて、構造化光を用いた照明によって取得される画像の補償済みバージョンを取得する。このようにして、スケール係数sfは、構造化光を用いた照明によって取得される画像から、構造化光パターンを復元するために使用されることができ、画像は、構造化光によって照明されるシーン情報を含む。
1D又は2Dシャドーパターンに基づく、動き適用型時空間−時空情報(motion−adaptive spatio−temporal information)を用いる別の実施形態によれば、第1の機能ブロック210は、現在の第2の画像RPat、GPat、BPat、並びに、非構造化光を用いた照明によって取得される、先行及び/又は後続の第1の画像RImg、GImg、BImgから、スケール係数を取得する。1D又は2Dシャドーパターンに基づく、動き補償型時空間−時空情報(motion−compensated spatio−temporal information)を用いるさらなる実施形態によれば、第1の機能ブロック210は、現在の第2の画像RPat、GPat、BPat、並びに先行及び/又は後続の第1の画像RImg、GImg、BImgの動き補償済みバージョンから、スケール係数を取得する。
第2の機能ブロック220は、現在の第2の画像RPat、GPat、BPat中の奥行き推定に適した画素又は画素群(奥行きポイント)を決定する。本実施形態によれば、第2の機能ブロック220は、サブ画素精度でエッジ位置を検出し、検出されたストライプパターンのエッジにおける画素又は画素群を、奥行きポイントとして選択する。
隣接するストライプのグレースケール値に基づいて、第3の機能ブロック230は、奥行きポイントにラベルを割り当ててもよい。
第4の機能ブロック240は、奥行きポイントについての奥行き値を決定するために、第2の画像RPat、GPat、BPat中のラベルされた奥行きポイント、及び、パターン情報PIによって記述される無歪みのシャドーパターンにおけるそれらの対応箇所に対して、光学三角測量を適用する。本実施形態によれば、第4の機能ブロック240は、三角測量結果のエラーを減少させるために、スケール係数及びそれぞれの奥行きポイントにおけるシャープネスについての測定値を使用して信頼性を測定することによって、各三角測量結果の品質をさらに評価する。例えば、それぞれの奥行きポイントにおけるシャープネスの適切な測定値は、エッジの幅であり、それは、それぞれのラベルを定義するエッジの幅である。それは、カラーチャネル毎に導出されるパラメータである。
第5の機能ブロック250は、奥行きポイント間の画素又は画素群についての奥行き値を取得するための奥行き伝播アルゴリズムを使用し、奥行き情報DIを出力する。奥行き情報DIは、第2の画像RPat、GPat、BPat内の各画素に奥行き値を割り当てる高密度の奥行きマップ250bであってもよく、又は、高密度の奥行きマップ250bを含んでもよい。続いてキャプチャされた第1の画像に結果が適用され得るように、結果は、少なくとも30Hzのフレームレートに対し、リアルタイムで取得され得る。図5Aでは、奥行きマップ250bの奥行き値は、説明のために、色分けされている。
図6は、シャープネス処理ユニット300の機能ブロック、及び、シャープネス処理ユニット300によって実行され得るシャープネス転送(sharpness transfer)のプロセスを示す。再び、機能ブロック310、320のそれぞれは、例えば、FPGA、ASIC、若しくはDSPといった集積回路などの電子回路、又は、例えば、DSPなどの電子回路で実行されるプログラムルーチン、又は、両者の組み合わせに対応してもよい。
シャープネス処理ユニット300の第1の機能ブロック310は、第1の画像RImg、GImg、BImg内の単一画素、画素群及び/又は物体について、それぞれの画像部分内のシャープネスについて記述する値、例えば、高空間周波数のコンテンツを比較してもよく、奥行き情報DIを用いて、関係する単一画素、画素群又はオブジェクトについて最も鮮鋭な情報を含むものを識別する。
第2の機能ブロック320は、第1の画像の改良バージョンvRImg、vGImg、vBImgを取得するために、対象領域内で最も高い空間周波数を伝達する第1の画像から他の第1の画像RImg、GImg、BImgへ、シャープネス情報を移送してもよい。ここで、第2の機能ブロック320は、奥行き情報DIを使用して、最も鮮鋭なチャネルを識別し、各画像領域について第1の画像RImg、GImg、BImgのうち最も鮮鋭なものの高い空間周波数を、他の第1の画像RImg、GImg、BImgにコピーしてもよい。例えば、第1の画像RImg、GImg、BImgのうちの1つのそれぞれのぼやけたサブ領域に対して、それぞれのサブ領域についての最も鮮鋭な第1の画像RImg、GImg、BImgのハイパスフィルタリング済みバージョン(high−pass filtered version)が、追加され、又は、重畳されてもよい。レンズ特性に関する先験的知識が存在するため、ハイパスの強度は、実際の奥行きに従って設定されてもよい。
第3の機能ブロック330は、ほぼ全焦点の出力画像OImgを取得するために、改良された第1の画像を結合する。出力画像OImgは、カラー又はグレースケール画像であってもよい。本実施形態によれば、第4の機能ブロック340は、さらに、出力画像OImgを奥行き情報DIと結合して、例えば、色分けした2D表現又は3D表現によって各ピクセルについての奥行き情報を視覚化する、改良された出力画像OAdvを生成してもよい。
出力画像OImg又は改良された出力画像OAdvは、例えば、グレースケール又はカラー画像を表すデジタル値のセットとして、撮像システムの不揮発性メモリに記憶されてもよい。代替的には、又は、加えて、出力画像OImg又は改良された出力画像OAdvは、撮像システムの表示デバイス上に表示されてもよく、有線又は無線通信チャネルを通じて撮像システムに接続された別のシステムに出力されてもよく、又は、出力画像OImgに含まれる情報をさらに処理するための処理システム若しくはアプリケーションに供給されてもよい。
図7は、ハイパークロマティックレンズユニットを含む光学ユニットによって取得される画像に基づいて、出力画像を生成するコンピュータを伴う態様を含む、本開示の態様を具現化する処理システム400のブロック図である。本明細書で説明するプロセス、アルゴリズム及び電子駆動システムは、処理システム400と整合する、分離した制御デバイス又はコンピューティングシステムを介して実装され得る。
処理システム400は、マイクロプロセッサ、又は中央処理装置481(CPU)若しくは少なくとも1つのアプリケーション固有プロセッサASPなどの、マイクロプロセッサの均等物を用いて実装され得る。マイクロプロセッサは、マイクロプロセッサを制御して、撮像方法を実行及び/又は制御する、メモリ461(例えば、ROM、EPROM、EEPROM、フラッシュメモリ、スタティックメモリ、DRAM、SDRAM、及びそれらの均等物)などのコンピュータ可読記憶媒体を利用する。他の記憶媒体は、ハードディスクドライブ又は光ディスクドライブを制御する、ディスクコントローラ462などのコントローラを介して制御され得る。中央バスシステム470は、処理システム400のコンポーネントを互いに接続してもよく、それらの間のデジタル通信用に少なくとも1つのパスを提供する。
ビデオコントローラ460は、出力画像を結像してもよく、又は、奥行き情報を使用して、モニタ450に表示され得る3D画像をレンダリングしてもよい。ビデオコントローラ460は、計算効率改善のためのグラフィック処理ユニットを含んでもよい。さらには、I/O(入力/出力)インタフェース482は、本開示の様々なプロセス及びアルゴリズムのパラメータを制御するため、又は、表示特性を制御するための、キーボード490又はポインティングデバイス491から入力データを受信してもよい。モニタ450は、コマンド/命令インタフェースへのタッチセンシティブインタフェースを含んでもよい。画像ベースのデータ入力が使用されるとき、スキャナ又はウェブカメラを含む、他の周辺機器が組み込まれてもよい。
処理システム400のコンポーネントは、制御可能なパラメータを含むデータの送信又は受信のために、ネットワークインタフェース480を介して、インターネット又はローカルイントラネットなどのネットワーク485に連結されてもよい。ネットワーク485は、モバイルデバイスに通信パスを提供してもよく、それは、データパケットとして提供され得る。
本実施形態によれば、処理システム400は、I/Oインタフェース482を通じて、第1の画像及び第2の画像を光学ユニットから受信してもよい。別の実施形態によれば、処理システム400は、ネットワークインタフェース480を通じて、第1の画像及び第2の画像を光学ユニットから受信してもよい。
図8は、例として、診断用又は低侵襲手術用の、産業用途で使用され得る内視鏡501などの、走査機器の一部を示す。円筒形の先端部510が、光ファイバ及び電気配線を含み得る、硬質又は可撓チューブ部520の端面に取り付けられる。先端部510は、上記で詳細に説明した光学ユニット100を含む。透明な先端表面及び不透明な円筒面を有するハウジング530が、光学ユニット100を封入してもよい。
光学ユニット100は、シーンが完全に照明されているとき、シーンから異なる波長範囲の第1の画像をキャプチャする。光学ユニット100は、さらに、シーンが構造化光で照明されているとき、シーンから異なる波長範囲の第2の画像をキャプチャする。撮像センサユニット118を有する撮像ユニット110は、先端部510の第1の半円筒内に配置され、シャドーパターンを含む光学素子154を有する投射ユニット150は、第2の半円筒内に配置される。
先端部510の直径は、3mm〜5mmの範囲内にあってもよい。撮像ユニット110の絞り値は、F/4以下であってもよい。内視鏡501は、シャープネスが低下することなく、20mm〜200mmの動作範囲で、シーンを結像してもよい。
図9は、撮像方法を示す。シーンが完全に照明されているとき、濃色撮像レンズユニットを用いて、異なる波長範囲の第1の画像がキャプチャされる(702)。シーンが構造化光で照明されているとき、同一の異なる波長範囲の第2の画像がキャプチャされ、ここで、同一のハイパークロマティック撮像レンズユニットが使用される(704)。第2の画像に基づいて、構造化光のシャドーパターンによって識別される画像部分の光学三角測量を用いて、奥行き情報が取得される(706)。取得された奥行き情報を用いて、第1の画像間でシャープネス情報を交換した後、第1の画像を結合することによって、出力画像が生成される。
図10A及び図10Bは、物体距離ODの関数としてぼけ直径BDをプロットする図によって、ハイパークロマティックレンズの使用による動作範囲の拡大を示している。ぼけ直径BLimは、許容できるぼけ直径を示し、青、緑、及び赤のぼけ関数801、802、803についての動作範囲の限界OD1、OD2を設定する。
図10Aでは、全ての対象の色が、同一平面に合焦するように、レンズの色収差が、完全に補正される。青、緑、及び赤についてのぼけ関数801、802、803は合致し、それらの動作範囲WB、WG、WRは、互いに重なり合う。
図10Bでは、レンズの軸上色収差は、補正されず、又は、補正されていないレンズにおけるよりもさらに顕著になる。それによって、色が、異なる平面に合焦し、関係する色のぼけ関数801、802、803及びそれらの動作範囲WB、WG、WRは、互いにシフトする。例えば、青チャネルの動作範囲WBは、より短い距離にシフトし、一方、赤チャネルの動作範囲WRは、より長い距離にシフトする。対象の色の動作範囲WB、WG、WRを連結し、全てのカラーチャネル間でシャープネスを交換することにより、全体の動作範囲Wtotalの拡大が、達成され得る。
このように、前述した説明は、単に、本開示の例示的な実施形態を開示し、説明する。当業者によって理解されるように、本開示は、本開示の思想又は必須の特性から逸脱することなく、他の特定の形式で具現化されてもよい。したがって、本開示は、例示することを意図しているが、本開示の範囲及び他の請求項を限定するものではない。本開示は、本明細書の教示の、任意の容易に識別可能な変形を含み、前述の請求項の用語の範囲を、部分的に定義する。
本技術は、また、以下で説明されるように構成され得る。
(1)
シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャするように構成される光学ユニットであって、軸上色収差を有する撮像レンズユニットが、前記シーンと撮像センサユニットとの間に配置される、前記光学ユニットと、
前記第2の画像に基づいて、奥行き情報を生成するように構成される、奥行き処理ユニットと、
前記奥行き情報及び前記第1の画像に基づいて、出力画像を生成するように構成される、シャープネス処理ユニットと、
を備える、撮像システム。
(2)
前記光学ユニットは、構造化光で前記シーンを照明するように構成される投射ユニットを備え、
前記投射ユニットは、
制御可能な投射照明ユニットと、
前記投射光源及び前記シーンの間に配置され、軸上色収差を有する投射レンズユニットと、
を備える、(1)に記載の撮像システム。
(3)
前記撮像ユニット及び前記投射ユニットの光軸は、互いに平行である、(2)に記載の撮像システム。
(4)
前記シャープネス処理ユニットは、前記第1の画像間でシャープネス情報を交換後、前記第1の画像に基づいて、前記出力画像を生成するように構成される、(1)〜(3)の何れか1つに記載の撮像システム。
(5)
前記撮像レンズユニット及び前記投射レンズユニットは、同一の軸上色収差を有する、(4)に記載の撮像システム。
(6)
前記投射ユニットは、シャドーパターンを形成する、透明な特徴及び少なくとも部分的に不透明な特徴を含む光学素子を備える、(2)又は(3)に記載の撮像システム。
(7)
前記シャドーパターンは、グレースケール符号化パターンである、(6)に記載の撮像システム。
(8)
前記光学ユニットは、前記第1の画像及び前記第2の画像を交互にキャプチャするように構成される、(1)〜(7)の何れか1つに記載の撮像システム。
(9)
前記第1の画像のキャプチャ中に、前記シーンを非構造化光で照明するように構成される照明ユニットをさらに備える、(1)〜(8)の何れか1つに記載の撮像システム。
(10)
前記照明ユニットは、出射面が前記シーンの方向を向き、接合面が外部光源に接続可能な、1つ又は複数の光ファイバを含む、(9)に記載の撮像システム。
(11)
前記照明ユニットは、少なくとも可視光のスペクトル範囲を包含する広帯域発光スペクトルで、前記シーンを照明するように構成される、(9)又は(10)に記載の撮像システム。
(12)
前記照明ユニットは、2つ以上の別個の狭帯域発光スペクトルで、前記シーンを照明するように構成される、(9)又は(10)に記載の撮像システム。
(13)
前記奥行き処理ユニットは、光学三角測量によって前記第2の画像から前記奥行き情報を生成するように構成される、(1)〜(12)の何れか1つに記載の撮像システム。
(14)
前記シャープネス処理ユニットは、シャープネス情報として前記第1の画像の空間周波数分布を取得し、前記第1の画像のうちの少なくとも1つから前記空間周波数分布の高周波数成分を抽出し、前記抽出された高周波数成分を残りの前記第1の画像に加えて補正された第1の画像を生成し、前記奥行き情報を用いて前記補正された第1の画像を結合することによって、前記出力画像を生成するように構成される、(1)〜(13)の何れか1つに記載の撮像システム。
(15)
(1)〜(14)の何れか1つに記載の前記撮像システムを備える、内視鏡システム。
(16)
チューブ部と、
前記チューブ部の端面に取り付けられ、シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャするように構成される光学ユニットを備える先端部であって、軸上色収差を有する撮像レンズユニットが、前記シーン及び撮像センサユニットの間に配置される、前記先端部と、
を備える、内視鏡。
(17)
前記第1の画像のキャプチャ中に、前記シーンを照明するように構成される照明ユニットをさらに備える、(16)に記載の内視鏡。
(18)
前記光学ユニットは、構造化光で前記シーンを照明するように構成される投射ユニットを備え、
前記投射ユニットは、
制御可能な投射照明ユニットと、
前記投射照明ユニット及び前記シーンの間に配置され、軸上色収差を有する投射レンズユニットと、
を備える、(16)又は(17)に記載の内視鏡。
(19)
シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャすることであって、軸上色収差を有する撮像レンズユニットが、前記シーンと撮像センサユニットとの間に配置される、前記キャプチャすることと、
前記第2の画像に基づいて、奥行き情報を生成することと、
前記奥行き情報を用いて、前記第1の画像を結合することによって、出力画像を生成することと、を含む、撮像方法。
(20)
奥行き情報は、前記構造化光のシャドーパターンによって識別される画像部分の光学三角測量を用いて生成される、(19)に記載の撮像方法。
(21)
シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャする機器に配置される第1の手段であって、前記第1の画像及び第2の画像は、軸上色収差を有する撮像レンズユニットを用いてキャプチャされる、前記第1の手段と、
前記第2の画像に基づいて、奥行き情報を生成する第2の手段であって、信号伝送に関して前記第1の手段に接続される、前記第2の手段と、
前記奥行き情報を用いて、前記第1の画像を結合することによって、出力画像を生成する第3の手段であって、信号伝送に関して前記第1の手段及び前記第2の手段に接続される、前記第3の手段と、を備える、撮像システム。

Claims (21)

  1. シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャするように構成される光学ユニットであって、軸上色収差を有する撮像レンズユニットが、前記シーンと撮像センサユニットとの間に配置される、前記光学ユニットと、
    前記第2の画像に基づいて、奥行き情報を生成するように構成される、奥行き処理ユニットと、
    前記奥行き情報及び前記第1の画像に基づいて、出力画像を生成するように構成される、シャープネス処理ユニットと、
    を備える、撮像システム。
  2. 前記光学ユニットは、構造化光で前記シーンを照明するように構成される投射ユニットを備え、
    前記投射ユニットは、
    制御可能な投射照明ユニットと、
    前記投射光源及び前記シーンの間に配置され、軸上色収差を有する投射レンズユニットと、
    を備える、請求項1に記載の撮像システム。
  3. 前記撮像ユニット及び前記投射ユニットの光軸は、互いに平行である、請求項2に記載の撮像システム。
  4. 前記シャープネス処理ユニットは、前記第1の画像間でシャープネス情報を交換後、前記第1の画像に基づいて、前記出力画像を生成するように構成される、請求項1に記載の撮像システム。
  5. 前記撮像レンズユニット及び前記投射レンズユニットは、同一の軸上色収差を有する、請求項4に記載の撮像システム。
  6. 前記投射ユニットは、シャドーパターンを形成する、透明な特徴及び少なくとも部分的に不透明な特徴を含む光学素子を備える、請求項2に記載の撮像システム。
  7. 前記シャドーパターンは、グレースケール符号化パターンである、請求項6に記載の撮像システム。
  8. 前記光学ユニットは、前記第1の画像及び前記第2の画像を交互にキャプチャするように構成される、請求項1に記載の撮像システム。
  9. 前記第1の画像のキャプチャ中に、前記シーンを非構造化光で照明するように構成される照明ユニットをさらに備える、請求項1に記載の撮像システム。
  10. 前記照明ユニットは、出射面が前記シーンの方向を向き、接合面が外部光源に接続可能な、1つ又は複数の光ファイバを含む、請求項9に記載の撮像システム。
  11. 前記照明ユニットは、少なくとも可視光のスペクトル範囲を包含する広帯域発光スペクトルで、前記シーンを照明するように構成される、請求項9に記載の撮像システム。
  12. 前記照明ユニットは、2つ以上の別個の狭帯域発光スペクトルで、前記シーンを照明するように構成される、請求項9に記載の撮像システム。
  13. 前記奥行き処理ユニットは、光学三角測量によって前記第2の画像から前記奥行き情報を生成するように構成される、請求項1に記載の撮像システム。
  14. 前記シャープネス処理ユニットは、シャープネス情報として前記第1の画像の空間周波数分布を取得し、前記第1の画像のうちの少なくとも1つから前記空間周波数分布の高周波数成分を抽出し、前記抽出された高周波数成分を残りの前記第1の画像に加えて補正された第1の画像を生成し、前記奥行き情報を用いて前記補正された第1の画像を結合することによって、前記出力画像を生成するように構成される、請求項1に記載の撮像システム。
  15. 請求項1に記載の前記撮像システムを備える、内視鏡システム。
  16. チューブ部と、
    前記チューブ部の端面に取り付けられ、シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャするように構成される光学ユニットを備える先端部であって、軸上色収差を有する撮像レンズユニットが、前記シーン及び撮像センサユニットの間に配置される、前記先端部と、
    を備える、内視鏡。
  17. 前記第1の画像のキャプチャ中に、前記シーンを照明するように構成される照明ユニットをさらに備える、請求項16に記載の内視鏡。
  18. 前記光学ユニットは、構造化光で前記シーンを照明するように構成される投射ユニットを備え、
    前記投射ユニットは、
    制御可能な投射照明ユニットと、
    前記投射照明ユニット及び前記シーンの間に配置され、軸上色収差を有する投射レンズユニットと、
    を備える、請求項16に記載の内視鏡。
  19. シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャすることであって、軸上色収差を有する撮像レンズユニットが、前記シーンと撮像センサユニットとの間に配置される、前記キャプチャすることと、
    前記第2の画像に基づいて、奥行き情報を生成することと、
    前記奥行き情報を用いて、前記第1の画像を結合することによって、出力画像を生成することと、を含む、撮像方法。
  20. 奥行き情報は、前記構造化光のシャドーパターンによって識別される画像部分の光学三角測量を用いて生成される、請求項19に記載の撮像方法。
  21. シーンから、前記シーンが非構造化光で照明されるとき、異なる波長範囲の第1の画像をキャプチャし、前記シーンが構造化光で照明されるとき、異なる波長範囲の第2の画像をキャプチャする機器に配置される第1の手段であって、前記第1の画像及び第2の画像は、軸上色収差を有する撮像レンズユニットを用いてキャプチャされる、前記第1の手段と、
    前記第2の画像に基づいて、奥行き情報を生成する第2の手段であって、信号伝送に関して前記第1の手段に接続される、前記第2の手段と、
    前記奥行き情報を用いて、前記第1の画像を結合することによって、出力画像を生成する第3の手段であって、信号伝送に関して前記第1の手段及び前記第2の手段に接続される、前記第3の手段と、を備える、撮像システム。


JP2017524035A 2014-11-06 2015-08-11 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法 Active JP6496940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14003742 2014-11-06
EP14003742.5 2014-11-06
PCT/EP2015/068412 WO2016071020A1 (en) 2014-11-06 2015-08-11 Imaging system including lens with longitudinal chromatic aberration, endoscope and imaging method

Publications (2)

Publication Number Publication Date
JP2017536171A true JP2017536171A (ja) 2017-12-07
JP6496940B2 JP6496940B2 (ja) 2019-04-10

Family

ID=51903748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017524035A Active JP6496940B2 (ja) 2014-11-06 2015-08-11 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法

Country Status (4)

Country Link
US (1) US10334216B2 (ja)
JP (1) JP6496940B2 (ja)
DE (1) DE112015005073B4 (ja)
WO (1) WO2016071020A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181508A1 (ja) * 2020-03-10 2021-09-16 オリンパス株式会社 内視鏡システム
WO2023079842A1 (ja) * 2021-11-08 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、撮像システム及び撮像処理方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016156149A1 (en) * 2015-03-31 2016-10-06 Sony Corporation Imaging system using structured light for depth recovery
US10943333B2 (en) * 2015-10-16 2021-03-09 Capsovision Inc. Method and apparatus of sharpening of gastrointestinal images based on depth information
US10410365B2 (en) 2016-06-02 2019-09-10 Verily Life Sciences Llc System and method for 3D scene reconstruction with dual complementary pattern illumination
NL2018494B1 (en) 2017-03-09 2018-09-21 Quest Photonic Devices B V Method and apparatus using a medical imaging head for fluorescent imaging
EP3437849A1 (en) * 2017-08-03 2019-02-06 Boegli-Gravures SA Tool and method for embossing packaging material with an embossing pattern having a code with low visibility
US11699215B2 (en) 2017-09-08 2023-07-11 Sony Corporation Imaging device, method and program for producing images of a scene having an extended depth of field with good contrast
JP2019083501A (ja) * 2017-10-27 2019-05-30 ソニーセミコンダクタソリューションズ株式会社 撮像装置
CN108093240A (zh) * 2017-12-22 2018-05-29 成都先锋材料有限公司 3d深度图获取方法及装置
US10593055B2 (en) * 2018-03-23 2020-03-17 Capsovision Inc Method and apparatus for capturing images and associated 3D model based on a single image sensor and structured-light patterns in the visible spectrum
US11529039B2 (en) * 2018-05-08 2022-12-20 Xenocor, Inc. Non-conductive borescopes and related imaging techniques
US10997453B2 (en) * 2019-01-29 2021-05-04 Adobe Inc. Image shadow detection using multiple images
CN113143169A (zh) * 2020-01-22 2021-07-23 沈阳华慧高新技术有限公司 一种结构光双目内窥镜
JP2024508315A (ja) * 2021-03-03 2024-02-26 ボストン サイエンティフィック サイムド,インコーポレイテッド シーン深度推測を強化するための視鏡修正

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
JP2005504305A (ja) * 2001-09-21 2005-02-10 ビジコン インスペクション テクノロジーズ エルエルシー 三次元走査カメラ
US20050219552A1 (en) * 2002-06-07 2005-10-06 Ackerman Jermy D Methods and systems for laser based real-time structured light depth extraction
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
JP2014003545A (ja) * 2012-06-20 2014-01-09 Nippon Hoso Kyokai <Nhk> 補正装置、そのプログラム及び立体撮像システム
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
JP2014206687A (ja) * 2013-04-15 2014-10-30 オリンパスメディカルシステムズ株式会社 リレー光学系

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (ja) 1998-01-23 2000-01-11 Olympus Optical Co Ltd 内視鏡システム
AU2002317219A1 (en) * 2001-07-12 2003-01-29 Do Labs Method and system for modifying a digital image taking into account its noise
US8403828B2 (en) * 2003-07-21 2013-03-26 Vanderbilt University Ophthalmic orbital surgery apparatus and method and image-guide navigation system
US8044996B2 (en) 2005-05-11 2011-10-25 Xenogen Corporation Surface construction using combined photographic and structured light information
US7782296B2 (en) * 2005-11-08 2010-08-24 Microsoft Corporation Optical tracker for tracking surface-independent movements
JP5592070B2 (ja) 2006-03-14 2014-09-17 プライム センス リミティド 三次元検知のために深度変化させる光照射野
WO2008079301A2 (en) 2006-12-21 2008-07-03 Massachusetts Institute Of Technology Methods and apparatus for 3d surface imaging using active wave-front sampling
WO2009023044A2 (en) 2007-04-24 2009-02-19 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
FR2919733B1 (fr) * 2007-08-03 2010-04-09 Dxo Labs Systeme optique muni d'un dispositif d'accroissement de sa profondeur de champ
US7787112B2 (en) * 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
DE102007054907A1 (de) * 2007-11-15 2009-05-28 Sirona Dental Systems Gmbh Verfahren zur optischen Vermessung von Objekten unter Verwendung eines Triangulationsverfahrens
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
JP5197242B2 (ja) * 2008-09-01 2013-05-15 キヤノン株式会社 ズームレンズ及びそれを有する撮像装置
US9706903B2 (en) * 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
KR20120084216A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 깊이 정보에 대한 픽셀 노이즈를 제거하는 3차원 이미지 신호 처리 방법 및 상기 방법을 수행하는 3차원 이미지 신호 프로세서
US8684914B2 (en) 2011-08-12 2014-04-01 Intuitive Surgical Operations, Inc. Image capture unit and an imaging pipeline with enhanced color performance in a surgical instrument and method
JP6033890B2 (ja) * 2012-02-21 2016-11-30 エーエスエムエル ネザーランズ ビー.ブイ. 検査装置及び方法
US9524059B2 (en) * 2013-03-15 2016-12-20 Texas Instruments Incorporated Interaction detection using structured light images
CN111184577A (zh) * 2014-03-28 2020-05-22 直观外科手术操作公司 器械在视野中的定量三维可视化
NZ773813A (en) * 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US10484629B2 (en) * 2015-10-16 2019-11-19 Capso Vision Inc Single image sensor for capturing mixed structured-light images and regular images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
JP2005504305A (ja) * 2001-09-21 2005-02-10 ビジコン インスペクション テクノロジーズ エルエルシー 三次元走査カメラ
US20050219552A1 (en) * 2002-06-07 2005-10-06 Ackerman Jermy D Methods and systems for laser based real-time structured light depth extraction
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
JP2014003545A (ja) * 2012-06-20 2014-01-09 Nippon Hoso Kyokai <Nhk> 補正装置、そのプログラム及び立体撮像システム
JP2014206687A (ja) * 2013-04-15 2014-10-30 オリンパスメディカルシステムズ株式会社 リレー光学系

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181508A1 (ja) * 2020-03-10 2021-09-16 オリンパス株式会社 内視鏡システム
JP7451679B2 (ja) 2020-03-10 2024-03-18 オリンパス株式会社 内視鏡システム、内視鏡及び距離算出方法
WO2023079842A1 (ja) * 2021-11-08 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、撮像システム及び撮像処理方法

Also Published As

Publication number Publication date
JP6496940B2 (ja) 2019-04-10
US10334216B2 (en) 2019-06-25
WO2016071020A1 (en) 2016-05-12
DE112015005073B4 (de) 2020-08-06
US20170237960A1 (en) 2017-08-17
DE112015005073T5 (de) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6496940B2 (ja) 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法
US10410366B2 (en) Imaging system using structured light for depth recovery
US7801405B2 (en) Method and device for generating a structure-free fiberscopic picture
WO2017183181A1 (ja) 三次元形状測定装置
CN107113370B (zh) 图像记录设备及记录图像方法
US9383549B2 (en) Imaging system
JP2013534083A (ja) 2センサー撮像システム
WO2014080937A1 (ja) 画像生成装置
CN107077722B (zh) 图像记录设备及用于记录图像的方法
JP2009300268A (ja) 3次元情報検出装置
US10848681B2 (en) Image reconstruction from image sensor output
JP2013185832A (ja) 情報処理装置、情報処理方法
US11073689B2 (en) Method and system for calibrating a wearable heads-up display to produce aligned virtual images in an eye space
JP2017150878A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2008249909A (ja) 撮像装置及び光学系
JP5740559B2 (ja) 画像処理装置および内視鏡
US8649002B2 (en) Imaging system
US11051680B1 (en) Endoscope stereo imaging device
WO2015194204A1 (ja) 内視鏡装置
US9229211B2 (en) Imaging apparatus, imaging control program, and imaging method
US11676293B2 (en) Methods for depth sensing using candidate images selected based on an epipolar line
JP2011133360A (ja) 距離計測装置、距離計測方法、及びプログラム
JP2019066186A (ja) 撮像装置及び撮像装置の距離算出方法
US11743596B1 (en) Adaptive brightness non-uniformity correction in endoscope visualization
TWI573432B (zh) 掃描具有深度影像之物件之影像掃瞄方法及其系統

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R151 Written notification of patent or utility model registration

Ref document number: 6496940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190322