JP6695440B2 - 深度感知システム - Google Patents

深度感知システム Download PDF

Info

Publication number
JP6695440B2
JP6695440B2 JP2018545442A JP2018545442A JP6695440B2 JP 6695440 B2 JP6695440 B2 JP 6695440B2 JP 2018545442 A JP2018545442 A JP 2018545442A JP 2018545442 A JP2018545442 A JP 2018545442A JP 6695440 B2 JP6695440 B2 JP 6695440B2
Authority
JP
Japan
Prior art keywords
light
sensor
sensor pixel
pixels
sensor pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545442A
Other languages
English (en)
Other versions
JP2019512678A5 (ja
JP2019512678A (ja
Inventor
グレゴリー マイケル リンク,
グレゴリー マイケル リンク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2019512678A publication Critical patent/JP2019512678A/ja
Publication of JP2019512678A5 publication Critical patent/JP2019512678A5/ja
Priority to JP2020075247A priority Critical patent/JP6972224B2/ja
Application granted granted Critical
Publication of JP6695440B2 publication Critical patent/JP6695440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Power Engineering (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

(関連出願の相互参照)
本願は、米国仮出願第62/301,847号,出願日2016年3月1日、代理人管理番号ML.30066.00、発明の名称“DEPTH SENSING SYSTEMS AND METHODS”に対する優先権を主張するものである。本願は、米国仮特許出願第62/012,273号,出願日2014年6月14日(代理人管理番号ML.30019.00)および米国特許出願第14/738,877号、出願日2013年6月13日(代理人管理番号ML.20019.00)に関連している。上記特許出願の内容は、完全に記載されているかのように、それらの全体が参照により本明細書中に明示的かつ完全に援用される。特許出願第62/012,273号および第14/738,877号に記載されているのは、仮想現実および拡張現実システムの実施形態であり、そこでは、投影された光が深度感知において用いられる。本明細書中に記載されているのは、投影光深度感知システムおよび深度感知のための光センサのさらなる実施形態である。
本開示は、深度感知システムおよび方法に関する。
深度感知は、3次元(「3D」)空間(例えば、センサ)内の既知の点とオブジェクトの表面上の着目点(「POI」)との間の距離の判定である。深度感知は、表面上の複数のPOIの個別の距離を判定することが、その表面のテクスチャを判定するため、テクスチャ感知としても知られる。深度またはテクスチャ感知は、複合現実システムを含む、多くのコンピュータビジョンシステムのために有用である。
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、現実であるように見える、もしくはそのように知覚され得る様式においてユーザに提示される、いわゆる「仮想現実」または「拡張現実」体験のための複合現実システムの開発を促進している。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化の拡張として、デジタルまたは仮想画像情報の提示を伴う(すなわち、他の実際の実世界視覚的入力に対して透過性)。故に、ARシナリオは、他の実際の実世界の視覚的入力に対して透明性を伴うデジタルまたは仮想画像情報の提示を伴う。
種々の光学システムは、複合現実(VRおよびAR)シナリオを表示するために、画像を種々の深度に生成する。いくつかのそのような光学システムは、米国特許出願第14/738,877号(代理人管理番号第ML.20019.00号)に説明されており、その内容は、参照することによって本明細書の前述に組み込まれている。複合現実シナリオを表示するための他のそのような光学システムは、2014年11月27日に出願された米国特許出願第14/555,585号(代理人管理番号第ML.20011.00号)に説明されており、その内容は、全体として記載される場合と同様に参照することによってその全体として明示的に完全に本明細書に組み込まれる。
ARシナリオは、多くの場合、実世界オブジェクトに関連して仮想画像要素の提示を含む。例えば、図1を参照すると、拡張現実場面100が、描写されており、AR技術のユーザには、背景における人々、木々、建物を特徴とする実世界公園状設定102と、コンクリートプラットフォーム104とが見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム104上に立っているロボット像106と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ108とを「見ている」と知覚するが、これらの要素106、108は、実世界には存在しない。真実味があるまたは満足のゆくAR場面100を提示するために、実世界オブジェクト(例えば、プラットフォーム104)の深度は、仮想オブジェクト(例えば、ロボット像106)を実世界オブジェクトに関連して提示するように判定されなければならない。
実世界環境の一部の再現を含む、VRシナリオはまた、実世界環境のそれらの部分の深度およびテクスチャの判定から利益を享受し得る。正確な深度およびテクスチャ情報は、より正確なVRシナリオをもたらすであろう。ARおよびVRシナリオは両方ともまた、外向きに指向されるカメラを含み、実世界環境の一部を捕捉してもよい(例えば、分析または伝送のために)。これらの外向きに指向されるカメラを集束させることは、実世界環境のそれらの部分の深度の判定によって補助されることができる。
深度感知に対する1つのアプローチは、表面上の単一POIおよび個別の画像上のPOIの2つの画像(既知の配向において既知の距離だけ分離される)の光学軸間の個別の角度を測定することを含む。次いで、測定された角度および画像捕捉場所間の既知の距離を三角測量することによって、表面の深度を判定する。本アプローチに関する問題は、(1)第1の画像内のPOIの識別(特に、均質表面上)(「識別問題」)と、(2)第2の画像内の対応するPOIの識別(「対応問題」)とを含む。本明細書に説明されるシステムおよび方法は、これらの課題に対処するように構成される。
米国特許出願第14/738,877号明細書 米国特許出願第14/555,585号明細書
本発明の実施形態は、1人またはそれを上回るユーザのための仮想現実および/または拡張現実相互作用を促進するためのデバイス、システム、および方法を対象とする。
一実施形態では、深度感知システムは、光を表面から受信するための第1および第2のセンサピクセルを有する、センサを含む。本システムはまた、赤外線光を第2のセンサピクセルに伝送することを防止しながら、フルスペクトル光を第1のセンサピクセルに、可視光を第2のセンサピクセルに伝送することを可能にするためのフィルタを含む。本システムはさらに、フルスペクトル光および可視光を分析し、表面の深度を判定するためのプロセッサを含む。フィルタは、センサと表面との間に配置される。
1つまたはそれを上回る実施形態では、センサは、第2のセンサピクセルを含む、複数の第2のセンサピクセルを有し、複数の第2のセンサピクセルはそれぞれ、第1のセンサピクセルに隣接し、フィルタは、赤外線光を複数の第2のセンサピクセルのそれぞれに伝送することを防止しながら、可視光を複数の第2のセンサピクセルのそれぞれに伝送することを可能にする。フルスペクトル光および可視光を分析することは、複数の第2のセンサピクセルに対応する複数の検出された可視光値に基づいて、第1のセンサピクセルに関して推定される可視光値を計算することを含んでもよい。推定される可視光値を計算することは、複数の検出された可視光値を平均化することを含んでもよい。推定される可視光値を計算することは、縁検出を複数の検出された可視光値に行うことを含んでもよい。
1つまたはそれを上回る実施形態では、センサは、第1のセンサピクセルを含む、複数の第1のセンサピクセルを有し、複数の第1のセンサピクセルはそれぞれ、第1のセンサピクセルに隣接し、フィルタは、赤外線光を複数の第2のセンサピクセルのそれぞれに伝送することを防止しながら、可視光を複数の第2のセンサピクセルのそれぞれに伝送することを可能にする。フルスペクトル光および可視光を分析することは、複数の第1のセンサピクセルの各々に対し、複数の推定される可視光値を計算することと、複数の推定される可視光値の少なくともいくつかに基づいて、第1のセンサピクセルに関して推定される可視光値を計算することとを含んでもよい。
1つまたはそれを上回る実施形態では、本システムはまた、光を表面に向かって投影するための空間変調光投影デバイスを含み、光は、表面からセンサに向かって反射される。フルスペクトル光および可視光を分析することは、表面の赤外線光画像を生成することを含んでもよい。フルスペクトル光および可視光を分析することは、表面の赤外線光画像内のPOIを三角測量することを含んでもよい。
別の実施形態では、深度感知システムは、光を表面に向かって投影するための空間変調光投影デバイスを含む。本システムはまた、表面から反射された光を受信するためのセンサを含む。本システムはさらに、光投影デバイスの空間変調を制御し、光情報をセンサから受信するためのアクチュエータを含む。さらに、本システムは、表面から反射された光を分析し、表面の深度を判定するためのプロセッサを含む。光は、波長約700nm〜約1mmを有する、赤外線光を含む。
1つまたはそれを上回る実施形態では、光は、波長約390nm〜約700nmを有する、可視光を含む。アクチュエータは、光投影デバイスの空間変調を制御し、赤外線光および可視光を含む、パターンを形成してもよい。アクチュエータは、光投影デバイスの空間変調を制御し、2つの交差する線セグメントを表面上に形成してもよい。アクチュエータは、光投影デバイスの空間変調を制御し、2つの交差する線セグメントを含む静的パターンを表面上に形成してもよい。アクチュエータは、光投影デバイスの空間変調を制御し、2つの交差する線セグメントを含む動的パターンを表面上に形成してもよい。アクチュエータは、光投影デバイスの空間変調を制御し、複数の離散交差線セグメントを含むパターンを表面上に形成してもよい。
1つまたはそれを上回る実施形態では、光投影デバイスの空間変調を制御することは、光投影デバイスの少なくとも一部の移動を制御することを含む。光投影デバイスの空間変調を制御することは、光投影デバイスによって光の投影を制御することを含んでもよい。空間変調光投影デバイスは、ファイバ走査ディスプレイを含んでもよい。空間変調光投影デバイスは、レーザ光源を含んでもよい。空間変調光投影デバイスは、レーザ走査ディスプレイを含んでもよい。
さらに別の実施形態では、深度感知システムは、光を表面から受信するための第1および第2のセンサピクセルを有する、センサを含む。本システムはまた、第1の割合の可視光および第2の割合の赤外線光を第1のセンサピクセルに伝送し、第3の割合の可視光および第4の割合の赤外線光を第2のセンサピクセルに伝送することを可能にするためのフィルタを含む。第1の割合の可視光および第2の割合の赤外線光は、第1の感知された値を第1のセンサピクセルにもたらす。第3の割合の可視光および第4の割合の赤外線光は、第2の感知された値を第2のセンサピクセルにもたらす。本システムはさらに、第1および第2の感知された値を分析し、表面の深度を判定するためのプロセッサを含む。フィルタは、センサと表面との間に配置される。
1つまたはそれを上回る実施形態では、第1および第2の感知された値を分析することは、表面の赤外線光画像を生成することを含む。第1および第2の感知された値を分析することは、表面の赤外線光画像内のPOIを三角測量することを含んでもよい。
本発明の付加的および他の目的、特徴、ならびに利点は、詳細な説明、図、および請求項に説明される。
本発明は、例えば、以下を提供する。
(項目1)
深度感知システムであって、
光を表面から受信する第1および第2のセンサピクセルを有するセンサと、
赤外線光を前記第2のセンサピクセルに伝送することを防止しながら、フルスペクトル光を前記第1のセンサピクセルに伝送し、可視光を前記第2のセンサピクセルに伝送することを可能にするフィルタと、
前記フルスペクトル光および前記可視光を分析し、前記表面の深度を判定するプロセッサと
を備え、
前記フィルタは、前記センサと前記表面との間に配置される、システム。
(項目2)
前記センサは、前記第2のセンサピクセルを含む複数の第2のセンサピクセルを有し、
前記複数の第2のセンサピクセルのそれぞれは、前記第1のセンサピクセルに隣接し、
前記フィルタは、赤外線光を前記複数の第2のセンサピクセルのそれぞれに伝送することを防止しながら、可視光を前記複数の第2のセンサピクセルのそれぞれに伝送することを可能にする、項目1に記載のシステム。
(項目3)
前記フルスペクトル光および前記可視光を分析することは、前記複数の第2のセンサピクセルに対応する複数の検出された可視光値に基づいて、前記第1のセンサピクセルに関して推定される可視光値を計算することを含む、項目2に記載のシステム。
(項目4)
前記推定される可視光値を計算することは、前記複数の検出された可視光値を平均化することを含む、項目3に記載のシステム。
(項目5)
前記推定される可視光値を計算することは、縁検出を前記複数の検出された可視光値に行うことを含む、項目3に記載のシステム。
(項目6)
前記センサは、前記第1のセンサピクセルを含む複数の第1のセンサピクセルを有し、前記複数の第1のセンサピクセルのそれぞれは、前記第1のセンサピクセルに隣接し、
前記フィルタは、赤外線光を前記複数の第2のセンサピクセルのそれぞれに伝送することを防止しながら、可視光を前記複数の第2のセンサピクセルのそれぞれに伝送することを可能にする、項目2に記載のシステム。
(項目7)
前記フルスペクトル光および前記可視光を分析することは、
前記複数の第1のセンサピクセルの各々に対し、複数の推定される可視光値を計算することと、
前記複数の推定される可視光値の少なくともいくつかに基づいて、前記第1のセンサピクセルに関して推定される可視光値を計算することと
を含む、項目6に記載のシステム。
(項目8)
前記光を前記表面に向かって投影する空間変調光投影デバイスをさらに備え、
前記光は、前記表面から前記センサに向かって反射される、項目1に記載のシステム。
(項目9)
前記フルスペクトル光および前記可視光を分析することは、前記表面の赤外線光画像を生成することを含む、項目1に記載のシステム。
(項目10)
前記フルスペクトル光および前記可視光を分析することは、前記表面の赤外線光画像内のPOIを三角測量することを含む、項目9に記載のシステム。
(項目11)
深度感知システムであって、
光を表面に向かって投影する空間変調光投影デバイスと、
前記表面から反射された光を受信するセンサと、
前記光投影デバイスの空間変調を制御し、光情報を前記センサから受信するアクチュエータと、
前記表面から反射された光を分析し、前記表面の深度を判定するプロセッサと
を備え、
前記光は、波長約700nm〜約1mmを有する赤外線光を含む、システム。
(項目12)
前記光は、波長約390nm〜約700nmを有する可視光を含む、項目11に記載のシステム。
(項目13)
前記アクチュエータは、前記光投影デバイスの空間変調を制御し、前記赤外線光および前記可視光を含むパターンを形成する、項目12に記載のシステム。
(項目14)
前記アクチュエータは、前記光投影デバイスの空間変調を制御し、2つの交差する線セグメントを前記表面上に形成する、項目11に記載のシステム。
(項目15)
前記アクチュエータは、前記光投影デバイスの空間変調を制御し、2つの交差する線セグメントを含む静的パターンを前記表面上に形成する、項目14に記載のシステム。
(項目16)
前記アクチュエータは、前記光投影デバイスの空間変調を制御し、2つの交差する線セグメントを含む動的パターンを前記表面上に形成する、項目14に記載のシステム。
(項目17)
前記アクチュエータは、前記光投影デバイスの空間変調を制御し、複数の離散交差線セグメントを含むパターンを前記表面上に形成する、項目14に記載のシステム。
(項目18)
前記光投影デバイスの空間変調を制御することは、前記光投影デバイスの少なくとも一部の移動を制御することを含む、項目11に記載のシステム。
(項目19)
前記光投影デバイスの空間変調を制御することは、前記光投影デバイスによって前記光の投影を制御することを含む、項目18に記載のシステム。
(項目20)
前記空間変調光投影デバイスは、ファイバ走査ディスプレイを備える、項目11に記載のシステム。
(項目21)
前記空間変調光投影デバイスは、レーザ光源を備える、項目11に記載のシステム。
(項目22)
前記空間変調光投影デバイスは、レーザ走査ディスプレイを備える、項目11に記載のシステム。
(項目23)
深度感知システムであって、
光を表面から受信する第1および第2のセンサピクセルを有するセンサと、
第1の割合の可視光および第2の割合の赤外線光を前記第1のセンサピクセルに伝送し、第3の割合の可視光および第4の割合の赤外線光を前記第2のセンサピクセルに伝送することを可能にするフィルタであって、
前記第1の割合の可視光および前記第2の割合の赤外線光は、第1の感知された値を前記第1のセンサピクセルにもたらし、
前記第3の割合の可視光および前記第4の割合の赤外線光は、第2の感知された値を前記第2のセンサピクセルにもたらす、
フィルタと、
前記第1および第2の感知された値を分析し、前記表面の深度を判定するプロセッサと
を備え、
前記フィルタは、前記センサと前記表面との間に配置される、システム。
(項目24)
前記第1および第2の感知された値を分析することは、前記表面の赤外線光画像を生成することを含む、項目23に記載のシステム。
(項目25)
前記第1および第2の感知された値を分析することは、前記表面の赤外線光画像内のPOIを三角測量することを含む、項目24に記載のシステム。
図面は、本発明の種々の実施形態の設計および可用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同一参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点ならびに目的を得る方法をより深く理解するために、上記で簡単に説明された詳細な説明が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、その範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通して付加的な具体性および詳細とともに記載ならびに説明されるであろう。
図1は、一実施形態による、ウェアラブルARユーザデバイスを通した拡張現実(AR)のユーザのビューを描写する。
図2−4は、種々の先行技術の深度感知システムによって投影された線セグメントおよびパターンの詳細図である。図3および4はまた、種々の先行技術の深度感知システムの走査面積を描写する。 図2−4は、種々の先行技術の深度感知システムによって投影された線セグメントおよびパターンの詳細図である。図3および4はまた、種々の先行技術の深度感知システムの走査面積を描写する。 図2−4は、種々の先行技術の深度感知システムによって投影された線セグメントおよびパターンの詳細図である。図3および4はまた、種々の先行技術の深度感知システムの走査面積を描写する。
図5−9は、種々の実施形態による、深度感知システムによって投影された線セグメントおよびパターンの詳細図である。 図5−9は、種々の実施形態による、深度感知システムによって投影された線セグメントおよびパターンの詳細図である。 図5−9は、種々の実施形態による、深度感知システムによって投影された線セグメントおよびパターンの詳細図である。 図5−9は、種々の実施形態による、深度感知システムによって投影された線セグメントおよびパターンの詳細図である。 図5−9は、種々の実施形態による、深度感知システムによって投影された線セグメントおよびパターンの詳細図である。
図10は、一実施形態による、深度感知システムの詳細な概略図である。
図11は、使用時の図10に描写される深度感知システムの詳細な斜視図である。
図12は、別の実施形態による、深度感知システムの詳細な概略図である。
図13は、先行技術の深度感知システムの詳細な概略図である。
図14および15は、2つの実施形態による、深度感知システムの詳細な概略図である。 図14および15は、2つの実施形態による、深度感知システムの詳細な概略図である。
図16−18は、種々の実施形態による、深度感知システムのための光センサの詳細な概略図である。 図16−18は、種々の実施形態による、深度感知システムのための光センサの詳細な概略図である。 図16−18は、種々の実施形態による、深度感知システムのための光センサの詳細な概略図である。
図19および21は、2つの実施形態による、画像処理方法を描写するフローチャートである。
図20は、別の実施形態による、深度感知システムのための光センサの詳細な概略図である。 図19および21は、2つの実施形態による、画像処理方法を描写するフローチャートである。
本発明の種々の実施形態は、単一実施形態または複数の実施形態における深度感知システムのためのシステム、方法、および製造品を対象とする。本発明の他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
ここで、種々の実施形態が、当業者が本発明を実践することを可能にするように、本発明の例証的実施例として提供される、図面を参照して詳細に説明されるであろう。留意すべきこととして、以下の図および実施例は、本発明の範囲を限定することを意味するものではない。本発明のある要素が、公知の構成要素(または方法もしくはプロセス)を使用して部分的または完全に実装され得る場合、本発明の理解のために必要なそのような公知の構成要素(または方法もしくはプロセス)のそれらの一部のみが、説明され、そのような公知の構成要素(または方法もしくはプロセス)の他の部分の詳細な説明は、本発明を曖昧にしないように、省略されるであろう。さらに、種々の実施形態は、例証として本明細書に参照される構成要素の現在および将来的公知の均等物を包含する。
深度感知システムは、複合現実システムから独立して実装されてもよいが、以下の多くの実施形態は、例証目的のためだけにARシステムに関係して説明される。
(問題および解決策の概要)
表面の深度(すなわち、3D空間内の既知の点と表面上の点との間の距離)を光学的に推定または感知するための種々の方法が、存在する。深度感知方法は、2つの主要モード、すなわち、受動および能動に分類されることができる。受動システムは、表面によって反射されたシステム外の光源(例えば、頭上光または太陽)からの周囲光を検出する。能動システムは、光を表面上に投影し、表面によって反射された投影された光を検出する。
受動システムは、典型的には、既知の距離だけ分離される異なる場所において捕捉された2つの画像を使用して、深度を判定する。いくつかの受動システムは、複数のカメラを使用して、2つの画像を捕捉する(双眼構成におけるように)。他の受動システムは、異なる時間および場所において、同一センサを使用して2つの画像を捕捉する。2つの画像が異なる場所において捕捉された後、システムは、画像を処理し、1つの画像内のPOIを他の画像内の対応するPOIに合致させる。次いで、システムは、2つの画像の光学軸間の角度、表面上の単一POI、および2つの画像捕捉場所間の距離を三角測量し、システムに既知の2つの画像捕捉場所に対して3D空間内のPOIの場所を判定する。
受動システムは、3D空間内のPOIの場所を判定するが、1つの画像内で識別され(「識別問題」)、他の画像内のその対応物と合致され(「対応問題」)得る適切なPOIの欠如を含む、複数の不具合モードを有し得る。本不具合モードの実施例は、ブランク白色壁の撮像であって、(1)1つの画像内の壁上の点の識別と、(2)他の画像内の対応する点の識別とが、非常に困難である。同様に、暗い部屋の場合、単に、十分な周囲光が存在せず、オブジェクトが明確に見えず、したがって、それらを識別および合致させることがまた、非常に困難である。
いくつかの能動システムは、パターン化またはテクスチャ化された光(例えば、万華鏡からの光)を投影させることによって、これらの2つの問題(すなわち、光の欠如および区別可能特徴の欠如)に対処する。そのようなシステムは、表面を照明し、パターンを均質表面(例えば、白色壁)にわたって投影する。2つの画像が、静的照明パターンを伴うそのような能動システムを使用して捕捉される場合、(同時捕捉または定常投影を伴う2つのカメラのいずれかによって)、1つの画像から他の画像に表面上のパターン(またはその一部)を合致させることがはるかに単純である。したがって、3D空間内のPOIの場所の三角測量も、対応して、より単純となる。実際、タイトな機械的公差を伴う高度なシステムを使用することによって、3D空間内のPOIの場所が、観察される反射の角度とカメラおよび光プロジェクタの場所との両方を三角測量することによって計算され得るため、単一カメラによって捕捉された単一画像が、POIの場所を判定するために使用されることができる。
しかしながら、能動システムを用いる場合でも、可視光の使用は、表面の近傍におけるユーザまたは他者の気を散らせる、またはその方向感覚を失わせ得るため、多くの場合、準最適である。いくつかの能動システムは、現代のrawカメラセンサが、(例えば、近赤外線光子)を検出することができるが、ヒト眼には見えない、赤外線(「IR」)光を投影させることによって、本問題に対処する。
赤外線能動システムを使用しても、場面内の他のパターンが、深度感知に干渉する、または他の深度感知問題を生じさせ得る。他のシステムは、可視光がセンサに到達しないように、センサ(本来、可視光および赤外線光の両方を感知することができる)にわたって配置される波長フィルタを含む。フィルタの追加は、典型的には、システム(赤外線)プロジェクタ、太陽、およびいくつかの他の赤外線光源(例えば、保温電球および遠隔制御)によってのみ照明される、赤外線のみの画像の検出をもたらす。
最も正確(すなわち、真の値に最も近い)かつ精密な(すなわち、再現可能な)深度情報を得るために、超高分解能センサが、所望される。視認面積にわたるより多数のセンサピクセルは、各センサピクセルの角度分解能の低減をもたらし、より高い精度の角度入力を三角測量の計算に効果的に提供する。本願で使用されるように、「センサピクセル」は、限定ではないが、光強度の測定のためのセンサ上の区別可能点を含む。
赤外線能動システムは、外向きに指向されるカメラを含む、システム内の可視光を検出する、センサ/センサピクセルに加え、赤外線を検出する、センサ/センサピクセルを要求する。本アプローチに関する問題は、(1)ハイブリッド赤色/緑色/青色/赤外線センサを含む、システム内の可視光分解能の低減と、(2)別個の可視および赤外線センサを含む、システム内の座標位置合わせとを含む。本明細書に開示される実施形態は、以下に説明されるように、拡張された深度感知を伴う改良された画像センサを使用することによって、これらおよび他のセンサ問題に対処する。
付加的処理を伴わずに、POIのための最大限の角度精度が、単一センサピクセルの角度分解能を用いて達成される。しかしながら、画像処理アルゴリズムが、「サブピクセル分解能」を提供することができる。例えば、システムは、いくつかのセンサピクセルにわたっていくつかの特徴(例えば、机の角縁を構成する線)を観察し、単一センサピクセルのものより高い精度で直線の方程式を再構築することができる。
深度感知方法は、それらが信号処理方法であるため、システムのナイキスト限界を被る。したがって、信号周波数に基づく最小量のサンプリング点(および点密度)が、信号を再構築するために要求される。したがって、より雑音のある信号は、「より単純な」(より低い帯域幅)信号よりサンプリングおよび再構築が困難である。本明細書に開示される実施形態は、以下に説明されるように、非エイリアシングパターンプロジェクタ/発生器を使用し、投影された光の高周波数雑音を低減させることによって、ナイキスト限界関連問題および他のプロジェクタ関連問題に対処する。
(動的非エイリアシングパターンプロジェクタ/発生器)
ファイバ走査プロジェクタ(「FSP」)は、ファイバ光学先端を高周波数で選択的に振動させることによって、光を投影する。FSPは、ファイバ走査型ディスプレイ(「FSD(fiber scanned displays)」)、ファイバ走査式ディスプレイ(「FSD(fiber scanning displays)」)、走査型ファイバディスプレイ、および走査式ファイバディスプレイとしても知られる。FSPは、動的画像をヒト観察のための表示として投影することができる。その超小型サイズおよび低潜在的電力消費は、複合現実システム等のある用途に理想的である。例示的FSPは、米国特許出願第14/738,877号(代理人管理番号第ML.20019.00号)および第14/555,585号(代理人管理番号第ML.20011.00号)に説明されており、その内容は、参照することによって本明細書の前述で組み込まれている。
本明細書に開示される実施形態は、典型的「パネル」タイプディスプレイ(例えば、LCOSまたはDLP)とは対照的に、テクスチャ化された、パターン化された、または構造化された光を深度再構成において使用するためのFSPを用いて投影することを説明する。既存の能動深度感知システムの大部分は、ピクセル化パターン(例えば、正方形または長方形)で光を投影する、LCOSおよびDLP等の光子源を使用する。これらのシステムは、フレーム全体を同時に照明し、投影された画像は、一度に投影された複数の直線(または固定形状)表示ピクセルから成る。その結果、これらの画像は、鮮明な線の代わりに、複数の繰り返される(概して、直線/正方形)形状から成る。
図2は、投影された線200内の不完全性を示すために十分な拡大率における、パネルタイプディスプレイによって投影された「線」200を描写する。本拡大率では、投影された線200は、ステップのセットを形成する一連の直角として現れる。しかしながら、より低い拡大率では、投影された線200は、視認者に線形に現れるであろう。直角の辺のそれぞれは、線形の一連の表示ピクセルによって形成される。
投影された線200の不規則性の結果、投影された線200を検出する同等の(またはより高い)分解能のセンサは、高周波数雑音を投影されたパターン内で観察するために十分な感度を有し、画像再構成労力を複雑にするであろう。図3は、プロジェクタより低い分解能を伴うセンサからのオーバーレイされた正方形形状の走査面積202を伴う、図2からの投影された線200を示す。図3に示されるように、投影された線200に沿った走査面積202は、同じ量の投影された線200を含有しない。したがって、センサからの信号は、非常に雑音があり、エイリアシング、すなわち、細い黒色線の代わりに、太い灰色線をもたらす。
本雑音信号問題は、図4に示されるように、2つの投影された線200a、200bの交差部204を特定するタスクを複雑にする。本交差部204は、深度感知システムのPOIであり得る。しかしながら、投影された線200a、200b内の高周波数雑音は、交差部204が点の代わりに線セグメントとなる結果をもたらす。さらに、走査面積202は、交差部204を高正確度で識別するために十分な詳細で線200a、200bを分解不可能である。
既存のシステムは、対応するセンサよりはるかに高い分解能を伴うプロジェクタを使用することによって、または付加的信号処理アルゴリズムを使用して、このより雑音の多い信号をサブピクセル(またはさらにピクセル)精度マッピングに適切なものに再構築することによってのいずれかで本問題に対処する。
本明細書に開示される実施形態は、FSPを使用して光を投影させ、より高い品質の動的パターンを生産し、画像再構成を促進することを説明する。FSPを使用するとき、光は、単一進行ビーム(例えば、レーザ)によって投影される。ビームは、比較的に高い周波数において場面を横断して機械的に走査される。光を場面の実質的に全てのピクセル上に投影させるのではなく(パネルタイプディスプレイのように)、FSPは、投影された光がエイリアシング(例えば、画像歪曲またはぎざぎざ)および高周波数雑音(両方とも再構成労力に干渉する)を最小限にするように、狭分散角度を伴うビームパターンを表面上に投影させることによって、光学的に明確に異なるパターンを作成する。
パネルタイプディスプレイは、固定照明パターンを有するが、FSPは、動的である。FSPの効果的走査周波数は、200の別個のXおよびY進行経路(例えば)のみを可能にし得るが、位相オフセット、照明パターン、および走査周波数は、変動され、超高分解能プロジェクタを要求せずに、クリアな非エイリアシング縁、交差部、したがって、容易に識別可能なPOIを提供する、動的パターンを可能にすることができる。
例えば、図5は、FSPによって投影されたパターン300を描写する。パターンは、FSPを変調し(例えば、アクチュエータを用いて)、位相オフセットされた正弦波302a、302bの2つのインスタンス/パスを「描く」ことによって生成される。したがって、第1および第2の正弦波302a、302bは、周期的に交差し、交差部304の規則的セットを形成する。FSPは、光をタイトなビーム光源(例えば、レーザ)から投影し、図5に描写されるパターン300を形成し得る。故に、光からの信号は、最小限の高周波数雑音および無視可能なエイリアシングを有する。交差部304は、交差部が、点の中心の推定を要求する光が拡散するにつれて直径が増加するであろう点より、画像分析によって、正確かつ精密に識別可能であるため、特に望ましいPOIを形成する。離散交差部を形成する、別のFSPパターンは、リサジューパターンである。
図6は、FSPによって投影された別のパターン300’を描写する。図6に描写されるパターン300’は、図5に描写され、上記に説明される、パターン300に類似する。実際、図6に描写されるパターン300’は、FSPを変調し、図5に示される正確に同一の第1および第2の正弦波302a、302bを形成することによって形成される。しかしながら、FSPはさらに、第1および第2の正弦波302a、302bが交差し、交差部304を形成するときのみ、その内部の光源をアクティブ化することによって変調される。FSPを用いた本パターン300’の投影は、(1)より明確に異なりかつ識別可能な交差部304(POI)と、(2)光源を非アクティブ化することから低減されたシステムエネルギー使用とをもたらす。
図7は、FSPによって投影されたさらに別のパターン300’’を描写する。図7に描写されるパターン300’’は、図6に描写され、上記に説明される、パターン300’とほぼ同じである。図7に示される第1および第2の正弦波302a’、302b’は、図6に示される第1および第2の正弦波302a、302bと比較して、位相偏移される(同一量だけ)。故に、図7に示される第1および第2の正弦波302a’、302b’によって形成される交差部304’もまた、図6に示される第1および第2の正弦波302a、302bによって形成される交差部304と比較して、位相偏移される。
交差部304と比較した交差部304’の変位は、図8に描写されており、これは、陰影で示される第1および第2の正弦波302a、302bおよび交差部304(図6から)を伴う、図7である。図6に描写されるパターン300’(および図8では陰影)と図7に描写されるパターン300’’(および図8では実線)との間の時間的連続切替は、交差部304/304’を移動するように現れさせる。本移動は、より明確に異なりかつ識別可能な交差部304/304’(POI)を伴う動的パターンをもたらす。
図9は、FSPによって投影された別のパターン300’’’を描写する。図9に描写されるパターン300’’’は、図6に描写され、上記に説明される、パターン300に類似する。図9に示される第1および第2の正弦波302a’’、302b’’は、図6に示される第1および第2の正弦波302a、302bと比較して修正される。故に、図9に示される第1および第2の正弦波302a’’、302b’’によって形成される、交差部304’’は、図6に示される第1および第2の正弦波302a、302bによって形成される交差部304と比較して、修正された形状を有する。図9における交差部304’’の形状は、+である一方、図6における交差部304の形状は、Xである。しかしながら、図6および9における交差部304、304’’の場所は、同一である。故に、図6に描写されるパターン300’と図9に描写されるパターン300’’’との間の時間的連続切替は、交差部304/304’’に形状を変化させるように現れさせる(Xと+との間で)。本形状変化は、より明確に異なりかつ識別可能な交差部304/304’’(POI)を伴う動的パターンをもたらす。
図5−9に描写される、パターン300、300’、300’’、300’’’は、パターン300、300’、300’’、300’’’内の各交差部304、304’、304’’(POI)に対して同一の変化を描写する。他の実施形態では、交差部304、304’、304’’のサブセットが、変化してもよい(例えば、位置、形状、波長等)。さらに他の実施形態では、交差部304、304’、304’’の種々のサブセットは、異なる変化を有してもよい。例えば、深度感知のために使用される交差部304、304’、304’’のみが、変化してもよい。他の実施形態では、交差部304、304’、304’’の数は、高密度から低密度に動的に変化してもよい。さらに他の実施形態では、光源(例えば、レーザ)は、パルシングされ、パターン300、300’、300’’、300’’’を動的に変動させることができる。
図10は、一実施形態による、上記に説明されるパターン300、300’、300’’を投影可能な能動深度感知システム400を描写する。システム400は、空間変調光投影デバイス402(例えば、FSP)と、2つの光センサ404a、404b(例えば、カメラ)と、他のコンポーネント402、404a、404bに動作可能に結合される、プロセッサ406とを含む。空間変調光投影デバイス402(例えば、FSP)、光センサ404a、404b(例えば、カメラ)、およびプロセッサ406は、システム400内のバス(図示せず)によって、結合されてもよい。代替として、これらのコンポーネント402、404a、404b、406の一部または全部は、ネットワーク(例えば、無線ネットワーク)によって、相互に結合されてもよい。
図11は、使用時の図10に描写される能動深度感知システム400を描写する。空間変調光投影デバイス402は、変調され、パターン408(例えば、+)を略均質表面410(例えば、ブランク壁)上に投影する。パターン408は、POIとして使用され、光投影デバイス402と表面410との間の距離Yを判定することができる。光投影デバイス402は、光412を表面410上に投影し、パターン408を形成する。反射光412’、412’’は、第1および第2の光センサ404a、404bから検出される。
システム400は、パターン408が第1および第2の光センサ404a、404bの個別の光学軸414a、414bから変位される、角度α、βを測定する。測定された角度α、βと、光投影デバイス402と個別の第1および第2の光センサ404a、404bを分離する既知の距離X1、X2とのうちの1つを使用して、システム400は、光投影デバイス402と表面410との間の距離Yを計算することができる。角度α、βが測定されると、システム400は、より正確かつ精密に計算された距離Yを提供することができる。
図12は、別の実施形態による、能動深度感知システム400を描写する。図12に描写されるシステム400は、図10および11に描写されるものに類似する。空間変調光投影デバイス402、2つの光センサ404a、404b、およびプロセッサ406に加え、図12に描写されるシステム400はまた、アクチュエータ416を含み、光投影デバイス402を変調する。図12に描写されるシステム400のプロセッサ406は、その上で起動する、パターン設計器418と、パターン検出器420とを含む。パターン設計器418は、パターンを生成し、生成されたパターンを規定するデータをアクチュエータ416に送信し、これは、光投影デバイス402を変調し、生成されたパターンを表示する。パターン検出器420は、光学データを第1および第2の光センサ404a、404bから受信し、パターンに関する情報を受信された光学データから抽出する。
さらに、FSPは、単に、光ビームのための空間変調導管として作用するため、異なる波長を有する光ビームは、同時に、FSPを辿って通過されることができる。これは、非可視赤外線光のみではなく、また、種々の色の可視光が伝送されることも可能にする。複数の光ビームの使用は、FSPが、赤外線パターンを可視パターンで拡張することを可能にし、通常類似波長では見えないであろう、カメラセンサ間の対応を可能にする。これは、カメラセンサと共通座標系の位置合わせを補助し、付加的深度再構成情報を提供することができる(1つのセンサからの特徴が補完情報を別のセンサに提供することに役立つことを可能にする)。そのようなシステムはまた、目標を示すための補助照明、集束において使用するための領域、警告等の他の機能を行うことができる。
FSPを含む、能動深度感知システムは、以下の特性を有する。FSPは、明確に異なりかつ動的な(すなわち、経時的に変動する)パターンを投影し、経時的に深度判定のための補完または改良された情報を提供する。さらに、FSPは、集束される面積へのエネルギー放出を調整し、それによって、電力を低減させ、所与の面積に送達されるエネルギーを増加させ、高周波数雑音を克服することができる。FSPはまた、最小限の量の高周波数画像雑音を有し、それによって、深度判定計算を簡略化する。さらに、FSPは、同時に、光を2つの光源(例えば、赤外線および非可視光源)から投影可能である。
さらに、本明細書に説明される能動深度感知システムは、FSPを含むが、他の空間変調光投影デバイスもまた、望ましいシステム特性を留保しながら、能動深度感知システムにおいて使用されることができる。例えば、能動深度感知システムは、微小電気機械システム(「MEMS」)ミラースキャナと、レーザ光源とを含むことができる。FSPを含むシステムのように、MEMSミラースキャナを含むシステムは、ビームパターンを表面にわたって投影および走査することができる。他の実施形態では、システムはまた、パターンを投影および走査し、可変照明コンピュータ生成ホログラムの一部を形成することができる。全ての空間変調光投影デバイス(例えば、FSPおよびMEMSミラースキャナ)が、表示ピクセルではなく、光の「ビーム」または「弧」を投影し、それらのビームの経路およびタイミングを変動させる能力を有する。
(拡張深度感知を伴う画像センサ)
受動および能動深度感知システムは両方とも、少なくとも1つのセンサ(例えば、カメラ)を含み、表面から反射された光を検出する。上記に説明されるように、いくつかの深度感知システムは、可視光(例えば、周囲光)を検出する一方、その他は、投影された光パターン(例えば、投影された赤外線光)を検出する。
既存の深度感知システム(受動および能動)は、典型的には、2つのカメラセンサを使用して、可視光および投影された赤外線光を検出する。これらのカメラセンサはそれぞれ、1つのカメラセンサが可視光(可能性として、RGBカラーフィルタを用いて)を検出し、他のカメラセンサが赤外線光(可視光をフィルタ処理することによって)を検出するように、異なるフィルタと関連付けられる。本センサ配列は、図13に描写されており、これは、可視光センサ502と、赤外線光センサ504とを含む、受動深度感知システム500を描写しており、両方とも、プロセッサ506に動作可能に結合される。赤外線光センサ504は、光カットフィルタ508を含み、これは、赤外線光を除く全ての光が、赤外線光センサ504に到達することを防止する。可視光および赤外線光センサ502、504からのデータが、ともに使用され得る前に、センサ502、504の座標系が、位置合わせされなければならない。座標系の位置合わせは、深度感知システム500が表面に対して移動しているとき、特に困難である。
本明細書に開示される実施形態は、深度感知システムにおいて使用するためのハイブリッド可視/フルスペクトル光センサを説明する。本願で使用されるように、「フルスペクトル光」は、可視光および赤外線光(波長約390nm〜約1mm)を含む。例えば、図14は、一実施形態による、受動深度感知システム600を描写する。受動深度感知システム600は、プロセッサ604に動作可能に結合される、ハイブリッド可視/フルスペクトル光センサ602を含む。可視/フルスペクトル光センサ602は、以下に詳細に説明されるように、ハイブリッドフィルタ606を含む。ハイブリッドフィルタ606は、可視光のみが可視/フルスペクトル光センサ602のいくつかの部分(すなわち、センサピクセル)に到達することを可能にするが、フルスペクトル光が可視/フルスペクトル光センサ602の他の部分(すなわち、センサピクセル)に到達することを可能にする。
図15は、別の実施形態による、受動深度感知システム600を描写する。受動深度感知システム600は、プロセッサ604に動作可能に結合される、ハイブリッド可視/フルスペクトル光センサ602を含む。可視/フルスペクトル光センサ602は、以下に詳細に説明されるように、ハイブリッドフィルタ606を含む。プロセッサ604は、その上で起動する、画像プロセッサ608を含む。
図16は、図14および15に描写されるもののような受動深度感知システム600において使用するためのハイブリッド可視/フルスペクトル光センサ602およびそのハイブリッドフィルタ606の一部を図式的に描写する。図16に描写されるハイブリッド可視/フルスペクトル光センサ602の部分は、5つのセンサピクセル610を含む。下層センサピクセル610は、それらがそれぞれ、フルスペクトル光、すなわち、可視光(波長約390nm〜約700nm)と、赤外線光(波長約700nm〜約1mm)とを検出することができる限りにおいて同じである。しかしながら、いくつかのセンサピクセル610に到達する光は、光源(例えば、反射表面)とセンサ602との間に配置される、フィルタ606によって修正される。
図16に示されるように、フィルタ606は、対応するセンサピクセル610にわたって配置されるサブフィルタまたは「キャップ」F1と、V1−V4とを含む。フルスペクトル光(「F−タイプ」)キャップは、フルスペクトル光がF−タイプキャップの下層のセンサピクセル610に到達することを可能にする。実際、F−タイプキャップは、任意のフィルタ処理能力を全く有していなくてもよい。可視光(「V−タイプ」)キャップは、可視光のみがV−タイプキャップの下層のセンサピクセル610に到達することを可能にする。センサピクセル/キャップ610F1は、東西南北位置における4つのセンサピクセル/キャップ610V1−610V4によって囲繞され、「+」記号を形成し、センサピクセル/キャップ610F1を中央に伴う。故に、ハイブリッド可視/フルスペクトル光センサ602は、フルスペクトル光センサピクセルに対して東西南北位置における4つの可視光(「V−タイプ」)センサピクセルによって囲繞されるフルスペクトル光(「F−タイプ」)センサピクセルを含む。ハイブリッド可視/フルスペクトル光センサ602は、1つのセンサにおける可視光およびフルスペクトル光センサピクセルの組み合わせおよびそれらのセンサピクセルの配列のため、他のセンサと異なる。
図16に描写されるセンサ602およびフィルタ606は、十字形状の構成に配列される5つのセンサピクセル610を含むが、他の実施形態は、異なる数のピクセルおよび/または異なる形状を伴う構成を含む。本明細書に説明されるセンサデータ分析方法は、異なる構成を伴うセンサおよびフィルタからのデータを分析するように修正されることができる。
図17および18は、図16に描写されるハイブリッド可視/フルスペクトル光センサ602およびそのハイブリッドフィルタ606のより大きい部分を図式的に描写する。図17および18に示されるように、V−タイプおよびF−タイプセンサピクセルは、各センサピクセル(V−タイプまたはF−タイプ)に対し、それの東西南北近隣の全4つが相補的タイプであるように、交互パターンで配置される。
そのような構成では、P個の総センサピクセル(例えば、640×480=307,200)を伴うハイブリッド可視/フルスペクトル光センサ602に関して、センサピクセルの半分は、V−タイプであり、半分は、F−タイプとなるであろう。各タイプのセンサピクセルが、さらなる画像処理を伴わずに独立して検討されるとき、本センサピクセル配列は、センサピクセルタイプおよび用途のために低減された有効分解能をもたらす。全分解能センサを増加させ、本問題を補償することは、電力消費、センササイズ、および他のシステムコストを増加させるであろう。
種々の実施形態による、ハイブリッド可視/フルスペクトル光センサ602を含む、深度感知システム600は、画像処理によって低減された有効分解能を補償する(図15に描写される画像プロセッサ608を使用して)。これらの方法は、同等のサイズの別個の可視または赤外線センサの分解能の100%を復元し得ないが、これらの方法は、事実上、ハイブリッド可視/フルスペクトル光センサ602の実際のセンサピクセル分解能から予期されるであろう、より高い分解能を復元することができる(例えば、50%可視センサピクセルおよび50%フルスペクトルセンサピクセル)。ハイブリッド可視/フルスペクトル光センサと併用するための画像処理方法の実施形態は、別個のセンサの分解能の約50%〜約100%を復元することができる。他の実施形態は、分解能の約66%〜約90%を復元することができる。さらに他の実施形態は、分解能の約75%を復元することができる。
深度感知システム600内で使用される光は、全てのセンサピクセル610が可視光を検出するため、可視スペクトル内で重複する波長を含む。F−タイプセンサピクセル610Fはまた、赤外線光を検出する。図16−18に示される実施形態では、各センサピクセル610は、各タイプ4つの8つの隣り合った近隣を有する。例えば、図17に示されるように、610F1は、4つの隣り合ったV−タイプセンサピクセル610V1−610V4を東西南北方向に有する。610F1はまた、4つの隣り合ったF−タイプセンサピクセル610F2−610F5を東西南北方位の間の方向に有する。
以下は、一実施形態による、画像処理方法の一般的説明である。全てのF−タイプセンサピクセル610FのF値が、最初に、計算された可視値(「CV」)および計算された赤外線値(「CI」)の2つの値から成るように概算されることができる。第1の通過では、F−タイプセンサピクセル610Fに隣接するV−タイプセンサピクセル610Vに関する測定された可視光値(「V」)が、F−タイプセンサピクセル610Fに関する第1の通過CVを推定するために使用される。次いで、第1の通過CVは、F−タイプセンサピクセル610Fに関する第1の通過CIを推定するために使用される。第2の通過では、第1の通過CIが、F−タイプセンサピクセル610Fに関する第2の通過CVを(より正確に)推定するために使用される。
実質的に均質または十分に理解されているCIを伴う表面に関して、第2の通過CVは、第1の通過CIをF−タイプセンサピクセル610Fに関するFから減算し、それによって、V−タイプセンサピクセル610V単独から利用不可能な情報を提供することによって推定されることができる。実質的に均質または十分に理解されているCIを伴う表面は、付加的赤外線光源を伴わず、かつシステム内の任意の赤外線光プロジェクタが無効にされている、屋内の部屋に見出され得る。同様に、屋外環境でも、周囲太陽光は、典型的には、著しく拡散する照明を各表面上に提供し(その表面の赤外線反射に基づいて)、したがって、表面毎の赤外線照明は、主として均質または予測可能である。
変調された赤外線プロジェクタ(上記に説明されるように)の場合、投影された赤外線パターンに関する情報が、センサ602内のV−タイプセンサピクセル610Vの数(例えば、P/2)より多い可視光画像の有効分解能を計算するために使用されることができる。表面のある領域内の投影された赤外線パターンを動的に改変することに関する情報(上記に説明されるように)もまた、増加される有効可視光画像分解能を計算するために使用されることができる。さらに、センサ602は、全て赤外線光源が環境から排除されるとき(例えば、赤外線源を伴わない屋内)、フル分解能可視光センサとして使用されてもよい。
種々の実施形態による、他の方法は、2回を上回る通過を含み、推定されるCVおよびCIの正確度を増加させることができる。さらに他の実施形態は、値を計算した他の測定をF−タイプセンサピクセル610Fに関する推定されたCVおよびCIに使用する。例えば、図17に描写されるハイブリッド可視/フルスペクトル光センサ602によって取得されたデータを使用して、610F1のCVおよびCIは、610V1−610V4のVに加え、610F2−610F5のCVおよびCIを使用して推定されることができる。図18は、610F1が、610F1のCVおよびCIの推定のために、さらにより多い光学データを提供することができる、さらにより多いF−タイプおよびV−タイプセンサピクセルによって囲繞されることを示す。全てのF−タイプおよびV−タイプセンサピクセルを使用する推定方法の1つのファクターは、全てのF−タイプセンサピクセル610Fに関するFの和が、全てのV−タイプセンサピクセル610Vに関するVの和と少なくとも同程度に明るい(より明るくないまでも)はずであるということである。
類似プロセスは、専用の赤外線のみのピクセルを有していないにもかかわらず、センサ602内のF−タイプセンサピクセル610FのCIを計算し、推定される赤外線光のみの画像を生成するために使用されることができる。例えば、図19は、一実施形態による、別個の可視および赤外線画像を単一ハイブリッド可視/フルスペクトル光センサ602によって取得された光学データから生成するための画像処理方法700を描写する。
ステップ702では、深度感知システム600が、表面から反射された光を受信する。ハイブリッド可視/フルスペクトル光センサ602は、同時に、可視光を各V−タイプセンサピクセル610Vにおいて、フルスペクトル光を各F−タイプセンサピクセル610Fにおいて受信する。
ステップ704では、深度感知システム600は、ピクセル610Vによって受信された可視光に基づいて、各V−タイプセンサピクセル610Vに対し、可視光値(「V」)を判定する。ステップ704では、深度感知システム600はまた、ピクセル610Vによって受信されたフルスペクトル光に基づいて、各F−タイプセンサピクセル610Fに対し、フルスペクトル光値(「F」)を判定する。
ステップ706では、深度感知システム600(例えば、画像プロセッサ608)は、各F−タイプセンサピクセル610Fに対して計算される可視光値(「CV」)を計算する。画像プロセッサ608は、各F−タイプセンサピクセル610Fに隣接するV−タイプセンサピクセル610Vに関するVを使用して、CVを計算することができる。単純実施形態では、F−タイプセンサピクセル610Fに隣接する4つのV−タイプセンサピクセル610VのVが、平均され、CVを生成する。例えば、図16に描写される、ハイブリッド可視/フルスペクトル光センサ602では、610V1−610V4のVが、平均され、610F1に関するCVを生成する。本実施形態は、均質表面(例えば、白色壁)に関して最も正確であるが、正確度は、表面がより非均質になるにつれて降下する。
別の実施形態では、縁検出および勾配検出が、反対に面する近隣上で行われ、縁を含む、非均質表面を考慮することによって、より正確なCVを判定することができる。例えば、図16に描写されるハイブリッド可視/フルスペクトル光センサ602では、縁検出および勾配検出は、610V1/610V3および610V2/610V4のVに行われることができる。大きな勾配が、610V1/610V3のV間に見出される場合、それらのVは、610F1に関するCVを生成するとき、より少ない加重が与えられ得る。本実施形態は、非均質表面(例えば、縁を含む角)に関してより正確である。
ステップ708では、深度感知システム600(例えば、画像プロセッサ608)は、各F−タイプセンサピクセル610Fに対して計算される赤外線光値(「CI」)を計算する。画像プロセッサ608は、F−タイプセンサピクセル610Fに関するCVを使用して、CIを計算することができる。単純実施形態では、CIは、CVをF−タイプセンサピクセル610Fに関するFから減算することによって計算される。
ステップ710では、深度感知システム600(例えば、画像プロセッサ608)は、V−タイプセンサピクセル610VからのVおよびF−タイプセンサピクセル610Fに関して計算されるCVを使用して、可視光画像を生成する。ステップ712では、深度感知システム600(例えば、画像プロセッサ608)は、F−タイプセンサピクセル610Fに関して計算されるCIを使用して、赤外線光画像を生成する。可視光画像、赤外線光画像、または両方が、深度感知のために使用されることができる。
さらに、デモザイク処理および/または縁鮮鋭化アルゴリズムが、随意に、ステップ704に先立って、画像データに適用され、V−タイプセンサピクセル610Vの可視光値およびF−タイプセンサピクセル610Fのフルスペクトル光値を分解することができる。これらの光値V、Fの分解は、方法700の正確度を増加させる。
本明細書に説明されるシステム600は、単一ハイブリッド可視/フルスペクトル光センサ602からの光学データを使用して、P/2より高い有効分解能を伴う可視光画像と、同様に、概してより低い分解能における赤外線光画像とを同一物理的センサ602上で生成する。したがって、可視光および赤外線光画像を生成するために使用される光は、同一レンズスタックを通して通過し、したがって、任意のマイナーな不完全性が、可視光および赤外線光画像の両方に反映される。本配列は、既存のシステムに優る2つのさらなる利点を有する。第1には、可視光および赤外線光画像は、正確に同一の光学視点から撮影され、個別の画像の焦点に関する完璧な6−DOF対応を与えるであろう。これは、カメラが同一較正標的を検出可能であり得ないため、異なる波長スペクトルで動作する別個のカメラを含むシステムにとって特に困難である問題である、位置合わせおよび較正の必要性を排除する。さらに、位置合わせおよび較正は、画像データに行われる任意の後の段階の動作のサブピクセル正確度を減少させる、誤差の付加的な原因を導入する。第2には、正確に同一のセンサが、使用され、したがって、2つの画像上の暴露時間は、完璧に同期される。(センサ、表面、または両方の)相対的運動における表面の画像に関して、可視光および赤外線光画像は、時間的に(マイクロ秒時間スケールでさえ)ならびに幾何学的に合致し、画像のより精密かつ詳細な分析を可能にする。
図20に描写される別の実施形態では、ハイブリッド可視/フルスペクトル光センサ802は、2つのタイプのセンサピクセル810、すなわち、A−タイプおよびB−タイプを含む。A−タイプおよびB−タイプセンサピクセル810A、810Bは両方とも、可視光および赤外線光の両方を検出するが、異なる割合においてである。一実施形態では、A−タイプセンサピクセル810Aは、ピクセル810Aに衝突する可視光の75%(「pV_A」)および赤外線光の25%(「pI_A」)を検出してもよい。その実施形態では、B−タイプセンサピクセル810Bは、ピクセル810Aに衝突する可視光の60%(「pV_B」)および赤外線光の40%(「pI_B」)を検出してもよい。本実施形態におけるpVおよびpI成分は、合計100%であるが、他の実施形態では、pVおよびpI成分は、合計100%を上回るまたはそれ未満であることができる。例えば、図16−18に描写され、上記に説明される、ハイブリッド可視/フルスペクトル光センサ602内のF−タイプ(フルスペクトル)センサピクセル610Fは、pV=100%およびpI=100%を有する。
そのようなセンサ802では、各センサピクセル810は、検出された可視光および赤外線光に対応する感知された値(「SV」)を有する。特定のA−タイプセンサピクセル810A(「SV_A」)に関するSVは、2つの寄与因子(すなわち、センサピクセル810Aによって検出された光の各タイプの割合によって修正されるような総可視光値「V」および総赤外線光値「I」)から成るため、SV_A=(VpV_A)+(IpI_A)であることが分かる。
各A−タイプセンサピクセル810Aはまた、隣接するセンサピクセル810(例えば、東西南北近隣)からの光学データを使用して計算される、推定された値(「EV_A」)を有する。例えば、810A1は、810B1−810B4に関してSVから計算されるEVを有する。言い換えると、810B1−810B4に関して、EV_A=f((VpV_B)+(IpI_B))となる。関数fは、平均と同程度に単純であることができる。他の実施形態では、関数fは、上記に説明されるように、縁検出および勾配検出を含んでもよい。
SV_Aは、センサピクセル810Aによって判定され、EV_Aは、推定される。pV_A、pI_A、pV_B、pI_Bは、センサ802の設計から既知である。これらの判定、推定、および既知の値を用いて、2つの方程式SV_A=(VpV_A)+(IpI_A)およびEV_A=f((VpV_B)+(IpI_B))が、各A−タイプセンサピクセル810Aに対し、VおよびIに関して解かれることができる。類似プロセスは、各B−タイプセンサピクセル810Aに対し、VおよびIを判定するために使用されることができる。
図21は、一実施形態による、単一ハイブリッド可視/フルスペクトル光センサ802によって取得された光学データから別個の可視および赤外線画像を生成するための画像処理方法900を描写する。
ステップ902では、深度感知システムが、表面から反射された光を受信する。ハイブリッド可視/フルスペクトル光センサ802は、同時に、各センサピクセル810(A−タイプおよびB−タイプの両方)においてフルスペクトル光を受信し、検出される可視光および赤外線光のパーセンテージは、各A−タイプおよびB−タイプセンサピクセル810のpVおよびpIに依存する。
ステップ904では、深度感知システムは、各センサピクセル810に対し、感知される光値(「SV」)を判定する。
ステップ906では、深度感知システムは、各センサピクセル810に対し、総可視光値(「V」)および総赤外線光値(「I」)を計算する。例えば、深度感知システムは、上記に説明されるように、既知のpVおよびpI値および検出されたSVおよび推定されたEV値、を使用して、同時に、上記に説明される一対の方程式(すなわち、SV_A=(VpV_A)+(IpI_A)およびEV_A=f((VpV_B)+(IpI_B)))を解くことによって、各センサピクセルに対し、VおよびIを計算することができる。
ステップ908では、深度感知システムは、センサピクセル810に関する計算されたVを使用して、可視光画像を生成する。ステップ910では、深度感知システムは、センサピクセル810に関して計算されたIを使用して、赤外線光画像を生成する。可視光画像、赤外線光画像、または両方が、深度感知のために使用されることができる。
図21に描写される方法900は、最初に、可視光画像、次いで、赤外線光画像を生成するが、他の実施形態では、深度感知システムは、最初に、赤外線光画像、次いで、可視光画像を生成してもよい。さらに他の実施形態では、深度感知システムは、他の画像を生成することなしに、可視光画像または赤外線光画像のいずれかを生成してもよい。
拡張深度感知を伴う動的非エイリアシングパターンプロジェクタおよび画像センサは、1つのシステムの一部として説明されるが、いくつかの実施形態では、プロジェクタおよびセンサは、独立し、それぞれが、他方を伴わずに、説明される利点の全てを有して機能することができる。
前述のセンサは、深度感知として説明されるが、実施形態によるセンサは、カメラ集束システム等の他の可視/赤外線光システム内でも使用されることができる。前述の深度感知システムは、ハイブリッドセンサからの利点を享受し得る、種々の光学システムの実施例として提供される。故に、本明細書に説明される光学システムの使用は、開示される深度感知システムに限定されず、むしろ、任意の光学システムに適用可能である。
種々の本発明の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの実施例が参照される。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物が置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、もしくは範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内にあることを意図されている。
本発明は、対象デバイスを使用して行われ得る方法を含む。方法は、そのような適切なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、対象方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順番で、ならびに事象の記載された順番で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって既知または理解され得る。一般的または論理的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つまたはそれを上回るものと組み合わせて、記載および請求されてもよいことが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「1つの(「a」、「an」)」、「該(said、the)」という単数形は、特に規定がない限り、複数形の指示対象を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示と関連付けられる請求項において、対象アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に(solely)」、「のみ(only)」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える(comprising)」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の付加的な要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または対象の明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の言葉の範囲のみによって限定されるものである。
前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広義の精神および範囲から逸脱することなくそこに成されてもよいことは、明白となるであろう。例えば、前述のプロセスフローは、プロセス作用の特定の順序を参照して説明される。しかしながら、説明されるプロセス作用の多くの順序は、本発明の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証的と見なされるべきである。

Claims (12)

  1. 深度感知システムであって、
    光を表面から受信する第1のセンサピクセルおよび第2のセンサピクセルを有するセンサと、
    第1の数値割合の全波長にわたる強度の総可視光および第2の数値割合の総赤外線光を前記第1のセンサピクセルに伝送すること、および、第3の数値割合の全波長にわたる強度の総可視光および第4の数値割合の総赤外線光を前記第2のセンサピクセルに伝送することを可能にするフィルタであって、
    前記第1の数値割合の全波長にわたる強度の総可視光および前記第2の数値割合の総赤外線光は、第1の感知された値を前記第1のセンサピクセルにもたらし、
    前記第3の数値割合の全波長にわたる強度の総可視光および前記第4の数値割合の総赤外線光は、第2の感知された値を前記第2のセンサピクセルにもたらす、
    フィルタと、
    前記第1の感知された値および前記第2の感知された値を分析し、前記表面の深度を判定するプロセッサと
    を備え、
    前記フィルタは、前記センサと前記表面との間に配置される、システム。
  2. 前記第1の感知された値および前記第2の感知された値を分析することは、前記表面の赤外線光画像を生成することを含む、請求項1に記載のシステム。
  3. 前記第1の感知された値および前記第2の感知された値を分析することは、前記表面の前記赤外線光画像内のPOIを三角測量することを含む、請求項2に記載のシステム。
  4. 前記センサは、前記第2のセンサピクセルを含む複数の第2のセンサピクセルを有し、
    前記複数の第2のセンサピクセルのそれぞれは、前記第1のセンサピクセルに隣接し、
    前記フィルタは、前記第3の数値割合の全波長にわたる強度の総可視光を前記複数の第2のセンサピクセルのそれぞれに伝送すること、および、前記第4の数値割合の総赤外線光を前記複数の第2のセンサピクセルのそれぞれに伝送することを可能にする、請求項1に記載のシステム。
  5. 前記第1の感知された値および前記第2の感知された値を分析し、前記表面の深度を判定することは、前記複数の第2のセンサピクセルに対応する複数の検出された光値に基づいて、前記第1のセンサピクセルに関する推定される光値を計算することを含み、
    前記複数の第2のセンサピクセルに対応する前記検出された複数の光値は、前記第2の感知された値を含む、請求項4に記載のシステム。
  6. 前記第1のセンサピクセルに関する前記推定される光値を計算することは、前記複数の第2のセンサピクセルに対応する前記複数の検出された光値を平均化することを含む、請求項5に記載のシステム。
  7. 前記第1のセンサピクセルに関する前記推定される光値を計算することは、前記複数の第2のセンサピクセルに対応する前記複数の検出された光値に縁検出を行うことを含む、請求項5に記載のシステム。
  8. 前記センサは、前記第1のセンサピクセルを含む複数の第1のセンサピクセルを有し、
    前記複数の第1のセンサピクセルのそれぞれは、前記第2のセンサピクセルに隣接し、
    前記フィルタは、前記第1の数値割合の全波長にわたる強度の総可視光を前記複数の第1のセンサピクセルのそれぞれに伝送すること、および、前記第2の数値割合の総赤外線光を前記複数の第1のセンサピクセルのそれぞれに伝送することを可能にする、請求項1に記載のシステム。
  9. 前記第1の感知された値および前記第2の感知された値を分析し、前記表面の深度を判定することは、
    前記複数の第1のセンサピクセルに対応する複数の検出された光値に基づいて、前記第2のセンサピクセルに関する推定される光値を計算すること
    を含み、
    前記複数の第1のセンサピクセルに対応する前記複数の検出された光値は、前記第1の感知された値を含む、請求項8に記載のシステム。
  10. 前記第2のセンサピクセルに関する前記推定される光値を計算することは、前記複数の第1のセンサピクセルに対応する前記複数の検出された光値を平均化することを含む、請求項9に記載のシステム。
  11. 前記第2のセンサピクセルに関する前記推定される光値を計算することは、前記複数の第1のセンサピクセルに対応する前記複数の検出された光値に縁検出を行うことを含む、請求項9に記載のシステム。
  12. 前記光を前記表面に向かって投影する空間変調光投影デバイスをさらに備え、
    前記光は、前記表面から前記センサに向かって反射される、請求項1に記載のシステム。
JP2018545442A 2016-03-01 2017-02-28 深度感知システム Active JP6695440B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075247A JP6972224B2 (ja) 2016-03-01 2020-04-21 深度感知システムおよび方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662301847P 2016-03-01 2016-03-01
US62/301,847 2016-03-01
PCT/US2017/020030 WO2017151671A1 (en) 2016-03-01 2017-02-28 Depth sensing systems and methods

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020075247A Division JP6972224B2 (ja) 2016-03-01 2020-04-21 深度感知システムおよび方法

Publications (3)

Publication Number Publication Date
JP2019512678A JP2019512678A (ja) 2019-05-16
JP2019512678A5 JP2019512678A5 (ja) 2020-04-09
JP6695440B2 true JP6695440B2 (ja) 2020-05-20

Family

ID=59724237

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018545442A Active JP6695440B2 (ja) 2016-03-01 2017-02-28 深度感知システム
JP2020075247A Active JP6972224B2 (ja) 2016-03-01 2020-04-21 深度感知システムおよび方法
JP2021179296A Active JP7270702B2 (ja) 2016-03-01 2021-11-02 深度感知システムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020075247A Active JP6972224B2 (ja) 2016-03-01 2020-04-21 深度感知システムおよび方法
JP2021179296A Active JP7270702B2 (ja) 2016-03-01 2021-11-02 深度感知システムおよび方法

Country Status (10)

Country Link
US (3) US10565717B2 (ja)
EP (2) EP3902249A1 (ja)
JP (3) JP6695440B2 (ja)
KR (1) KR20180118189A (ja)
CN (2) CN108779978B (ja)
AU (2) AU2017227599A1 (ja)
CA (1) CA3014766A1 (ja)
IL (3) IL288771B2 (ja)
NZ (2) NZ785500A (ja)
WO (1) WO2017151671A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108779978B (zh) 2016-03-01 2020-12-11 奇跃公司 深度感测系统和方法
US11109006B2 (en) * 2017-09-14 2021-08-31 Sony Corporation Image processing apparatus and method
WO2019127539A1 (en) * 2017-12-29 2019-07-04 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for determining region of interest in medical imaging
CN111542827B (zh) 2017-12-29 2021-09-28 上海联影医疗科技股份有限公司 一种患者定位的系统和方法
US11176694B2 (en) * 2018-10-19 2021-11-16 Samsung Electronics Co., Ltd Method and apparatus for active depth sensing and calibration method thereof
TWI720602B (zh) * 2019-08-27 2021-03-01 國立中央大學 重建物體表面的方法與光學系統
CN112532848A (zh) * 2020-12-16 2021-03-19 歌尔光学科技有限公司 一种摄像机

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621529A (en) * 1995-04-05 1997-04-15 Intelligent Automation Systems, Inc. Apparatus and method for projecting laser pattern with reduced speckle noise
WO1997047942A1 (en) * 1996-06-13 1997-12-18 K.U. Leuven Research & Development Method and system for acquiring a three-dimensional shape description
JPH10253330A (ja) * 1997-03-06 1998-09-25 Toshiba Corp 表面形状測定装置
US6563105B2 (en) 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
JP2001194114A (ja) * 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
US7061628B2 (en) * 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
JP4035978B2 (ja) * 2001-10-05 2008-01-23 コニカミノルタホールディングス株式会社 3次元形状モデルの評価方法および生成方法並びに装置
JP2004126416A (ja) * 2002-10-07 2004-04-22 Fuji Photo Film Co Ltd カメラ
US20070057946A1 (en) * 2003-07-24 2007-03-15 Dan Albeck Method and system for the three-dimensional surface reconstruction of an object
US8918162B2 (en) 2007-04-17 2014-12-23 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
US8757812B2 (en) * 2008-05-19 2014-06-24 University of Washington UW TechTransfer—Invention Licensing Scanning laser projection display devices and methods for projecting one or more images onto a surface with a light-scanning optical fiber
KR101733443B1 (ko) * 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
JP5874116B2 (ja) * 2009-07-30 2016-03-02 国立研究開発法人産業技術総合研究所 画像撮影装置および画像撮影方法
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
KR20110040402A (ko) * 2009-10-14 2011-04-20 삼성전자주식회사 필터 어레이, 이를 포함하는 이미지 센서, 및 신호 보간 방법
KR101648201B1 (ko) * 2009-11-04 2016-08-12 삼성전자주식회사 영상 센서 및 이의 제조 방법.
GB0921461D0 (en) 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
US8456521B2 (en) 2009-12-14 2013-06-04 Berliner Glas Kgaa Herbert Kubatz Gmbh & Co. Triangulation camera device and triangulation imaging method
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
WO2011127058A2 (en) 2010-04-09 2011-10-13 The Regents Of The University Of Michigan Biomarkers for mdm2 inhibitors for use in treating disease
CN102472892B (zh) * 2010-04-28 2014-07-09 松下电器产业株式会社 扫描型图像显示装置
EP2583312A2 (en) * 2010-06-18 2013-04-24 Sionyx, Inc. High speed photosensitive devices and associated methods
KR101680762B1 (ko) * 2010-10-29 2016-11-29 삼성전자주식회사 3d 카메라용 빔스플리터 및 상기 빔스플리터를 채용한 3차원 영상 획득 장치
KR101739880B1 (ko) 2010-12-01 2017-05-26 삼성전자주식회사 컬러 필터 어레이, 이를 포함하는 이미지 센서, 및 이를 포함하는 이미지 처리 장치
KR101861765B1 (ko) * 2011-03-03 2018-05-29 삼성전자주식회사 마이크로 렌즈를 포함하는 깊이 픽셀 및 상기 깊이 픽셀을 포함하는 깊이 센서
KR20120105169A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법
JP5761750B2 (ja) * 2011-07-19 2015-08-12 国立研究開発法人産業技術総合研究所 画像処理方法および装置
US9248457B2 (en) 2011-07-29 2016-02-02 Homax Products, Inc. Systems and methods for dispensing texture material using dual flow adjustment
CN102663725B (zh) * 2012-03-05 2014-07-16 西北工业大学 基于线特征和控制点的可见光和sar图像配准方法
WO2013179538A1 (ja) * 2012-05-28 2013-12-05 パナソニック株式会社 奥行き推定撮像装置
EP2881702B1 (en) * 2012-07-30 2018-09-12 National Institute of Advanced Industrial Science And Technology Image processing system, and image processing method
EP3869797B1 (en) * 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
WO2014041742A1 (ja) * 2012-09-14 2014-03-20 パナソニック株式会社 固体撮像装置及びカメラモジュール
JP5971050B2 (ja) * 2012-09-18 2016-08-17 富士通株式会社 形状計測装置及び形状計測方法
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9646384B2 (en) * 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US8917327B1 (en) * 2013-10-04 2014-12-23 icClarity, Inc. Method to use array sensors to measure multiple types of data at full resolution of the sensor
CN107329259B (zh) 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
US10051211B2 (en) * 2013-12-05 2018-08-14 Omnivision Technologies, Inc. Image sensors for capturing both visible light images and infrared light images, and associated systems and methods
US9392262B2 (en) 2014-03-07 2016-07-12 Aquifi, Inc. System and method for 3D reconstruction using multiple multi-channel cameras
US10051209B2 (en) * 2014-04-09 2018-08-14 Omnivision Technologies, Inc. Combined visible and non-visible projection system
US9325973B1 (en) * 2014-07-08 2016-04-26 Aquifi, Inc. Dynamically reconfigurable optical pattern generator module useable with a system to rapidly reconstruct three-dimensional data
JP6794981B2 (ja) * 2015-03-17 2020-12-02 ソニー株式会社 情報処理装置および方法
US9694498B2 (en) * 2015-03-30 2017-07-04 X Development Llc Imager for detecting visual light and projected patterns
US10066933B2 (en) * 2015-05-04 2018-09-04 Facebook, Inc. Camera depth mapping using structured light patterns
CN105049829B (zh) * 2015-07-10 2018-12-25 上海图漾信息科技有限公司 滤光片、图像传感器、成像装置以及三维成像系统
US10503265B2 (en) * 2015-09-08 2019-12-10 Microvision, Inc. Mixed-mode depth detection
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
JP2017112169A (ja) * 2015-12-15 2017-06-22 ソニー株式会社 イメージセンサ、撮像システム及びイメージセンサの製造方法
CN108779978B (zh) 2016-03-01 2020-12-11 奇跃公司 深度感测系统和方法
US10616519B2 (en) * 2016-12-20 2020-04-07 Microsoft Technology Licensing, Llc Global shutter pixel structures with shared transfer gates
JP7418181B2 (ja) * 2018-11-06 2024-01-19 ミヨシ油脂株式会社 分散剤とそれを用いた分散液

Also Published As

Publication number Publication date
CN108779978B (zh) 2020-12-11
AU2017227599A1 (en) 2018-08-30
US10565717B2 (en) 2020-02-18
EP3423784A1 (en) 2019-01-09
IL288771B2 (en) 2023-09-01
JP2022009902A (ja) 2022-01-14
IL281676B (en) 2022-01-01
JP7270702B2 (ja) 2023-05-10
CN112399028A (zh) 2021-02-23
CN108779978A (zh) 2018-11-09
CA3014766A1 (en) 2017-09-08
EP3423784B1 (en) 2021-07-28
NZ745309A (en) 2023-03-31
JP6972224B2 (ja) 2021-11-24
NZ785500A (en) 2023-03-31
IL281676A (en) 2021-05-31
US20210183087A1 (en) 2021-06-17
JP2020144136A (ja) 2020-09-10
WO2017151671A1 (en) 2017-09-08
KR20180118189A (ko) 2018-10-30
US10964039B2 (en) 2021-03-30
EP3902249A1 (en) 2021-10-27
EP3423784A4 (en) 2019-01-09
JP2019512678A (ja) 2019-05-16
AU2021266266A1 (en) 2021-12-09
US11475583B2 (en) 2022-10-18
US20170256069A1 (en) 2017-09-07
US20200143553A1 (en) 2020-05-07
IL288771B1 (en) 2023-05-01
IL261149B (en) 2021-04-29
IL288771A (en) 2022-02-01
IL261149A (en) 2018-10-31

Similar Documents

Publication Publication Date Title
JP6695440B2 (ja) 深度感知システム
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
Sarbolandi et al. Kinect range sensing: Structured-light versus Time-of-Flight Kinect
US9879975B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP5486113B2 (ja) パノラマ投影デバイスによって実施される投影方法
Bimber et al. Multifocal projection: A multiprojector technique for increasing focal depth
JP2018514237A (ja) 歯科用3dスキャナ用のテクスチャマッピングの装置及び方法
Kitajima et al. Simultaneous projection and positioning of laser projector pixels
TW202028694A (zh) 光學相位輪廓測定系統
CN110322561A (zh) 用于机器人无序分拣的3d相机及其测量方法
JP2011075336A (ja) 3次元形状計測装置、3次元形状計測方法
Kaminokado et al. Augmented environment mapping for appearance editing of glossy surfaces
Bajzik et al. Depth sensor selection for specific application
Fu et al. Robust near-infrared structured light scanning for 3D human model reconstruction
WO2022113877A1 (ja) 三次元計測装置及び三次元計測プログラム
Zhu et al. An intelligent projection system adapted to arbitrary surfaces
Hieda Digital video projection for interactive entertainment
Godber The development of novel stereoscopic imaging sensors
Kamimigaki et al. Real reproducing of 3D appearance with multi-projectors and cameras

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200226

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200318

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200421

R150 Certificate of patent or registration of utility model

Ref document number: 6695440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250