JP2009531655A - Three-dimensional detection using speckle patterns - Google Patents
Three-dimensional detection using speckle patterns Download PDFInfo
- Publication number
- JP2009531655A JP2009531655A JP2008558981A JP2008558981A JP2009531655A JP 2009531655 A JP2009531655 A JP 2009531655A JP 2008558981 A JP2008558981 A JP 2008558981A JP 2008558981 A JP2008558981 A JP 2008558981A JP 2009531655 A JP2009531655 A JP 2009531655A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- speckle pattern
- light source
- speckle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000005286 illumination Methods 0.000 claims abstract description 37
- 230000001427 coherent effect Effects 0.000 claims abstract description 26
- 238000013507 mapping Methods 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 210000001747 pupil Anatomy 0.000 claims description 10
- 238000007493 shaping process Methods 0.000 claims description 6
- 238000004883 computer application Methods 0.000 claims description 5
- 238000009792 diffusion process Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/18—Diffraction gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Diffracting Gratings Or Hologram Optical Elements (AREA)
Abstract
被写体(28)の三次元マッピング装置(20)は、被写体(28)上に第1次スペックルパターンを投影するよう配されたコヒーレント光源(32)と拡散板(33)とを有する照明アセンブリ(30)を有する。単一の画像獲得アセンブリ(38)は、照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターン画像を獲得するように配されている。プロセッサ(24)は、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理するために接続されている。
【選択図】 図1The three-dimensional mapping device (20) of the subject (28) includes an illumination assembly (30) having a coherent light source (32) and a diffuser plate (33) arranged to project a primary speckle pattern onto the subject (28). 30). A single image acquisition assembly (38) is arranged to acquire a primary speckle pattern image on the subject from a single, fixed position and angle relative to the illumination assembly. The processor (24) is connected to process a single speckle pattern image acquired at a single fixed angle to derive a three-dimensional map of the subject.
[Selection] Figure 1
Description
関連出願への相互参照
本出願は、2006年3月24日出願の米国仮特許出願60/785,187号の恩典を申し立てる。本出願は、2006年3月14日出願のPCT特許出願PCT/IL2006/000335号の一部継続出願であり、これは、2005年10月11日出願の米国仮特許出願60/724,903号の恩典を申し立てる。これら全ての関連出願は、本特許出願の譲渡人に譲渡され、これらの開示は、本願中に参照することにより盛り込まれている。
This application claims the benefit of US Provisional Patent Application No. 60 / 785,187, filed Mar. 24, 2006. This application is a continuation-in-part of PCT patent application PCT / IL2006 / 000335 filed March 14, 2006, which is a US
(技術分野)
本発明は、全般として、三次元(3D)被写体をマッピングする方法およびシステムに関し、特にスペックルパターンを用いた三次元光学撮像に関する。
(Technical field)
The present invention relates generally to methods and systems for mapping three-dimensional (3D) objects, and more particularly to three-dimensional optical imaging using speckle patterns.
コヒーレントな光ビームが拡散板を通過し、表面に投影されると、その表面上に第1次スペックルパターンが観察されうる。この第1次スペックルは、拡散されたビームの様々な成分中で、干渉により引き起こされる。本特許出願および請求項中では、「第1次スペックル」とはこの意味で用いられ、被写体の粗い表面からのコヒーレント光の拡散反射により引き起こされる第2次スペックルとは区別されている。 As the coherent light beam passes through the diffuser and is projected onto the surface, a primary speckle pattern can be observed on the surface. This primary speckle is caused by interference in various components of the diffused beam. In this patent application and in the claims, “first order speckle” is used in this sense and is distinguished from second order speckle caused by diffuse reflection of coherent light from the rough surface of the subject.
Hartは、特許文献1および特許文献2(これらの開示は、本願中に参照することにより盛り込まれている)中で、高速三次元撮像システムにおけるスペックルパターンの使用について説明している。このシステムは、アクティブ撮像素子およびCCD素子を備えた単レンズカメラのサブシステムと、相関処理サブシステムとを有する。このアクティブ撮像素子は回転絞りでありえ、これにより、被写界深度をより大きくし、副画素の変位精度を高めるために、デフォーカス画像間で調節可能な非等辺間隔が可能になる。スペックルパターンは被写体上に投影され、結果として得られるパターンの画像は、複数の角度から得られる。これらの画像は、画像相関技術を用いて、局所的に相互相関され、各局所的に相関された領域の三次元座標を計算するために、その表面は、相対的なカメラの位置情報を用いて解像される。 Hart describes the use of speckle patterns in a high-speed three-dimensional imaging system in US Pat. This system has a single lens camera subsystem with an active imaging device and a CCD device, and a correlation processing subsystem. The active imaging element can be a rotary stop, which allows for adjustable non-equal spacing between defocused images to increase depth of field and increase subpixel displacement accuracy. The speckle pattern is projected onto the subject, and the resulting pattern image is obtained from multiple angles. These images are locally cross-correlated using image correlation techniques, and the surface uses relative camera position information to calculate the three-dimensional coordinates of each locally correlated region. To be resolved.
Hunter他による特許文献3(この開示は、本願中に参照することにより盛り込まれている)には、別のスペックルベースの三次元撮像技術が記載されている。ランダムなスペックルパターンが、三次元面に投影され、複数のカメラにより撮像され、複数の二次元デジタル画像が得られる。二次元画像は処理され、面の三次元特徴が得られる。
本発明の実施形態は、第1次スペックルパターンを用いて実時間で、三次元被写体のマッピングを精確に行う。上記PCT特許出願および下記の実施形態中に記載された方法とシステムでは、単一のコヒーレント光源と、この光源に対して相対的に静止しかつ固定角度で保持された単一の画像センサーとを用いてこのような三次元マッピングを行うことができる。 Embodiments of the present invention accurately map a three-dimensional subject in real time using a primary speckle pattern. In the methods and systems described in the above PCT patent application and the following embodiments, a single coherent light source and a single image sensor that is stationary relative to the light source and held at a fixed angle. Such a three-dimensional mapping can be performed.
本発明の1つの観点は、スペックルパターンの参照画像が、最初に既知の輪郭の参照面上で獲得されるという点である。次に、被写体上に投影されたスペックルパターンの画像を獲得し、この画像と参照画像とを比較することにより、被写体の三次元輪郭が決められる。 One aspect of the present invention is that a speckle pattern reference image is first acquired on a known contour reference plane. Next, an image of a speckle pattern projected on the subject is acquired, and the three-dimensional contour of the subject is determined by comparing this image with a reference image.
本発明の別の観点は、被写体が動くと共に、被写体上のスペックルパターンの連続画像が獲得されるという点である。三次元で被写体の動きを追跡するために、各画像は、先行する画像の1つまたは複数と比較される。以下で説明する1つの実施形態では、光源と画像センサーは、1つの直線上に配され、連続する画像間で1次元の相関係数を演算することにより、迅速でかつ精確に動きを追跡することができる。 Another aspect of the present invention is that a continuous image of a speckle pattern on the subject is acquired as the subject moves. Each image is compared to one or more of the preceding images in order to track the movement of the subject in three dimensions. In one embodiment described below, the light source and the image sensor are placed on a single line and track motion quickly and accurately by computing a one-dimensional correlation coefficient between successive images. be able to.
精度、被写界深度および三次元マッピングシステムの演算速度を高めるために、新規の照明および画像処理スキームを用いている実施形態もある。 Some embodiments use novel illumination and image processing schemes to increase accuracy, depth of field, and computational speed of the three-dimensional mapping system.
したがって、本発明の1実施形態によれば、被写体上に第1次スペックルパターンを投影するよう配されたコヒーレント光源と拡散板とを有する照明アセンブリと、照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターン画像を獲得するように配された単一の画像獲得アセンブリと、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供されている。 Therefore, according to one embodiment of the present invention, an illumination assembly having a coherent light source and a diffuser arranged to project a primary speckle pattern onto a subject, and a relative to the illumination assembly. A single image acquisition assembly arranged to acquire a first speckle pattern image on a subject from a single fixed location and angle, and a single fixed angle to derive a three-dimensional map of the subject There is provided a three-dimensional mapping apparatus for a subject having a processor connected to process an image of a primary speckle pattern obtained in step (1).
ある実施形態では、装置は、照明アセンブリに対して画像獲得アセンブリを空間的に固定させるために、照明アセンブリおよび画像獲得アセンブリに取り付けられているマウントを有する。ある実施形態では、画像獲得アセンブリは、第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイと、対物光学系とを有し、この対物光学系は、入射瞳を有し、画像をアレイ上にフォーカシングするために配され、ここで、第1軸に平行である装置の軸であって、かつ、入射瞳とコヒーレント光源により生成されるビームが拡散板を通過するスポットとを通る装置の軸を規定するように、照明アセンブリと画像獲得アセンブリとがマウントによって配されている。このように、第1軸上のみで、1つまたは複数の画像中で獲得された第1次スペックルパターンと、第1次スペックルパターンの参照画像との間でのオフセット値を見つけることにより、三次元マップを導き出すために、プロセッサが配されている。 In certain embodiments, the apparatus has a mount attached to the illumination assembly and the image acquisition assembly to spatially secure the image acquisition assembly relative to the illumination assembly. In some embodiments, the image acquisition assembly includes a detector array and objective optics arranged in a linear pattern defining first and second mutually orthogonal axes, the objective optics comprising: A beam having an entrance pupil and arranged for focusing the image on the array, wherein the beam is generated by the entrance pupil and the coherent light source and is parallel to the first axis. The illumination assembly and the image acquisition assembly are arranged by a mount so as to define an axis of the device through a spot passing through the device. Thus, by finding an offset value between the primary speckle pattern acquired in one or more images and the reference image of the primary speckle pattern only on the first axis. In order to derive a three-dimensional map, a processor is arranged.
1つまたは複数の画像中で獲得された被写体上の複数領域の第1次スペックルパターンと、第1次スペックルパターンの参照画像との間で、各オフセット値を見つけることにより三次元マップを導き出すために、プロセッサが配されており、各オフセットが、領域と画像獲得アセンブリとの間の各距離を示している実施形態もある。通常、画像獲得アセンブリは照明アセンブリから所定の間隔を隔てて位置づけられ、各オフセットは、この間隔により決められる割合で、各距離に比例している。開示された実施形態では、照明アセンブリにより投影される第1次スペックルパターンは、特徴的なサイズのスペックルを有し、画像中のスペックルのサイズは、間隔に依存する許容誤差により像全域で変動し、間隔は、許容誤差が所定の範囲内に収まるように選択される。 A three-dimensional map is obtained by finding each offset value between a primary speckle pattern of a plurality of regions on a subject acquired in one or a plurality of images and a reference image of the primary speckle pattern. In some embodiments, a processor is provided for deriving and each offset indicates a respective distance between the region and the image acquisition assembly. Typically, the image acquisition assembly is positioned at a predetermined distance from the illumination assembly, and each offset is proportional to each distance at a rate determined by this distance. In the disclosed embodiment, the primary speckle pattern projected by the illumination assembly has a characteristic size of speckle, and the size of the speckle in the image depends on the tolerance depending on the spacing. The interval is selected such that the tolerance is within a predetermined range.
追加的に、または、これに代えて、画像獲得アセンブリ中の歪曲のパラメータモデルを用いて、各オフセットを三次元マップの各座標に関連付けるように、プロセッサが配されている。さらに追加的に、または、これに代えて被写体の第1領域中の第1次スペックルパターンと、第1領域に対して相対的に第1オフセット値における参照画像のこれに対応する領域との間で、最初のマッチングを見つけることにより、各オフセットを見つけ、かつ第1の領域に隣接する画素の各オフセット値を見つけるために、第1オフセットに基づいて範囲拡張法を用いるように、プロセッサが配されている。 Additionally or alternatively, a processor is arranged to associate each offset with each coordinate of the three-dimensional map using a parametric model of distortion in the image acquisition assembly. Additionally or alternatively, a first speckle pattern in the first area of the subject and a corresponding area of the reference image at the first offset value relative to the first area. Between the processor to use a range expansion method based on the first offset to find each offset and find each offset value of a pixel adjacent to the first region by finding an initial match. It is arranged.
開示されたある実施形態では、被写体の三次元の動きのマッピングを行うために、被写体が動いている間に連続する獲得画像を処理するように、プロセッサが配されており、被写体は、人間の体の一部分であり、三次元の動きは、人間の体の一部分により行われるジェスチャーであり、ジェスチャーに応答して、コンピュータアプリケーションに入力を提供するために、プロセッサが接続されている。 In certain disclosed embodiments, a processor is arranged to process successive acquired images while the subject is moving in order to map the three-dimensional motion of the subject, A body part, a three-dimensional movement, is a gesture made by a part of the human body, to which a processor is connected to provide input to a computer application in response to the gesture.
照明アセンブリが、ビーム形成装置を有し、これは、装置の検出ボリュームの全域で、拡散板により作られるスペックルパターンのコントラストの変動を減らすように配されている実施形態もある。ある実施形態では、ビーム形成装置は、回折光学素子(DOE)と、拡散板のフーリエ面を規定するように配されたレンズとを有し、DOEは、フーリエ面中に位置づけられている。ビーム形成装置は、拡散板から発せられる光の発散を減らすために配されてもよく、あるいは、拡散板から発せられる光の強度を、照明アセンブリの光軸に横断する面全面で等しくするために配されてもよい。 In some embodiments, the illumination assembly has a beam shaping device that is arranged to reduce the variation in the contrast of the speckle pattern created by the diffuser across the detection volume of the device. In one embodiment, the beam former has a diffractive optical element (DOE) and a lens arranged to define a Fourier plane of the diffuser, the DOE being positioned in the Fourier plane. The beam shaping device may be arranged to reduce the divergence of the light emitted from the diffuser, or to equalize the intensity of the light emitted from the diffuser across the entire plane transverse to the optical axis of the illumination assembly. It may be arranged.
ある実施形態では、プロセッサは、光学相関器を有し、この光学相関器は、参照スペックルパターンを含む回折光学素子(DOE)を有し、また、画像獲得アセンブリは、被写体の複数の副画像をDOE上に投影し、被写体の三次元座標を示す各相関ピークを発生させるように配されたレンズレットアレイを有する。 In some embodiments, the processor includes an optical correlator, the optical correlator includes a diffractive optical element (DOE) that includes a reference speckle pattern, and the image acquisition assembly includes a plurality of sub-images of the subject. Is projected onto the DOE and has a lenslet array arranged to generate each correlation peak indicating the three-dimensional coordinates of the subject.
コヒーレント光源のコヒーレンス長が、1cm未満である実施形態もある。追加的に、または、これに代えて第1次スペックルパターンは、特徴的なサイズを有するスペックルを有し、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的なサイズを調節することができるように、照明アセンブリが構成されている。 In some embodiments, the coherence length of the coherent light source is less than 1 cm. Additionally or alternatively, the primary speckle pattern has speckles having a characteristic size and is characterized by changing the distance between the coherent light source and the diffuser. The lighting assembly is configured so that the correct size can be adjusted.
本発明の1実施形態によれば、被写体上に第1次スペックルパターンを投影するようために、光源から拡散されたコヒーレント光のビームで、被写体を照明する工程と、光源に対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターンの画像を獲得する工程と、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理する工程とを有する被写体の三次元マッピング方法が提供される。 According to an embodiment of the present invention, in order to project a primary speckle pattern onto a subject, the step of illuminating the subject with a beam of coherent light diffused from the light source and relative to the light source And obtaining a first speckle pattern image on the subject from a single and fixed position and angle, and a first obtained at a single and fixed angle to derive a three-dimensional map of the subject. And a method of processing a next speckle pattern image.
さらに追加して、本発明の1実施形態によれば、コヒーレンス長が1cm未満であるコヒーレント光源と拡散板とを有し、これらが被写体上に第1次スペックルパターンを投影するよう配された、照明アセンブリと、被写体上の第1次スペックルパターン画像を獲得するように配された画像獲得アセンブリと、被写体の三次元マップを導き出すために、第1次スペックルパターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供される。 In addition, according to one embodiment of the present invention, a coherent light source having a coherence length of less than 1 cm and a diffuser plate are arranged to project a primary speckle pattern on a subject. A lighting assembly, an image acquisition assembly arranged to acquire a primary speckle pattern image on a subject, and a first speckle pattern image to derive a three-dimensional map of the subject. A three-dimensional mapping apparatus for a subject having a processor connected to the computer.
ある実施形態では、コヒーレント光源のコヒーレンス長は0.5mm未満である。追加的に、または、これに代えて、コヒーレント光源の発散は5°より大きい。 In certain embodiments, the coherence length of the coherent light source is less than 0.5 mm. Additionally or alternatively, the divergence of the coherent light source is greater than 5 °.
本発明は、以下の本発明の実施形態の詳細な説明を図面と共に参照すると、より完全に理解されるであろう。 The present invention will be more fully understood by reference to the following detailed description of embodiments of the invention in conjunction with the drawings.
(図面の簡単な説明)
図1は、本発明の1実施形態による三次元マッピングシステムを絵で示した概略図である。
図2は、本発明の1実施形態によるスペックル撮像装置の概略上面図である。
図3は、本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。
図4は、本発明の別の実施形態による、三次元マッピングシステムで用いられる照明アセンブリの概略側面図である。
図5は、本発明の1実施形態によるビーム形成装置の概略側面図である。
図6は、本発明のさらに別の実施形態によるビーム形成装置の概略側面図である。
図7は、本発明のさらに別の1実施形態による、三次元マッピングシステムで用いられる光学相関器の概略側面図である。
(Brief description of the drawings)
FIG. 1 is a schematic diagram illustrating a three-dimensional mapping system according to an embodiment of the present invention.
FIG. 2 is a schematic top view of a speckle imaging device according to an embodiment of the present invention.
FIG. 3 is a flowchart schematically illustrating a 3D mapping method according to an exemplary embodiment of the present invention.
FIG. 4 is a schematic side view of a lighting assembly used in a three-dimensional mapping system according to another embodiment of the present invention.
FIG. 5 is a schematic side view of a beam forming apparatus according to an embodiment of the present invention.
FIG. 6 is a schematic side view of a beam forming apparatus according to still another embodiment of the present invention.
FIG. 7 is a schematic side view of an optical correlator used in a three-dimensional mapping system according to yet another embodiment of the present invention.
図1は、本発明の1実施形態による三次元マッピングシステム20を絵で示した概略図である。システム20は、スペックル撮像装置22を有し、この装置は、第1次スペックルパターンを生成し、被写体28に投影し、この被写体上に現れた第1次スペックルパターンの像を獲得する。装置22の詳細な設計および作用は以下の図面に示し、これに関連して以下に説明する。
FIG. 1 is a schematic diagram illustrating a three-
画像プロセッサ24は、被写体28の三次元マップを得るために、装置22により生成された画像データを処理する。本特許出願および請求項で用いられる「三次元マップ」という用語は、被写体面を表す三次元座標群を指す。画像データに基づいてこのようなマップを導き出すことは、「三次元再構成」と呼ぶこともできる。このような再構成を行う画像プロセッサ24は、汎用コンピュータプロセッサを有することができ、ソフトウェア中で、以下に説明する機能を実施するためのプログラミングがされている。このソフトウェアは、例えばネットワークを介して電子的な形態で、プロセッサ24にダウンロードされてもよいし、あるいは、光学、磁力または電子メモリ媒体などの有形メディア上で提供されていてもよい。あるいはまたはこれに加えて、この画像プロセッサのいくつかのまたは全ての機能は、特注または半特注の集積回路またはプログラム可能なデジタル信号プロセッサ(DSP)などの、専用ハードウェア中に実装されてもよい。プロセッサ24は、図1には、例として撮像装置22とは別体のユニットとして示すが、プロセッサ24のいくつかのまたは全ての処理機能は、撮像装置の筐体内で適切な専用の回路によって、または別の方法で撮像装置と関連付けて実施されてもよい。
The
プロセッサ24により生成された三次元マップは、広範囲の様々な目的に用いられることができる。例えば、このマップは、被写体の擬似三次元像を示すディスプレイ26のような出力装置に送ることができる。図1の例では、被写体28は、題材となる体の全部分またはその一部(例えば、手)を有する。この場合、システム20は、ジェスチャーベースのユーザインタフェースを提供するために用いられることができ、装置22により検出されたユーザの動きが、マウス、ジョイスティックやその他のアクセサリなどの触知型インタフェース部材に代わって、ゲームなどの対話型のコンピュータアプリケーションを制御する。あるいは、システム20を用いて、三次元座標の輪郭が必要となる実質的にいかなるアプリケーションのために、これ以外の種類の被写体の三次元マップを作ってもよい。
The three-dimensional map generated by the
図2は、本発明の1実施形態による装置22の概略上面図である。照明アセンブリ30は、コヒーレント光源32を有する。これは通常レーザおよび拡散板33である。(本特許出願の分脈中では、「光」という用語は、いずれの種類の光学線をも指し、例えば、赤外線、紫外線および可視光線を含む。)光源32より発せられた光のビームは、半径w0のスポット34で、拡散板33を通過し、発散ビーム36を発生させる。上述のPCT特許出願PCT/IL2006/000335号で説明したように、拡散板34によりZobj1およびZobj2の距離に作られた第1次スペックルパターンは、Zobj1およびZobj2の距離が、被写体距離Zobjにおけるスペックルパターンの軸上サイズΔZが、ΔZ=(Zobj/w0)2・λにより与えられた距離の範囲にある場合は、互いの線型でスケーリングされたバージョンの近似値である。
FIG. 2 is a schematic top view of an
画像獲得アセンブリ38は、被写体28上に投影されたスペックルパターンの画像を獲得する。アセンブリ38は、画像を画像センサー40上にフォーカシングする対物光学系39を有する。通常、センサー40は、CCDまたはCMOSベースの画像センサーアレイなどの、検出素子41の直線アレイを有する。対物光学系39は、画像センサーの寸法と共に画像獲得アセンブリの視野44を規定する入射瞳42を有する。この装置22の検出ボリュームは、ビーム36と視野44との間で重複領域46を有する。
The
Zobjの距離において照明アセンブリ30により投影された特徴的な横断方向のスペックルサイズ(これは、スペックルパターンの二次的な統計により規定される)は、ΔX=(Zobj/W0)・λである。発明者らは、光学像処理の効率のためには、センサー40上に結像されるスペックルサイズは、範囲要求および解像度要求に応じて、1〜10画素であるべきで、すなわち、光学系39によりセンサー40上に結像される各スペックルは、水平方向に1〜10個の検出素子41上に伸びていると見出した。通常のアプリケーションでは、スペックルサイズは、2〜3画素で、よい結果をもたらす。
The characteristic transverse speckle size projected by the
上のΔXに関する式から、スペックルサイズは、光源32と拡散板33との間の距離を変えることにより調節可能であることがわかるが、これはスポット34の半径w0が、光源からの距離が長くなるにつれ、大きくなるからである。このように、照明アセンブリ30のスペックルパラメータは、レンズやその他の光学系を用いずとも、単に光源を横方向に移動させることによって、制御可能である。照明アセンブリ30は、このように、異なるサイズと解像度の画像センサーと連携することにより、および異なる倍率の対物光学系と連携することにより調節可能である。上述のパラメータの要求によりスペックルサイズを小さくすることにより、レーザダイオードのような安価な光源を、発散を大きくして(5°以上)かつコヒーレンス長を短くすることにより(1cm未満、および場合によっては、0.5mm未満)、システム20中で用いて、よい効果を出すことができる。
From the above equation for ΔX, it can be seen that the speckle size can be adjusted by changing the distance between the
照明アセンブリ30および画像獲得アセンブリ38は、マウント43により空間中、固定関係で保持されている。図2に図示する実施形態では、このマウントは、これらのアセンブリを保持する筐体を有する。あるいは、これ以外の適切な機械的なマウントを用いて、照明アセンブリと画像獲得アセンブリとの間の所望の空間的関係を維持することができる。装置22の構成および以下に示す処理技術により、照明アセンブリと画像獲得アセンブリとの間を相対的に動かさずとも、また、パーツを動かさずとも、単一の画像獲得アセンブリを用いて三次元マッピングを行うことができる。画像獲得アセンブリ38は、このように、照明アセンブリ30に対して相対的に単一かつ固定的な角度において、画像を獲得することができる。
The
三次元マップの演算を単純にし、被写体28の移動によるマップの変化を単純化するために、以下に示すように、入射瞳42の中心とスポット34とを通る軸が、センサー40の軸のうちの1つに対して平行になるように、マウント43が2つのアセンブリ30・38を保持することが好ましい。すなわち、(対物光学系30の光軸を原点にして)互いに直交するX軸とY軸を規定するために、検出素子41のアレイの列および行を取ると、瞳42とスポット34を通る軸は、アレイの軸のうちの1つ(便宜上、X軸とする)と平行であるべきである。この配置の利点は、以下にさらに説明する。
In order to simplify the calculation of the three-dimensional map and simplify the change of the map due to the movement of the subject 28, the axis passing through the center of the
(スポット34と瞳42の中心をそれぞれ通る)アセンブリ30・38の各光軸は、距離Sだけ離れている。これゆえに、Zobjが変わると、画像獲得アセンブリ38により獲得された被写体画像中に、スペックルパターンの歪曲が生じる。特に、三角測距では、図2からわかるように、被写体上の点がZ軸方向にδZだけシフトすると、画像中に観察されるスペックルパターン中に付随して生じる横断方向のシフトδXが、δX≡δZ・S/Zobjのように引き起こされる。
The optical axes of the
被写体上の点のZ座標および時間経過によるZ座標のシフトは、既知の距離Zで得られた参照画像に対して相対的に生じた、アセンブリ38により獲得された像中のスペックルのX座標のシフトを測定することにより、算出可能である。すなわち、参照画像中で最もマッチングするスペックル群を見つけるために、獲得された画像の各領域におけるスペックル群は、参照画像と比較される。画像中のスペックルのマッチングする群間で相対的なシフトをすることにより、参照画像に対して相対的である、獲得画像の領域のZ方向のシフトがわかる。スペックルパターンのシフトは、画像相関法またはこれ以外の当該技術分野で公知である画像マッチング演算方法を用いて測定されうる。この方法のいくつかは、上述のPCT特許出願に記載されている。装置22と共に適用される特に有用な別の方法は、2006年3月24日出願の米国仮特許出願60/785,202号(本件特許出願の譲渡人に譲渡され、その開示は本願中に参照することにより盛り込まれている。)に記載されている。
The Z coordinate of the point on the subject and the Z coordinate shift over time occurred relative to the reference image obtained at a known distance Z, and the X coordinate of the speckle in the image acquired by the
さらに、図2に図示したような、瞳42とスポット34とを通るX軸が、センサー40のX軸に平行である配置では、スペックルパターンのシフトδZが、(光学系39による歪曲が無視できる限り)、厳密にX方向に限られ、シフトのY成分は存在しない。したがって、画像マッチング演算は、単純化され、Xシフトによるスペックルの最も近いマッチング群を探す必要があるだけである。すなわち、現在の画像中、参照画像(スペックルパターンの先行するいずれの画像でありうる)に対して相対的に、エリアのδZを算出するために、参照画像に対してX軸方向にシフトさせた現在画像の領域のコピーをチェックするだけで、参照画像に最もよくマッチするシフトδXの値を見つけることができる。
Furthermore, in an arrangement in which the X axis passing through the
あるいは、装置22の部材の幾何学的配置が、上述の基準からずれている場合、またはレンズ歪曲が重大である場合は、プロセッサは、このずれを補償するためのパラメータモデルを用いることができる。すなわち、既知のずれを測定し、またはその他の方法でモデリングし、プロセッサは、被写体面の実際の三次元座標を見つけるために、ずれのパラメータモデルに応じて、参照画像に対して相対的に適切な(X,Y)方向でのシフトさせた現在の画像のエリアのコピーをチェックすることができる。
Alternatively, if the geometry of the components of the
通常、構成および演算面での便宜上、システム20の作動パラメータは、S<<Zobjになるように選択される。(一方、システム20のZ方向の解像度は、S/Zobjの割合に依存するので、所望の解像度を得るためには、Sはシステムの意図する作動距離に対して相対的に十分大きくなくてはならず、)S<<Zobjである限り、照明アセンブリおよび画像獲得アセンブリから、各被写体点までの各距離の値は、近い値となるが、しかし一般的には完全に等しくはならない。したがって、アセンブリ38により獲得されたスペックルパターンの像中のスペックルのスケールは、エリア46全域で、いくらかの誤差γを持って変動する。当該分野で公知の演算方法のいくつかを上述のPCT特許出願中で記載したが、これらを用いて、現在の画像のマッチング領域中のこれらのスケールの変動を、参照画像の対応する領域に対して補償することができる。
Usually, for operational convenience and configuration, the operating parameters of the
しかし、一般的には、プロセッサ24に過剰な演算負荷をかけないようにするため、マッチングさせるウィンドウのサイズに応じて、および、特徴的なスペックルサイズに応じて、γをある所定の限界範囲内に維持することが望まれる。発明者らは、全般的に、特徴的なウィンドウのスケーリングの変動が、1つのスペックルサイズの30%を上回らない範囲に、γを限定すべきであると見出した。画像獲得アセンブリ38の視野の対角θを用いると、γ≡1±(S・sin(θ)/2・Zobj)である。したがって、サイズNのウィンドウの局所的なスペックルパターンの実質的なスケール普遍性は、(S・sin(θ)・N/2・Zobj)<0.3(λ・Zobj/w0・psize(Zobj)) であり、ここで、psize(Zobj)は、Zobjにおける画素のサイズである。これらの条件の下で、アセンブリ38により獲得された連続する像フレーム中での被写体のZ軸方向のシフトは、一般に、スペックルスケーリングを明らかに考慮することなく演算されうる。
However, in general, in order not to put an excessive calculation load on the
図3は、システム20を用いた、本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。この方法は、とりわけ、照明アセンブリ30により投影されたスペックルパターンが、時間の経過に応じて実質的に変化しない場合の実施に基づいている。これゆえに、アセンブリに対して相対的に固定位置かつ固定角度にある画像獲得アセンブリ38により獲得された、被写体上に投影されたスペックルパターンの各像を用いて、被写体の三次元マップを精確に演算することができる。
FIG. 3 is a flowchart schematically illustrating a three-dimensional mapping method using the
被写体をマッピングする前に、既知の空間輪郭を有しかつ装置22から既知の距離だけ離れたある被写体へ、アセンブリ30からスペックルパターンを投影することにより、装置22の較正を行う。(較正ステップ50)通常、このために、既知の距離Zobjにおいて、領域46全域に伸びている平坦な被写体を、較正目標として用いる。画像獲得アセンブリ38は、被写体の参照画像を獲得し、これがプロセッサ24のメモリ中に保存される。この較正ステップは、製造時に行われてもよく、メモリ中に保存された参照画像は、装置22の様々な部品間での相対的な移動が制御なしに行われない限り、このフィールドにおいて用いることができる。メモリを節約し、続く演算を単純化するために、参照画像は、用いるマッチングアルゴリズムにとって適切であるような、閾値に基づいたバイナリ画像などの、データ量を減らした形式で保存することもできる。
Prior to mapping the subject, the
システム20が使用可能な状態になると、装置22を用いて興味のある被写体(この場合、被写体28)の画像を獲得するために、システム20は活性化される(最初の画像獲得ステップ52)。プロセッサ24は、この画像を、保存された較正画像中のスペックルパターンと比較する(マップ演算ステップ54)。画素値が、所定の閾値未満である(あるいは、重要なスペックル情報を含まない)画像の暗い領域は、通常、影領域として分類され、ここからは深さ(Z)情報は、取り出されえない。画像のこれ以外の部分は、おそらくは当該分野において公知の適応的閾値を用いて2値化されることができるか、またはこれ以外の方法でデータ量を減らすことができ、参照画像に対して効率的にマッチングできるようにする。
When the
プロセッサ24は、画像の非影部分内の、あるウィンドウを選択し、このウィンドウ内の副画像を、参照画像の部分と比較し、この副画像が最もよくマッチングする参照画像の部分が見つかるまでこれを続ける。上述し、図2に図示したように、アセンブリ30・38が、X軸に沿って配されている場合、プロセッサは、副画像を、副画像に対して相対的にX方向で変位している参照画像の部分(上述のように、倍率γまでの倍率でスペックルパターンのスケーリングがされている)と比較するので十分である。プロセッサは、参照画像のマッチング部分に対して相対的な、副画像の横断方向でのオフセットを用いて、上述の三角測距の原理に基づいて、副画像内の被写体28面の領域のZ座標を決める。被写体面のこの領域がX−Y面方向にあるのではなく、傾いていたら、副画像内のスペックルパターンは、歪曲を示す。プロセッサ24は、任意であるがスペックル歪曲を分析し、傾斜角度を見積り、これにより三次元マッピングの精度を改善することもできる。
The
プロセッサ24は、この第1ウィンドウのマップ座標を出発点として用いて、画像の隣接する領域の座標を算出してもよい。とりわけ、プロセッサが、画像内のある領域と、参照画像内の対応する領域との間に高い相関を見つけると、この領域の参照画像に対する相対的なオフセットは、画像内の隣接する画素のオフセットをうまく予測するのに役立ちうる。プロセッサは、これらの隣接する画素を、初めにマッチングした領域のオフセットに等しいオフセット、またはこれに近い範囲内でのオフセットでもって、参照画像にマッチングさせようとする。このようにして、プロセッサは、マッチング領域の範囲を拡大し、この範囲が端に達するまで、これを続ける。プロセッサは、このようにして、被写体28の三次元輪郭が完成するまで、像の非影領域のZ座標を算出する。この手法は、小さいウィンドウおよび信号雑音比が悪い画像を用いても、迅速にかつ頑健なマッチングができるという利点がある。この目的のために使用可能な演算方法の詳細は、上述のPCT特許出願中に記載されている。
The
上述のステップの結果、プロセッサ24は、最初の画像中で見ることができる被写体面の部分の完全な三次元マップを演算した。しかし、被写体の三次元の動きを追跡するために、この方法を拡張し、連続画像を獲得し、分析することも容易に可能である(次の画像ステップ56)。装置22は、所定のフレーム速度で連続画像を獲得し、プロセッサ24は、各連続画像に基づいて三次元マップを更新する。三次元マップは、望ましい場合、保存されかつ較正された参照画像に対して演算されてもよい。あるいは、被写体は、通常1つの画像フレームから次の画像フレームへとそれほど移動しないので、各連続画像を次のフレーム用の参照画像として用いるのが、しばしばより効率的である。
As a result of the above steps, the
このようにして、プロセッサ24は、各副画像のスペックルの、先行する画像中の同じスペックルに対するX方向の相対的なシフトを演算するために、各連続画像を先行する画像に比較することができる(シフト演算ステップ58)。通常、このシフトは数画素以上にはならないので、演算を迅速に、かつ効率的に行うことができる。各新しい画像がこのように処理された後、プロセッサ24は、更新した三次元マップを出力する(新しいマップ出力ステップ60)。この画像獲得および更新のプロセスは、このようにして無限に行われうる。連続三次元マップの演算が容易であるので、システム20は、単純で、低コストの画像ハードウェアおよび処理ハードウェアを使用しつつ、30フレーム/秒あるいはより速い実時間ビデオ速度で、マップ座標を操作し、出力することができる。さらに、上述したような効率的な画像マッチング演算と範囲拡張法とにより、先行する画像から局所的なシフトが演算できない場合にも、ビデオ速度でシステム20を作動させることができる。
In this way, the
システム20のこのような能力のゆえに、広い範囲のアプリケーションにおいて、システム20を適切に使用することができ、特に人間のジェスチャーに基づくマシンインタフェースにこれを実装することができる。このようなインタフェースでは、(プロセッサ24を有し、またはプロセッサにより三次元マップ出力を受け取ることができる)コンピュータが、ユーザの体の部分(例えば、腕、手および/または指、そしておそらく、頭、胴体およびこれ以外の四肢部分など)に対応する三次元マップ中の、1つまたは複数のボリュームを特定する。このコンピュータは、これらの体の部分のある動きに対応するジェスチャーを特定し、これらのジェスチャーに応答して、コンピュータアプリケーションを制御するようにプログラムされている。このようなジェスチャーおよびアプリケーションの一例には、以下のようなものがある。
・マウス解釈およびクリック−コンピュータは、ユーザがテーブル上でマウスを動かし、マウスボタンをクリックしているように、ユーザの手と指の動きを解釈する。
・コンピュータ画面上で、フリーハンドで被写体を指差し、選択し、解釈する。
・ユーザのジェスチャーにより、ゲームで用いられる実際のまたはバーチャルな被写体を打ち、つかみ、動かし、開放するようなコンピュータゲーム。
・ユーザが行うことができる限定された動きを検知することに基づいた、障害者ユーザ用のコンピュータインタフェース。
・バーチャルキーボード上でのタイプ
これ以外のアプリケーションも、当業者には自明であろう。
Because of this capability of the
Mouse Interpretation and Click—The computer interprets the movement of the user's hand and fingers as if the user moved the mouse on the table and clicked the mouse button.
-Point, select, and interpret the subject freehand on the computer screen.
A computer game in which a user's gesture hits, grabs, moves, and releases an actual or virtual subject used in the game.
A computer interface for the disabled user based on detecting limited movement that the user can perform.
Other types of applications on the virtual keyboard will be obvious to those skilled in the art.
図2に戻って、ビーム36が、レイリー距離を越えて広がると、被写体28上に落とされる照明の強度は、Z2にほぼ比例して低下する。被写体上に投影されるスペックルパターンのコントラストも、これに応じて低下する。これは特に、光源32の波長の強い周辺光があるときに低下する。したがって、システム20が有用な結果を出すことができる深さの範囲(Z座標)は、Zが大きくて照明が弱いために限定されうる。この点は、当該技術分野で公知であるし、適応制御法および画像制御法により緩和されうる。この種の適切な方法の数例は、上述のPCT特許出願PCT/IL2006/000335号に記載されている。あるいは、または、これに加えて、以下に説明するように、光学ビーム形成装置を用いて、照明の輪郭を改善することができる。
Returning to FIG. 2, the
図4は、システムの有用な深さ範囲を広くするために、本発明の1実施形態によるシステム20で用いられる照明アセンブリ70の概略側面図である。アセンブリ70は、光源32と拡散板33と共に、ビーム形成装置72を有する。このビーム形成装置は、中間領域76で発散を減らしつつ、この領域で軸上長さZのスペックルパターンの線型スケールを維持するビーム74を発生させるように設計されている。その結果、領域76に渡って被写体28の画像中で、高いスペックルコントラストが維持され、その結果、三次元マッピングシステムにより網羅される深さ範囲が広くなる。領域76中での性能を向上させるために用いられうる光学設計を、以下にいくつか説明する。
FIG. 4 is a schematic side view of a
図5は、本発明の1実施形態によるビーム形成装置72の概略側面図である。このビーム形成装置は、回折光学素子(DOE)80と、アキシコン82とを有する。DOE80は、拡散板33に当接していてもよいし、あるいは拡散板の表面上でのエッチング層または堆積層として組み込まれてもよい。領域76中でのビーム発散を減らすために、様々な回折設計を用いることができる。例えば、DOE80は、光源32の光軸上に中心を有する同心円あって、かつ円の半径がランダムに分布しているパターンを有しても良い。アキシコン82は、光軸上に中心を置く円錐形の輪郭を有し、すなわち、一種の回転対称プリズムである。DOE80もアキシコン82も、光軸に沿って長い焦点領域を作る効果を有し、その結果、これらの部材のいずれか1つを用いて、ビーム発散を減らした領域を作ることができる。この発散の減少は、2つの部材を共に用いることにより、さらに強化される。
FIG. 5 is a schematic side view of a
図6は、本発明の別の実施形態によるビーム形成装置90の概略側面図である。ビーム形成装置90は、DOE92と、焦点距離がFであるレンズ94・96とを有する。図示したように、これらのレンズは、拡散板33とDOE92とから、焦点距離に等しい距離だけ離れ、したがってDOEは、拡散板のフーリエ平面に位置づけられている。したがって、DOEの透過機能により、拡散板のフーリエ変換は、乗算される。遠い領域では、スペックルパターンは、DOE上のパターンのフーリエ変換により乗算される。
FIG. 6 is a schematic side view of a
図4に示すように、フーリエ変換が発散を減らすように、DOEパターンは選択されうる。および/または、DOEパターンは、照明ビームに渡ってより均一な照明を提供するように選択されうる。後者の課題は、(拡散板33からのビームの角度の強度分布は、中央では明るく、かつ光軸から角度が増えるにつれ低下する傾向にあるが、これとは逆に)中央領域において周辺領域よりも透過を低下させるように部材92を設計することにより達成されうる。興味のあるボリュームに渡って、より均一なスペックルコントラストを与えるためのDOE92またはDOE80(図5)の他の設計も、当業者には自明であり、本発明の枠内にあると考えられる。
As shown in FIG. 4, the DOE pattern can be selected such that the Fourier transform reduces divergence. And / or the DOE pattern can be selected to provide more uniform illumination across the illumination beam. The latter problem is that the intensity distribution of the beam angle from the
図7は、システム20で用いられうる、被写体28領域のZ座標を決めるための、本発明のさらに別の1実施形態による光学相関器110の概略側面図である。すなわち、相関器110は、上述したプロセッサ24の機能の一部分を実行する光学技術である。相関器は、非常に高速で、ほぼ同時に、平行して被写体の複数の領域の座標を決めることができる。したがって、迅速に被写体が動くことが特徴的であるアプリケーションには、非常に有用である。
FIG. 7 is a schematic side view of an optical correlator 110 according to yet another embodiment of the present invention for determining the Z coordinate of a subject 28 region that may be used in the
レンズレットアレイ116は、アセンブリ30によるスペックル照明の下、被写体28の複数の副画像を形成する。絞りアレイ118が、アレイ中のレンズレット116の視野を限定し、その結果各副画像は、狭い角度領域からのみの光を含む。第2のレンズレットアレイ120は、副画像をDOE122上に投影する。アレイ120は、アレイ中のレンズレットの焦点距離に等しい距離分だけ、副画像の面からはなれ、等しい距離分だけDOE122面から離れている。後方のレンズレットアレイ124は、DOE122とセンサー40との間に位置し、それぞれレンズレットの焦点距離に等しい距離だけこの各々から離れている。
The
DOE122は、被写体128のスペックル像が比較されるべき参照スペックルパターンの空間フーリエ変換である、参照回折パターンを含んでいる。例えば、この参照回折パターンは、光源から既知の距離を隔てた平面を使用して、ステップ50で形成された較正スペックル像のフーリエ変換でありうる。この場合、参照回折パターンは、DOE表面上にエッチングまたは堆積されうる。あるいは、DOE122は、参照回折パターンを動的に投影するように駆動される、空間変調器(SLM)を有しうる。
The
いずれの場合も、相関器110は(アレイ中のレンズレット116により形成される)被写体の副画像を、フーリエ空間中の参照スペックルパターンで乗算する。したがって、レンズレットアレイ124によりセンサー40上に投影された強度分布は、参照スペックルパターンと各副画像の相互相関に一致している。一般に、センサー上の強度分布は、複数の相関ピークを有し、各ピークは、副画像の1つに対応している。(アレイ118中の対応する絞りで規定された)対応する副画像の軸に対する各ピークの横断方向でのオフセット値は、被写体28の対応する領域上のスペックルパターンの横断方向での変位に比例している。この変位は、さらに、上述のように、参照スペックルパターン面に対して相対的である領域のZ方向の変位に比例している。このように、センサー40の出力を処理することにより、各副画像の領域のZ座標を決めるために、そして、被写体の三次元マップを演算することができる。
In either case, correlator 110 multiplies the sub-image of the subject (formed by
上述の実施形態は、システム20の特定の構成と、上述の装置22の設計に関連するが、本発明のある原理は、これ以外の種類のスペックルベースの三次元マッピングのシステムおよび装置にも同様に応用可能である。例えば、上述の実施形態の観点は、複数の画像獲得アセンブリを用いたシステムに応用してもよいし、あるいは画像獲得アセンブリと照明アセンブリとが互いに相対的に可動であるシステムにも応用してもよい。
Although the embodiments described above relate to the specific configuration of the
上述の実施形態は例として示したが、本発明は、本願中上で特定的に示し説明した内容に限定されないと理解される。むしろ、本発明の範囲は、上述の記載を読んだ当業者が思いつくであろう、かつ先行技術に開示されていない、本願中の上述の様々な特徴の組み合わせや、一部組み合わせや、これらの変更や修正をも含む。 Although the above embodiments have been shown by way of example, it is understood that the present invention is not limited to what has been particularly shown and described herein. Rather, the scope of the present invention is the combination of the various features described above in this application, any combination thereof, or any combination thereof, as would be conceived by one of ordinary skill in the art upon reading the above description and not disclosed in the prior art. Includes changes and modifications.
20 三次元マッピングシステム
22 スペックル撮像装置
24 画像プロセッサ
28 被写体
30 照明アセンブリ
32 コヒーレント光源
33 拡散板
38 画像獲得アセンブリ
39 対物光学系
40 画像センサー
20 three-
Claims (44)
前記照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックルパターン画像を獲得するように配された単一の画像獲得アセンブリと、
被写体の三次元マップを導き出すために、前記単一かつ固定角度で獲得された前記第1次スペックルパターンの画像を処理するために接続されたプロセッサと
を有する被写体の三次元マッピング装置。 An illumination assembly having a coherent light source and a diffuser arranged to project a primary speckle pattern onto a subject;
A single image acquisition assembly arranged to acquire the first speckle pattern image on the subject from a single and fixed position and angle relative to the illumination assembly;
A three-dimensional mapping apparatus for a subject comprising a processor connected to process an image of the first speckle pattern acquired at a single fixed angle to derive a three-dimensional map of the subject.
第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイと、
入射瞳を有し、かつ、前記画像を前記アレイ上にフォーカシングするために配された対物光学系と
を有し、
前記第1軸に平行な装置の軸であって、かつ、前記入射瞳と前記コヒーレント光源により生成されるビームが前記拡散板を通過するスポットとを通る装置の軸を規定するように、前記照明アセンブリと前記画像獲得アセンブリとがマウントによって配されている、請求項2に記載の装置。 The image acquisition assembly includes:
A detector element array disposed in a linear pattern defining first and second mutually orthogonal axes;
An objective optical system having an entrance pupil and arranged to focus the image on the array;
The illumination axis so as to define an axis of the device parallel to the first axis and passing through the entrance pupil and a spot through which the beam generated by the coherent light source passes through the diffuser. The apparatus of claim 2, wherein the assembly and the image acquisition assembly are arranged by a mount.
前記光源に対して相対的に、単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックルパターンの画像を獲得する工程と、
被写体の三次元マップを導き出すために、前記単一かつ固定角度で獲得された前記第1次スペックルパターンの画像を処理する工程と
を有する被写体の三次元マッピング方法。 Illuminating the subject with a beam of coherent light diffused from a light source to project a primary speckle pattern onto the subject;
Obtaining an image of the first speckle pattern on the subject from a single and fixed position and angle relative to the light source;
Processing a first speckle pattern image acquired at a single fixed angle to derive a three-dimensional map of the subject.
前記画像を獲得する工程は、前記画像獲得アセンブリの入射瞳と、前記第1軸に平行である装置の軸に沿って前記拡散板をビームが通過するスポットとを一直線に並べる工程を有する、請求項22項に記載の方法。 The image acquisition assembly has an array of detector elements arranged in a linear pattern defining first and second mutually orthogonal axes, the light source has a diffuser plate,
Acquiring the image comprises aligning an entrance pupil of the image acquisition assembly and a spot through which the beam passes through the diffuser plate along an axis of the device that is parallel to the first axis. Item 23. The method according to Item 22.
前記被写体上の前記第1次スペックルパターン画像を獲得するように配された画像獲得アセンブリと、
被写体の三次元マップを導き出すために、前記第1次スペックルパターンの画像を処理するために接続されたプロセッサと
を有する被写体の三次元マッピング装置。 An illumination assembly having a coherent light source and a diffuser having a coherence length of less than 1 cm, and arranged to project a primary speckle pattern on the subject;
An image acquisition assembly arranged to acquire the first speckle pattern image on the subject;
A three-dimensional mapping apparatus for a subject having a processor connected to process an image of the first speckle pattern to derive a three-dimensional map of the subject.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IL2006/000335 WO2007043036A1 (en) | 2005-10-11 | 2006-03-14 | Method and system for object reconstruction |
ILPCT/IL2006/000335 | 2006-03-14 | ||
US78518706P | 2006-03-24 | 2006-03-24 | |
US60/785,187 | 2006-03-24 | ||
PCT/IL2007/000306 WO2007105205A2 (en) | 2006-03-14 | 2007-03-08 | Three-dimensional sensing using speckle patterns |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009531655A true JP2009531655A (en) | 2009-09-03 |
JP2009531655A5 JP2009531655A5 (en) | 2010-03-04 |
JP5174684B2 JP5174684B2 (en) | 2013-04-03 |
Family
ID=38509871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008558981A Active JP5174684B2 (en) | 2006-03-14 | 2007-03-08 | 3D detection using speckle patterns |
Country Status (5)
Country | Link |
---|---|
US (2) | US8390821B2 (en) |
JP (1) | JP5174684B2 (en) |
KR (1) | KR101331543B1 (en) |
CN (1) | CN101496033B (en) |
WO (1) | WO2007105205A2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011160420A (en) * | 2010-02-02 | 2011-08-18 | Primesense Ltd | Synchronization of projected illumination with rolling shutter of image sensor |
JP2011170319A (en) * | 2009-11-15 | 2011-09-01 | Primesense Ltd | Optical projector with beam monitor |
JP2012194543A (en) * | 2011-03-03 | 2012-10-11 | Asahi Glass Co Ltd | Diffraction optical element and measurement instrument |
JP2013033204A (en) * | 2011-06-28 | 2013-02-14 | Asahi Glass Co Ltd | Diffraction optical element and measurement apparatus |
US8599484B2 (en) | 2010-08-10 | 2013-12-03 | Asahi Glass Company, Limited | Diffractive optical element and measuring device |
JP2015501938A (en) * | 2011-12-16 | 2015-01-19 | フリードリヒ−シラー−ユニバーシタット イエナ | 3D measurement method for objects with limited depth |
US8995057B2 (en) | 2010-11-02 | 2015-03-31 | Asahi Glass Company, Limited | Diffractive optical element and measurement instrument |
KR20150084680A (en) * | 2014-01-13 | 2015-07-22 | 페블스 리미티드. | Sub-resolution optical detection |
JP5849954B2 (en) * | 2010-08-06 | 2016-02-03 | 旭硝子株式会社 | Diffractive optical element and measuring device |
JP2018503106A (en) * | 2014-12-27 | 2018-02-01 | ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. | System and method for detecting surface vibration |
US9897438B2 (en) | 2013-09-02 | 2018-02-20 | Asahi Glass Company, Limited | Diffraction optical element, projection device, and measurement device |
JP2020531794A (en) * | 2017-08-31 | 2020-11-05 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Solid-state photodetection and range-finding (LIDAR) systems, systems and methods for improving solid-state light detection and range-finding (LIDAR) resolution. |
US11675076B2 (en) | 2017-08-31 | 2023-06-13 | SZ DJI Technology Co., Ltd. | Solid state light detection and ranging (LIDAR) system and system and method for improving solid state light detection and ranging (LIDAR) resolution |
Families Citing this family (191)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9330324B2 (en) * | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
US20110096182A1 (en) * | 2009-10-25 | 2011-04-28 | Prime Sense Ltd | Error Compensation in Three-Dimensional Mapping |
WO2007105205A2 (en) | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Three-dimensional sensing using speckle patterns |
US8400494B2 (en) | 2005-10-11 | 2013-03-19 | Primesense Ltd. | Method and system for object reconstruction |
KR101408959B1 (en) * | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | Depth-varying light fields for three dimensional sensing |
WO2007105215A2 (en) * | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Depth-varying light fields for three dimensional sensing |
CN103778635B (en) * | 2006-05-11 | 2016-09-28 | 苹果公司 | For the method and apparatus processing data |
WO2008087652A2 (en) * | 2007-01-21 | 2008-07-24 | Prime Sense Ltd. | Depth mapping using multi-beam illumination |
US8265793B2 (en) | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
US8493496B2 (en) | 2007-04-02 | 2013-07-23 | Primesense Ltd. | Depth mapping using projected patterns |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
FR2921719B1 (en) * | 2007-09-28 | 2010-03-12 | Noomeo | METHOD FOR CONSTRUCTING A SYNTHESIS IMAGE OF A THREE-DIMENSIONAL SURFACE OF A PHYSICAL OBJECT |
DE102007058590B4 (en) * | 2007-12-04 | 2010-09-16 | Sirona Dental Systems Gmbh | Recording method for an image of a recording object and recording device |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
WO2009093228A2 (en) * | 2008-01-21 | 2009-07-30 | Prime Sense Ltd. | Optical designs for zero order reduction |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
GB2463724B (en) * | 2008-09-26 | 2011-05-04 | Cybula Ltd | Forming 3D images |
FR2940423B1 (en) | 2008-12-22 | 2011-05-27 | Noomeo | DENSE RECONSTRUCTION THREE-DIMENSIONAL SCANNING DEVICE |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
CA2763826C (en) | 2009-06-17 | 2020-04-07 | 3Shape A/S | Focus scanning apparatus |
WO2011013079A1 (en) | 2009-07-30 | 2011-02-03 | Primesense Ltd. | Depth mapping based on pattern matching and stereoscopic information |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
CN102022979A (en) * | 2009-09-21 | 2011-04-20 | 鸿富锦精密工业(深圳)有限公司 | Three-dimensional optical sensing system |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
JP4783456B2 (en) * | 2009-12-22 | 2011-09-28 | 株式会社東芝 | Video playback apparatus and video playback method |
US20110188054A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd | Integrated photonics module for optical projection |
US8786757B2 (en) | 2010-02-23 | 2014-07-22 | Primesense Ltd. | Wideband ambient light rejection |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8982182B2 (en) * | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
BR112012026354A8 (en) * | 2010-04-13 | 2018-05-08 | Nokia Corp | device, method, computer program, and user interface |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US8918209B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US8918213B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US8935005B2 (en) | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
GB2494081B (en) | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
JP5791131B2 (en) | 2010-07-20 | 2015-10-07 | アップル インコーポレイテッド | Interactive reality extension for natural interactions |
US9036158B2 (en) | 2010-08-11 | 2015-05-19 | Apple Inc. | Pattern projector |
WO2012020380A1 (en) | 2010-08-11 | 2012-02-16 | Primesense Ltd. | Scanning projectors and image capture modules for 3d mapping |
US9348111B2 (en) | 2010-08-24 | 2016-05-24 | Apple Inc. | Automatic detection of lens deviations |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
IL208568B (en) * | 2010-10-07 | 2018-06-28 | Elbit Systems Ltd | Mapping, detecting and tracking objects in an arbitrary outdoor scene using active vision |
KR20120046973A (en) * | 2010-11-03 | 2012-05-11 | 삼성전자주식회사 | Method and apparatus for generating motion information |
EP2643659B1 (en) | 2010-11-19 | 2019-12-25 | Apple Inc. | Depth mapping using time-coded illumination |
US9131136B2 (en) | 2010-12-06 | 2015-09-08 | Apple Inc. | Lens arrays for pattern projection and imaging |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
EP2466560A1 (en) | 2010-12-20 | 2012-06-20 | Axis AB | Method and system for monitoring the accessibility of an emergency exit |
US8930019B2 (en) | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
EP2659320A2 (en) | 2010-12-30 | 2013-11-06 | iRobot Corporation | Mobile human interface robot |
US8717488B2 (en) | 2011-01-18 | 2014-05-06 | Primesense Ltd. | Objective optics with interference filter |
CN106125921B (en) | 2011-02-09 | 2019-01-15 | 苹果公司 | Gaze detection in 3D map environment |
US9052512B2 (en) | 2011-03-03 | 2015-06-09 | Asahi Glass Company, Limited | Diffractive optical element and measuring apparatus |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
CN102760234B (en) | 2011-04-14 | 2014-08-20 | 财团法人工业技术研究院 | Depth image acquisition device, system and method |
WO2012147702A1 (en) | 2011-04-28 | 2012-11-01 | シャープ株式会社 | Head-mounted display |
JP5214062B1 (en) * | 2011-04-28 | 2013-06-19 | 三洋電機株式会社 | Information acquisition device and object detection device |
EP2530442A1 (en) | 2011-05-30 | 2012-12-05 | Axis AB | Methods and apparatus for thermographic measurements. |
JP5926500B2 (en) * | 2011-06-07 | 2016-05-25 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP5298161B2 (en) * | 2011-06-13 | 2013-09-25 | シャープ株式会社 | Operating device and image forming apparatus |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US8869073B2 (en) * | 2011-07-28 | 2014-10-21 | Hewlett-Packard Development Company, L.P. | Hand pose interaction |
US8908277B2 (en) | 2011-08-09 | 2014-12-09 | Apple Inc | Lens array projector |
US8749796B2 (en) | 2011-08-09 | 2014-06-10 | Primesense Ltd. | Projectors of structured light |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
FR2980292B1 (en) | 2011-09-16 | 2013-10-11 | Prynel | METHOD AND SYSTEM FOR ACQUIRING AND PROCESSING IMAGES FOR MOTION DETECTION |
WO2013067526A1 (en) | 2011-11-04 | 2013-05-10 | Remote TelePointer, LLC | Method and system for user interface for interactive devices using a mobile device |
EP2611169A1 (en) | 2011-12-27 | 2013-07-03 | Thomson Licensing | Device for the acquisition of stereoscopic images |
SI2618316T1 (en) | 2012-01-23 | 2018-12-31 | Novomatic Ag | Wheel of fortune with gesture control |
US9157790B2 (en) | 2012-02-15 | 2015-10-13 | Apple Inc. | Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis |
WO2013126784A2 (en) | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
US10937239B2 (en) | 2012-02-23 | 2021-03-02 | Charles D. Huston | System and method for creating an environment and for sharing an event |
US10600235B2 (en) | 2012-02-23 | 2020-03-24 | Charles D. Huston | System and method for capturing and sharing a location based experience |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
KR101898490B1 (en) * | 2012-02-29 | 2018-09-13 | 엘지전자 주식회사 | Holographic display device and method for generating hologram using redundancy of 3-D video |
CN104221059B (en) | 2012-03-22 | 2017-05-10 | 苹果公司 | Diffraction-based sensing of mirror position |
US11169611B2 (en) | 2012-03-26 | 2021-11-09 | Apple Inc. | Enhanced virtual touchpad |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
CN103424077A (en) * | 2012-05-23 | 2013-12-04 | 联想(北京)有限公司 | Motion detection device, detection method and electronic equipment |
CN102681183B (en) * | 2012-05-25 | 2015-01-07 | 合肥鼎臣光电科技有限责任公司 | Two-way three-dimensional imaging and naked-eye three-dimensional display system based on lens array |
DE112012006199T5 (en) * | 2012-06-30 | 2014-12-24 | Hewlett-Packard Development Company, L.P. | Virtual hand based on combined data |
US8896594B2 (en) * | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
BR112015003885A2 (en) | 2012-08-27 | 2017-07-04 | Koninklijke Philips Nv | equipment; method; imaging system; computer program element for controlling equipment; and computer readable media |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
DE102012110460A1 (en) * | 2012-10-31 | 2014-04-30 | Audi Ag | A method for entering a control command for a component of a motor vehicle |
US9661304B2 (en) * | 2012-10-31 | 2017-05-23 | Ricoh Company, Ltd. | Pre-calculation of sine waves for pixel values |
JP6155448B2 (en) | 2012-11-01 | 2017-07-05 | アイカム エルエルシー | Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing |
US9152234B2 (en) | 2012-12-02 | 2015-10-06 | Apple Inc. | Detecting user intent to remove a pluggable peripheral device |
US9217665B2 (en) | 2013-01-31 | 2015-12-22 | Hewlett Packard Enterprise Development Lp | Viewing-angle imaging using lenslet array |
NL2010213C2 (en) | 2013-01-31 | 2014-08-04 | Lely Patent Nv | Camera system, animal related system therewith, and method to create 3d camera images. |
JP6044403B2 (en) * | 2013-03-18 | 2016-12-14 | 富士通株式会社 | Imaging apparatus, imaging method, and imaging program |
US20140307055A1 (en) | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
CN103268608B (en) * | 2013-05-17 | 2015-12-02 | 清华大学 | Based on depth estimation method and the device of near-infrared laser speckle |
CN105705962B (en) * | 2013-06-06 | 2019-02-01 | 新加坡恒立私人有限公司 | Sensing system with active illumination |
EP3010417B1 (en) | 2013-06-19 | 2017-02-15 | Koninklijke Philips N.V. | Calibration of imagers with dynamic beam shapers |
CN109755859B (en) | 2013-06-19 | 2021-12-17 | 苹果公司 | Integrated structured light projector |
US9208566B2 (en) | 2013-08-09 | 2015-12-08 | Microsoft Technology Licensing, Llc | Speckle sensing for motion tracking |
TWI485361B (en) * | 2013-09-11 | 2015-05-21 | Univ Nat Taiwan | Measuring apparatus for three-dimensional profilometry and method thereof |
KR102159996B1 (en) * | 2013-12-16 | 2020-09-25 | 삼성전자주식회사 | Event filtering device and motion recognition device thereof |
US9528906B1 (en) | 2013-12-19 | 2016-12-27 | Apple Inc. | Monitoring DOE performance using total internal reflection |
US10010387B2 (en) | 2014-02-07 | 2018-07-03 | 3Shape A/S | Detecting tooth shade |
WO2015148604A1 (en) | 2014-03-25 | 2015-10-01 | Massachusetts Institute Of Technology | Space-time modulated active 3d imager |
WO2015152829A1 (en) | 2014-04-03 | 2015-10-08 | Heptagon Micro Optics Pte. Ltd. | Structured-stereo imaging assembly including separate imagers for different wavelengths |
US10455212B1 (en) * | 2014-08-25 | 2019-10-22 | X Development Llc | Projected pattern motion/vibration for depth sensing |
USD733141S1 (en) | 2014-09-10 | 2015-06-30 | Faro Technologies, Inc. | Laser scanner |
US9841496B2 (en) | 2014-11-21 | 2017-12-12 | Microsoft Technology Licensing, Llc | Multiple pattern illumination optics for time of flight system |
US9881235B1 (en) | 2014-11-21 | 2018-01-30 | Mahmoud Narimanzadeh | System, apparatus, and method for determining physical dimensions in digital images |
TWI564754B (en) * | 2014-11-24 | 2017-01-01 | 圓剛科技股份有限公司 | Spatial motion sensing device and spatial motion sensing method |
JP6309174B1 (en) * | 2014-12-18 | 2018-04-11 | フェイスブック,インク. | System, apparatus, and method for providing a user interface in a virtual reality environment |
FI126498B (en) * | 2014-12-29 | 2017-01-13 | Helmee Imaging Oy | Optical measuring system |
US10186034B2 (en) | 2015-01-20 | 2019-01-22 | Ricoh Company, Ltd. | Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium |
US9958758B2 (en) * | 2015-01-21 | 2018-05-01 | Microsoft Technology Licensing, Llc | Multiple exposure structured light pattern |
US10509147B2 (en) | 2015-01-29 | 2019-12-17 | ams Sensors Singapore Pte. Ltd | Apparatus for producing patterned illumination using arrays of light sources and lenses |
US9817159B2 (en) | 2015-01-31 | 2017-11-14 | Microsoft Technology Licensing, Llc | Structured light pattern generation |
JP6575795B2 (en) | 2015-03-11 | 2019-09-18 | パナソニックIpマネジメント株式会社 | Human detection system |
US9530215B2 (en) * | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
US10001583B2 (en) | 2015-04-06 | 2018-06-19 | Heptagon Micro Optics Pte. Ltd. | Structured light projection using a compound patterned mask |
US9525863B2 (en) | 2015-04-29 | 2016-12-20 | Apple Inc. | Time-of-flight depth mapping with flexible scan pattern |
WO2016183395A1 (en) * | 2015-05-13 | 2016-11-17 | Oculus Vr, Llc | Augmenting a depth map representation with a reflectivity map representation |
WO2016195684A1 (en) * | 2015-06-04 | 2016-12-08 | Siemens Healthcare Gmbh | Apparatus and methods for a projection display device on x-ray imaging devices |
JP6566768B2 (en) * | 2015-07-30 | 2019-08-28 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
US10012831B2 (en) | 2015-08-03 | 2018-07-03 | Apple Inc. | Optical monitoring of scan parameters |
US10043279B1 (en) | 2015-12-07 | 2018-08-07 | Apple Inc. | Robust detection and classification of body parts in a depth map |
US11057608B2 (en) | 2016-01-04 | 2021-07-06 | Qualcomm Incorporated | Depth map generation in structured light system |
JP6668763B2 (en) | 2016-01-13 | 2020-03-18 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
JP6668764B2 (en) | 2016-01-13 | 2020-03-18 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
JP6631261B2 (en) | 2016-01-14 | 2020-01-15 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
US10154234B2 (en) * | 2016-03-16 | 2018-12-11 | Omnivision Technologies, Inc. | Image sensor with peripheral 3A-control sensors and associated imaging system |
KR101745651B1 (en) * | 2016-03-29 | 2017-06-09 | 전자부품연구원 | System and method for recognizing hand gesture |
US10489924B2 (en) | 2016-03-30 | 2019-11-26 | Samsung Electronics Co., Ltd. | Structured light generator and object recognition apparatus including the same |
JP6607121B2 (en) | 2016-03-30 | 2019-11-20 | セイコーエプソン株式会社 | Image recognition apparatus, image recognition method, and image recognition unit |
US10474297B2 (en) | 2016-07-20 | 2019-11-12 | Ams Sensors Singapore Pte. Ltd. | Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same |
US10241244B2 (en) | 2016-07-29 | 2019-03-26 | Lumentum Operations Llc | Thin film total internal reflection diffraction grating for single polarization or dual polarization |
US10481740B2 (en) | 2016-08-01 | 2019-11-19 | Ams Sensors Singapore Pte. Ltd. | Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same |
US10775508B1 (en) * | 2016-08-19 | 2020-09-15 | Apple Inc. | Remote sensing device |
US10073004B2 (en) | 2016-09-19 | 2018-09-11 | Apple Inc. | DOE defect monitoring utilizing total internal reflection |
US10366278B2 (en) | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
TWI587206B (en) * | 2016-11-24 | 2017-06-11 | 財團法人工業技術研究院 | Interactive display device and system thereof |
US10499039B2 (en) | 2016-12-15 | 2019-12-03 | Egismos Technology Corporation | Path detection system and path detection method generating laser pattern by diffractive optical element |
US10158845B2 (en) | 2017-01-18 | 2018-12-18 | Facebook Technologies, Llc | Tileable structured light projection for wide field-of-view depth sensing |
US10620447B2 (en) * | 2017-01-19 | 2020-04-14 | Cognex Corporation | System and method for reduced-speckle laser line generation |
CN115327775A (en) * | 2017-04-24 | 2022-11-11 | 奇跃公司 | Optical flow tracking backscattered laser speckle patterns |
WO2018216575A1 (en) | 2017-05-26 | 2018-11-29 | Agc株式会社 | Diffraction optical element, projection device, and measuring device |
US11494897B2 (en) | 2017-07-07 | 2022-11-08 | William F. WILEY | Application to determine reading/working distance |
US10527711B2 (en) | 2017-07-10 | 2020-01-07 | Aurora Flight Sciences Corporation | Laser speckle system and method for an aircraft |
WO2019079790A1 (en) | 2017-10-21 | 2019-04-25 | Eyecam, Inc | Adaptive graphic user interfacing system |
JP6970376B2 (en) | 2017-12-01 | 2021-11-24 | オムロン株式会社 | Image processing system and image processing method |
US10310281B1 (en) | 2017-12-05 | 2019-06-04 | K Laser Technology, Inc. | Optical projector with off-axis diffractive element |
US10545457B2 (en) | 2017-12-05 | 2020-01-28 | K Laser Technology, Inc. | Optical projector with off-axis diffractive element and conjugate images |
US10317684B1 (en) | 2018-01-24 | 2019-06-11 | K Laser Technology, Inc. | Optical projector with on axis hologram and multiple beam splitter |
CN110161786B (en) | 2018-02-12 | 2021-08-31 | 深圳富泰宏精密工业有限公司 | Light projection module, three-dimensional image sensing device and sensing method thereof |
CN108663800B (en) * | 2018-04-16 | 2021-03-19 | 华东交通大学 | Optical encryption and decryption method, device and system |
US11422292B1 (en) | 2018-06-10 | 2022-08-23 | Apple Inc. | Super-blazed diffractive optical elements with sub-wavelength structures |
WO2019240010A1 (en) | 2018-06-11 | 2019-12-19 | Agc株式会社 | Diffraction optical element, projection device, and measurement device |
CN110619996B (en) * | 2018-06-20 | 2022-07-08 | 株式会社村田制作所 | Inductor and method for manufacturing the same |
US11675114B2 (en) | 2018-07-23 | 2023-06-13 | Ii-Vi Delaware, Inc. | Monolithic structured light projector |
DE102018129143B4 (en) * | 2018-11-20 | 2021-06-17 | Carl Zeiss Industrielle Messtechnik Gmbh | Variable measurement object-dependent camera structure and calibration thereof |
CN109541875B (en) * | 2018-11-24 | 2024-02-13 | 深圳阜时科技有限公司 | Light source structure, optical projection module, sensing device and equipment |
US20220067410A1 (en) * | 2018-12-28 | 2022-03-03 | Guardian Optical Technologies Ltd | System, device, and method for vehicle post-crash support |
EP3928282A4 (en) * | 2019-02-18 | 2022-04-13 | Fingerprint Cards Anacatum IP AB | Optical biometric imaging device and method of operating an optical biometric imaging device |
US11029408B2 (en) * | 2019-04-03 | 2021-06-08 | Varjo Technologies Oy | Distance-imaging system and method of distance imaging |
US10509128B1 (en) | 2019-04-12 | 2019-12-17 | K Laser Technology, Inc. | Programmable pattern optical projector for depth detection |
US11681019B2 (en) | 2019-09-18 | 2023-06-20 | Apple Inc. | Optical module with stray light baffle |
US11506762B1 (en) | 2019-09-24 | 2022-11-22 | Apple Inc. | Optical module comprising an optical waveguide with reference light path |
GB2589121A (en) * | 2019-11-21 | 2021-05-26 | Bae Systems Plc | Imaging apparatus |
CN111650759A (en) * | 2019-12-31 | 2020-09-11 | 北京大学 | Multi-focal-length micro-lens array remote sensing light field imaging system for near-infrared light spot projection |
WO2021144658A1 (en) * | 2020-01-17 | 2021-07-22 | Antishock Technologies, Ltd. | System and method for monitoring fluid management to a patient |
US11754767B1 (en) | 2020-03-05 | 2023-09-12 | Apple Inc. | Display with overlaid waveguide |
US11843221B2 (en) * | 2020-03-30 | 2023-12-12 | Namuga, Co., Ltd. | Light source module for emitting high density beam and method for controlling the same |
JP2023531819A (en) * | 2020-06-30 | 2023-07-25 | クニードリー アー・ベー | Solutions for identifying supra-physiological body joint movements |
EP3993385A1 (en) | 2020-10-29 | 2022-05-04 | Universitat de València | A multiperspective photography camera device |
CN114255233B (en) * | 2022-03-01 | 2022-05-31 | 合肥的卢深视科技有限公司 | Speckle pattern quality evaluation method and device, electronic device and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6079108U (en) * | 1983-11-08 | 1985-06-01 | オムロン株式会社 | speckle rangefinder |
JPH0329806A (en) * | 1989-06-28 | 1991-02-07 | Furuno Electric Co Ltd | Measuring method of shape of object |
JPH06273432A (en) * | 1993-03-18 | 1994-09-30 | Shizuoka Univ | Displacement and displacement-velocity measuring apparatus |
JP2001506384A (en) * | 1996-12-15 | 2001-05-15 | コグニテンス リミテッド | Apparatus and method for three-dimensional surface shape reconstruction |
JP2001507133A (en) * | 1996-12-20 | 2001-05-29 | ライフェフ/エックス・ネットワークス・インク | High-speed 3D image parameter display apparatus and method |
JP2002102226A (en) * | 2000-06-10 | 2002-04-09 | Medison Co Ltd | Method for computing distance between image frames, three-dimensional image generating system, and method therefor |
JP2002365023A (en) * | 2001-06-08 | 2002-12-18 | Koji Okamoto | Apparatus and method for measurement of liquid level |
WO2005025894A2 (en) * | 2003-09-10 | 2005-03-24 | Shearographics, Llc | Tire inspection apparatus and method |
Family Cites Families (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2951207A1 (en) * | 1978-12-26 | 1980-07-10 | Canon Kk | METHOD FOR THE OPTICAL PRODUCTION OF A SPREADING PLATE |
US4542376A (en) * | 1983-11-03 | 1985-09-17 | Burroughs Corporation | System for electronically displaying portions of several different images on a CRT screen through respective prioritized viewports |
JPH0762869B2 (en) | 1986-03-07 | 1995-07-05 | 日本電信電話株式会社 | Position and shape measurement method by pattern projection |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPH0615968B2 (en) * | 1986-08-11 | 1994-03-02 | 伍良 松本 | Three-dimensional shape measuring device |
US5075562A (en) * | 1990-09-20 | 1991-12-24 | Eastman Kodak Company | Method and apparatus for absolute Moire distance measurements using a grating printed on or attached to a surface |
GB9116151D0 (en) | 1991-07-26 | 1991-09-11 | Isis Innovation | Three-dimensional vision system |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
EP0559978B1 (en) * | 1992-03-12 | 1998-08-05 | International Business Machines Corporation | Image processing method |
US5636025A (en) * | 1992-04-23 | 1997-06-03 | Medar, Inc. | System for optically measuring the surface contour of a part using more fringe techniques |
US5856871A (en) * | 1993-08-18 | 1999-01-05 | Applied Spectral Imaging Ltd. | Film thickness mapping using interferometric spectral imaging |
CA2199037A1 (en) * | 1994-09-05 | 1996-03-14 | Peter Leigh-Jones | Diffraction surfaces and methods for the manufacture thereof |
US6041140A (en) * | 1994-10-04 | 2000-03-21 | Synthonics, Incorporated | Apparatus for interactive image correlation for three dimensional image production |
JPH08186845A (en) | 1994-12-27 | 1996-07-16 | Nobuaki Yanagisawa | Focal distance controlling stereoscopic-vision television receiver |
US5630043A (en) * | 1995-05-11 | 1997-05-13 | Cirrus Logic, Inc. | Animated texture map apparatus and method for 3-D image displays |
IL114278A (en) * | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
EP0839314A1 (en) * | 1995-07-18 | 1998-05-06 | The Budd Company | Moire interferometry system and method with extended imaging depth |
JPH09261535A (en) * | 1996-03-25 | 1997-10-03 | Sharp Corp | Image pickup device |
DE19638727A1 (en) | 1996-09-12 | 1998-03-19 | Ruedger Dipl Ing Rubbert | Method for increasing the significance of the three-dimensional measurement of objects |
JP3402138B2 (en) * | 1996-09-27 | 2003-04-28 | 株式会社日立製作所 | Liquid crystal display |
IL119341A (en) * | 1996-10-02 | 1999-09-22 | Univ Ramot | Phase-only filter for generating an arbitrary illumination pattern |
US5838428A (en) * | 1997-02-28 | 1998-11-17 | United States Of America As Represented By The Secretary Of The Navy | System and method for high resolution range imaging with split light source and pattern mask |
JPH10327433A (en) | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | Display device for composted image |
US6008813A (en) * | 1997-08-01 | 1999-12-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Real-time PC based volume rendering system |
DE19736169A1 (en) | 1997-08-20 | 1999-04-15 | Fhu Hochschule Fuer Technik | Method to measure deformation or vibration using electronic speckle pattern interferometry |
US6101269A (en) * | 1997-12-19 | 2000-08-08 | Lifef/X Networks, Inc. | Apparatus and method for rapid 3D image parametrization |
US6438272B1 (en) | 1997-12-31 | 2002-08-20 | The Research Foundation Of State University Of Ny | Method and apparatus for three dimensional surface contouring using a digital video projection system |
DE19815201A1 (en) * | 1998-04-04 | 1999-10-07 | Link Johann & Ernst Gmbh & Co | Measuring arrangement for detecting dimensions of test specimens, preferably of hollow bodies, in particular of bores in workpieces, and methods for measuring such dimensions |
US6731391B1 (en) * | 1998-05-13 | 2004-05-04 | The Research Foundation Of State University Of New York | Shadow moire surface measurement using Talbot effect |
DE19821611A1 (en) * | 1998-05-14 | 1999-11-18 | Syrinx Med Tech Gmbh | Recording method for spatial structure of three-dimensional surface, e.g. for person recognition |
GB2352901A (en) | 1999-05-12 | 2001-02-07 | Tricorder Technology Plc | Rendering three dimensional representations utilising projected light patterns |
US6377700B1 (en) | 1998-06-30 | 2002-04-23 | Intel Corporation | Method and apparatus for capturing stereoscopic images using image sensors |
JP3678022B2 (en) | 1998-10-23 | 2005-08-03 | コニカミノルタセンシング株式会社 | 3D input device |
US6084712A (en) * | 1998-11-03 | 2000-07-04 | Dynamic Measurement And Inspection,Llc | Three dimensional imaging using a refractive optic design |
US8965898B2 (en) | 1998-11-20 | 2015-02-24 | Intheplay, Inc. | Optimizations for live event, real-time, 3D object tracking |
US6759646B1 (en) * | 1998-11-24 | 2004-07-06 | Intel Corporation | Color interpolation for a four color mosaic pattern |
JP2001166810A (en) * | 1999-02-19 | 2001-06-22 | Sanyo Electric Co Ltd | Device and method for providing solid model |
CN2364507Y (en) * | 1999-03-18 | 2000-02-16 | 香港生产力促进局 | Small non-contact symmetric imput type three-D profile scanning head |
US6259561B1 (en) * | 1999-03-26 | 2001-07-10 | The University Of Rochester | Optical system for diffusing light |
WO2000070303A1 (en) * | 1999-05-14 | 2000-11-23 | 3Dmetrics, Incorporated | Color structured light 3d-imaging system |
US6751344B1 (en) * | 1999-05-28 | 2004-06-15 | Champion Orthotic Investments, Inc. | Enhanced projector system for machine vision |
US6512385B1 (en) * | 1999-07-26 | 2003-01-28 | Paul Pfaff | Method for testing a device under test including the interference of two beams |
US6268923B1 (en) * | 1999-10-07 | 2001-07-31 | Integral Vision, Inc. | Optical method and system for measuring three-dimensional surface topography of an object having a surface contour |
JP2001141430A (en) | 1999-11-16 | 2001-05-25 | Fuji Photo Film Co Ltd | Image pickup device and image processing device |
LT4842B (en) * | 1999-12-10 | 2001-09-25 | Uab "Geola" | Universal digital holographic printer and method |
US6301059B1 (en) * | 2000-01-07 | 2001-10-09 | Lucent Technologies Inc. | Astigmatic compensation for an anamorphic optical system |
US6937348B2 (en) * | 2000-01-28 | 2005-08-30 | Genex Technologies, Inc. | Method and apparatus for generating structural pattern illumination |
US6700669B1 (en) | 2000-01-28 | 2004-03-02 | Zheng J. Geng | Method and system for three-dimensional imaging using light pattern having multiple sub-patterns |
JP4560869B2 (en) * | 2000-02-07 | 2010-10-13 | ソニー株式会社 | Glasses-free display system and backlight system |
JP4265076B2 (en) * | 2000-03-31 | 2009-05-20 | 沖電気工業株式会社 | Multi-angle camera and automatic photographing device |
US6810135B1 (en) * | 2000-06-29 | 2004-10-26 | Trw Inc. | Optimized human presence detection through elimination of background interference |
TW527518B (en) * | 2000-07-14 | 2003-04-11 | Massachusetts Inst Technology | Method and system for high resolution, ultra fast, 3-D imaging |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6686921B1 (en) * | 2000-08-01 | 2004-02-03 | International Business Machines Corporation | Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
US6639684B1 (en) | 2000-09-13 | 2003-10-28 | Nextengine, Inc. | Digitizer using intensity gradient to image features of three-dimensional objects |
US6813440B1 (en) * | 2000-10-10 | 2004-11-02 | The Hong Kong Polytechnic University | Body scanner |
JP3689720B2 (en) | 2000-10-16 | 2005-08-31 | 住友大阪セメント株式会社 | 3D shape measuring device |
JP2002152776A (en) | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for encoding and decoding distance image |
JP2002191058A (en) * | 2000-12-20 | 2002-07-05 | Olympus Optical Co Ltd | Three-dimensional image acquisition device and three- dimensional image acquisition method |
JP2002213931A (en) | 2001-01-17 | 2002-07-31 | Fuji Xerox Co Ltd | Instrument and method for measuring three-dimensional shape |
US6841780B2 (en) * | 2001-01-19 | 2005-01-11 | Honeywell International Inc. | Method and apparatus for detecting objects |
EP1412803A2 (en) * | 2001-07-13 | 2004-04-28 | Mems Optical, Inc. | Autostereoscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images |
US6741251B2 (en) * | 2001-08-16 | 2004-05-25 | Hewlett-Packard Development Company, L.P. | Method and apparatus for varying focus in a scene |
AU2003217587A1 (en) * | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
US7811825B2 (en) | 2002-04-19 | 2010-10-12 | University Of Washington | System and method for processing specimens and images for optical tomography |
AU2003253626A1 (en) * | 2002-06-07 | 2003-12-22 | University Of North Carolina At Chapel Hill | Methods and systems for laser based real-time structured light depth extraction |
US7006709B2 (en) * | 2002-06-15 | 2006-02-28 | Microsoft Corporation | System and method deghosting mosaics using multiperspective plane sweep |
US20040001145A1 (en) * | 2002-06-27 | 2004-01-01 | Abbate Jeffrey A. | Method and apparatus for multifield image generation and processing |
US6859326B2 (en) * | 2002-09-20 | 2005-02-22 | Corning Incorporated | Random microlens array for optical beam shaping and homogenization |
KR100624405B1 (en) | 2002-10-01 | 2006-09-18 | 삼성전자주식회사 | Substrate for mounting optical component and method for producing the same |
US7194105B2 (en) * | 2002-10-16 | 2007-03-20 | Hersch Roger D | Authentication of documents and articles by moiré patterns |
US20040130730A1 (en) * | 2002-11-21 | 2004-07-08 | Michel Cantin | Fast 3D height measurement method and system |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
US20040174770A1 (en) * | 2002-11-27 | 2004-09-09 | Rees Frank L. | Gauss-Rees parametric ultrawideband system |
US7639419B2 (en) * | 2003-02-21 | 2009-12-29 | Kla-Tencor Technologies, Inc. | Inspection system using small catadioptric objective |
US7127101B2 (en) * | 2003-03-10 | 2006-10-24 | Cranul Technologies, Inc. | Automatic selection of cranial remodeling device trim lines |
US20040213463A1 (en) * | 2003-04-22 | 2004-10-28 | Morrison Rick Lee | Multiplexed, spatially encoded illumination system for determining imaging and range estimation |
US7539340B2 (en) | 2003-04-25 | 2009-05-26 | Topcon Corporation | Apparatus and method for three-dimensional coordinate measurement |
WO2005010825A2 (en) | 2003-07-24 | 2005-02-03 | Cognitens Ltd. | Method and sytem for the three-dimensional surface reconstruction of an object |
CA2435935A1 (en) | 2003-07-24 | 2005-01-24 | Guylain Lemelin | Optical 3d digitizer with enlarged non-ambiguity zone |
US20050111705A1 (en) * | 2003-08-26 | 2005-05-26 | Roman Waupotitsch | Passive stereo sensing for 3D facial shape biometrics |
US7187437B2 (en) * | 2003-09-10 | 2007-03-06 | Shearographics, Llc | Plurality of light sources for inspection apparatus and method |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7112774B2 (en) * | 2003-10-09 | 2006-09-26 | Avago Technologies Sensor Ip (Singapore) Pte. Ltd | CMOS stereo imaging system and method |
US7250949B2 (en) | 2003-12-23 | 2007-07-31 | General Electric Company | Method and system for visualizing three-dimensional data |
US20050135555A1 (en) | 2003-12-23 | 2005-06-23 | Claus Bernhard Erich H. | Method and system for simultaneously viewing rendered volumes |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
US7961909B2 (en) * | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
WO2005076198A1 (en) * | 2004-02-09 | 2005-08-18 | Cheol-Gwon Kang | Device for measuring 3d shape using irregular pattern and method for the same |
US7427981B2 (en) * | 2004-04-15 | 2008-09-23 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Optical device that measures distance between the device and a surface |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7335898B2 (en) * | 2004-07-23 | 2008-02-26 | Ge Healthcare Niagara Inc. | Method and apparatus for fluorescent confocal microscopy |
US20060017656A1 (en) * | 2004-07-26 | 2006-01-26 | Visteon Global Technologies, Inc. | Image intensity control in overland night vision systems |
KR101424942B1 (en) | 2004-07-30 | 2014-08-01 | 익스트림 리얼리티 엘티디. | A system and method for 3D space-dimension based image processing |
US7120228B2 (en) * | 2004-09-21 | 2006-10-10 | Jordan Valley Applied Radiation Ltd. | Combined X-ray reflectometer and diffractometer |
JP2006128818A (en) | 2004-10-26 | 2006-05-18 | Victor Co Of Japan Ltd | Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium |
IL165212A (en) | 2004-11-15 | 2012-05-31 | Elbit Systems Electro Optics Elop Ltd | Device for scanning light |
US7076024B2 (en) * | 2004-12-01 | 2006-07-11 | Jordan Valley Applied Radiation, Ltd. | X-ray apparatus with dual monochromators |
US20060156756A1 (en) * | 2005-01-20 | 2006-07-20 | Becke Paul E | Phase change and insulating properties container and method of use |
US20060221218A1 (en) * | 2005-04-05 | 2006-10-05 | Doron Adler | Image sensor with improved color filter |
US7599071B2 (en) | 2005-04-06 | 2009-10-06 | Dimensional Photonics International, Inc. | Determining positional error of an optical component using structured light patterns |
US7560679B1 (en) | 2005-05-10 | 2009-07-14 | Siimpel, Inc. | 3D camera |
US7609875B2 (en) * | 2005-05-27 | 2009-10-27 | Orametrix, Inc. | Scanner system and method for mapping surface of three-dimensional object |
US8400494B2 (en) | 2005-10-11 | 2013-03-19 | Primesense Ltd. | Method and system for object reconstruction |
WO2007105205A2 (en) | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Three-dimensional sensing using speckle patterns |
US20110096182A1 (en) | 2009-10-25 | 2011-04-28 | Prime Sense Ltd | Error Compensation in Three-Dimensional Mapping |
US8018579B1 (en) | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
EP1949339A2 (en) | 2005-11-04 | 2008-07-30 | Clean Earth Technologies, Llc | Tracking using an elastic cluster of trackers |
US7856125B2 (en) | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
WO2007096893A2 (en) | 2006-02-27 | 2007-08-30 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
WO2007105215A2 (en) | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Depth-varying light fields for three dimensional sensing |
KR101408959B1 (en) * | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | Depth-varying light fields for three dimensional sensing |
US7869649B2 (en) | 2006-05-08 | 2011-01-11 | Panasonic Corporation | Image processing device, image processing method, program, storage medium and integrated circuit |
US8488895B2 (en) | 2006-05-31 | 2013-07-16 | Indiana University Research And Technology Corp. | Laser scanning digital camera with pupil periphery illumination and potential for multiply scattered light imaging |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
WO2008014826A1 (en) | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US7737394B2 (en) | 2006-08-31 | 2010-06-15 | Micron Technology, Inc. | Ambient infrared detection in solid state sensors |
CN101512601B (en) | 2006-09-04 | 2013-07-31 | 皇家飞利浦电子股份有限公司 | Method for determining a depth map from images, device for determining a depth map |
US7256899B1 (en) * | 2006-10-04 | 2007-08-14 | Ivan Faul | Wireless methods and systems for three-dimensional non-contact shape sensing |
WO2008061259A2 (en) | 2006-11-17 | 2008-05-22 | Celloptic, Inc. | System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation |
US8090194B2 (en) | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
US7990545B2 (en) * | 2006-12-27 | 2011-08-02 | Cambridge Research & Instrumentation, Inc. | Surface measurement of in-vivo subjects using spot projector |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
WO2008087652A2 (en) | 2007-01-21 | 2008-07-24 | Prime Sense Ltd. | Depth mapping using multi-beam illumination |
US20080278572A1 (en) * | 2007-04-23 | 2008-11-13 | Morteza Gharib | Aperture system with spatially-biased aperture shapes and positions (SBPSP) for static and dynamic 3-D defocusing-based imaging |
US20080212835A1 (en) * | 2007-03-01 | 2008-09-04 | Amon Tavor | Object Tracking by 3-Dimensional Modeling |
US8150142B2 (en) * | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US8493496B2 (en) | 2007-04-02 | 2013-07-23 | Primesense Ltd. | Depth mapping using projected patterns |
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US7835561B2 (en) | 2007-05-18 | 2010-11-16 | Visiongate, Inc. | Method for image processing and reconstruction of images for optical tomography |
WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
EP2168096A1 (en) | 2007-07-12 | 2010-03-31 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
JP4412362B2 (en) | 2007-07-18 | 2010-02-10 | 船井電機株式会社 | Compound eye imaging device |
US20090060307A1 (en) | 2007-08-27 | 2009-03-05 | Siemens Medical Solutions Usa, Inc. | Tensor Voting System and Method |
DE102007045332B4 (en) | 2007-09-17 | 2019-01-17 | Seereal Technologies S.A. | Holographic display for reconstructing a scene |
KR100858034B1 (en) | 2007-10-18 | 2008-09-10 | (주)실리콘화일 | One chip image sensor for measuring vitality of subject |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8176497B2 (en) * | 2008-01-16 | 2012-05-08 | Dell Products, Lp | Method to dynamically provision additional computer resources to handle peak database workloads |
WO2009093228A2 (en) * | 2008-01-21 | 2009-07-30 | Prime Sense Ltd. | Optical designs for zero order reduction |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
DE102008011350A1 (en) | 2008-02-27 | 2009-09-03 | Loeffler Technology Gmbh | Apparatus and method for real-time detection of electromagnetic THz radiation |
US8121351B2 (en) | 2008-03-09 | 2012-02-21 | Microsoft International Holdings B.V. | Identification of objects in a 3D video using non/over reflective clothing |
US8035806B2 (en) | 2008-05-13 | 2011-10-11 | Samsung Electronics Co., Ltd. | Distance measuring sensor including double transfer gate and three dimensional color image sensor including the distance measuring sensor |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
EP2275990B1 (en) | 2009-07-06 | 2012-09-26 | Sick Ag | 3D sensor |
WO2011013079A1 (en) | 2009-07-30 | 2011-02-03 | Primesense Ltd. | Depth mapping based on pattern matching and stereoscopic information |
WO2011031538A2 (en) | 2009-08-27 | 2011-03-17 | California Institute Of Technology | Accurate 3d object reconstruction using a handheld device with a projected light pattern |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US8330804B2 (en) | 2010-05-12 | 2012-12-11 | Microsoft Corporation | Scanned-beam depth mapping to 2D image |
US8654152B2 (en) | 2010-06-21 | 2014-02-18 | Microsoft Corporation | Compartmentalizing focus area within field of view |
-
2007
- 2007-03-08 WO PCT/IL2007/000306 patent/WO2007105205A2/en active Application Filing
- 2007-03-08 KR KR1020087025030A patent/KR101331543B1/en active IP Right Grant
- 2007-03-08 JP JP2008558981A patent/JP5174684B2/en active Active
- 2007-03-08 US US12/282,517 patent/US8390821B2/en active Active
- 2007-03-08 CN CN2007800166255A patent/CN101496033B/en active Active
-
2013
- 2013-01-24 US US13/748,617 patent/US9063283B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6079108U (en) * | 1983-11-08 | 1985-06-01 | オムロン株式会社 | speckle rangefinder |
JPH0329806A (en) * | 1989-06-28 | 1991-02-07 | Furuno Electric Co Ltd | Measuring method of shape of object |
JPH06273432A (en) * | 1993-03-18 | 1994-09-30 | Shizuoka Univ | Displacement and displacement-velocity measuring apparatus |
JP2001506384A (en) * | 1996-12-15 | 2001-05-15 | コグニテンス リミテッド | Apparatus and method for three-dimensional surface shape reconstruction |
JP2001507133A (en) * | 1996-12-20 | 2001-05-29 | ライフェフ/エックス・ネットワークス・インク | High-speed 3D image parameter display apparatus and method |
JP2002102226A (en) * | 2000-06-10 | 2002-04-09 | Medison Co Ltd | Method for computing distance between image frames, three-dimensional image generating system, and method therefor |
JP2002365023A (en) * | 2001-06-08 | 2002-12-18 | Koji Okamoto | Apparatus and method for measurement of liquid level |
WO2005025894A2 (en) * | 2003-09-10 | 2005-03-24 | Shearographics, Llc | Tire inspection apparatus and method |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170319A (en) * | 2009-11-15 | 2011-09-01 | Primesense Ltd | Optical projector with beam monitor |
JP2011160420A (en) * | 2010-02-02 | 2011-08-18 | Primesense Ltd | Synchronization of projected illumination with rolling shutter of image sensor |
JP5849954B2 (en) * | 2010-08-06 | 2016-02-03 | 旭硝子株式会社 | Diffractive optical element and measuring device |
US9477018B2 (en) | 2010-08-06 | 2016-10-25 | Asahi Glass Company, Limited | Diffractive optical element and measurement device |
US8599484B2 (en) | 2010-08-10 | 2013-12-03 | Asahi Glass Company, Limited | Diffractive optical element and measuring device |
US8995057B2 (en) | 2010-11-02 | 2015-03-31 | Asahi Glass Company, Limited | Diffractive optical element and measurement instrument |
JP2012194543A (en) * | 2011-03-03 | 2012-10-11 | Asahi Glass Co Ltd | Diffraction optical element and measurement instrument |
JP2013033204A (en) * | 2011-06-28 | 2013-02-14 | Asahi Glass Co Ltd | Diffraction optical element and measurement apparatus |
JP2015501938A (en) * | 2011-12-16 | 2015-01-19 | フリードリヒ−シラー−ユニバーシタット イエナ | 3D measurement method for objects with limited depth |
US9897438B2 (en) | 2013-09-02 | 2018-02-20 | Asahi Glass Company, Limited | Diffraction optical element, projection device, and measurement device |
JP2015143685A (en) * | 2014-01-13 | 2015-08-06 | ペブルス リミテッド | Sub-resolution optical detection |
KR20150084680A (en) * | 2014-01-13 | 2015-07-22 | 페블스 리미티드. | Sub-resolution optical detection |
KR102046944B1 (en) * | 2014-01-13 | 2019-11-20 | 페이스북, 인크. | Sub-resolution optical detection |
JP2018503106A (en) * | 2014-12-27 | 2018-02-01 | ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. | System and method for detecting surface vibration |
US11262233B2 (en) | 2014-12-27 | 2022-03-01 | Guardian Optical Technologies, Ltd. | System and method for detecting surface vibrations |
JP2020531794A (en) * | 2017-08-31 | 2020-11-05 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Solid-state photodetection and range-finding (LIDAR) systems, systems and methods for improving solid-state light detection and range-finding (LIDAR) resolution. |
US11675076B2 (en) | 2017-08-31 | 2023-06-13 | SZ DJI Technology Co., Ltd. | Solid state light detection and ranging (LIDAR) system and system and method for improving solid state light detection and ranging (LIDAR) resolution |
Also Published As
Publication number | Publication date |
---|---|
CN101496033A (en) | 2009-07-29 |
KR20080111474A (en) | 2008-12-23 |
US8390821B2 (en) | 2013-03-05 |
US9063283B2 (en) | 2015-06-23 |
JP5174684B2 (en) | 2013-04-03 |
KR101331543B1 (en) | 2013-11-20 |
WO2007105205A3 (en) | 2009-04-23 |
US20130136305A1 (en) | 2013-05-30 |
US20090096783A1 (en) | 2009-04-16 |
WO2007105205A2 (en) | 2007-09-20 |
CN101496033B (en) | 2012-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5174684B2 (en) | 3D detection using speckle patterns | |
JP2009531655A5 (en) | ||
JP4917615B2 (en) | Range mapping using uncorrelated speckle | |
US10228240B2 (en) | Depth mapping using structured light and time of flight | |
JP5592070B2 (en) | Light field that changes depth for 3D detection | |
US20200319322A1 (en) | Field calibration of a structured light range-sensor | |
KR102595391B1 (en) | Distance sensor with adjustable focus imaging sensor | |
KR101408959B1 (en) | Depth-varying light fields for three dimensional sensing | |
TWI585436B (en) | Method and apparatus for measuring depth information | |
KR101954855B1 (en) | Use of intensity variations of light patterns for depth mapping of objects in a volume | |
JP2020115630A (en) | Eye tracking using optical flow | |
KR20160075548A (en) | Three dimensional depth mapping using dynamic structured light | |
US9354719B2 (en) | Optical navigation devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5174684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |