JP5174684B2 - 3D detection using speckle patterns - Google Patents
3D detection using speckle patterns Download PDFInfo
- Publication number
- JP5174684B2 JP5174684B2 JP2008558981A JP2008558981A JP5174684B2 JP 5174684 B2 JP5174684 B2 JP 5174684B2 JP 2008558981 A JP2008558981 A JP 2008558981A JP 2008558981 A JP2008558981 A JP 2008558981A JP 5174684 B2 JP5174684 B2 JP 5174684B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- speckle pattern
- light source
- image acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 7
- 230000003287 optical effect Effects 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 45
- 238000005286 illumination Methods 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 28
- 230000001427 coherent effect Effects 0.000 claims description 26
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000009792 diffusion process Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 210000001747 pupil Anatomy 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000004883 computer application Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/18—Diffraction gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
Description
(関連出願への相互参照)
本出願は、2006年3月24日出願の米国仮特許出願60/785,187号の恩典を申し立てる。本出願は、2006年3月14日出願のPCT特許出願PCT/IL2006/000335号の一部継続出願であり、これは、2005年10月11日出願の米国仮特許出願60/724,903号の恩典を申し立てる。これら全ての関連出願は、本特許出願の譲渡人に譲渡され、これらの開示は、本願中に参照することにより盛り込まれている。
( Cross-reference to related applications )
This application claims the benefit of US
(技術分野)
本発明は、全般として、三次元(3D)被写体をマッピングする方法およびシステムに関し、特にスペックル・パターンを用いた三次元光学撮像に関する。
(Technical field)
The present invention relates generally to methods and systems for mapping three-dimensional (3D) objects, and more particularly to three-dimensional optical imaging using speckle patterns.
コヒーレントな光ビームが拡散板を通過し、1つの表面に投影されると、その表面上に第1次スペックル・パターンが観察されうる。この第1次スペックルは、拡散されたビームの異なる成分の干渉により引き起こされる。本特許出願および請求項中では、「第1次スペックル」とはこの意味で用いられ、被写体の粗い表面からのコヒーレント光の拡散反射により引き起こされる第2次スペックルとは区別されている。 As the coherent light beam passes through the diffuser and is projected onto one surface, a primary speckle pattern can be observed on that surface. This primary speckle is caused by the interference of different components of the diffused beam. In this patent application and in the claims, “first order speckle” is used in this sense and is distinguished from second order speckle caused by diffuse reflection of coherent light from the rough surface of the subject.
Hartは、特許文献1および特許文献2(これらの開示は、本願中に参照することにより盛り込まれている)中で、高速三次元撮像システムにおけるスペックル・パターンの使用について説明している。このシステムは、能動撮像素子およびCCD素子を備えた単レンズカメラのサブシステムと、相関処理サブシステムとを有する。この能動撮像素子は回転絞りでありえ、これにより、被写界深度をより大きくし、画素未満の変位精度を高めるために、デフォーカス画像間で調節可能な非等辺間隔が可能になる。スペックル・パターンは被写体上に投影され、結果として得られるパターンの画像は、複数の角度から得られる。これらの画像は、画像相関技術を用いて、局所的に相互相関され、局所的に相関された各領域の三次元座標を計算するために、その表面は、相対的なカメラの位置情報を用いて解像される。 Hart describes the use of speckle patterns in a high-speed three-dimensional imaging system in US Pat. The system includes a single lens camera subsystem with an active imaging device and a CCD device, and a correlation processing subsystem. The active imager can be a rotary stop, which allows for adjustable non-equal spacing between defocused images to increase depth of field and increase displacement accuracy below the pixel. The speckle pattern is projected onto the subject and the resulting pattern image is obtained from multiple angles. These images are locally cross-correlated using image correlation techniques, and the surface uses relative camera position information to calculate the three-dimensional coordinates of each locally correlated region. To be resolved.
Hunter他による特許文献3(この開示は、本願中に参照することにより盛り込まれている)には、別のスペックルに基づく三次元撮像技術が記載されている。無作為のスペックル・パターンが、1つの三次元表面に投影され、複数のカメラにより撮像され、複数の二次元デジタル画像が得られる。二次元画像は処理され、その表面の1つの三次元特徴が得られる。
(発明の要約)
本発明の実施形態は、第1次スペックル・パターンを用いて正確でリアルタイムな、三次元被写体のマッピングを行う。上記PCT特許出願および下記の実施形態中に記載された方法とシステムでは、単一のコヒーレントな光源と、静止しかつこの光源に対して固定角度で保持された単一の画像センサとを用いてこのような三次元マッピングを行うことができる。
(Summary of the Invention)
Embodiments of the present invention perform accurate and real-time mapping of a three-dimensional subject using a primary speckle pattern. In the method and system described in the embodiments above PCT patent application and below, using a single coherent light source, stationary and a single image sensor which is held at a fixed angle relative to the light source Such a three-dimensional mapping can be performed.
本発明の1つの観点は、スペックル・パターンの1つの参照画像が、最初に既知の輪郭の1つの参照表面上で獲得されるという点である。次に、被写体上に投影されたスペックル・パターンの画像を獲得し、この画像と参照画像とを比較することにより、被写体の三次元輪郭が決められる。 One aspect of the present invention, one reference image of the speckle pattern is in that first are acquired on a single lookup table surface of known contour. Next, an image of a speckle pattern projected on the subject is acquired, and the three-dimensional contour of the subject is determined by comparing this image with a reference image.
本発明の別の観点は、被写体が動くと共に、被写体上のスペックル・パターンの連続画像が獲得されるという点である。三次元で被写体の動きを追跡するために、各画像は、先行する画像の1つまたは複数と比較される。以下で説明する1つの実施形態では、光源と画像センサは、1つの直線上に配され、連続する画像間の1次元の相関係数を演算することにより、迅速でかつ精確に動きを追跡することができる。 Another aspect of the present invention is that a continuous image of a speckle pattern on the subject is acquired as the subject moves. Each image is compared to one or more of the preceding images in order to track the movement of the subject in three dimensions. In one embodiment described below, the light source and the image sensor are arranged in one straight line, by calculating a one-dimensional correlation coefficients between successive images, tracks the rapid and accurate motion be able to.
ある実施形態では、精度、被写界の深度および三次元マッピング・システムの演算速度を高めるために、新規の照明および画像処理構成を用いている。 In some embodiments , novel illumination and image processing configurations are used to increase accuracy, depth of field , and computational speed of the 3D mapping system.
したがって、本発明の1実施形態によれば、被写体上に第1次スペックル・パターンを投影するよう配されたコヒーレントな光源と拡散板とを有する照明装置と、照明装置に対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックル・パターン画像を獲得するように配された単一の画像獲得装置と、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックル・パターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供されている。 Therefore, according to one embodiment of the present invention, an illumination device having a coherent light source arranged a to project the primary speckle pattern onto the object and the diffusion plate, relative to the lighting device A single image acquisition device arranged to acquire a primary speckle pattern image on a subject from a single, fixed position and angle, and a single image to derive a three-dimensional map of the subject An object three-dimensional mapping apparatus is provided having a processor connected to process an image of a primary speckle pattern acquired at a fixed angle.
ある実施形態では、装置は、照明装置に対して画像獲得装置を空間的に固定させるために、照明装置および画像獲得装置に取り付けられている台を有する。ある実施形態では、画像獲得装置は、第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイと、対物光学系とを有し、この対物光学系は、入射瞳を有し、画像をアレイ上にフォーカシングするために配され、ここで、第1軸に平行である装置の軸であって、かつ、入射瞳とコヒーレントな光源により生成されるビームが拡散板を通過するスポットとを通る装置の軸を規定するように、照明装置と画像獲得装置とが台によって配されている。このように、第1軸上のみで、1つまたは複数の画像中で獲得された第1次スペックル・パターンと、第1次スペックル・パターンの参照画像との間での偏移値を見つけることにより、三次元マップを導き出すために、プロセッサが配されている。 In some embodiments, the apparatus, an image capturing device in order to spatially fixed relative to the illumination device, having a base attached to the lighting device and an image acquisition apparatus. In one embodiment, the image acquisition device includes a detector array and an objective optical system arranged in a linear pattern defining first and second mutually orthogonal axes, the objective optical system comprising: A beam having an entrance pupil and arranged to focus the image on the array, where the beam produced by the light source coherent with the entrance pupil and parallel to the first axis is coherent The illuminating device and the image acquisition device are arranged by a table so as to define the axis of the device passing through the spot passing through the plate. Thus, on only the first axis, the deviation value between the primary speckle pattern acquired in one or more images and the reference image of the primary speckle pattern is By finding, a processor is arranged to derive a three-dimensional map.
1つまたは複数の画像中で獲得された被写体上の複数領域の第1次スペックル・パターンと、第1次スペックル・パターンの参照画像との間で、各偏移値を見つけることにより三次元マップを導き出すために、プロセッサが配されており、各偏移が、領域と画像獲得装置との間の各距離を示している実施形態もある。通常、画像獲得装置は照明装置から所定の間隔を隔てて位置づけられ、各オフセットは、この間隔により決められる割合で、各距離に比例している。開示された実施形態では、照明装置により投影される第1次スペックル・パターンは、特徴的な寸法のスペックルを有し、画像中のスペックルの寸法は、間隔に依存する許容誤差により像全域で変動し、間隔は、許容誤差が所定の範囲内に収まるように選択される。 Cubic by finding each deviation value between a primary speckle pattern of multiple regions on a subject acquired in one or more images and a reference image of the primary speckle pattern In some embodiments, a processor is arranged to derive the original map, with each shift indicating each distance between the region and the image acquisition device . Usually, the image acquisition device is positioned at a predetermined interval from the illumination device , and each offset is proportional to each distance at a rate determined by this interval. In the disclosed embodiment, the primary speckle pattern projected by the illuminating device has a speckle characteristic dimension, the dimension of speckle in an image, the image by the tolerance that depends on the spacing The distance varies across the entire area, and the interval is selected such that the tolerance is within a predetermined range.
追加的に、または、これに代えて、画像獲得装置中の歪曲の係数モデルを用いて、各偏移を三次元マップの各座標に関連付けるように、プロセッサが配されている。さらに追加的に、または、これに代えて被写体の第1領域中の第1次スペックル・パターンと、第1領域に対して相対的に第1偏移値における参照画像のこれに対応する領域との間で、最初の適合を見つけることにより、各偏移を見つけ、かつ第1の領域に隣接する画素の各偏移値を見つけるために、第1偏移に基づいて範囲拡張法を用いるように、プロセッサが配されている。 Additionally or alternatively, a processor is arranged to associate each shift with each coordinate of the three-dimensional map using a distortion coefficient model in the image acquisition device . Additionally or alternatively, the first speckle pattern in the first area of the subject and the area of the reference image corresponding to the first shift value relative to the first area. A range expansion method is used based on the first shift to find each shift by finding an initial fit between and to each shift value of a pixel adjacent to the first region. As such, a processor is arranged.
開示されたある実施形態では、被写体の三次元の動きのマッピングを行うために、被写体が動いている間に連続する獲得画像を処理するように、プロセッサが配されており、被写体は、人間の体の一部分であり、三次元の動きは、人間の体の一部分により行われる動作であり、動作に応答して、コンピュータ・アプリケーションに入力を提供するために、プロセッサが接続されている。 In certain disclosed embodiments, a processor is arranged to process successive acquired images while the subject is moving in order to map the three-dimensional motion of the subject, A body part, a three-dimensional movement, is an action performed by a part of the human body, and a processor is connected to provide input to a computer application in response to the action .
照明装置が、ビーム形成装置を有し、これは、装置の検出ボリュームの全域で、拡散板により作られるスペックル・パターンのコントラストの変動を減らすように配されている実施形態もある。ある実施形態では、ビーム形成装置は、回折光学素子(DOE)と、拡散板のフーリエ面を規定するように配されたレンズとを有し、DOEは、フーリエ面中に位置づけられている。ビーム形成装置は、拡散板から発せられる光の発散を減らすために配されてもよく、あるいは、拡散板から発せられる光の強度を、照明装置の光軸に横断する面全面で等しくするために配されてもよい。 In some embodiments , the illuminating device comprises a beam forming device, which is arranged to reduce the variation in the contrast of the speckle pattern created by the diffuser throughout the detection volume of the device. In one embodiment, the beam former has a diffractive optical element (DOE) and a lens arranged to define a Fourier plane of the diffuser, the DOE being positioned in the Fourier plane. Beam forming apparatus may be arranged to reduce the divergence of the light emitted from the diffusion plate, or the intensity of the light emitted from the diffusion plate, in order to equally whole surface transverse to the optical axis of the illumination device It may be arranged.
ある実施形態では、プロセッサは、光学相関器を有し、この光学相関器は、参照スペックル・パターンを含む回折光学素子(DOE)を有し、また、画像獲得装置は、被写体の複数のサブ画像をDOE上に投影し、被写体の三次元座標を示す各相関ピークを発生させるように配された小型レンズ・アレイを有する。 In some embodiments, the processor includes an optical correlator, the optical correlator includes a diffractive optical element (DOE) that includes a reference speckle pattern, and the image acquisition device includes a plurality of sub- subjects of the subject. A small lens array is arranged to project the image onto the DOE and generate each correlation peak indicative of the three-dimensional coordinates of the subject.
コヒーレント光源のコヒーレンス長が、1cm未満である実施形態もある。追加的に、または、これに代えて第1次スペックル・パターンは、特徴的な寸法を有するスペックルを有し、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的な寸法を調節することができるように、照明装置が構成されている。 In some embodiments, the coherence length of the coherent light source is less than 1 cm. Additionally or alternatively, the primary speckle pattern has speckles with characteristic dimensions, and the speckle features can be changed by changing the distance between the coherent light source and the diffuser. The lighting device is configured so that the general dimensions can be adjusted.
本発明の1実施形態によれば、被写体上に第1次スペックル・パターンを投影するようために、光源から拡散されたコヒーレントな光のビームで、被写体を照明するステップと、光源に対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックル・パターンの画像を獲得するステップと、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックル・パターンの画像を処理するステップとを有する被写体の三次元マッピング方法が提供される。 According to one embodiment of the present invention, in order to project the primary speckle pattern onto the object, in a coherent light beam diffused from a light source, comprising the steps of illuminating the object with respect to the light source in comparison, the position and angle of the single, fixed, a step of acquiring the images of the primary speckle pattern on the object, to derive the three-dimensional map of the object is acquired at a single, fixed angle There is also provided a method for three-dimensional mapping of a subject comprising the step of processing an image of a primary speckle pattern.
さらに追加して、本発明の1実施形態によれば、コヒーレンス長が1cm未満であるコヒーレント光源と拡散板とを有し、これらが被写体上に第1次スペックル・パターンを投影するよう配された、照明装置と、被写体上の第1次スペックル・パターン画像を獲得するように配された画像獲得装置と、被写体の三次元マップを導き出すために、第1次スペックル・パターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供される。 In addition, according to one embodiment of the present invention, a coherent light source having a coherence length of less than 1 cm and a diffuser plate are arranged to project a primary speckle pattern on the subject. In addition, an illumination device , an image acquisition device arranged to acquire a primary speckle pattern image on the subject, and an image of the primary speckle pattern to derive a three-dimensional map of the subject An object three-dimensional mapping apparatus is provided having a processor connected for processing.
ある実施形態では、コヒーレントな光源のコヒーレンス長は0.5mm未満である。追加的に、または、これに代えて、コヒーレントな光源の発散は5°より大きい。 In certain embodiments, the coherence length of the coherent light source is less than 0.5 mm. Additionally or alternatively, greater than 5 ° diverging coherent light source.
本発明は、以下の本発明の実施形態の詳細な説明を図面と共に参照すると、より完全に理解されるであろう。 The present invention will be more fully understood by reference to the following detailed description of embodiments of the invention in conjunction with the drawings.
(図面の簡単な説明)
図1は、本発明の1実施形態による三次元マッピング・システムを絵で示した概略図である。
図2は、本発明の1実施形態によるスペックル撮像装置の概略上面図である。
図3は、本発明の1実施形態による三次元マッピングの1つの方法を概略的に示したフローチャートである。
図4は、本発明の別の実施形態による、三次元マッピング・システムで用いられる照明装置の概略側面図である。
図5は、本発明の1実施形態によるビーム形成装置の概略側面図である。
図6は、本発明のさらに別の実施形態によるビーム形成装置の概略側面図である。
図7は、本発明のさらに別の1実施形態による、三次元マッピング・システムで用いられる光学相関器の概略側面図である。
(Brief description of the drawings)
FIG. 1 is a schematic diagram illustrating a three-dimensional mapping system according to an embodiment of the present invention.
FIG. 2 is a schematic top view of a speckle imaging device according to an embodiment of the present invention.
FIG. 3 is a flowchart schematically illustrating one method of three-dimensional mapping according to an embodiment of the present invention.
FIG. 4 is a schematic side view of a lighting device used in a three-dimensional mapping system according to another embodiment of the present invention.
FIG. 5 is a schematic side view of a beam forming apparatus according to an embodiment of the present invention.
FIG. 6 is a schematic side view of a beam forming apparatus according to still another embodiment of the present invention.
FIG. 7 is a schematic side view of an optical correlator used in a three-dimensional mapping system, according to yet another embodiment of the present invention.
図1は、本発明の1実施形態による三次元マッピング・システム20を絵で示した概略図である。システム20は、スペックル撮像装置22を有し、この装置は、第1次スペックル・パターンを生成し、被写体28に投影し、この被写体上に現れた第1次スペックル・パターンの像を獲得する。装置22の詳細な設計および作用は以下の図面に示し、これに関連して以下に説明する。
FIG. 1 is a schematic diagram illustrating a three-
画像プロセッサ24は、被写体28の1つの三次元マップを得るために、装置22により生成された画像データを処理する。本特許出願および請求項で用いられる「三次元マップ」という用語は、被写体の表面を表す1組の三次元座標群を指す。画像データに基づいてこのようなマップを導き出すことは、「三次元再構成」と呼ぶこともできる。このような再構成を行う画像プロセッサ24は、汎用コンピュータプロセッサからなってもよく、以下に説明する機能を実施するためのソフトウェアにプログラムされている。このソフトウェアは、例えばネットワークを介して電子的な形態で、プロセッサ24にダウンロードされてもよいし、あるいは、光学、磁力または電子メモリ媒体などの有形メディア上で提供されてもよい。あるいはまたはこれに加えて、この画像プロセッサのいくつかのまたは全ての機能は、特注または半特注の集積回路またはプログラム可能なデジタル信号プロセッサ(DSP)などの、専用ハードウェア中に実装されてもよい。プロセッサ24は、図1には、例として撮像装置22とは別のユニットとして示すが、プロセッサ24のいくつかのまたは全ての処理機能は、撮像装置の筐体内で適切な専用の回路によって、または撮像装置に付属して実装されてもよい。
The
プロセッサ24により生成された三次元マップは、広範囲の様々な目的に用いられることができる。例えば、このマップは、被写体の擬似三次元像を示すディスプレイ26のような出力装置に送ることができる。図1の例では、被写体28は、題材となる体の全部分またはその一部(例えば、手)からなる。この場合、システム20は、仕草に基づくユーザ・インタフェースを提供するために用いられることができ、装置22により検出されたユーザの動きが、マウス、ジョイスティックやその他の付属品などの触知型インタフェース部材に代わって、ゲームなどの対話型のコンピュータ・アプリケーションを制御する。あるいは、システム20は、三次元座標の輪郭が必要とされる実質的にいかなるアプリケーション用に、他の種類の被写体の三次元マップを生成するように使用されてもよい。
The three-dimensional map generated by the
図2は、本発明の1実施形態による1つの装置22の概略上面図である。1つの照明装置30は、1つのコヒーレントな光源32を有する。これは通常1つのレーザおよび1つの拡散板33からなる。(本特許出願の文脈中では、「光」という用語は、いかなる種類の光学的放射をも意味し、例えば、赤外線、紫外線および可視光線を含む。)光源32より発せられた光のビームは、半径w0の1つのスポット34で拡散板33を通過し、1つの発散ビーム36を生成する。上述のPCT特許出願PCT/IL2006/000335号で説明したように、拡散板34によりZobj1およびZobj2の距離に作られた第1次スペックル・パターンは、
被写体距離Zobjにおけるスペックル・パターンの軸上寸法ΔZが、
ΔZ=(Zobj/w0)2・λ
により与えられる距離の範囲にZobj1およびZobj2 が、ある場合は、良い近似の程度まで互いに線型に縮尺増大された像である。
FIG. 2 is a schematic top view of one
The on-axis dimension ΔZ of the speckle pattern at the subject distance Z obj is
ΔZ = (Z obj / w 0 ) 2 · λ
By the Z obj1 and Z obj2 the range of that given distance, if there is an image that has been scaled increases linearly to each other to the extent of good approximation.
1つの画像獲得装置38は、被写体28上に投影されたスペックル・パターンの1つの画像を獲得する。装置38は、画像を1つの画像センサ40上に焦点を結ばせる対物光学系39からなる。通常、センサ40は、CCDまたはCMOSベースの画像センサレイなどの、検出素子41の直線的アレイからなる。対物光学系39は、画像センサの寸法と共に画像獲得装置の1つの視野44を規定する1つの入射瞳42を有する。この装置22の検出領域は、ビーム36と視野44との間の1つの重複領域46からなる。
One
Zobjの距離において照明装置30により投影された特徴的な横断方向のスペックル寸法(これは、スペックル・パターンの二次的な統計により規定される)は、
ΔX=(Zobj/W0)・λ
である。発明者らは、光学像処理の性能の最適化のためには、センサ40上に結像されるスペックル寸法は、範囲および解像度の要求に応じて、1〜10画素であるべきで、すなわち、光学系39によりセンサ40上に結像される各スペックルは、水平方向に1〜10検出素子41数だけ拡がるべきであると見出した。典型的用途では、2〜3画素のスペックル寸法がよい結果をもたらす。
The characteristic transverse speckle dimension projected by the
ΔX = (Z obj / W 0 ) · λ
It is. We, to optimize performance of the optical image processing, speckle size imaged on the
上のΔXに関する式から、スペックル寸法は、光源32と拡散板33との間の距離を変えることにより調節可能であることがわかるが、これはスポット34の半径w0が、光源からの距離が長くなるにつれ、大きくなるからである。このように、照明装置30のスペックル係数は、レンズやその他の光学系を用いずとも、単に光源を横方向に移動させることによって、制御可能である。照明装置30は、このように、異なる寸法と解像度の画像センサおよび異なる倍率の対物光学系と共に使用されるように調節可能である。上述の係数により強制された小さなスペックル寸法を前提として、発散の大きい(5°以上)かつコヒーレンス長の短い(1cm未満、および場合によっては、0.5mm未満)、レーザダイオードのような安価な光源を、システム20中で用いてよい効果を出すことができる。
From the above equation for ΔX, it can be seen that the speckle dimension can be adjusted by changing the distance between the
照明装置30および画像獲得装置38は、台43により固定された位置に保持されている。図2に図示する実施形態では、この台は、これらの装置を保持する筐体を有する。あるいは、これ以外の適切な機械的な台を用いて、照明装置と画像獲得装置との間の所望の位置関係を維持することができる。装置22の構成および以下に示す処理技術により、照明装置と画像獲得装置との間を相対的に動かさずとも、また、部材を動かさずとも、単一の画像獲得装置を用いて三次元マッピングを行うことができる。画像獲得装置38は、このように、照明装置30に対して相対的に単一かつ固定的な角度において、画像を獲得することができる。
The
三次元マップと被写体28の移動によるマップの変化の演算を単純化するために、以下に示すように、入射瞳42とスポット34の中心を通る軸が、センサ40の軸のうちの1つに対して平行になるように、台43が2つの装置30、38を保持することが好ましい。すなわち、(対物光学系39の光軸に原点を置く)互いに直交するX軸とY軸を規定するために、検出素子41のアレイの列および行を取ると、瞳42とスポット34を通る軸は、アレイの軸のうちの1つ(便宜上、X軸とする)と平行であるべきである。この配置の利点は、以下にさらに説明する。
In order to simplify the calculation of the map change due to the movement of the three-dimensional map and the subject 28, the axis passing through the center of the
装置30、38の各光軸(スポット34と瞳42の中心をそれぞれ通る)は、距離Sだけ離れている。これゆえに、Zobjが変わると、画像獲得装置38により獲得された被写体画像中に、スペックル・パターンの歪曲が生じる。特に、三角測距により、図2からわかるように、被写体上の1つの点のZ軸方向偏移δZは、画像中に観察されるスペックル・パターン中に付随的な横断方向の偏移δXを、
被写体上の点のZ座標および時間経過によるZ座標の偏移は、画像獲得装置38により獲得された画像中のスペックルのX座標の、既知の距離Zで得られた1つの参照画像に対する偏移を測定することにより算出可能である。すなわち、参照画像中で最も適合するスペックル群を見つけるために、獲得された画像の各領域におけるスペックル群は、参照画像と比較される。画像中のスペックルの適合する群の間の相対的な偏移は、参照画像に対する獲得された画像の領域のZ方向の偏移を示す。スペックル・パターンの偏移は、画像相関法またはこれ以外の当該技術分野で公知である画像適合演算方法を用いて測定されうる。この方法のいくつかは、上述のPCT特許出願に記載されている。装置22と共に適用される特に有用な別の方法は、2006年3月24日出願の米国仮特許出願60/785,202号(本件特許出願の譲渡人に譲渡され、その開示は本願中に参照として盛り込まれている。)に記載されている。
Shift of the Z coordinate by Z-coordinate and time points on the object, the speckle in the images that are acquired by the
さらに、図2に図示したような、瞳42とスポット34とを通るX軸が、センサ40のX軸に平行である配置では、スペックル・パターンの偏移δZが、(光学系39による歪曲が無視できる限り)、厳密にX方向に限られ、偏移のY成分は存在しない。したがって、画像適合演算は、単純化され、X偏移によるスペックルの最も近い適合群を探す必要があるだけである。すなわち、現在の画像の領域の参照画像(スペックル・パターンの従前の画像であればなんでもよい)に対する偏移δZを算出するためには、参照画像に最もよく適合する偏移δXの値を見つけるため、参照画像に対してX軸方向に偏移した現在の画像の領域のコピーをチェックするだけでよい。
Further, in the arrangement in which the X axis passing through the
あるいは、装置22の部材の幾何学的配置が、上述の基準からずれている場合、またはレンズ歪曲が有意である場合は、プロセッサは、このずれを補償するために1つの係数モデルを用いることができる。すなわち、既知のずれを測定し、またはモデル化し、プロセッサは、被写体面の実際の三次元座標を見つけるために、ずれの係数モデルに従って、参照画像に対する適切な(X,Y)方向偏移だけ偏移した現在の画像の領域のコピーをチェックすることができる。
Alternatively, if the geometry of the components of
通常、構成および演算上の便宜のため、システム20の作動係数は、S<<Zobjになるように選択される。(一方、システム20のZ方向の解像度は、比率S/Zobjに依存するので、所望の解像度を得るために、Sはシステムの意図する作動距離に対して相対的に十分大きくなくてはならない)S<<Zobjである限り、照明装置および画像獲得装置から、各被写体点までの各距離の値は、近い値となるが、しかし一般的には完全に等しくはならない。したがって、画像獲得装置38により獲得されたスペックル・パターンの像中のスペックルの寸法は、エリア46全域で、いくらかの許容誤差γを持って変動する。当該分野で公知の演算方法のいくつかを上述のPCT特許出願中で記載したが、これらを用いて、現在の画像の適合領域中のこれらの寸法の変化を、参照画像の対応する領域に対して補償することができる。
Usually, for convenience of construction and operation, operation factor of the
しかし、一般的には、プロセッサ24に過剰な演算負荷をかけないようにするため、適合させる枠の寸法に応じて、および、特徴的なスペックル寸法に応じて、γをある所定の範囲内に維持することが望まれる。発明者らは、全般的に、特徴的な枠の寸法の変動が、1つのスペックル寸法の30%を上回らない範囲に、γを限定すべきであると見出した。画像獲得装置38の視野の対角θを用いると、
(S・sin(θ)・N/2・Zobj)<0.3(λ・Zobj/w0・psize(Zobj))
の条件が成り立つときであり、ここで、psize(Zobj)は、Zobjにおける画素の寸法である。これらの条件の下で、装置38により獲得された連続する像フレーム中での被写体のZ軸方向の偏移は、一般に、スペックル寸法の変化を考慮することなく演算されうる。
However, in general, in order not to put an excessive calculation load on the
(S · sin (θ) · N / 2 · Z obj ) <0.3 (λ · Z obj / w 0 · psize (Z obj ))
It is when the condition is satisfied, wherein, psize (Z obj) is the dimension of the pixels in the Z obj. Under these conditions, the shift in the Z-axis direction of the subject in successive image frames acquired by the
図3は、システム20を用いた、本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。この方法は、とりわけ、照明装置30により投影されたスペックル・パターンが、時間の経過と共に実質的に変化しないという認識に基づいている。これゆえに、画像獲得装置38により装置に対して固定位置かつ固定角度で獲得された、被写体上に投影されたスペックル・パターンの各像を用いて、被写体の三次元マップを正確に演算することができる。
FIG. 3 is a flowchart schematically illustrating a three-dimensional mapping method using the
被写体をマッピングする前に、較正ステップ50において、既知の空間形状を有しかつ装置22から既知の距離だけ離れたある被写体へ、装置30からスペックル・パターンを投影することにより、装置22の較正を行う。通常、このために、既知の距離Zobjにおいて、領域46全域に渡る平坦な被写体を、較正目標として用いる。画像獲得装置38は、被写体の参照画像を獲得し、プロセッサ24のメモリ中に保存する。この較正ステップは、製造時に行われてもよく、メモリ中に保存された参照画像は、装置22の異なる部材間での相対的な移動が制御なしに行われない限り、この領域において用いることができる。メモリを節約し、続く演算を単純化するために、参照画像は、用いる適合アルゴリズムにとって適切な、閾値に基づく二値の画像などの、データ量を減らした形式で保存することもできる。
Before mapping the object, in a
システム20が使用可能な状態になると、最初の画像獲得ステップ52において、システム20は起動され、装置22を用いて対象被写体(この場合、被写体28)の画像を獲得する。プロセッサ24は、マップ演算ステップ54において、この画像を、保存された較正画像中のスペックル・パターンと比較する。画素値が、所定の閾値未満である(あるいは、重要なスペックル情報を含まない)画像の暗い領域は、通常、影領域として分類され、ここからは深さ(Z)情報は、取り出されない。画像のこれ以外の部分は、参照画像に対する効率的適合のため、おそらくは当該分野において公知の1つの適応的閾値を用いて、2値化されるか、またはデータ量を減少される。
When the
プロセッサ24は、画像の非影部分内に1つの枠を選択し、この枠内のサブ画像を、参照画像の部分と比較し、このサブ画像が最もよく適合する参照画像の部分が見つかるまでこれを続ける。上述し、図2に図示したように、装置30、38が、X軸に沿って配されている場合、プロセッサは、サブ画像を、サブ画像に対して相対的にX方向に変位した参照画像の部分(上述のように、倍率γまでの倍率でスペックル・パターンの寸法変化がされている)と比較すれば十分である。プロセッサは、参照画像の適合部分に対して、サブ画像の横断方向での偏移を用いて、上述の三角測距の原理に基づいて、サブ画像内の被写体28の表面領域のZ座標を決める。被写体表面のこの領域がX−Y面方向にあるのではなく、傾いていたら、サブ画像内のスペックル・パターンは、歪曲を示す。プロセッサ24は、選択肢として、スペックル歪曲を分析し、傾斜角度を見積り、これにより三次元マッピングの精度を改善することもできる。
The
プロセッサ24は、この第1枠のマップ座標を出発点として用いて、画像の隣接する領域の座標を算出してもよい。とりわけ、プロセッサが、画像内のある領域と、参照画像内の対応する領域との間に高い相関を見つけると、この領域の参照画像に対する偏移は、画像内の隣接する画素の偏移を予測するのに役立ちうる。プロセッサは、これらの隣接する画素を、初めに適合した領域の偏移に等しい偏移、またはこれに近い範囲内での偏移により、参照画像に適合させようとする。このようにして、プロセッサは、適合領域の範囲を拡大し、この範囲が端に達するまで、これを続ける。プロセッサは、このようにして、被写体28の三次元輪郭が完成するまで、像の非影領域のZ座標を算出する。この手法は、小さい枠および信号雑音比が悪い画像を用いても、迅速にかつ頑健な適合ができるという利点がある。この目的のために使用可能な演算方法の詳細は、上述のPCT特許出願中に記載されている。
The
上述のステップの結果、プロセッサ24は、最初の画像中で見ることができる被写体面の部分の完全な三次元マップを演算した。しかし、次の画像ステップ56において、被写体の三次元の動きを追跡するために、この方法を拡張し、連続画像を獲得し、分析することも容易に可能である。装置22は、所定のフレーム速度で連続画像を獲得し、プロセッサ24は、各連続画像に基づいて三次元マップを更新する。三次元マップは、望ましい場合、保存されかつ較正された参照画像に対して演算されてもよい。あるいは、被写体は、通常1つの画像フレームから次の画像フレームへとそれほど移動しないので、各連続画像を次のフレーム用の参照画像として用いるのが、しばしばより効率的である。
As a result of the above steps, the
このようにして、プロセッサ24は、偏移演算ステップ58において、各サブ画像のスペックルの、先行する画像中の同じスペックルに対するX方向の相対的な偏移を演算するために、各連続画像を先行する画像と比較することができる。通常、この偏移は数画素以上にはならないので、演算を迅速に、かつ効率的に行うことができる。各新しい画像がこのように処理された後、プロセッサ24は、新しいマップ出力ステップ60において、更新した三次元マップを出力する。この画像獲得および更新のプロセスは、このようにして無限に行われうる。連続三次元マップの演算が容易であるので、システム20は、単純で、低コストの画像ハードウェアおよび処理ハードウェアを使用しつつ、30フレーム/秒程度あるいはより速いリアルタイム・ビデオ速度で、マップ座標を操作し、出力することができる。さらに、上述したような効率的な画像適合演算と範囲拡張法とにより、先行する画像から局所的な偏移が演算できない場合にも、ビデオ速度でシステム20を作動させることができる。
In this manner,
システム20のこのような能力のゆえに、広範囲の応用分野において、システム20を適切に使用することができ、特に人間の動作に基づくマシン・インタフェースにこれを実装することができる。このようなインタフェースでは、(プロセッサ24を有し、またはプロセッサにより三次元マップ出力を受け取ることができる)コンピュータが、ユーザの体の部分(例えば、腕、手および/または指、そしておそらく、頭、胴体およびこれ以外の四肢部分など)に対応する三次元マップ中の、1つまたは複数の数量を特定する。このコンピュータは、これらの体の部分のある動きに対応する動作を特定し、これらの動作に応答して、コンピュータ・アプリケーションを制御するようにプログラムされている。このような動作およびアプリケーションの一例には、以下のようなものがある。
・マウス解釈およびクリック−コンピュータは、ユーザがテーブル上でマウスを動かし、マウスボタンをクリックしているように、ユーザの手と指の動きを解釈する。
・コンピュータ画面上で、フリーハンドで被写体を指差し、選択し、解釈する。
・ユーザの動作により、ゲームで用いられる実際のまたは仮想の被写体を打ち、つかみ、動かし、開放するようなコンピュータゲーム。
・ユーザが行うことができる限定された動きを検知することに基づいた、障害者ユーザ用のコンピュータ・インタフェース。
・バーチャル・キーボード上でのタイプ
これ以外のアプリケーションも、当業者には自明であろう。
Because of this capability of the
Mouse Interpretation and Click—The computer interprets the movement of the user's hand and fingers as if the user moved the mouse on the table and clicked the mouse button.
-Point, select, and interpret the subject freehand on the computer screen.
A computer game in which an actual or virtual subject used in the game is hit, grabbed, moved, and released by user action .
A computer interface for the disabled user based on detecting limited movements that the user can perform.
Other types of applications on the virtual keyboard will be obvious to those skilled in the art.
図2に戻って、ビーム36が、レイリー距離を越えて広がると、被写体28上に落とされる照明の強度は、Z2にほぼ比例して低下する。被写体上に投影されるスペックル・パターンのコントラストも、これに応じて低下する。これは特に、光源32の波長と同一波長の強い周辺光があるときに低下する。したがって、システム20が有用な結果を出すことができる深さ(Z座標)の範囲は、Zが大きくて照明が弱いために限定されうる。この点は、当該技術分野で公知であり、適応制御および画像制御により緩和されうる。この種の適切な方法の数例は、上述のPCT特許出願PCT/IL2006/000335号に記載されている。あるいは、または、これに加えて、以下に説明するように、光学ビーム形成により、照明の輪郭を改善することができる。
Returning to FIG. 2, the
図4は、本発明の1実施形態による、システムの有用な深さ範囲を広くするためにシステム20で用いられる照明装置70の概略側面図である。装置70は、光源32と拡散板33と共に、1つのビーム形成装置72を有する。このビーム形成装置は、中間領域76の間で発散を減少し、この領域で軸上距離Zのスペックル・パターンの線型寸法を維持するビーム74を生成するように設計されている。その結果、領域76全体に渡って被写体28の画像中で、高いスペックルのコントラストが維持され、その結果、三次元マッピング・システムにより網羅される深さ範囲が広くなる。領域76中での性能を向上させるために用いられうる光学設計を、以下にいくつか説明する。
FIG. 4 is a schematic side view of a
図5は、本発明の1実施形態によるビーム形成装置72の概略側面図である。このビーム形成装置は、1つの回折光学素子(DOE)80と、1つの円錐レンズ82とからなる。DOE80は、拡散板33に当接していてもよいし、あるいは拡散板の表面上でのエッチング層または堆積層として組み込まれてもよい。領域76中でのビーム発散を減らすために、様々な回折設計を用いることができる。例えば、DOE80は、光源32の光軸上に中心を有する同心円あって、かつ円の半径がランダムに分布しているパターンを有しても良い。円錐レンズ82は、光軸上に中心を置く円錐形の輪郭を有し、すなわち、一種の回転対称プリズムである。DOE80も円錐レンズ82も、光軸に沿って長い焦点領域を作る効果を有し、その結果、これらの部材のいずれか1つを用いて、ビーム発散を減らした領域を作ることができる。この発散の減少は、2つの部材を共に用いることにより、さらに強化される。
FIG. 5 is a schematic side view of a
図6は、本発明の別の実施形態によるビーム形成装置90の概略側面図である。ビーム形成装置90は、1つのDOE92と、焦点距離がFであるレンズ94、96とを有する。図示したように、これらのレンズは、拡散板33とDOE92とから、焦点距離に等しい距離だけ離れ、したがってDOEは、拡散板のフーリエ平面に位置づけられている。したがって、DOEの透過機能により、拡散板のフーリエ変換は、乗算される。遠い領域では、スペックル・パターンは、DOE上のパターンのフーリエ変換により乗算される。
FIG. 6 is a schematic side view of a beam forming apparatus 90 according to another embodiment of the present invention. The beam forming apparatus 90 includes one DOE 92 and lenses 94 and 96 having a focal length F. As shown, these lenses are separated from the
図4に示すように、DOEパターンは、フーリエ変換が発散を減らすように、および/または、照明ビームに渡ってより均一な照明を提供するように選択されうる。後者の課題は、(中央では明るく、かつ光軸から角度が増えるにつれ低下する傾向にある拡散板33からのビームの角度による強度分布とは逆に)中央領域において周辺領域よりも透過を低下させるように回折光学素子(DOE)92を設計することにより達成されうる。対象となる光強度に対して、より均一なスペックルの光強度対比を与えるためのDOE92またはDOE80(図5)の他の設計も、当業者には自明であり、本発明の枠内にあると考えられる。
As shown in FIG. 4, the DOE pattern can be selected such that the Fourier transform reduces divergence and / or provides more uniform illumination across the illumination beam. The latter problem is that transmission in the central region is lower than that in the peripheral region (as opposed to the intensity distribution due to the angle of the beam from the
図7は、本発明のさらに別の1実施形態による、システム20で用いられうる、被写体28の領域のZ座標を決めるための1つの光学相関器110の概略側面図である。すなわち、相関器110は、上述したプロセッサ24の機能の一部分を実行する光学技術を使用する。相関器は、非常に高速で、ほぼ同時に、平行して被写体の複数の領域の座標を決めることができる。したがって、迅速に被写体が動くことが特徴的である応用分野には、非常に有用である。
FIG. 7 is a schematic side view of one optical correlator 110 for determining the Z coordinate of the region of the subject 28 that may be used in the
1つの小型レンズ・アレイ116は、装置30によるスペックル照明の下、被写体28の複数のサブ画像を形成する。1つの絞りアレイ118が、小型レンズ・アレイ116の視野を限定し、その結果各サブ画像は、狭い角度領域からの光のみを含む。第2の1つの小型レンズ・アレイ120は、サブ画像を1つのDOE122上に投影する。小型レンズ・アレイ120は、アレイ中の小型レンズの焦点距離に等しい距離分だけ、サブ画像の面からはなれ、また、等しい距離分だけDOE122面から離れている。後方の1つの小型レンズ・アレイ124は、DOE122とセンサ40との間に位置し、その小型レンズの焦点距離に等しい距離だけこの各々から離れている。
One
DOE122は、被写体128のスペックル像が比較される参照スペックル・パターンの空間フーリエ変換である、1つの参照回折パターンを有している。例えば、この参照回折パターンは、光源から既知の距離を隔てた平面を使用して、ステップ50で形成された較正スペックル像のフーリエ変換でありうる。この場合、参照回折パターンは、DOE表面上にエッチングまたは堆積されうる。あるいは、DOE122は、参照回折パターンを動的に投影するように駆動される、1つの空間変調器(SLM)からなってもよい。
DOE122 is a spatial Fourier transform of the reference speckle pattern speckle image of the subject 128 are compared, has one reference diffraction patterns. For example, the reference diffraction pattern can be a Fourier transform of the calibration speckle image formed in
いずれの場合も、相関器110は(小型レンズ・アレイ116中の小型レンズにより形成される)被写体のサブ画像を、フーリエ空間中の参照スペックル・パターンで乗算する。したがって、小型レンズ・アレイ124によりセンサ40上に投影された強度分布は、参照スペックル・パターンと各サブ画像の相互相関に一致している。一般に、センサ上の強度分布は、複数の相関ピークを有し、各ピークは、サブ画像の1つに対応している。(絞りアレイ118中の対応する絞りで規定された)対応するサブ画像の軸に対する各ピークの横断方向での偏移値は、被写体28の対応する領域上のスペックル・パターンの横断方向の変位に比例している。この変位は、さらに、上述のように、参照スペックル・パターンの面に対するその領域のZ方向の変位に比例している。このように、センサ40の出力は、各サブ画像の領域のZ座標を決めるために、そして、被写体の三次元マップを演算するために、処理されうる。
In either case, the correlator 110 is a sub-image of the (formed by the lenslets during lenslet array 116) subjects, multiplied by the reference speckle pattern in the Fourier space. Therefore, the intensity distribution projected onto the
上述の実施形態は、上述した特定の、システム20の構成と装置22の設計に関連するが、本発明の原理は、これ以外の種類のスペックルに基づく三次元マッピングのシステムおよび装置にも同様に応用可能である。例えば、上述の実施形態の観点は、複数の画像獲得装置を用いたシステムに応用してもよいし、あるいは画像獲得装置と照明装置とが互いに相対的に可動であるシステムに応用してもよい。
Although the embodiments described above relate to the
上述の実施形態は例として示したが、本発明は、本願中上で特定的に示し説明した内容に限定されないと理解される。むしろ、本発明の範囲は、上述の記載を読んだ当業者が思いつくであろう、かつ先行技術に開示されていない、本願中の上述の様々な特徴の組み合わせや、一部組み合わせや、これらの変更や修正をも含む。 Although the above embodiments have been shown by way of example, it is understood that the present invention is not limited to what has been particularly shown and described herein. Rather, the scope of the present invention is the combination of the various features described above in this application, any combination thereof, or any combination thereof, as would be conceived by one of ordinary skill in the art upon reading the above description and not disclosed in the prior art. Includes changes and modifications.
20 三次元マッピング・システム
22 スペックル撮像装置
24 画像プロセッサ
28 被写体
30 照明装置
32 コヒーレントな光源
33 拡散板
38 画像獲得装置
39 対物光学系
40 画像センサ
20 three-
Claims (42)
前記照明装置に対して単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックル・パターン画像を獲得するように配された単一の画像獲得装置と、
前記被写体の1つの三次元マップを導出するため、前記単一かつ固定の位置および角度で獲得された前記第1次スペックル・パターンの1つまたは複数の前記画像の内に獲得された前記被写体上の複数の領域の前記第1次スペックル・パターンと、前記単一の画像獲得装置から既知の距離にある既知の輪郭の参照表面上で獲得された前記第1次スペックル・パターンの参照画像との間で、それぞれの偏移を見つけるように接続された1つのプロセッサと、
ここにおいて前記それぞれの偏移が、前記複数の領域と前記画像獲得装置との間のそれぞれの距離を示しており、
を有することを特徴とする被写体の三次元マッピング装置。One illumination device having one coherent light source and one diffuser arranged to project one primary speckle pattern onto one subject;
A single image acquisition device arranged to acquire the first speckle pattern image on the subject from a single and fixed position and angle relative to the illumination device;
The subject acquired within one or more of the images of the primary speckle pattern acquired at the single and fixed position and angle to derive a three-dimensional map of the subject. said first primary speckle pattern of the plurality of regions of the upper reference of the primary speckle pattern obtained on the reference surface of known contour from said single image acquisition device a known distance One processor connected to find each shift between the images;
Here, the respective shifts indicate the respective distances between the plurality of regions and the image acquisition device,
A three-dimensional mapping apparatus for a subject characterized by comprising:
第1および第2の互いに直交する軸を規定する1つの直線パターン中に配された、1つの検出素子アレイと、
1つの入射瞳を有し、かつ、前記画像を前記検出素子アレイ上に焦点を結ぶように配置された対物光学系と
を有し、
前記第1の軸に平行であって、かつ、前記入射瞳と、前記コヒーレントな光源により射出された1つのビームが前記拡散板を通過する1つのスポットと、を通る1つの装置の軸を規定するように、前記照明装置と前記画像獲得装置とが前記台により配列させられていることを特徴とする、請求項2に記載の装置。The image acquisition device includes:
One detector element array disposed in one linear pattern defining first and second mutually orthogonal axes;
An objective optical system having one entrance pupil and arranged to focus the image on the detection element array;
Defines the axis of one device that is parallel to the first axis and passes through the entrance pupil and a spot through which one beam emitted by the coherent light source passes through the diffuser. The apparatus according to claim 2, wherein the lighting device and the image acquisition device are arranged by the platform.
単一の画像獲得装置を使用して、前記光源に対して単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックル・パターンの画像を獲得するステップと、
前記被写体の1つの三次元マップを導き出すために、前記単一かつ固定の位置および角度で獲得された前記第1次スペックル・パターンの前記画像を処理し、1つまたは複数の前記画像の内に獲得された前記被写体上の複数の領域の前記第1次スペックル・パターンと、前記単一の画像獲得装置から既知の距離にある既知の輪郭の参照表面上で獲得された前記第1次スペックル・パターンの参照画像との間で、それぞれの偏移を見つけるステップと、
ここにおいて前記それぞれの偏移が、前記複数の領域と前記単一の画像獲得装置との間のそれぞれの距離を示しており、
からなることを特徴とする被写体の三次元マッピング方法。Illuminating the subject with a beam of coherent light diffused from a light source to project a primary speckle pattern onto a subject;
Using a single image acquisition device to acquire an image of the first speckle pattern on the subject from a single and fixed position and angle relative to the light source;
Processing the image of the first speckle pattern acquired at the single and fixed position and angle to derive a three-dimensional map of the subject, and within one or more of the images said first primary speckle pattern of the plurality of areas on acquired the object in the primary that has been acquired on the reference surface of known contour from said single image acquisition device a known distance Finding each shift between the reference image of the speckle pattern;
Wherein each of the shifts indicates a respective distance between the plurality of regions and the single image acquisition device;
A method for three-dimensional mapping of a subject characterized by comprising:
第1および第2の互いに直交する軸を規定する1つの直線パターン中に配された、1つの検出素子アレイを有し、
ここにおいて前記光源は、1つの拡散板からなり、
前記画像を獲得するステップは、前記画像獲得装置の1つの入射瞳と1つのスポットとを一直線に並べるステップからなり、ここにおいて前記スポットは1つのビームが前記第1の軸に平行な1つの装置軸に沿って前記拡散板を通過する場所であることを特徴とする、請求項21に記載の方法。The image acquisition device includes:
Having one detector element array arranged in one linear pattern defining first and second mutually orthogonal axes;
Here, the light source is composed of one diffusion plate,
Acquiring the image comprises aligning one entrance pupil and one spot of the image acquisition device, wherein the spot is one device with one beam parallel to the first axis. The method of claim 21, wherein the location is through the diffuser plate along an axis.
前記画像を獲得するステップは、前記許容誤差が既定の1つの範囲内に収まるように前記空間を選択するステップからなることを特徴とする、請求項24に記載の方法。The primary speckle pattern comprises speckles having one characteristic dimension, wherein the dimension of the speckle in the image is spread over the entire image by one tolerance that depends on the space. Change across,
25. The method of claim 24, wherein acquiring the image comprises selecting the space such that the tolerance is within a predetermined range.
第1の1つの領域に対する第1の1つの偏移において、前記被写体の前記第1の領域と前記参照画像の対応する1つの領域とにおける前記第1次スペックル・パターンの間で、最初の1つの適合を発見することにより前記それぞれの偏移を発見するステップと、
前記第1の偏移に基づいて、前記第1の領域に隣接する画素の前記それぞれの偏移を見出すため1つの範囲拡張手続を適用するステップと、からなることを特徴とする、請求項20に記載の方法。The step of finding each deviation is:
In the first one shift relative to the first one region, the first speckle pattern in the first region of the subject and the corresponding one region of the reference image Discovering said respective shifts by finding one match;
Applying one range extension procedure to find each respective shift of a pixel adjacent to the first region based on the first shift. The method described in 1.
前記被写体上の前記第1次スペックル・パターン画像を獲得するように配された1つの画像獲得装置と、
前記被写体の1つの三次元マップを導出するため、前記第1次スペックル・パターンの1つまたは複数の前記画像の内に獲得された前記被写体上の複数の領域の前記第1次スペックル・パターンと、前記単一の画像獲得装置から既知の距離にある既知の輪郭の参照表面上で獲得された前記第1次スペックル・パターンの参照画像との間で、それぞれの偏移を見つけるように接続された1つのプロセッサと、
ここにおいて前記それぞれの偏移が、前記複数の領域と前記画像獲得装置との間のそれぞれの距離を示しており、
を有することを特徴とする被写体の三次元マッピング装置。An illuminator comprising a coherent light source having a coherence length of less than 1 cm and a diffusing plate arranged to project a first speckle pattern on an object;
One image acquisition device arranged to acquire the first speckle pattern image on the subject;
In order to derive a three-dimensional map of the subject , the primary speckles of a plurality of regions on the subject acquired in one or more of the images of the primary speckle pattern Finding each shift between a pattern and a reference image of the first speckle pattern acquired on a reference surface of known contour at a known distance from the single image acquisition device One processor connected to the
Here, the respective shifts indicate the respective distances between the plurality of regions and the image acquisition device,
A three-dimensional mapping apparatus for a subject characterized by comprising:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IL2006/000335 WO2007043036A1 (en) | 2005-10-11 | 2006-03-14 | Method and system for object reconstruction |
ILPCT/IL2006/000335 | 2006-03-14 | ||
US78518706P | 2006-03-24 | 2006-03-24 | |
US60/785,187 | 2006-03-24 | ||
PCT/IL2007/000306 WO2007105205A2 (en) | 2006-03-14 | 2007-03-08 | Three-dimensional sensing using speckle patterns |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009531655A JP2009531655A (en) | 2009-09-03 |
JP2009531655A5 JP2009531655A5 (en) | 2010-03-04 |
JP5174684B2 true JP5174684B2 (en) | 2013-04-03 |
Family
ID=38509871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008558981A Active JP5174684B2 (en) | 2006-03-14 | 2007-03-08 | 3D detection using speckle patterns |
Country Status (5)
Country | Link |
---|---|
US (2) | US8390821B2 (en) |
JP (1) | JP5174684B2 (en) |
KR (1) | KR101331543B1 (en) |
CN (1) | CN101496033B (en) |
WO (1) | WO2007105205A2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11536981B2 (en) | 2018-06-11 | 2022-12-27 | AGC Inc. | Diffractive optical element, projection device, and measurement device |
US11598972B2 (en) | 2017-05-26 | 2023-03-07 | AGC Inc. | Diffractive optical element, projection device and measuring device |
Families Citing this family (202)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007043036A1 (en) | 2005-10-11 | 2007-04-19 | Prime Sense Ltd. | Method and system for object reconstruction |
WO2007105205A2 (en) | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Three-dimensional sensing using speckle patterns |
US20110096182A1 (en) * | 2009-10-25 | 2011-04-28 | Prime Sense Ltd | Error Compensation in Three-Dimensional Mapping |
US9330324B2 (en) * | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
CN101501442B (en) * | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | Depth-varying light fields for three dimensional sensing |
CN101957994B (en) | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | Depth-varying light fields for three dimensional sensing |
JP5167248B2 (en) | 2006-05-11 | 2013-03-21 | プライムセンス リミテッド | Modeling of humanoid shape by depth map |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
US8265793B2 (en) | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
TWI433052B (en) | 2007-04-02 | 2014-04-01 | Primesense Ltd | Depth mapping using projected patterns |
US8150142B2 (en) * | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
FR2921719B1 (en) * | 2007-09-28 | 2010-03-12 | Noomeo | METHOD FOR CONSTRUCTING A SYNTHESIS IMAGE OF A THREE-DIMENSIONAL SURFACE OF A PHYSICAL OBJECT |
DE102007058590B4 (en) * | 2007-12-04 | 2010-09-16 | Sirona Dental Systems Gmbh | Recording method for an image of a recording object and recording device |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US9035876B2 (en) * | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
EP2235584B1 (en) * | 2008-01-21 | 2020-09-16 | Apple Inc. | Optical designs for zero order reduction |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
GB2463724B (en) * | 2008-09-26 | 2011-05-04 | Cybula Ltd | Forming 3D images |
FR2940423B1 (en) * | 2008-12-22 | 2011-05-27 | Noomeo | DENSE RECONSTRUCTION THREE-DIMENSIONAL SCANNING DEVICE |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
JP5654583B2 (en) | 2009-06-17 | 2015-01-14 | 3シェイプ アー/エス | Focus control device |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
CN102022979A (en) | 2009-09-21 | 2011-04-20 | 鸿富锦精密工业(深圳)有限公司 | Three-dimensional optical sensing system |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
JP5588310B2 (en) | 2009-11-15 | 2014-09-10 | プライムセンス リミテッド | Optical projector with beam monitor |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
JP4783456B2 (en) * | 2009-12-22 | 2011-09-28 | 株式会社東芝 | Video playback apparatus and video playback method |
US20110188054A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd | Integrated photonics module for optical projection |
US20110187878A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd. | Synchronization of projected illumination with rolling shutter of image sensor |
US9825425B2 (en) | 2013-06-19 | 2017-11-21 | Apple Inc. | Integrated structured-light projector comprising light-emitting elements on a substrate |
US8786757B2 (en) | 2010-02-23 | 2014-07-22 | Primesense Ltd. | Wideband ambient light rejection |
US8982182B2 (en) * | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
WO2011127646A1 (en) * | 2010-04-13 | 2011-10-20 | Nokia Corporation | An apparatus, method, computer program and user interface |
US9400503B2 (en) | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
US8918213B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
GB2494081B (en) | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US8935005B2 (en) | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
JP5791131B2 (en) | 2010-07-20 | 2015-10-07 | アップル インコーポレイテッド | Interactive reality extension for natural interactions |
JP5849954B2 (en) * | 2010-08-06 | 2016-02-03 | 旭硝子株式会社 | Diffractive optical element and measuring device |
JP5834602B2 (en) | 2010-08-10 | 2015-12-24 | 旭硝子株式会社 | Diffractive optical element and measuring device |
US9036158B2 (en) | 2010-08-11 | 2015-05-19 | Apple Inc. | Pattern projector |
CN103053167B (en) | 2010-08-11 | 2016-01-20 | 苹果公司 | Scanning projector and the image capture module mapped for 3D |
US9348111B2 (en) | 2010-08-24 | 2016-05-24 | Apple Inc. | Automatic detection of lens deviations |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
IL208568B (en) * | 2010-10-07 | 2018-06-28 | Elbit Systems Ltd | Mapping, detecting and tracking objects in an arbitrary outdoor scene using active vision |
JP5760391B2 (en) | 2010-11-02 | 2015-08-12 | 旭硝子株式会社 | Diffractive optical element and measuring device |
KR20120046973A (en) * | 2010-11-03 | 2012-05-11 | 삼성전자주식회사 | Method and apparatus for generating motion information |
WO2012066501A1 (en) | 2010-11-19 | 2012-05-24 | Primesense Ltd. | Depth mapping using time-coded illumination |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
EP2466560A1 (en) | 2010-12-20 | 2012-06-20 | Axis AB | Method and system for monitoring the accessibility of an emergency exit |
GB2502213A (en) | 2010-12-30 | 2013-11-20 | Irobot Corp | Mobile Human Interface Robot |
US8930019B2 (en) | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
US8717488B2 (en) | 2011-01-18 | 2014-05-06 | Primesense Ltd. | Objective optics with interference filter |
EP2672880B1 (en) | 2011-02-09 | 2019-05-22 | Apple Inc. | Gaze detection in a 3d mapping environment |
US9052512B2 (en) | 2011-03-03 | 2015-06-09 | Asahi Glass Company, Limited | Diffractive optical element and measuring apparatus |
JP5948948B2 (en) * | 2011-03-03 | 2016-07-06 | 旭硝子株式会社 | Diffractive optical element and measuring device |
JP5948949B2 (en) * | 2011-06-28 | 2016-07-06 | 旭硝子株式会社 | Diffractive optical element and measuring device |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
CN102760234B (en) | 2011-04-14 | 2014-08-20 | 财团法人工业技术研究院 | Depth image acquisition device, system and method |
US9024872B2 (en) | 2011-04-28 | 2015-05-05 | Sharp Kabushiki Kaisha | Head-mounted display |
WO2012147495A1 (en) * | 2011-04-28 | 2012-11-01 | 三洋電機株式会社 | Information acquisition device and object detection device |
EP2530442A1 (en) | 2011-05-30 | 2012-12-05 | Axis AB | Methods and apparatus for thermographic measurements. |
JP5926500B2 (en) * | 2011-06-07 | 2016-05-25 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP5298161B2 (en) * | 2011-06-13 | 2013-09-25 | シャープ株式会社 | Operating device and image forming apparatus |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US8869073B2 (en) * | 2011-07-28 | 2014-10-21 | Hewlett-Packard Development Company, L.P. | Hand pose interaction |
US8749796B2 (en) | 2011-08-09 | 2014-06-10 | Primesense Ltd. | Projectors of structured light |
US8908277B2 (en) | 2011-08-09 | 2014-12-09 | Apple Inc | Lens array projector |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9218063B2 (en) * | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
FR2980292B1 (en) | 2011-09-16 | 2013-10-11 | Prynel | METHOD AND SYSTEM FOR ACQUIRING AND PROCESSING IMAGES FOR MOTION DETECTION |
WO2013067526A1 (en) | 2011-11-04 | 2013-05-10 | Remote TelePointer, LLC | Method and system for user interface for interactive devices using a mobile device |
DE102011121696A1 (en) * | 2011-12-16 | 2013-06-20 | Friedrich-Schiller-Universität Jena | Method for 3D measurement of depth-limited objects |
EP2611169A1 (en) | 2011-12-27 | 2013-07-03 | Thomson Licensing | Device for the acquisition of stereoscopic images |
LT2618316T (en) | 2012-01-23 | 2018-11-12 | Novomatic Ag | Wheel of fortune with gesture control |
EP2817586B1 (en) | 2012-02-15 | 2020-03-25 | Apple Inc. | Scanning depth engine |
WO2013126784A2 (en) | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
US10937239B2 (en) | 2012-02-23 | 2021-03-02 | Charles D. Huston | System and method for creating an environment and for sharing an event |
US10600235B2 (en) | 2012-02-23 | 2020-03-24 | Charles D. Huston | System and method for capturing and sharing a location based experience |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
KR101898490B1 (en) * | 2012-02-29 | 2018-09-13 | 엘지전자 주식회사 | Holographic display device and method for generating hologram using redundancy of 3-D video |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
AU2013237062B2 (en) | 2012-03-22 | 2015-07-16 | Apple Inc. | Diffraction-based sensing of mirror position |
CN104246682B (en) | 2012-03-26 | 2017-08-25 | 苹果公司 | Enhanced virtual touchpad and touch-screen |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
CN103424077A (en) * | 2012-05-23 | 2013-12-04 | 联想(北京)有限公司 | Motion detection device, detection method and electronic equipment |
CN102681183B (en) * | 2012-05-25 | 2015-01-07 | 合肥鼎臣光电科技有限责任公司 | Two-way three-dimensional imaging and naked-eye three-dimensional display system based on lens array |
US8896594B2 (en) * | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
WO2014003796A1 (en) * | 2012-06-30 | 2014-01-03 | Hewlett-Packard Development Company, L.P. | Virtual hand based on combined data |
WO2014033614A1 (en) | 2012-08-27 | 2014-03-06 | Koninklijke Philips N.V. | Patient-specific and automatic x-ray system adjustment based on optical 3d scene detection and interpretation |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
US9661304B2 (en) * | 2012-10-31 | 2017-05-23 | Ricoh Company, Ltd. | Pre-calculation of sine waves for pixel values |
DE102012110460A1 (en) * | 2012-10-31 | 2014-04-30 | Audi Ag | A method for entering a control command for a component of a motor vehicle |
JP6155448B2 (en) | 2012-11-01 | 2017-07-05 | アイカム エルエルシー | Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing |
US9152234B2 (en) | 2012-12-02 | 2015-10-06 | Apple Inc. | Detecting user intent to remove a pluggable peripheral device |
US9217665B2 (en) | 2013-01-31 | 2015-12-22 | Hewlett Packard Enterprise Development Lp | Viewing-angle imaging using lenslet array |
NL2010213C2 (en) | 2013-01-31 | 2014-08-04 | Lely Patent Nv | Camera system, animal related system therewith, and method to create 3d camera images. |
JP6044403B2 (en) * | 2013-03-18 | 2016-12-14 | 富士通株式会社 | Imaging apparatus, imaging method, and imaging program |
US10268885B2 (en) | 2013-04-15 | 2019-04-23 | Microsoft Technology Licensing, Llc | Extracting true color from a color and infrared sensor |
CN103268608B (en) * | 2013-05-17 | 2015-12-02 | 清华大学 | Based on depth estimation method and the device of near-infrared laser speckle |
SG11201509788QA (en) * | 2013-06-06 | 2015-12-30 | Heptagon Micro Optics Pte Ltd | Sensor system with active illumination |
US9615812B2 (en) | 2013-06-19 | 2017-04-11 | Koninklijke Philips N.V. | Calibration of imagers with dynamic beam shapers |
US9208566B2 (en) | 2013-08-09 | 2015-12-08 | Microsoft Technology Licensing, Llc | Speckle sensing for motion tracking |
JP6387964B2 (en) | 2013-09-02 | 2018-09-12 | Agc株式会社 | Measuring device |
TWI485361B (en) * | 2013-09-11 | 2015-05-21 | Univ Nat Taiwan | Measuring apparatus for three-dimensional profilometry and method thereof |
KR102159996B1 (en) * | 2013-12-16 | 2020-09-25 | 삼성전자주식회사 | Event filtering device and motion recognition device thereof |
US9528906B1 (en) | 2013-12-19 | 2016-12-27 | Apple Inc. | Monitoring DOE performance using total internal reflection |
US9523771B2 (en) * | 2014-01-13 | 2016-12-20 | Facebook, Inc. | Sub-resolution optical detection |
US10010387B2 (en) | 2014-02-07 | 2018-07-03 | 3Shape A/S | Detecting tooth shade |
WO2015148604A1 (en) | 2014-03-25 | 2015-10-01 | Massachusetts Institute Of Technology | Space-time modulated active 3d imager |
US10349037B2 (en) | 2014-04-03 | 2019-07-09 | Ams Sensors Singapore Pte. Ltd. | Structured-stereo imaging assembly including separate imagers for different wavelengths |
US10455212B1 (en) * | 2014-08-25 | 2019-10-22 | X Development Llc | Projected pattern motion/vibration for depth sensing |
USD733141S1 (en) | 2014-09-10 | 2015-06-30 | Faro Technologies, Inc. | Laser scanner |
US9881235B1 (en) | 2014-11-21 | 2018-01-30 | Mahmoud Narimanzadeh | System, apparatus, and method for determining physical dimensions in digital images |
US9841496B2 (en) | 2014-11-21 | 2017-12-12 | Microsoft Technology Licensing, Llc | Multiple pattern illumination optics for time of flight system |
TWI564754B (en) * | 2014-11-24 | 2017-01-01 | 圓剛科技股份有限公司 | Spatial motion sensing device and spatial motion sensing method |
KR101908057B1 (en) * | 2014-12-18 | 2018-10-15 | 페이스북, 인크. | System, device and method for providing user interface for a virtual reality environment |
US10352762B2 (en) | 2014-12-27 | 2019-07-16 | Guardian Optical Technologies Ltd. | System and method for detecting surface vibrations |
FI126498B (en) * | 2014-12-29 | 2017-01-13 | Helmee Imaging Oy | Optical measuring system |
US10186034B2 (en) * | 2015-01-20 | 2019-01-22 | Ricoh Company, Ltd. | Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium |
US9958758B2 (en) * | 2015-01-21 | 2018-05-01 | Microsoft Technology Licensing, Llc | Multiple exposure structured light pattern |
US10509147B2 (en) | 2015-01-29 | 2019-12-17 | ams Sensors Singapore Pte. Ltd | Apparatus for producing patterned illumination using arrays of light sources and lenses |
US9817159B2 (en) | 2015-01-31 | 2017-11-14 | Microsoft Technology Licensing, Llc | Structured light pattern generation |
JP6575795B2 (en) | 2015-03-11 | 2019-09-18 | パナソニックIpマネジメント株式会社 | Human detection system |
US9530215B2 (en) * | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
US10001583B2 (en) | 2015-04-06 | 2018-06-19 | Heptagon Micro Optics Pte. Ltd. | Structured light projection using a compound patterned mask |
US9525863B2 (en) | 2015-04-29 | 2016-12-20 | Apple Inc. | Time-of-flight depth mapping with flexible scan pattern |
WO2016183395A1 (en) * | 2015-05-13 | 2016-11-17 | Oculus Vr, Llc | Augmenting a depth map representation with a reflectivity map representation |
WO2016195684A1 (en) * | 2015-06-04 | 2016-12-08 | Siemens Healthcare Gmbh | Apparatus and methods for a projection display device on x-ray imaging devices |
JP6566768B2 (en) * | 2015-07-30 | 2019-08-28 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
US10012831B2 (en) | 2015-08-03 | 2018-07-03 | Apple Inc. | Optical monitoring of scan parameters |
US10043279B1 (en) | 2015-12-07 | 2018-08-07 | Apple Inc. | Robust detection and classification of body parts in a depth map |
US11057608B2 (en) | 2016-01-04 | 2021-07-06 | Qualcomm Incorporated | Depth map generation in structured light system |
JP6668763B2 (en) | 2016-01-13 | 2020-03-18 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
JP6668764B2 (en) | 2016-01-13 | 2020-03-18 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
JP6631261B2 (en) | 2016-01-14 | 2020-01-15 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
US10154234B2 (en) * | 2016-03-16 | 2018-12-11 | Omnivision Technologies, Inc. | Image sensor with peripheral 3A-control sensors and associated imaging system |
KR101745651B1 (en) * | 2016-03-29 | 2017-06-09 | 전자부품연구원 | System and method for recognizing hand gesture |
US10489924B2 (en) | 2016-03-30 | 2019-11-26 | Samsung Electronics Co., Ltd. | Structured light generator and object recognition apparatus including the same |
JP6607121B2 (en) | 2016-03-30 | 2019-11-20 | セイコーエプソン株式会社 | Image recognition apparatus, image recognition method, and image recognition unit |
US10474297B2 (en) | 2016-07-20 | 2019-11-12 | Ams Sensors Singapore Pte. Ltd. | Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same |
US10241244B2 (en) | 2016-07-29 | 2019-03-26 | Lumentum Operations Llc | Thin film total internal reflection diffraction grating for single polarization or dual polarization |
US10481740B2 (en) | 2016-08-01 | 2019-11-19 | Ams Sensors Singapore Pte. Ltd. | Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same |
US10775508B1 (en) * | 2016-08-19 | 2020-09-15 | Apple Inc. | Remote sensing device |
US10073004B2 (en) | 2016-09-19 | 2018-09-11 | Apple Inc. | DOE defect monitoring utilizing total internal reflection |
US10366278B2 (en) | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
TWI587206B (en) * | 2016-11-24 | 2017-06-11 | 財團法人工業技術研究院 | Interactive display device and system thereof |
US10499039B2 (en) | 2016-12-15 | 2019-12-03 | Egismos Technology Corporation | Path detection system and path detection method generating laser pattern by diffractive optical element |
US10158845B2 (en) | 2017-01-18 | 2018-12-18 | Facebook Technologies, Llc | Tileable structured light projection for wide field-of-view depth sensing |
US10620447B2 (en) * | 2017-01-19 | 2020-04-14 | Cognex Corporation | System and method for reduced-speckle laser line generation |
CN115327775A (en) * | 2017-04-24 | 2022-11-11 | 奇跃公司 | Optical flow tracking backscattered laser speckle patterns |
US11494897B2 (en) | 2017-07-07 | 2022-11-08 | William F. WILEY | Application to determine reading/working distance |
US10527711B2 (en) | 2017-07-10 | 2020-01-07 | Aurora Flight Sciences Corporation | Laser speckle system and method for an aircraft |
WO2019041268A1 (en) * | 2017-08-31 | 2019-03-07 | SZ DJI Technology Co., Ltd. | A solid state light detection and ranging (lidar) system |
WO2019041274A1 (en) | 2017-08-31 | 2019-03-07 | Sz Dji Technology Co. , Ltd. | A solid state light detection and ranging (lidar) system system and method for improving solid state light detection and ranging (lidar) resolution |
WO2019079790A1 (en) | 2017-10-21 | 2019-04-25 | Eyecam, Inc | Adaptive graphic user interfacing system |
JP6970376B2 (en) | 2017-12-01 | 2021-11-24 | オムロン株式会社 | Image processing system and image processing method |
US10310281B1 (en) | 2017-12-05 | 2019-06-04 | K Laser Technology, Inc. | Optical projector with off-axis diffractive element |
US10545457B2 (en) | 2017-12-05 | 2020-01-28 | K Laser Technology, Inc. | Optical projector with off-axis diffractive element and conjugate images |
US10317684B1 (en) | 2018-01-24 | 2019-06-11 | K Laser Technology, Inc. | Optical projector with on axis hologram and multiple beam splitter |
CN110161786B (en) | 2018-02-12 | 2021-08-31 | 深圳富泰宏精密工业有限公司 | Light projection module, three-dimensional image sensing device and sensing method thereof |
CN108663800B (en) * | 2018-04-16 | 2021-03-19 | 华东交通大学 | Optical encryption and decryption method, device and system |
US11422292B1 (en) | 2018-06-10 | 2022-08-23 | Apple Inc. | Super-blazed diffractive optical elements with sub-wavelength structures |
CN110619996B (en) * | 2018-06-20 | 2022-07-08 | 株式会社村田制作所 | Inductor and method for manufacturing the same |
US11675114B2 (en) | 2018-07-23 | 2023-06-13 | Ii-Vi Delaware, Inc. | Monolithic structured light projector |
DE102018129143B4 (en) * | 2018-11-20 | 2021-06-17 | Carl Zeiss Industrielle Messtechnik Gmbh | Variable measurement object-dependent camera structure and calibration thereof |
CN109541875B (en) * | 2018-11-24 | 2024-02-13 | 深圳阜时科技有限公司 | Light source structure, optical projection module, sensing device and equipment |
CN113302076A (en) * | 2018-12-28 | 2021-08-24 | 贾迪安光学技术有限公司 | System, apparatus and method for vehicle post-crash support |
CN113454676A (en) * | 2019-02-18 | 2021-09-28 | 指纹卡有限公司 | Optical biometric imaging apparatus and method of operating an optical biometric imaging apparatus |
US11029408B2 (en) * | 2019-04-03 | 2021-06-08 | Varjo Technologies Oy | Distance-imaging system and method of distance imaging |
US10509128B1 (en) | 2019-04-12 | 2019-12-17 | K Laser Technology, Inc. | Programmable pattern optical projector for depth detection |
US11681019B2 (en) | 2019-09-18 | 2023-06-20 | Apple Inc. | Optical module with stray light baffle |
US11506762B1 (en) | 2019-09-24 | 2022-11-22 | Apple Inc. | Optical module comprising an optical waveguide with reference light path |
GB2589121A (en) * | 2019-11-21 | 2021-05-26 | Bae Systems Plc | Imaging apparatus |
CN111650759A (en) * | 2019-12-31 | 2020-09-11 | 北京大学 | Multi-focal-length micro-lens array remote sensing light field imaging system for near-infrared light spot projection |
US20220338747A1 (en) * | 2020-01-17 | 2022-10-27 | Antishock Technologies, Ltd. | System and method for monitoring fluid management to a patient |
US11754767B1 (en) | 2020-03-05 | 2023-09-12 | Apple Inc. | Display with overlaid waveguide |
US11843221B2 (en) * | 2020-03-30 | 2023-12-12 | Namuga, Co., Ltd. | Light source module for emitting high density beam and method for controlling the same |
EP4171379A1 (en) * | 2020-06-30 | 2023-05-03 | Kneedly AB | Solution for determination of supraphysiological body joint movements |
EP3993385A1 (en) | 2020-10-29 | 2022-05-04 | Universitat de València | A multiperspective photography camera device |
CN114255233B (en) * | 2022-03-01 | 2022-05-31 | 合肥的卢深视科技有限公司 | Speckle pattern quality evaluation method and device, electronic device and storage medium |
Family Cites Families (167)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2951207A1 (en) * | 1978-12-26 | 1980-07-10 | Canon Kk | METHOD FOR THE OPTICAL PRODUCTION OF A SPREADING PLATE |
US4542376A (en) * | 1983-11-03 | 1985-09-17 | Burroughs Corporation | System for electronically displaying portions of several different images on a CRT screen through respective prioritized viewports |
JPS6079108U (en) * | 1983-11-08 | 1985-06-01 | オムロン株式会社 | speckle rangefinder |
JPH0762869B2 (en) | 1986-03-07 | 1995-07-05 | 日本電信電話株式会社 | Position and shape measurement method by pattern projection |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPH0615968B2 (en) * | 1986-08-11 | 1994-03-02 | 伍良 松本 | Three-dimensional shape measuring device |
JP2714152B2 (en) * | 1989-06-28 | 1998-02-16 | 古野電気株式会社 | Object shape measurement method |
US5075562A (en) * | 1990-09-20 | 1991-12-24 | Eastman Kodak Company | Method and apparatus for absolute Moire distance measurements using a grating printed on or attached to a surface |
GB9116151D0 (en) | 1991-07-26 | 1991-09-11 | Isis Innovation | Three-dimensional vision system |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
EP0559978B1 (en) * | 1992-03-12 | 1998-08-05 | International Business Machines Corporation | Image processing method |
US5636025A (en) * | 1992-04-23 | 1997-06-03 | Medar, Inc. | System for optically measuring the surface contour of a part using more fringe techniques |
JP3353365B2 (en) * | 1993-03-18 | 2002-12-03 | 静岡大学長 | Displacement and displacement velocity measuring device |
US5856871A (en) * | 1993-08-18 | 1999-01-05 | Applied Spectral Imaging Ltd. | Film thickness mapping using interferometric spectral imaging |
US20010012156A1 (en) * | 1994-09-05 | 2001-08-09 | Mikoh Technology Limited | Diffraction surfaces and methods for the manufacture thereof |
US6041140A (en) * | 1994-10-04 | 2000-03-21 | Synthonics, Incorporated | Apparatus for interactive image correlation for three dimensional image production |
JPH08186845A (en) | 1994-12-27 | 1996-07-16 | Nobuaki Yanagisawa | Focal distance controlling stereoscopic-vision television receiver |
US5630043A (en) * | 1995-05-11 | 1997-05-13 | Cirrus Logic, Inc. | Animated texture map apparatus and method for 3-D image displays |
IL114278A (en) * | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
AU728407B2 (en) * | 1995-07-18 | 2001-01-11 | Budd Company, The | Moire interferometry system and method with extended imaging depth |
JPH09261535A (en) * | 1996-03-25 | 1997-10-03 | Sharp Corp | Image pickup device |
DE19638727A1 (en) | 1996-09-12 | 1998-03-19 | Ruedger Dipl Ing Rubbert | Method for increasing the significance of the three-dimensional measurement of objects |
JP3402138B2 (en) * | 1996-09-27 | 2003-04-28 | 株式会社日立製作所 | Liquid crystal display |
IL119341A (en) * | 1996-10-02 | 1999-09-22 | Univ Ramot | Phase-only filter for generating an arbitrary illumination pattern |
IL119831A (en) | 1996-12-15 | 2002-12-01 | Cognitens Ltd | Apparatus and method for 3d surface geometry reconstruction |
WO1998028593A1 (en) | 1996-12-20 | 1998-07-02 | Pacific Title And Mirage, Inc. | Apparatus and method for rapid 3d image parametrization |
US5838428A (en) * | 1997-02-28 | 1998-11-17 | United States Of America As Represented By The Secretary Of The Navy | System and method for high resolution range imaging with split light source and pattern mask |
JPH10327433A (en) | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | Display device for composted image |
US6008813A (en) * | 1997-08-01 | 1999-12-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Real-time PC based volume rendering system |
DE19736169A1 (en) | 1997-08-20 | 1999-04-15 | Fhu Hochschule Fuer Technik | Method to measure deformation or vibration using electronic speckle pattern interferometry |
US6101269A (en) * | 1997-12-19 | 2000-08-08 | Lifef/X Networks, Inc. | Apparatus and method for rapid 3D image parametrization |
US6438272B1 (en) | 1997-12-31 | 2002-08-20 | The Research Foundation Of State University Of Ny | Method and apparatus for three dimensional surface contouring using a digital video projection system |
DE19815201A1 (en) * | 1998-04-04 | 1999-10-07 | Link Johann & Ernst Gmbh & Co | Measuring arrangement for detecting dimensions of test specimens, preferably of hollow bodies, in particular of bores in workpieces, and methods for measuring such dimensions |
US6731391B1 (en) * | 1998-05-13 | 2004-05-04 | The Research Foundation Of State University Of New York | Shadow moire surface measurement using Talbot effect |
DE19821611A1 (en) * | 1998-05-14 | 1999-11-18 | Syrinx Med Tech Gmbh | Recording method for spatial structure of three-dimensional surface, e.g. for person recognition |
GB2352901A (en) | 1999-05-12 | 2001-02-07 | Tricorder Technology Plc | Rendering three dimensional representations utilising projected light patterns |
US6377700B1 (en) | 1998-06-30 | 2002-04-23 | Intel Corporation | Method and apparatus for capturing stereoscopic images using image sensors |
JP3678022B2 (en) | 1998-10-23 | 2005-08-03 | コニカミノルタセンシング株式会社 | 3D input device |
US6084712A (en) * | 1998-11-03 | 2000-07-04 | Dynamic Measurement And Inspection,Llc | Three dimensional imaging using a refractive optic design |
US8965898B2 (en) | 1998-11-20 | 2015-02-24 | Intheplay, Inc. | Optimizations for live event, real-time, 3D object tracking |
US6759646B1 (en) * | 1998-11-24 | 2004-07-06 | Intel Corporation | Color interpolation for a four color mosaic pattern |
JP2001166810A (en) * | 1999-02-19 | 2001-06-22 | Sanyo Electric Co Ltd | Device and method for providing solid model |
CN2364507Y (en) * | 1999-03-18 | 2000-02-16 | 香港生产力促进局 | Small non-contact symmetric imput type three-D profile scanning head |
US6259561B1 (en) * | 1999-03-26 | 2001-07-10 | The University Of Rochester | Optical system for diffusing light |
JP2002544510A (en) * | 1999-05-14 | 2002-12-24 | 3ディーメトリックス,インコーポレイテッド | Color structured optical 3D imaging system |
US6751344B1 (en) * | 1999-05-28 | 2004-06-15 | Champion Orthotic Investments, Inc. | Enhanced projector system for machine vision |
US6512385B1 (en) * | 1999-07-26 | 2003-01-28 | Paul Pfaff | Method for testing a device under test including the interference of two beams |
US6268923B1 (en) * | 1999-10-07 | 2001-07-31 | Integral Vision, Inc. | Optical method and system for measuring three-dimensional surface topography of an object having a surface contour |
JP2001141430A (en) | 1999-11-16 | 2001-05-25 | Fuji Photo Film Co Ltd | Image pickup device and image processing device |
LT4842B (en) * | 1999-12-10 | 2001-09-25 | Uab "Geola" | Universal digital holographic printer and method |
US6301059B1 (en) * | 2000-01-07 | 2001-10-09 | Lucent Technologies Inc. | Astigmatic compensation for an anamorphic optical system |
US6700669B1 (en) | 2000-01-28 | 2004-03-02 | Zheng J. Geng | Method and system for three-dimensional imaging using light pattern having multiple sub-patterns |
US6937348B2 (en) * | 2000-01-28 | 2005-08-30 | Genex Technologies, Inc. | Method and apparatus for generating structural pattern illumination |
JP4560869B2 (en) * | 2000-02-07 | 2010-10-13 | ソニー株式会社 | Glasses-free display system and backlight system |
JP4265076B2 (en) * | 2000-03-31 | 2009-05-20 | 沖電気工業株式会社 | Multi-angle camera and automatic photographing device |
KR100355718B1 (en) * | 2000-06-10 | 2002-10-11 | 주식회사 메디슨 | System and method for 3-d ultrasound imaging using an steerable probe |
US6810135B1 (en) * | 2000-06-29 | 2004-10-26 | Trw Inc. | Optimized human presence detection through elimination of background interference |
TW527518B (en) * | 2000-07-14 | 2003-04-11 | Massachusetts Inst Technology | Method and system for high resolution, ultra fast, 3-D imaging |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6686921B1 (en) * | 2000-08-01 | 2004-02-03 | International Business Machines Corporation | Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
US6639684B1 (en) | 2000-09-13 | 2003-10-28 | Nextengine, Inc. | Digitizer using intensity gradient to image features of three-dimensional objects |
US6813440B1 (en) * | 2000-10-10 | 2004-11-02 | The Hong Kong Polytechnic University | Body scanner |
JP3689720B2 (en) | 2000-10-16 | 2005-08-31 | 住友大阪セメント株式会社 | 3D shape measuring device |
JP2002152776A (en) | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for encoding and decoding distance image |
JP2002191058A (en) * | 2000-12-20 | 2002-07-05 | Olympus Optical Co Ltd | Three-dimensional image acquisition device and three- dimensional image acquisition method |
JP2002213931A (en) | 2001-01-17 | 2002-07-31 | Fuji Xerox Co Ltd | Instrument and method for measuring three-dimensional shape |
US6841780B2 (en) * | 2001-01-19 | 2005-01-11 | Honeywell International Inc. | Method and apparatus for detecting objects |
JP2002365023A (en) * | 2001-06-08 | 2002-12-18 | Koji Okamoto | Apparatus and method for measurement of liquid level |
EP1412803A2 (en) * | 2001-07-13 | 2004-04-28 | Mems Optical, Inc. | Autostereoscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images |
US6741251B2 (en) * | 2001-08-16 | 2004-05-25 | Hewlett-Packard Development Company, L.P. | Method and apparatus for varying focus in a scene |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
US7811825B2 (en) | 2002-04-19 | 2010-10-12 | University Of Washington | System and method for processing specimens and images for optical tomography |
AU2003253626A1 (en) * | 2002-06-07 | 2003-12-22 | University Of North Carolina At Chapel Hill | Methods and systems for laser based real-time structured light depth extraction |
US7006709B2 (en) * | 2002-06-15 | 2006-02-28 | Microsoft Corporation | System and method deghosting mosaics using multiperspective plane sweep |
US20040001145A1 (en) * | 2002-06-27 | 2004-01-01 | Abbate Jeffrey A. | Method and apparatus for multifield image generation and processing |
US6859326B2 (en) * | 2002-09-20 | 2005-02-22 | Corning Incorporated | Random microlens array for optical beam shaping and homogenization |
KR100624405B1 (en) | 2002-10-01 | 2006-09-18 | 삼성전자주식회사 | Substrate for mounting optical component and method for producing the same |
US7194105B2 (en) * | 2002-10-16 | 2007-03-20 | Hersch Roger D | Authentication of documents and articles by moiré patterns |
TWI291040B (en) * | 2002-11-21 | 2007-12-11 | Solvision Inc | Fast 3D height measurement method and system |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
US20040174770A1 (en) * | 2002-11-27 | 2004-09-09 | Rees Frank L. | Gauss-Rees parametric ultrawideband system |
US7639419B2 (en) * | 2003-02-21 | 2009-12-29 | Kla-Tencor Technologies, Inc. | Inspection system using small catadioptric objective |
US7127101B2 (en) * | 2003-03-10 | 2006-10-24 | Cranul Technologies, Inc. | Automatic selection of cranial remodeling device trim lines |
US20040213463A1 (en) * | 2003-04-22 | 2004-10-28 | Morrison Rick Lee | Multiplexed, spatially encoded illumination system for determining imaging and range estimation |
US7539340B2 (en) | 2003-04-25 | 2009-05-26 | Topcon Corporation | Apparatus and method for three-dimensional coordinate measurement |
CA2435935A1 (en) | 2003-07-24 | 2005-01-24 | Guylain Lemelin | Optical 3d digitizer with enlarged non-ambiguity zone |
ES2313036T3 (en) * | 2003-07-24 | 2009-03-01 | Cognitens Ltd. | PROCEDURE AND SYSTEM FOR THE RECONSTRUCTION OF THE THREE-DIMENSIONAL SURFACE OF AN OBJECT. |
US20050111705A1 (en) * | 2003-08-26 | 2005-05-26 | Roman Waupotitsch | Passive stereo sensing for 3D facial shape biometrics |
US6934018B2 (en) * | 2003-09-10 | 2005-08-23 | Shearographics, Llc | Tire inspection apparatus and method |
US7187437B2 (en) * | 2003-09-10 | 2007-03-06 | Shearographics, Llc | Plurality of light sources for inspection apparatus and method |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US7112774B2 (en) * | 2003-10-09 | 2006-09-26 | Avago Technologies Sensor Ip (Singapore) Pte. Ltd | CMOS stereo imaging system and method |
US20050135555A1 (en) | 2003-12-23 | 2005-06-23 | Claus Bernhard Erich H. | Method and system for simultaneously viewing rendered volumes |
US7250949B2 (en) | 2003-12-23 | 2007-07-31 | General Electric Company | Method and system for visualizing three-dimensional data |
US8134637B2 (en) | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
US7961909B2 (en) * | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
WO2005076198A1 (en) * | 2004-02-09 | 2005-08-18 | Cheol-Gwon Kang | Device for measuring 3d shape using irregular pattern and method for the same |
US7427981B2 (en) * | 2004-04-15 | 2008-09-23 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Optical device that measures distance between the device and a surface |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7335898B2 (en) * | 2004-07-23 | 2008-02-26 | Ge Healthcare Niagara Inc. | Method and apparatus for fluorescent confocal microscopy |
US20060017656A1 (en) * | 2004-07-26 | 2006-01-26 | Visteon Global Technologies, Inc. | Image intensity control in overland night vision systems |
KR101238608B1 (en) | 2004-07-30 | 2013-02-28 | 익스트림 리얼리티 엘티디. | A system and method for 3D space-dimension based image processing |
US7120228B2 (en) * | 2004-09-21 | 2006-10-10 | Jordan Valley Applied Radiation Ltd. | Combined X-ray reflectometer and diffractometer |
JP2006128818A (en) | 2004-10-26 | 2006-05-18 | Victor Co Of Japan Ltd | Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium |
IL165212A (en) | 2004-11-15 | 2012-05-31 | Elbit Systems Electro Optics Elop Ltd | Device for scanning light |
US7076024B2 (en) * | 2004-12-01 | 2006-07-11 | Jordan Valley Applied Radiation, Ltd. | X-ray apparatus with dual monochromators |
US20060156756A1 (en) * | 2005-01-20 | 2006-07-20 | Becke Paul E | Phase change and insulating properties container and method of use |
WO2007043036A1 (en) | 2005-10-11 | 2007-04-19 | Prime Sense Ltd. | Method and system for object reconstruction |
US20060221218A1 (en) * | 2005-04-05 | 2006-10-05 | Doron Adler | Image sensor with improved color filter |
WO2006107955A1 (en) | 2005-04-06 | 2006-10-12 | Dimensional Photonics International, Inc. | Multiple channel interferometric surface contour measurement system |
US7560679B1 (en) | 2005-05-10 | 2009-07-14 | Siimpel, Inc. | 3D camera |
US7609875B2 (en) * | 2005-05-27 | 2009-10-27 | Orametrix, Inc. | Scanner system and method for mapping surface of three-dimensional object |
WO2007105205A2 (en) | 2006-03-14 | 2007-09-20 | Prime Sense Ltd. | Three-dimensional sensing using speckle patterns |
US20110096182A1 (en) | 2009-10-25 | 2011-04-28 | Prime Sense Ltd | Error Compensation in Three-Dimensional Mapping |
US8018579B1 (en) | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
US20070133840A1 (en) | 2005-11-04 | 2007-06-14 | Clean Earth Technologies, Llc | Tracking Using An Elastic Cluster of Trackers |
US7856125B2 (en) | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
JP4917615B2 (en) | 2006-02-27 | 2012-04-18 | プライム センス リミティド | Range mapping using uncorrelated speckle |
CN101501442B (en) | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | Depth-varying light fields for three dimensional sensing |
CN101957994B (en) * | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | Depth-varying light fields for three dimensional sensing |
US7869649B2 (en) | 2006-05-08 | 2011-01-11 | Panasonic Corporation | Image processing device, image processing method, program, storage medium and integrated circuit |
US8488895B2 (en) | 2006-05-31 | 2013-07-16 | Indiana University Research And Technology Corp. | Laser scanning digital camera with pupil periphery illumination and potential for multiply scattered light imaging |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
US8411149B2 (en) | 2006-08-03 | 2013-04-02 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US7737394B2 (en) | 2006-08-31 | 2010-06-15 | Micron Technology, Inc. | Ambient infrared detection in solid state sensors |
KR20090052889A (en) | 2006-09-04 | 2009-05-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method for determining a depth map from images, device for determining a depth map |
US7256899B1 (en) * | 2006-10-04 | 2007-08-14 | Ivan Faul | Wireless methods and systems for three-dimensional non-contact shape sensing |
US8542421B2 (en) | 2006-11-17 | 2013-09-24 | Celloptic, Inc. | System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation |
US8090194B2 (en) | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
US7990545B2 (en) * | 2006-12-27 | 2011-08-02 | Cambridge Research & Instrumentation, Inc. | Surface measurement of in-vivo subjects using spot projector |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
US20080212835A1 (en) * | 2007-03-01 | 2008-09-04 | Amon Tavor | Object Tracking by 3-Dimensional Modeling |
US8150142B2 (en) * | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
TWI433052B (en) | 2007-04-02 | 2014-04-01 | Primesense Ltd | Depth mapping using projected patterns |
CA2627999C (en) * | 2007-04-03 | 2011-11-15 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
EP2149268A1 (en) * | 2007-04-23 | 2010-02-03 | California Institute of Technology | An aperture system with spatially-biased aperture shapes for 3-d defocusing-based imaging |
US7835561B2 (en) | 2007-05-18 | 2010-11-16 | Visiongate, Inc. | Method for image processing and reconstruction of images for optical tomography |
WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
WO2009008864A1 (en) | 2007-07-12 | 2009-01-15 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
JP4412362B2 (en) | 2007-07-18 | 2010-02-10 | 船井電機株式会社 | Compound eye imaging device |
US20090060307A1 (en) | 2007-08-27 | 2009-03-05 | Siemens Medical Solutions Usa, Inc. | Tensor Voting System and Method |
DE102007045332B4 (en) | 2007-09-17 | 2019-01-17 | Seereal Technologies S.A. | Holographic display for reconstructing a scene |
KR100858034B1 (en) | 2007-10-18 | 2008-09-10 | (주)실리콘화일 | One chip image sensor for measuring vitality of subject |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8176497B2 (en) * | 2008-01-16 | 2012-05-08 | Dell Products, Lp | Method to dynamically provision additional computer resources to handle peak database workloads |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
EP2235584B1 (en) * | 2008-01-21 | 2020-09-16 | Apple Inc. | Optical designs for zero order reduction |
DE102008011350A1 (en) | 2008-02-27 | 2009-09-03 | Loeffler Technology Gmbh | Apparatus and method for real-time detection of electromagnetic THz radiation |
US8121351B2 (en) | 2008-03-09 | 2012-02-21 | Microsoft International Holdings B.V. | Identification of objects in a 3D video using non/over reflective clothing |
US8035806B2 (en) | 2008-05-13 | 2011-10-11 | Samsung Electronics Co., Ltd. | Distance measuring sensor including double transfer gate and three dimensional color image sensor including the distance measuring sensor |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
EP2275990B1 (en) | 2009-07-06 | 2012-09-26 | Sick Ag | 3D sensor |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8773514B2 (en) | 2009-08-27 | 2014-07-08 | California Institute Of Technology | Accurate 3D object reconstruction using a handheld device with a projected light pattern |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US8330804B2 (en) | 2010-05-12 | 2012-12-11 | Microsoft Corporation | Scanned-beam depth mapping to 2D image |
US8654152B2 (en) | 2010-06-21 | 2014-02-18 | Microsoft Corporation | Compartmentalizing focus area within field of view |
-
2007
- 2007-03-08 WO PCT/IL2007/000306 patent/WO2007105205A2/en active Application Filing
- 2007-03-08 US US12/282,517 patent/US8390821B2/en active Active
- 2007-03-08 CN CN2007800166255A patent/CN101496033B/en active Active
- 2007-03-08 KR KR1020087025030A patent/KR101331543B1/en active IP Right Grant
- 2007-03-08 JP JP2008558981A patent/JP5174684B2/en active Active
-
2013
- 2013-01-24 US US13/748,617 patent/US9063283B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11598972B2 (en) | 2017-05-26 | 2023-03-07 | AGC Inc. | Diffractive optical element, projection device and measuring device |
US11536981B2 (en) | 2018-06-11 | 2022-12-27 | AGC Inc. | Diffractive optical element, projection device, and measurement device |
Also Published As
Publication number | Publication date |
---|---|
US20130136305A1 (en) | 2013-05-30 |
CN101496033A (en) | 2009-07-29 |
US9063283B2 (en) | 2015-06-23 |
KR20080111474A (en) | 2008-12-23 |
JP2009531655A (en) | 2009-09-03 |
CN101496033B (en) | 2012-03-21 |
WO2007105205A3 (en) | 2009-04-23 |
US20090096783A1 (en) | 2009-04-16 |
KR101331543B1 (en) | 2013-11-20 |
WO2007105205A2 (en) | 2007-09-20 |
US8390821B2 (en) | 2013-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5174684B2 (en) | 3D detection using speckle patterns | |
JP2009531655A5 (en) | ||
CN101496032B (en) | Range mapping using speckle decorrelation | |
TWI585436B (en) | Method and apparatus for measuring depth information | |
US7675020B2 (en) | Input apparatus and methods having diffuse and specular tracking modes | |
JP2020115630A (en) | Eye tracking using optical flow | |
US10261592B2 (en) | Optical hand tracking in virtual reality systems | |
KR20090006825A (en) | Depth-varying light fields for three dimensional sensing | |
JP2009530604A (en) | Light field that changes depth for 3D detection | |
CN110162166A (en) | System and method for calibrating the imaging sensor in wearable device | |
KR20160075548A (en) | Three dimensional depth mapping using dynamic structured light | |
TW200919271A (en) | System and method for performing optical navigation using scattered light | |
TW200825874A (en) | Programmable resolution for optical pointing device | |
US10574938B1 (en) | Variable frame rate depth camera assembly | |
TWI661233B (en) | Dot projector structure and method for extracting image using dot projector structure | |
TW201321712A (en) | Systems and methods for determining three-dimensional absolute coordinates of objects | |
Munkelt et al. | Large-volume NIR pattern projection sensor for continuous low-latency 3D measurements | |
KR20180118584A (en) | Apparatus for Infrared sensing footing device, Method for TWO-DIMENSIONAL image detecting and program using the same | |
JP2014211305A (en) | Object detection device and information acquisition device | |
JP2023135357A (en) | Displacement measuring device, displacement measuring system, non-contact input device, and biological micromotion measuring device | |
JP2016173766A (en) | Object detection device, input operation detection device, image display device, and object detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5174684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |