JP2009531655A - Three-dimensional detection using speckle patterns - Google Patents

Three-dimensional detection using speckle patterns Download PDF

Info

Publication number
JP2009531655A
JP2009531655A JP2008558981A JP2008558981A JP2009531655A JP 2009531655 A JP2009531655 A JP 2009531655A JP 2008558981 A JP2008558981 A JP 2008558981A JP 2008558981 A JP2008558981 A JP 2008558981A JP 2009531655 A JP2009531655 A JP 2009531655A
Authority
JP
Japan
Prior art keywords
image
subject
speckle pattern
light source
speckle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008558981A
Other languages
Japanese (ja)
Other versions
JP2009531655A5 (en
JP5174684B2 (en
Inventor
シュプント、アレクサンダー
ザレフスキー、ジーフ
Original Assignee
プライム・センス・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/IL2006/000335 external-priority patent/WO2007043036A1/en
Application filed by プライム・センス・リミテッド filed Critical プライム・センス・リミテッド
Publication of JP2009531655A publication Critical patent/JP2009531655A/en
Publication of JP2009531655A5 publication Critical patent/JP2009531655A5/ja
Application granted granted Critical
Publication of JP5174684B2 publication Critical patent/JP5174684B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)

Abstract

被写体(28)の三次元マッピング装置(20)は、被写体(28)上に第1次スペックルパターンを投影するよう配されたコヒーレント光源(32)と拡散板(33)とを有する照明アセンブリ(30)を有する。単一の画像獲得アセンブリ(38)は、照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターン画像を獲得するように配されている。プロセッサ(24)は、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理するために接続されている。
【選択図】 図1
The three-dimensional mapping device (20) of the subject (28) includes an illumination assembly (30) having a coherent light source (32) and a diffuser plate (33) arranged to project a primary speckle pattern onto the subject (28). 30). A single image acquisition assembly (38) is arranged to acquire a primary speckle pattern image on the subject from a single, fixed position and angle relative to the illumination assembly. The processor (24) is connected to process a single speckle pattern image acquired at a single fixed angle to derive a three-dimensional map of the subject.
[Selection] Figure 1

Description

関連出願への相互参照
本出願は、2006年3月24日出願の米国仮特許出願60/785,187号の恩典を申し立てる。本出願は、2006年3月14日出願のPCT特許出願PCT/IL2006/000335号の一部継続出願であり、これは、2005年10月11日出願の米国仮特許出願60/724,903号の恩典を申し立てる。これら全ての関連出願は、本特許出願の譲渡人に譲渡され、これらの開示は、本願中に参照することにより盛り込まれている。
This application claims the benefit of US Provisional Patent Application No. 60 / 785,187, filed Mar. 24, 2006. This application is a continuation-in-part of PCT patent application PCT / IL2006 / 000335 filed March 14, 2006, which is a US provisional patent application 60 / 724,903 filed October 11, 2005. I claim the benefit. All of these related applications are assigned to the assignee of the present patent application, the disclosures of which are incorporated herein by reference.

(技術分野)
本発明は、全般として、三次元(3D)被写体をマッピングする方法およびシステムに関し、特にスペックルパターンを用いた三次元光学撮像に関する。
(Technical field)
The present invention relates generally to methods and systems for mapping three-dimensional (3D) objects, and more particularly to three-dimensional optical imaging using speckle patterns.

コヒーレントな光ビームが拡散板を通過し、表面に投影されると、その表面上に第1次スペックルパターンが観察されうる。この第1次スペックルは、拡散されたビームの様々な成分中で、干渉により引き起こされる。本特許出願および請求項中では、「第1次スペックル」とはこの意味で用いられ、被写体の粗い表面からのコヒーレント光の拡散反射により引き起こされる第2次スペックルとは区別されている。   As the coherent light beam passes through the diffuser and is projected onto the surface, a primary speckle pattern can be observed on the surface. This primary speckle is caused by interference in various components of the diffused beam. In this patent application and in the claims, “first order speckle” is used in this sense and is distinguished from second order speckle caused by diffuse reflection of coherent light from the rough surface of the subject.

Hartは、特許文献1および特許文献2(これらの開示は、本願中に参照することにより盛り込まれている)中で、高速三次元撮像システムにおけるスペックルパターンの使用について説明している。このシステムは、アクティブ撮像素子およびCCD素子を備えた単レンズカメラのサブシステムと、相関処理サブシステムとを有する。このアクティブ撮像素子は回転絞りでありえ、これにより、被写界深度をより大きくし、副画素の変位精度を高めるために、デフォーカス画像間で調節可能な非等辺間隔が可能になる。スペックルパターンは被写体上に投影され、結果として得られるパターンの画像は、複数の角度から得られる。これらの画像は、画像相関技術を用いて、局所的に相互相関され、各局所的に相関された領域の三次元座標を計算するために、その表面は、相対的なカメラの位置情報を用いて解像される。   Hart describes the use of speckle patterns in a high-speed three-dimensional imaging system in US Pat. This system has a single lens camera subsystem with an active imaging device and a CCD device, and a correlation processing subsystem. The active imaging element can be a rotary stop, which allows for adjustable non-equal spacing between defocused images to increase depth of field and increase subpixel displacement accuracy. The speckle pattern is projected onto the subject, and the resulting pattern image is obtained from multiple angles. These images are locally cross-correlated using image correlation techniques, and the surface uses relative camera position information to calculate the three-dimensional coordinates of each locally correlated region. To be resolved.

Hunter他による特許文献3(この開示は、本願中に参照することにより盛り込まれている)には、別のスペックルベースの三次元撮像技術が記載されている。ランダムなスペックルパターンが、三次元面に投影され、複数のカメラにより撮像され、複数の二次元デジタル画像が得られる。二次元画像は処理され、面の三次元特徴が得られる。
台湾特許TW527528 B号 米国特許出願09/616,606号 米国特許6,101,269号
U.S. Pat. No. 6,057,017 by Hunter et al. (The disclosure of which is incorporated herein by reference) describes another speckle-based three-dimensional imaging technique. A random speckle pattern is projected onto a three-dimensional surface and captured by a plurality of cameras to obtain a plurality of two-dimensional digital images. The 2D image is processed to obtain 3D features of the surface.
Taiwan patent TW527528 B US patent application 09 / 616,606 US Pat. No. 6,101,269

本発明の実施形態は、第1次スペックルパターンを用いて実時間で、三次元被写体のマッピングを精確に行う。上記PCT特許出願および下記の実施形態中に記載された方法とシステムでは、単一のコヒーレント光源と、この光源に対して相対的に静止しかつ固定角度で保持された単一の画像センサーとを用いてこのような三次元マッピングを行うことができる。   Embodiments of the present invention accurately map a three-dimensional subject in real time using a primary speckle pattern. In the methods and systems described in the above PCT patent application and the following embodiments, a single coherent light source and a single image sensor that is stationary relative to the light source and held at a fixed angle. Such a three-dimensional mapping can be performed.

本発明の1つの観点は、スペックルパターンの参照画像が、最初に既知の輪郭の参照面上で獲得されるという点である。次に、被写体上に投影されたスペックルパターンの画像を獲得し、この画像と参照画像とを比較することにより、被写体の三次元輪郭が決められる。   One aspect of the present invention is that a speckle pattern reference image is first acquired on a known contour reference plane. Next, an image of a speckle pattern projected on the subject is acquired, and the three-dimensional contour of the subject is determined by comparing this image with a reference image.

本発明の別の観点は、被写体が動くと共に、被写体上のスペックルパターンの連続画像が獲得されるという点である。三次元で被写体の動きを追跡するために、各画像は、先行する画像の1つまたは複数と比較される。以下で説明する1つの実施形態では、光源と画像センサーは、1つの直線上に配され、連続する画像間で1次元の相関係数を演算することにより、迅速でかつ精確に動きを追跡することができる。   Another aspect of the present invention is that a continuous image of a speckle pattern on the subject is acquired as the subject moves. Each image is compared to one or more of the preceding images in order to track the movement of the subject in three dimensions. In one embodiment described below, the light source and the image sensor are placed on a single line and track motion quickly and accurately by computing a one-dimensional correlation coefficient between successive images. be able to.

精度、被写界深度および三次元マッピングシステムの演算速度を高めるために、新規の照明および画像処理スキームを用いている実施形態もある。   Some embodiments use novel illumination and image processing schemes to increase accuracy, depth of field, and computational speed of the three-dimensional mapping system.

したがって、本発明の1実施形態によれば、被写体上に第1次スペックルパターンを投影するよう配されたコヒーレント光源と拡散板とを有する照明アセンブリと、照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターン画像を獲得するように配された単一の画像獲得アセンブリと、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供されている。   Therefore, according to one embodiment of the present invention, an illumination assembly having a coherent light source and a diffuser arranged to project a primary speckle pattern onto a subject, and a relative to the illumination assembly. A single image acquisition assembly arranged to acquire a first speckle pattern image on a subject from a single fixed location and angle, and a single fixed angle to derive a three-dimensional map of the subject There is provided a three-dimensional mapping apparatus for a subject having a processor connected to process an image of a primary speckle pattern obtained in step (1).

ある実施形態では、装置は、照明アセンブリに対して画像獲得アセンブリを空間的に固定させるために、照明アセンブリおよび画像獲得アセンブリに取り付けられているマウントを有する。ある実施形態では、画像獲得アセンブリは、第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイと、対物光学系とを有し、この対物光学系は、入射瞳を有し、画像をアレイ上にフォーカシングするために配され、ここで、第1軸に平行である装置の軸であって、かつ、入射瞳とコヒーレント光源により生成されるビームが拡散板を通過するスポットとを通る装置の軸を規定するように、照明アセンブリと画像獲得アセンブリとがマウントによって配されている。このように、第1軸上のみで、1つまたは複数の画像中で獲得された第1次スペックルパターンと、第1次スペックルパターンの参照画像との間でのオフセット値を見つけることにより、三次元マップを導き出すために、プロセッサが配されている。   In certain embodiments, the apparatus has a mount attached to the illumination assembly and the image acquisition assembly to spatially secure the image acquisition assembly relative to the illumination assembly. In some embodiments, the image acquisition assembly includes a detector array and objective optics arranged in a linear pattern defining first and second mutually orthogonal axes, the objective optics comprising: A beam having an entrance pupil and arranged for focusing the image on the array, wherein the beam is generated by the entrance pupil and the coherent light source and is parallel to the first axis. The illumination assembly and the image acquisition assembly are arranged by a mount so as to define an axis of the device through a spot passing through the device. Thus, by finding an offset value between the primary speckle pattern acquired in one or more images and the reference image of the primary speckle pattern only on the first axis. In order to derive a three-dimensional map, a processor is arranged.

1つまたは複数の画像中で獲得された被写体上の複数領域の第1次スペックルパターンと、第1次スペックルパターンの参照画像との間で、各オフセット値を見つけることにより三次元マップを導き出すために、プロセッサが配されており、各オフセットが、領域と画像獲得アセンブリとの間の各距離を示している実施形態もある。通常、画像獲得アセンブリは照明アセンブリから所定の間隔を隔てて位置づけられ、各オフセットは、この間隔により決められる割合で、各距離に比例している。開示された実施形態では、照明アセンブリにより投影される第1次スペックルパターンは、特徴的なサイズのスペックルを有し、画像中のスペックルのサイズは、間隔に依存する許容誤差により像全域で変動し、間隔は、許容誤差が所定の範囲内に収まるように選択される。   A three-dimensional map is obtained by finding each offset value between a primary speckle pattern of a plurality of regions on a subject acquired in one or a plurality of images and a reference image of the primary speckle pattern. In some embodiments, a processor is provided for deriving and each offset indicates a respective distance between the region and the image acquisition assembly. Typically, the image acquisition assembly is positioned at a predetermined distance from the illumination assembly, and each offset is proportional to each distance at a rate determined by this distance. In the disclosed embodiment, the primary speckle pattern projected by the illumination assembly has a characteristic size of speckle, and the size of the speckle in the image depends on the tolerance depending on the spacing. The interval is selected such that the tolerance is within a predetermined range.

追加的に、または、これに代えて、画像獲得アセンブリ中の歪曲のパラメータモデルを用いて、各オフセットを三次元マップの各座標に関連付けるように、プロセッサが配されている。さらに追加的に、または、これに代えて被写体の第1領域中の第1次スペックルパターンと、第1領域に対して相対的に第1オフセット値における参照画像のこれに対応する領域との間で、最初のマッチングを見つけることにより、各オフセットを見つけ、かつ第1の領域に隣接する画素の各オフセット値を見つけるために、第1オフセットに基づいて範囲拡張法を用いるように、プロセッサが配されている。   Additionally or alternatively, a processor is arranged to associate each offset with each coordinate of the three-dimensional map using a parametric model of distortion in the image acquisition assembly. Additionally or alternatively, a first speckle pattern in the first area of the subject and a corresponding area of the reference image at the first offset value relative to the first area. Between the processor to use a range expansion method based on the first offset to find each offset and find each offset value of a pixel adjacent to the first region by finding an initial match. It is arranged.

開示されたある実施形態では、被写体の三次元の動きのマッピングを行うために、被写体が動いている間に連続する獲得画像を処理するように、プロセッサが配されており、被写体は、人間の体の一部分であり、三次元の動きは、人間の体の一部分により行われるジェスチャーであり、ジェスチャーに応答して、コンピュータアプリケーションに入力を提供するために、プロセッサが接続されている。   In certain disclosed embodiments, a processor is arranged to process successive acquired images while the subject is moving in order to map the three-dimensional motion of the subject, A body part, a three-dimensional movement, is a gesture made by a part of the human body, to which a processor is connected to provide input to a computer application in response to the gesture.

照明アセンブリが、ビーム形成装置を有し、これは、装置の検出ボリュームの全域で、拡散板により作られるスペックルパターンのコントラストの変動を減らすように配されている実施形態もある。ある実施形態では、ビーム形成装置は、回折光学素子(DOE)と、拡散板のフーリエ面を規定するように配されたレンズとを有し、DOEは、フーリエ面中に位置づけられている。ビーム形成装置は、拡散板から発せられる光の発散を減らすために配されてもよく、あるいは、拡散板から発せられる光の強度を、照明アセンブリの光軸に横断する面全面で等しくするために配されてもよい。   In some embodiments, the illumination assembly has a beam shaping device that is arranged to reduce the variation in the contrast of the speckle pattern created by the diffuser across the detection volume of the device. In one embodiment, the beam former has a diffractive optical element (DOE) and a lens arranged to define a Fourier plane of the diffuser, the DOE being positioned in the Fourier plane. The beam shaping device may be arranged to reduce the divergence of the light emitted from the diffuser, or to equalize the intensity of the light emitted from the diffuser across the entire plane transverse to the optical axis of the illumination assembly. It may be arranged.

ある実施形態では、プロセッサは、光学相関器を有し、この光学相関器は、参照スペックルパターンを含む回折光学素子(DOE)を有し、また、画像獲得アセンブリは、被写体の複数の副画像をDOE上に投影し、被写体の三次元座標を示す各相関ピークを発生させるように配されたレンズレットアレイを有する。   In some embodiments, the processor includes an optical correlator, the optical correlator includes a diffractive optical element (DOE) that includes a reference speckle pattern, and the image acquisition assembly includes a plurality of sub-images of the subject. Is projected onto the DOE and has a lenslet array arranged to generate each correlation peak indicating the three-dimensional coordinates of the subject.

コヒーレント光源のコヒーレンス長が、1cm未満である実施形態もある。追加的に、または、これに代えて第1次スペックルパターンは、特徴的なサイズを有するスペックルを有し、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的なサイズを調節することができるように、照明アセンブリが構成されている。   In some embodiments, the coherence length of the coherent light source is less than 1 cm. Additionally or alternatively, the primary speckle pattern has speckles having a characteristic size and is characterized by changing the distance between the coherent light source and the diffuser. The lighting assembly is configured so that the correct size can be adjusted.

本発明の1実施形態によれば、被写体上に第1次スペックルパターンを投影するようために、光源から拡散されたコヒーレント光のビームで、被写体を照明する工程と、光源に対して相対的に、単一かつ固定の位置および角度から、被写体上の第1次スペックルパターンの画像を獲得する工程と、被写体の三次元マップを導き出すために、単一かつ固定角度で獲得された第1次スペックルパターンの画像を処理する工程とを有する被写体の三次元マッピング方法が提供される。   According to an embodiment of the present invention, in order to project a primary speckle pattern onto a subject, the step of illuminating the subject with a beam of coherent light diffused from the light source and relative to the light source And obtaining a first speckle pattern image on the subject from a single and fixed position and angle, and a first obtained at a single and fixed angle to derive a three-dimensional map of the subject. And a method of processing a next speckle pattern image.

さらに追加して、本発明の1実施形態によれば、コヒーレンス長が1cm未満であるコヒーレント光源と拡散板とを有し、これらが被写体上に第1次スペックルパターンを投影するよう配された、照明アセンブリと、被写体上の第1次スペックルパターン画像を獲得するように配された画像獲得アセンブリと、被写体の三次元マップを導き出すために、第1次スペックルパターンの画像を処理するために接続されたプロセッサとを有する被写体の三次元マッピング装置が提供される。   In addition, according to one embodiment of the present invention, a coherent light source having a coherence length of less than 1 cm and a diffuser plate are arranged to project a primary speckle pattern on a subject. A lighting assembly, an image acquisition assembly arranged to acquire a primary speckle pattern image on a subject, and a first speckle pattern image to derive a three-dimensional map of the subject. A three-dimensional mapping apparatus for a subject having a processor connected to the computer.

ある実施形態では、コヒーレント光源のコヒーレンス長は0.5mm未満である。追加的に、または、これに代えて、コヒーレント光源の発散は5°より大きい。   In certain embodiments, the coherence length of the coherent light source is less than 0.5 mm. Additionally or alternatively, the divergence of the coherent light source is greater than 5 °.

本発明は、以下の本発明の実施形態の詳細な説明を図面と共に参照すると、より完全に理解されるであろう。   The present invention will be more fully understood by reference to the following detailed description of embodiments of the invention in conjunction with the drawings.

(図面の簡単な説明)
図1は、本発明の1実施形態による三次元マッピングシステムを絵で示した概略図である。

図2は、本発明の1実施形態によるスペックル撮像装置の概略上面図である。

図3は、本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。

図4は、本発明の別の実施形態による、三次元マッピングシステムで用いられる照明アセンブリの概略側面図である。

図5は、本発明の1実施形態によるビーム形成装置の概略側面図である。

図6は、本発明のさらに別の実施形態によるビーム形成装置の概略側面図である。

図7は、本発明のさらに別の1実施形態による、三次元マッピングシステムで用いられる光学相関器の概略側面図である。
(Brief description of the drawings)
FIG. 1 is a schematic diagram illustrating a three-dimensional mapping system according to an embodiment of the present invention.

FIG. 2 is a schematic top view of a speckle imaging device according to an embodiment of the present invention.

FIG. 3 is a flowchart schematically illustrating a 3D mapping method according to an exemplary embodiment of the present invention.

FIG. 4 is a schematic side view of a lighting assembly used in a three-dimensional mapping system according to another embodiment of the present invention.

FIG. 5 is a schematic side view of a beam forming apparatus according to an embodiment of the present invention.

FIG. 6 is a schematic side view of a beam forming apparatus according to still another embodiment of the present invention.

FIG. 7 is a schematic side view of an optical correlator used in a three-dimensional mapping system according to yet another embodiment of the present invention.

図1は、本発明の1実施形態による三次元マッピングシステム20を絵で示した概略図である。システム20は、スペックル撮像装置22を有し、この装置は、第1次スペックルパターンを生成し、被写体28に投影し、この被写体上に現れた第1次スペックルパターンの像を獲得する。装置22の詳細な設計および作用は以下の図面に示し、これに関連して以下に説明する。 FIG. 1 is a schematic diagram illustrating a three-dimensional mapping system 20 according to an embodiment of the present invention. The system 20 includes a speckle imaging device 22, which generates a primary speckle pattern, projects it on a subject 28, and acquires an image of the primary speckle pattern that appears on the subject. . The detailed design and operation of the device 22 is shown in the following drawings and will be described below in connection therewith.

画像プロセッサ24は、被写体28の三次元マップを得るために、装置22により生成された画像データを処理する。本特許出願および請求項で用いられる「三次元マップ」という用語は、被写体面を表す三次元座標群を指す。画像データに基づいてこのようなマップを導き出すことは、「三次元再構成」と呼ぶこともできる。このような再構成を行う画像プロセッサ24は、汎用コンピュータプロセッサを有することができ、ソフトウェア中で、以下に説明する機能を実施するためのプログラミングがされている。このソフトウェアは、例えばネットワークを介して電子的な形態で、プロセッサ24にダウンロードされてもよいし、あるいは、光学、磁力または電子メモリ媒体などの有形メディア上で提供されていてもよい。あるいはまたはこれに加えて、この画像プロセッサのいくつかのまたは全ての機能は、特注または半特注の集積回路またはプログラム可能なデジタル信号プロセッサ(DSP)などの、専用ハードウェア中に実装されてもよい。プロセッサ24は、図1には、例として撮像装置22とは別体のユニットとして示すが、プロセッサ24のいくつかのまたは全ての処理機能は、撮像装置の筐体内で適切な専用の回路によって、または別の方法で撮像装置と関連付けて実施されてもよい。   The image processor 24 processes the image data generated by the device 22 to obtain a three-dimensional map of the subject 28. The term “three-dimensional map” used in the present patent application and claims refers to a group of three-dimensional coordinates representing a subject surface. Deriving such a map based on image data can also be referred to as “three-dimensional reconstruction”. The image processor 24 that performs such reconstruction can have a general-purpose computer processor, and is programmed in software to perform the functions described below. This software may be downloaded to the processor 24 in electronic form, for example via a network, or may be provided on tangible media such as optical, magnetic or electronic memory media. Alternatively or in addition, some or all of the functionality of the image processor may be implemented in dedicated hardware, such as a custom or semi-custom integrated circuit or a programmable digital signal processor (DSP). . Although the processor 24 is shown in FIG. 1 as an example separate unit from the imaging device 22, some or all of the processing functions of the processor 24 are performed by appropriate dedicated circuitry within the housing of the imaging device. Alternatively, it may be performed in association with the imaging apparatus by another method.

プロセッサ24により生成された三次元マップは、広範囲の様々な目的に用いられることができる。例えば、このマップは、被写体の擬似三次元像を示すディスプレイ26のような出力装置に送ることができる。図1の例では、被写体28は、題材となる体の全部分またはその一部(例えば、手)を有する。この場合、システム20は、ジェスチャーベースのユーザインタフェースを提供するために用いられることができ、装置22により検出されたユーザの動きが、マウス、ジョイスティックやその他のアクセサリなどの触知型インタフェース部材に代わって、ゲームなどの対話型のコンピュータアプリケーションを制御する。あるいは、システム20を用いて、三次元座標の輪郭が必要となる実質的にいかなるアプリケーションのために、これ以外の種類の被写体の三次元マップを作ってもよい。   The three-dimensional map generated by the processor 24 can be used for a wide variety of purposes. For example, the map can be sent to an output device such as a display 26 showing a pseudo 3D image of the subject. In the example of FIG. 1, the subject 28 has the whole body part or a part thereof (for example, a hand) as a subject. In this case, the system 20 can be used to provide a gesture-based user interface, where user movement detected by the device 22 is substituted for a tactile interface member such as a mouse, joystick or other accessory. Control interactive computer applications such as games. Alternatively, the system 20 may be used to create a 3D map of other types of subjects for virtually any application where 3D coordinate contours are required.

図2は、本発明の1実施形態による装置22の概略上面図である。照明アセンブリ30は、コヒーレント光源32を有する。これは通常レーザおよび拡散板33である。(本特許出願の分脈中では、「光」という用語は、いずれの種類の光学線をも指し、例えば、赤外線、紫外線および可視光線を含む。)光源32より発せられた光のビームは、半径wのスポット34で、拡散板33を通過し、発散ビーム36を発生させる。上述のPCT特許出願PCT/IL2006/000335号で説明したように、拡散板34によりZobj1およびZobj2の距離に作られた第1次スペックルパターンは、Zobj1およびZobj2の距離が、被写体距離Zobjにおけるスペックルパターンの軸上サイズΔZが、ΔZ=(Zobj/w・λにより与えられた距離の範囲にある場合は、互いの線型でスケーリングされたバージョンの近似値である。 FIG. 2 is a schematic top view of an apparatus 22 according to one embodiment of the present invention. The illumination assembly 30 has a coherent light source 32. This is usually a laser and diffuser plate 33. (In the branch of this patent application, the term “light” refers to any kind of optical line, including, for example, infrared, ultraviolet and visible light.) The beam of light emitted from the light source 32 has a radius A spot 34 of w 0 passes through the diffuser plate 33 and generates a divergent beam 36. As described in the above-mentioned PCT patent application PCT / IL2006 / 000335, the first speckle pattern created by the diffuser plate 34 at a distance of Z obj1 and Z obj2 has a distance of Z obj1 and Z obj2 of If the on-axis size ΔZ of the speckle pattern at the distance Z obj is in the distance range given by ΔZ = (Z obj / w 0 ) 2 · λ, it is an approximation of a linearly scaled version of each other is there.

画像獲得アセンブリ38は、被写体28上に投影されたスペックルパターンの画像を獲得する。アセンブリ38は、画像を画像センサー40上にフォーカシングする対物光学系39を有する。通常、センサー40は、CCDまたはCMOSベースの画像センサーアレイなどの、検出素子41の直線アレイを有する。対物光学系39は、画像センサーの寸法と共に画像獲得アセンブリの視野44を規定する入射瞳42を有する。この装置22の検出ボリュームは、ビーム36と視野44との間で重複領域46を有する。   The image acquisition assembly 38 acquires an image of a speckle pattern projected on the subject 28. The assembly 38 has an objective optical system 39 that focuses an image on the image sensor 40. Typically, sensor 40 has a linear array of detector elements 41, such as a CCD or CMOS based image sensor array. The objective optics 39 has an entrance pupil 42 that defines the field of view 44 of the image acquisition assembly along with the dimensions of the image sensor. The detection volume of this device 22 has an overlap region 46 between the beam 36 and the field of view 44.

objの距離において照明アセンブリ30により投影された特徴的な横断方向のスペックルサイズ(これは、スペックルパターンの二次的な統計により規定される)は、ΔX=(Zobj/W)・λである。発明者らは、光学像処理の効率のためには、センサー40上に結像されるスペックルサイズは、範囲要求および解像度要求に応じて、1〜10画素であるべきで、すなわち、光学系39によりセンサー40上に結像される各スペックルは、水平方向に1〜10個の検出素子41上に伸びていると見出した。通常のアプリケーションでは、スペックルサイズは、2〜3画素で、よい結果をもたらす。 The characteristic transverse speckle size projected by the lighting assembly 30 at a distance of Z obj (which is defined by the secondary statistics of the speckle pattern) is ΔX = (Z obj / W 0 ) • λ. The inventors have found that for the efficiency of optical image processing, the speckle size imaged on the sensor 40 should be between 1 and 10 pixels depending on the range and resolution requirements, i.e. the optical system. It was found that each speckle imaged on the sensor 40 by 39 extends on 1 to 10 detection elements 41 in the horizontal direction. In normal applications, the speckle size is 2-3 pixels and gives good results.

上のΔXに関する式から、スペックルサイズは、光源32と拡散板33との間の距離を変えることにより調節可能であることがわかるが、これはスポット34の半径wが、光源からの距離が長くなるにつれ、大きくなるからである。このように、照明アセンブリ30のスペックルパラメータは、レンズやその他の光学系を用いずとも、単に光源を横方向に移動させることによって、制御可能である。照明アセンブリ30は、このように、異なるサイズと解像度の画像センサーと連携することにより、および異なる倍率の対物光学系と連携することにより調節可能である。上述のパラメータの要求によりスペックルサイズを小さくすることにより、レーザダイオードのような安価な光源を、発散を大きくして(5°以上)かつコヒーレンス長を短くすることにより(1cm未満、および場合によっては、0.5mm未満)、システム20中で用いて、よい効果を出すことができる。 From the above equation for ΔX, it can be seen that the speckle size can be adjusted by changing the distance between the light source 32 and the diffuser plate 33. This is because the radius w 0 of the spot 34 is the distance from the light source. This is because as the length increases, the length increases. Thus, the speckle parameters of the illumination assembly 30 can be controlled by simply moving the light source laterally without using a lens or other optical system. The illumination assembly 30 can thus be adjusted by working with different size and resolution image sensors and by working with different magnification objective optics. By reducing the speckle size according to the requirements of the above parameters, an inexpensive light source such as a laser diode can be produced by increasing the divergence (more than 5 °) and shortening the coherence length (less than 1 cm, and in some cases Can be used in the system 20 to produce good effects.

照明アセンブリ30および画像獲得アセンブリ38は、マウント43により空間中、固定関係で保持されている。図2に図示する実施形態では、このマウントは、これらのアセンブリを保持する筐体を有する。あるいは、これ以外の適切な機械的なマウントを用いて、照明アセンブリと画像獲得アセンブリとの間の所望の空間的関係を維持することができる。装置22の構成および以下に示す処理技術により、照明アセンブリと画像獲得アセンブリとの間を相対的に動かさずとも、また、パーツを動かさずとも、単一の画像獲得アセンブリを用いて三次元マッピングを行うことができる。画像獲得アセンブリ38は、このように、照明アセンブリ30に対して相対的に単一かつ固定的な角度において、画像を獲得することができる。   The illumination assembly 30 and the image acquisition assembly 38 are held in a fixed relationship in space by a mount 43. In the embodiment illustrated in FIG. 2, the mount has a housing that holds these assemblies. Alternatively, other suitable mechanical mounts can be used to maintain the desired spatial relationship between the illumination assembly and the image acquisition assembly. The configuration of the apparatus 22 and the processing techniques described below allow for a three-dimensional mapping using a single image acquisition assembly without relative movement between the illumination assembly and the image acquisition assembly and without moving parts. It can be carried out. The image acquisition assembly 38 can thus acquire an image at a single and fixed angle relative to the illumination assembly 30.

三次元マップの演算を単純にし、被写体28の移動によるマップの変化を単純化するために、以下に示すように、入射瞳42の中心とスポット34とを通る軸が、センサー40の軸のうちの1つに対して平行になるように、マウント43が2つのアセンブリ30・38を保持することが好ましい。すなわち、(対物光学系30の光軸を原点にして)互いに直交するX軸とY軸を規定するために、検出素子41のアレイの列および行を取ると、瞳42とスポット34を通る軸は、アレイの軸のうちの1つ(便宜上、X軸とする)と平行であるべきである。この配置の利点は、以下にさらに説明する。   In order to simplify the calculation of the three-dimensional map and simplify the change of the map due to the movement of the subject 28, the axis passing through the center of the entrance pupil 42 and the spot 34 is the axis of the sensor 40 as shown below. Preferably, the mount 43 holds the two assemblies 30 and 38 so that they are parallel to one of the two. In other words, in order to define an X axis and a Y axis that are orthogonal to each other (with the optical axis of the objective optical system 30 as the origin), taking the columns and rows of the array of detection elements 41, the axis passing through the pupil 42 and the spot 34 Should be parallel to one of the axes of the array (for convenience, the X axis). The advantages of this arrangement are further explained below.

(スポット34と瞳42の中心をそれぞれ通る)アセンブリ30・38の各光軸は、距離Sだけ離れている。これゆえに、Zobjが変わると、画像獲得アセンブリ38により獲得された被写体画像中に、スペックルパターンの歪曲が生じる。特に、三角測距では、図2からわかるように、被写体上の点がZ軸方向にδZだけシフトすると、画像中に観察されるスペックルパターン中に付随して生じる横断方向のシフトδXが、δX≡δZ・S/Zobjのように引き起こされる。 The optical axes of the assemblies 30 and 38 (passing through the centers of the spot 34 and the pupil 42, respectively) are separated by a distance S. Therefore, when Z obj changes, the speckle pattern is distorted in the subject image acquired by the image acquisition assembly 38. In particular, in triangulation, as can be seen from FIG. 2, when a point on the subject is shifted by δZ in the Z-axis direction, a transverse shift δX that accompanies the speckle pattern observed in the image is Triggered as δX≡δZ · S / Z obj .

被写体上の点のZ座標および時間経過によるZ座標のシフトは、既知の距離Zで得られた参照画像に対して相対的に生じた、アセンブリ38により獲得された像中のスペックルのX座標のシフトを測定することにより、算出可能である。すなわち、参照画像中で最もマッチングするスペックル群を見つけるために、獲得された画像の各領域におけるスペックル群は、参照画像と比較される。画像中のスペックルのマッチングする群間で相対的なシフトをすることにより、参照画像に対して相対的である、獲得画像の領域のZ方向のシフトがわかる。スペックルパターンのシフトは、画像相関法またはこれ以外の当該技術分野で公知である画像マッチング演算方法を用いて測定されうる。この方法のいくつかは、上述のPCT特許出願に記載されている。装置22と共に適用される特に有用な別の方法は、2006年3月24日出願の米国仮特許出願60/785,202号(本件特許出願の譲渡人に譲渡され、その開示は本願中に参照することにより盛り込まれている。)に記載されている。   The Z coordinate of the point on the subject and the Z coordinate shift over time occurred relative to the reference image obtained at a known distance Z, and the X coordinate of the speckle in the image acquired by the assembly 38. Can be calculated by measuring the shift. That is, the speckle group in each region of the acquired image is compared with the reference image to find the most matched speckle group in the reference image. By shifting relative between the groups of speckle matching in the image, a shift in the Z direction of the area of the acquired image relative to the reference image is known. The shift of the speckle pattern can be measured using an image correlation method or an image matching calculation method known in the technical field. Some of these methods are described in the above-mentioned PCT patent application. Another particularly useful method applied with apparatus 22 is U.S. Provisional Patent Application 60 / 785,202, filed Mar. 24, 2006 (assigned to the assignee of the present patent application, the disclosure of which is hereby incorporated by reference). It is included by doing.)

さらに、図2に図示したような、瞳42とスポット34とを通るX軸が、センサー40のX軸に平行である配置では、スペックルパターンのシフトδZが、(光学系39による歪曲が無視できる限り)、厳密にX方向に限られ、シフトのY成分は存在しない。したがって、画像マッチング演算は、単純化され、Xシフトによるスペックルの最も近いマッチング群を探す必要があるだけである。すなわち、現在の画像中、参照画像(スペックルパターンの先行するいずれの画像でありうる)に対して相対的に、エリアのδZを算出するために、参照画像に対してX軸方向にシフトさせた現在画像の領域のコピーをチェックするだけで、参照画像に最もよくマッチするシフトδXの値を見つけることができる。   Furthermore, in an arrangement in which the X axis passing through the pupil 42 and the spot 34 is parallel to the X axis of the sensor 40 as shown in FIG. 2, the speckle pattern shift δZ is (ignoring distortion caused by the optical system 39). As far as possible) it is strictly limited to the X direction and there is no Y component of the shift. Therefore, the image matching operation is simplified and it is only necessary to search for the closest matching group of speckles due to X shift. That is, in order to calculate δZ of the area relative to the reference image (which can be any image preceding the speckle pattern) in the current image, the reference image is shifted in the X-axis direction. By simply checking a copy of the current image area, the value of the shift δX that best matches the reference image can be found.

あるいは、装置22の部材の幾何学的配置が、上述の基準からずれている場合、またはレンズ歪曲が重大である場合は、プロセッサは、このずれを補償するためのパラメータモデルを用いることができる。すなわち、既知のずれを測定し、またはその他の方法でモデリングし、プロセッサは、被写体面の実際の三次元座標を見つけるために、ずれのパラメータモデルに応じて、参照画像に対して相対的に適切な(X,Y)方向でのシフトさせた現在の画像のエリアのコピーをチェックすることができる。   Alternatively, if the geometry of the components of the device 22 deviates from the above criteria, or if lens distortion is significant, the processor can use a parametric model to compensate for this deviation. That is, a known displacement is measured or otherwise modeled, and the processor is appropriate relative to the reference image, depending on the displacement parameter model, to find the actual 3D coordinates of the object plane A copy of the current image area shifted in the (X, Y) direction can be checked.

通常、構成および演算面での便宜上、システム20の作動パラメータは、S<<Zobjになるように選択される。(一方、システム20のZ方向の解像度は、S/Zobjの割合に依存するので、所望の解像度を得るためには、Sはシステムの意図する作動距離に対して相対的に十分大きくなくてはならず、)S<<Zobjである限り、照明アセンブリおよび画像獲得アセンブリから、各被写体点までの各距離の値は、近い値となるが、しかし一般的には完全に等しくはならない。したがって、アセンブリ38により獲得されたスペックルパターンの像中のスペックルのスケールは、エリア46全域で、いくらかの誤差γを持って変動する。当該分野で公知の演算方法のいくつかを上述のPCT特許出願中で記載したが、これらを用いて、現在の画像のマッチング領域中のこれらのスケールの変動を、参照画像の対応する領域に対して補償することができる。 Usually, for operational convenience and configuration, the operating parameters of the system 20 are selected to be S << Z obj . (On the other hand, since the resolution in the Z direction of the system 20 depends on the ratio of S / Z obj , S is not sufficiently large relative to the intended working distance of the system to obtain the desired resolution. As long as S) << Z obj , the value of each distance from the illumination assembly and the image acquisition assembly to each subject point will be close, but generally not completely equal. Accordingly, the speckle scale in the speckle pattern image acquired by the assembly 38 varies with some error γ across the area 46. Some of the computation methods known in the art have been described in the above-mentioned PCT patent application, and these are used to account for these scale variations in the matching region of the current image relative to the corresponding region of the reference image. Can be compensated.

しかし、一般的には、プロセッサ24に過剰な演算負荷をかけないようにするため、マッチングさせるウィンドウのサイズに応じて、および、特徴的なスペックルサイズに応じて、γをある所定の限界範囲内に維持することが望まれる。発明者らは、全般的に、特徴的なウィンドウのスケーリングの変動が、1つのスペックルサイズの30%を上回らない範囲に、γを限定すべきであると見出した。画像獲得アセンブリ38の視野の対角θを用いると、γ≡1±(S・sin(θ)/2・Zobj)である。したがって、サイズNのウィンドウの局所的なスペックルパターンの実質的なスケール普遍性は、(S・sin(θ)・N/2・Zobj)<0.3(λ・Zobj/w・psize(Zobj)) であり、ここで、psize(Zobj)は、Zobjにおける画素のサイズである。これらの条件の下で、アセンブリ38により獲得された連続する像フレーム中での被写体のZ軸方向のシフトは、一般に、スペックルスケーリングを明らかに考慮することなく演算されうる。 However, in general, in order not to put an excessive calculation load on the processor 24, γ is set to a predetermined limit range according to the size of a window to be matched and according to a characteristic speckle size. It is desirable to maintain within. The inventors have generally found that γ should be limited to a range where the characteristic window scaling variation does not exceed 30% of one speckle size. Using the diagonal θ of the field of view of the image acquisition assembly 38, γ≡1 ± (S · sin (θ) / 2 · Z obj ). Therefore, the substantial scale universality of the local speckle pattern of the window of size N is (S · sin (θ) · N / 2 · Z obj ) <0.3 (λ · Z obj / w 0 · psize (Z obj )), where psize (Z obj ) is the size of the pixel in Z obj . Under these conditions, the Z-axis shift of the subject in successive image frames acquired by the assembly 38 can generally be computed without explicitly considering speckle scaling.

図3は、システム20を用いた、本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。この方法は、とりわけ、照明アセンブリ30により投影されたスペックルパターンが、時間の経過に応じて実質的に変化しない場合の実施に基づいている。これゆえに、アセンブリに対して相対的に固定位置かつ固定角度にある画像獲得アセンブリ38により獲得された、被写体上に投影されたスペックルパターンの各像を用いて、被写体の三次元マップを精確に演算することができる。   FIG. 3 is a flowchart schematically illustrating a three-dimensional mapping method using the system 20 according to an embodiment of the present invention. This method is based, inter alia, on implementations where the speckle pattern projected by the lighting assembly 30 does not substantially change over time. Therefore, the speckle pattern images projected on the subject acquired by the image acquisition assembly 38 at a fixed position and at a fixed angle relative to the assembly are used to accurately determine the three-dimensional map of the subject. It can be calculated.

被写体をマッピングする前に、既知の空間輪郭を有しかつ装置22から既知の距離だけ離れたある被写体へ、アセンブリ30からスペックルパターンを投影することにより、装置22の較正を行う。(較正ステップ50)通常、このために、既知の距離Zobjにおいて、領域46全域に伸びている平坦な被写体を、較正目標として用いる。画像獲得アセンブリ38は、被写体の参照画像を獲得し、これがプロセッサ24のメモリ中に保存される。この較正ステップは、製造時に行われてもよく、メモリ中に保存された参照画像は、装置22の様々な部品間での相対的な移動が制御なしに行われない限り、このフィールドにおいて用いることができる。メモリを節約し、続く演算を単純化するために、参照画像は、用いるマッチングアルゴリズムにとって適切であるような、閾値に基づいたバイナリ画像などの、データ量を減らした形式で保存することもできる。 Prior to mapping the subject, the device 22 is calibrated by projecting a speckle pattern from the assembly 30 onto a subject having a known spatial contour and a known distance away from the device 22. (Calibration step 50) Typically, for this purpose, a flat object extending across the region 46 at a known distance Z obj is used as the calibration target. The image acquisition assembly 38 acquires a reference image of the subject, which is stored in the memory of the processor 24. This calibration step may be performed at the time of manufacture, and the reference image stored in memory should be used in this field unless relative movement between the various parts of the device 22 is performed without control. Can do. To save memory and simplify subsequent operations, the reference image can also be stored in a reduced amount of data, such as a binary image based on a threshold, as appropriate for the matching algorithm used.

システム20が使用可能な状態になると、装置22を用いて興味のある被写体(この場合、被写体28)の画像を獲得するために、システム20は活性化される(最初の画像獲得ステップ52)。プロセッサ24は、この画像を、保存された較正画像中のスペックルパターンと比較する(マップ演算ステップ54)。画素値が、所定の閾値未満である(あるいは、重要なスペックル情報を含まない)画像の暗い領域は、通常、影領域として分類され、ここからは深さ(Z)情報は、取り出されえない。画像のこれ以外の部分は、おそらくは当該分野において公知の適応的閾値を用いて2値化されることができるか、またはこれ以外の方法でデータ量を減らすことができ、参照画像に対して効率的にマッチングできるようにする。   When the system 20 is ready for use, the system 20 is activated (first image acquisition step 52) to acquire an image of the subject of interest (in this case, the subject 28) using the device 22. The processor 24 compares this image with the speckle pattern in the stored calibration image (map calculation step 54). Dark regions of an image whose pixel value is less than a predetermined threshold (or does not contain important speckle information) are usually classified as shadow regions from which depth (Z) information can be extracted. Absent. The rest of the image can be binarized, possibly using adaptive thresholds known in the art, or can be reduced in other ways to reduce the amount of data and be efficient relative to the reference image. To be able to match.

プロセッサ24は、画像の非影部分内の、あるウィンドウを選択し、このウィンドウ内の副画像を、参照画像の部分と比較し、この副画像が最もよくマッチングする参照画像の部分が見つかるまでこれを続ける。上述し、図2に図示したように、アセンブリ30・38が、X軸に沿って配されている場合、プロセッサは、副画像を、副画像に対して相対的にX方向で変位している参照画像の部分(上述のように、倍率γまでの倍率でスペックルパターンのスケーリングがされている)と比較するので十分である。プロセッサは、参照画像のマッチング部分に対して相対的な、副画像の横断方向でのオフセットを用いて、上述の三角測距の原理に基づいて、副画像内の被写体28面の領域のZ座標を決める。被写体面のこの領域がX−Y面方向にあるのではなく、傾いていたら、副画像内のスペックルパターンは、歪曲を示す。プロセッサ24は、任意であるがスペックル歪曲を分析し、傾斜角度を見積り、これにより三次元マッピングの精度を改善することもできる。   The processor 24 selects a window in the non-shadow part of the image, compares the sub-image in this window with the part of the reference image, and finds it until the part of the reference image that best matches the sub-image is found. Continue. As described above and illustrated in FIG. 2, when the assemblies 30 and 38 are arranged along the X axis, the processor displaces the sub-image in the X direction relative to the sub-image. It is sufficient to compare with the reference image portion (the speckle pattern is scaled at a magnification up to the magnification γ as described above). The processor uses the offset in the transverse direction of the sub-image relative to the matching portion of the reference image, and based on the principle of triangulation described above, the Z coordinate of the area of the subject 28 plane in the sub-image Decide. If this area of the object plane is not in the XY plane direction but is tilted, the speckle pattern in the sub-image shows distortion. The processor 24 can optionally analyze speckle distortion and estimate the tilt angle, thereby improving the accuracy of the three-dimensional mapping.

プロセッサ24は、この第1ウィンドウのマップ座標を出発点として用いて、画像の隣接する領域の座標を算出してもよい。とりわけ、プロセッサが、画像内のある領域と、参照画像内の対応する領域との間に高い相関を見つけると、この領域の参照画像に対する相対的なオフセットは、画像内の隣接する画素のオフセットをうまく予測するのに役立ちうる。プロセッサは、これらの隣接する画素を、初めにマッチングした領域のオフセットに等しいオフセット、またはこれに近い範囲内でのオフセットでもって、参照画像にマッチングさせようとする。このようにして、プロセッサは、マッチング領域の範囲を拡大し、この範囲が端に達するまで、これを続ける。プロセッサは、このようにして、被写体28の三次元輪郭が完成するまで、像の非影領域のZ座標を算出する。この手法は、小さいウィンドウおよび信号雑音比が悪い画像を用いても、迅速にかつ頑健なマッチングができるという利点がある。この目的のために使用可能な演算方法の詳細は、上述のPCT特許出願中に記載されている。   The processor 24 may calculate the coordinates of adjacent areas of the image using the map coordinates of the first window as a starting point. In particular, when the processor finds a high correlation between a region in the image and the corresponding region in the reference image, the relative offset of this region with respect to the reference image is the offset of adjacent pixels in the image. Can help predict well. The processor attempts to match these adjacent pixels to the reference image with an offset equal to or close to the offset of the initially matched region. In this way, the processor expands the range of the matching region and continues this until it reaches the end. In this way, the processor calculates the Z coordinate of the non-shadow region of the image until the three-dimensional contour of the subject 28 is completed. This approach has the advantage of being able to perform fast and robust matching even with small windows and images with a poor signal-to-noise ratio. Details of the computing methods that can be used for this purpose are described in the aforementioned PCT patent application.

上述のステップの結果、プロセッサ24は、最初の画像中で見ることができる被写体面の部分の完全な三次元マップを演算した。しかし、被写体の三次元の動きを追跡するために、この方法を拡張し、連続画像を獲得し、分析することも容易に可能である(次の画像ステップ56)。装置22は、所定のフレーム速度で連続画像を獲得し、プロセッサ24は、各連続画像に基づいて三次元マップを更新する。三次元マップは、望ましい場合、保存されかつ較正された参照画像に対して演算されてもよい。あるいは、被写体は、通常1つの画像フレームから次の画像フレームへとそれほど移動しないので、各連続画像を次のフレーム用の参照画像として用いるのが、しばしばより効率的である。   As a result of the above steps, the processor 24 has computed a complete three-dimensional map of the portion of the object plane that can be seen in the first image. However, it is also possible to easily extend this method to acquire and analyze successive images to track the three-dimensional movement of the subject (next image step 56). The device 22 acquires successive images at a predetermined frame rate, and the processor 24 updates the three-dimensional map based on each successive image. The three-dimensional map may be computed on a stored and calibrated reference image if desired. Alternatively, the subject typically does not move much from one image frame to the next, so it is often more efficient to use each successive image as a reference image for the next frame.

このようにして、プロセッサ24は、各副画像のスペックルの、先行する画像中の同じスペックルに対するX方向の相対的なシフトを演算するために、各連続画像を先行する画像に比較することができる(シフト演算ステップ58)。通常、このシフトは数画素以上にはならないので、演算を迅速に、かつ効率的に行うことができる。各新しい画像がこのように処理された後、プロセッサ24は、更新した三次元マップを出力する(新しいマップ出力ステップ60)。この画像獲得および更新のプロセスは、このようにして無限に行われうる。連続三次元マップの演算が容易であるので、システム20は、単純で、低コストの画像ハードウェアおよび処理ハードウェアを使用しつつ、30フレーム/秒あるいはより速い実時間ビデオ速度で、マップ座標を操作し、出力することができる。さらに、上述したような効率的な画像マッチング演算と範囲拡張法とにより、先行する画像から局所的なシフトが演算できない場合にも、ビデオ速度でシステム20を作動させることができる。   In this way, the processor 24 compares each successive image to the preceding image to compute the relative shift in the X direction of each sub-image speckle relative to the same speckle in the preceding image. (Shift operation step 58). Usually, this shift does not exceed several pixels, so that the calculation can be performed quickly and efficiently. After each new image is processed in this way, the processor 24 outputs an updated three-dimensional map (new map output step 60). This image acquisition and update process can thus be performed indefinitely. Due to the ease of computing continuous 3D maps, the system 20 can map map coordinates at 30 frames per second or faster real-time video speeds using simple, low-cost image and processing hardware. Can be manipulated and output. Furthermore, the efficient image matching computation and range expansion method as described above allows the system 20 to operate at video speed even when a local shift cannot be computed from the preceding image.

システム20のこのような能力のゆえに、広い範囲のアプリケーションにおいて、システム20を適切に使用することができ、特に人間のジェスチャーに基づくマシンインタフェースにこれを実装することができる。このようなインタフェースでは、(プロセッサ24を有し、またはプロセッサにより三次元マップ出力を受け取ることができる)コンピュータが、ユーザの体の部分(例えば、腕、手および/または指、そしておそらく、頭、胴体およびこれ以外の四肢部分など)に対応する三次元マップ中の、1つまたは複数のボリュームを特定する。このコンピュータは、これらの体の部分のある動きに対応するジェスチャーを特定し、これらのジェスチャーに応答して、コンピュータアプリケーションを制御するようにプログラムされている。このようなジェスチャーおよびアプリケーションの一例には、以下のようなものがある。
・マウス解釈およびクリック−コンピュータは、ユーザがテーブル上でマウスを動かし、マウスボタンをクリックしているように、ユーザの手と指の動きを解釈する。
・コンピュータ画面上で、フリーハンドで被写体を指差し、選択し、解釈する。
・ユーザのジェスチャーにより、ゲームで用いられる実際のまたはバーチャルな被写体を打ち、つかみ、動かし、開放するようなコンピュータゲーム。
・ユーザが行うことができる限定された動きを検知することに基づいた、障害者ユーザ用のコンピュータインタフェース。
・バーチャルキーボード上でのタイプ
これ以外のアプリケーションも、当業者には自明であろう。
Because of this capability of the system 20, the system 20 can be used appropriately in a wide range of applications, and can be implemented especially in machine interfaces based on human gestures. In such an interface, a computer (having a processor 24 or capable of receiving a three-dimensional map output by the processor) allows a user's body part (eg, arm, hand and / or finger, and possibly the head, Identify one or more volumes in the 3D map corresponding to the torso and other extremities. The computer is programmed to identify gestures corresponding to certain movements of these body parts and to control computer applications in response to these gestures. Examples of such gestures and applications include:
Mouse Interpretation and Click—The computer interprets the movement of the user's hand and fingers as if the user moved the mouse on the table and clicked the mouse button.
-Point, select, and interpret the subject freehand on the computer screen.
A computer game in which a user's gesture hits, grabs, moves, and releases an actual or virtual subject used in the game.
A computer interface for the disabled user based on detecting limited movement that the user can perform.
Other types of applications on the virtual keyboard will be obvious to those skilled in the art.

図2に戻って、ビーム36が、レイリー距離を越えて広がると、被写体28上に落とされる照明の強度は、Zにほぼ比例して低下する。被写体上に投影されるスペックルパターンのコントラストも、これに応じて低下する。これは特に、光源32の波長の強い周辺光があるときに低下する。したがって、システム20が有用な結果を出すことができる深さの範囲(Z座標)は、Zが大きくて照明が弱いために限定されうる。この点は、当該技術分野で公知であるし、適応制御法および画像制御法により緩和されうる。この種の適切な方法の数例は、上述のPCT特許出願PCT/IL2006/000335号に記載されている。あるいは、または、これに加えて、以下に説明するように、光学ビーム形成装置を用いて、照明の輪郭を改善することができる。 Returning to FIG. 2, the beam 36 and extends beyond the Rayleigh distance, intensity of illumination to be dropped on the subject 28 is reduced substantially in proportion to the Z 2. The contrast of the speckle pattern projected on the subject also decreases accordingly. This particularly decreases when there is ambient light having a strong wavelength of the light source 32. Thus, the depth range (Z coordinate) over which the system 20 can produce useful results can be limited due to the large Z and weak illumination. This point is known in the art and can be mitigated by adaptive control methods and image control methods. Some examples of such suitable methods are described in the above-mentioned PCT patent application PCT / IL2006 / 000335. Alternatively or in addition, an optical beam former can be used to improve the illumination profile, as described below.

図4は、システムの有用な深さ範囲を広くするために、本発明の1実施形態によるシステム20で用いられる照明アセンブリ70の概略側面図である。アセンブリ70は、光源32と拡散板33と共に、ビーム形成装置72を有する。このビーム形成装置は、中間領域76で発散を減らしつつ、この領域で軸上長さZのスペックルパターンの線型スケールを維持するビーム74を発生させるように設計されている。その結果、領域76に渡って被写体28の画像中で、高いスペックルコントラストが維持され、その結果、三次元マッピングシステムにより網羅される深さ範囲が広くなる。領域76中での性能を向上させるために用いられうる光学設計を、以下にいくつか説明する。   FIG. 4 is a schematic side view of a lighting assembly 70 used in the system 20 according to one embodiment of the present invention to increase the useful depth range of the system. The assembly 70 includes a beam forming device 72 together with the light source 32 and the diffusion plate 33. The beam shaping device is designed to generate a beam 74 that reduces the divergence in the intermediate region 76 while maintaining a linear scale of the on-axis length Z speckle pattern in this region. As a result, high speckle contrast is maintained in the image of the subject 28 over the region 76, and as a result, the depth range covered by the three-dimensional mapping system is widened. Several optical designs that can be used to improve performance in region 76 are described below.

図5は、本発明の1実施形態によるビーム形成装置72の概略側面図である。このビーム形成装置は、回折光学素子(DOE)80と、アキシコン82とを有する。DOE80は、拡散板33に当接していてもよいし、あるいは拡散板の表面上でのエッチング層または堆積層として組み込まれてもよい。領域76中でのビーム発散を減らすために、様々な回折設計を用いることができる。例えば、DOE80は、光源32の光軸上に中心を有する同心円あって、かつ円の半径がランダムに分布しているパターンを有しても良い。アキシコン82は、光軸上に中心を置く円錐形の輪郭を有し、すなわち、一種の回転対称プリズムである。DOE80もアキシコン82も、光軸に沿って長い焦点領域を作る効果を有し、その結果、これらの部材のいずれか1つを用いて、ビーム発散を減らした領域を作ることができる。この発散の減少は、2つの部材を共に用いることにより、さらに強化される。   FIG. 5 is a schematic side view of a beam forming device 72 according to one embodiment of the present invention. The beam forming apparatus includes a diffractive optical element (DOE) 80 and an axicon 82. The DOE 80 may be in contact with the diffusion plate 33 or may be incorporated as an etching layer or a deposition layer on the surface of the diffusion plate. Various diffraction designs can be used to reduce beam divergence in region 76. For example, the DOE 80 may have a pattern that is concentric with the center on the optical axis of the light source 32 and that the radius of the circle is randomly distributed. The axicon 82 has a conical outline centered on the optical axis, that is, a kind of rotationally symmetric prism. Both DOE 80 and axicon 82 have the effect of creating a long focal region along the optical axis, so that any one of these members can be used to create a region with reduced beam divergence. This reduction in divergence is further enhanced by using two members together.

図6は、本発明の別の実施形態によるビーム形成装置90の概略側面図である。ビーム形成装置90は、DOE92と、焦点距離がFであるレンズ94・96とを有する。図示したように、これらのレンズは、拡散板33とDOE92とから、焦点距離に等しい距離だけ離れ、したがってDOEは、拡散板のフーリエ平面に位置づけられている。したがって、DOEの透過機能により、拡散板のフーリエ変換は、乗算される。遠い領域では、スペックルパターンは、DOE上のパターンのフーリエ変換により乗算される。   FIG. 6 is a schematic side view of a beam forming apparatus 90 according to another embodiment of the present invention. The beam forming apparatus 90 includes a DOE 92 and lenses 94 and 96 having a focal length F. As shown, these lenses are separated from the diffuser plate 33 and the DOE 92 by a distance equal to the focal length, so that the DOE is located in the Fourier plane of the diffuser plate. Therefore, the Fourier transform of the diffuser is multiplied by the transmission function of the DOE. In the far region, the speckle pattern is multiplied by the Fourier transform of the pattern on the DOE.

図4に示すように、フーリエ変換が発散を減らすように、DOEパターンは選択されうる。および/または、DOEパターンは、照明ビームに渡ってより均一な照明を提供するように選択されうる。後者の課題は、(拡散板33からのビームの角度の強度分布は、中央では明るく、かつ光軸から角度が増えるにつれ低下する傾向にあるが、これとは逆に)中央領域において周辺領域よりも透過を低下させるように部材92を設計することにより達成されうる。興味のあるボリュームに渡って、より均一なスペックルコントラストを与えるためのDOE92またはDOE80(図5)の他の設計も、当業者には自明であり、本発明の枠内にあると考えられる。   As shown in FIG. 4, the DOE pattern can be selected such that the Fourier transform reduces divergence. And / or the DOE pattern can be selected to provide more uniform illumination across the illumination beam. The latter problem is that the intensity distribution of the beam angle from the diffuser plate 33 is brighter in the center and tends to decrease as the angle increases from the optical axis. Can also be achieved by designing member 92 to reduce permeation. Other designs of DOE 92 or DOE 80 (FIG. 5) to provide more uniform speckle contrast across the volume of interest will be obvious to those skilled in the art and are considered within the framework of the present invention.

図7は、システム20で用いられうる、被写体28領域のZ座標を決めるための、本発明のさらに別の1実施形態による光学相関器110の概略側面図である。すなわち、相関器110は、上述したプロセッサ24の機能の一部分を実行する光学技術である。相関器は、非常に高速で、ほぼ同時に、平行して被写体の複数の領域の座標を決めることができる。したがって、迅速に被写体が動くことが特徴的であるアプリケーションには、非常に有用である。   FIG. 7 is a schematic side view of an optical correlator 110 according to yet another embodiment of the present invention for determining the Z coordinate of a subject 28 region that may be used in the system 20. That is, the correlator 110 is an optical technique that performs a part of the functions of the processor 24 described above. The correlator is very fast and can determine the coordinates of multiple regions of the subject in parallel at approximately the same time. Therefore, it is very useful for an application that is characterized by a rapid movement of a subject.

レンズレットアレイ116は、アセンブリ30によるスペックル照明の下、被写体28の複数の副画像を形成する。絞りアレイ118が、アレイ中のレンズレット116の視野を限定し、その結果各副画像は、狭い角度領域からのみの光を含む。第2のレンズレットアレイ120は、副画像をDOE122上に投影する。アレイ120は、アレイ中のレンズレットの焦点距離に等しい距離分だけ、副画像の面からはなれ、等しい距離分だけDOE122面から離れている。後方のレンズレットアレイ124は、DOE122とセンサー40との間に位置し、それぞれレンズレットの焦点距離に等しい距離だけこの各々から離れている。   The lenslet array 116 forms a plurality of sub-images of the subject 28 under speckle illumination by the assembly 30. Aperture array 118 limits the field of view of lenslet 116 in the array so that each sub-image contains light only from a narrow angular region. The second lenslet array 120 projects the sub image on the DOE 122. The array 120 is separated from the sub-image plane by a distance equal to the focal length of the lenslets in the array, and is separated from the DOE 122 plane by an equal distance. The rear lenslet array 124 is located between the DOE 122 and the sensor 40 and is separated from each by a distance equal to the focal length of each lenslet.

DOE122は、被写体128のスペックル像が比較されるべき参照スペックルパターンの空間フーリエ変換である、参照回折パターンを含んでいる。例えば、この参照回折パターンは、光源から既知の距離を隔てた平面を使用して、ステップ50で形成された較正スペックル像のフーリエ変換でありうる。この場合、参照回折パターンは、DOE表面上にエッチングまたは堆積されうる。あるいは、DOE122は、参照回折パターンを動的に投影するように駆動される、空間変調器(SLM)を有しうる。   The DOE 122 includes a reference diffraction pattern that is a spatial Fourier transform of a reference speckle pattern to which the speckle image of the subject 128 is to be compared. For example, the reference diffraction pattern can be a Fourier transform of the calibration speckle image formed in step 50 using a plane that is a known distance from the light source. In this case, the reference diffraction pattern can be etched or deposited on the DOE surface. Alternatively, the DOE 122 can have a spatial modulator (SLM) that is driven to dynamically project the reference diffraction pattern.

いずれの場合も、相関器110は(アレイ中のレンズレット116により形成される)被写体の副画像を、フーリエ空間中の参照スペックルパターンで乗算する。したがって、レンズレットアレイ124によりセンサー40上に投影された強度分布は、参照スペックルパターンと各副画像の相互相関に一致している。一般に、センサー上の強度分布は、複数の相関ピークを有し、各ピークは、副画像の1つに対応している。(アレイ118中の対応する絞りで規定された)対応する副画像の軸に対する各ピークの横断方向でのオフセット値は、被写体28の対応する領域上のスペックルパターンの横断方向での変位に比例している。この変位は、さらに、上述のように、参照スペックルパターン面に対して相対的である領域のZ方向の変位に比例している。このように、センサー40の出力を処理することにより、各副画像の領域のZ座標を決めるために、そして、被写体の三次元マップを演算することができる。   In either case, correlator 110 multiplies the sub-image of the subject (formed by lenslet 116 in the array) with a reference speckle pattern in Fourier space. Therefore, the intensity distribution projected on the sensor 40 by the lenslet array 124 matches the cross-correlation between the reference speckle pattern and each sub-image. In general, the intensity distribution on the sensor has a plurality of correlation peaks, each peak corresponding to one of the sub-images. The offset value in the transverse direction of each peak relative to the axis of the corresponding sub-image (defined by the corresponding aperture in array 118) is proportional to the transverse displacement of the speckle pattern on the corresponding region of the subject 28. is doing. This displacement is further proportional to the displacement in the Z direction of the region that is relative to the reference speckle pattern surface, as described above. In this way, by processing the output of the sensor 40, it is possible to calculate the three-dimensional map of the subject in order to determine the Z coordinate of the area of each sub-image.

上述の実施形態は、システム20の特定の構成と、上述の装置22の設計に関連するが、本発明のある原理は、これ以外の種類のスペックルベースの三次元マッピングのシステムおよび装置にも同様に応用可能である。例えば、上述の実施形態の観点は、複数の画像獲得アセンブリを用いたシステムに応用してもよいし、あるいは画像獲得アセンブリと照明アセンブリとが互いに相対的に可動であるシステムにも応用してもよい。   Although the embodiments described above relate to the specific configuration of the system 20 and the design of the apparatus 22 described above, certain principles of the invention are also applicable to other types of speckle-based three-dimensional mapping systems and apparatuses. It can be applied to. For example, aspects of the above-described embodiments may be applied to a system using a plurality of image acquisition assemblies, or may be applied to a system in which the image acquisition assembly and the illumination assembly are movable relative to each other. Good.

上述の実施形態は例として示したが、本発明は、本願中上で特定的に示し説明した内容に限定されないと理解される。むしろ、本発明の範囲は、上述の記載を読んだ当業者が思いつくであろう、かつ先行技術に開示されていない、本願中の上述の様々な特徴の組み合わせや、一部組み合わせや、これらの変更や修正をも含む。 Although the above embodiments have been shown by way of example, it is understood that the present invention is not limited to what has been particularly shown and described herein. Rather, the scope of the present invention is the combination of the various features described above in this application, any combination thereof, or any combination thereof, as would be conceived by one of ordinary skill in the art upon reading the above description and not disclosed in the prior art. Includes changes and modifications.

本発明の1実施形態による三次元マッピングシステムを絵で示した概略図である。1 is a schematic diagram illustrating a three-dimensional mapping system according to an embodiment of the present invention. 本発明の1実施形態によるスペックル撮像装置の概略上面図である。1 is a schematic top view of a speckle imaging device according to an embodiment of the present invention. 本発明の1実施形態による三次元マッピング方法を概略的に示したフローチャートである。3 is a flowchart schematically illustrating a 3D mapping method according to an exemplary embodiment of the present invention. 本発明の別の実施形態による、三次元マッピングシステムで用いられる照明アセンブリの概略側面図である。FIG. 6 is a schematic side view of a lighting assembly used in a three-dimensional mapping system according to another embodiment of the present invention. 本発明の1実施形態によるビーム形成装置の概略側面図である。1 is a schematic side view of a beam forming apparatus according to an embodiment of the present invention. 本発明のさらに別の実施形態によるビーム形成装置の概略側面図である。It is a schematic side view of the beam forming apparatus by further another embodiment of this invention. 本発明のさらに別の1実施形態による、三次元マッピングシステムで用いられる光学相関器の概略側面図である。FIG. 6 is a schematic side view of an optical correlator used in a three-dimensional mapping system according to yet another embodiment of the present invention.

符号の説明Explanation of symbols

20 三次元マッピングシステム
22 スペックル撮像装置
24 画像プロセッサ
28 被写体
30 照明アセンブリ
32 コヒーレント光源
33 拡散板
38 画像獲得アセンブリ
39 対物光学系
40 画像センサー
20 three-dimensional mapping system 22 speckle imaging device 24 image processor 28 subject 30 illumination assembly 32 coherent light source 33 diffuser plate 38 image acquisition assembly 39 objective optical system 40 image sensor

Claims (44)

被写体上に第1次スペックルパターンを投影するよう配されたコヒーレント光源と拡散板とを有する照明アセンブリと、
前記照明アセンブリに対して相対的に、単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックルパターン画像を獲得するように配された単一の画像獲得アセンブリと、
被写体の三次元マップを導き出すために、前記単一かつ固定角度で獲得された前記第1次スペックルパターンの画像を処理するために接続されたプロセッサと
を有する被写体の三次元マッピング装置。
An illumination assembly having a coherent light source and a diffuser arranged to project a primary speckle pattern onto a subject;
A single image acquisition assembly arranged to acquire the first speckle pattern image on the subject from a single and fixed position and angle relative to the illumination assembly;
A three-dimensional mapping apparatus for a subject comprising a processor connected to process an image of the first speckle pattern acquired at a single fixed angle to derive a three-dimensional map of the subject.
前記照明アセンブリに対して前記画像獲得アセンブリを空間的に固定させるために、前記照明アセンブリおよび前記画像獲得アセンブリに取り付けられているマウントを有する、請求項1に記載の装置。   The apparatus of claim 1, comprising a mount attached to the illumination assembly and the image acquisition assembly for spatially securing the image acquisition assembly relative to the illumination assembly. 前記画像獲得アセンブリは、
第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイと、
入射瞳を有し、かつ、前記画像を前記アレイ上にフォーカシングするために配された対物光学系と
を有し、
前記第1軸に平行な装置の軸であって、かつ、前記入射瞳と前記コヒーレント光源により生成されるビームが前記拡散板を通過するスポットとを通る装置の軸を規定するように、前記照明アセンブリと前記画像獲得アセンブリとがマウントによって配されている、請求項2に記載の装置。
The image acquisition assembly includes:
A detector element array disposed in a linear pattern defining first and second mutually orthogonal axes;
An objective optical system having an entrance pupil and arranged to focus the image on the array;
The illumination axis so as to define an axis of the device parallel to the first axis and passing through the entrance pupil and a spot through which the beam generated by the coherent light source passes through the diffuser. The apparatus of claim 2, wherein the assembly and the image acquisition assembly are arranged by a mount.
前記第1軸上のみで、1つまたは複数の画像中で獲得された前記第1次スペックルパターンと、前記第1次スペックルパターンの参照画像との間でのオフセット値を見つけることにより、三次元マップを導き出すために、プロセッサが配されている、請求項3に記載の装置。   Finding an offset value between the primary speckle pattern acquired in one or more images and a reference image of the primary speckle pattern only on the first axis, The apparatus of claim 3, wherein a processor is arranged to derive a three-dimensional map. 1つまたは複数の画像中で獲得された前記被写体上の複数領域の前記第1次スペックルパターンと、前記第1次スペックルパターンの参照画像との間で、各オフセットを見つけることにより三次元マップを導き出すために、プロセッサが配されており、各オフセットが、前記領域と画像獲得アセンブリとの間の各距離を示している、請求項1に記載の装置。   3D by finding each offset between the first speckle pattern of the plurality of regions on the subject acquired in one or more images and the reference image of the first speckle pattern The apparatus of claim 1, wherein a processor is arranged to derive a map, and each offset indicates a respective distance between the region and the image acquisition assembly. 前記画像獲得アセンブリは前記照明アセンブリから所定の間隔を隔てて位置づけられ、前記各オフセットは、この間隔により決められる割合で、前記各距離に比例している、請求項5に記載の装置。   6. The apparatus of claim 5, wherein the image acquisition assembly is positioned at a predetermined distance from the lighting assembly, and each offset is proportional to each distance at a rate determined by the distance. 前記照明アセンブリにより投影される前記第1次スペックルパターンは、特徴的なサイズのスペックルを有し、前記画像中のスペックルのサイズは、前記間隔に依存する許容誤差により像全域で変動し、前記間隔は、前記許容誤差が所定の範囲内に収まるように選択される、請求項6に記載の装置。   The first speckle pattern projected by the lighting assembly has a speckle of a characteristic size, and the size of the speckle in the image varies across the image due to tolerances that depend on the spacing. 7. The apparatus of claim 6, wherein the interval is selected such that the tolerance is within a predetermined range. 画像獲得アセンブリ中の歪曲のパラメータモデルを用いて、各オフセットを三次元マップの各座標に関連付けるように、前記プロセッサが配されている、請求項5に記載の装置。   6. The apparatus of claim 5, wherein the processor is arranged to associate each offset with each coordinate of a three-dimensional map using a parametric model of distortion in the image acquisition assembly. 前記被写体の第1領域中の第1次スペックルパターンと、前記第1領域に対して相対的に第1オフセット値における参照画像のこれに対応する領域との間で、最初のマッチングを見つけることにより、各オフセットを見つけ、かつ前記第1の領域に隣接する画素の各オフセットを見つけるために、前記第1オフセットに基づいて範囲拡張法を用いるように、前記プロセッサが配されている、請求項5に記載の装置。   Finding an initial match between the primary speckle pattern in the first region of the subject and the region corresponding to this of the reference image at a first offset value relative to the first region; The processor is arranged to use a range expansion method based on the first offset to find each offset and to find each offset of a pixel adjacent to the first region. 5. The apparatus according to 5. 被写体の三次元の動きのマッピングを行うために、前記被写体が動いている間に連続する獲得画像を処理するように、前記プロセッサが配されている、請求項1〜9のいずれかに記載の装置。   10. The processor according to any of claims 1 to 9, wherein the processor is arranged to process successive acquired images while the subject is moving in order to perform a mapping of the three-dimensional movement of the subject. apparatus. 前記被写体は、人間の体の一部分であり、前記三次元の動きは、前記人間の体の一部分により行われるジェスチャーであり、前記ジェスチャーに応答して、コンピュータアプリケーションに入力を提供するために、前記プロセッサが接続されている、請求項10に記載の装置。   The subject is a part of a human body, and the three-dimensional movement is a gesture performed by the part of the human body, in order to provide input to a computer application in response to the gesture The apparatus of claim 10, to which a processor is connected. 前記照明アセンブリは、ビーム形成装置を有し、これは、前記装置の検出ボリュームの全域で、拡散板により作られるスペックルパターンのコントラストの変動を減らすように配されている、請求項1〜9のいずれかに記載の装置。   10. The illumination assembly comprises a beam shaping device, which is arranged to reduce the variation in the contrast of the speckle pattern created by the diffuser throughout the detection volume of the device. The apparatus in any one of. 前記ビーム形成装置は、回折光学素子(DOE)を有する、請求項12に記載の装置。   The apparatus according to claim 12, wherein the beam shaping device comprises a diffractive optical element (DOE). 前記ビーム形成装置は、前記拡散板のフーリエ面を規定するように配されたレンズを有し、前記DOEは、フーリエ面中に位置づけられている、請求項13に記載の装置。   The apparatus of claim 13, wherein the beam former has a lens arranged to define a Fourier plane of the diffuser, and the DOE is positioned in the Fourier plane. 前記ビーム形成装置は、拡散板から発せられる光の発散を減らすために配されている、請求項12に記載の装置。   The apparatus according to claim 12, wherein the beam forming device is arranged to reduce divergence of light emitted from the diffuser. 前記ビーム形成装置は、拡散板から発せられる光の強度を、前記照明アセンブリの光軸に横断する面全面で等しくするために配されている、請求項12に記載の装置。   The apparatus according to claim 12, wherein the beam shaping device is arranged to equalize the intensity of light emitted from the diffuser across the entire surface transverse to the optical axis of the illumination assembly. 前記プロセッサは、光学相関器を有する請求項1〜9のいずれかに記載の装置。   The apparatus according to claim 1, wherein the processor comprises an optical correlator. 前記光学相関器は、参照スペックルパターンを含む回折光学素子(DOE)を有し、前記画像獲得アセンブリは、被写体の複数の副画像をDOE上に投影し、被写体の三次元座標を示す各相関ピークを発生させるレンズレットアレイを有する、請求項17に記載の装置。   The optical correlator has a diffractive optical element (DOE) that includes a reference speckle pattern, and the image acquisition assembly projects a plurality of sub-images of the subject onto the DOE, each correlation indicating the three-dimensional coordinates of the subject. The apparatus of claim 17, comprising a lenslet array that generates peaks. 前記コヒーレント光源のコヒーレンス長は、1cm未満である、請求項1〜9のいずれかに記載の装置。   The apparatus according to claim 1, wherein a coherence length of the coherent light source is less than 1 cm. 前記第1次スペックルパターンは、特徴的なサイズを有するスペックルを有し、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的なサイズを調節することができるように、前記照明アセンブリが構成されている、請求項1〜9のいずれかに記載の装置。   The first speckle pattern has a speckle having a characteristic size, and the characteristic size of the speckle can be adjusted by changing a distance between the coherent light source and the diffusion plate. 10. An apparatus according to any preceding claim, wherein the lighting assembly is configured. 被写体上に第1次スペックルパターンを投影するようために、光源から拡散されたコヒーレント光のビームで、被写体を照明する工程と、
前記光源に対して相対的に、単一かつ固定の位置および角度から、前記被写体上の前記第1次スペックルパターンの画像を獲得する工程と、
被写体の三次元マップを導き出すために、前記単一かつ固定角度で獲得された前記第1次スペックルパターンの画像を処理する工程と
を有する被写体の三次元マッピング方法。
Illuminating the subject with a beam of coherent light diffused from a light source to project a primary speckle pattern onto the subject;
Obtaining an image of the first speckle pattern on the subject from a single and fixed position and angle relative to the light source;
Processing a first speckle pattern image acquired at a single fixed angle to derive a three-dimensional map of the subject.
前記画像を獲得する工程は、画像を獲得している間、前記光源に対して空間的に固定された画像獲得アセンブリを用いて画像を獲得する工程を有する、請求項21に記載の方法。   The method of claim 21, wherein acquiring the image comprises acquiring an image using an image acquisition assembly spatially fixed to the light source while acquiring the image. 前記画像獲得アセンブリは、第1および第2の互いに直交する軸を規定する直線パターン中に配された、検出素子アレイを有し、前記光源は、拡散板を有し、
前記画像を獲得する工程は、前記画像獲得アセンブリの入射瞳と、前記第1軸に平行である装置の軸に沿って前記拡散板をビームが通過するスポットとを一直線に並べる工程を有する、請求項22項に記載の方法。
The image acquisition assembly has an array of detector elements arranged in a linear pattern defining first and second mutually orthogonal axes, the light source has a diffuser plate,
Acquiring the image comprises aligning an entrance pupil of the image acquisition assembly and a spot through which the beam passes through the diffuser plate along an axis of the device that is parallel to the first axis. Item 23. The method according to Item 22.
前記画像を処理する工程は、前記第1軸上のみで、1つまたは複数の画像中で獲得された前記第1次スペックルパターンと、前記第1次スペックルパターンの参照画像との間でのオフセットを見つける工程を有する、請求項23に記載の方法。   The step of processing the image is between the first speckle pattern acquired in one or more images and the reference image of the first speckle pattern only on the first axis. 24. The method of claim 23, comprising the step of finding an offset. 前記画像を処理する工程は、1つまたは複数の画像中で獲得された前記被写体の複数領域上の前記第1次スペックルパターンと、前記第1次スペックルパターンの参照画像との間で、各オフセットを見つける工程を有し、ここで、前記各オフセットが、前記領域と画像獲得アセンブリとの間の各距離を示している、請求項21に記載の方法。   The step of processing the image includes between the first speckle pattern on the plurality of areas of the subject acquired in one or more images and a reference image of the first speckle pattern, The method of claim 21, comprising finding each offset, wherein each offset indicates a distance between the region and the image acquisition assembly. 前記各オフセットは、前記光源から固定的な位置の間隔により決められる割合で、前記各距離に比例している、請求項25に記載の方法。   26. The method of claim 25, wherein each offset is proportional to each distance at a rate determined by a fixed position spacing from the light source. 前記第1次スペックルパターンは、特徴的なサイズのスペックルを有し、前記画像中のスペックルのサイズは、前記間隔に依存する許容誤差により像全域で変動し、前記画像を獲得する工程は、前記許容誤差が所定の範囲内に収まるように前記間隔を選択する工程を有する、請求項26に記載の方法。   The primary speckle pattern has speckles having a characteristic size, and the size of speckles in the image varies in the entire image due to an allowable error depending on the interval, thereby acquiring the image. 27. The method of claim 26, comprising selecting the interval such that the tolerance is within a predetermined range. 前記各オフセットを見つける工程は、前記画像獲得アセンブリ中の歪曲のパラメータモデルを用いて、各オフセット値を三次元マップの各座標に関連付ける工程を有する、請求項25に記載の方法。   26. The method of claim 25, wherein finding each offset comprises associating each offset value with a coordinate of a three-dimensional map using a parametric model of distortion in the image acquisition assembly. 前記各オフセットを見つける工程は、前記被写体の第1領域中の第1次スペックルパターンと、前記第1領域に対して相対的に第1オフセット値における参照画像のこれに対応する領域との間で、最初のマッチングを見つける工程と、前記第1オフセットに基づいて範囲拡張法を用いる工程とを有し、これにより前記第1の領域に隣接する画素の各オフセットを見つける、請求項25に記載の装置。   The step of finding each offset is between a first speckle pattern in the first region of the subject and a region corresponding to this of the reference image at a first offset value relative to the first region. The method of claim 25, comprising: finding an initial match; and using a range extension method based on the first offset, thereby finding each offset of a pixel adjacent to the first region. Equipment. 前記画像を処理する工程は、被写体の三次元の動きのマッピングを行うために、前記被写体が動いている間に連続する獲得画像を処理する工程を有する、請求項21〜29のいずれかに記載の方法。   30. The process according to any one of claims 21 to 29, wherein the step of processing the image includes a step of processing consecutive acquired images while the subject is moving in order to perform mapping of a three-dimensional movement of the subject. the method of. 前記被写体は、人間の体の一部分であり、前記三次元の動きは、前記人間の体の一部分により行われるジェスチャーであり、前記画像を処理する工程は、前記ジェスチャーに応答して、コンピュータアプリケーションに入力を提供する工程を有する、請求項30に記載の方法。   The subject is a part of a human body, the three-dimensional movement is a gesture performed by the part of the human body, and the step of processing the image is performed on a computer application in response to the gesture. 32. The method of claim 30, comprising providing an input. 前記被写体を照明する工程は、所定の検出ボリュームの全域で、前記光源により作られるスペックルパターンのコントラストの変動を減らすようにビームを形成する工程を有する、請求項21〜29のいずれかに記載の方法。   30. The step of illuminating the subject includes a step of forming a beam so as to reduce a variation in a contrast of a speckle pattern created by the light source over an entire predetermined detection volume. the method of. 前記ビームを形成する工程は、ビームが回折光学素子(DOE)を通過する工程を有する、請求項32項に記載の方法。   33. The method of claim 32, wherein forming the beam comprises passing the beam through a diffractive optical element (DOE). 前記光源は、拡散板を有し、前記ビームを通過させる工程は、前記DOEを拡散板のフーリエ面中に配する工程を有する、請求項33に記載の方法。   34. The method of claim 33, wherein the light source comprises a diffuser and the step of passing the beam comprises disposing the DOE in a Fourier plane of the diffuser. 前記ビームを形成する工程は、ビームの発散を減らす工程を有する、請求項32に記載の方法。   The method of claim 32, wherein forming the beam comprises reducing beam divergence. 前記ビームを形成する工程は、前記ビームの強度を、前記光源の光軸に横断する面全面で等しくする工程を有する、請求項32に記載の方法。   The method of claim 32, wherein forming the beam comprises equalizing the intensity of the beam over an entire surface transverse to the optical axis of the light source. 前記画像を処理する工程は、画像を光学相関器に当てる工程を有する、請求項21〜29のいずれかに記載の方法。   30. A method according to any of claims 21 to 29, wherein processing the image comprises applying the image to an optical correlator. 前記光学相関器は、参照スペックルパターンを含む回折光学素子(DOE)を有し、前記画像を獲得する工程は、被写体の三次元座標を示す各相関ピークを発生させるために、被写体の複数の副画像をDOE上に投影する工程を有する、請求項37に記載の方法。   The optical correlator includes a diffractive optical element (DOE) including a reference speckle pattern, and the step of acquiring the image includes generating a plurality of correlation peaks indicating a three-dimensional coordinate of the subject. 38. The method of claim 37, comprising projecting the sub-image onto the DOE. 前記コヒーレント光源のコヒーレンス長は、1cm未満である、請求項21〜29に記載の方法。   30. A method according to claims 21 to 29, wherein the coherence length of the coherent light source is less than 1 cm. 前記被写体を照明する工程は、前記第1次スペックルパターンを作るために、前記コヒーレント光源から拡散板を通って光を通過させる工程を有し、前記第1次スペックルパターンは、特徴的なサイズを有するスペックルを有し、前記方法は、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的なサイズを調節する工程を有する、請求項21〜29のいずれかに記載の方法。   The step of illuminating the subject includes the step of passing light from the coherent light source through a diffuser to produce the primary speckle pattern, wherein the primary speckle pattern is characterized by 30. A speckle having a size, the method comprising adjusting the characteristic size of the speckle by changing the distance between the coherent light source and the diffuser. The method described in 1. コヒーレンス長が1cm未満であるコヒーレント光源と拡散板とを有し、これらが被写体上に第1次スペックルパターンを投影するよう配された、照明アセンブリと、
前記被写体上の前記第1次スペックルパターン画像を獲得するように配された画像獲得アセンブリと、
被写体の三次元マップを導き出すために、前記第1次スペックルパターンの画像を処理するために接続されたプロセッサと
を有する被写体の三次元マッピング装置。
An illumination assembly having a coherent light source and a diffuser having a coherence length of less than 1 cm, and arranged to project a primary speckle pattern on the subject;
An image acquisition assembly arranged to acquire the first speckle pattern image on the subject;
A three-dimensional mapping apparatus for a subject having a processor connected to process an image of the first speckle pattern to derive a three-dimensional map of the subject.
前記コヒーレント光源のコヒーレンス長は0.5mm未満である、請求項41に記載の装置。   42. The apparatus according to claim 41, wherein the coherence length of the coherent light source is less than 0.5 mm. 前記コヒーレント光源の発散は5°より大きい、請求項41または42のいずれかに記載の装置。   43. Apparatus according to any of claims 41 or 42, wherein the divergence of the coherent light source is greater than 5 [deg.]. 前記第1次スペックルパターンは、特徴的なサイズを有するスペックルを有し、コヒーレント光源と拡散板との間の距離を変えることにより、スペックルの特徴的なサイズを調節することができるように、前記照明アセンブリが構成されている、請求項41または42のいずれかに記載の装置。   The first speckle pattern has a speckle having a characteristic size, and the characteristic size of the speckle can be adjusted by changing a distance between the coherent light source and the diffusion plate. 43. An apparatus according to any of claims 41 or 42, wherein the illumination assembly is configured.
JP2008558981A 2006-03-14 2007-03-08 3D detection using speckle patterns Active JP5174684B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
PCT/IL2006/000335 WO2007043036A1 (en) 2005-10-11 2006-03-14 Method and system for object reconstruction
ILPCT/IL2006/000335 2006-03-14
US78518706P 2006-03-24 2006-03-24
US60/785,187 2006-03-24
PCT/IL2007/000306 WO2007105205A2 (en) 2006-03-14 2007-03-08 Three-dimensional sensing using speckle patterns

Publications (3)

Publication Number Publication Date
JP2009531655A true JP2009531655A (en) 2009-09-03
JP2009531655A5 JP2009531655A5 (en) 2010-03-04
JP5174684B2 JP5174684B2 (en) 2013-04-03

Family

ID=38509871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008558981A Active JP5174684B2 (en) 2006-03-14 2007-03-08 3D detection using speckle patterns

Country Status (5)

Country Link
US (2) US8390821B2 (en)
JP (1) JP5174684B2 (en)
KR (1) KR101331543B1 (en)
CN (1) CN101496033B (en)
WO (1) WO2007105205A2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160420A (en) * 2010-02-02 2011-08-18 Primesense Ltd Synchronization of projected illumination with rolling shutter of image sensor
JP2011170319A (en) * 2009-11-15 2011-09-01 Primesense Ltd Optical projector with beam monitor
JP2012194543A (en) * 2011-03-03 2012-10-11 Asahi Glass Co Ltd Diffraction optical element and measurement instrument
JP2013033204A (en) * 2011-06-28 2013-02-14 Asahi Glass Co Ltd Diffraction optical element and measurement apparatus
US8599484B2 (en) 2010-08-10 2013-12-03 Asahi Glass Company, Limited Diffractive optical element and measuring device
JP2015501938A (en) * 2011-12-16 2015-01-19 フリードリヒ−シラー−ユニバーシタット イエナ 3D measurement method for objects with limited depth
US8995057B2 (en) 2010-11-02 2015-03-31 Asahi Glass Company, Limited Diffractive optical element and measurement instrument
KR20150084680A (en) * 2014-01-13 2015-07-22 페블스 리미티드. Sub-resolution optical detection
JP5849954B2 (en) * 2010-08-06 2016-02-03 旭硝子株式会社 Diffractive optical element and measuring device
JP2018503106A (en) * 2014-12-27 2018-02-01 ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. System and method for detecting surface vibration
US9897438B2 (en) 2013-09-02 2018-02-20 Asahi Glass Company, Limited Diffraction optical element, projection device, and measurement device
JP2020531794A (en) * 2017-08-31 2020-11-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Solid-state photodetection and range-finding (LIDAR) systems, systems and methods for improving solid-state light detection and range-finding (LIDAR) resolution.
US11675076B2 (en) 2017-08-31 2023-06-13 SZ DJI Technology Co., Ltd. Solid state light detection and ranging (LIDAR) system and system and method for improving solid state light detection and ranging (LIDAR) resolution

Families Citing this family (191)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330324B2 (en) * 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
US20110096182A1 (en) * 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
WO2007105205A2 (en) 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
KR101408959B1 (en) * 2006-03-14 2014-07-02 프라임센스 엘티디. Depth-varying light fields for three dimensional sensing
WO2007105215A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
CN103778635B (en) * 2006-05-11 2016-09-28 苹果公司 For the method and apparatus processing data
WO2008087652A2 (en) * 2007-01-21 2008-07-24 Prime Sense Ltd. Depth mapping using multi-beam illumination
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
WO2008155770A2 (en) 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
FR2921719B1 (en) * 2007-09-28 2010-03-12 Noomeo METHOD FOR CONSTRUCTING A SYNTHESIS IMAGE OF A THREE-DIMENSIONAL SURFACE OF A PHYSICAL OBJECT
DE102007058590B4 (en) * 2007-12-04 2010-09-16 Sirona Dental Systems Gmbh Recording method for an image of a recording object and recording device
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
WO2009093228A2 (en) * 2008-01-21 2009-07-30 Prime Sense Ltd. Optical designs for zero order reduction
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
GB2463724B (en) * 2008-09-26 2011-05-04 Cybula Ltd Forming 3D images
FR2940423B1 (en) 2008-12-22 2011-05-27 Noomeo DENSE RECONSTRUCTION THREE-DIMENSIONAL SCANNING DEVICE
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
CA2763826C (en) 2009-06-17 2020-04-07 3Shape A/S Focus scanning apparatus
WO2011013079A1 (en) 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
CN102022979A (en) * 2009-09-21 2011-04-20 鸿富锦精密工业(深圳)有限公司 Three-dimensional optical sensing system
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
JP4783456B2 (en) * 2009-12-22 2011-09-28 株式会社東芝 Video playback apparatus and video playback method
US20110188054A1 (en) * 2010-02-02 2011-08-04 Primesense Ltd Integrated photonics module for optical projection
US8786757B2 (en) 2010-02-23 2014-07-22 Primesense Ltd. Wideband ambient light rejection
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
BR112012026354A8 (en) * 2010-04-13 2018-05-08 Nokia Corp device, method, computer program, and user interface
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
GB2494081B (en) 2010-05-20 2015-11-11 Irobot Corp Mobile human interface robot
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
JP5791131B2 (en) 2010-07-20 2015-10-07 アップル インコーポレイテッド Interactive reality extension for natural interactions
US9036158B2 (en) 2010-08-11 2015-05-19 Apple Inc. Pattern projector
WO2012020380A1 (en) 2010-08-11 2012-02-16 Primesense Ltd. Scanning projectors and image capture modules for 3d mapping
US9348111B2 (en) 2010-08-24 2016-05-24 Apple Inc. Automatic detection of lens deviations
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
IL208568B (en) * 2010-10-07 2018-06-28 Elbit Systems Ltd Mapping, detecting and tracking objects in an arbitrary outdoor scene using active vision
KR20120046973A (en) * 2010-11-03 2012-05-11 삼성전자주식회사 Method and apparatus for generating motion information
EP2643659B1 (en) 2010-11-19 2019-12-25 Apple Inc. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
EP2466560A1 (en) 2010-12-20 2012-06-20 Axis AB Method and system for monitoring the accessibility of an emergency exit
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
EP2659320A2 (en) 2010-12-30 2013-11-06 iRobot Corporation Mobile human interface robot
US8717488B2 (en) 2011-01-18 2014-05-06 Primesense Ltd. Objective optics with interference filter
CN106125921B (en) 2011-02-09 2019-01-15 苹果公司 Gaze detection in 3D map environment
US9052512B2 (en) 2011-03-03 2015-06-09 Asahi Glass Company, Limited Diffractive optical element and measuring apparatus
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
CN102760234B (en) 2011-04-14 2014-08-20 财团法人工业技术研究院 Depth image acquisition device, system and method
WO2012147702A1 (en) 2011-04-28 2012-11-01 シャープ株式会社 Head-mounted display
JP5214062B1 (en) * 2011-04-28 2013-06-19 三洋電機株式会社 Information acquisition device and object detection device
EP2530442A1 (en) 2011-05-30 2012-12-05 Axis AB Methods and apparatus for thermographic measurements.
JP5926500B2 (en) * 2011-06-07 2016-05-25 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5298161B2 (en) * 2011-06-13 2013-09-25 シャープ株式会社 Operating device and image forming apparatus
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US8869073B2 (en) * 2011-07-28 2014-10-21 Hewlett-Packard Development Company, L.P. Hand pose interaction
US8908277B2 (en) 2011-08-09 2014-12-09 Apple Inc Lens array projector
US8749796B2 (en) 2011-08-09 2014-06-10 Primesense Ltd. Projectors of structured light
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
FR2980292B1 (en) 2011-09-16 2013-10-11 Prynel METHOD AND SYSTEM FOR ACQUIRING AND PROCESSING IMAGES FOR MOTION DETECTION
WO2013067526A1 (en) 2011-11-04 2013-05-10 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device
EP2611169A1 (en) 2011-12-27 2013-07-03 Thomson Licensing Device for the acquisition of stereoscopic images
SI2618316T1 (en) 2012-01-23 2018-12-31 Novomatic Ag Wheel of fortune with gesture control
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
WO2013126784A2 (en) 2012-02-23 2013-08-29 Huston Charles D System and method for creating an environment and for sharing a location based experience in an environment
US10937239B2 (en) 2012-02-23 2021-03-02 Charles D. Huston System and method for creating an environment and for sharing an event
US10600235B2 (en) 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
KR101898490B1 (en) * 2012-02-29 2018-09-13 엘지전자 주식회사 Holographic display device and method for generating hologram using redundancy of 3-D video
CN104221059B (en) 2012-03-22 2017-05-10 苹果公司 Diffraction-based sensing of mirror position
US11169611B2 (en) 2012-03-26 2021-11-09 Apple Inc. Enhanced virtual touchpad
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
CN103424077A (en) * 2012-05-23 2013-12-04 联想(北京)有限公司 Motion detection device, detection method and electronic equipment
CN102681183B (en) * 2012-05-25 2015-01-07 合肥鼎臣光电科技有限责任公司 Two-way three-dimensional imaging and naked-eye three-dimensional display system based on lens array
DE112012006199T5 (en) * 2012-06-30 2014-12-24 Hewlett-Packard Development Company, L.P. Virtual hand based on combined data
US8896594B2 (en) * 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
BR112015003885A2 (en) 2012-08-27 2017-07-04 Koninklijke Philips Nv equipment; method; imaging system; computer program element for controlling equipment; and computer readable media
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
DE102012110460A1 (en) * 2012-10-31 2014-04-30 Audi Ag A method for entering a control command for a component of a motor vehicle
US9661304B2 (en) * 2012-10-31 2017-05-23 Ricoh Company, Ltd. Pre-calculation of sine waves for pixel values
JP6155448B2 (en) 2012-11-01 2017-07-05 アイカム エルエルシー Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing
US9152234B2 (en) 2012-12-02 2015-10-06 Apple Inc. Detecting user intent to remove a pluggable peripheral device
US9217665B2 (en) 2013-01-31 2015-12-22 Hewlett Packard Enterprise Development Lp Viewing-angle imaging using lenslet array
NL2010213C2 (en) 2013-01-31 2014-08-04 Lely Patent Nv Camera system, animal related system therewith, and method to create 3d camera images.
JP6044403B2 (en) * 2013-03-18 2016-12-14 富士通株式会社 Imaging apparatus, imaging method, and imaging program
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
CN103268608B (en) * 2013-05-17 2015-12-02 清华大学 Based on depth estimation method and the device of near-infrared laser speckle
CN105705962B (en) * 2013-06-06 2019-02-01 新加坡恒立私人有限公司 Sensing system with active illumination
EP3010417B1 (en) 2013-06-19 2017-02-15 Koninklijke Philips N.V. Calibration of imagers with dynamic beam shapers
CN109755859B (en) 2013-06-19 2021-12-17 苹果公司 Integrated structured light projector
US9208566B2 (en) 2013-08-09 2015-12-08 Microsoft Technology Licensing, Llc Speckle sensing for motion tracking
TWI485361B (en) * 2013-09-11 2015-05-21 Univ Nat Taiwan Measuring apparatus for three-dimensional profilometry and method thereof
KR102159996B1 (en) * 2013-12-16 2020-09-25 삼성전자주식회사 Event filtering device and motion recognition device thereof
US9528906B1 (en) 2013-12-19 2016-12-27 Apple Inc. Monitoring DOE performance using total internal reflection
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
WO2015148604A1 (en) 2014-03-25 2015-10-01 Massachusetts Institute Of Technology Space-time modulated active 3d imager
WO2015152829A1 (en) 2014-04-03 2015-10-08 Heptagon Micro Optics Pte. Ltd. Structured-stereo imaging assembly including separate imagers for different wavelengths
US10455212B1 (en) * 2014-08-25 2019-10-22 X Development Llc Projected pattern motion/vibration for depth sensing
USD733141S1 (en) 2014-09-10 2015-06-30 Faro Technologies, Inc. Laser scanner
US9841496B2 (en) 2014-11-21 2017-12-12 Microsoft Technology Licensing, Llc Multiple pattern illumination optics for time of flight system
US9881235B1 (en) 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
TWI564754B (en) * 2014-11-24 2017-01-01 圓剛科技股份有限公司 Spatial motion sensing device and spatial motion sensing method
JP6309174B1 (en) * 2014-12-18 2018-04-11 フェイスブック,インク. System, apparatus, and method for providing a user interface in a virtual reality environment
FI126498B (en) * 2014-12-29 2017-01-13 Helmee Imaging Oy Optical measuring system
US10186034B2 (en) 2015-01-20 2019-01-22 Ricoh Company, Ltd. Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
US9958758B2 (en) * 2015-01-21 2018-05-01 Microsoft Technology Licensing, Llc Multiple exposure structured light pattern
US10509147B2 (en) 2015-01-29 2019-12-17 ams Sensors Singapore Pte. Ltd Apparatus for producing patterned illumination using arrays of light sources and lenses
US9817159B2 (en) 2015-01-31 2017-11-14 Microsoft Technology Licensing, Llc Structured light pattern generation
JP6575795B2 (en) 2015-03-11 2019-09-18 パナソニックIpマネジメント株式会社 Human detection system
US9530215B2 (en) * 2015-03-20 2016-12-27 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
US10001583B2 (en) 2015-04-06 2018-06-19 Heptagon Micro Optics Pte. Ltd. Structured light projection using a compound patterned mask
US9525863B2 (en) 2015-04-29 2016-12-20 Apple Inc. Time-of-flight depth mapping with flexible scan pattern
WO2016183395A1 (en) * 2015-05-13 2016-11-17 Oculus Vr, Llc Augmenting a depth map representation with a reflectivity map representation
WO2016195684A1 (en) * 2015-06-04 2016-12-08 Siemens Healthcare Gmbh Apparatus and methods for a projection display device on x-ray imaging devices
JP6566768B2 (en) * 2015-07-30 2019-08-28 キヤノン株式会社 Information processing apparatus, information processing method, and program
US10012831B2 (en) 2015-08-03 2018-07-03 Apple Inc. Optical monitoring of scan parameters
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US11057608B2 (en) 2016-01-04 2021-07-06 Qualcomm Incorporated Depth map generation in structured light system
JP6668763B2 (en) 2016-01-13 2020-03-18 セイコーエプソン株式会社 Image recognition device, image recognition method, and image recognition unit
JP6668764B2 (en) 2016-01-13 2020-03-18 セイコーエプソン株式会社 Image recognition device, image recognition method, and image recognition unit
JP6631261B2 (en) 2016-01-14 2020-01-15 セイコーエプソン株式会社 Image recognition device, image recognition method, and image recognition unit
US10154234B2 (en) * 2016-03-16 2018-12-11 Omnivision Technologies, Inc. Image sensor with peripheral 3A-control sensors and associated imaging system
KR101745651B1 (en) * 2016-03-29 2017-06-09 전자부품연구원 System and method for recognizing hand gesture
US10489924B2 (en) 2016-03-30 2019-11-26 Samsung Electronics Co., Ltd. Structured light generator and object recognition apparatus including the same
JP6607121B2 (en) 2016-03-30 2019-11-20 セイコーエプソン株式会社 Image recognition apparatus, image recognition method, and image recognition unit
US10474297B2 (en) 2016-07-20 2019-11-12 Ams Sensors Singapore Pte. Ltd. Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
US10241244B2 (en) 2016-07-29 2019-03-26 Lumentum Operations Llc Thin film total internal reflection diffraction grating for single polarization or dual polarization
US10481740B2 (en) 2016-08-01 2019-11-19 Ams Sensors Singapore Pte. Ltd. Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
US10775508B1 (en) * 2016-08-19 2020-09-15 Apple Inc. Remote sensing device
US10073004B2 (en) 2016-09-19 2018-09-11 Apple Inc. DOE defect monitoring utilizing total internal reflection
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
TWI587206B (en) * 2016-11-24 2017-06-11 財團法人工業技術研究院 Interactive display device and system thereof
US10499039B2 (en) 2016-12-15 2019-12-03 Egismos Technology Corporation Path detection system and path detection method generating laser pattern by diffractive optical element
US10158845B2 (en) 2017-01-18 2018-12-18 Facebook Technologies, Llc Tileable structured light projection for wide field-of-view depth sensing
US10620447B2 (en) * 2017-01-19 2020-04-14 Cognex Corporation System and method for reduced-speckle laser line generation
CN115327775A (en) * 2017-04-24 2022-11-11 奇跃公司 Optical flow tracking backscattered laser speckle patterns
WO2018216575A1 (en) 2017-05-26 2018-11-29 Agc株式会社 Diffraction optical element, projection device, and measuring device
US11494897B2 (en) 2017-07-07 2022-11-08 William F. WILEY Application to determine reading/working distance
US10527711B2 (en) 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
WO2019079790A1 (en) 2017-10-21 2019-04-25 Eyecam, Inc Adaptive graphic user interfacing system
JP6970376B2 (en) 2017-12-01 2021-11-24 オムロン株式会社 Image processing system and image processing method
US10310281B1 (en) 2017-12-05 2019-06-04 K Laser Technology, Inc. Optical projector with off-axis diffractive element
US10545457B2 (en) 2017-12-05 2020-01-28 K Laser Technology, Inc. Optical projector with off-axis diffractive element and conjugate images
US10317684B1 (en) 2018-01-24 2019-06-11 K Laser Technology, Inc. Optical projector with on axis hologram and multiple beam splitter
CN110161786B (en) 2018-02-12 2021-08-31 深圳富泰宏精密工业有限公司 Light projection module, three-dimensional image sensing device and sensing method thereof
CN108663800B (en) * 2018-04-16 2021-03-19 华东交通大学 Optical encryption and decryption method, device and system
US11422292B1 (en) 2018-06-10 2022-08-23 Apple Inc. Super-blazed diffractive optical elements with sub-wavelength structures
WO2019240010A1 (en) 2018-06-11 2019-12-19 Agc株式会社 Diffraction optical element, projection device, and measurement device
CN110619996B (en) * 2018-06-20 2022-07-08 株式会社村田制作所 Inductor and method for manufacturing the same
US11675114B2 (en) 2018-07-23 2023-06-13 Ii-Vi Delaware, Inc. Monolithic structured light projector
DE102018129143B4 (en) * 2018-11-20 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Variable measurement object-dependent camera structure and calibration thereof
CN109541875B (en) * 2018-11-24 2024-02-13 深圳阜时科技有限公司 Light source structure, optical projection module, sensing device and equipment
US20220067410A1 (en) * 2018-12-28 2022-03-03 Guardian Optical Technologies Ltd System, device, and method for vehicle post-crash support
EP3928282A4 (en) * 2019-02-18 2022-04-13 Fingerprint Cards Anacatum IP AB Optical biometric imaging device and method of operating an optical biometric imaging device
US11029408B2 (en) * 2019-04-03 2021-06-08 Varjo Technologies Oy Distance-imaging system and method of distance imaging
US10509128B1 (en) 2019-04-12 2019-12-17 K Laser Technology, Inc. Programmable pattern optical projector for depth detection
US11681019B2 (en) 2019-09-18 2023-06-20 Apple Inc. Optical module with stray light baffle
US11506762B1 (en) 2019-09-24 2022-11-22 Apple Inc. Optical module comprising an optical waveguide with reference light path
GB2589121A (en) * 2019-11-21 2021-05-26 Bae Systems Plc Imaging apparatus
CN111650759A (en) * 2019-12-31 2020-09-11 北京大学 Multi-focal-length micro-lens array remote sensing light field imaging system for near-infrared light spot projection
WO2021144658A1 (en) * 2020-01-17 2021-07-22 Antishock Technologies, Ltd. System and method for monitoring fluid management to a patient
US11754767B1 (en) 2020-03-05 2023-09-12 Apple Inc. Display with overlaid waveguide
US11843221B2 (en) * 2020-03-30 2023-12-12 Namuga, Co., Ltd. Light source module for emitting high density beam and method for controlling the same
JP2023531819A (en) * 2020-06-30 2023-07-25 クニードリー アー・ベー Solutions for identifying supra-physiological body joint movements
EP3993385A1 (en) 2020-10-29 2022-05-04 Universitat de València A multiperspective photography camera device
CN114255233B (en) * 2022-03-01 2022-05-31 合肥的卢深视科技有限公司 Speckle pattern quality evaluation method and device, electronic device and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079108U (en) * 1983-11-08 1985-06-01 オムロン株式会社 speckle rangefinder
JPH0329806A (en) * 1989-06-28 1991-02-07 Furuno Electric Co Ltd Measuring method of shape of object
JPH06273432A (en) * 1993-03-18 1994-09-30 Shizuoka Univ Displacement and displacement-velocity measuring apparatus
JP2001506384A (en) * 1996-12-15 2001-05-15 コグニテンス リミテッド Apparatus and method for three-dimensional surface shape reconstruction
JP2001507133A (en) * 1996-12-20 2001-05-29 ライフェフ/エックス・ネットワークス・インク High-speed 3D image parameter display apparatus and method
JP2002102226A (en) * 2000-06-10 2002-04-09 Medison Co Ltd Method for computing distance between image frames, three-dimensional image generating system, and method therefor
JP2002365023A (en) * 2001-06-08 2002-12-18 Koji Okamoto Apparatus and method for measurement of liquid level
WO2005025894A2 (en) * 2003-09-10 2005-03-24 Shearographics, Llc Tire inspection apparatus and method

Family Cites Families (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2951207A1 (en) * 1978-12-26 1980-07-10 Canon Kk METHOD FOR THE OPTICAL PRODUCTION OF A SPREADING PLATE
US4542376A (en) * 1983-11-03 1985-09-17 Burroughs Corporation System for electronically displaying portions of several different images on a CRT screen through respective prioritized viewports
JPH0762869B2 (en) 1986-03-07 1995-07-05 日本電信電話株式会社 Position and shape measurement method by pattern projection
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH0615968B2 (en) * 1986-08-11 1994-03-02 伍良 松本 Three-dimensional shape measuring device
US5075562A (en) * 1990-09-20 1991-12-24 Eastman Kodak Company Method and apparatus for absolute Moire distance measurements using a grating printed on or attached to a surface
GB9116151D0 (en) 1991-07-26 1991-09-11 Isis Innovation Three-dimensional vision system
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
EP0559978B1 (en) * 1992-03-12 1998-08-05 International Business Machines Corporation Image processing method
US5636025A (en) * 1992-04-23 1997-06-03 Medar, Inc. System for optically measuring the surface contour of a part using more fringe techniques
US5856871A (en) * 1993-08-18 1999-01-05 Applied Spectral Imaging Ltd. Film thickness mapping using interferometric spectral imaging
CA2199037A1 (en) * 1994-09-05 1996-03-14 Peter Leigh-Jones Diffraction surfaces and methods for the manufacture thereof
US6041140A (en) * 1994-10-04 2000-03-21 Synthonics, Incorporated Apparatus for interactive image correlation for three dimensional image production
JPH08186845A (en) 1994-12-27 1996-07-16 Nobuaki Yanagisawa Focal distance controlling stereoscopic-vision television receiver
US5630043A (en) * 1995-05-11 1997-05-13 Cirrus Logic, Inc. Animated texture map apparatus and method for 3-D image displays
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
EP0839314A1 (en) * 1995-07-18 1998-05-06 The Budd Company Moire interferometry system and method with extended imaging depth
JPH09261535A (en) * 1996-03-25 1997-10-03 Sharp Corp Image pickup device
DE19638727A1 (en) 1996-09-12 1998-03-19 Ruedger Dipl Ing Rubbert Method for increasing the significance of the three-dimensional measurement of objects
JP3402138B2 (en) * 1996-09-27 2003-04-28 株式会社日立製作所 Liquid crystal display
IL119341A (en) * 1996-10-02 1999-09-22 Univ Ramot Phase-only filter for generating an arbitrary illumination pattern
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
JPH10327433A (en) 1997-05-23 1998-12-08 Minolta Co Ltd Display device for composted image
US6008813A (en) * 1997-08-01 1999-12-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Real-time PC based volume rendering system
DE19736169A1 (en) 1997-08-20 1999-04-15 Fhu Hochschule Fuer Technik Method to measure deformation or vibration using electronic speckle pattern interferometry
US6101269A (en) * 1997-12-19 2000-08-08 Lifef/X Networks, Inc. Apparatus and method for rapid 3D image parametrization
US6438272B1 (en) 1997-12-31 2002-08-20 The Research Foundation Of State University Of Ny Method and apparatus for three dimensional surface contouring using a digital video projection system
DE19815201A1 (en) * 1998-04-04 1999-10-07 Link Johann & Ernst Gmbh & Co Measuring arrangement for detecting dimensions of test specimens, preferably of hollow bodies, in particular of bores in workpieces, and methods for measuring such dimensions
US6731391B1 (en) * 1998-05-13 2004-05-04 The Research Foundation Of State University Of New York Shadow moire surface measurement using Talbot effect
DE19821611A1 (en) * 1998-05-14 1999-11-18 Syrinx Med Tech Gmbh Recording method for spatial structure of three-dimensional surface, e.g. for person recognition
GB2352901A (en) 1999-05-12 2001-02-07 Tricorder Technology Plc Rendering three dimensional representations utilising projected light patterns
US6377700B1 (en) 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
JP3678022B2 (en) 1998-10-23 2005-08-03 コニカミノルタセンシング株式会社 3D input device
US6084712A (en) * 1998-11-03 2000-07-04 Dynamic Measurement And Inspection,Llc Three dimensional imaging using a refractive optic design
US8965898B2 (en) 1998-11-20 2015-02-24 Intheplay, Inc. Optimizations for live event, real-time, 3D object tracking
US6759646B1 (en) * 1998-11-24 2004-07-06 Intel Corporation Color interpolation for a four color mosaic pattern
JP2001166810A (en) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd Device and method for providing solid model
CN2364507Y (en) * 1999-03-18 2000-02-16 香港生产力促进局 Small non-contact symmetric imput type three-D profile scanning head
US6259561B1 (en) * 1999-03-26 2001-07-10 The University Of Rochester Optical system for diffusing light
WO2000070303A1 (en) * 1999-05-14 2000-11-23 3Dmetrics, Incorporated Color structured light 3d-imaging system
US6751344B1 (en) * 1999-05-28 2004-06-15 Champion Orthotic Investments, Inc. Enhanced projector system for machine vision
US6512385B1 (en) * 1999-07-26 2003-01-28 Paul Pfaff Method for testing a device under test including the interference of two beams
US6268923B1 (en) * 1999-10-07 2001-07-31 Integral Vision, Inc. Optical method and system for measuring three-dimensional surface topography of an object having a surface contour
JP2001141430A (en) 1999-11-16 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processing device
LT4842B (en) * 1999-12-10 2001-09-25 Uab "Geola" Universal digital holographic printer and method
US6301059B1 (en) * 2000-01-07 2001-10-09 Lucent Technologies Inc. Astigmatic compensation for an anamorphic optical system
US6937348B2 (en) * 2000-01-28 2005-08-30 Genex Technologies, Inc. Method and apparatus for generating structural pattern illumination
US6700669B1 (en) 2000-01-28 2004-03-02 Zheng J. Geng Method and system for three-dimensional imaging using light pattern having multiple sub-patterns
JP4560869B2 (en) * 2000-02-07 2010-10-13 ソニー株式会社 Glasses-free display system and backlight system
JP4265076B2 (en) * 2000-03-31 2009-05-20 沖電気工業株式会社 Multi-angle camera and automatic photographing device
US6810135B1 (en) * 2000-06-29 2004-10-26 Trw Inc. Optimized human presence detection through elimination of background interference
TW527518B (en) * 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6686921B1 (en) * 2000-08-01 2004-02-03 International Business Machines Corporation Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
US6813440B1 (en) * 2000-10-10 2004-11-02 The Hong Kong Polytechnic University Body scanner
JP3689720B2 (en) 2000-10-16 2005-08-31 住友大阪セメント株式会社 3D shape measuring device
JP2002152776A (en) 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Method and device for encoding and decoding distance image
JP2002191058A (en) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd Three-dimensional image acquisition device and three- dimensional image acquisition method
JP2002213931A (en) 2001-01-17 2002-07-31 Fuji Xerox Co Ltd Instrument and method for measuring three-dimensional shape
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
EP1412803A2 (en) * 2001-07-13 2004-04-28 Mems Optical, Inc. Autostereoscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images
US6741251B2 (en) * 2001-08-16 2004-05-25 Hewlett-Packard Development Company, L.P. Method and apparatus for varying focus in a scene
AU2003217587A1 (en) * 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7369685B2 (en) * 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
US7811825B2 (en) 2002-04-19 2010-10-12 University Of Washington System and method for processing specimens and images for optical tomography
AU2003253626A1 (en) * 2002-06-07 2003-12-22 University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
US7006709B2 (en) * 2002-06-15 2006-02-28 Microsoft Corporation System and method deghosting mosaics using multiperspective plane sweep
US20040001145A1 (en) * 2002-06-27 2004-01-01 Abbate Jeffrey A. Method and apparatus for multifield image generation and processing
US6859326B2 (en) * 2002-09-20 2005-02-22 Corning Incorporated Random microlens array for optical beam shaping and homogenization
KR100624405B1 (en) 2002-10-01 2006-09-18 삼성전자주식회사 Substrate for mounting optical component and method for producing the same
US7194105B2 (en) * 2002-10-16 2007-03-20 Hersch Roger D Authentication of documents and articles by moiré patterns
US20040130730A1 (en) * 2002-11-21 2004-07-08 Michel Cantin Fast 3D height measurement method and system
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US20040174770A1 (en) * 2002-11-27 2004-09-09 Rees Frank L. Gauss-Rees parametric ultrawideband system
US7639419B2 (en) * 2003-02-21 2009-12-29 Kla-Tencor Technologies, Inc. Inspection system using small catadioptric objective
US7127101B2 (en) * 2003-03-10 2006-10-24 Cranul Technologies, Inc. Automatic selection of cranial remodeling device trim lines
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
US7539340B2 (en) 2003-04-25 2009-05-26 Topcon Corporation Apparatus and method for three-dimensional coordinate measurement
WO2005010825A2 (en) 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
CA2435935A1 (en) 2003-07-24 2005-01-24 Guylain Lemelin Optical 3d digitizer with enlarged non-ambiguity zone
US20050111705A1 (en) * 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
US7187437B2 (en) * 2003-09-10 2007-03-06 Shearographics, Llc Plurality of light sources for inspection apparatus and method
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7112774B2 (en) * 2003-10-09 2006-09-26 Avago Technologies Sensor Ip (Singapore) Pte. Ltd CMOS stereo imaging system and method
US7250949B2 (en) 2003-12-23 2007-07-31 General Electric Company Method and system for visualizing three-dimensional data
US20050135555A1 (en) 2003-12-23 2005-06-23 Claus Bernhard Erich H. Method and system for simultaneously viewing rendered volumes
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
WO2005076198A1 (en) * 2004-02-09 2005-08-18 Cheol-Gwon Kang Device for measuring 3d shape using irregular pattern and method for the same
US7427981B2 (en) * 2004-04-15 2008-09-23 Avago Technologies General Ip (Singapore) Pte. Ltd. Optical device that measures distance between the device and a surface
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7335898B2 (en) * 2004-07-23 2008-02-26 Ge Healthcare Niagara Inc. Method and apparatus for fluorescent confocal microscopy
US20060017656A1 (en) * 2004-07-26 2006-01-26 Visteon Global Technologies, Inc. Image intensity control in overland night vision systems
KR101424942B1 (en) 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. A system and method for 3D space-dimension based image processing
US7120228B2 (en) * 2004-09-21 2006-10-10 Jordan Valley Applied Radiation Ltd. Combined X-ray reflectometer and diffractometer
JP2006128818A (en) 2004-10-26 2006-05-18 Victor Co Of Japan Ltd Recording program and reproducing program corresponding to stereoscopic video and 3d audio, recording apparatus, reproducing apparatus and recording medium
IL165212A (en) 2004-11-15 2012-05-31 Elbit Systems Electro Optics Elop Ltd Device for scanning light
US7076024B2 (en) * 2004-12-01 2006-07-11 Jordan Valley Applied Radiation, Ltd. X-ray apparatus with dual monochromators
US20060156756A1 (en) * 2005-01-20 2006-07-20 Becke Paul E Phase change and insulating properties container and method of use
US20060221218A1 (en) * 2005-04-05 2006-10-05 Doron Adler Image sensor with improved color filter
US7599071B2 (en) 2005-04-06 2009-10-06 Dimensional Photonics International, Inc. Determining positional error of an optical component using structured light patterns
US7560679B1 (en) 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
US7609875B2 (en) * 2005-05-27 2009-10-27 Orametrix, Inc. Scanner system and method for mapping surface of three-dimensional object
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
WO2007105205A2 (en) 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
US20110096182A1 (en) 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
US8018579B1 (en) 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
EP1949339A2 (en) 2005-11-04 2008-07-30 Clean Earth Technologies, Llc Tracking using an elastic cluster of trackers
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
WO2007096893A2 (en) 2006-02-27 2007-08-30 Prime Sense Ltd. Range mapping using speckle decorrelation
WO2007105215A2 (en) 2006-03-14 2007-09-20 Prime Sense Ltd. Depth-varying light fields for three dimensional sensing
KR101408959B1 (en) * 2006-03-14 2014-07-02 프라임센스 엘티디. Depth-varying light fields for three dimensional sensing
US7869649B2 (en) 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8488895B2 (en) 2006-05-31 2013-07-16 Indiana University Research And Technology Corp. Laser scanning digital camera with pupil periphery illumination and potential for multiply scattered light imaging
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
WO2008014826A1 (en) 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7737394B2 (en) 2006-08-31 2010-06-15 Micron Technology, Inc. Ambient infrared detection in solid state sensors
CN101512601B (en) 2006-09-04 2013-07-31 皇家飞利浦电子股份有限公司 Method for determining a depth map from images, device for determining a depth map
US7256899B1 (en) * 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
WO2008061259A2 (en) 2006-11-17 2008-05-22 Celloptic, Inc. System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US7990545B2 (en) * 2006-12-27 2011-08-02 Cambridge Research & Instrumentation, Inc. Surface measurement of in-vivo subjects using spot projector
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
WO2008087652A2 (en) 2007-01-21 2008-07-24 Prime Sense Ltd. Depth mapping using multi-beam illumination
US20080278572A1 (en) * 2007-04-23 2008-11-13 Morteza Gharib Aperture system with spatially-biased aperture shapes and positions (SBPSP) for static and dynamic 3-D defocusing-based imaging
US20080212835A1 (en) * 2007-03-01 2008-09-04 Amon Tavor Object Tracking by 3-Dimensional Modeling
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8488868B2 (en) * 2007-04-03 2013-07-16 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US7835561B2 (en) 2007-05-18 2010-11-16 Visiongate, Inc. Method for image processing and reconstruction of images for optical tomography
WO2008155770A2 (en) 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
EP2168096A1 (en) 2007-07-12 2010-03-31 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
JP4412362B2 (en) 2007-07-18 2010-02-10 船井電機株式会社 Compound eye imaging device
US20090060307A1 (en) 2007-08-27 2009-03-05 Siemens Medical Solutions Usa, Inc. Tensor Voting System and Method
DE102007045332B4 (en) 2007-09-17 2019-01-17 Seereal Technologies S.A. Holographic display for reconstructing a scene
KR100858034B1 (en) 2007-10-18 2008-09-10 (주)실리콘화일 One chip image sensor for measuring vitality of subject
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8176497B2 (en) * 2008-01-16 2012-05-08 Dell Products, Lp Method to dynamically provision additional computer resources to handle peak database workloads
WO2009093228A2 (en) * 2008-01-21 2009-07-30 Prime Sense Ltd. Optical designs for zero order reduction
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
DE102008011350A1 (en) 2008-02-27 2009-09-03 Loeffler Technology Gmbh Apparatus and method for real-time detection of electromagnetic THz radiation
US8121351B2 (en) 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
US8035806B2 (en) 2008-05-13 2011-10-11 Samsung Electronics Co., Ltd. Distance measuring sensor including double transfer gate and three dimensional color image sensor including the distance measuring sensor
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
EP2275990B1 (en) 2009-07-06 2012-09-26 Sick Ag 3D sensor
WO2011013079A1 (en) 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
WO2011031538A2 (en) 2009-08-27 2011-03-17 California Institute Of Technology Accurate 3d object reconstruction using a handheld device with a projected light pattern
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US8330804B2 (en) 2010-05-12 2012-12-11 Microsoft Corporation Scanned-beam depth mapping to 2D image
US8654152B2 (en) 2010-06-21 2014-02-18 Microsoft Corporation Compartmentalizing focus area within field of view

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6079108U (en) * 1983-11-08 1985-06-01 オムロン株式会社 speckle rangefinder
JPH0329806A (en) * 1989-06-28 1991-02-07 Furuno Electric Co Ltd Measuring method of shape of object
JPH06273432A (en) * 1993-03-18 1994-09-30 Shizuoka Univ Displacement and displacement-velocity measuring apparatus
JP2001506384A (en) * 1996-12-15 2001-05-15 コグニテンス リミテッド Apparatus and method for three-dimensional surface shape reconstruction
JP2001507133A (en) * 1996-12-20 2001-05-29 ライフェフ/エックス・ネットワークス・インク High-speed 3D image parameter display apparatus and method
JP2002102226A (en) * 2000-06-10 2002-04-09 Medison Co Ltd Method for computing distance between image frames, three-dimensional image generating system, and method therefor
JP2002365023A (en) * 2001-06-08 2002-12-18 Koji Okamoto Apparatus and method for measurement of liquid level
WO2005025894A2 (en) * 2003-09-10 2005-03-24 Shearographics, Llc Tire inspection apparatus and method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170319A (en) * 2009-11-15 2011-09-01 Primesense Ltd Optical projector with beam monitor
JP2011160420A (en) * 2010-02-02 2011-08-18 Primesense Ltd Synchronization of projected illumination with rolling shutter of image sensor
JP5849954B2 (en) * 2010-08-06 2016-02-03 旭硝子株式会社 Diffractive optical element and measuring device
US9477018B2 (en) 2010-08-06 2016-10-25 Asahi Glass Company, Limited Diffractive optical element and measurement device
US8599484B2 (en) 2010-08-10 2013-12-03 Asahi Glass Company, Limited Diffractive optical element and measuring device
US8995057B2 (en) 2010-11-02 2015-03-31 Asahi Glass Company, Limited Diffractive optical element and measurement instrument
JP2012194543A (en) * 2011-03-03 2012-10-11 Asahi Glass Co Ltd Diffraction optical element and measurement instrument
JP2013033204A (en) * 2011-06-28 2013-02-14 Asahi Glass Co Ltd Diffraction optical element and measurement apparatus
JP2015501938A (en) * 2011-12-16 2015-01-19 フリードリヒ−シラー−ユニバーシタット イエナ 3D measurement method for objects with limited depth
US9897438B2 (en) 2013-09-02 2018-02-20 Asahi Glass Company, Limited Diffraction optical element, projection device, and measurement device
JP2015143685A (en) * 2014-01-13 2015-08-06 ペブルス リミテッド Sub-resolution optical detection
KR20150084680A (en) * 2014-01-13 2015-07-22 페블스 리미티드. Sub-resolution optical detection
KR102046944B1 (en) * 2014-01-13 2019-11-20 페이스북, 인크. Sub-resolution optical detection
JP2018503106A (en) * 2014-12-27 2018-02-01 ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. System and method for detecting surface vibration
US11262233B2 (en) 2014-12-27 2022-03-01 Guardian Optical Technologies, Ltd. System and method for detecting surface vibrations
JP2020531794A (en) * 2017-08-31 2020-11-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Solid-state photodetection and range-finding (LIDAR) systems, systems and methods for improving solid-state light detection and range-finding (LIDAR) resolution.
US11675076B2 (en) 2017-08-31 2023-06-13 SZ DJI Technology Co., Ltd. Solid state light detection and ranging (LIDAR) system and system and method for improving solid state light detection and ranging (LIDAR) resolution

Also Published As

Publication number Publication date
CN101496033A (en) 2009-07-29
KR20080111474A (en) 2008-12-23
US8390821B2 (en) 2013-03-05
US9063283B2 (en) 2015-06-23
JP5174684B2 (en) 2013-04-03
KR101331543B1 (en) 2013-11-20
WO2007105205A3 (en) 2009-04-23
US20130136305A1 (en) 2013-05-30
US20090096783A1 (en) 2009-04-16
WO2007105205A2 (en) 2007-09-20
CN101496033B (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP5174684B2 (en) 3D detection using speckle patterns
JP2009531655A5 (en)
JP4917615B2 (en) Range mapping using uncorrelated speckle
US10228240B2 (en) Depth mapping using structured light and time of flight
JP5592070B2 (en) Light field that changes depth for 3D detection
US20200319322A1 (en) Field calibration of a structured light range-sensor
KR102595391B1 (en) Distance sensor with adjustable focus imaging sensor
KR101408959B1 (en) Depth-varying light fields for three dimensional sensing
TWI585436B (en) Method and apparatus for measuring depth information
KR101954855B1 (en) Use of intensity variations of light patterns for depth mapping of objects in a volume
JP2020115630A (en) Eye tracking using optical flow
KR20160075548A (en) Three dimensional depth mapping using dynamic structured light
US9354719B2 (en) Optical navigation devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121228

R150 Certificate of patent or registration of utility model

Ref document number: 5174684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250