JPS6184515A - Method and device for obtaining distance up to plurality of point on object - Google Patents
Method and device for obtaining distance up to plurality of point on objectInfo
- Publication number
- JPS6184515A JPS6184515A JP60197493A JP19749385A JPS6184515A JP S6184515 A JPS6184515 A JP S6184515A JP 60197493 A JP60197493 A JP 60197493A JP 19749385 A JP19749385 A JP 19749385A JP S6184515 A JPS6184515 A JP S6184515A
- Authority
- JP
- Japan
- Prior art keywords
- stripes
- encoded
- axis
- light
- stripe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2536—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
本発明は、ロボットの視覚のような分野に用いられる対
象物の距離を求める方法及びそれに用いる装置に関し、
可動機構を何ら用いることなくして濃いレンジマツプを
高速で作成するのに特に有用である0本発明には、連続
した光のストライプパターンを投影するプロジェクタと
ストライプがかかった光景を捕I足するTVカメラとが
用いられる。レンジマツプを得るためビデオフレームが
2の補数の領域で解読される。DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a method for determining the distance of an object used in fields such as robot vision, and an apparatus used therefor.
Particularly useful for creating dense range maps at high speed without the use of any moving mechanisms, the present invention includes a projector that projects a continuous striped pattern of light and a TV camera that captures the striped scene. is used. Video frames are decoded in two's complement domain to obtain a range map.
視覚は、工業界や軍事上多種多様の作業を自動化するの
に重要な役目を演じている。三次元の視覚は、フィード
バック・ループを閉じてシステムを状況に適応させ無体
系の環境下で仕事を行なうに際して不可欠の感覚能力で
ある。システムのコントローラがより高い信頼性の情報
を得ようとすれば、公知である二次元映像形成能力のみ
ならず三次元の能力が非常に役立つであろう、生産性や
倍力係数の向上に関しても多くの応用分野がある0例え
ば、三次元部品の検査や在庫調査、自律的な車両の三次
元操縦1M子カ発電所の監視等の応用分野である。主と
して以下の2つの技術分野で距離情報を得るために多く
の努力がなされたきた。Vision plays an important role in automating a wide variety of industrial and military tasks. Three-dimensional vision is an essential sensory ability for closing feedback loops, adapting systems to situations, and working in unstructured environments. If the system controller wants to obtain more reliable information, not only the well-known 2D image forming ability but also the 3D ability will be very useful in improving productivity and boosting factors. There are many application fields, such as 3D component inspection, inventory investigation, 3D operation of autonomous vehicles, and monitoring of 1M slave power plants. Many efforts have been made to obtain distance information mainly in the following two technical areas.
第1の分野は、いわゆるr2.X−DJすなわち擬似三
次元3D技術であり、この技術では、視野内の全ての解
像可能な画素の距#測定は避けている。その代わりに1
通常のグレイスケールの二次元像を、人工頭脳の助けを
借りて先験的な知識と組合わせてレンジプロフィールを
見積もっている。あるいは、1点の平均的な距#測定か
ら選定した数点の測定までと変化はあるが粗い感覚の距
[8定の任意のものと二次元像を組合わせる。端数Xは
、特定の技術が三次元システムにどれほど忠実に近づい
ているかを示している。この分野の技術の長所はデータ
を得る速さである。短所は、無体系の環境で用いると不
鮮明がさけられないことである。The first area is the so-called r2. X-DJ, a pseudo three-dimensional 3D technique, which avoids distance # measurements of all resolvable pixels in the field of view. 1 instead
A normal grayscale two-dimensional image is combined with a priori knowledge with the help of an artificial brain to estimate the range profile. Alternatively, a two-dimensional image is combined with a rough sense of distance [8 constants] ranging from an average distance # measurement of one point to measurement of several selected points. The fraction X indicates how faithfully a particular technique approaches a three-dimensional system. The strength of this field of technology is the speed with which data can be obtained. The disadvantage is that blurring is inevitable when used in an unstructured environment.
距離測定の第2の分野は、いわばr3.o −DJ、す
なわち純粋は三次元技術であり、距離の測定は、視野に
ある全画素に対して実行される。この技術によれば、能
動的な体系光照射を主として用いることによって「濃い
レンジマツプ」が得られる。この技術は度量衡的な測定
であるからr2−X−DJ法では避は得なかった見積り
に起因する不鮮明とは無関係になる。この技術分野はさ
らに3つの技術に分けることができる。第1の技術は、
単一光ビーム走査技術であって、機械的なビーム操作装
置を用いており、符号化した帰還ビームの飛行時間すな
わち位相を見積ることにより点毎に距#測定を行なうも
のである。この技術は遠方にある対象物に対しては適切
なものである。何故なら、与えられた光を視野内の特定
点で最も有効に用いてS/N比を最大にするからである
。この技術の短所は、走査に要する時間と走査に機械要
素を用いる必要性とに起因する低速度でる。The second field of distance measurement is so to speak r3. o-DJ, i.e. pure, is a three-dimensional technique, where distance measurements are performed for all pixels in the field of view. According to this technique, a "dense range map" can be obtained mainly by using active systematic light irradiation. Since this technique is a metrological measurement, it is independent of the blurring caused by estimates that is inevitable with the r2-X-DJ method. This technical field can be further divided into three technologies. The first technique is
A single light beam scanning technique uses mechanical beam steering equipment to make point-by-point distance # measurements by estimating the time-of-flight, or phase, of the encoded return beam. This technique is suitable for distant objects. This is because the given light is most effectively used at a specific point within the field of view to maximize the S/N ratio. A disadvantage of this technique is slow speed due to the time required for scanning and the need to use mechanical elements for scanning.
距#測定法の「3.0〜DJ分野の第2の技術は、点に
代えてストライプを斜角θで対象空間に投影する一同I
Z対会を鰺1、でいるTVカメラが二次元の検知アレイ
で被写体を捕捉する。直線ストライプが投影の斜角に起
因してビデオフレームで変形して見えるので、この変形
量をポストデータ収集法か簡単な三角法を用いて表面プ
ロフィールに変換する。この技術は、上の最後のものを
越える格別な長所、すなわち、望ましくない機械的なス
キャナーと複雑な位相測定の両方が不必要になるという
長所を備えている。この技術は、また。Distance #Measurement Method "3.0 ~ The second technique in the DJ field is to project a stripe instead of a point onto the target space at an oblique angle θ.
A TV camera in the Z meeting captures the subject with a two-dimensional detection array. Since the straight stripes appear deformed in the video frame due to the oblique angle of the projection, this deformation is converted into a surface profile using post-data acquisition methods or simple trigonometry. This technique has a particular advantage over the last one above, namely that it eliminates both the undesirable mechanical scanner and complex phase measurements. This technology also
ベルトコンベヤ上に搬送されているパーツの検査や光学
溶接のシームフォロワのような使用状況に特に適したも
のである。しかし、この技術も低速度という短所を避け
られない。It is particularly suited for applications such as inspection of parts being conveyed on a belt conveyor or as a seam follower in optical welding. However, this technology also has the drawback of low speed.
1本のストライプの結果を見積もるのにも全フレーム時
間が必要となるのである。光景を、256木のストライ
プでカバーしようとすれば1通常のフレーム時間を39
m5ecと仮定するとデータの記録だけで少なくとも7
秒を要する。このようにして、この技術は、リアル・タ
イムのデータ収集の用途には多くの場合低速過ぎるので
る。The entire frame time is required to estimate the result of one stripe. If you try to cover the scene with 256 tree stripes, it will take 1 normal frame time 39
Assuming m5ec, it will take at least 7 hours just to record the data.
It takes seconds. As such, this technique is often too slow for real-time data collection applications.
r3.o −DJ距離測定法の第3の技術は。r3. o - The third technique of the DJ distance measurement method is.
マルチストライプ・パターンの投影を用いる、1パター
ンが全視野をカバーするので、全ストライプの変形量を
得るために1枚のビデオフレームを用いることができる
。従って。Using multi-stripe pattern projection, one video frame can be used to obtain the entire stripe deformation since one pattern covers the entire field of view. Therefore.
高効率のデータ収集技術である。しかし、このことは変
形したストライプが連続関数となるときに限られる。も
し表面プロフィールに不連続性があると、ストライプは
境界が連続にならず非常に不鮮明なものとなる。このよ
うにして、この技術は、比較的滑らかな表面の分析や局
所的な傾斜の評価に限定されてしまう。無体系の環境下
における信頼性のある対象物認識方法としては理想的な
ものではない。It is a highly efficient data collection technology. However, this is only true when the deformed stripes are continuous functions. If there are discontinuities in the surface profile, the stripes will not have continuous boundaries and will be very indistinct. This technique is thus limited to the analysis of relatively smooth surfaces and the evaluation of local slopes. This is not an ideal method for reliable object recognition in an unstructured environment.
以 下 余 白
ここでの問題は、距離測定法のr 3.0−D J分野
における第2と第3の技術によって発生したジレンマを
どのようにして解決するかということである。すなわち
、測定速度を改善すれば不鮮明が生じ、鮮明にすれば速
度が低下してしまう。Margin below The question here is how to resolve the dilemma raised by the second and third techniques in the r 3.0-D J field of distance measurement methods. That is, if the measurement speed is improved, it will become blurred, and if it is made clearer, the speed will decrease.
本発明の主目的は、機械的な運動や不鮮明を生じること
なく濃いレンジマツプを高速で作成する方法とそれに用
いる装置を提供することである。The main object of the present invention is to provide a method and apparatus for creating dense range maps at high speed without mechanical movement or blurring.
上述した目的及び他の目的は、対象物の前方に置いたT
V右カメラ光軸に対して斜角で光のストライプの連続パ
ターンを対象物に投影し、対象物から反射した投影光を
カメラが捕捉して達成される。光ストライプは、連続パ
ターンの一意性シーケンスにいおいて各ストライプを選
択的に明暗化することにより2進法で符号化される。全
対象空間は、連続ストライプのパターンでおおわれ、ス
トライプの数を選定して所望の解像を行なう、各ストラ
イプを一意的に符号化するのに要するストライプのパタ
ーン数はストライプ数の2を定数とする対数に等しい。The above-mentioned objectives and other objectives can be achieved by
This is accomplished by projecting a continuous pattern of stripes of light onto an object at an oblique angle to the V-right camera optical axis, and the camera capturing the projected light reflected from the object. The light stripes are binary encoded by selectively brightening and darkening each stripe in a unique sequence of continuous patterns. The entire target space is covered with a pattern of continuous stripes, and the number of stripes is selected to achieve the desired resolution.The number of stripes required to uniquely encode each stripe is set with 2 of the number of stripes as a constant. is equal to the logarithm of
TV右カメラ各画素で捕捉し一意的に符号化した反射光
は、該対象物を照射した特定のストライプを表示してお
り、従って対象物の位置を表示している。対象物のx−
Y座標は、反射光信号を受ける両系の座標から容易に得
らえる。Z軸座標は、画素のX軸座標と光の照射ストラ
イプの既知の位置とから決定する。The reflected light captured and uniquely encoded by each pixel of the TV right camera is indicative of the particular stripe illuminating the object, and thus the location of the object. Object x-
The Y coordinate can be easily obtained from the coordinates of both systems receiving the reflected light signal. The Z-axis coordinate is determined from the X-axis coordinate of the pixel and the known position of the light illumination stripe.
従来の三角法を用いて画素座標情報と符号化光ストライ
プの既知のトラックとからTV右カメラらの対象物の距
離を決定することができるけれども、本発明は、この距
離決定用に特に簡単で動作の早い構成を提供する。三次
元のカルテシアン座標系を対象空間内に創成して、その
X軸とY軸をTV右カメラX−Y平面に平衡にX軸をカ
メラの光軸に平行にする。この座標系を通って光のスト
ライプを投影するが、その際ストライプはY輛に平行に
かつX軸とX軸に斜角で交叉するよにしている。X軸と
X軸には、それぞれの軸に対するストライプの斜交幅で
目盛りを付けである。さらに、カメラの画素アレイのX
軸の目盛りは対象空間の座標系のX軸の目盛りで定める
。Although conventional trigonometry can be used to determine the distance of objects such as TV right cameras from pixel coordinate information and known tracks of encoded light stripes, the present invention provides a particularly simple method for determining this distance. Provides a fast configuration. A three-dimensional Cartesian coordinate system is created in the object space, and its X and Y axes are in equilibrium with the X-Y plane of the TV right camera, and the X axis is parallel to the optical axis of the camera. A stripe of light is projected through this coordinate system, with the stripe parallel to the Y axis and intersecting the X axis and the X axis at an oblique angle. The X-axis and the X-axis are graduated by the diagonal width of the stripe with respect to each axis. Furthermore, the camera pixel array
The axis scale is determined by the X-axis scale of the coordinate system of the target space.
この座標系を用いて、ストライプに番号付けしてそれに
対応して原点から順次符号化する。このようにして、た
とえば、D番目のストライプがX軸とX軸それぞれの目
盛りで原点からD単位で両軸に交叉している。D番目の
ストライプは数りの2進表記で符号化しているので、そ
れが照射している対象物の対象空間座標系の原点からの
距離は、反射したD番目のストライプ光のX座標を受信
した符号化信号から減算することによって簡単に求める
ことができる。Using this coordinate system, the stripes are numbered and encoded sequentially from the origin. In this way, for example, the D-th stripe intersects both axes in units of D from the origin on the scales of the X-axis and the X-axis. Since the D-th stripe is encoded in binary notation, the distance from the origin of the object space coordinate system of the object it illuminates is determined by the received X coordinate of the reflected D-th stripe light. It can be easily obtained by subtracting from the encoded signal.
好ましい態様では、対象空間座標の原点は対象空間の中
心近傍に位置しており、ストライプは原点を通る0次の
ストライプパターンの投影、データ収集及びレンジの計
算を座標をするのに男いる4+:表的なブaグラム町友
なデジタルコンピュータを用いることができるように、
2の補数表示を用いる。In a preferred embodiment, the origin of the object space coordinates is located near the center of the object space, and the stripe coordinates are used to project a zero-order stripe pattern through the origin, collect data, and calculate the range: In order to be able to use a typical digital computer,
Use two's complement representation.
対象空間X次元と比較して浅い視野が必要な場合、スト
ライプパターンはできるだけ何回も並列に反復してもよ
い0本発明は、また、ストライプの別のパターンを加え
てパリティ・ビットを与える概念をも包含する。この概
念によれば、対象物の予期せぬ動きや2次反射で発生す
るエラーデータを除去することにより信頼性が向上する
。奇数のパリティ・スキームを用いることにより、原点
を通る0次のストライプがもしあれば発生する盲点がな
くなる。If a shallow field of view is required compared to the X dimension of the object space, the stripe pattern may be repeated as many times as possible in parallel. It also includes. According to this concept, reliability is improved by removing error data caused by unexpected movement of the object or secondary reflections. By using an odd parity scheme, there is no blind spot that would occur if there were a 0th order stripe through the origin.
上述した諸技術を実施する方法と装置の両方に関する本
発明により、高信頼性、高速性、デジタル適合性、グレ
イスケール情報及び高レンジ解像を含む数多くの格別の
長所が得られる。これらの長所は、以下の好ましい実施
例の記載で説明を尽くすものとする。The present invention, both as a method and apparatus for implementing the techniques described above, provides a number of particular advantages, including high reliability, high speed, digital compatibility, gray scale information and high range resolution. These advantages will be fully explained in the following description of the preferred embodiment.
支−1−1
第1図は本発明を実施するための装置の配置を図示して
いる。この装置は、対象物を含む空間3(位置は後に決
定する)上に光のストライプの連続パターンを投影する
プロジェクタ1と、光ストライプの各パターンに対して
対象空間内の対象物から反射した光のレベルを記録する
従来型TV右カメラとから構成される。このカメラ5は
、X−アレイに配置した数百のディテクタを備えている
のが普通である。これらのディテクタの1台が光の強度
を測定できる離散点のそれぞれを画素とする。汎用デジ
タルコンピュータ7は、プロジェクタ1による光の符号
化パターンの創成を制御し、TV左カメラの各画素で検
知した光の強度の陰影を、与えられたしきい値以下の強
度に対しては値0またはしきい値を越える強度に大して
は値1を持つ2値信号に変化し、光ストライプの各パタ
ーンに対して各画素で発生した2値信号を記憶し、さら
に、この記憶した信号を処理して対象物のTV左カメラ
からの距離を求める。Support-1-1 FIG. 1 illustrates the arrangement of equipment for carrying out the invention. This device consists of a projector 1 that projects a continuous pattern of light stripes onto a space 3 containing an object (the position of which will be determined later), and for each pattern of light stripes, light reflected from an object within the object space. A conventional TV right camera records the level of the TV. This camera 5 typically includes several hundred detectors arranged in an X-array. A pixel is each discrete point at which one of these detectors can measure the intensity of light. A general-purpose digital computer 7 controls the creation of a light encoding pattern by the projector 1, and changes the shade of the light intensity detected by each pixel of the TV left camera into a value for the intensity below a given threshold value. When the intensity exceeds 0 or a threshold value, it changes to a binary signal with a value of 1. The binary signal generated at each pixel for each pattern of the light stripe is stored, and this stored signal is further processed. to find the distance of the object from the TV left camera.
第2図に示したように、プロジェクタ1は、その投影軸
8がカメラ5の光軸11と0をなすようにカメラ5に対
して幾何学的に配置してある0表面の散乱に因って、対
象物13.15を照射するプロジェクタ1からの光は、
θで反射されてTV左カメラによって検知されるプロジ
ェクタ1は、第3図に図示してあるように、光のストラ
イプ17のパターンを創成する。ストライプ17は、軸
8.11で定められる平面に垂直な方向に形成される0
個々のストライプ17は、プロジェクタlが発生するパ
ターンのシーケンスで照射部分が明、非照射部分が暗に
なっている。各ストライプ17は、シーケンス中の各パ
ターンに対する状態を表現する2進法の一意数、すなわ
ち、明部に対しては「1」、暗部に対してはrOJに符
号化される。−例として、第3図は、等しい幅の18本
の連続するが#散する鉛直ストライプに投影パターンを
分けた場合を図示している。代表的なシステムであれば
、ストライプの数は、例示したものによりはるかに多い
が、いずれにしても、以下の記載から明瞭になるように
ストライプの幅で決定される所望の解像度を与えるよう
選定されるであろう。ストライプ17のそれぞれは、左
の−8から始まって+7まで隣りへ1つづつ増加する数
を割当てられる。2の補数表記を用いて、−8は10θ
Oで、−7は1001で、そして、7に対する0111
まで表わされる。上述の配置では、16木のストライプ
を一意的に識別するためには各数に対して4ビツト必要
であろう、各ストライプに割当てた2進数を第3図では
そのストライプの下方に図示してあり、鉛直′方向下方
に最上位ピッ) (MSB)から最下位ビット(LSB
)まで読取る。As shown in FIG. 2, the projector 1 is arranged geometrically with respect to the camera 5 such that its projection axis 8 is aligned with the optical axis 11 of the camera 5 due to the scattering of the surface. Therefore, the light from the projector 1 that illuminates the object 13.15 is
The projector 1 reflected at θ and detected by the TV left camera creates a pattern of light stripes 17, as illustrated in FIG. The stripes 17 are formed in the direction perpendicular to the plane defined by the axis 8.11.
Each stripe 17 is a sequence of patterns generated by the projector l, with illuminated areas being bright and non-illuminated areas being dark. Each stripe 17 is encoded into a unique binary number representing the state for each pattern in the sequence: ``1'' for bright areas and rOJ for dark areas. - By way of example, FIG. 3 illustrates the division of the projection pattern into 18 consecutive but scattered vertical stripes of equal width. In a typical system, the number of stripes would be much higher than those illustrated, but in any case they would be chosen to give the desired resolution, determined by the width of the stripes, as will be clear from the description below. will be done. Each of the stripes 17 is assigned a number starting at -8 on the left and increasing by one to the neighbor up to +7. Using two's complement notation, -8 is 10θ
O, -7 is 1001, and 0111 for 7
is expressed up to. In the above arrangement, the binary numbers assigned to each stripe, which would require 4 bits for each number to uniquely identify a 16-tree stripe, are shown below the stripe in Figure 3. Yes, from the most significant bit (MSB) to the least significant bit (LSB) vertically downward.
).
各ストライプを符号化するに要する4つのビットを作る
ために、プロジェクタlは、第4図ないし第7図に図示
した4種類の異なったストライプのパターンを創成する
。 18本のストライプを表記する番数の最上位ビー2
ト(MSB)に従ってストライプを形成する第4図に示
した第1図のパターンでは、右側のストライプは全て暗
(値「0」を持つ)になっており、左側のストライプは
全て明(値rlJを持つ)になっている、その結果、2
木の複合ストライプ(一方は明他方は暗)が実質的に形
成される。第5図に図示した第2のパターンでは、4本
の複合ストライプの空間周波数は第4図のそれの2倍に
なっているが幅は半分に過ぎない、同様にして、第6図
に図示した第3のパターンでは、複合ストライプの空間
周波数は最上位ビットのものに対して4倍になっており
、複合ストライプ自体の幅が1/4になっている。最下
位ビットを表わしている第7図に図示した第4のパター
ンでは、隣接するストライプは反対の状態になっており
、空間周波数は最上位ビットのものに対して8倍になっ
ている。To create the four bits required to encode each stripe, projector l creates four different stripe patterns as illustrated in FIGS. 4-7. The highest numbered bee 2 representing 18 stripes
In the pattern of Figure 1 shown in Figure 4, which forms stripes according to the MSB, the stripes on the right are all dark (with the value ``0'') and the stripes on the left are all light (with the value rlJ). ), as a result, 2
Composite stripes of wood (one light and the other dark) are essentially formed. In the second pattern illustrated in FIG. 5, the spatial frequency of the four composite stripes is twice that of that in FIG. 4, but only half the width; similarly illustrated in FIG. In the third pattern, the spatial frequency of the composite stripe is four times that of the most significant bit, and the width of the composite stripe itself is 1/4. In the fourth pattern illustrated in FIG. 7, representing the least significant bit, adjacent stripes are in the opposite state and the spatial frequency is eight times that of the most significant bit.
第4図ないし第7図の4種のストライプパターンが発生
する対象物13.15からの反射はカメラが2進法(第
3図を参照)で捕捉する。TV右カメラ各画素で受けた
反射光の履歴を知ることにより、各点のストライプ番号
を求めることができる。換言すれば、各画素で得られた
2進法は、光を該画素へ反射している対象物をどのスト
ライプが照射しているかを表わしている。ここで注目す
べきは、TV右カメラ画素数とストライプ数間には相関
関係を要しないこと、及びストライプは画素と少なくと
も同じ幅であることである。The camera captures the reflections from the object 13.15 in which the four striped patterns of FIGS. 4 to 7 occur in binary format (see FIG. 3). By knowing the history of reflected light received by each pixel of the TV right camera, the stripe number of each point can be determined. In other words, the binary value obtained at each pixel represents which stripe is illuminating the object that is reflecting light to that pixel. It should be noted here that no correlation is required between the number of TV right camera pixels and the number of stripes, and that the stripes are at least as wide as the pixels.
プロジェクタ1の配向を調節することにより対象空間の
中心を向くようにして、その軸をx−Z座標の原点にお
いてカメラの光@llに斜角θで交叉させる(第2図を
参照)。第8図は、第2図の対象物13.15周りの領
域を拡大して図示しており、x−Z座標を重ね合わせで
あるとともに第7図の最下位ビットのストライプパター
ンを図面に投影してある。The orientation of the projector 1 is adjusted so that it faces the center of the target space, and its axis intersects the camera light @ll at an oblique angle θ at the origin of the x-Z coordinates (see FIG. 2). Figure 8 shows an enlarged view of the area around object 13.15 in Figure 2, superimposing the x-Z coordinates and projecting the stripe pattern of the least significant bit in Figure 7 onto the drawing. It has been done.
第8図かられかるように、0番のストライプは常にx−
Z平面の原点を通っている。このようにして、原点に光
反射平面があれば。As can be seen from Figure 8, the stripe number 0 is always x-
It passes through the origin of the Z plane. In this way, if there is a light reflecting plane at the origin.
暗−暗一暗一暗と露光が起こる。もし反射表面がZ軸に
沿って原点から1単位離れると(すなわち距離が遠くな
ると)1番のストライプによって照射されて、+1スト
ライプが創生じた一意性シーケンスの暗−暗一暗一明と
露光が起こる。以上のことから、ストライプの順番と反
射表面との間には直線関係があることが、たちまち推論
できる。ストライプの番号が大きくなれば散乱表面の距
離は遠くなる。このようにして、Z軸に沿う散乱表面に
対して、距離は、反射表面の距離でZ軸と交わるストラ
イプが創生ずる2進数としてデジタル表示で直接読取る
ことができる。Dark - dark, dark, dark, and exposure occurs. If the reflective surface moves one unit away from the origin along the Z axis (i.e., the distance increases), it is illuminated by the first stripe, creating a unique sequence of dark-dark-dark-light and exposure, creating a +1 stripe. happens. From the above it can be quickly deduced that there is a linear relationship between stripe order and reflective surface. The larger the stripe number, the greater the distance between the scattering surfaces. In this way, for a scattering surface along the Z-axis, the distance can be read directly on the digital display as a binary number created by a stripe intersecting the Z-axis at the distance of the reflective surface.
本発明者は、対象空間内の全ての点における反射表面の
距離を求めることができる一般的かつ単純な解読法をこ
れまで工夫してきた。対象空間x−y−zに任意に散乱
点Pがあると仮定する。カメラの機能は、点PをX−Y
座標に投影することである。従って、点Pにおける散乱
表面から反射した光が照射した画素に対してデジタル・
アレイ内の水平方向アドレスと垂直方向アドレスを単に
求めることによって、X値とY値を求めるのは容易であ
る。ここでの疑問点は、アドレス情報と反射光の履歴デ
ータとを用いてZ値を求める方法だけである。この疑問
を解明するために、第9図に図示したように点Pが含ま
れるX−Z平面の中で簡単な幾何学的解析を行なうこと
ができる。点Pに合わ、せたカメラ画素に対する反射光
の履歴から、反射光がストライプ番号りを持つことがわ
かり、このことから。The inventors have so far devised a general and simple decoding method that allows determining the distance of a reflective surface at every point in the object space. Assume that there is an arbitrary scattering point P in the target space xyz. The function of the camera is to move point P to X-Y.
It is to project to the coordinates. Therefore, the pixel illuminated by the light reflected from the scattering surface at point P is digitally
It is easy to determine the X and Y values by simply determining the horizontal and vertical addresses within the array. The question here is only how to obtain the Z value using address information and history data of reflected light. To answer this question, a simple geometrical analysis can be performed in the X-Z plane containing point P, as illustrated in FIG. From the history of the reflected light for the camera pixel aligned with point P, it can be seen that the reflected light has a stripe number.
点PがD番のストライプの光線トレース13のどこかに
存在することがわかる。It can be seen that point P exists somewhere in the ray trace 13 of the D-th stripe.
第9図から直線18すなわち0番トレースに対して以下
の等式が成立することがわかる。It can be seen from FIG. 9 that the following equation holds true for straight line 18, ie, trace No. 0.
Z=AZ 十〇
ここで、Aは直線19の傾きでこの場合負であり、では
X切片である。X軸とX軸には相対目盛りを選んでスト
ライプの番号に対応する単位数で各ストライプトレース
が各軸と交わるようにしているので、線18のX軸との
交点も原点から距離りの所にある。(第8図を参照する
と、5番のストライプはX=5でX軸と2−5でX軸と
交わっている。)故に、直線19の傾きAは−1に等し
い。これを(1)式に代入すると、D番目のストライプ
18に沿う任意の点のX座標に対する一般式は以下のよ
うになる。Z=AZ 10 Here, A is the slope of the straight line 19, which is negative in this case, and is the X-intercept. Relative scales are chosen for the X and X axes so that each stripe trace intersects each axis by the number of units corresponding to the stripe number, so the intersection of line 18 with the X axis is also at a distance from the origin. It is in. (Referring to FIG. 8, stripe number 5 intersects the X axis at X=5 and the X axis at 2-5.) Therefore, the slope A of straight line 19 is equal to -1. Substituting this into equation (1), the general equation for the X coordinate of an arbitrary point along the D-th stripe 18 is as follows.
z −n −x
点Pに関しては、この点Pからの反射光を受ける画素に
対するX座標は既知であるから、(座標系の原点からの
)相対距離は、該画素で受けた符号化信号から該X値を
減算することによりすぐに得られる。z -n -x Regarding point P, since the X coordinate of the pixel that receives the reflected light from this point P is known, the relative distance (from the origin of the coordinate system) can be calculated from the encoded signal received at that pixel. It is immediately obtained by subtracting the X value.
この技術を実際の問題に応用すると、それぞれ第8図の
対象物13.15の点A、Bの相対距離が求まる0点A
に合わせた画素のX座標かられかるX座標は+5、すな
わち2進表記では0101である。第8図かられかるよ
うに。When this technique is applied to an actual problem, the relative distance between points A and B of object 13.15 in Figure 8 can be found at 0 point A.
The X coordinate obtained from the X coordinate of the pixel adjusted to is +5, that is, 0101 in binary notation. As shown in Figure 8.
点Aは+7ストライプで照射されている。この数字は、
暗−明一明一明、すなわち2進表示では0111となつ
いる点Aの露光経験で求められる。これらの数値を(2
)式に代入すると点Aでは: D = 0111
X=0101−
Z = 0010 = 2 (10進表記)換言すれば
、X座標は基本lO進法では2である。このようにして
、ある点からの反射光を受ける画素のX値を表わす2進
数を、符号化信号を発生したストライプを表わす該画素
において受信した該符号化信号から直接減算することに
より、鎖点の相対距離は簡単かつ迅速に求められる。Point A is illuminated with +7 stripes. This number is
It is determined from the exposure experience of point A, which is dark-bright-one-bright, that is, 0111 in binary notation. These numbers are (2
), at point A: D = 0111 X = 0101 - Z = 0010 = 2 (decimal notation) In other words, the X coordinate is 2 in the basic lO base system. In this way, the chain point The relative distance of can be easily and quickly determined.
当該技術が負の数値にも適用されることを説明するため
に、Y座標が−2、すなわち2の補数表記で1110で
ある点Bを考える。この点Bは、明−暗一明一暗と符号
化されていて2進数1010で表記される一6ストライ
プで照射されている。これらの数値を(2)式に代入す
ると、点 Bでは:
D = 1010
X=1110−
11000 = −4(10進表記)
これは、点BのX座標が基本のlθ進法では−4である
ことを示している。To explain that the technique also applies to negative numbers, consider point B whose Y coordinate is -2, that is, 1110 in two's complement notation. This point B is illuminated with 16 stripes coded as bright-dark-one-light-one-dark and expressed in binary 1010. Substituting these values into equation (2), at point B: D = 1010 X = 1110- 11000 = -4 (in decimal notation) This means that the It shows that there is.
カバーすべき対象空間がZ方向には比較的浅くX方向に
は広い場合、ストライプパターンの選んだシーケンスは
必要な回数だけX方向に反復することができる。たとえ
ば、所要の視野深度をカバーするのにZ方向には16単
位で充分であるがX方向には32単位必要であるとすれ
ば、第4図ないし第7図に図示した16ストライプパタ
ーンを、最下位ビットパターンに対しては、第10図に
図示したように並列に反復することができる。第2組の
パターン23に対する符号化は第1組21に対して第3
図に図示したものと同じである。このようにしたからと
いって、2つのパターン間の界面においても解読に何の
困難も生じない、このことは、第22組のストライプパ
ターンの一8番目のストライプにある第8図の点Rの例
で図解することができる。このようにして、切片りは2
の補数表記で−8に等しく、X座標は+7に等しくなる
。(2)式を用いると、点Rでは:
D = 1000
以 下 余 白
この結果は、第8図のグラフを解析することによって確
かめられる。必要なら別の組のストライプパターンを加
えてX方向を所望通りにカバーすることができる。ここ
で注目すべきは、Z軸の目盛りはX袖の目盛りに比例し
ていること、両目盛りはストライプの幅に依存している
ことである。X軸の目盛りに対するZ軸の目盛りの比は
角度θに依存している。角度θが大きくなればなる程Z
軸方向の解像度は上昇する。If the target space to be covered is relatively shallow in the Z direction and wide in the X direction, the chosen sequence of stripe patterns can be repeated in the X direction as many times as necessary. For example, if 16 units in the Z direction are sufficient to cover the required depth of field, but 32 units are required in the X direction, then the 16 stripe pattern illustrated in Figures 4-7 may The least significant bit pattern can be repeated in parallel as illustrated in FIG. The encoding for the second set of patterns 23 is the third one for the first set 21.
It is the same as shown in the figure. Even if this is done, there will be no difficulty in decoding even at the interface between the two patterns, as shown in the point R in FIG. This can be illustrated with an example. In this way, the intercept is 2
is equal to -8 in complement notation, and the X coordinate is equal to +7. Using equation (2), at point R: D = 1000 or less This result can be confirmed by analyzing the graph in FIG. If necessary, another set of stripe patterns can be added to cover the X direction as desired. What should be noted here is that the Z-axis scale is proportional to the X-sleeve scale, and both scales are dependent on the width of the stripe. The ratio of the Z-axis scale to the X-axis scale depends on the angle θ. The larger the angle θ, the more Z
Axial resolution increases.
対象空間にある不連続点の距離測定に関してこれまで本
発明を説明してきたが1本発明は、等高線を付けた対象
物表面のマツプを作るのに大きな価値を有する。たとえ
ば、もし本発明のストライプパターン27を第11図に
示した球29に投影すれば、TVカメ、うの焦点面3a
には図示のようにカーブしたストライプ31が現われる
。TVカメラの焦点面33の鉛直線に沿っている全画素
は同じX座標であるから、焦点面の鉛直方向中点の上下
にあるストライプ31の曲率は、左側に向かって、選ん
だ任意の鉛直線上の画素が鉛直中点から離れる程高番号
のストライプで照射されることを意味する。その結果、
(2)式によれば、[11者から離れる方向に表面がカ
ーブしていることを示す増加の距離測定が得ら゛れる。Although the invention has been described above with respect to distance measurements of discontinuities in object space, it has great value in creating maps of contoured object surfaces. For example, if the stripe pattern 27 of the present invention is projected onto the sphere 29 shown in FIG.
A curved stripe 31 appears as shown in the figure. Since all pixels along the vertical line of the focal plane 33 of the TV camera have the same X coordinate, the curvature of the stripe 31 above and below the vertical midpoint of the focal plane will move toward the left to any selected vertical direction. This means that the farther the pixels on the line are from the vertical midpoint, the more they are irradiated with higher-numbered stripes. the result,
According to equation (2), an increasing distance measurement is obtained indicating that the surface is curving away from the [11].
本発明を用いると、全対象空間の濃いレンジマツプを迅
速に作ることができる。Using the present invention, a dense range map of the entire object space can be quickly created.
本発明の開示技術から多くの利点が得られる。第1の利
点は高い信頼性である。この高信頼性は、可動の機械要
素を全く省いたこと、光のレベルを2進的に検知してS
/N比の要求を緩めたこと、推量や曖昧さを全く含まな
い簡単な解読法によって得られる。符号化信号に対して
パリティ・ビットを与えることができるが、そのために
は、第3図に示したパリティ・ビットのパターンを持つ
1回以上の露光を追加するだけでよい、各画素の反射光
履歴のパリティをチェックしてから解読に移ることがで
きる。このようにして、対象物の予期せぬ移動や比較的
反射性の表面特性さから望ましくない2次反射を受ける
ことによって発生する信頼できない画素を除去すること
によって、システムの信頼性を向上することができる。Many advantages are derived from the disclosed technology. The first advantage is high reliability. This high reliability is due to the fact that there are no moving mechanical elements and the light level is detected binary.
This can be achieved by relaxing the requirements for the /N ratio and by using a simple deciphering method that does not involve any guesswork or ambiguity. Parity bits can be applied to the encoded signal by simply adding one or more exposures with the pattern of parity bits shown in Figure 3. You can check the parity of the history and then move on to decryption. In this way, system reliability is improved by eliminating unreliable pixels caused by unexpected movement of the object or by receiving unwanted secondary reflections from relatively reflective surface properties. I can do it.
奇数のパリティテストを選択することによって、別の効
果を得ることができる。0番のストライプに対する暗−
暗一暗一暗の符号化によって創成された盲点は、奇数の
パリティ・スキームが作る明のパリティ・ビットによっ
て除去する・
本発明によれば、フルレンジの情報が高速で得られる。Another effect can be obtained by choosing an odd number of parity tests. Darkness for stripe number 0-
The blind spots created by dark-dark coding are eliminated by the bright parity bits created by the odd-numbered parity scheme. According to the present invention, a full range of information can be obtained at high speed.
本発明が必要とするのはにフレームではなくて log
2 Mフレームに過ぎない。ここで、には解像可能なレ
ンジ要素の数、字義通りには「ダイナミック・レンジ」
である。たとえば、本発明に必要なのはBフレーム(す
なわち通常のビデオカメラを用いて約174秒)に過ぎ
ず、この場合、 M = 256であり、解読プロセス
は全システムに対して何の負担も与えない。何故なら、
解読は非常に簡単な方法であるからである。この解像に
対しては、単一のストライプ技術は25Bものフレーム
(7秒を越える)を必要とする。この単一のストライプ
技術から本発明の技術までのデータ収集時間の短縮は(
log 2 M)/Mである。この短縮は、乱暴に述べ
れば、離散フーリエ交換から高速ツーリア変換に変える
と得られる計算時間の短縮に相当する。この効果はダイ
ナミックレンジの要求が増す捏上がる。Our invention requires only frames, not logs.
It's only 2M frames. Here, is the number of resolvable range elements, literally the "dynamic range"
It is. For example, the present invention only requires B frames (i.e. about 174 seconds using a regular video camera), in this case M = 256, and the decoding process does not impose any burden on the overall system. Because,
This is because decoding is a very simple method. For this resolution, a single stripe technique requires as many as 25B frames (over 7 seconds). The reduction in data collection time from this single stripe technique to our technique is (
log 2 M)/M. Roughly speaking, this reduction corresponds to the reduction in calculation time obtained by changing from discrete Fourier exchange to fast Tourier transform. This effect increases the dynamic range requirements.
本発明の光学的三次元デジタルデータ収集システムの出
力は本来デジタルなものである。レンジを2の補数で表
記することにより、将来の多くの用途において多様なホ
スト・コンピュータや通信チャンネルとのインターフェ
ースが容易になる。The output of the optical three-dimensional digital data acquisition system of the present invention is digital in nature. Representing ranges in two's complement numbers facilitates interfacing with a variety of host computers and communication channels in many future applications.
本発明の別の利点は1、システムが普通のビデオカメラ
を用いているため通常のグレイスケールのビデオ信号が
得られる点である。その結果、アナログのグレイスケー
ルとデジタルレンジの両方を同時に使用できるようにな
る。たとえば、ロボットを監視しているオペレータの助
けになるように同じビデオフレームに重畳したx−Y座
標の情報を、関心のある全ての点にラベル付けすること
ができる。Another advantage of the present invention is that 1, since the system uses a conventional video camera, a conventional gray scale video signal is obtained. As a result, both analog grayscale and digital ranges can be used simultaneously. For example, all points of interest can be labeled with x-y coordinate information superimposed on the same video frame to assist an operator monitoring the robot.
本発明のさらに他の利点は、レンジの解像度ΔZが制限
されるのはカメラの解像度ΔXに限られる。すなわち、
ΔZ = (1/lanθ)ΔXであって、ここでθは
カメラとプロジェクタ間の斜角である。このようにして
、種々のレンズを用いたりズーム能力を追加することに
よって変倍することができる。そこで、望遠鏡の対象物
、顕微鏡の対象物やこれらの中間対象物の濃いレンズマ
ツプを作ることができよう。Yet another advantage of the present invention is that the range resolution ΔZ is limited only by the camera resolution ΔX. That is,
ΔZ = (1/lanθ)ΔX, where θ is the oblique angle between the camera and the projector. In this way, magnification can be varied by using different lenses or by adding zoom capability. Therefore, it would be possible to create a dense lens map of telescopic objects, microscopic objects, and intermediate objects between them.
以上本発明の特定の実施例について詳細に説明したが、
その開示の全体的な教示によれば実施例に対する種々の
変形や代替が可能であることは当業者の評価する所であ
る。従って、開示した特定の配置は、単に発明を例示す
るものであってその範囲を限定するものではない。本発
明の範囲は、本明細書の特許請求の範囲とその均等物に
より特定すべきである。Although specific embodiments of the present invention have been described in detail above,
Those skilled in the art will appreciate that various modifications and substitutions to the embodiments are possible given the general teachings of the disclosure. Accordingly, the specific arrangements disclosed are merely illustrative of the invention and do not limit its scope. The scope of the invention should be determined by the claims appended hereto and their equivalents.
第1図は、本発明を実施するための装置の配置を示す斜
視図である。第2図は、TV右カメラらの距離を測定す
る対象物に対して、第1図のTV右カメラプロジェクタ
の幾何学的配置を示す、模式的な平面図である。第3図
は、プロジェクタが形成する光のドライブパターンを符
号化するのに用いるシステムを示すダイヤグラムである
。第4図ないし第7図は、パターンをIB木のストライ
プに分ける例示システムに対してプロジェクタが形成す
る連続した光の符号化ストライプパターンを示している
。第8図は、最下位ビットのストライプパターンを第2
図に示した対象物に投影する様子を示すとともに距離を
求めるのに用いる座標系を示すダイヤグラムである。第
9図は、符号化ストライプパターンが創成したデータか
ら対象物の距離を求めるのに用いる方法を図示するダイ
ヤグラムである。第1O図は、2組のストライプパター
ンが並列に投影する本発明による測定技術を示すダイヤ
グラムである。第11図は、三次元の対象物の表面のマ
ツプを作る本発明の応用例を示すダイヤグラムである。
l・・・・プロジェクタ
3・・・・空間
5・・・・TV右カメ
ラ・・・・デジタルコンピュータ
9・・・・投影軸
11・・・・光軸
13.15・・・・対象物
17・・・・ストライプパターン
0・・・・斜角
−8−1−@−3−4−5−t −1u l t
コリ コ % rFIG、IO
7ギ
FIG、lIFIG. 1 is a perspective view showing the arrangement of an apparatus for carrying out the invention. FIG. 2 is a schematic plan view showing the geometric arrangement of the TV right camera projector of FIG. 1 with respect to an object whose distance to the TV right camera is to be measured. FIG. 3 is a diagram illustrating a system used to encode the drive pattern of light produced by a projector. 4-7 illustrate a continuous light encoded stripe pattern formed by a projector for an exemplary system that divides the pattern into IB-tree stripes. Figure 8 shows the stripe pattern of the least significant bit in the second
It is a diagram showing how the image is projected onto the object shown in the figure and also showing a coordinate system used to calculate the distance. FIG. 9 is a diagram illustrating the method used to determine object distances from data generated by encoded stripe patterns. FIG. 1O is a diagram illustrating a measurement technique according to the invention in which two sets of stripe patterns are projected in parallel. FIG. 11 is a diagram showing an example of application of the present invention to create a map of the surface of a three-dimensional object. l...Projector 3...Space 5...TV right camera...Digital computer 9...Projection axis 11...Optical axis 13.15...Object 17 ... Stripe pattern 0 ... Oblique angle -8-1-@-3-4-5-t -1ul t
Cori co % rFIG, IO 7giFIG, lI
Claims (1)
る複数の画素位置と該X−Y平面に垂直の光軸を持つT
Vカメラ及びプロジェクタを用いて、三次元の対象空間
に配設してある対象物上の複数の点の距離を測定する方
法であって、一意的に符号化した光のストライプの連続
パターンを、前記TVカメラの光軸に対して斜角をなす
軸に沿って、前記対象物に投影して該対象物が該TVカ
メラに向けて前記符号化光の一部を反射するようにする
ステップであって、該ストライプが、前記連続パターン
の一意性シーケンスにおいて各ストライプを選択的に明
暗化することによって符号化してあるステップと、前記
した光ストライプの連続パターンに対して各画素位置に
おいて検知した反射光の符号化パターンを記録するステ
ップと、各画素に向けて光を反射する点の前記TVカメ
ラからの距離を、該画素のX−Y座標と前記画素位置で
検知した前記符号化光信号との関数として計算するステ
ップとから成ることを特徴とする方法。 2、前記連続パターンの数は、各パターン中のストライ
プ数の2を定数とする対数に等しいことを特徴とする特
許請求の範囲第1項の方法。 3、ストライプのパターンは並列に反復していることを
特徴とする特許請求の範囲第2項の方法。 4、各ストライプ毎に特定のパリティ・ビットを発生す
るように符号化したストライプの別のパターンを投影す
るステップと、各画素で検知した符号化光信号のパリテ
ィ値を計算するステップと、特定のパリティ値を持たな
い任意の画素で検知した符号化光信号に対して計算した
距離を消去するステップとから更になることを特徴とす
る特許請求の範囲第2項の方法。 5、光が検知できる場所にありX−Y平面に配設してあ
る複数の画素位置と該X−Y平面に垂直の光軸を持つT
Vカメラ及びプロジェクタを用いて、三次元の対象空間
に配設してある対象物上の複数の点の距離を測定する方
法であって、X軸とY軸が該TVカメラの画素アレイ中
の対応する軸に平行でありZ軸が該カメラの光軸に平行
であるX−Y−Z座標を該対象空間中に創成するステッ
プと、該座標のY軸に平行な符号化した光のストライプ
の連続パターンを、該X軸とZ軸に斜角で交叉する軸に
沿って、前記対象空間中及び前記対象物に投影して該対
象物が前記TVカメラに向けて該光の一部を反射するよ
うにするステップと、該座標のX軸及びZ軸のそれぞれ
と該ストライプの斜交幅として該両軸上に目盛りを設定
するとともに、そのうちのX軸の法に設定した目盛りの
関数として画素アレイのX軸上の目盛りを設定するステ
ップと、二進法で表現した一意性シーケンスの前記連続
パターンで前記ストライプのそれぞれを選択的に明暗化
することによって、前記X−Y−Z座標の原点から各パ
ターンを横切って連続した数値番号でストライプを符号
化するステップと、各画素に向けて光を反射する点のZ
軸方向距離を、該画素位置で検知した該符号化信号から
該画素のX座標を減算することによって計算するステッ
プとからなることを特徴とする方法。 6、ストライプのパターンは並列に反復していることを
特徴とする特許請求の範囲第2項の方法。 7、前記X−Y−Z座標の原点は前記対象空間のほぼ中
心に置くこと、さらに、前記ストライプは該原点から前
記Y軸に沿って一方向に配列した正の数列と逆方向に配
列した負の数列に符号化して、該原点を通るストライプ
は数値0に符号化してあることを特徴とする特許請求の
範囲第4項の方法。 8、前記した光のストライプのパターンは空間的に並列
に反復しており各反復の対応するストライプは同じ符号
化をなされていることを特徴とする特許請求の範囲第7
項の方法。 9、各ストライプ毎に特定のパリティ・ビットを発生す
るように符号化したストライプの別のパターンを投影す
るステップと、各画素で検知した符号化光信号のパリテ
ィ値を計算するステップと、特定のパリティ値を持たな
い任意の画素で検知した符号化光信号に対して計算した
距離を消去するステップとから更になることを特徴とす
る特許請求の範囲第2項の方法。 10、負数として符号化した前記ストライプは2の補数
表記として符号化してあることを特徴とする特許請求の
範囲第7項に記載の方法。 11、各ストライプ毎に奇数となるように符号化した前
記ストライプの別のパターンを投影するステップと、検
知した各符号化光信号のパリティ値を各画素位置で計算
するステップと、検知した符号化光信号が奇数とならな
い任意の画素に対して計算した距離を消去するステップ
とからさらになることを特徴とする特許請求の範囲第1
0項に記載の方法。 12、X−Y−Z座標系において対象表面上の点のZ軸
方向位置を求める装置であって、光の照射を受ける複数
の画素が、該座標系のX−Y平面に平行にX−Yアレイ
配列してあり、光軸がZ軸に平行になっていることとも
に、各画素位置に対してX座標信号を2進法で発生する
ための手段を備えているTVカメラと、一意的に符号化
した光のストライプの連続パターンを、前記TVカメラ
の光軸に斜角で交叉する軸に沿って、前記対象物に投影
して該対象物が該TVカメラに向けて前記符号化光の一
部を反射するようにするためのプロジェクタであって、
前記座標系のX軸とZ軸の目盛りは該ストライプの斜交
幅で定められており、該両軸と画素アレイのX軸目盛り
とは該座標系のX軸の目盛りで定められるプロジェクタ
と、2進法で表現した一意性シーケンスの前記連続パタ
ーンで各ストライプを選択的に明暗化することによって
各パターンを横切って連続した数値番号で該ストライプ
を一意的に符号化するための手段と、前記対象物表面上
の点のZ軸位置を、前記TVカメラの各画素が受信した
符号化反射光信号からX座標信号を該画素に対して減算
することによって計算するための手段とから構成される
ことを特徴とする装置。 13、前記プロジェクタは、前記した光のストライプの
連続パターンを空間的に反復させるための手段を備えて
いること、さらに、前記符号化手段は、各反復の対応す
るストライプを同符号に符号化するための手段を備えて
いることを特徴とする特許請求の範囲第12項の装置。 14、前記TVカメラの光軸は、前記座標系のZ軸と同
軸となるよう軸合わせしてあること、前記プロジェクタ
は、前記したストライプのパターンが該座標系のX軸を
横断し、ストライプの一部が座標原点の一方の側に他部
が他方の側にそして1本が該原点を通るように、該パタ
ーンを投影すること、さらに、前記符号化手段は、前記
した一部のストライプを連続した正の2進数に、同他部
を連続した負の2進数に、原点を通る1本のストライプ
をゼロにそれぞれ符号化することを特徴とする特許請求
の範囲第12項の装置。 15、前記符号化手段は、2の補数表記を用いた負の2
進数に前記したストライプの他部を符号化することを特
徴とする特許請求の範囲第14項の装置。 16、前記プロジェクタは、光のストライプの別のパタ
ーンを投影すること、前記符号化手段は、各ストライプ
に対して前記別のパターンを奇数のパリティ・ビットに
符号化すること、さらに、前記計算手段は、各画素が受
信した符号化光信号のパリティをも計算するとともに奇
数のパリティでないストライプを不合格にすることを特
徴とする特許請求の範囲第15項の装置。 17、前記プロジェクタは、前記した光のストライプの
連続パターンを空間的に並列に反復させるための手段を
備えていること、さらに、前記符号化手段は、各反復の
対応するストライプを同符号で符号化するための手段を
備えていることを特徴とする特許請求の範囲第14項の
装置。 18、対象物表面の点の位置を求める装置であって、光
の照射を受ける複数の画素がX−Y平面にアレイ配列し
てあり光軸が該対象物に向かって伸びているTVカメラ
と、光のストライプの連続パターンを、前記TVカメラ
の光軸に斜角で交叉する軸に沿って、前記対象物に投影
して該対象物表面の点が該TVカメラに向けて前記符号
化光の一部を反射するようにするプロジェクタと、前記
したストライプの連続パターンの一意性シーケンスで各
ストライプを選択的に明暗化することによって該ストラ
イプを一意的に符号化するための手段と、前記TVカメ
ラの光軸に平行方向における該対象物表面の点の位置を
、これらの点から反射した光を受ける各画素のX−Y座
標と該反射光信号の符号化値との各画素のX−Y座標と
該反射光信号の符号化値との関数として計算するための
手段とから構成されることを特徴とする装置。 19、前記プロジェクタは、前記した光のストライプの
連続パターンを空間的に並列に反復させるための手段を
備えていること、さらに、前記符号化手段は、各反復の
対応するストライプを同符号で符号化するための手段を
備えていることを特徴とする特許請求の範囲第18項の
装置。[Claims] 1. A T having a plurality of pixel positions located in a place where light can be detected and arranged on the X-Y plane and an optical axis perpendicular to the X-Y plane.
A method for measuring distances between multiple points on an object arranged in a three-dimensional object space using a V-camera and a projector, the method comprising: measuring a continuous pattern of uniquely encoded light stripes; projecting onto the object along an axis oblique to the optical axis of the TV camera such that the object reflects a portion of the coded light towards the TV camera; wherein the stripes are encoded by selectively brightening and darkening each stripe in a unique sequence of said continuous pattern; and a detected reflection at each pixel location for said continuous pattern of light stripes. recording a coded pattern of light, and determining the distance from the TV camera of a point that reflects light toward each pixel using the coded light signal detected by the X-Y coordinates of the pixel and the pixel position; and calculating as a function of . 2. The method of claim 1, wherein the number of consecutive patterns is equal to the logarithm of the number of stripes in each pattern, with 2 being a constant. 3. The method of claim 2, wherein the pattern of stripes is repeated in parallel. 4. projecting another pattern of encoded stripes to generate a specific parity bit for each stripe; calculating the parity value of the encoded optical signal sensed at each pixel; 3. The method of claim 2 further comprising the step of erasing the distance calculated for the encoded optical signal sensed at any pixel that does not have a parity value. 5. A T having multiple pixel positions arranged on the X-Y plane and an optical axis perpendicular to the X-Y plane, located in a place where light can be detected.
A method of measuring distances between multiple points on an object arranged in a three-dimensional object space using a V-camera and a projector, in which the X-axis and Y-axis are in the pixel array of the TV camera. creating an X-Y-Z coordinate in the object space parallel to the corresponding axis and with the Z axis parallel to the optical axis of the camera; and encoded stripes of light parallel to the Y axis of the coordinate. is projected into the object space and onto the object along an axis that intersects the X and Z axes at an oblique angle so that the object directs a portion of the light toward the TV camera. setting a scale on each of the X and Z axes of the coordinates and the diagonal width of the stripe, and as a function of the scale set in the modulus of the X axis; from the origin of the X-Y-Z coordinates by setting a scale on the Encoding the stripes with consecutive numerical numbers across each pattern and Z of points that reflect light towards each pixel.
calculating an axial distance by subtracting the x-coordinate of the pixel from the encoded signal sensed at the pixel location. 6. The method of claim 2, wherein the pattern of stripes is repeated in parallel. 7. The origin of the X-Y-Z coordinates is placed approximately at the center of the target space, and the stripes are arranged in a direction opposite to the positive number sequence arranged in one direction from the origin along the Y-axis. 5. The method of claim 4, wherein the stripe passing through the origin is encoded as a negative number sequence and the stripe passing through the origin is encoded with the value 0. 8. Claim 7, wherein the pattern of light stripes is spatially repeated in parallel, and corresponding stripes in each repetition have the same encoding.
Section method. 9. projecting another pattern of encoded stripes to generate a specific parity bit for each stripe; calculating a parity value of the encoded optical signal sensed at each pixel; 3. The method of claim 2 further comprising the step of erasing the distance calculated for the encoded optical signal sensed at any pixel that does not have a parity value. 10. The method of claim 7, wherein the stripes encoded as negative numbers are encoded as two's complement notation. 11. Projecting another pattern of the stripes encoded such that each stripe is an odd number; calculating a parity value of each detected encoded optical signal at each pixel position; and detecting the encoded optical signal. Claim 1, further comprising the step of erasing the distance calculated for any pixel for which the optical signal is not an odd number.
The method described in item 0. 12. A device for determining the Z-axis position of a point on an object surface in an X-Y-Z coordinate system, in which a plurality of pixels irradiated with light are A TV camera arranged in a Y array, with its optical axis parallel to the Z axis, and equipped with means for generating an X coordinate signal in binary for each pixel position; A continuous pattern of encoded light stripes is projected onto the object along an axis that intersects the optical axis of the TV camera at an oblique angle so that the object directs the coded light toward the TV camera. A projector for reflecting a part of the
The scales of the X-axis and Z-axis of the coordinate system are defined by the diagonal width of the stripe, and the two axes and the X-axis scale of the pixel array are defined by the scale of the X-axis of the coordinate system; means for uniquely encoding each stripe with consecutive numerical numbers across each pattern by selectively brightening and darkening each stripe in said continuous pattern of a uniqueness sequence expressed in binary; means for calculating the Z-axis position of a point on the object surface by subtracting an X-coordinate signal for each pixel of the TV camera from the encoded reflected light signal received by the pixel; A device characterized by: 13. The projector comprises means for spatially repeating the continuous pattern of stripes of light, and the encoding means encodes corresponding stripes of each repetition to the same code. 13. Apparatus according to claim 12, characterized in that it comprises means for. 14. The optical axis of the TV camera is aligned so that it is coaxial with the Z axis of the coordinate system, and the projector is arranged such that the stripe pattern crosses the X axis of the coordinate system and the stripe pattern crosses the X axis of the coordinate system. projecting the pattern so that one part is on one side of the coordinate origin, the other part is on the other side, and one line passes through the origin; 13. The apparatus according to claim 12, wherein the same part is encoded as a continuous positive binary number, the same part is encoded as a continuous negative binary number, and one stripe passing through the origin is encoded as a zero. 15. The encoding means encodes negative 2 using 2's complement notation.
15. Apparatus according to claim 14, characterized in that the other parts of said stripes are encoded in base numbers. 16. said projector projecting another pattern of stripes of light; said encoding means encoding said other pattern into an odd number of parity bits for each stripe; and said computing means 16. The apparatus of claim 15, wherein the apparatus also calculates the parity of the encoded optical signal received by each pixel and rejects odd non-parity stripes. 17. The projector comprises means for spatially repeating the continuous pattern of stripes of light as described above in parallel, and further that the encoding means encodes corresponding stripes of each repetition with the same code. 15. Apparatus according to claim 14, characterized in that it comprises means for digitizing. 18. A device for determining the position of a point on the surface of an object, including a TV camera in which a plurality of pixels receiving light are arranged in an array on the X-Y plane and the optical axis extends toward the object. , projecting a continuous pattern of stripes of light onto the object along an axis that intersects the optical axis of the TV camera at an oblique angle so that a point on the object surface directs the encoded light toward the TV camera. a projector for reflecting a portion of said TV; means for uniquely encoding said stripe by selectively brightening and darkening each stripe in a unique sequence of said continuous pattern of stripes; The position of the point on the object surface in the direction parallel to the optical axis of the camera is determined by the X-Y coordinates of each pixel that receives light reflected from these points and the encoded value of the reflected light signal. and means for calculating the Y coordinate as a function of the encoded value of the reflected light signal. 19. The projector comprises means for spatially repeating the continuous pattern of stripes of light as described above in parallel, and further that the encoding means encodes corresponding stripes of each repetition with the same code. 19. Apparatus according to claim 18, characterized in that it comprises means for digitizing.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US06/653,987 US4653104A (en) | 1984-09-24 | 1984-09-24 | Optical three-dimensional digital data acquisition system |
US653987 | 1984-09-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6184515A true JPS6184515A (en) | 1986-04-30 |
Family
ID=24623069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP60197493A Pending JPS6184515A (en) | 1984-09-24 | 1985-09-05 | Method and device for obtaining distance up to plurality of point on object |
Country Status (6)
Country | Link |
---|---|
US (1) | US4653104A (en) |
EP (1) | EP0176339A3 (en) |
JP (1) | JPS6184515A (en) |
KR (1) | KR860002745A (en) |
CA (1) | CA1233234A (en) |
ES (1) | ES8800425A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6704099B2 (en) | 1998-05-25 | 2004-03-09 | Matsushita Electric Industrial Co., Ltd. | Range finder device and camera |
JP2007518098A (en) * | 2004-01-15 | 2007-07-05 | テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド | 3D video scanner |
JP2009524849A (en) * | 2006-01-24 | 2009-07-02 | ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク | System, method, and medium for capturing scene images and depth shapes to generate compensated images |
JP2013546222A (en) * | 2010-09-28 | 2013-12-26 | マイクロソフト コーポレーション | Low power depth camera and projection device integration |
WO2024070979A1 (en) * | 2022-09-30 | 2024-04-04 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, program, and imaging device |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2591329B1 (en) * | 1985-12-10 | 1992-05-22 | Canon Kk | APPARATUS AND METHOD FOR PROCESSING THREE-DIMENSIONAL INFORMATION |
DE3812590A1 (en) * | 1987-04-16 | 1988-11-03 | Rollei Fototechnic Gmbh | Projection device |
US4846577A (en) * | 1987-04-30 | 1989-07-11 | Lbp Partnership | Optical means for making measurements of surface contours |
DE3721749A1 (en) * | 1987-07-01 | 1989-01-12 | Man Technologie Gmbh | METHOD AND DEVICE FOR CONTACTLESS DETECTION OF THE SHAPE OF OBJECTS |
US5095447A (en) * | 1988-03-25 | 1992-03-10 | Texas Instruments Incorporated | Color overlay of scanned and reference images for display |
US4943160A (en) * | 1988-07-25 | 1990-07-24 | Massachusetts Institute Of Technology | Interface angle estimation system |
US4965442A (en) * | 1989-11-07 | 1990-10-23 | Massachusetts Institute Of Technology | System for ascertaining direction of blur in a range-from-defocus camera |
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
US5101442A (en) * | 1989-11-24 | 1992-03-31 | At&T Bell Laboratories | Three-dimensional imaging technique using sharp gradient of illumination |
US5589942A (en) * | 1990-04-05 | 1996-12-31 | Intelligent Automation Systems | Real time three dimensional sensing system |
CA2044820C (en) * | 1990-06-19 | 1998-05-26 | Tsugito Maruyama | Three-dimensional measuring apparatus |
US5097516A (en) * | 1991-02-28 | 1992-03-17 | At&T Bell Laboratories | Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging |
US5299268A (en) * | 1991-11-27 | 1994-03-29 | At&T Bell Laboratories | Method for detecting the locations of light-reflective metallization on a substrate |
AT404638B (en) * | 1993-01-28 | 1999-01-25 | Oesterr Forsch Seibersdorf | METHOD AND DEVICE FOR THREE-DIMENSIONAL MEASUREMENT OF THE SURFACE OF OBJECTS |
JPH07120237A (en) * | 1993-10-22 | 1995-05-12 | Nichiden Mach Ltd | Picture recognizing device |
US5807042A (en) * | 1995-06-07 | 1998-09-15 | Almblad; Robert | Method and apparatus for automatically making keys |
US6044170A (en) * | 1996-03-21 | 2000-03-28 | Real-Time Geometry Corporation | System and method for rapid shape digitizing and adaptive mesh generation |
US5870220A (en) * | 1996-07-12 | 1999-02-09 | Real-Time Geometry Corporation | Portable 3-D scanning system and method for rapid shape digitizing and adaptive mesh generation |
US6032343A (en) * | 1997-02-24 | 2000-03-07 | Ethicon, Inc. | Automated swage wind and packaging machine |
US6512844B2 (en) * | 1997-05-30 | 2003-01-28 | California Institute Of Technology | 3D rendering |
US6219063B1 (en) * | 1997-05-30 | 2001-04-17 | California Institute Of Technology | 3D rendering |
US5908273A (en) * | 1997-07-31 | 1999-06-01 | Machine Magic-Llc | Key duplication apparatus and method |
US6152662A (en) | 1997-07-31 | 2000-11-28 | Machine Magic, Llc | Key duplication apparatus and method |
JP3571893B2 (en) * | 1997-12-03 | 2004-09-29 | キヤノン株式会社 | Image recording apparatus and image recording method, image database generating apparatus and image database generating method |
AU3991799A (en) | 1998-05-14 | 1999-11-29 | Metacreations Corporation | Structured-light, triangulation-based three-dimensional digitizer |
EP1102211A3 (en) * | 1999-11-19 | 2006-09-13 | Matsushita Electric Industrial Co., Ltd. | Image processor, method of providing image processing services and order processing method |
US7065242B2 (en) * | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
US6789039B1 (en) * | 2000-04-05 | 2004-09-07 | Microsoft Corporation | Relative range camera calibration |
US6839449B1 (en) | 2000-07-25 | 2005-01-04 | The Hillman Group, Inc. | Key identification system |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
FR2817042B1 (en) * | 2000-11-22 | 2003-06-20 | Saint Gobain | METHOD AND DEVICE FOR ANALYZING THE SURFACE OF A SUBSTRATE |
US6634552B2 (en) * | 2001-09-26 | 2003-10-21 | Nec Laboratories America, Inc. | Three dimensional vision device and method, and structured light bar-code patterns for use in the same |
US7206717B2 (en) * | 2002-05-13 | 2007-04-17 | General Electric Company | Sensor alignment method for 3D measurement systems |
EP1545820A4 (en) * | 2002-08-02 | 2007-08-15 | Hy Ko Products | Object identification system |
CN100417976C (en) * | 2002-09-15 | 2008-09-10 | 深圳市泛友科技有限公司 | Three-dimensional photographic technology |
US7103212B2 (en) | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
US7212942B2 (en) * | 2003-06-10 | 2007-05-01 | Precision Innovations Llc | Power available and limitation indicator for use with an aircraft engine |
US7916898B2 (en) * | 2003-09-15 | 2011-03-29 | Deere & Company | Method and system for identifying an edge of a crop |
WO2006034144A2 (en) * | 2004-09-18 | 2006-03-30 | The Ohio Willow Wood Company | Apparatus for determining the three dimensional shape of an object |
US7620209B2 (en) * | 2004-10-14 | 2009-11-17 | Stevick Glen R | Method and apparatus for dynamic space-time imaging system |
WO2007059780A1 (en) * | 2005-11-28 | 2007-05-31 | 3Shape A/S | Coded structured light |
US9101990B2 (en) | 2006-01-23 | 2015-08-11 | Hy-Ko Products | Key duplication machine |
CN101405104B (en) | 2006-01-23 | 2011-05-25 | 海-科产品公司 | Key duplication machine |
KR100836464B1 (en) * | 2007-03-14 | 2008-06-09 | (주)대우건설 | Automatic test system and test method for slump flow of concrete using computing device |
DE102007037726B4 (en) * | 2007-08-09 | 2010-07-08 | Lavision Gmbh | Method for the non-contact measurement of deformations of a surface of a measured object |
DE102008015499C5 (en) * | 2008-03-25 | 2013-01-10 | Steinbichler Optotechnik Gmbh | Method and device for determining the 3D coordinates of an object |
US20100098323A1 (en) * | 2008-07-18 | 2010-04-22 | Agrawal Amit K | Method and Apparatus for Determining 3D Shapes of Objects |
FR2938330A1 (en) * | 2008-11-07 | 2010-05-14 | Michelin Soc Tech | EVALUATION OF THE SURFACE SURFACE OF A PNEUMATIC BY STEREOVISION ACTIVE |
US8644619B2 (en) | 2009-05-01 | 2014-02-04 | Hy-Ko Products Company | Key blank identification system with groove scanning |
US8634655B2 (en) | 2009-05-01 | 2014-01-21 | Hy-Ko Products Company | Key blank identification system with bitting analysis |
US9046355B2 (en) * | 2009-07-29 | 2015-06-02 | Canon Kabushiki Kaisha | Measuring apparatus, measuring method, and program |
JP5576726B2 (en) * | 2010-06-29 | 2014-08-20 | キヤノン株式会社 | Three-dimensional measuring apparatus, three-dimensional measuring method, and program |
US9007602B2 (en) * | 2010-10-12 | 2015-04-14 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program |
JP5798318B2 (en) * | 2010-12-15 | 2015-10-21 | キヤノン株式会社 | Distance data generation device, position and orientation measurement device, distance data generation device control method, and program |
JP6021909B2 (en) | 2011-07-21 | 2016-11-09 | ブルックス オートメーション インコーポレイテッド | Method and apparatus for correction of dimensional changes in low temperature sample group holders |
JP6112769B2 (en) * | 2012-03-05 | 2017-04-12 | キヤノン株式会社 | Information processing apparatus and information processing method |
US20130266228A1 (en) * | 2012-04-10 | 2013-10-10 | Siemens Industry, Inc. | Automatic part identification and workflow generation |
DE102012222505B4 (en) * | 2012-12-07 | 2017-11-09 | Michael Gilge | Method for acquiring three-dimensional data of an object to be measured, use of such a method for facial recognition and apparatus for carrying out such a method |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
US9530215B2 (en) | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
US9818041B2 (en) | 2015-08-03 | 2017-11-14 | Hy-Ko Products Company | High security key scanning system |
US9635339B2 (en) | 2015-08-14 | 2017-04-25 | Qualcomm Incorporated | Memory-efficient coded light error correction |
US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
DE102016003512A1 (en) * | 2016-03-22 | 2017-09-28 | Rodenstock Gmbh | Method and device for determining 3D coordinates of at least one predetermined point of an object |
US10234561B2 (en) | 2016-05-09 | 2019-03-19 | Microsoft Technology Licensing, Llc | Specular reflection removal in time-of-flight camera apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3866052A (en) * | 1973-11-02 | 1975-02-11 | Dynell Elec | Methods for generating signals defining three-dimensional object surfaces |
US4259017A (en) * | 1977-10-03 | 1981-03-31 | Dynell Electronics Corporation | Methods for use in definition of object surfaces |
US4272196A (en) * | 1979-01-12 | 1981-06-09 | Lasag S.A. | Optical sizing mask and process |
US4371866A (en) * | 1980-11-21 | 1983-02-01 | The United States Of America As Represented By The Secretary Of The Army | Real-time transformation of incoherent light images to edge-enhanced darkfield representation for cross-correlation applications |
-
1984
- 1984-09-24 US US06/653,987 patent/US4653104A/en not_active Expired - Fee Related
-
1985
- 1985-06-26 CA CA000485236A patent/CA1233234A/en not_active Expired
- 1985-09-05 JP JP60197493A patent/JPS6184515A/en active Pending
- 1985-09-20 ES ES547187A patent/ES8800425A1/en not_active Expired
- 1985-09-24 KR KR1019850007006A patent/KR860002745A/en not_active Application Discontinuation
- 1985-09-24 EP EP85306756A patent/EP0176339A3/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6704099B2 (en) | 1998-05-25 | 2004-03-09 | Matsushita Electric Industrial Co., Ltd. | Range finder device and camera |
US6734951B2 (en) | 1998-05-25 | 2004-05-11 | Matsushita Electric Industrial Co., Ltd. | Range finder device and camera |
US6897946B2 (en) | 1998-05-25 | 2005-05-24 | Matsushita Electric Industrial Co., Ltd. | Ranger finder device and camera |
JP2007518098A (en) * | 2004-01-15 | 2007-07-05 | テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド | 3D video scanner |
JP2013238620A (en) * | 2004-01-15 | 2013-11-28 | Technion Research & Development Foundation Ltd | Three dimensional video scanner |
JP2009524849A (en) * | 2006-01-24 | 2009-07-02 | ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク | System, method, and medium for capturing scene images and depth shapes to generate compensated images |
JP2013546222A (en) * | 2010-09-28 | 2013-12-26 | マイクロソフト コーポレーション | Low power depth camera and projection device integration |
WO2024070979A1 (en) * | 2022-09-30 | 2024-04-04 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, program, and imaging device |
Also Published As
Publication number | Publication date |
---|---|
ES8800425A1 (en) | 1987-10-16 |
US4653104A (en) | 1987-03-24 |
KR860002745A (en) | 1986-04-28 |
EP0176339A2 (en) | 1986-04-02 |
CA1233234A (en) | 1988-02-23 |
EP0176339A3 (en) | 1988-06-01 |
ES547187A0 (en) | 1987-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS6184515A (en) | Method and device for obtaining distance up to plurality of point on object | |
US8923603B2 (en) | Non-contact measurement apparatus and method | |
US6549288B1 (en) | Structured-light, triangulation-based three-dimensional digitizer | |
US7804585B2 (en) | Creation of a range image | |
Zhang et al. | Rapid shape acquisition using color structured light and multi-pass dynamic programming | |
US5986745A (en) | Co-planar electromagnetic profile scanner | |
US4708483A (en) | Optical measuring apparatus and method | |
US4737032A (en) | Surface mensuration sensor | |
US20040246473A1 (en) | Coded-light dual-view profile scanning apparatus | |
EP0181553A1 (en) | 3-D active vision sensor | |
CA2048358A1 (en) | Field shift moire system | |
CN101939618B (en) | Optical triangulation | |
Jecić et al. | The assessment of structured light and laser scanning methods in 3D shape measurements | |
CN111971525A (en) | Method and system for measuring an object with a stereoscope | |
Yee et al. | Three-dimensional imaging system | |
CN116718133A (en) | Short-distance single-point structured light three-dimensional measurement method | |
US5086411A (en) | Optical location systems | |
Drouin et al. | Active 3D imaging systems | |
KR20080079969A (en) | Method and system of structural light based depth imaging using signal separation coding and error correction thereof | |
Bender et al. | A Hand-held Laser Scanner based on Multi-camera Stereo-matching | |
Varman | A moiré system for producing numerical data of the profile of a turbine blade using a computer and video store | |
Harding | Latest optical methods for industrial dimensional metrology | |
Ahsan et al. | Grid-Index-Based Three-Dimensional Profilometry | |
EP4379662A1 (en) | Provision of real world and image sensor correspondence points for use in calibration of an imaging system for three dimensional imaging based on light triangulation | |
Jonathan Wu et al. | An imaging system with structured lighting for on‐line generic sensing of three‐dimensional objects |