JPS6232406B2 - - Google Patents

Info

Publication number
JPS6232406B2
JPS6232406B2 JP51102520A JP10252076A JPS6232406B2 JP S6232406 B2 JPS6232406 B2 JP S6232406B2 JP 51102520 A JP51102520 A JP 51102520A JP 10252076 A JP10252076 A JP 10252076A JP S6232406 B2 JPS6232406 B2 JP S6232406B2
Authority
JP
Japan
Prior art keywords
point
lens
mask
sections
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP51102520A
Other languages
English (en)
Other versions
JPS5229252A (en
Inventor
Rorensu Deimatsuteo Hooru
Aroishiusu Rosu Josefu
Kenesu Sutaan Hawaado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynell Electronics Corp
Original Assignee
Dynell Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynell Electronics Corp filed Critical Dynell Electronics Corp
Publication of JPS5229252A publication Critical patent/JPS5229252A/ja
Publication of JPS6232406B2 publication Critical patent/JPS6232406B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2536Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】
本発明は、表面上の点の空間位置を決定しなけ
ればならない複雑な表面を有する物体の再生又は
製作に関する。表面をほぼ精密に再生又は製作す
るためには密に置かれた多数の点を特定する必要
がある。 これまで複雑な表面上の点の測定は表面が必要
な精度で特定されるまで点の位置を整然と記録す
るという骨の折れる仕方で行われて来た。例え
ば、表面上の点の測定はしばしば計器により表面
に接触することにより行われた。その上、記録さ
れたデータの最後の量は大きく解析を困難とし
た。所定の精度を達成するために多数の点につい
て記録されねばならないデータの多さから、測定
と記録の誤差が特に導入されやすい状態であつ
た。 従つて、物体を多数の区分に細分しその物体の
表面の点がその位置をかなり高い分解度で決定さ
れるようにすることが本発明の目的である。 物体の細分された区分の夫々が他の区分から区
別されるように所定の記号を割り当てられるよう
にすることが本発明の他の目的である。 本発明のその他の目的は最小数のマスクにより
物体を区分に細分するやり方を提供することであ
る。 本発明の更に他の目的は各区分内の点の空間位
置を投射器とマスクとの助けによりカメラで写さ
れた基準面へ点を関連させることにより決定する
やり方を提供することである。 本発明の目的は幾何学的に解析されるべき表面
を有する物体の周りにマスクをもつた複数の投射
器を配置することによつて達成される。各投射器
は夫々のマスクを通して平行なビームを投射し、
それによつて物体上に投射されたパターンをつけ
て物体を所定の区分に細分する。 適用された各マスクに対して、投射器は物体の
予め選ばれた区分セツトを照射する。照射及び非
照射の区分セツトが組み合わされて特定の記号を
もつた所定のパターンが形成される。マスクは投
射器中を次々と進み、夫々の適用されたマスクに
対し物体上に夫々の照明パターンを生成する。異
なるパターンが組み合わされると、物体を所定の
デジタル信号に従つて多数の区分に細分する。本
発明によれば記号選択は、マスク又は物体上に投
射されたパターンが比較的少くても多数の細分さ
れた区分従つてそれに相当する平面が得られるよ
うに行なわれる。 マスクにより作られる区分のパターンは夫々そ
の視野内に全表面をカバーするカメラにより写真
が取られる。カメラで取られた写真は基準の物体
について同様に写された写真と比べられ物体の表
面上の点の空間位置が定められる。 物体上の特定の空間位置を定めるには、まづ物
体写真からその点を含む物体の特定区分従つてそ
の区分に相当する特定平面を決定する。この決定
は物体写真を走査して当該区分、従つて当該平
面、を示す記号信号を与えることにより行なわれ
る。かくして該平面が決定されると、カメラレン
ズノードを通りかつ該特定点を含む線が基準面写
真から特定されるからこの線と前記平面とを交叉
させ該特定点の空間位置を決定しうる。 基準写真は識別しうる既知位置を有する基準面
の写真をとることにより得られる。これらの基準
位置は基準写真中相当する点で示されこれらの点
はそれらからカメラレンズノードを通り基準位置
に至る既知の線を規定するものである。物体の写
真と基準の写真とを比較することにより物体の特
定点と重なる基準点が定められる。このことは基
準点に相当するレンズノードを通る既知線上に特
定点があることを示し、かくて特定点を含む既知
線が確定される。 解析されるべき表面を持つた物体の周りに置か
れた投射器は協同するマスクを有し、1つの投射
器からの照明されたパターンが他の投射器の照明
されたパターンと協同する。物体の周りに置かれ
た複数の投射器は、物体の全表面をカバーするよ
うに働く。 投射器による表面の選択的照明は電磁輻射の
色々な形式の何れか一つによつて行われ、物体の
区分への細分は適当な軸に沿つて行われる。 図面特に第1図において、幾何学的に解析され
るべき表面22をもつた物体20が支台24上に
おかれる。輻射エネルギーの付勢可能なエネルギ
ー源例えば投射器26,28,30,32が物体
20の周りに間隔を置いて物体の全表面又はその
所定部分を覆うために位置している。各投射器
は、平行の照明ビーム34(第1a図)を物体2
0に当てゝいる。この平行照明ビームの通路中
に、投射器上を連続して進むマスク36(第3
図)がある。 各投射器と協同するマスク36は投射器の投射
域、即ち照明の及ぶ帯域、を規定する。第3図に
示すマスクのため投射域は、マスクの照明区域
(斜線稿を施した部分)の数が多数になるに従つ
て薄い平面に近づくような照明容量を有する。 各マスク36は例えば第3図に示すようにフイ
ルムの巻かれた帯218上に置かれる。マスクは
正確にきめられたやり方によりフイルム帯の縁に
沿うスプロケツト穴38によつて各投射器中を連
続して前進させられる。フイルムは普通の方法に
より巻かれリール上に蓄えられる。投射器の光路
中のフイルムの前進又は移動は当業者によく知ら
れておりこれ以上詳しい説明を要しない。別法と
して別々のマスクを含む別々のスライドを投射器
に用いてもよい。 本明細書で「区分」とは物体に最も細かい等級
のエネルギーを投射することから生ずる物体の帯
域を云う。例えば第3図のマスクの場合これは第
2図cに示されるような照明および非照明帯域で
あり、第5図の場合は第5図bに示されるような
着色帯域である。この場合帯域即ち区分はセツト
又は組としていう場合とその中の1個だけを云う
場合とがある。 投射器内に特定のマスクが存在している時間中
表面22の予め選ばれた区分セツトがマスクを通
して投射器によつて与えられる照明ビームにより
照らされる。予め選ばれた区分の照明は、表面2
2が比較的少数のマスクを用いて比較的多数の区
分に細分されるとの根処に基づいて行われる。従
つて、投射器と共に用いられる比較的少数のマス
ク又は照明のパターンでも表面22を多数の区分
又は間隔に細分して高解像度の区分とするのに充
分なデータを提供する。投射器26,28,3
0、及び32が一緒に操作されると、総ての投射
器は同じパターンをもつた同じマスクを備える。
このやり方で、物体の表面を覆うことが出来、一
つだけの投射器を使うと起る死角の影響を避ける
ことができる。 投射器と共に用いられるマスク36の数と表面
22の細分される区分の数との関係は次の方法で
求められる。 所定の分解精度に応じて表面22がN個の区分
に細分化されるものとすれば、この量Nは2進の
項の列N=20+21+22+23+24………で表わされ
る。 この2進項の列から実質的に大きな数Nが比較
的小さい項で得られることが判る。 この原理を本発明に応用するために列中の2進
項の夫々は表面22上に投射される一つのマスク
のパターンに対応させる。各マスクについて照明
の所定のパターンが適用され特定の2進項に対応
する所定の区分セツトが照明される。従つて、例
えば2進項21に対して第2図aの照明パターンが
生成する。このパターンでは、表面22は2つの
部分に分けられる。第2図の照明された部分は第
1の区分セツトに相当し斜線縞形で示される。照
明されない部分は空白になつている。同様の仕方
で2進項22は、第2図bの照明パターンで表わさ
れる。第2図b中、表面22は4部分に細分され
照明部分は第2の区分セツトに相当し斜線縞形で
示される。従つて、第2図cは2進項23に対応
し、そして2図c中表面22は8部分又は間隔に
細分され照明斜線縞部分は表面22の第3の区分
セツトに相当する。 2図a〜cにより示されたように、各照明パタ
ーンは例えば全表面22をその視野内に入れるカ
メラ40によつて写される。3つの別々の2進項
に対応して3つのパターンだけが図面に示されて
いるが、実際にはカメラ40は量Nを得るために
必要な数の2進項について各パターンを別々に写
す。その上、カメラ40でとられる各写真につい
て投射器26,28,30,32は物体上の一つ
のマスクの一つのパターンを投射する。 マスク上に区分されたパターンは、例えば光の
伝送を伝え又は抑える部分又は領域を交互にした
フイルム又はスライドを作ることによつて得られ
る。カメラ40により取られそして物体20上に
現われる区分されたパターンの写真44が第2図
に示される。 上述のように表面22の区分数Nを表わす純粋
な2進記号を用いると、各区分は他の区分から夫
夫の区分を区別するのに役立つ記号を与えられ
る。従つて区分の番号5、6及び7は夫々
101000、011000及び111000記号を割り当てられ
る。同様にして、第1の区分から最后のもの(区
分N)まで割り当てられた2進記号を有する。 それ故本発明によると2進記号化された区分と
カメラ40でとられた写真44の数との間に関係
がある。この関係が比較的少数の写真でバンドの
実質的大きい数の完全な情報を包含する事を可能
にする。例えば1000の区分を完全に特定するには
只10枚の写真が必要なだけである。区分に関する
記号化された情報はコンピユーターに入れられ以
下の仕方で適用される。 写真44は、例えば光電セルか又は電子ビーム
走査器46又は他の慣用の走査装置を用いて連続
して走査され、走査された情報はコンピユーター
48中に第4図に示されるように入れられる。例
えば表面22上の1点Pもカメラ40で取られた
写真44中に現われる。第2図に示されるよう
に、例えば一連のパターンで取られた写真におい
て、点Pは異なる影のある又は影のない区分内に
現われる。若し影のある区分に数字1が影なしの
区分に数字0が割り当てられると、第2図を参照
して第2図aにおいて点Pは影付き区分内にあり
そのため2図aには“1”が割り当てられる。同
様にして、点Pが第2図bでは影なし区分内にあ
りそして第2図cでは再び影付区分内にあるの
で、“0”と“1”とが点Pに関して第2図bと
2図cとに夫々割り当られる。若し点Pがカメラ
40で取られる追加の写真の何れかの中の影付バ
ンド内に以後現われないならば、P点の位置はそ
れに割り当てられた記号101000を持つ。 この後者の記号から、この2進記号は区分番号
5を表わし、点Pはこの区分番号5内になければ
ならないことを知る。 実際には、走査器46は連続して走査される写
真44上に点Pを検出又は検知する。走査器46
は、点Pが影付きか影なしの区分かの何れにある
かを検知する。得られた情報が、コンピユーター
48に入られる。コンピユーターは、P点が影付
きか影なしの区分に現われるか否かに関して走査
された一連の写真区分と相関し、そしてこれから
先の例の区分番号5のようにP点が存在する区分
の特定番号を規定する2進記号番号を生成する。 物体20の表面に投射される細分化区分を生成
するためにマスク36は、第3図に示すような照
明光が透過する矩形帯域を有する。第3図におい
てマスク中光を通さない帯域は空白とし光を通す
帯域は斜線縞とする。マスクの後者帯域を通過後
光ビーム130(第11図)は収れんしなければ
表面20に当る前に発散し、収れんするならば第
11a図の光ビーム131のようにある点まで収
れんする。いずれにせよ光ビーム130又は13
1はある光量をもつて表面22に当り細分化区分
132を形成する。もし細分化区分の数が多数に
なれば各光ビームの光量従つてそれにより形成さ
れる区分132は極めて薄くなり限りなく「平
面」に近似する。従つて細分化された記号化区分
を作る光ビームは区分に相当する平面を規定す
る。このような相当する記号化区分の同定からの
対応する平面の同定は後述のように目的の表面上
の点の空間位置の決定の第1段階である。 写真像の走査は業界でよく知られて居り詳しい
説明は要しない。その上、走査器46は例えば電
子ビーム走査器、光電又は他の光学的走査器の形
であつてもよい。写真につけられたマーク45
は、走査前所定場所に写真を置くための基準とし
て役立つ。P点に一意的な区分を割当てるための
上述のやりかたでは、純粋な2進記号が用いられ
たが、本発明では例えば10進−2進記号、3進記
号、桁送り法を用いた記号やこれらの組合せのよ
うな他の記号を用いることもできる。3進記号を
用いる時には、表面22が細分されるべき区分N
の数は項列N=30+31+32+33………で現わされ
る。 3進記号を用いると、色構成が、本発明によつ
て有利に応用できる。そのような色構成では、3
つの特定色例えば赤緑青などが用いられる。2進
記号の場合に用いた上述の影付と影なし区分の代
りに、赤緑及び青を交互に用いて投射器により面
22を照明する。このやり方では、31に対応する
カメラにより取られた写真50は、第5図aに表
わされる。同様にして、第5図bは、項32に対応
する写真を示し、2進記号の場合と似た方法で色
の交互使用によつて表面22の所定区分セツトを
照らすことができる。色構成に関連して3進記号
を用いると、純粋2進記号を用いるときよりも与
えられた数の細分区分Nについてより少ない写真
数ですむ。これはN=30+31+32+33から判る通
りより少ない項でNに達することができる。従つ
て第5図aが31項に対応して3区分を含むのに対
し、第5図bは32に対して9区分を含む。 本発明のやり方を更に拡大して、例えば色区分
の代りに電磁輻射の異なる周波数を用いることも
できる。 異なる周波数が例えば3つの色の3つの区分を
明確に判別するために用いられる。 その上電磁輻射は可視スペクトル以内である必
要はない。例えば投射器26,28,30,32
は赤外線で表面22を同様に照明しカメラ40は
赤外線に感じるフイルムを用いればよい。従つて
スペクトルの他の部分の電磁輻射も用いることが
できる。 本発明に従つてPの空間座標を見出すために点
Pを含む細分記号化区分、従つてそれに相当する
平面が前述の通りに最初に決定される。次いで点
Pを含む線も決定され、この線と平面とが交わつ
て点Pの三次元の位置が与えられる。点Pを含む
線は、識別しうる既知位置を有し第6図に示すよ
うに支台24上の物体20の代りに用いられる基
準面52の写真を利用して得られる。 投射器26とカメラ40とに関する基準表面5
2の一般的な位置は、物体20の場合と同じであ
る。基準面52は好ましくは実質的円筒形で構成
される。面52は密に隔置された水平円形の素子
54と、その素子54を横ぎる垂直素子56とで
作られる。その構成は第6図に示される。 第8図に示すように基準面52、カメラ40の
レンズ104、そして基準表面上の点P2の像が写
された後に現われる記録又はフイルム106の間
の幾何的関係が示されている。知られている幾何
光学から、P2とフイルム上のその点に対応する像
P3の間の線は、レンズのノード108を通る。レ
ンズノード108は、総ての光線がフイルム10
6へ向う時に通るカメラレンズ104中の点と考
えられる。従つて、フイルム106上に現われる
点P3は、P3とレンズのノード108を通る線11
0上にあると考えられる。空間座標(X、Y、
Z)の線110の方程式を見出すには、第9図の
構成が用いられる。 112と114の2つの光源又はフイルム10
6に感知される他の輻射源が、基準表面52の内
部でしかもその軸上に置かれる。光源112及び
114は、基準円筒面52の軸に沿つて互に隔た
つておかれる。此等2つの光源112と114と
を写した後に、現像された後のフイルムは、光源
112が同じく現像された水平又は緯度素子11
6と垂直又は経度素子124との交点の近所にあ
ることを示している。この交点は基準表面上のP4
点に対応する。同様の方法で光源114は現像さ
れたフイルム上で水平又は緯度素子118と垂直
又は経度素子124との交点の近所に現われる。
この交点は、基準表面上のP5点に対応する。光源
112と114とは実質的にはかなり小さく実際
上点光源と考えてよい。 フイルム上に見える光源112は、点P4の像と
近似的に一致するから、光源112、点P4及びレ
ンズノード108は、直線上にある事が判る。同
様の解析で光源114、点P5及びレンズノード1
08が直線上にあることを知る。従つてレンズノ
ード108はそのためこれら2つの線の交点にあ
るにちがいない。その3角法間係が第9図aに示
される。 基準面の半経R、点114の上方の点118の
高さ及び光源112と114との距離aが知られ
ているので、そして、素子116と118との間
の距離bが測られるので、第9図に示すようにこ
れら既知の点を通る線120と122とは、レン
ズノード108で交わり三角形を形成する。これ
はグラフで行なわれ頂点108,112,114
を有する三角形の平面内でレンズノード108の
物理的位置が決定される。 点108の空間の座標を見つけるため、三角形
108,112,114の平面の角度方向を考慮
に入れることも又重要である。第9図の上面図を
示す第10図についてこれが行われる。第10図
の上面図から、線120の方向は、現像されたフ
イルム又は写真上で線120が基準面52を経線
124の近所で交わることから決められる。第1
0図の幾何学関係も第9図に関連して前述したの
に似た仕方でグラフから導くことができる。それ
故、第9図と第10図とを組合わせることにより
空間座標(X、Y、Z)中で点又はレンズノード
108の位置を特定する。 第8図に関して、点108とP2の空間座標は共
に知れているので、レンズノード108と基準面
上の点P2との線110は空間の座標(X、Y、
Z)で示しうることが判る。 今、P2の像がフイルム106上の点P3に現われ
るので、線110に沿つた総べての点は、フイル
ム上でP3点に現われる。従つて、表面上の点が写
真に取られその像がフイルム106のP3点に現わ
れると、表面の点は、たしかに線110に沿うど
こかにある。それ故、P2の如き基準面上のすべて
の見分けられる既知点は、それ自身とレンズノー
ド108との間の既知線を定め、更に既知線に対
応するP3のようなフイルム上の点を規定する。実
際、基準面(第7図)の図と未知の表面の図とを
重ねて幾何学上正確なレンズノードを通す線にフ
イルム上の点を移しかえることができる。 従つて、前記点Pの例に於て点Pを含む記号化
区分から点Pの存在する平面を決定してから基準
面52の写真に物体面の写真を重ねることにより
カメラレンズノードを通る既知線を特定する。次
いで点Pと一致する基準面上の特定点はその点に
相当する既知線を点Pを含む線と特定する。点P
を含む既知線が特定され且つ点Pを含む既知面が
特定されるとこの既知面と既知線との交叉により
空間座標(X、Y、Z)に於ける点Pの位置を特
定する。 従つて本発明の実施に当つては表面22上の点
Pを第1図の配置で写真をとり、点Pの存在する
表面、従つてそれに相当する面を第2〜5図の方
法で決定する。次いで点Pが存在するレンズノー
ドを通る既知線を第8〜10図に従つて決定す
る。点Pの空間座標(X、Y、Z)は、前記既知
面及び線の交叉により解くことが出来る。 カメラ40の現像されたフイルム106上の写
された点を基準面上の水平及び垂直の素子につい
て容易に見分けるためには、点と水平即ち緯度素
子と垂直即ち経度素子とを別々に写すのが望まし
い。夫々の像の重ねが、経度と緯度との素子につ
いて点の場所の判別を容易に行わせる。経度と緯
度との素子が別々に付勢されてこれが達成され
る。其の上、異なる経度、緯度近傍素子に関して
例えば違う色を用いることにより写真上の点の場
所の判別作業を更に簡便化することができる。 本発明によれば、基準面上の交点の既知の場所
は基準面の写真を走査した後、第4図について述
べられた仕方でコンピユーターに入れられる。コ
ンピユーター48がこの目的に用いられる時に
は、所望の精度で表面22上の点の空間座標と場
所とを指定するためコンピユーターは必要な補間
を行う。この目的でコンピユーターを用いる時、
網目又は格子82はコンピユーター中に蓄えられ
る。 支台24上に基準表面を置いたり第6図につい
て述べた方法を行なつたりすることが必須でない
ことも又本発明の特徴である。基準面は例えばコ
ンピユーター48中の適当な式によつて数学的に
特定することが出来る。第7図に示す図形は、表
面22と投射器26とカメラ40との幾何学的相
対位置を考慮に入れてコンピユーターにより計算
することが出来る。従つて、網目82中に含まれ
る情報を幾何学的計算だけにたよることにより抽
出することができる。然し、幾何学的計算の使用
のみでは、レンズの乱れを補正しないので精度を
落すことになる。 本発明によれば、2箇以上の投射器を使用する
ことは必須ではない。 1つの投射器のみを用いそして第1図に示され
た残りの投射器を省略するときには、本発明は支
台24を所定の角度で次ぎ次ぎに回転する回転機
構102を用いて投射器とカメラとが全表面22
の周囲をカバーすることができるようにする。こ
のためには、回転機構102が例えば投写器とカ
メラとの視野の大きさできめられる所定角度によ
り支台24の位置定めを行い、第1図について説
明されたように投射器がマスクを完全に連続使用
するまで該位置に支台24を保つ。視野よりも小
さい回転は、カメラ又は投射器からの物体表面の
他の部分をカバーするのに必要とされる。 102のような回転機構は業界では既知であり
これ以上の説明は必要としない。 本発明によれば、物体20を静止させカメラ4
0と投射器26とを表面22の周りに回転させる
事も可能である。即ち、物体20を投射器26と
カメラ40とに対して変位させることだけで良
い。 上記の通り、基準面は、表面22とカメラと投
射器との相対的な幾何学上の位置のみを考えてひ
きだした計算によつて完全に特定することが出来
る。しかしながらカメラと投射器とは個有の欠点
を含む光学素子をもつている。このような光学的
欠点は、理論的予想や計算に容易に適するように
はならぬ。そのため、このような光学的欠点は、
一般には網又は格子82を引き出すための計算に
は考慮に入れることはできない。 それ故、カメラと投射器とのレンズや素子の光
学的欠点を考慮に入れるには、物理的な基準表面
を用い第6図に示す一連の方法を行うのが有用で
ある。この仕方で網目82はカメラや投射器の光
学系中に存在する欠点を直接導入し、これにより
網目82は投射器26,28,30,32の照射
によりカメラ40で観察されるような点の空間座
標を決定するための真の精密な構成を与える。そ
れ故物理的基準表面の使用はカメラと投射器との
光学系の欠点が数学的な関係で表わされる事を必
要としない。その上、表面22とカメラと投射器
との間の幾何学的な相対位置を示す入り組んだ複
雑な数学的関係をプログラムする必要はないか
ら、物理的な形での基準面の使用は更に又格子8
2の導き出しを簡単にする。 基準表面を特別な形に適合する必要のない事が
本発明の重要な特徴である。既知の座標の表面を
もつ如何な形でも基準面として用いることができ
る。 基準円筒表面52を使用すれば、例えば緯度素
子を示すしるし等をその上につける必要はない。
そのような緯度又は水平素子はこれら緯度又は水
平素子を示すべき所定の線を投射するようなマス
クの使用により得られる。同様に、前記の直角方
【表】 従つて、上記3・ビツトシフト記号は、端子2
08,210,212をもつ桁送りレジスター2
06によつて作られる。端子210と212と
は、排他的論理和214の入力へつなげられる。
このゲート214の出力は、インバーター216
を通り桁送りレジスター206の入力へ加えられ
る。レジスターは端子220で時計パルスを受け
る。端子208,210,212に現われるパル
ス列を分析すれば端子210に於けるパルス列
は、端子208に於けるパルス列に関して1桁送
られることが判る。同様にして、端子212にお
けるパルス列は、端子210におけるパルスの列
に関して1桁送られる。記号を桁送り記号として
示すのがこの記号化の特性である。パルス列が他
のパルス列を得るためにのみ桁送りされるこの桁
送り記号の特別な性質により記号化及び見分け作
業に起るエラーを容易に検知することができる。
それ故、パルス列が予めきめられるので、“1”
又は“0”が誤つて列中にあるかどうかを容易に
検知できる。この目的のために、列の最後の3ビ
ツトのみを検査し、それにより桁送りレジスタの
現状を決定し、そして従つて列の次の列のビツト
を予言することが出来る。 記号のこのような予言しうる特性にかんがみ、
上記第2〜5図に関して述べたような見分けるた
めの写真のコンピユーター処理も又特に有利とな
る。 桁送り記号は、物体を区分に細分するためのマ
スクと一緒に用いる時には特に有利である。マス
クが端子208に現われる記号パターンに応じて
第13図に示されるように作られるならば、端子
210における記号パターンは第13図のマスク
をもう1区分だけ移すだけで得ることが出来る。
同様に、端子212に現われる記号パターンは、
第13図のマスクを一つの区分だけ移すことによ
り得られる。一つの区分の巾に対応するだけの距
離マスクを移すことは、例えば全体のマスクを変
えるか又は進めるのに必要な移動距離より実質的
に小さい。マスクを変えるか又は進めるかは、機
械的又は物理的運動を含む実質的に機械的な手順
であるから、マスクのそのような変化が行なわれ
る速度は、その移動中に起きる力に耐えるフイル
ム及び関連した移送機構の能力によつて制限され
る。従つて桁送り記号を用いる時に必要な実質的
に短い移動は、記号パターンのより速かな変化を
許容し、それによつて物体を区分に細分する手順
が行われる速度を増大させる。 第13図のマスク208a又は第3図のマスク
36を作る時これらのマスクがフイルム帯又は担
体218により運ばれる事は必須ではない。マス
クのための担体は、可撓性のプラスチツク又は紙
又は慣用の投射器スライドの形で使用できるガラ
ス板の帯でもよい。 上記のように、桁送り記号は、必要とするマス
クの運動の大きさに関して、特に各記号パターン
について投射器中に全く異なるマスクを置くため
のかなり大きなマスク移動を含む純粋な2進記号
に関係して、固有の有利さがある。マスクをかな
り短く移動させ従つて高い処理速度を許容する区
分パターンを記号化する他のやり方は第14図に
示される。この方式では、2つのマスク220及
び222は、1方では光を通し他方では光の通過
を抑止する交互の区分を有する。即ち、斜め縞を
含むバンド224は光を通さず、他方空白のバン
ド226は光を通す。2つのマスク220及び2
22は、同一の構造であり、特に区分の巾と間隔
に関してそうである。マスク220及び222
は、投射器内の2つのマスクの相互移動によつて
区分の巾が変わるパターンを得る目的で投射器中
で相互に重ねられる。従つて、2つのマスク22
0及び222が互いに重ねられてマスク222の
斜線縞の領域又は区分が、マスク220の斜線縞
の区分と正確に重なると、その時には光を通す区
分は例えば区分226の巾に対応する全巾とな
る。若し今マスク222が、マスク220に対し
て縦方向に区分巾の半分の大きさだけ移動する
と、光を通す区分巾は半分即ち50%減少する。 マスク220及びマスク222が重ねられて両
者の相互移動により生ずる区分のパターンは、第
15図のパターンの構成228により示される。
第14図及び第15図の方法により区分の巾は、
物体を区分に細分する時連続して変えることが出
来る。その上、区分の巾の大きさは、パターンを
見分ける目的で記号化されうる。 カメラ40が慣用のフイルムカメラである必要
はない。その代り、像を記録するためのカメラ機
能は、光電ダイオード、ビデオ又は他のセンサー
や、磁気テープとドラムとを含むデジタル又はア
ナログ形式の情報蓄積用に慣用される装置によつ
て行うことができる。 同時に、像の情報は、直接コンピユーターの記
憶装置に蓄えられることもでき、そしてそのよう
な記憶装置は、コア−メモリ、固体素子装置並び
に磁気デイスク、ドラム、テープで成立つてい
る。 本発明を実施するに当り、第3図のようにマス
クが区分の長手方向に平行に移動されるが、同時
にマスクは担体218が区分の長手方向に直角に
動く第14図及び第15図の方向に移動すること
もできる。其の上、重ねられたマスク担体は、り
んかくを生成する目的で直角でない方向に沿つて
互いに相対的に動かすこともできる。又投射器2
6,28,30,32を動かして異なる投射器が
組合わされた時には所定の記号化されたパターン
を出す異なるマスクを表わす事も可能である。 投射器とマスクの操作に当り、本発明では、光
の平行なビームを投射器が出すことが望ましい。
本発明で用いるための光の平行なビームを得る一
つの方法が、第16図に示される。このやり方で
は、光又は照明源252は、平行用レンズとして
働く集光器254を通して光を発する。 平行用レンズ254から出る光は幾分拡散する
がレンズ254からある距離で光のビームを改善
する目的で平行用マスク256が更に設けられ
る。これら平行用マスク256は例えば第3図、
第13図又は第14図のマスクを通りかなり平行
な光のビームが発することのできる程度に余分の
光の通路を制限するのに役立つ。 平行な光ビームを得るための他のやりかたは例
えば第17図、第18図に示すように照明源25
2が円筒レンズ258と円筒形反射表面260と
共に操作される。円筒表面260から反射した
後、光は更に第17図の平行化マスク256を通
過し、光ビームを更に改善する。従つて第17図
のやり方は、円筒レンズと円筒反射表面とを集光
器254に置きかえるものである。 記号化マスクの長さに沿つてほぼ一様な光を得
る目的で、光又は照明源が例えば第18図に示さ
れるように、記号化マスクの長手方向に沿い一様
に分布された3つの光源の形にしうる。第18図
は第17図の平面図である。多数の光源を使用す
るこのやり方では、夫々別の光源に別々の円筒レ
ンズ258が第18図に示されるように設けられ
ている。別々の円筒形の光学器具の使用は、一軸
に沿つて極めて平行化され、他の軸に沿つては拡
散か集光化される。
【図面の簡単な説明】
添附図面は本発明方法の実施の一例を示し、第
1図は平面説明図で解析又は調査されるべき表面
と投射器とカメラとの相対的な配置を示し:第1
a図は第1図中の1a−1a線にそつての立面説
明図;第2図は第1図の配置中のカメラによつて
取られた典型的な写真の平面図を示す;第3図は
第1図の投射器で送られる担体上の記号化マスク
の部分平面図であり;第4図は第2図の写真の走
査用の配置を示す説明図;第5図は解析さるべき
表面上の色バンドの投射を含む方法を用いた時カ
メラによつて取られた写真の平面図を示し;第6
図は基準面上の点を得るための配置を示す説明
図;第7図は基準表面のカメラによつて取られた
像から引き出した網目の配置を示し;第8図は線
と平面の交りによつて点を面上に定めるやりかた
を示す説明図;第9図は本発明によるカメラのレ
ンズノードの位置を決定する方法を示す説明図;
第9a図は第9図に用いられる三角法関係の図式
を示す図;第10図は第9図の配置の平面図;第
11図は無集光配備中の照明容積素子と立体の交
叉点を示す透視図;第11a図は集光配備中の照
明容積素子と立体の交叉を示す透視図;第12図
は本発明に用いられる桁送り記号を得るための配
置の回路図;第13図は桁送り記号を出すように
配備された記号化マスクの平面図;第14図は等
間隔で巾の異なるバンドの記号化された型(パタ
ーン)を出すために配置されたマスクの平面図;
第15図は第14図に示されたマスクを重ねる時
に得られる構成の平面図;第16図は投射器と記
号化マスクとを共に用いられる光の平行ビームを
得るための配備の説明立面図;第17図は光の平
行ビームを得るための他の実施態様の前面図、第
18図は第17図のやり方の平面図である。 図中、20……物体、22……表面、24……
支台、26,28,30,32……投射器、34
……光ビーム、36……マスク、38……スプロ
ケツト孔、40……カメラ、44……写真、45
……マーク、46……走査器、48……コンピユ
ーター、50……写真、52……基準面、54…
…水平円形素子、56……垂直素子、82……網
目、102……見出し機構、104……レンズ、
106……フイルム、108……ノード、110
……線、112,114……光源、116……緯
度素子、120,122……線、124……経度
素子、130,131……光ビーム、206……
送りレジスタ、208a……マスク、208,2
10,212……端子、214……ゲート(排他
的論理和)、216……否定回路、218……担
体、220………222……マスク、228……
型構成、252……光源、254……集光器、2
56……平行化マスク、258……円筒レンズ。

Claims (1)

  1. 【特許請求の範囲】 1 物体20をレンズ104の視野内に置き、該
    物体の表面22上の点を含む投射域を定め、 該投射域の所定区分の連続した異なるセツトに
    帯状の輻射ビームを投射することによつて前記物
    体の表面の一部分を照射し、 かかる照射により前記物体の表面部分の記録を
    前記レンズを通して作成し、 前記物体表面の点を含む前記記録中の投射域区
    分を示す出力信号を発生させ、そして該出力信号
    から前記物体表面上の点を含む平面の位置を確定
    すると共に、 前記レンズの視野内に、既知のそれぞれの位置
    を識別可能な位置として有している基準面52を
    置き、 前記レンズのレンズノード108と前記物体の
    表面の点とを結ぶ直線の前記基準面上での識別可
    能な位置を定め、それによりレンズノードと物体
    の表面上の点とを結ぶ直線110を確定し、 該直線と前記平面とを交叉させ、それにより該
    物体の表面上の点の空間位置を定めることを特徴
    とする物体20の表面上の点の三次元の空間位置
    を定める方法。 2 所定投射域区分の前記異なるセツトに別々に
    輻射エネルギーを投射することにより、物体表面
    部分を次々と照らす特許請求の範囲第1項記載の
    方法。 3 前記輻射エネルギーの付勢可能なエネルギー
    源と物体表面22との間に異なる輻射エネルギー
    伝達性のマスク36を連続して置き、該エネルギ
    ー源を付勢することにより照射が行われる特許請
    求の範囲第2項記載の方法。 4 所定区分の前記セツトが桁送り信号に記号化
    された特許請求の範囲第1項記載乃至第3項のい
    ずれか一つの項記載の方法。 5 前記基準面52は記号化された縦と横の素子
    124,116によつて規定され、それらの交点
    が基準面上の位置(P2)を定める特許請求の範囲
    第1項乃至第4項のいずれか一つの項記載の方
    法。 6 基準面52がコンピユーター48に蓄えられ
    たデータにより決められそしてレンズ104を介
    して得られる物体の記録を走査することにより得
    られる電気信号に関連する特許請求の範囲第1項
    乃至第4項のいずれか一つの項記載の方法。 7 前記物体20及び前記基準面52が前記レン
    ズ視野中に別々に置かれ、このレンズを通して物
    体20及び基準面52の別々の記録が作られる特
    許請求の範囲第1項乃至第6項のいずれか一つの
    項記載の方法。 8 基準面52及び物体20の記録が互いに重ね
    られる特許請求の範囲第7項記載の方法。 9 各々平行にされた光エネルギー34を有する
    複数の投射器26,28,30,32と、その平
    行光線エネルギーを投射域区分に加えるように支
    持されたマスク装置36とを用いて行なわれる特
    許請求の範囲第1項乃至第8項のいずれか一つの
    項記載の方法。 10 物体20の周りに置かれた複数のレンズ1
    04を通つて別々の記録が作られる特許請求の範
    囲第9項記載の方法。
JP51102520A 1975-08-27 1976-08-27 Method of determining space position of point on surface of matter Granted JPS5229252A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US05/608,265 US4175862A (en) 1975-08-27 1975-08-27 Arrangement for sensing the geometric characteristics of an object

Publications (2)

Publication Number Publication Date
JPS5229252A JPS5229252A (en) 1977-03-04
JPS6232406B2 true JPS6232406B2 (ja) 1987-07-14

Family

ID=24435735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51102520A Granted JPS5229252A (en) 1975-08-27 1976-08-27 Method of determining space position of point on surface of matter

Country Status (13)

Country Link
US (2) US4175862A (ja)
JP (1) JPS5229252A (ja)
BE (1) BE845465A (ja)
CA (1) CA1079965A (ja)
CH (1) CH611016A5 (ja)
DE (1) DE2637905A1 (ja)
DK (1) DK386576A (ja)
ES (1) ES451007A1 (ja)
FR (1) FR2322358A1 (ja)
GB (1) GB1570091A (ja)
IT (1) IT1073688B (ja)
NL (1) NL7609498A (ja)
SE (2) SE432021B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012508370A (ja) * 2008-11-07 2012-04-05 ソシエテ ド テクノロジー ミシュラン 能動的立体視によるタイヤ表面の凹凸評価

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4511252A (en) * 1975-08-27 1985-04-16 Robotic Vision Systems, Inc. Arrangement for sensing the geometric characteristics of an object
US4259017A (en) * 1977-10-03 1981-03-31 Dynell Electronics Corporation Methods for use in definition of object surfaces
US4212073A (en) * 1978-12-13 1980-07-08 Balasubramanian N Method and system for surface contouring
US4259589A (en) * 1979-07-20 1981-03-31 Solid Photography, Inc. Generation of contiguous data files of three-dimensional information
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
DE3021448A1 (de) * 1980-06-06 1981-12-24 Siemens AG, 1000 Berlin und 8000 München Verfahren und anordnung zur erfassung raeumlicher abweichungen von einer glatten ebene an oberflaechen von gegenstaenden
US4357108A (en) * 1980-06-06 1982-11-02 Robotic Vision Systems, Inc. Method for reproducton of object surfaces
US4349277A (en) * 1980-06-11 1982-09-14 General Electric Company Non-contact measurement of surface profile
US4402608A (en) * 1980-10-02 1983-09-06 Solid Photography Inc. Room scanning system using multiple camera and projector sensors
US4392182A (en) * 1981-06-12 1983-07-05 Solid Photography, Inc. Arrangement for scanning points in space
US4488172A (en) * 1982-08-18 1984-12-11 Novon, Inc. Method and apparatus for range imaging
US4499492A (en) * 1982-08-18 1985-02-12 Novon, Inc. Method and apparatus for three frame range imaging
US4443705A (en) * 1982-10-01 1984-04-17 Robotic Vision Systems, Inc. Method for locating points on a three-dimensional surface using light intensity variations
US4520388A (en) * 1982-11-01 1985-05-28 General Electric Company Optical signal projector
US4634278A (en) * 1984-02-06 1987-01-06 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns
US4648717A (en) * 1984-02-06 1987-03-10 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns
US4664470A (en) * 1984-06-21 1987-05-12 General Electric Company Method and system for structured radiation production including a composite filter and method of making
JPH061164B2 (ja) * 1985-01-31 1994-01-05 伍良 松本 立体形状測定装置
US4757379A (en) * 1986-04-14 1988-07-12 Contour Dynamics Apparatus and method for acquisition of 3D images
US4846577A (en) * 1987-04-30 1989-07-11 Lbp Partnership Optical means for making measurements of surface contours
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
DE4115445C2 (de) * 1990-07-05 1994-02-17 Reinhard Malz Verfahren zum Aufnehmen eines dreidimensionalen Bildes eines Objektes nach dem aktiven Triangulationsprinzip und Vorrichtung hierzu
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
AT404638B (de) * 1993-01-28 1999-01-25 Oesterr Forsch Seibersdorf Verfahren und vorrichtung zur dreidimensionalen vermessung der oberfläche von gegenständen
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
US5548418A (en) * 1994-01-14 1996-08-20 Dcs Corporation Holographic structured light generator
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US5864640A (en) * 1996-10-25 1999-01-26 Wavework, Inc. Method and apparatus for optically scanning three dimensional objects using color information in trackable patches
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
DE69833813T2 (de) * 1997-05-22 2006-11-30 Kabushiki Kaisha Topcon Vorrichtung zur Korrespondenzsuche in einem Bildpaar
EP0901105A1 (en) 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
US6647146B1 (en) 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
EP0898245B1 (en) 1997-08-05 2004-04-14 Canon Kabushiki Kaisha Image processing method and apparatus
DE19747061B4 (de) * 1997-10-24 2005-02-10 Mähner, Bernward Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
AU3991799A (en) 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
US6262803B1 (en) 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
US6155489A (en) * 1998-11-10 2000-12-05 Ncr Corporation Item checkout device including a bar code data collector and a produce data collector
US6332573B1 (en) 1998-11-10 2001-12-25 Ncr Corporation Produce data collector and produce recognition system
US6431446B1 (en) * 1999-07-28 2002-08-13 Ncr Corporation Produce recognition system and method
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US20030046177A1 (en) * 2001-09-05 2003-03-06 Graham Winchester 3-dimensional imaging service
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US20040222987A1 (en) * 2003-05-08 2004-11-11 Chang Nelson Liang An Multiframe image processing
US7154613B2 (en) * 2004-03-15 2006-12-26 Northrop Grumman Corporation Color coded light for automated shape measurement using photogrammetry
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
JP2008537190A (ja) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
JP4953589B2 (ja) * 2005-05-25 2012-06-13 株式会社ミツトヨ エンコーダの原点信号生成方法及び装置
US20070146685A1 (en) * 2005-11-30 2007-06-28 Yoo Woo S Dynamic wafer stress management system
DE102006022878B3 (de) * 2006-05-15 2007-09-06 Sartorius Biotech Gmbh Verfahren und Detektionsvorrichtung zur bildgebenden Erfassung einer Probe
US7957007B2 (en) * 2006-05-17 2011-06-07 Mitsubishi Electric Research Laboratories, Inc. Apparatus and method for illuminating a scene with multiplexed illumination for motion capture
WO2008033329A2 (en) * 2006-09-15 2008-03-20 Sciammarella Cesar A System and method for analyzing displacements and contouring of surfaces
EP2084491A2 (en) * 2006-11-21 2009-08-05 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US8646689B2 (en) 2007-12-28 2014-02-11 Cognex Corporation Deformable light pattern for machine vision system
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
US8908016B2 (en) * 2008-10-06 2014-12-09 Mantivision Ltd. Method and system for providing three-dimensional and range inter-planar estimation
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
DE102012021185A1 (de) 2012-10-30 2014-04-30 Smart Optics Sensortechnik Gmbh Verfahren zur optischen 3D-Vermessung von Zähnen mit verkleinerter Point-Spread-Funktion
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
JP6104662B2 (ja) * 2013-03-25 2017-03-29 株式会社東芝 計測装置、方法及びプログラム
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
WO2016024200A2 (en) * 2014-08-12 2016-02-18 Mantisvision Ltd. Structured light projection and imaging
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10139217B1 (en) * 2016-02-16 2018-11-27 Google Llc Array based patterned illumination projector
DE102016113228A1 (de) * 2016-07-18 2018-01-18 Ensenso GmbH System mit Kamera, Projektor und Auswerteeinrichtung
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN111489382B (zh) * 2019-01-28 2023-03-31 合肥美亚光电技术股份有限公司 编码条纹图的获取以及基于结构光的重构的方法和装置
DE102020127894B4 (de) 2020-10-22 2022-09-22 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
DE102020008179B4 (de) 2020-10-22 2023-10-26 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3866052A (en) * 1973-11-02 1975-02-11 Dynell Elec Methods for generating signals defining three-dimensional object surfaces

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE705543C (de) * 1939-12-16 1941-05-02 Christoph Metzler Vorrichtung zum Reinigen und Ausrichten von Strohhalmen fuer die Herstellung von Strohhuelsen
US3184732A (en) * 1960-04-15 1965-05-18 Rca Corp Computer circuit
NL279202A (ja) * 1961-06-02
US3234863A (en) * 1963-03-05 1966-02-15 Gerald C Peterson Photographic construction records
US3682553A (en) * 1968-09-19 1972-08-08 Optics Technology Inc Apparatus for acquiring and laying real time 3-d information
US3684824A (en) * 1970-03-16 1972-08-15 Itt Multispected imaging system
FR2150037A5 (ja) * 1971-08-09 1973-03-30 Ibm
GB1407248A (en) * 1971-08-29 1975-09-24 Fujitsu Ltd System for read out of the coordinates of a matrix type display
DE2327355A1 (de) * 1973-05-29 1975-01-02 Deutsche Forsch Luft Raumfahrt Verfahren zur fernerkundung insbesondere der erdoberflaeche sowie geraet zur durchfuehrung des verfahrens
GB1472346A (en) * 1974-07-06 1977-05-04 Grundig Emv Aerial reconnaissance apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3866052A (en) * 1973-11-02 1975-02-11 Dynell Elec Methods for generating signals defining three-dimensional object surfaces

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012508370A (ja) * 2008-11-07 2012-04-05 ソシエテ ド テクノロジー ミシュラン 能動的立体視によるタイヤ表面の凹凸評価

Also Published As

Publication number Publication date
NL7609498A (nl) 1977-03-01
ES451007A1 (es) 1977-08-16
SE432021B (sv) 1984-03-12
FR2322358B1 (ja) 1981-11-27
US4145991A (en) 1979-03-27
SE7609326L (sv) 1977-02-28
CA1079965A (en) 1980-06-24
FR2322358A1 (fr) 1977-03-25
JPS5229252A (en) 1977-03-04
SE8204577D0 (sv) 1982-08-04
SE8204577L (sv) 1982-08-04
CH611016A5 (ja) 1979-05-15
IT1073688B (it) 1985-04-17
US4175862A (en) 1979-11-27
DK386576A (da) 1977-02-28
DE2637905A1 (de) 1977-03-10
BE845465A (fr) 1976-12-16
GB1570091A (en) 1980-06-25

Similar Documents

Publication Publication Date Title
JPS6232406B2 (ja)
US4185918A (en) Arrangement for sensing the characteristics of a surface and determining the position of points thereon
US4508452A (en) Arrangement for sensing the characteristics of a surface and determining the position of points thereon
US4802759A (en) Three-dimensional shape measuring apparatus
US4259589A (en) Generation of contiguous data files of three-dimensional information
CN101765755B (zh) 三维形状计测装置、三维形状计测方法
US4511252A (en) Arrangement for sensing the geometric characteristics of an object
US4695991A (en) Reading information stored in multiple frame format
US3312955A (en) System for recording and retrieving digital information
JPS63284683A (ja) 三次元表面形状を表現するためのデータ形成装置
ES2110406T3 (es) Un sistema de vigilancia asistida por ordenador para obtener informacion tridimensional digital y topografica.
US5018803A (en) Three-dimensional volumetric sensor
JP2002267444A (ja) トンネル坑内の形状測定方法
US4269513A (en) Arrangement for sensing the surface of an object independent of the reflectance characteristics of the surface
JP2517062B2 (ja) 3次元計測装置
EP0001441B1 (en) A method for defining the spatial location of object surface points
US4357108A (en) Method for reproducton of object surfaces
US3366794A (en) Scanning apparatus for aiding in the determination of point co-ordinates of paths of charged particles as recorded on photographic film
US4830443A (en) Three-dimensional volumetric sensor
JP2002512384A (ja) マスク表面上のパターン構造の位置測定方法
US3859731A (en) Method for determining the position of a camera from a photograph taken thereby and device for performing the same method
US3873213A (en) Method and apparatus for detecting data on a photographic recording medium
US3392400A (en) System for recording digital information
US2893123A (en) Cinetheodolites
US4126395A (en) Method for determining the spatial location of points on a specular surface