JP2003315028A - Three-dimensional measuring apparatus - Google Patents

Three-dimensional measuring apparatus

Info

Publication number
JP2003315028A
JP2003315028A JP2002124202A JP2002124202A JP2003315028A JP 2003315028 A JP2003315028 A JP 2003315028A JP 2002124202 A JP2002124202 A JP 2002124202A JP 2002124202 A JP2002124202 A JP 2002124202A JP 2003315028 A JP2003315028 A JP 2003315028A
Authority
JP
Japan
Prior art keywords
light
data
slit
dimensional
scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002124202A
Other languages
Japanese (ja)
Inventor
Tadahisa Kodan
周久 小段
Hitoshi Asano
斉 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002124202A priority Critical patent/JP2003315028A/en
Publication of JP2003315028A publication Critical patent/JP2003315028A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically discriminate a loss in three-dimensional data and to automatically recover the data in a three-dimensional measuring apparatus for measuring an object shape without any contact by a light cutting method using slit beams. <P>SOLUTION: The three-dimensional measuring apparatus comprises: a means for converting image data composed of slit-like reflection light; and a discriminating means for discriminating the continuity of image data that are converted to vector. In a spare scan (S1), the continuity of vector obtained by converting slit images to vector for each scan is examined (S2). When the slit images are not continuous (NO for S2), a rotary stand where the subject is placed is rotated until the slit images become continuous (S5, S6, S7). Then, in a main scan (S9), the three-dimensional data are measured, a scan angle where the three-dimensional data become defective is stored (S12), and the rotary stand is rotated at the angle (S16), thus automatically recovering the three-dimensional data. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、物体にスリット光
などの光を照射して物体の形状を非接触で計測する3次
元計測装置に関する。 【0002】 【従来の技術】従来より、スリット光投影を行う光切断
法による非接触タイプの3次元計測装置が知られてい
る。非接触型の3次元計測装置は、接触型に比べて高速
の計測が可能であることから、CGシステムやCADシ
ステムへのデータ入力、身体計測、ロボットの視覚認識
などに利用されている。 【0003】この3次元計測に好適な計測方法として知
られているスリット光投影法(光切断法ともいう)は、
物体(被写体)を光学的に走査(スキャン)して3次元
画像いわゆる距離画像を得る方法であり、特定の検出光
を照射して物体を撮影する能動的計測方法の一種であ
る。そして、物体は奥側の回転テーブル台に載置され、
適宜、物体を回転させながら、手前側に固定されている
撮像手段により物体の形状測定が行われる。3次元画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、検出光として断面が直
線状のスリット光が用いられる。 【0004】図21はスリット光投影法の概要を示し、
図22はスリット光投影法による計測の原理を示す。計
測対象である物体Qに断面が細い帯状のスリット光Uを
照射し、その反射光を例えば2次元イメージセンサの撮
像面S2に入射させる〔図21(a)〕。物体Qの照射
部分が平坦であれば、撮影像であるスリット画像は直線
になる〔図21(b)〕。照射部分に凹凸があれば、ス
リット光Uを照射する方向と反射光を受光する方向が異
なるため、スリット画像は照射部分の凹凸を反映して、
直線が曲がったり階段状になったりする像となる〔図2
1(c)〕。つまり、計測装置と物体Qとの距離の大小
が撮像面S2における反射光の入射位置に反映する〔図
21(d)〕。スリット光Uをその幅方向に偏向するこ
とにより、受光側から見える範囲の物体表面を走査して
物体表面の3次元位置をサンプリングすることができ
る。サンプリング点数はイメージセンサの画素数に依存
する。 【0005】図22において、投光の起点Aと受光系の
レンズの主点Oとを結ぶ基線AOが受光軸と垂直になる
ように、投光系と受光系とが配置されている。受光軸は
撮像面S2に対して垂直である。なお、レンズの主点と
は、有限遠の被写体の像が撮像面S2に結像したとき
の、いわゆる像距離(image distance)bだけ撮像面S
2から離れた受光軸上の点である。像距離bは、受光系
の焦点距離fとピント調整のためのレンズ繰出し量との
和である。 【0006】主点Oを3次元直交座標系の原点とする。
受光軸がZ軸、基線AOがY軸、スリット光の長さ方向
がX軸である。スリット光Uが物体上の点P(X,Y,
Z)を照射したときの投光軸と投光基準面(受光軸と平
行な投光面)との角度をθa、受光角をθpとすると、
点Pの座標Zは(1)式で表される。 【0007】 基線長L=L1+L2=Z×tanθa+Z×tanθp ∴ Z=L/(tanθa+tanθp) …(1) なお、受光角θpとは、点Pと主点Oとを結ぶ直線と、
受光軸を含む平面(受光軸平面)とのなす角度である。 【0008】撮像倍率βは、β=b/Zであるので、撮
像面S2の中心と受光画素とのX方向の距離をxp、Y
方向の距離をypとすると〔図22(a)参照〕、点P
の座標X,Yは、(2),(3)式で表される。 【0009】 X=xp/β …(2) Y=yp/β …(3) 角度θaはスリット光Uの偏向の角速度によって一義的
に決まる。受光角θpはtanθp=b/ypの関係か
ら算出できる。つまり、撮像面S2上での位置(xp,
yp)を測定することにより、そのときの角度θaに基
づいて点Pの3次元位置を求めることができる。 【0010】図22(c)のように受光系にズームレン
ズ群を設けた場合には、主点Oは後側主点H’となる。
後側主点H’と前側主点Hとの距離をMとすると、点P
の座標Zは(1B)式で表される。 【0011】 L=L1+L2=Z×tanθa+(Z−M)×tanθp ∴ Z=(L+M×tanθp)/(tanθa+tanθp) …(1B) 以上の原理のスリット光投影法による計測において、例
えばCCDセンサのように撮像面S2が有限個の画素か
らなる撮像手段を用いる場合には、計測の分解能が撮像
手段の画素ピッチに依存する。ただし、撮像面S2上で
のスリット光UのY方向(走査方向)の幅が複数画素分
となるようにスリット光Uを設定することにより、分解
能を高めることができる。 【0012】従来、このような計測装置では、物体(被
写体)を奥側の回転テーブル台に載置し、被写体を回転
させながら、手前側に固定されている撮像手段で物体の
形状を測定している。 【0013】また、他の従来例として、分解能を2次元
画像の下にバー表示するのが知られている。測定中に表
示された分解能に対し、ユーザが不満であると判断した
場合、長焦点レンズを介して高倍率の画像データとする
ことにより、対象物の形状に適した精度で画像データが
生成される。その際、被測定物体の載せられた回転台を
操作して、視野領域を複数の領域に分割して測定される
(特開平7−174537号公報参照)。 【0014】 【発明が解決しようとする課題】しかしながら、光切断
方式において物体が複雑な形状であると、スリット光が
被写体に当らない場合、あるいは、物体からの反射光が
反射光の光路上にある物体の一部に遮られて読み取れな
い場合が発生する。このため、1回の走査中に陰の部
分、すなわち3次元データが欠損する部分が現れるとい
う問題がある。従来は手動により物体を動かして対処し
ており、自動認識することは困難である。光切断方式に
より3次元形状を認識させる場合、複雑な物体形状にお
ける死角(陰)部分の発生は避けられず、死角部分を手
動によらずに効率よく形状認識する技術は必要不可欠で
あり、その実現が望まれていた。 【0015】本発明は、上記の課題を解消するものであ
って、走査中に3次元データが欠損する部分が現れた場
合、自動でその部分を見つけ出し、欠損した部分のデー
タを自動的に修復することが可能な3次元計測装置を提
供することにある。 【0016】 【課題を解決するための手段】上記の課題を達成するた
めに、請求項1の発明は、スリット光を投影して被写体
を光学的に走査するための投影手段と、この投影手段に
より被写体に投影されたスリット光の被写体からの反射
光を受光する受光手段と、被写体を載置するための回転
台と、この回転台を回転させる駆動機構とを備え、被写
体の形状を非接触で計測する3次元計測装置において、
受光手段で受光したスリット状の反射光で成る2次元画
像データをベクトル変換する手段と、ベクトル変換した
画像データの連続性を判別する判別手段とを備え、スリ
ット光による走査毎に、得られた画像データをベクトル
変換する手段によりベクトル変換し、このベクトル変換
された画像データの連続性を判別手段により判別し、連
続性が欠如していると判別された場合に、そのスリット
光の走査位置において駆動機構により回転台を回転させ
ることで被写体を回転させ、再度、前記スリット光の投
影及び投影光の反射光の受光を行うものである。 【0017】上記構成においては、スリット光による反
射光の2次元画像をベクトル変換し、このベクトル変換
されたデータから、データの連続性、つまり3次元デー
タの欠損の有無を自動判別し、連続性がない部分につい
て連続性が達成できるように被写体を載置している回転
台を駆動機構により回転させ、再度スリット光の投影及
び投影光の反射光を受光し、それにより欠損部分の無い
3次元データを自動で採取することができる。 【0018】 【発明の実施の形態】図1は本発明に係る計測システム
1の構成を示す。計測システム1は、スリット光投影法
によって立体計測を行う3次元カメラ(レンジファイン
ダ)2と、3次元カメラ2の出力データを処理するホス
ト3と、被写体である物体Qを回転させる回転台5とか
ら構成されている。 【0019】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(スリッ
ト画像データ)とともに、物体Qのカラー情報を示す2
次元画像及びキャリブレーションに必要なデータを出力
する。三角測量法を用いてサンプリング点の座標を求め
る演算処理はホスト3が担う。 【0020】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能であり、ホスト3と回転台5との間
では、オンラインの形態のデータ受渡しが可能である。
記録メディア4としては、光磁気ディスク(MO)、ミ
ニディスク(MD)、メモリカードなどがある。 【0021】図2は3次元カメラ2の外観を示す。ハウ
ジング20の前面に投光窓20a及び受光窓20bが設
けられている。投光窓20aは受光窓20bに対して上
側に位置する。内部の光学ユニットOUが射出するスリ
ット光(所定幅wの帯状のレーザビーム)Uは、投光窓
20aを通って計測対象の物体(被写体)に向かう。ス
リット光Uの長さ方向M1の放射角度φは固定である。
物体の表面で反射したスリット光Uの一部が受光窓20
bを通って光学ユニットOUに入射する。なお、光学ユ
ニットOUは、投光軸と受光軸との相対関係を適正化す
るための2軸調整機構を備えている。 【0022】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
31,32、デジタル出力端子33、及び記録メディア
4の着脱口30aが設けられている。 【0023】液晶ディスプレイ21(LCD)は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン22〜24によって撮影モード
の設定を行うことができる。アナログ出力端子31から
は計測データが出力され、アナログ出力端子31からは
2次元画像信号が例えばNTSC形式で出力される。デ
ジタル出力端子33は例えばSCSI端子である。 【0024】図3は3次元カメラ2の機能構成を示す。
図中の実線矢印は電気信号の流れを示し、破線矢印は光
の流れを示している。3次元カメラ2は、上述の光学ユ
ニットOUを構成する投光側及び受光側の2つの光学系
40(投影手段),50(受光手段)を有している。光
学系40において、半導体レーザ(LD)41が射出す
る波長670nmのレーザビームは、投光レンズ系42
を通過することによってスリット光Uとなり、ガルバノ
ミラー(走査手段)43によって偏向される。半導体レ
ーザ41のドライバ44、投光レンズ系42の駆動系4
5、及びガルバノミラー43の駆動系46は、システム
コントローラ61によって制御される。 【0025】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
能は、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59によって実現される。ズーミング
駆動系60は電動ズーミングのために設けられている。 【0026】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62へ転送さ
れる。出力処理回路62によってセンサ53の各画素毎
に対応する計測データが生成され、メモリ63,64に
格納される。その後、オペレータがデータ出力を指示す
ると、計測データは、SCSIコントローラ66又はN
TSC変換回路65によって所定形式でオンライン出力
され、又は記録メディア4に格納される。計測データの
オンライン出力には、アナログ出力端子31又はディジ
タル出力端子33が用いられる。カラーセンサ54によ
る撮像情報は、ドライバ56からのクロックに同期して
カラー処理回路67へ転送される。カラー処理を受けた
撮像情報は、NTSC変換回路70及びアナログ出力端
子32を経てオンライン出力され、又はディジタル画像
生成部68で量子化されてカラー画像メモリ69に格納
される。その後、カラー画像データがカラー画像メモリ
69からSCSIコントローラ66へ転送され、ディジ
タル出力端子33からオンライン出力され、又は計測デ
ータと対応づけて記録メディア4に格納される。なお、
カラー画像は、センサ53による距離画像と同一の画角
の像であり、ホスト3側におけるアプリケーション処理
に際して参考情報として利用される。カラー情報を利用
する処理としては、例えばカメラ視点の異なる複数組の
計測データを組み合わせて3次元形状モデルを生成する
処理、3次元形状モデルの不要の頂点を間引く処理など
がある。システムコントローラ61は、キャラクタジェ
ネレータ71に対して、LCD21の画面上に適切な文
字や記号を表示するための指示を与える。 【0027】図4は投光レンズ系42の構成を示す。投
光レンズ系42は、コリメータレンズ421、バリエー
タレンズ422、及びエキスパンダレンズ423の3つ
のレンズから構成されている。半導体レーザ41が射出
したレーザビームに対して、次の順序で適切なスリット
光Uを得るための光学的処理が行われる。まず、コリメ
ータレンズ421によってビームが平行化される。次に
バリエータレンズ422によってレーザビームのビーム
径が調整される。最後にエキスパンダレンズ423によ
ってビームがスリット長さ方向M1に拡げられる。 【0028】バリエータレンズ422は、撮影距離及び
撮影の画角に係わらず、センサ53に3以上の複数画素
分の幅のスリット光Uを入射させるために設けられてい
る。駆動系45は、システムコントローラ61の指示に
従って、センサ53上でのスリット光Uの幅wを一定に
保つようにバリエータレンズ422を移動させる。バリ
エータレンズ422と受光側のズームユニット51とは
連動する。 【0029】ガルバノミラー43による偏向の以前にス
リット長を拡げることにより、偏向の後で行う場合に比
べてスリット光Uの歪みを低減することができる。エキ
スパンダレンズ423を投光レンズ系42の最終段に配
置することにより、すなわちガルバノミラー43に近づ
けることにより、ガルバノミラー43を小型化すること
ができる。 【0030】図5は受光のためのズームユニット51の
模式構成を示す。ズームユニット51は、前側結像部5
15、バリエータ部514、コンペンセータ部513、
フォーカシング部512、後側結像部511、及び入射
光の一部をAFセンサ57に導くビームスプリッタ51
6から構成されている。前側結像部515及び後側結像
部511は、光軸に対して固定である。 【0031】フォーカシング部512の移動はフォーカ
シング駆動系59が担い、バリエータ部514の移動は
ズーミング駆動系60が担う。フォーカシング駆動系5
9は、フォーカシング部512の移動距離(繰り出し
量)を指し示すフォーカシングエンコーダ59Aを備え
ている。ズーミング駆動系60は、バリエータ部514
の移動距離(ズーム刻み値)を指し示すズーミングエン
コーダ60Aを備えている。 【0032】図6はビームスプリッタ52の模式構成を
示し、図7は計測用のセンサ53の受光波長を示し、図
8はモニタ用のカラーセンサ54の受光波長を示す。 【0033】ビームスプリッタ52は、色分解膜(ダイ
クロックミラー)521、色分解膜521を挟む2つの
プリズム522,523、プリズム522の射出面52
2bに設けられた赤外線カットフィルタ524、センサ
53の前面側に設けられた可視カットフィルタ525、
プリズム523の射出面523bに設けられた赤外線カ
ットフィルタ526、及びローパスフィルタ527,5
28から構成されている。 【0034】ズームユニット51から入射した光UC
は、ローパスフィルタ527、プリズム522を通って
色分解膜521に入射する。半導体レーザ41の発振帯
域の光U0は色分解膜521で反射し、プリズム522
の入射面522aで反射した後、射出面522bからセ
ンサ53に向かって射出する。プリズム522から射出
した光U0の内、赤外線カットフィルタ524及び可視
カットフィルタ525を透過した光がセンサ53によっ
て受光される。一方、色分解膜521を透過した光C0
は、プリズム523を通って射出面523bからカラー
センサ54に向かって射出する。プリズム523から射
出した光C0の内、赤外線カットフィルタ526及びロ
ーパスフィルタ528を透過した光がカラーセンサ54
によって受光される。 【0035】図7において、破線で示されるように色分
解膜521は、スリット光の波長(λ:670nm)を
含む比較的に広範囲の波長帯域の光を反射する。つま
り、色分解膜521の波長選択性は、スリット光のみを
選択的にセンサ53に入射させる上で不十分である。し
かし、ビームスプリッタ52では、鎖線で示される特性
の赤外線カットフィルタ524と、実線で示される特性
の可視カットフィルタ525とが設けられているので、
最終的にセンサ53に入射する光は、図7において斜線
で示される狭い範囲の波長の光である。これにより、環
境光の影響の小さい、すなわち光学的SN比が大きい計
測を実現することができる。 【0036】一方、カラーセンサ54には、図8に実線
で示される特性の赤外線カットフィルタ528によっ
て、破線で示される特性の色分解膜521を透過した赤
外帯域の光が遮断されるので、可視光のみが入射する。
これにより、モニタ画像の色再現性が高まる。 【0037】なお、赤外線カットフィルタ524及び可
視カットフィルタ525の2個のフィルタを用いる代わ
りに、赤外線及び可視光を遮断する特性をもつ1個のフ
ィルタを用いてもよい。赤外線カットフィルタ524及
び可視カットフィルタ525の両方をプリズム522の
側に設けてもよいし、逆に両方のフィルタをセンサ53
の側に設けてもよい。図6の例とは逆に、可視カットフ
ィルタ525をプリズム522の側に設け、赤外線カッ
トフィルタ524をセンサ53の側に設けてもよい。 【0038】次に、光学ユニットOUに備えられた2軸
調整機構について図9乃至図13を参照して説明する。
図9に示すように、光学ユニットOUは、投影手段であ
る光学系40と受光手段である光学系50とが、ブラケ
ット211,212に取り付けられて構成されている。
これら2つのブラケット211,212は、Y方向軸で
ある第2回転軸AX2を中心に互いに回転可能に連結さ
れている。光学系40は、ブラケット211に対して、
Z方向軸である第1回転軸AX1を中心に回転可能に取
り付けられている。光学系50はブラケット212に固
定されている。第1回転軸AX1は受光光学系50の受
光軸AX3と平行となるように調整される。 【0039】図10乃至図12に示すように、各ブラケ
ット211,212は、その側面視が略L字形を呈して
おり、それぞれ水平板部211a,212aの外面が互
いに接触した状態で回転可能である。すなわち、水平板
部212aに設けられた穴215にはカラー216が回
転可能に嵌め込まれ、そのカラー216はボルト217
によって水平板部211aに固定されている。ボルト2
17は、頭部にネジ穴が設けられており、図示しない有
底筒状のキャップが頭部に被せられた後、そのキャップ
の中央に設けられた穴を貫通して頭部のネジ穴に螺合す
るボルトによって固定され、これによってボルト217
の頭部が覆われている。なお、ボルト217の頭部には
回転係合用の溝が設けられている。 【0040】水平板部212aの突出端部218に設け
られたネジ穴には、回転角度位置を調整するための調整
ボルト219が螺合している。調整ボルト219の先端
部は、水平板部211aにボルト221により取り付け
られたカラー222の周面に当接する。そのボルト22
1と水平板部212aに取り付けられたボルト223と
の間には引張りバネ224が装着されており、これによ
って、水平板部211a,212aの間において、調整
ボルト219の先端部がカラー222に当接する方向に
互いに付勢されている。したがって、調整ボルト219
を回転させてその軸方向位置を調整することにより、第
2回転軸AX2を中心としてブラケット211とブラケ
ット212との相対的な回転角度位置が調整される。調
整ボルト219の調整後は、調整ボルト219をロック
ナット220で固定するとともに、水平板部212aに
設けられた3つの長穴225を貫通して水平板部211
aのネジ穴に螺合する3つのボルト226を締めること
によって、両水平板部211a,212a間を固定す
る。 【0041】光学系40のハウジングの背面部には軸部
材231が取り付けられており、この軸部材231が、
ブラケット211の垂直板部に第1回転軸AX1を中心
に設けられた軸穴232に回転可能に嵌め込まれてい
る。第1回転軸AX1を中心とする光学系40の回転角
度位置を調整した後、光学系40のハウジングに設けら
れた穴を貫通してブラケット211に設けられたネジ穴
に螺合する図示しない複数のボルトを締めることによっ
て、光学系40がブラケット211に固定される。ブラ
ケット212には取付け板213がボルトで固定されて
おり、取付け板213が光学ユニットOUのケーシング
に取り付けられている。 【0042】なお、投光光学系40における投光の起点
Aと受光光学系50のレンズの主点O(後側主点H’)
とを結ぶ基線AOは、受光軸AX3と垂直である。撮像
面S2は屈折した受光軸AX3に対して垂直である。 【0043】次に、第1回転軸AX1及び第2回転軸A
X2の調整方法について説明する。図13(a)に示す
スクリーンSCRは、受光軸AX3上の前方において受
光軸AX3と垂直に配置されている。まず、投光光学系
40からスクリーンSCR上に投影されたスリット光U
について、スリット光Uを走査したときに、走査の前後
におけるスリット光Uの左右の移動距離AL1,AL2
が互いに同一となるように、第2回転軸AX2を調整す
る。次に、図13(b)に示す撮像面S2上に受光され
るスリット光Uについて、その左右の位置BL1,BL
2が互いに同一となるように、つまりスリット光Uが撮
像面S2のX軸と平行になるように、第1回転軸AX1
を調整する。これらの調整を何回か繰り返す。 【0044】これらの調整によって、第1回転軸AX1
が受光軸AX3と平行となり、スリット光Uの走査方向
(偏向方向)が第2回転軸AX2の方向と一致する。し
たがって、光学系40と光学系50との位置関係の誤差
がなくなり、その補正を行わなくても精度のよい計測を
行うことができる。また、より良い精度を得るために補
正を行う場合でも、ズームユニット51においてズーミ
ングを行ってもその補正値を変更する必要がない。した
がって、補正のための演算処理が不要又は最小限でよ
く、その処理時間が極めて短くなる。 【0045】図14は計測システム1における3次元位
置の算出の原理を示す。同図では理解を容易にするた
め、図21及び図22と対応する要素には同一の符号を
付してある。 【0046】センサ53の撮像面S2上で複数画素分と
なる比較的に幅の広いスリット光Uを物体Qに照射す
る。具体的にはスリット光Uの幅を5画素分とする。ス
リット光Uは、サンプリング周期毎に撮像面S2上で1
画素ピッチpvだけ移動するように、図14の上から下
に向かって偏向され、それによって物体Qが走査され
る。サンプリング周期毎にセンサ53から1フレーム分
の光電変換情報が出力される。 【0047】撮像面S2の1つの画素gに注目すると、
走査中に行うN回のサンプリングの内の5回のサンプリ
ングにおいて有効な受光データが得られる。これら5回
分の受光データに対する補間演算によって注目画素gが
にらむ範囲の物体表面agをスリット光Uの光軸が通過
するタイミング(時間重心Npeak:注目画素gの受
光量が最大となる時刻)を求める。図14(b)の例で
は、n回目とその1つ前の(n−1)回目の間のタイミ
ングで受光量が最大である。求めたタイミングにおける
スリット光の照射方向と、注目画素に対するスリット光
の入射方向との関係に基づいて、物体Qの位置(座標)
を算出する。これにより、撮像面の画素ピッチpvで規
定される分解能より高い分解能の計測が可能となる。 【0048】注目画素gの受光量は物体Qの反射率に依
存する。しかし、5回のサンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。 【0049】本実施形態の計測システム1では、3次元
カメラ2がセンサ53の画素g毎に5回分の受光データ
を計測データとしてホスト3に出力し、ホスト3が計測
データに基づいて物体Qの座標を算出する。3次元カメ
ラ2の出力処理回路62(図3参照)は、各画素gに対
応した計測データの生成を担う。 【0050】図15は出力処理回路62のブロック構成
を示し、図16はセンサ53の読出し範囲を示す。出力
処理回路62は、センサ53の出力する各画素gの光電
変換信号を8ビットの受光データに変換するAD変換部
620、直列接続された4つのフレームディレイメモリ
621〜624、有効な5回分の受光データを記憶する
ための5つのメモリバンク625A〜E、受光データが
最大となるフレーム番号(サンプリング番号)FNを記
憶するためのメモリバンク625F、コンパレータ62
6、フレーム番号FNを指し示すジェネレータ627、
及びメモリバンク625A〜Fのアドレス指定などを行
う図示しないメモリ制御手段から構成されている。各メ
モリバンク625A〜Eは、計測のサンプリング点数
(つまり、センサ53の有効画素数)と同数の受光デー
タを記憶可能な容量を持つ。 【0051】4つのフレームディレイメモリ621〜6
24でデータ遅延を行うことにより、個々の画素gにつ
いて5フレーム分の受光データを同時にメモリバンク6
25A〜Eに格納することが可能になっている。なお、
センサ53における1フレームの読出しは、撮像面S2
の全体ではなく、高速化を図るために図16のように撮
像面S2の一部の有効受光領域(帯状画像)Aeのみを
対象に行われる。有効受光領域Aeはスリット光Uの偏
向に伴ってフレーム毎に1画素分だけシフトする。本実
施形態では、有効受光領域Aeのシフト方向の画素数は
32に固定されている。CCDエリアセンサの撮影像の
一部のみを読み出す手法は、特開平7−174536号
公報に開示されている。 【0052】AD変換部620は、1フレーム毎に32
ライン分の受光データD620を画素gの配列順にシリ
アルに出力する。各フレームディレイメモリ621〜6
24は、31(=32−1)ライン分の容量をもつFI
FOである。 【0053】AD変換部620から出力された注目画素
gの受光データD620は、2フレーム分だけ遅延され
た時点で、コンパレータ626によって、メモリバンク
625Cが記憶する注目画素gについての過去の受光デ
ータD620の最大値と比較される。遅延された受光デ
ータD620(フレームディレイメモリ622の出力)
が過去の最大値より大きい場合に、その時点のAD変換
部620の出力及び各フレームディレイメモリ621〜
624の出力が、メモリバンク625A〜Eにそれぞれ
格納され、メモリバンク625A〜Eの記憶内容が書換
えられる。これと同時にメモリバンク625Fには、メ
モリバンク625Cに格納する受光データD620に対
応したフレーム番号FNが格納される。 【0054】すなわち、n番目(n<N)のフレームで
注目画素gの受光量が最大になった場合には、メモリバ
ンク625Aに(n+2)番目のフレームのデータが格
納され、メモリバンク625Bに(n+1)番目のフレ
ームのデータが格納され、メモリバンク625Cにn番
目のフレームのデータが格納され、メモリバンク625
Dに(n−1)番目のフレームのデータが格納され、メ
モリバンク625Eに(n−2)番目のフレームのデー
タが格納され、メモリバンク625Fにnが格納され
る。 【0055】次に、3次元カメラ2及びホスト3の動作
を計測の手順と合わせて説明する。以下では、計測のサ
ンプリング点数を200×231とする。すなわち、撮
像面S2におけるスリット長さ方向の画素数は231で
あり、実質的なフレーム数Nも200である。 【0056】ユーザ(撮影者)は、LCD21が表示す
るカラーモニタ像を見ながら、カメラ位置と向きとを決
め、画角を設定する。その際、必要に応じてズーミング
操作を行う。3次元カメラ2ではカラーセンサ54に対
する絞り調整は行われず、電子シャッタ機能により露出
制御されたカラーモニタ像が表示される。これは、絞り
を開放状態とすることによってセンサ53の入射光量を
できるだけ多くするためである。 【0057】図17は3次元カメラ2におけるデータの
流れを示し、図18はホスト3におけるデータ及び信号
の流れを示し、図19は光学系の各点と物体Qとの関係
を示す。 【0058】ユーザによる画角選択操作(ズーミング)
に応じて、ズームユニット51のバリエータ部514の
移動が行われる。また、フォーカシング部512の移動
による手動又は自動のフォーカシングが行われる。フォ
ーカシングの過程でおおよその対物間距離d0 が測定さ
れる。 【0059】このような受光系のレンズ駆動に呼応し
て、投光側のバリエータレンズ422の移動量が図示し
ない演算回路によって算出され、算出結果に基づいてバ
リエータレンズ422の移動制御が行われる。 【0060】システムコントローラ61は、レンズコン
トローラ58を介して(図3,図5)、フォーカシング
エンコーダ59Aの出力(繰り出し量Ed)及びズーミ
ングエンコーダ60Aの出力(ズーム刻み値fp)を読
み込む。システムコントローラ61の内部において、歪
曲収差テーブルT1、主点位置テーブルT2、及び像距
離テーブルT3が参照され、繰り出し量Ed及びズーム
刻み値fpに対応した撮影条件データがホスト3へ出力
される。ここでの撮影条件データは、歪曲収差パラメー
タ(レンズ歪み補正係数d1,d2)、前側主点位置F
H、及び像距離bである。前側主点位置FHは、ズーム
ユニット51の前側端点Fと前側主点Hとの距離で表さ
れる。前側端点Fは固定であるので、前側主点位置FH
により前側主点Hを特定することができる。 【0061】システムコントローラ61は、半導体レー
ザ41の出力(レーザ強度)及びスリット光Uの偏向条
件(走査開始角、走査終了角、偏向角速度)を算定す
る。この算定方法を詳しく説明する。まず、おおよその
対物間距離d0 に平面物体が存在するものとして、セン
サ53の中央で反射光を受光するように投射角設定を行
う。以下で説明するレーザ強度の算定のためのパルス点
灯は、この設定された投射角で行う。 【0062】次に、レーザ強度を算定する。レーザ強度
の算定に際しては、人体を計測する場合があるので、安
全性に対する配慮が不可欠である。まず、最小強度LD
minでパルス点灯し、センサ53の出力を取り込む。
取り込んだ信号〔Son(LDmin)〕と適正レベル
Stypとの比を算出し、仮のレーザ強度LD1を、 LD1=LDmin×Styp/MAX〔Son(LD
min)〕 に設定する。 【0063】続いて、レーザ強度LD1で再びパルス点
灯し、センサ53の出力を取り込む。取り込んだ信号
〔Son(LD1)〕が適正レベルStyp又はそれに
近い値であれば、LD1をレーザ強度LDsと決める。
他の場合には、レーザ強度LD1とMAX〔Son(L
D1)〕とを用いて仮のレーザ強度LD1を設定し、セ
ンサ53の出力と適正レベルStypとを比較する。セ
ンサ53の出力が許容範囲内の値となるまで、レーザ強
度の仮設定と適否の確認とを繰り返す。なお、センサ5
3の出力の取り込みは、撮像面S2の全面を対象に行
う。これは、AFによる受動的な距離算出では、スリッ
ト光Uの受光位置を高精度に推定することが難しいため
である。センサ53におけるCCDの積分時間は1フィ
ールド時間(例えば1/60秒)であり、実際の計測時
における積分時間より長い。このため、パルス点灯を行
うことにより、計測時と等価なセンサ出力を得る。 【0064】次に、投射角と、レーザ強度が決定したと
きのスリット光Uの受光位置から、三角測量により対物
間距離dを決定する。最後に、決定された対物間距離d
に基づいて、偏向条件を算出する。偏向条件の算定に際
しては、対物間距離dの測距基準点である受光系の後側
主点H’と投光の起点AとのZ方向(図22参照)のオ
フセットdoffを考慮する。また、走査方向の端部に
おいても中央部と同様の計測可能距離範囲d’を確保す
るため、所定量(例えば8画素分)のオーバースキャン
を行うようにする。走査開始角th1、走査終了角th
2、偏向角速度ωは、次式で表される。 【0065】th1=tan−1〔(β×pv×(np
/2+8)+L)/(d+doff)〕×180/π th2=tan−1〔(−β×pv×(np/2+8)
+L)/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2のY方向の有効画素数 L:基線長 【0066】このようにして算出された条件で次に本発
光に移り、物体Qの走査(スリット投影)が行われ、上
述の出力処理回路52によって得られた1画素当たり5
フレーム分の計測データ(スリット画像データ)D62
がホスト3へ送られる。同時に、偏向条件(偏向制御デ
ータ)及びセンサ53の仕様などを示す装置情報D10
も、ホスト3へ送られる。表1は3次元カメラ2がホス
ト3へ送る主なデータをまとめたものである。 【0067】 【表1】 【0068】図18に示すように、ホスト3において
は、スリット重心演算(#31)、歪曲収差の補正演算
(#32)、カメラ視線方程式の演算(#33)、スリ
ット面方程式の演算(#34)、及び3次元位置演算#
35が実行され、それによって200×231個のサン
プリング点の3次元位置(座標X,Y,Z)が算定され
る。サンプリング点はカメラ視線(サンプリング点と後
側主点H’とを結ぶ直線)とスリット面(サンプリング
点を照射するスリット光Uの光軸面)との交点である。 【0069】スリット光Uの時間重心Npeak(図1
4参照)は、各サンプリング時の受光データD(i)を
用いて(3)式で与えられる。 Npeak=n+Δn …(3) Δn=〔−2×D(n−2)−D(n−1)+D(n+
1)+2×D(n+2)〕/ΣD(i) (i=n−2,n−1,n,n+1,n+2) 又は、 Δn=[−2×〔D〔n−2)−minD(i)〕−
〔D(n−1)−minD(i)〕+〔D(n+1)−
minD(i)〕+2×〔D(n+2)−minD
(i)〕]/ΣD(i) 5つの受光データの内の最小のデータminD(i)を
差し引いて加重平均を求めることにより、環境光の影響
を軽減することができる。 【0070】カメラ視線方程式は、(4)式及び(5)
式で表わされる。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(4) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(5) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 【0071】スリット面方程式は、(6)式で表わされ
る。 【数1】 【0072】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対象に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(7)式及び(8)式で与えられる。 【0073】 u’=u+d1×t2×(u−u0)/t2+d2×t2×(u−u0) /t2 …(7) v’=v+d1×t2×(v−v0)/t2+d2×t2×(v−v0) /t2 …(8) t2=(t1)−2 t1=(u−u0)+(v−v0) 【0074】上述の(4)式及び(5)式において、u
に代えてu’を代入し、vに代えてv’を代入すること
により、歪曲収差を考慮した3次元位置を求めることが
できる。なお、キャリブレーションについては、電子情
報通信学会研究会資料PRU91-113[カメラの位置決め
のいらない画像の幾何学的補正]小野寺・金谷、電子情
報通信学会論文誌D-II vol. J74-D-II No.9 pp.1227-1
235,'91/9 [光学系の3次元モデルに基づくレンジファ
インダの高精度キャリブレーション法]植芝・吉見・大
島、などに詳しい開示がある。 【0075】上述の実施形態は、計測データD62に基
づいて3次元位置を算出する演算をホスト3が担うもの
であるが、3次元カメラ2に3次元位置を算出する演算
機能を設けてもよい。3次元位置をルックアップテーブ
ル方式で算定することも可能である。受光側の光学系5
0において、ズームユニット51に代えて交換レンズに
よって撮像倍率を変更してもよい。 【0076】次に、欠損部の無い3次元データを得る手
順について、図18及び図20を参照して説明する。ス
リット画像データにおける連続性の欠如の有無の判別を
もとに、3次元データ欠損部の自動検出が自動的に行わ
れ、適宜、回転台上の被写体の回転と3次元データの修
復動作が自動的に行なわれる。図18における実線はデ
ータの流れを、破線は信号の流れを示す。3次元データ
の計測は、スリット画像の連続性を調べる予備スキャン
と、これに引き続く3次元データを採取する本スキャン
によって行われる。予備スキャン時に、スリット画像デ
ータは3次元カメラの出力端子を介してベクトル変換
(#36)に常に送られている。 【0077】ここで、ベクトル変換と連続性の判別につ
いて説明する。ベクトル変換(#36)において、スリ
ット画像データの画素データの集合に対し、細線化の手
法による線図化、及び得られた線図化データに対する始
点及び終点の定義付けが行われ、スリット画像データが
ベクトル変換される。そして、連続性の判別(#37)
において、このべクトル変換された線図化データを用い
て連続性が判別される。連続性の判別(#37)は、全
ての始点と終点を有する線図(ベクトル)が互いに始点
と終点において連続してつながっているかどうかを評価
して、つながっていれば、スリット画像データが一本の
連続線になっていると判別する。この場合は、3次元デ
ータの欠損は無いと判断される。また、連続性の判別
(#37)において、スリット画像が途切れた線である
と認識される場合は、3次元データの欠損が生じると判
断される。 【0078】(予備スキャンにおける全てのスリット画
像が連続の場合)図20のフローチャートにおいて、予
備スキャンの一回目のスキャンが行われる(S1)。こ
の後、得られたスリット画像データについて、上記のベ
クトル変換(#36)によるベクトル変換の処理と連続
性の判別(#37)による連続性の判別が行われる。連
続性の判別(#37)において連続線であるとの判別結
果がえられた場合(S2においてYES)、スキャン終
了角度か否かが判断されて、終了角度ではない場合(S
3においてNO)、投光側の光学系40において次のス
キャン角度が設定され(S4)、予備スキャンの2回目
のスキャンが行われる(S1)。このようにして、全て
のスキャン角度においてスリット画像データが連続線と
判別された場合(全てのスキャンに対し、S2及びS3
においてYES)、投光側の光学系40においてスキャ
ン開始角度が設定され(S8)、本スキャンが実行さ
れ、3次元データの取得が行なわれる(S9)。この場
合は、被写体の回転と修復動作は必要なく、欠損部の無
い3次元データが得られる。 【0079】(予備スキャン中にスリット画像の不連続
が発生の場合)上記において、予備スキャン中にスリッ
ト画像の不連続が発生した場合(S2においてNO)、
スキャン動作を中止させる信号が3次元カメラ2に発信
されてスキャン動作は中止される。次に、回転台5を回
転する信号が回転台5に送られて回転台5が所定の角度
だけ回転する(S5)。続いて、そのスキャン角度にお
いて、予備スキャンが実行され(S6)、スリット画像
の連続性が判別され、、不連続であれば(S7において
NO)、連続と判別されるまで回転台5の回転と予備ス
キャンと連続性の判別がなされる。回転台5の角度設定
が、スリット画像の連続性が得られる状態になったとき
(S7においてYES)、投光側の光学系40において
スキャン開始角度が設定され(S8)、本スキャンの実
行が行われる。 【0080】(本スキャン)上記に続く本スキャンで
は、スリット画像の不連続が現れる可能性がある。そこ
で、本スキャンを実行して(S9)、連続性の判別を行
い、連続線でなければ(S10においてNO)そのスキ
ャン角度を所定のメモリに記憶させ(S12)、次のス
キャン角度を設定し(S13)、連続性の判別(#3
7)において連続線であるとの結果であれば(S10に
おいてYES)、そのまま次のスキャン角度を設定し
(S13)、その角度での本スキャン実行(S9)を行
い、スキャン終了角度まで本スキャンを実行する。次
に、上記スキャン角度を記憶させるメモリを参照して、
本スキャンにおけるスリット画像の不連続の発生の有無
を調べ、不連続性の発生がなければ3次元データの計測
は終了する(S14においてNO)。 【0081】(本スキャン中における不連続の発生)上
記スキャン角度を記憶させるメモリを参照して、本スキ
ャンにおけるスリット画像の不連続発生がある場合(S
14においてYES)、不連続の発生した全てのスキャ
ン角度について、回転台上の被写体の回転と3次元デー
タの修復動作を行う。まず、メモリに記憶された最初の
スキャン角度が投光側の光学系40において設定され
(S15)て、回転台5の所定角度の回転(S16)及
びスキャンが実行され(S17)、連続性の判別(#3
7)においてスリット画像の連続性が判別される(S1
8)。このスキャン角度においてスリット画像が不連続
であれば(S18においてNO)、再度、回転台の回転
とスキャンを行い、連続であれば(S18においてYE
S)次のスキャン角度について、同様に回転台の回転と
スキャンを行い、欠損した3次元データの修復を行う。
データの修復をすべきスキャン角度がなくなれば(S1
4においてNO)、3次元データの計測は終了する。上
述した欠損部の無い3次元データを得る手順における予
備スキャン及び本スキャンにおけるスリット画像の連続
性の判別、及びその判別結果に基づく回転台の回転と3
次元データの修復動作は、全て自動により行われる。 【0082】なお、本発明は、上記構成に限られること
なく種々の変形が可能である。例えば、自動で3次元デ
ータ計測中に、計測装置の操作者が介入してマニュアル
動作に移行し、再度全自動測定に復帰するようにしても
よい。また、予備スキャンと本スキャンとを区別して設
けることなく、本スキャンの中で適宜、スリット画像の
連続性の判別、及びその判別結果に基づく回転台の回転
と3次元データの修復動作を行ってもよい。 【0083】 【発明の効果】以上のように本発明によれば、スリット
光による反射光の2次元画像をベクトル変換し、このベ
クトル変換されたデータから、データの連続性、つまり
3次元データの欠損の有無を自動判別し、連続性がない
部分について連続性が達成できるように被写体を載置し
ている回転台を駆動機構により回転させ、再度スリット
光の投影及び投影光の反射光を受光し、それにより欠損
部分の無い3次元データを自動で採取することができ
る。かくして、物体の形状が複雑であるなどの原因によ
り、検出光を照射する位置から影になる部分の物体上に
検出光が投影できない場合、あるいは、撮像位置から見
て陰になる部分からの反射光が測定できない場合が生じ
ても、自動で対処することが可能である。
Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention
Non-contact measurement of the shape of an object by irradiating light such as 3rd order
For the former measuring device. 2. Description of the Related Art Conventionally, light cutting for performing slit light projection has been performed.
Non-contact type three-dimensional measuring device by the method
You. Non-contact type 3D measuring device is faster than contact type
CG system and CAD system
Data input to stem, body measurement, visual recognition of robot
It is used for such purposes. [0003] As a measurement method suitable for this three-dimensional measurement, it is known.
Slit light projection method (also called light cutting method)
3D by optically scanning an object (subject)
An image is a method of obtaining a so-called distance image, and a specific detection light
Is an active measurement method that shoots an object by irradiating
You. Then, the object is placed on the rotary table on the back side,
It is fixed to the near side while rotating the object appropriately
The shape of the object is measured by the imaging means. 3D image
Is a set of pixels indicating the three-dimensional positions of multiple parts on the object
It is. In the slit light projection method, the cross section is straight as the detection light.
Linear slit light is used. FIG. 21 shows an outline of the slit light projection method.
FIG. 22 shows the principle of measurement by the slit light projection method. Total
A band-shaped slit light U having a narrow cross section is applied to the object Q to be measured.
Irradiate and reflect the reflected light with a two-dimensional image sensor, for example.
The light is incident on the image plane S2 (FIG. 21A). Irradiation of object Q
If the part is flat, the slit image that is the shot image is a straight line
[FIG. 21 (b)]. If the irradiated area has irregularities,
The direction in which the lit light U is irradiated differs from the direction in which the reflected light is received.
Therefore, the slit image reflects the unevenness of the irradiated part,
An image in which a straight line bends or becomes step-like [Fig.
1 (c)]. That is, the distance between the measuring device and the object Q is large or small.
Reflects the incident position of the reflected light on the imaging surface S2 [FIG.
21 (d)]. The slit light U is deflected in the width direction.
Scans the surface of the object within the range visible from the light receiving side
Can sample the three-dimensional position of the object surface
You. The number of sampling points depends on the number of pixels of the image sensor
I do. In FIG. 22, a starting point A of light emission and a light receiving system
Base line AO connecting the principal point O of the lens is perpendicular to the light receiving axis
Thus, a light projecting system and a light receiving system are arranged. The receiving axis is
It is perpendicular to the imaging surface S2. The main points of the lens
Is when the image of the finite object is formed on the imaging surface S2
Of the imaging surface S by the so-called image distance (b)
It is a point on the light receiving axis away from 2. The image distance b is a light receiving system
Between the focal length f of the lens and the amount of lens extension for focus adjustment
It is sum. The principal point O is defined as the origin of a three-dimensional rectangular coordinate system.
The light receiving axis is the Z axis, the base line AO is the Y axis, and the length direction of the slit light
Is the X axis. When the slit light U reaches a point P (X, Y,
Z) and the light projection axis and the light emission reference plane (irradiation axis
Θa and the light receiving angle θp,
The coordinate Z of the point P is represented by the equation (1). Baseline length L = L1 + L2 = Z × tan θa + Z × tan θp∴Z = L / (tan θa + tan θp) (1) The light receiving angle θp is a straight line connecting the point P and the principal point O.
This is an angle formed with a plane including the light receiving axis (light receiving axis plane). Since the imaging magnification β is β = b / Z,
The distance in the X direction between the center of the image plane S2 and the light receiving pixel is xp, Y
Assuming that the distance in the direction is yp (see FIG. 22A), the point P
Are represented by equations (2) and (3). X = x / β (2) Y = yp / β (3) The angle θa is univocally determined by the angular velocity of deflection of the slit light U.
Is decided. Is light-receiving angle θp related to tan θp = b / yp
Can be calculated from In other words, the position (xp,
yp), it is possible to determine the angle based on the angle θa at that time.
Accordingly, the three-dimensional position of the point P can be obtained. [0010] As shown in FIG.
In the case where a group of noises is provided, the principal point O becomes the rear principal point H ′.
Assuming that the distance between the rear principal point H ′ and the front principal point H is M, the point P
Is represented by equation (1B). L = L1 + L2 = Z × tan θa + (Z−M) × tan θp∴Z = (L + M × tan θp) / (tan θa + tan θp) (1B) In the measurement by the slit light projection method based on the above principle, an example is given.
For example, is the imaging surface S2 a finite number of pixels like a CCD sensor?
When using imaging means consisting of
It depends on the pixel pitch of the means. However, on the imaging surface S2
The width of the slit light U in the Y direction (scanning direction) is equivalent to a plurality of pixels.
By setting the slit light U so that
Performance can be enhanced. Conventionally, in such a measuring device, an object (subject)
Object on the rotary table on the back side and rotate the subject
Of the object with the imaging means fixed to this side.
The shape is being measured. As another conventional example, the resolution is two-dimensional.
It is known to display a bar below the image. During measurement
User judged dissatisfied with the indicated resolution
In the case, image data of high magnification is obtained through a long focal length lens.
This makes it possible to obtain image data with accuracy appropriate for the shape of the target object.
Generated. At this time, the turntable on which the object to be measured is
Operate to measure the field of view divided into multiple areas
(See Japanese Patent Application Laid-Open No. 7-174537). [0014] However, light cutting
If the object has a complicated shape in the method, the slit light
When it does not hit the subject or reflected light from the object
Cannot be read because it is blocked by part of the object on the optical path of the reflected light
May occur. Therefore, during one scan, the shadow area
Minute, that is, a part where 3D data is missing appears
Problem. In the past, we moved objects manually to deal with them.
And it is difficult to automatically recognize them. Light cutting method
When recognizing a more three-dimensional shape,
Blind spots (shades) are inevitable.
Technology for efficiently recognizing shapes without relying on movement is essential
Yes, its realization was desired. The present invention solves the above problems.
Therefore, when a part where three-dimensional data is lost appears during scanning,
Automatically finds that part and deletes the missing part.
A three-dimensional measurement device that can automatically repair data
To provide. [0016] To achieve the above object,
According to the first aspect of the present invention, a subject is projected by projecting slit light.
Projection means for optically scanning the
Reflection of the slit light projected on the subject from the subject
Light receiving means for receiving light, and rotation for placing the subject
And a drive mechanism for rotating the turntable.
In a three-dimensional measuring device that measures the shape of the body without contact,
Two-dimensional image composed of slit-like reflected light received by the light receiving means
Means for converting the image data into vectors, and
Determining means for determining the continuity of the image data;
The obtained image data is converted to a vector
Vector conversion by means of conversion, this vector conversion
The continuity of the obtained image data is determined by the determination means,
If it is determined that the continuity is lacking, the slit
The turntable is rotated by the drive mechanism at the light scanning position.
To rotate the subject, and again project the slit light.
This is to receive the reflected light of the shadow and the projection light. In the above configuration, the anti-slit light
Vector conversion of the two-dimensional image of the light, this vector conversion
Continuity of data, that is, three-dimensional data
Automatically determines if there is any data loss, and
Rotating the subject so that continuity can be achieved
The table is rotated by the drive mechanism, and the slit light is projected and
And reflected light of projection light, so there is no defect
Three-dimensional data can be collected automatically. FIG. 1 shows a measuring system according to the present invention.
1 is shown. The measurement system 1 uses a slit light projection method.
3D camera (Range Fine)
2) a host for processing output data of the 2 and 3D camera 2
And a turntable 5 for rotating the object Q as a subject.
It is composed of The three-dimensional camera 2 includes a plurality of suns on the object Q.
Measurement data that identifies the three-dimensional position of the pulling point (slip
2 indicating the color information of the object Q together with the image data
Outputs 3D images and data required for calibration
I do. Find coordinates of sampling points using triangulation
The arithmetic processing is performed by the host 3. The host 3 includes a CPU 3a, a display 3
b, keyboard 3c, mouse 3d, etc.
Computer system. The CPU 3a has a measurement data
Data processing software is installed. E
Between the strike 3 and the 3D camera 2
Both forms of offline with portable recording media 4
Data can be transferred between the host 3 and the turntable 5
In, data transfer in an online form is possible.
As the recording medium 4, a magneto-optical disk (MO),
There are two disks (MD) and memory cards. FIG. 2 shows the appearance of the three-dimensional camera 2. Howe
A light emitting window 20a and a light receiving window 20b are provided in front of the jing 20.
Have been killed. The light emitting window 20a is positioned above the light receiving window 20b.
Located on the side. Pick-up from the internal optical unit OU
Light (a band-shaped laser beam having a predetermined width w) U
It goes to the object (subject) to be measured through 20a. S
The radiation angle φ in the length direction M1 of the lit light U is fixed.
A part of the slit light U reflected on the surface of the object is
b and enters the optical unit OU. The optical unit
The knit OU optimizes the relative relationship between the projecting axis and the receiving axis.
A two-axis adjustment mechanism for On the upper surface of the housing 20, a zooming
Tons 25a, 25b, manual focusing button 26
a, 26b, and a shutter button 27 are provided.
You. As shown in FIG. 2B, on the back of the housing 20,
Liquid crystal display 21, cursor button 22, select
Button 23, cancel button 24, analog output terminal
31, 32, digital output terminal 33, and recording medium
Four attachment / detachment ports 30a are provided. The liquid crystal display 21 (LCD) operates
It is used as a screen display means and an electronic finder.
The photographer can set the shooting mode by using the buttons 22 to 24 on the back.
Can be set. From analog output terminal 31
Outputs the measurement data, and the analog output terminal 31
A two-dimensional image signal is output, for example, in the NTSC format. De
The digital output terminal 33 is, for example, a SCSI terminal. FIG. 3 shows a functional configuration of the three-dimensional camera 2.
Solid arrows in the figure indicate the flow of electric signals, and broken arrows indicate light.
It shows the flow. The three-dimensional camera 2 includes the optical unit described above.
Two optical systems on the light emitting side and the light receiving side constituting the knit OU
40 (projection means) and 50 (light receiving means). light
In the science system 40, a semiconductor laser (LD) 41 emits light.
Laser beam having a wavelength of 670 nm
Pass through the slit light U, and the galvano
The light is deflected by a mirror (scanning means) 43. Semiconductor
The driver 44 of the user 41 and the driving system 4 of the projection lens system 42
5 and the drive system 46 of the galvanometer mirror 43
It is controlled by the controller 61. In the optical system 50, a zoom unit 51
Is collected by the beam splitter 52.
It is split. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band
Incident on the color sensor 54 for the color filter. Sensor 53 and power
Color sensors 54 are both CCD area sensors.
You. The zoom unit 51 is a focus type, and a part of the incident light.
Are used for auto-focusing (AF). AF machine
The function is based on the AF sensor 57, the lens controller 58, and the camera.
This is realized by the focusing driving system 59. zooming
The drive system 60 is provided for electric zooming. The imaging information from the sensor 53 is transmitted to the driver 5
5 is transferred to the output processing circuit 62 in synchronization with the clock from
It is. Each pixel of the sensor 53 by the output processing circuit 62
Is generated and stored in the memories 63 and 64.
Is stored. The operator then directs the data output
Then, the measurement data is stored in the SCSI controller 66 or N
Online output in predetermined format by TSC conversion circuit 65
Or stored in the recording medium 4. Measurement data
The analog output terminal 31 or digital
A terminal output terminal 33 is used. By the color sensor 54
Image information is synchronized with the clock from the driver 56.
The data is transferred to the color processing circuit 67. Color processed
The imaging information is sent to an NTSC conversion circuit 70 and an analog output terminal.
Output on-line via digital device 32 or digital image
Quantized by the generation unit 68 and stored in the color image memory 69
Is done. After that, the color image data is stored in the color image memory.
69 to the SCSI controller 66,
Output from the output terminal 33
The data is stored in the recording medium 4 in association with the data. In addition,
The color image has the same angle of view as the distance image obtained by the sensor 53.
And application processing on the host 3 side
It will be used as reference information. Use color information
Processing, for example, a plurality of sets of different camera viewpoints
Generate 3D shape model by combining measurement data
Processing, thinning out unnecessary vertices of 3D model, etc.
There is. The system controller 61
The appropriate text is displayed on the screen of the LCD 21 with respect to the
Give instructions to display letters and symbols. FIG. 4 shows the structure of the light projecting lens system 42. Throw
The optical lens system 42 includes a collimator lens 421,
Lens 422 and expander lens 423
Lens. The semiconductor laser 41 emits
The appropriate slits in the following order for the laser beam
Optical processing for obtaining light U is performed. First, Kolime
The beam is collimated by the data lens 421. next
Beam of laser beam by variator lens 422
The diameter is adjusted. Finally, the expander lens 423
As a result, the beam is expanded in the slit length direction M1. The variator lens 422 is used to determine the photographing distance and
Regardless of the angle of view of photographing, three or more pixels
It is provided to make slit light U of minute width incident.
You. The drive system 45 receives instructions from the system controller 61.
Therefore, the width w of the slit light U on the sensor 53 is kept constant.
The variator lens 422 is moved to keep it. Bari
The eta lens 422 and the zoom unit 51 on the light receiving side
Interlock. Before the deflection by the galvanomirror 43,
Increasing the lit length allows for a better
All distortions of the slit light U can be reduced. Eki
The spanner lens 423 is arranged at the last stage of the projection lens system 42.
Position, that is, close to the galvanometer mirror 43.
To reduce the size of the galvanometer mirror 43
Can be. FIG. 5 shows a zoom unit 51 for receiving light.
The schematic configuration is shown. The zoom unit 51 includes the front image forming unit 5
15, variator section 514, compensator section 513,
Focusing unit 512, rear image forming unit 511, and incidence
Beam splitter 51 that guides a part of light to AF sensor 57
6. Front imaging unit 515 and rear imaging
The part 511 is fixed with respect to the optical axis. The movement of the focusing unit 512 is
Sing drive system 59 is responsible for moving variator unit 514.
The zooming drive system 60 is responsible. Focusing drive system 5
9 is the moving distance of the focusing unit 512
Focusing encoder 59A indicating the
ing. The zooming drive system 60 includes a variator unit 514.
Zooming point indicating the moving distance (zoom step value)
A coder 60A is provided. FIG. 6 shows a schematic configuration of the beam splitter 52.
FIG. 7 shows the light receiving wavelength of the sensor 53 for measurement.
Reference numeral 8 denotes a light receiving wavelength of the monitor color sensor 54. The beam splitter 52 is a color separation film (die)
Clock mirror) 521 and two
Prisms 522, 523, exit surface 52 of prism 522
Infrared cut filter 524 and sensor provided in 2b
53, a visible cut filter 525 provided on the front side of
An infrared camera provided on the exit surface 523b of the prism 523
Filter 526 and low-pass filters 527 and 5
28. Light UC incident from the zoom unit 51
Passes through the low-pass filter 527 and the prism 522
The light enters the color separation film 521. Oscillation band of semiconductor laser 41
The light U0 in the area is reflected by the color separation film 521, and the prism 522
After being reflected by the incident surface 522a of the
Injects toward the sensor 53. Emitted from prism 522
Out of the light U0, the infrared cut filter 524 and the visible light
The light transmitted through the cut filter 525 is detected by the sensor 53.
Received. On the other hand, the light C0 transmitted through the color separation film 521
Is color from the exit surface 523b through the prism 523
Inject toward the sensor 54. Fire from prism 523
Of the emitted light C0, the infrared cut filter 526 and the
The light transmitted through the multi-pass filter 528 is
Is received by the In FIG. 7, the color components are
The dissolving film 521 sets the wavelength of the slit light (λ: 670 nm).
Reflects light in a relatively wide range of wavelength bands. Toes
The wavelength selectivity of the color separation film 521 is such that only the slit light
It is insufficient to make the light incident on the sensor 53 selectively. And
However, in the beam splitter 52, the characteristic indicated by the chain line
Infrared cut filter 524 and the characteristics indicated by the solid line
Since the visible cut filter 525 is provided,
The light finally incident on the sensor 53 is indicated by hatching in FIG.
This is light of a narrow range of wavelengths indicated by. This makes the ring
A meter with a small influence of boundary light, that is, a large optical SN ratio
Measurement can be realized. On the other hand, the color sensor 54 has a solid line in FIG.
The infrared cut filter 528 having the characteristics indicated by
And red transmitted through the color separation film 521 having the characteristics indicated by the broken line.
Since the light in the outer band is blocked, only visible light enters.
Thereby, the color reproducibility of the monitor image is improved. Note that the infrared cut filter 524 and the
Instead of using two filters of visual cut filter 525
In addition, one piece of infrared and visible light blocking properties
A filter may be used. Infrared cut filter 524 and
And the visible cut filter 525
Or both filters may be connected to the sensor 53
May be provided on the side of. In contrast to the example of FIG.
A filter 525 is provided on the side of the prism 522, and
The filter 524 may be provided on the sensor 53 side. Next, the two axes provided in the optical unit OU
The adjustment mechanism will be described with reference to FIGS.
As shown in FIG. 9, the optical unit OU is a projection unit.
Optical system 40 and optical system 50 as a light receiving means
It is configured to be attached to the units 211 and 212.
These two brackets 211, 212 are
Are connected to each other so as to be rotatable about a certain second rotation axis AX2.
Have been. The optical system 40 moves with respect to the bracket 211.
It is rotatable about the first rotation axis AX1, which is the Z-direction axis.
Is attached. The optical system 50 is fixed to the bracket 212.
Is defined. The first rotation axis AX1 is received by the light receiving optical system 50.
It is adjusted so as to be parallel to the optical axis AX3. As shown in FIG. 10 to FIG.
The units 211 and 212 have a substantially L-shaped side view.
The outer surfaces of the horizontal plate portions 211a and 212a are
Can be rotated in a state of contact. That is, horizontal plate
The collar 216 is turned in the hole 215 provided in the portion 212a.
The collar 216 is rotatably fitted, and the collar 216 is
Is fixed to the horizontal plate portion 211a. Bolt 2
17 has a screw hole in the head,
After the bottom cylindrical cap is put on the head, the cap
Through the hole provided in the center of the head and screw it into the screw hole on the head
Bolt 217, thereby securing the bolt 217.
The head is covered. In addition, the head of the bolt 217
A groove for rotational engagement is provided. At the protruding end 218 of the horizontal plate 212a
Screw holes have adjustments to adjust the rotation angle position
The bolt 219 is screwed. Tip of adjustment bolt 219
The part is attached to the horizontal plate part 211a with the bolt 221.
Abuts on the peripheral surface of the collar 222 provided. The bolt 22
1 and a bolt 223 attached to the horizontal plate portion 212a.
Between them, a tension spring 224 is mounted.
Therefore, the adjustment is performed between the horizontal plate portions 211a and 212a.
In the direction in which the tip of the bolt 219 contacts the collar 222
Are biased to each other. Therefore, the adjustment bolt 219
To adjust its axial position,
Bracket 211 and bracket around two axes of rotation AX2
The rotation angle position relative to the slot 212 is adjusted. Key
After adjusting the adjusting bolt 219, lock the adjusting bolt 219.
While fixing with the nut 220, the horizontal plate portion 212a
The horizontal plate portion 211 penetrates the three elongated holes 225 provided.
Tighten the three bolts 226 screwed into the screw holes a
With this, the space between the two horizontal plate portions 211a and 212a is fixed.
You. A shaft section is provided on the rear side of the housing of the optical system 40.
A member 231 is attached, and this shaft member 231 is
The first rotation axis AX1 is centered on the vertical plate portion of the bracket 211.
Is rotatably fitted in a shaft hole 232 provided in
You. Rotation angle of optical system 40 about first rotation axis AX1
After adjusting the angle position, it is provided on the housing of the optical system 40.
Screw holes provided in the bracket 211 through the holes
By tightening several bolts (not shown)
Thus, the optical system 40 is fixed to the bracket 211. bra
A mounting plate 213 is fixed to the bracket 212 with bolts.
The mounting plate 213 is a casing of the optical unit OU.
Attached to. The starting point of light emission in the light emitting optical system 40
A and the principal point O of the lens of the light receiving optical system 50 (rear principal point H ')
Are perpendicular to the light receiving axis AX3. Imaging
The surface S2 is perpendicular to the refracted light receiving axis AX3. Next, the first rotation axis AX1 and the second rotation axis A
A method of adjusting X2 will be described. As shown in FIG.
The screen SCR is received in front of the light receiving axis AX3.
It is arranged perpendicular to the optical axis AX3. First, the projection optical system
Slit light U projected on screen SCR from 40
When scanning with slit light U, before and after scanning
Left and right moving distances AL1 and AL2 of slit light U at
Are adjusted so that are the same as each other.
You. Next, light is received on the imaging surface S2 shown in FIG.
Left and right positions BL1 and BL of the slit light U
2 are the same as each other, that is, the slit light U
The first rotation axis AX1 is set so as to be parallel to the X axis of the image plane S2.
To adjust. Repeat these adjustments several times. By these adjustments, the first rotation axis AX1
Is parallel to the light receiving axis AX3, and the scanning direction of the slit light U
(Deflection direction) coincides with the direction of the second rotation axis AX2. And
Therefore, the error in the positional relationship between the optical system 40 and the optical system 50
And accurate measurement can be performed without correction.
It can be carried out. Also, to obtain better accuracy,
Even when performing the correction, the zoom unit 51
It is not necessary to change the correction value even after performing the tuning. did
Therefore, there is no need or minimal computational processing for correction.
And the processing time becomes extremely short. FIG. 14 shows a three-dimensional position in the measurement system 1.
The principle of calculation of the position is shown. In the figure, it is easy to understand
Therefore, the same reference numerals are given to the elements corresponding to FIG. 21 and FIG.
It is attached. A plurality of pixels on the imaging surface S2 of the sensor 53
Irradiates the object Q with a relatively wide slit light U
You. Specifically, the width of the slit light U is set to 5 pixels. S
The lit light U is 1 on the imaging surface S2 for each sampling cycle.
14 so as to move by the pixel pitch pv.
To scan the object Q
You. One frame from sensor 53 for each sampling cycle
Is output. Focusing on one pixel g on the imaging surface S2,
5 samples out of N samples performed during scanning
In this case, effective light receiving data can be obtained. These 5 times
Of interest pixel g by interpolation operation
The optical axis of the slit light U passes through the object surface ag in the glare range
Timing (time center of gravity Npeak: reception of target pixel g)
The time at which the light amount becomes maximum) is obtained. In the example of FIG.
Is the time between the nth time and the previous (n-1) th time.
The received light amount is the largest in the ringing. At the timing I found
The irradiation direction of the slit light and the slit light for the pixel of interest
Position (coordinates) of the object Q based on the relationship with the incident direction of
Is calculated. As a result, the pixel pitch pv of the imaging surface is regulated.
Measurement with a higher resolution than the specified resolution becomes possible. The amount of light received by the target pixel g depends on the reflectance of the object Q.
Exist. However, the relative value of each received light amount of 5 samplings
The ratio is constant regardless of the absolute amount of received light. In other words, the object
Color shading does not affect measurement accuracy. In the measuring system 1 of the present embodiment, the three-dimensional
The received light data of 5 times for each pixel g of the sensor 53 by the camera 2
Is output to the host 3 as measurement data, and the host 3 measures
The coordinates of the object Q are calculated based on the data. 3D turtle
The output processing circuit 62 of FIG.
Responsible for generating measurement data in response. FIG. 15 is a block diagram of the output processing circuit 62.
FIG. 16 shows the reading range of the sensor 53. output
The processing circuit 62 controls the photoelectric conversion of each pixel g output from the sensor 53.
A / D converter that converts the conversion signal into 8-bit light receiving data
620, 4 frame delay memories connected in series
621 to 624, five effective received light data are stored
Memory banks 625A to 625A for receiving light reception data
Write the maximum frame number (sampling number) FN
Memory bank 625F for storing, comparator 62
6, a generator 627 indicating the frame number FN,
And address designation of the memory banks 625A to 625F.
And a memory control means (not shown). Each method
Molybank 625A-E is the number of sampling points for measurement
(That is, the same number of received light data as the number of effective pixels of the sensor 53)
Data storage capacity. Four frame delay memories 621 to 6
24, a data delay is applied to each pixel g.
At the same time, 5 frames of received light data are
25A to 25E. In addition,
The reading of one frame by the sensor 53 is performed by the imaging surface S2
As shown in Fig. 16 for speeding up,
Only a part of the effective light receiving area (band image) Ae of the image plane S2
Performed on the subject. The effective light receiving area Ae is the polarization of the slit light U.
The position is shifted by one pixel for each frame according to the direction. Real truth
In the embodiment, the number of pixels in the shift direction of the effective light receiving area Ae is
32. CCD image sensor
The method of reading out only a part is disclosed in Japanese Patent Laid-Open No. 7-174536.
It is disclosed in the gazette. The AD conversion unit 620 outputs 32
The received light data D620 for the line is serially arranged in the arrangement order of the pixels g.
Output to Al. Each frame delay memory 621-6
24 is an FI having a capacity of 31 (= 32-1) lines.
FO. The pixel of interest output from the AD converter 620
g of received light data D620 is delayed by two frames.
At that time, the comparator 626 activates the memory bank
625C stores the past received light data for the pixel of interest g.
Data D620. Delayed receiving data
Data D620 (output of frame delay memory 622)
If is larger than the past maximum value, the AD conversion at that time
Output of the section 620 and each frame delay memory 621 to 621
624 output to memory banks 625A-E respectively.
Stored, and the stored contents of the memory banks 625A to 625E are rewritten.
available. At the same time, the memory bank 625F contains
For the received light data D620 stored in the memory bank 625C,
The corresponding frame number FN is stored. That is, in the n-th (n <N) frame
When the amount of light received by the pixel of interest g is maximized, the memory
The data of the (n + 2) th frame is stored in the link 625A.
The (n + 1) th frame is stored in the memory bank 625B.
Is stored in the memory bank 625C.
The data of the eye frame is stored in the memory bank 625.
D stores the data of the (n-1) th frame.
The data of the (n-2) th frame is stored in the memory bank 625E.
And n is stored in the memory bank 625F.
You. Next, the operation of the three-dimensional camera 2 and the host 3
Will be described together with the measurement procedure. In the following,
The number of sampling points is 200 × 231. That is,
The number of pixels in the slit length direction on the image plane S2 is 231.
That is, the substantial number of frames N is also 200. The user (photographer) displays on the LCD 21.
Determine the camera position and orientation while viewing the color monitor image.
The angle of view. At that time, zooming if necessary
Perform the operation. In the three-dimensional camera 2, the color sensor 54
Aperture adjustment is not performed, and the electronic shutter function
The controlled color monitor image is displayed. This is the aperture
To make the incident light amount of the sensor 53
To do as much as possible. FIG. 17 shows the data of the three-dimensional camera 2.
FIG. 18 shows data and signals in the host 3.
FIG. 19 shows the relationship between each point of the optical system and the object Q.
Is shown. Angle-of-view selection operation by the user (zooming)
Of the variator unit 514 of the zoom unit 51 in accordance with
Movement is performed. Also, the movement of the focusing unit 512
Manual or automatic focusing is performed. Pho
During the focusing process, the approximate object distance d0 is measured.
It is. In response to such lens driving of the light receiving system,
The moving amount of the variator lens 422 on the light emitting side is shown in FIG.
Is calculated by an arithmetic circuit that does not
The movement control of the variator lens 422 is performed. The system controller 61 includes a lens controller.
Focusing via Troller 58 (FIGS. 3 and 5)
The output of the encoder 59A (the feeding amount Ed) and the zoom
The output (zoom step value fp) of the scaling encoder 60A
See in. In the system controller 61, distortion
Curvature aberration table T1, principal point position table T2, and image distance
With reference to the release table T3, the feed amount Ed and the zoom
Shooting condition data corresponding to the step value fp is output to the host 3
Is done. The shooting condition data here is based on the distortion parameters.
(Lens distortion correction coefficients d1, d2), front principal point position F
H and the image distance b. The front principal point position FH is zoomed
Expressed by the distance between the front end point F of the unit 51 and the front principal point H.
It is. Since the front end point F is fixed, the front principal point position FH
Thus, the front principal point H can be specified. The system controller 61 includes a semiconductor laser.
Output of the laser 41 (laser intensity) and deflection of the slit light U
(Scan start angle, scan end angle, deflection angular velocity)
You. This calculation method will be described in detail. First, an approximate
Assuming that a planar object exists at the object distance d0,
The projection angle is set so that the reflected light is received at the center of the
U. Pulse points for laser intensity calculation described below
Lighting is performed at the set projection angle. Next, the laser intensity is calculated. Laser intensity
Since the human body may be measured when calculating
Consideration for integrity is essential. First, the minimum strength LD
The pulse is turned on at min and the output of the sensor 53 is taken in.
Captured signal [Son (LDmin)] and appropriate level
Then, the ratio with the Typ is calculated, and the provisional laser intensity LD1 is calculated as follows: LD1 = LDmin × Styp / MAX [Son (LD
min)]. Subsequently, the pulse point is again set at the laser intensity LD1.
Lights, and captures the output of the sensor 53. Captured signal
[Son (LD1)] is at an appropriate level Type or
If the values are close, LD1 is determined as the laser intensity LDs.
In other cases, the laser intensity LD1 and MAX [Son (L
D1)] to set a temporary laser intensity LD1.
The output of the sensor 53 is compared with the appropriate level STyp. C
Until the output of the sensor 53 falls within the allowable range.
The provisional setting of the degree and the confirmation of suitability are repeated. The sensor 5
The capture of the output of No. 3 is performed for the entire surface of the imaging surface S2.
U. This is because the passive distance calculation by AF
It is difficult to estimate the light receiving position of the light U with high accuracy.
It is. The integration time of the CCD in the sensor 53 is 1
Field time (for example, 1/60 second) and the time of actual measurement
Longer than the integration time at. Therefore, pulse lighting is performed.
Thus, a sensor output equivalent to that at the time of measurement is obtained. Next, it is assumed that the projection angle and the laser intensity have been determined.
From the light receiving position of the slit light U by triangulation
The distance d is determined. Finally, the determined objective distance d
The deflection condition is calculated based on. When calculating deflection conditions
The rear side of the light receiving system, which is the reference point for distance measurement between the objectives d.
E in the Z direction (see FIG. 22) between the principal point H 'and the projection start point A
Consider the offset foff. Also, at the end in the scanning direction
The same measurable distance range d 'as in the central part.
Therefore, overscan of a predetermined amount (for example, for 8 pixels)
To do. Scan start angle th1, scan end angle th
2. The deflection angular velocity ω is expressed by the following equation. Th1 = tan -1 [(Β × pv × (np
/ 2 + 8) + L) / (d + doff)] × 180 / π th2 = tan -1 [(-Β × pv × (np / 2 + 8)
+ L) / (d + doff)] × 180 / π ω = (th1−th2) / np β: imaging magnification (= d / effective focal length freal) pv: pixel pitch np: effective number of pixels L in Y direction on imaging surface S2 : Baseline length Next under the condition calculated in this way
It shifts to light, and scanning (slit projection) of the object Q is performed.
5 per pixel obtained by the output processing circuit 52 described above.
Measurement data for frame (slit image data) D62
Is sent to the host 3. At the same time, the deflection conditions (deflection control data)
Device information D10 indicating the specifications of the
Is also sent to the host 3. Table 1 shows that the 3D camera 2
It summarizes the main data to be sent to the third party. [Table 1] As shown in FIG. 18, in the host 3,
Is the calculation of the center of gravity of the slit (# 31) and the correction of distortion
(# 32), calculation of camera line-of-sight equation (# 33), pick-up
Calculation of cut surface equation (# 34) and three-dimensional position calculation #
35 is executed, thereby obtaining 200 × 231 suns.
The three-dimensional position (coordinates X, Y, Z) of the pulling point is calculated
You. The sampling point is the camera line of sight (the sampling point and
Line connecting the side principal point H ') and the slit surface (sampling
This is the intersection with the slit light U irradiating the point (the optical axis plane). The time center of gravity Npeak of the slit light U (FIG. 1)
4) shows the received light data D (i) at each sampling.
And given by equation (3). Npeak = n + Δn (3) Δn = [− 2 × D (n−2) −D (n−1) + D (n +
1) + 2 × D (n + 2)] / ΣD (i) (i = n−2, n−1, n, n + 1, n + 2) or Δn = [− 2 × [D [n−2) −minD (i) )]-
[D (n-1) -minD (i)] + [D (n + 1)-
minD (i)] + 2 × [D (n + 2) -minD
(I)]] / ΣD (i) The minimum data minD (i) of the five received light data
By subtracting to obtain a weighted average, the effect of ambient light
Can be reduced. The camera line-of-sight equation is given by the following equations (4) and (5).
It is expressed by an equation. (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (4) (v−v0) = (yp) = (b / pv) × [Y / (Z -FH)] (5) b: Image distance FH: Front principal point position pu: Horizontal pixel pitch pv on the imaging surface: Vertical pixel pitch u on the imaging surface u: Horizontal pixel position u0 on the imaging surface: Center pixel position v in the horizontal direction on the imaging plane: vertical pixel position v0 on the imaging plane: center pixel position in the vertical direction on the imaging plane. The slit plane equation is expressed by equation (6).
You. (Equation 1) The geometric aberration depends on the angle of view. Distortion is almost center
Occurs in the object around the pixel. Therefore, the amount of distortion is
Expressed as a function of the distance from the center pixel. Here, the distance
Is approximated by a cubic function of The secondary correction coefficient is d1,
The correction coefficient is d2. The corrected pixel positions u ′ and v ′ are
It is given by equations (7) and (8). U ′ = u + d1 × t2 2 × (u−u0) / t2 + d2 × t2 3 × (u−u0) / t2 (7) v ′ = v + d1 × t2 2 × (v−v0) / t2 + d2 × t2 3 × (v−v0) / t2 (8) t2 = (t1) -2 t1 = (u-u0) 2 + (V-v0) 2 In the above equations (4) and (5), u
Substitute u 'for v and v' for v
Can determine the three-dimensional position taking into account the distortion
it can. For calibration, the electronic information
Proceedings of the IEICE Technical Meeting PRU91-113 [Camera positioning
Geometric correction of unnecessary images] Onodera / Kanaya, Electronic information
IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1
235, '91 / 9 [Range file based on 3D model of optical system
Indah's high-precision calibration method] Ueshiba, Yoshimi, Dai
There are detailed disclosures on islands, etc. The above embodiment is based on the measurement data D62.
That the host 3 is responsible for calculating the three-dimensional position
Is an operation for calculating the three-dimensional position of the three-dimensional camera 2
A function may be provided. Lookup table for 3D position
It is also possible to calculate by the rule method. Optical system 5 on the receiving side
0, replace the zoom unit 51 with an interchangeable lens
Therefore, the imaging magnification may be changed. Next, a method for obtaining three-dimensional data with no missing parts
The order will be described with reference to FIGS. S
Determine whether there is lack of continuity in lit image data
Automatically detects 3D data missing part automatically
Rotation of the object on the turntable and modification of the three-dimensional data
The return operation is performed automatically. The solid line in FIG.
The dashed line indicates the flow of data and the broken line indicates the flow of signal. 3D data
Preliminary scan to check slit image continuity
Followed by a main scan to collect 3D data
Done by At the time of preliminary scan, slit image data
Data is converted to a vector via the output terminal of the 3D camera
(# 36). Here, the vector transformation and the continuity determination will be described.
Will be described. In the vector conversion (# 36),
A method of thinning the set of pixel data
And plotting the resulting plotted data
The point and end point are defined, and the slit image data is
Vector conversion is performed. Then, determination of continuity (# 37)
In this, we use this vectorized data
The continuity is determined. The determination of continuity (# 37)
A diagram (vector) with all start and end points is the start point of each other
To see if it is continuously connected to the end point
If it is connected, the slit image data
It is determined that the line is continuous. In this case,
It is determined that there is no data loss. Also, continuity determination
In (# 37), the slit image is a broken line
If it is recognized that three-dimensional data is lost,
Refused. (All slit images in preliminary scan
(When images are continuous) In the flowchart of FIG.
The first scan of the preparatory scan is performed (S1). This
After that, the obtained slit image data
Vector conversion processing and continuous by vector conversion (# 36)
The continuity is determined by the sex determination (# 37). Communicating
In the determination of continuity (# 37), it is determined that the line is a continuous line.
When the result is obtained (YES in S2), the scan is completed.
It is determined whether or not it is the end angle, and if it is not the end angle (S
3; NO), and the next scan
The can angle is set (S4), and the second preliminary scan is performed
Is performed (S1). In this way, everything
Slit image data is continuous line
If determined (S2 and S3 for all scans)
YES in the projection side,
The scan start angle is set (S8), and the main scan is executed.
Then, three-dimensional data is obtained (S9). This place
In this case, there is no need to rotate
Three-dimensional data can be obtained. (Discontinuity of slit image during preliminary scan)
In the above case, the slip during the preliminary scan
When discontinuity of the image occurs (NO in S2),
A signal to stop the scanning operation is sent to the three-dimensional camera 2.
Then, the scanning operation is stopped. Next, turn the turntable 5
The rotating signal is sent to the turntable 5 so that the turntable 5 has a predetermined angle.
(S5). Then, at that scan angle
And a preliminary scan is performed (S6), and the slit image
Is determined, and if discontinuous (in S7,
NO), the rotation of the turntable 5 and the preliminary
Judgment of continuity is made. Angle setting of turntable 5
However, when the continuity of the slit image is obtained
(YES in S7), in the optical system 40 on the light emitting side
The scan start angle is set (S8), and the actual scan is performed.
A line is made. (Main Scan) In the main scan following the above,
May have discontinuities in the slit image. There
Then, the main scan is executed (S9), and the continuity is determined.
If it is not a continuous line (NO in S10),
The scan angle is stored in a predetermined memory (S12), and the next scan is performed.
The can angle is set (S13), and the continuity is determined (# 3).
If the result is a continuous line in (7), the process proceeds to (S10).
YES), set the next scan angle as it is
(S13), the main scan is executed at that angle (S9).
The main scan is executed up to the scan end angle. Next
Then, referring to the memory for storing the scan angle,
Whether slit image discontinuity occurs during main scan
And if there is no discontinuity, measure 3D data
Ends (NO in S14). (Generation of Discontinuity During Main Scan)
Refer to the memory that stores the scan angle
When there is a discontinuity of the slit image in the scan (S
14), all scans in which discontinuity has occurred
The rotation of the object on the turntable and the 3D data
Performs a data repair operation. First, the first stored in memory
The scan angle is set in the optical system 40 on the projection side.
(S15) Then, the turntable 5 is rotated by a predetermined angle (S16).
Scan is executed (S17), and continuity is determined (# 3).
At 7), the continuity of the slit image is determined (S1).
8). Discontinuous slit image at this scan angle
If (NO in S18), the rotation of the turntable is performed again.
And if scanning is continued (YE in S18)
S) Similarly, for the next scan angle,
A scan is performed to repair missing three-dimensional data.
If there is no longer a scan angle at which data should be restored (S1
(NO in 4) The measurement of the three-dimensional data ends. Up
In the procedure for obtaining three-dimensional data without missing parts described above,
Continuation of slit image in pre-scan and main scan
Discrimination of gender and rotation of turntable based on the discrimination result and 3
The operation of restoring dimensional data is all performed automatically. The present invention is not limited to the above configuration.
However, various modifications are possible. For example, three-dimensional
During data measurement, the operator of the measuring device
Even if it shifts to operation and returns to full automatic measurement again
Good. In addition, the preliminary scan and the main scan are set separately.
Without slitting the slit image
Judgment of continuity and rotation of turntable based on the judgment result
And a three-dimensional data restoration operation may be performed. As described above, according to the present invention, the slit
Vector conversion of the two-dimensional image of the reflected light
From the converted data, the continuity of the data,
3D data is automatically identified as missing, and there is no continuity
Place the subject so that continuity can be achieved
The rotating platform is rotated by the drive mechanism,
Receives light projection and the reflected light of the projection light, thereby causing loss
3D data without parts can be collected automatically
You. Thus, the shape of the object may be complicated.
From the position where the detection light is illuminated.
When the detection light cannot be projected or when viewed from the imaging position
The reflected light from the shaded area cannot be measured.
However, it is possible to deal with it automatically.

【図面の簡単な説明】 【図1】 本発明に係る計測システムの構成図である。 【図2】 3次元カメラの外観を示す図である。 【図3】 3次元カメラの機能構成を示すブロック図で
ある。 【図4】 投光レンズ系の構成を示す模式図である。 【図5】 受光のためのズームユニットの模式図であ
る。 【図6】 ビームスプリッタの模式図である。 【図7】 計測用のセンサの受光波長を示す図である。 【図8】 モニタ用のカラーセンサの受光波長を示す図
である。 【図9】 光学ユニットの2軸調整機構の概略を説明す
るための斜視図である。 【図10】 同上光学ユニットの上側部分を矢印KA方
向から見た正面図である。 【図11】 同上光学ユニットの上側部分を矢印KB方
向から見た右側面図である。 【図12】 同上光学ユニットを矢印KC方向から見た
下面図である。 【図13】 同上光学ユニットの2軸調整機構の調整方
法を説明するための図である。 【図14】 計測システムにおける3次元位置の算出の
原理図である。 【図15】 出力処理回路のブロック図である。 【図16】 センサの読出し範囲を示す図である。 【図17】 3次元カメラにおけるデータの流れを示す
図である。 【図18】 ホストにおけるデータの流れを示す図であ
る。 【図19】 光学系の各点と物体との関係を示す図であ
る。 【図20】 予備スキャン、本スキャン、及び回転台の
回転動作の説明をするフローチャートである。 【図21】 従来のスリット光投影法の概要を示す図で
ある。 【図22】 従来のスリット光投影法による計測の原理
を説明するための図である。 【符号の説明】 1 計測システム 2 3次元カメラ(3次元入力カメラ) 3 ホスト 3a CPU(ベクトル変換手段、連続性を判別する判
別手段) 5 回転台 40 光学系(投影手段) 50 光学系(受光手段) AX1 第1回転軸 AX2 第2回転軸 U スリット光(検出光) Q 物体(被写体) #36 ベクトル変換 #37 連続性の判別
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a measurement system according to the present invention. FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera. FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera. FIG. 4 is a schematic diagram showing a configuration of a light projecting lens system. FIG. 5 is a schematic diagram of a zoom unit for receiving light. FIG. 6 is a schematic diagram of a beam splitter. FIG. 7 is a diagram showing a light receiving wavelength of a sensor for measurement. FIG. 8 is a diagram illustrating a light receiving wavelength of a color sensor for monitoring. FIG. 9 is a perspective view schematically illustrating a two-axis adjustment mechanism of the optical unit. FIG. 10 is a front view of the upper part of the optical unit as viewed from the direction of arrow KA. FIG. 11 is a right side view of the upper part of the optical unit as viewed from the direction of arrow KB. FIG. 12 is a bottom view of the same optical unit as viewed from the direction of arrow KC. FIG. 13 is a diagram for explaining a method of adjusting a two-axis adjustment mechanism of the optical unit. FIG. 14 is a principle diagram of calculation of a three-dimensional position in the measurement system. FIG. 15 is a block diagram of an output processing circuit. FIG. 16 is a diagram showing a reading range of a sensor. FIG. 17 is a diagram showing a data flow in the three-dimensional camera. FIG. 18 is a diagram showing a data flow in the host. FIG. 19 is a diagram showing a relationship between each point of the optical system and an object. FIG. 20 is a flowchart illustrating a preliminary scan, a main scan, and a rotation operation of the turntable. FIG. 21 is a diagram showing an outline of a conventional slit light projection method. FIG. 22 is a diagram for explaining the principle of measurement by a conventional slit light projection method. [Description of Signs] 1 Measurement system 2 3D camera (3D input camera) 3 Host 3a CPU (vector conversion means, determination means for determining continuity) 5 Turntable 40 Optical system (projection means) 50 Optical system (light reception) Means) AX1 First rotation axis AX2 Second rotation axis U Slit light (detection light) Q Object (subject) # 36 Vector conversion # 37 Determination of continuity

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 DD00 DD06 DD12 EE00 EE08 FF01 FF02 FF09 GG06 GG08 GG22 HH05 JJ03 JJ26 LL04 LL06 LL09 LL10 LL13 LL20 LL21 LL26 LL30 LL46 MM16 NN02 NN17 PP05 PP13 QQ00 QQ03 QQ17 QQ24 QQ29 QQ32 SS02 SS13 5B057 AA20 BA02 DA07 DB03 DB06 DB09 DC07 DC09    ────────────────────────────────────────────────── ─── Continuation of front page    F term (reference) 2F065 AA04 DD00 DD06 DD12 EE00                       EE08 FF01 FF02 FF09 GG06                       GG08 GG22 HH05 JJ03 JJ26                       LL04 LL06 LL09 LL10 LL13                       LL20 LL21 LL26 LL30 LL46                       MM16 NN02 NN17 PP05 PP13                       QQ00 QQ03 QQ17 QQ24 QQ29                       QQ32 SS02 SS13                 5B057 AA20 BA02 DA07 DB03 DB06                       DB09 DC07 DC09

Claims (1)

【特許請求の範囲】 【請求項1】 スリット光を投影して被写体を光学的に
走査するための投影手段と、この投影手段により被写体
に投影されたスリット光の被写体からの反射光を受光す
る受光手段と、前記被写体を載置するための回転台と、
この回転台を回転させる駆動機構とを備え、前記被写体
の形状を非接触で計測する3次元計測装置において、 前記受光手段で受光したスリット状の反射光で成る2次
元画像データをベクトル変換する手段と、 前記ベクトル変換した画像データの連続性を判別する判
別手段とを備え、 前記スリット光による走査毎に、得られた画像データを
前記ベクトル変換する手段によりベクトル変換し、この
ベクトル変換された画像データの連続性を前記判別手段
により判別し、連続性が欠如していると判別された場合
に、そのスリット光の走査位置において前記駆動機構に
より回転台を回転させることで被写体を回転させ、再
度、前記スリット光の投影及び投影光の反射光の受光を
行うことを特徴とする3次元計測装置。
1. A projecting means for projecting slit light to optically scan a subject, and receiving reflected light of the slit light projected on the subject by the projecting means from the subject. Light receiving means, a turntable for mounting the subject,
A three-dimensional measuring device comprising a driving mechanism for rotating the turntable and measuring the shape of the subject in a non-contact manner; a means for performing vector conversion on two-dimensional image data consisting of slit-like reflected light received by the light receiving means And determining means for determining the continuity of the vector-converted image data. Each time the slit light scans, the obtained image data is vector-converted by the vector-converting means. The continuity of the data is determined by the determination means, and when it is determined that the continuity is lacking, the subject is rotated by rotating the turntable by the driving mechanism at the scanning position of the slit light, and again. A three-dimensional measuring apparatus for projecting the slit light and receiving reflected light of the projected light.
JP2002124202A 2002-04-25 2002-04-25 Three-dimensional measuring apparatus Withdrawn JP2003315028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002124202A JP2003315028A (en) 2002-04-25 2002-04-25 Three-dimensional measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002124202A JP2003315028A (en) 2002-04-25 2002-04-25 Three-dimensional measuring apparatus

Publications (1)

Publication Number Publication Date
JP2003315028A true JP2003315028A (en) 2003-11-06

Family

ID=29539283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002124202A Withdrawn JP2003315028A (en) 2002-04-25 2002-04-25 Three-dimensional measuring apparatus

Country Status (1)

Country Link
JP (1) JP2003315028A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP2014055814A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
WO2023017557A1 (en) * 2021-08-10 2023-02-16 三菱電機株式会社 Measurement device, additive machining system, and cutting machining system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP4892480B2 (en) * 2004-07-23 2012-03-07 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP2014055814A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
WO2023017557A1 (en) * 2021-08-10 2023-02-16 三菱電機株式会社 Measurement device, additive machining system, and cutting machining system

Similar Documents

Publication Publication Date Title
JP4032603B2 (en) 3D measuring device
JP3873401B2 (en) 3D measurement system
US5477332A (en) Digital image system and method for determining surface reflective and refractive characteristics of objects
JP4111592B2 (en) 3D input device
US6172755B1 (en) Three dimensional measurement system and pickup apparatus
US6424422B1 (en) Three-dimensional input device
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
JP2004012301A (en) Method and apparatus for detecting pattern defect
JP3893169B2 (en) 3D measuring device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JP3991501B2 (en) 3D input device
JPH102711A (en) Three-dimensional measuring device
JPH10124646A (en) Three-dimensional measuring device
JP3324367B2 (en) 3D input camera
JP2000283721A (en) Three-dimensional input device
JP2003315028A (en) Three-dimensional measuring apparatus
JP3360505B2 (en) Three-dimensional measuring method and device
JP3733625B2 (en) Imaging device for 3D measurement
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP2001280917A (en) Instrument for three-dimensional measurement
JP3196614B2 (en) 3D measuring device
JP3861475B2 (en) 3D input device
JP2002277548A (en) High-precision distance measuring laser radar device
JP3740848B2 (en) 3D input device
JPH09325019A (en) Three-dimensional measuring device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050705

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20051018