JP3511806B2 - 3D measuring device - Google Patents

3D measuring device

Info

Publication number
JP3511806B2
JP3511806B2 JP14282996A JP14282996A JP3511806B2 JP 3511806 B2 JP3511806 B2 JP 3511806B2 JP 14282996 A JP14282996 A JP 14282996A JP 14282996 A JP14282996 A JP 14282996A JP 3511806 B2 JP3511806 B2 JP 3511806B2
Authority
JP
Japan
Prior art keywords
distance
measurement
light
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14282996A
Other languages
Japanese (ja)
Other versions
JPH09325006A (en
Inventor
寿夫 糊田
浩志 内野
琢人 上古
英一 井手
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP14282996A priority Critical patent/JP3511806B2/en
Priority to US08/867,877 priority patent/US6049385A/en
Publication of JPH09325006A publication Critical patent/JPH09325006A/en
Priority to US09/465,446 priority patent/US6172755B1/en
Application granted granted Critical
Publication of JP3511806B2 publication Critical patent/JP3511806B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、物体にスリット光
に代表される検出光を照射して物体形状を非接触で計測
する3次元計測装置に関する。 【0002】 【従来の技術】レンジファインダと呼称される非接触型
の3次元計測装置(3次元カメラ)は、接触型に比べて
高速の計測が可能であることから、CGシステムやCA
Dシステムへのデータ入力、身体計測、ロボットの視覚
認識などに利用されている。 【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して三角測量の原
理に基づいて距離画像(3次元画像)を得る方法であ
り、検出光を照射して物体を撮影する能動的計測方法の
一種である。距離画像は、物体上の複数の部位の3次元
位置を示す画素の集合である。スリット光投影法では、
検出光として断面が直線状のスリット光が用いられる。
スリット光に代えて、スポット光、ステップ光、濃度パ
ターン光などを投射する光投影法も知られている。 【0004】従来において、撮影距離を任意に選べる可
搬型のレンジファインダには、対物間距離を測定してレ
ンズ位置を設定するオートフォーカシング(AF)機能
が設けられている(特開平7−174536号)。測定
された距離情報は、投射光量の設定にも用いられる。 【0005】 【発明が解決しようとする課題】レンジファインダにお
いては、計測用の光学系を用いてアクティブ形式の精密
な測距を行うことができる。また、走査手段を有してい
るので、複数の方向に検出光を照射して測距の視野角を
拡げることが容易である。 【0006】一方、レンジファインダに周期的に計測を
行う機能を設けることにより、3次元計測の応用範囲が
拡がる。例えば工場の生産ラインにおける物品の形状検
査、移動ロボットの視覚認識、警備の監視システムなど
の実用性を高めることができる。周期的な3次元計測で
得られた時系列の複数の距離画像を比較すれば、物体の
前後移動と形状変化とを容易に見分けることができる。 【0007】しかし、計測中は、撮影条件の変化を避け
るためにレンズ移動を禁止する必要がある。このため、
計測用の光学系による測距では、物体の動きに対する追
従ができず、計測中に物体が移動するなどして対物間距
離が大きく変化した場合に、測距制御系が物体を見失う
という問題があった。見失ったままでは計測条件の設定
(フォーカシング、光量設定など)を正しく行うことが
できず、設定の信頼性が低下する。また、非合焦状態で
計測を行うと、距離画像の精度が低下する。一旦、物体
を見失うと、検出光の投射方向を変更して物体の捕捉を
試みたとしても、一方向の投射で物体を捉えることがで
きるとは限らず、物体を捉えるために投射方向の切換え
を余儀なくされ、測距が停滞してしまう事態が起こり得
る。 【0008】本発明は、周期的に計測を行う場合におけ
る計測条件の設定の信頼性を高めることを目的としてい
る。 【0009】 【課題を解決するための手段】計測用の光学系を用いた
光投影法による測距と、測距用センサによる測距とを併
用する。計測用の光学系を用いることにより測定の精度
を確保し、測距用センサにより連続の測定を行う。測距
センサとしては、光投影法による測距の対象範囲より広
い範囲の測定が可能なものを用いる。測距用センサで得
られた測定値を参考にして投射方向を選定すれば、効率
的に光投影法による測距を行うことができる。 【0010】請求項1の発明の装置は、検出光を照射し
て物体を光学的に走査するための投光手段と、前記物体
で反射した前記検出光を受光する撮像手段とを有し、光
投影法によって物体形状を計測する3次元計測装置であ
って、対物間距離に応じた信号を出力する測距センサ
と、光投影法によって測定される対物間距離に応じて計
測条件を設定する制御手段とを有し、前記制御手段の動
作モードとして、光投影法によって測定された対物間距
離に応じて計測条件を設定した後、前記測距センサの出
力を監視し、その出力の変化量が許容値を越えた場合
に、前記測距センサの出力に基づいて投射方向を定めて
光投影法によって対物間距離を改めて測定し、その結果
に基づいて計測条件を設定し直すモードが設けられたも
のである。 【0011】 【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。 【0012】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(距離画
像)とともに、物体Qのカラー情報を示す2次元画像及
びキャリブレーションに必要なデータを出力する。三角
測量法を用いてサンプリング点の座標を求める演算処理
はホスト3が担う。 【0013】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン形態の
データ受渡しが行われる。 【0014】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。光
学ユニットOUは、投光軸と受光軸との相対関係を適正
化するための2軸調整機構を備えている。 【0015】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びスタート/ストップボタン27が設け
られている。図2(b)のように、ハウジング20の背
面には、液晶ディスプレイ21、カーソルボタン22、
セレクトボタン23、キャンセルボタン24、アナログ
出力端子31,32、及びデジタル出力端子33が設け
られている。アナログ出力端子31からは計測データと
して距離画像DGが出力され、アナログ出力端子32か
らは2次元画像DMが出力される。アナログ信号の出力
形式は例えばNTSC形式である。デジタル出力端子3
3は例えばRS232−C端子であり、撮影条件データ
DSの出力に用いられる。 【0016】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン22〜24によって撮影モード
の設定を行うことができる。 【0017】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。 【0018】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
構は、一眼レフカメラで採用されているパッシブ方式で
あり、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59とから構成されている。ズーミン
グ駆動系60は電動ズーミングのために設けられてい
る。AFセンサ57によるパッシブ方式の測距には、後
述するアクティブ方式の測距と比べて、測定可能な距離
範囲が広く短い周期で測定を繰り返すことができるとい
う利点がある。しかし、パッシブ方式の測距精度(分解
能)は十分ではない。 【0019】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62へ転送さ
れる。出力処理回路62によってセンサ53の各画素毎
に対応するスリットデータが生成され、メモリ63に格
納される。その後、スリットデータはメモリ63から読
み出されて重心演算回路64に送られる。重心演算回路
64は、スリットデータに基づいて高分解能の距離画像
を生成する。距離画像は、NTSC変換回路65を経
て、計測データとしてフレーム同期の映像信号の形式で
オンライン出力される。重心演算回路64には、システ
ムコントローラ61による制御のためのビットデータ
(GCALC)を格納するCTRLレジスタR1が設け
られている。 【0020】一方、カラーセンサ54による撮像情報
は、ドライバ56からのクロックに同期してカラー処理
回路67へ転送される。カラー処理を受けた撮像情報
(2次元画像DM)は、NTSC変換回路70及びアナ
ログ出力端子32を経てオンライン出力される。2次元
画像DMは、センサ53による距離画像と同一の画角の
カラー画像であり、ホスト3側におけるアプリケーショ
ン処理に際して参考情報として利用される。 【0021】なお、システムコントローラ61は、キャ
ラクタジェネレータ71に対して、LCD21の画面上
にその時点の動作状態に応じた適切な文字・記号を表示
するための指示を与える。 【0022】図4は計測システム1における3次元位置
の算出の原理図である。センサ53の撮像面S2上で複
数画素分となる比較的に幅の広いスリット光Uを物体Q
に照射する。具体的にはスリット光Uの幅を5画素分と
する。スリット光Uは、サンプリング周期毎に撮像面S
2上で1画素ピッチpvだけ移動するように上から下に
向かって偏向され、それによって物体Qが走査される。
サンプリング周期毎にセンサ53から1フィールド分の
光電変換情報が出力される。 【0023】撮像面S2の1つの画素gに注目すると、
走査中に行うN回のサンプリングの内の5回のサンプリ
ングにおいて有効な受光データが得られる。これら5回
分の受光データに対する補間演算によって、注目画素g
がにらむ範囲の物体表面agをスリット光Uの光軸が通
過するタイミング(時間重心Npeak:注目画素gの
受光量が最大となる時刻)を求める。図4(b)の例で
は、n回目とその1つ前の(n−1)回目の間のタイミ
ングで受光量が最大である。求めた時間重心Npeak
におけるスリット光の照射方向と、注目画素に対するス
リット光の入射方向との関係に基づいて、物体Qの位置
(座標)を算出する。これにより、撮像面の画素ピッチ
pvで規定される分解能より高い分解能の計測が可能と
なる。なお、スリット光の照射方向は、照射開始方向と
偏向角速度とが既知であれば、時間重心Npeakによ
って一義的に特定される。また、入射方向はセンサ53
と受光レンズとの位置関係情報によって特定される。 【0024】注目画素gの受光量は物体Qの反射率に依
存する。しかし、5回のサンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。 【0025】本実施形態の計測システム1では、3次元
カメラ2の重心演算回路64によってセンサ53の画素
g毎に時間重心Npeakが算出され、有効画素数の時
間重心Npeakが距離画像としてNTSC形式でホス
ト3へ伝送される。これにより、5フィールド分の受光
データをホスト3へ送ってホスト3の側で時間重心Np
eakを求める場合と比べて、伝送データ量が大幅に少
なくなり、アナログ信号によるシリアル伝送の所要時間
を短縮することができる。なお、時間重心Npeakか
ら物体の座標を求めるのに必要な撮影条件及び装置条件
は、距離画像の伝送と並行してディジタル出力端子33
を介してホスト3へ伝送される。 【0026】図5は出力処理回路62及びメモリ63の
ブロック図、図6はセンサ53の読出し範囲を示す図で
ある。出力処理回路62は、センサ53の出力する光電
変換信号を8ビットの受光データに変換するAD変換部
620、直列接続された4つのディレイメモリ621〜
624、コンパレータ626、及び、フィールド番号
(サンプリング番号)FNを指し示すジェネレータ62
7から構成されている。メモリ63は、有効な5フィー
ルド分の受光データ(スリットデータ)を記憶するため
の5つのメモリバンク63A〜E、受光データが最大と
なるフィールド番号FNを記憶するためのメモリバンク
63F、及びメモリバンク63A〜Fのアドレス指定な
どを行う図示しないメモリ制御手段から構成されてい
る。各メモリバンク63A〜Eは、計測のサンプリング
点数(つまり、センサ53の有効画素数)と同数の受光
データを記憶可能な容量をもつ。 【0027】4つのディレイメモリ621〜624でデ
ータ遅延を行うことにより、個々の画素gについて5フ
ィールド分の受光データを同時にメモリバンク63A〜
Eに格納することが可能になっている。なお、センサ5
3における1フィールドの読出しは、撮像面S2の全体
ではなく、高速化を図るために図6のように撮像面S2
の一部の有効受光領域(帯状画像)Aeのみを対象に行
われる。有効受光領域Aeはスリット光Uの偏向に伴っ
てフィールド毎に1画素分だけシフトする。本実施形態
では、有効受光領域Aeのシフト方向の画素数は32に
固定されている。CCDエリアセンサの撮影像の一部の
みを読み出す手法は、特開平7−174536号公報に
開示されている。 【0028】AD変換部620は、1フィールド毎に3
2ライン分の受光データD620を画素gの配列順にシ
リアルに出力する。各ディレイメモリ621〜624
は、31(=32−1)ライン分の容量をもつFIFO
である。 【0029】AD変換部620から出力された注目画素
gの受光データD620は、2フィールド分だけ遅延さ
れた時点で、コンパレータ626によって、メモリバン
ク63Cが記憶する注目画素gについての過去の受光デ
ータD620の最大値と比較される。遅延された受光デ
ータD620(ディレイメモリ622の出力)が過去の
最大値より大きい場合に、その時点のAD変換部620
の出力及び各ディレイメモリ621〜624の出力が、
メモリバンク63E,63D,63C,63B,63A
にそれぞれ格納され、メモリバンク63A〜Eの記憶内
容が書換えられる。これと同時にメモリバンク63Fに
は、メモリバンク63Cに格納する受光データD620
に対応したフィールド番号FNが格納される。 【0030】すなわち、n番目(n<N)のフィールド
で注目画素gの受光量が最大になった場合には、メモリ
バンク63Aに(n−2)番目のフィールドのデータが
格納され、メモリバンク63Bに(n−1)番目のフィ
ールドのデータが格納され、メモリバンク63Cにn番
目のフィールドのデータが格納され、メモリバンク63
Dに(n+1)番目のフィールドのデータが格納され、
メモリバンク63Eに(n+2)番目のフィールドのデ
ータが格納され、メモリバンク63Fにnが格納され
る。 【0031】図7は重心演算回路64のブロック図であ
る。重心演算回路64は、5個の掛算器641〜64
5、計3個の加算器646〜648、除算器649、及
び遅延回路640を有している。(n−2)〜(n+
2)の5つのフィールド番号(つまりサンプリング時
刻)にそれぞれ−2,−1,0,1,2の重みを付け、
各メモリバンク63A〜Eからの受光データに対する加
重平均演算を行う。除算器649の出力である加重平均
値は、n番目のサンプリング時刻と時間重心Npeak
との時間的ズレ量である〔図4(b)参照〕。この時間
的ズレ量と、メモリバンク63Fからのフィールド番号
FNとを加算すれば、時間重心Npeakが求まる。遅
延回路640は、時間的ズレ量と同時にフィールド番号
FNを加算器648に入力するために設けられており、
加重平均演算の所要時間分だけフィールド番号FNを遅
延させる。 【0032】メモリバンク63A〜Fから各画素に対応
したデータを順に読み出して重心演算回路64に入力す
ることにより、1回分の計測情報である距離画像DGが
生成される。距離画像DGは、例えば1秒間に30回の
周期で繰り返し出力される。 【0033】次に、3次元カメラ2による計測の基本手
順を説明する。計測システム1では、3次元カメラ2と
計測対象との配置関係が可変である。つまり、ユーザー
は撮影距離やアングルを用途に応じて適宜変更すること
ができる。このため、計測に先立って、計測対象との配
置関係を調べて撮影条件を設定する前処理(撮影準備)
が自動的に行われる。 【0034】図8は光学系の各点と物体Qとの関係を示
す図である。3次元カメラ2に対して、直接の操作又は
ホスト3による遠隔操作でズーミングの指示が与えられ
ると、ズームユニット51のバリエータ部が移動すると
ともにフォーカシング部の移動によるフォーカシングが
行われる。フォーカシングの過程でおおよその対物間距
離d0 が測定される。このような受光系のレンズ駆動に
呼応して、投光側のバリエータレンズの移動量の演算が
行われ、演算結果に基づいてレンズ移動制御が行われ
る。ただし、撮影中は、レンズ移動によって撮影条件が
変わるのを避けるため、ズーミング及びフォーカシング
が禁止される。 【0035】システムコントローラ61は、レンズコン
トローラ58を介して、フォーカシング駆動系59のエ
ンコーダ出力(繰り出し量Ed)及びズーミング駆動系
60のエンコーダ出力(ズーム刻み値fp)を読み込
む。システムコントローラ61の内部において、歪曲収
差テーブル、主点位置テーブル、及び像距離テーブルが
参照され、繰り出し量Ed及びズーム刻み値fpに対応
した撮影条件データがホスト2へ出力される。ここでの
撮影条件データは、前側主点位置、像距離などである。 【0036】また、システムコントローラ61は、半導
体レーザ41の出力(レーザ強度)及びスリット光Uの
偏向条件(投射開始角、投射終了角、偏向角速度)を算
定する。 【0037】まず、おおよその対物間距離d0 に平面物
体が存在するものとして、センサ53の中央で反射光を
受光するように投射角を設定する。次にレーザ強度を算
定する。人体に対する安全を考慮して最小強度で半導体
レーザ41をパルス点灯し、センサ53の出力を取り込
む。このときの投射角は先に対物間距離d0 に基づいて
設定した角度である。取り込んだ信号と適正レベルとの
比を算出し、仮のレーザ強度を設定する。設定した仮の
レーザ強度で再びパルス点灯し、センサ53の出力を取
り込む。センサ53の出力が許容範囲内の値となるま
で、レーザ強度の仮設定と適否の確認とを繰り返す。な
お、最大強度で点灯しても受光量が不十分である場合
は、センサ53の電荷蓄積時間を延長する露出制御を行
う。 【0038】続いて、スリット光Uの投射角と受光位置
とから三角測量法により対物間距離dを決定する。そし
て、最後に、決定された対物間距離dに基づいて、偏向
条件を算出する。偏向条件の算定に際しては、対物間距
離dの測距基準点である受光系の後側主点H’と投光の
起点Aとのオフセットdoffを考慮する。また、走査
方向の端部においても中央部と同様の計測可能距離範囲
d’を確保するため、所定量(例えば8画素分)のオー
バースキャンを行うようにする。投射開始角th1、投
射終了角th2、偏向角速度ωは、次式で表される。 【0039】th1=tan-1〔β×pv(np/2+
8)+L)/(d+doff)〕×180/π th2=tan-1〔−β×pv(np/2+8)+L)
/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2の水平方向の有効画素数 L:基線長 このようにして算出された条件の下で実際の計測が行わ
れ、センサ53の仕様を含む装置情報及び撮影条件が距
離画像DGとともに3次元カメラ2からホスト3へ伝送
される。ただし、後述のコンティニュアスモードにおい
ては、初回の計測時のみに装置情報が伝送される。表1
は3次元カメラ2がホスト3へ送る主なデータをまとめ
たものである。 【0040】 【表1】 以下、計測システム1の動作をさらに詳しく説明する。 【0041】3次元カメラ2の動作は、スタート指示に
呼応して1回だけ計測を行うワンショットモードと、ス
タート指示を受けた後にストップ指示がなされるまで周
期的に計測を行うコンティニュアスモード(連続撮影モ
ード)とに大別される。 【0042】コンティニュアスモードにおけるAFモー
ドとして、可変モードと固定モードとがある。可変モー
ドは、計測中を除く期間において、AFセンサ57の出
力に応じてフォーカシングを行うモードである。固定モ
ードは、初回の計測時のみにおいてフォーカシングを行
うモードである。どちらのモードであってもAFセンサ
57による対物間距離の測定は計測中を含めて恒常的に
実施される。撮影の倍率が大きい場合(テレ状態)で
は、ピントずれが生じ易いので、鮮明な距離画像を得る
上で可変モードが適している。また、可変モードによれ
ば、物体が大きく移動する場合にも物体の位置を把握す
ることができる。一方、固定モードによれば、レンズの
駆動制御を省略することができる。 【0043】図9及び図10はコンティニュアスモード
における3次元カメラ2の動作を示すタイムチャートで
ある。また、表2は制御信号の内容を示してる。 【0044】 【表2】 ここでは、システムコントローラ61に注目してその動
作を説明する。 【0045】[1] スタート/ストップボタン27のオ
ン又はホスト3からのスタートコマンドの入力に呼応し
て、撮影準備(前処理)を開始する。撮影準備は、上述
したように光投影法により対物間距離dを求め、アクテ
ィブAF(A−AF)・投射角度の設定・レーザ強度の
設定などを行う処理である。 【0046】[2] 撮影準備が終了すると、CTRLレ
ジスタR1のRUNビットを1にする。そして、SSt
artビットが1になるのを待つ。 [3] RUNビットが1になった後の最初のVSync
に呼応してSStartビットを1にするとともに、フ
レームカウンタをリセットする。SStartビットは
次のVSyncで0に戻す。 【0047】[4][5] SStartビットが1になれ
ば、撮影条件を固定するためレンズ移動を禁止し、スリ
ット光Uによる物体のスキャンニング(撮影)を開始す
る。これ以後の約0.8秒の期間において、システムコ
ントローラ61はスキャンニング制御に専念し、レンズ
コントローラ58は、AFセンサ57による測距を実行
する。この測距において、対物間距離の推移から次のス
キャンニング開始時の対物間距離を予想することができ
る。 【0048】[6][7] スキャンニングが終了すると、
CTRLレジスタR1のGCALCビットを1にする。
これを受けて、重心演算回路64は時間重心Npeak
の算出を開始する。GCALCビットは、距離画像DG
の生成が完了した時点で重心演算回路64により0にリ
セットされる。 【0049】レンズコントローラ58に対してレンズ移
動の再開を許可する。これを受けて、レンズコントロー
ラ58は、AFセンサ57により対物間距離を測定して
レンズ移動を行うパッシブAF(P−AF)を開始す
る。 【0050】[8][9] GCALCビットが0になった
後の最初のVSyncに呼応してNextIビットを1
にするとともに、フレームメモリを切り換えて最新の距
離画像DGの出力を開始する。この後、次のスキャンニ
ングが行われて新たに距離画像DGが生成されるまで、
同じ内容の距離画像DGを繰り返し出力する。Next
Iビットは、1にした後の最初のVSyncで0に戻
す。 【0051】[10] 距離画像DGとは別のポート(デ
ィジタル出力端子33)から撮影条件及び装置情報をホ
スト3に出力する。ホスト3はこの信号入力によって、
最新の距離画像DGが出力されていることを認識する。
所定のデータ出力が終わると、今回の撮影情報に基づい
て次回の撮影の距離条件及び露出条件を求める計算を実
行し、SStartビットが1になるのを待つ。なお、
この段階において、上述の可変モードであれば、パッシ
ブAFの出力に基づいて対物間距離の変化を検出する。
そして、許容値を越える対物間距離の変化があった場合
には、改めて光投影法によって高精度の測距を行い、フ
ォーカシングと撮影条件の算定を行う。 【0052】[11] フレームカウンタのカウント値が
指定値(OPR)より1つ少ない値に達すると、次のV
Syncでカウント値をリセットするとともに、SSt
artビットを1にする。さらに次のVSyncでSS
tartビットを0に戻す。なお、OPRはホスト側で
手動設定される。つまり、ユーザーは所望の計測周期を
設定することができる。 【0053】[12][13] SStartビットが1に
なれば、 [4][5] と同様にレンズ移動を禁止してスキ
ャンニング(撮影)を開始する。以降は [6] 〜 [1
1] の動作を行い、SStartビットが1になる毎
に、 [3] 〜 [11] の計測動作を繰り返す。ただし、
スタート指示から数えて2番目以降の計測においては、
装置情報の出力を省略する。 【0054】[14][15] 図10のように、再度のス
タート/ストップボタン27のオン又はホスト3からの
ストップコマンドの入力に呼応して、RUNビットを0
に戻す。ストップ指示が重心演算の途中で行われた場合
は、その時点でGCALCビットを0に戻す。どの時点
でストップ指示が行われても、最後に得られた距離画像
DGの出力を継続する。 【0055】図11はワンショットモードにおける3次
元カメラ2の動作を示すタイムチャートである。 [21] 〜 [29] 上述のコンティニュアスモードにお
ける [1] 〜 [9] と同様の動作を行う。 【0056】[30] NextIビットが1になれば、
RUNビットを0に戻す。 [31] ディジタル出力端子33から撮影条件及び装置
情報をホスト3に出力する。以降にスタート指示が行わ
れ、新たな距離画像DGが得られるまで、最後に得られ
た距離画像DGの出力を継続する。 【0057】図12は3次元カメラ2のシステムコント
ローラ61の動作のメインフローチャートである。電源
が投入されると、CTRLレジスタR1のビットを含む
制御パラメータの初期設定を行う(#1)。ボタン操作
又はホスト3からのコマンドに従ってモードを設定する
(#2)。このとき、ユーザーは、コンティニュアスモ
ードにおける計測の周期をフレーム単位で設定すること
ができる。 【0058】スタート指示を受けると計測動作に移る
(#3)。AFモードが可変モードであれば第1スキャ
ンシーケンスを実行し(#4,5)、固定モードであれ
ば第2スキャンシーケンスを実行する(#6)。 【0059】図13は第1スキャンシーケンス及び第2
スキャンシーケンスのフローチャートである。図13
(A)のように第1スキャンシーケンスでは、まずパッ
シブAFを開始し、3次元カメラ2に対する物体の相対
的な移動に合わせてフォーカシングレンズ位置を調整す
る(#51)。スタート指示を受けると、スキャンニン
グ中のレンズ移動を防止するために、パッシブAFを停
止するとともに、ズーミングを禁止する(#52、5
3)。 【0060】距離画像DGを得るためのスキャンニング
処理を実行し、スキャンニングが終わるとパッシブAF
を再開するとともに、ズーミングの禁止を解除する(#
54〜56)。コマンド入力及び操作を受け付けた後、
フレーム同期信号VSyncのカウント値が設定値に達
するのを待って終了の適否をチェックする(#57〜5
9)。ワンショットモードの場合、又はコンティニュア
スモードにおいて終了指示を受けた場合にはメインルー
チンへリターンする。コンティニュアスモードにおいて
終了指示がなければ、ステップ#52に戻って計測を繰
り返す。 【0061】一方、図13(B)のように第2スキャン
シーケンスでは、まずパッシブAFを開始し、スタート
指示を受けるとパッシブAFを停止するとともにズーミ
ングを禁止する(#61〜63)。スキャンニング処理
を実行した後、ズーミングの禁止を解除する(#64、
65)。パッシブAFは再開しない。コマンド入力及び
操作を受け付け、フレーム同期信号VSyncのカウン
ト値が設定値に達するのを待って終了の適否をチェック
する(#66〜68)。ワンショットモードの場合、又
はコンティニュアスモードにおいて終了指示を受けた場
合にはメインルーチンへリターンする。コンティニュア
スモードにおいて終了指示がなければ、ステップ#63
に戻って計測を繰り返す。 【0062】図14は図13のスキャンニング処理(#
54及び#64)のフローチャートである。上述のよう
に被写体(計測対象の物体)までの距離は、測距センサ
57によって常に測定されている。この距離(対物間距
離)の変化量をチェックし、変化量が許容値を越える場
合に、スリット光投影法により対物間距離を求めて撮影
条件を決める設定処理を実行する(#100、10
1)。変化量が許容値を越えない場合であっても、スタ
ート指示に呼応した1回目の計測のときには設定処理を
実行する(#102)。つまり、原則として2回目以降
の計測では設定処理(#100)を省略し、対物間距離
の大きな変化があったときだけ設定処理を実行する。こ
れにより、3次元計測の精度が確保され、制御の負担が
軽減される。 【0063】コンティニュアスモードにおける撮影条件
の設定モードとして距離計算モードが指定されている場
合には、その時点の撮影条件で距離画像DGを得るスキ
ャンニング制御を実行した後に、直前の撮影情報に基づ
いて次回の計測の撮影条件を算定するための処理とし
て、投射角度の演算及びスリット光量の演算を行う(#
103〜106)。また、輝度計算モードが指定されて
いる場合には、スキャンニング制御を実行した後に、ス
リット光量の演算を行う(#107〜109)。距離計
算モード及び輝度計算モードのどちらも指定されていな
い場合、すなわちワンショットモードの場合は、スキャ
ンニング制御を実行してメインルーチンへリターンする
(#103、107、110)。 【0064】直前の撮影情報に基づいて次回の計測の撮
影条件を算定することにより、計測毎に予備計測を行っ
て撮影条件を算定する場合と比べて、予備計測の所要時
間分だけ計測周期を短縮することができる。また、計測
では走査範囲の空間の詳しい情報が得られるので、各回
の計測情報を次回の計測の予備計測情報として利用する
場合には、例えば一方向にスリット光Uを投射する予備
計測による場合と比べて、より的確な撮影条件の算定が
可能である。 【0065】図15は投射角度の演算のフローチャート
である。まず、距離画像を解析して対物間距離の代表値
を決定する(#1051)。その決定方法には次の〜
を含む種々の方法がある。 【0066】画像全体から均一に画素をサンプリング
し、最も短い距離を代表値とする。これによれば、画像
中の背景部分の距離を代表値とする誤りを避けることが
できる。 【0067】画像の中央付近の縦横に並ぶ複数個の画
素をサンプリングし、距離の平均値又は中間値を代表値
とする。この方法は、ノイズの影響が小さい利点をも
つ。 ととを組み合わせた方法であり、画像を均等に分
割した各エリアから縦横に並ぶ複数個の画素をサンプリ
ングするものである。 【0068】次に、代表値、画素ピッチなどの装置条
件、及び焦点距離などの撮影条件に基づいて、三角測量
の原理を適用して実際の距離を求める(#1052)。
そして、求めた距離の位置の前後の所定範囲が計測対象
となるように、スキャンニングにおける投射の開始角度
及び終了角度を設定する。 【0069】図16はスリット光量の演算のフローチャ
ートである。メモリ63のメモリバンク63Cが記憶す
るn番目のフィールドの受光データ(反射光量)を均一
にサンプリングし、最も大きいサンプリング値を代表値
とする。このとき、最も大きいサンプリング値が上限値
である場合、すなわち計測用センサ53の受光量が飽和
している場合には、(n±1)番目のフィールドの注目
画素の受光データに基づいて補間演算によって最大光量
を求め、その結果を代表値とする(#1061)。 【0070】次に、代表値に応じて、計測用センサ53
の受光量が最適値になるように、スリット光量の設定値
を増減する(#1062)。このとき、必要に応じてス
リット光量の調整と合わせて計測用センサ53の露出時
間を調整することにより、受光量を最適化する。 【0071】図17は図14の設定処理のフローチャー
トである。操作又はコマンド入力による撮影距離の指定
がなければ、スリット光Uを照射して撮影情報に基づい
て対物間距離を求め、求めた距離の位置の前後の所定範
囲が計測対象となるように、スキャンニングにおける投
射の開始角度及び終了角度を設定する(#1011〜1
015)。そして、スリット光量の指定がない場合は、
撮影情報に基づいて、計測用センサ53の受光量が最適
値になるようにスリット光量の設定値を増減する(#1
015、1019)。 【0072】撮影距離の指定があり且つスリット光量の
指定がない場合は、スリット光Uを照射し、撮影情報に
基づいてスリット光量の設定値を増減する(#1016
〜1019)。 【0073】図18はホスト3の計測処理のフローチャ
ートである。3次元カメラ2に対してスタートコマンド
を送出し、撮影条件データDSの入力を待つ(#31、
32)。 【0074】撮影条件データDSの入力に呼応して、距
離画像DGを1回分の計測情報として取り込む(#3
3)。そして、距離画像DGに対する情報処理を行う
(#34)。この情報処理としては、距離画像DGと撮
影条件とに基づく座標演算、距離画像DGの記録媒体へ
の書込みなどがある。予め定められた終了条件(時間、
取り込み数終了操作)が成立するまで、撮影条件データ
DSの入力に呼応した最新の距離画像DGの取り込みを
繰り返す。 【0075】終了条件が成立すると、3次元カメラ2に
対してストップコマンドを送出し、計測処理を終える
(#35)。なお、ユーザーは、ホスト3のディスプレ
イ3b上で距離画像DGを表示させて計測の状況をモニ
ターすることができる。距離画像DGと2次元のカラー
撮影画像とを表示させることも可能である。 【0076】上述の実施形態によれば、撮影条件データ
DSが距離画像DGの取り込み制御信号として利用され
るので、取り込み制御信号を別途に設ける必要がない。
ユーザーは、コンティニュアスモードにおける計測の周
期を、用途に応じてフレーム単位で変更することができ
る。 【0077】 【発明の効果】請求項1の発明によれば、周期的に計測
を行う場合における計測条件の設定の信頼性を高めるこ
とができる。
Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention
Non-contact measurement of object shape by irradiating detection light represented by
To a three-dimensional measuring device. [0002] A non-contact type called a range finder
Three-dimensional measuring device (three-dimensional camera)
Because high-speed measurement is possible, CG systems and CA
Data input to D system, body measurement, robot vision
It is used for recognition. [0003] As a measuring method suitable for a range finder,
The slit light projection method (also called the light cutting method) is known.
You. This method is based on the optical scanning of objects and the basis for triangulation.
Is a method of obtaining a distance image (three-dimensional image) based on the
Of an active measurement method that captures an object by irradiating detection light
It is a kind. The distance image is a three-dimensional image of multiple parts on the object
It is a set of pixels indicating a position. In slit light projection,
Slit light having a straight section is used as the detection light.
Spot light, step light, density pattern
A light projection method for projecting a turn light or the like is also known. Conventionally, the photographing distance can be arbitrarily selected.
The portable range finder measures the distance between the objectives and
Focusing (AF) function to set the focus position
(Japanese Patent Application Laid-Open No. 7-174536). Measurement
The distance information thus set is also used for setting the amount of projection light. SUMMARY OF THE INVENTION [0005]
Using an optical system for measurement
Distance measurement can be performed. It also has scanning means
Therefore, by irradiating detection light in multiple directions, the viewing angle of distance measurement
It is easy to spread. On the other hand, the range finder periodically
By providing the function to perform, the application range of three-dimensional measurement
spread. For example, shape inspection of goods on a production line of a factory
Inspection, visual recognition of mobile robots, security monitoring system, etc.
Can be more practical. With periodic 3D measurement
By comparing the obtained time series of distance images,
The longitudinal movement and the shape change can be easily distinguished. [0007] However, during measurement, avoid changes in shooting conditions.
Therefore, it is necessary to prohibit lens movement. For this reason,
In the distance measurement using the optical system for measurement,
The distance between the objects cannot be measured because the object moves during measurement.
Distance measurement system loses track of object when distance changes significantly
There was a problem. Set measurement conditions if you lose track
(Focusing, light intensity setting, etc.)
Cannot be performed, and the reliability of the setting is reduced. Also, when out of focus
When the measurement is performed, the accuracy of the distance image decreases. Once, the object
If you lose track of the object, you can change the
Even if you try, you can catch the object with one-way projection
Switching the projection direction to catch objects, not necessarily
May be necessary and the ranging may stagnate.
You. [0008] The present invention provides a method for performing periodic measurement.
To improve the reliability of setting measurement conditions
You. Means for Solving the Problems An optical system for measurement is used.
Both the distance measurement by the light projection method and the distance measurement by the distance measurement sensor are used.
Use. Accuracy of measurement by using optical system for measurement
And continuous measurement is performed by the distance measurement sensor. Ranging
The sensor is wider than the target range for distance measurement by the light projection method.
Use a device that can measure in a wide range. Obtained with a distance measurement sensor
If you select the projection direction with reference to the measured value, the efficiency
Distance measurement by the light projection method can be performed effectively. The apparatus according to the first aspect of the present invention irradiates a detection light.
Light projecting means for optically scanning an object by
Imaging means for receiving the detection light reflected by the
A three-dimensional measuring device that measures the shape of an object by the projection method.
Distance measuring sensor that outputs a signal corresponding to the distance between the objectives
When, Measured by light projection Measure according to the distance between the objectives
Control means for setting measurement conditions.
Measurement by light projection method as operation mode Is Object distance
After setting measurement conditions according to the distance, the output of the distance measurement sensor
Monitor the force and if the output change exceeds the allowable value
The projection direction is determined based on the output of the distance measurement sensor.
The distance between the objects is increased by the light projection method. again Measure and the result
Mode to reset measurement conditions based on
It is. FIG. 1 shows a measuring system according to the present invention.
1 is a configuration diagram. The measurement system 1 is a slit light projection
3D camera (Range-fi
2) and a camera for processing output data of the three-dimensional camera 2.
And a strike 3. The three-dimensional camera 2 includes a plurality of suns on the object Q.
Measurement data to specify the three-dimensional position of the pulling point (distance map
Image) together with a two-dimensional image showing the color information of the object Q.
And output data necessary for calibration. triangle
Calculation processing to find the coordinates of sampling points using surveying method
Is carried by the host 3. The host 3 includes a CPU 3a, a display 3
b, keyboard 3c, mouse 3d, etc.
Computer system. The measurement data is stored in the CPU 3a.
Data processing software is installed. E
Between the strike 3 and the three-dimensional camera 2
Data transfer is performed. FIG. 2 is a view showing the appearance of the three-dimensional camera 2.
You. A light emitting window 20a and a light receiving window 2 are provided on the front of the housing 20.
0b is provided. The light emitting window 20a is connected to the light receiving window 20b.
It is located on the upper side. Internal optical unit OU emits
Slit light (a band-shaped laser beam having a predetermined width w) U
Is transmitted to the object (subject) to be measured through the light emitting window 20a.
Heading. The radiation angle φ in the length direction M1 of the slit light U is fixed.
It is fixed. Part of the slit light U reflected on the surface of the object
The light enters the optical unit OU through the light receiving window 20b. light
Unit OU properly adjusts the relative relationship between the emitting axis and the receiving axis
And a two-axis adjustment mechanism. On the upper surface of the housing 20, a zooming
Tons 25a, 25b, manual focusing button 26
a, 26b and start / stop button 27
Have been. As shown in FIG.
On the surface, a liquid crystal display 21, a cursor button 22,
Select button 23, cancel button 24, analog
Output terminals 31 and 32 and digital output terminal 33 are provided.
Have been. From the analog output terminal 31, measurement data
And the distance image DG is output.
Output a two-dimensional image DM. Output of analog signal
The format is, for example, the NTSC format. Digital output terminal 3
Reference numeral 3 denotes, for example, an RS232-C terminal,
Used for DS output. A liquid crystal display (LCD) 21 operates
It is used as a screen display means and an electronic finder.
The photographer can set the shooting mode by using the buttons 22 to 24 on the back.
Can be set. FIG. 3 is a block diagram showing the functional configuration of the three-dimensional camera 2.
It is a lock figure. Solid arrows in the figure indicate the flow of electrical signals.
The dashed arrows indicate the flow of light. 3D camera 2
Is a light-emitting side and a light-receiving side constituting the optical unit OU described above.
It has two optical systems 40 and 50 on the side. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam passes through the projection lens system 42
The slit light U, and the galvanomirror
(Scanning means) 43. Semiconductor laser 4
1; a driver 44; a driving system 45 of the projection lens system 42;
The drive system 46 of the galvanomirror 43 is
Controlled by the roller 61. In the optical system 50, a zoom unit 51
Is collected by the beam splitter 52.
It is split. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band
Incident on the color sensor 54 for the color filter. Sensor 53 and power
Color sensors 54 are both CCD area sensors.
You. The zoom unit 51 is a focus type, and a part of the incident light.
Are used for auto-focusing (AF). AF machine
The structure is a passive system used in single-lens reflex cameras.
Yes, the AF sensor 57, lens controller 58 and
And a focusing driving system 59. Zoomin
The driving system 60 is provided for electric zooming.
You. For passive distance measurement by the AF sensor 57,
Measurable distance compared to the active distance measurement described
It is possible to repeat the measurement in a short period with a wide range
There are advantages. However, the passive range finding accuracy (decomposition
Noh) is not enough. The information captured by the sensor 53 is transmitted to the driver 5
5 to the output processing circuit 62 in synchronization with the clock from
It is. For each pixel of the sensor 53 by the output processing circuit 62
Is generated and stored in the memory 63.
Will be delivered. Thereafter, the slit data is read from the memory 63.
It is extracted and sent to the center-of-gravity calculation circuit 64. Center of gravity calculation circuit
64 is a high-resolution distance image based on slit data
Generate The distance image passes through the NTSC conversion circuit 65.
Measurement data in the form of a frame-synchronous video signal.
Output online. The center of gravity calculation circuit 64 includes a system
Bit data for control by the system controller 61
CTRL register R1 for storing (GCALC) is provided
Have been. On the other hand, image pickup information by the color sensor 54
Performs color processing in synchronization with the clock from the driver 56.
Transferred to the circuit 67. Color-processed imaging information
(Two-dimensional image DM) is transmitted to the NTSC conversion circuit 70 and the analog
The data is output online through the log output terminal 32. 2D
The image DM has the same angle of view as the distance image obtained by the sensor 53.
It is a color image and the application on the host 3 side
It is used as reference information during processing. It should be noted that the system controller 61
On the screen of the LCD 21 with respect to the lactator generator 71
Displays the appropriate characters and symbols according to the current operating state
Give instructions to do. FIG. 4 shows a three-dimensional position in the measurement system 1.
It is a principle diagram of calculation of. On the imaging surface S2 of the sensor 53,
A relatively wide slit light U corresponding to several pixels is converted into an object Q.
Irradiation. Specifically, the width of the slit light U is set to 5 pixels.
I do. The slit light U is applied to the imaging surface S every sampling cycle.
2 from top to bottom so as to move by one pixel pitch pv on
The object Q is scanned.
One field from the sensor 53 for each sampling cycle
The photoelectric conversion information is output. Focusing on one pixel g on the imaging surface S2,
5 samples out of N samples performed during scanning
In this case, effective light receiving data can be obtained. These five times
The target pixel g
The optical axis of the slit light U passes through the object surface ag in the range of glare.
Timing (time centroid Npeak: of the pixel of interest g)
The time at which the amount of received light is maximized) is determined. In the example of FIG.
Is the time between the nth time and the previous (n-1) th time.
The received light amount is the largest in the ringing. The calculated time center of gravity Npeak
Direction of the slit light at
The position of the object Q based on the relationship with the incident direction of the lit light
(Coordinates). Thereby, the pixel pitch of the imaging surface
Measurement with higher resolution than the resolution specified by pv is possible
Become. The irradiation direction of the slit light is the same as the irradiation start direction.
If the deflection angular velocity is known, the time center of gravity Npeak is used.
Is uniquely identified. The incident direction is the sensor 53
It is specified by the positional relationship information between the camera and the light receiving lens. The amount of light received by the target pixel g depends on the reflectance of the object Q.
Exist. However, the relative amount of each received light amount of 5 samplings
The ratio is constant regardless of the absolute amount of received light. In other words, the object
Color shading does not affect measurement accuracy. In the measuring system 1 of the present embodiment, the three-dimensional
The pixel of the sensor 53 is calculated by the center-of-gravity calculation circuit 64 of the camera 2.
When the time center of gravity Npeak is calculated for each g and the number of effective pixels
The center of gravity Npeak is used as a distance image in NTSC format.
Transmitted to port 3. Thereby, light reception for 5 fields
Data is sent to the host 3 and the time center of gravity Np is
transmission data volume is significantly smaller than when eak is determined.
Time required for serial transmission using analog signals
Can be shortened. The time center of gravity Npeak
And equipment conditions required to determine the coordinates of the object
Is connected to the digital output terminal 33 in parallel with the transmission of the distance image.
Is transmitted to the host 3 via the. FIG. 5 shows the output processing circuit 62 and the memory 63.
FIG. 6 is a block diagram showing the reading range of the sensor 53.
is there. The output processing circuit 62 outputs the photoelectric signal output from the sensor 53.
AD converter that converts the conversion signal to 8-bit light reception data
620, four delay memories 621 to 621 connected in series
624, comparator 626, and field number
(Sampling number) Generator 62 indicating FN
7. The memory 63 has 5 effective
To store the received light data (slit data)
Of the five memory banks 63A to 63E,
Bank for storing field number FN
63F and address designation of the memory banks 63A to 63F.
And a memory control means (not shown) for performing
You. Each of the memory banks 63A to 63E is used for sampling of measurement.
The same number of received light as the number of points (that is, the number of effective pixels of the sensor 53)
It has a capacity to store data. Data is stored in the four delay memories 621 to 624.
By performing the data delay, it is possible to obtain 5 pixels for each pixel g.
At the same time as the memory bank 63A-
E can be stored. The sensor 5
Reading of one field in 3 is performed on the entire imaging surface S2.
However, in order to increase the speed, as shown in FIG.
Of the effective light receiving area (band image) Ae
Will be The effective light receiving area Ae is accompanied by the deflection of the slit light U.
Shift by one pixel for each field. This embodiment
Then, the number of pixels in the shift direction of the effective light receiving area Ae becomes 32.
Fixed. A part of the captured image of the CCD area sensor
The method of reading only the data is described in Japanese Patent Application Laid-Open No. 7-174536.
It has been disclosed. The AD conversion unit 620 outputs 3
The received light data D620 for two lines are arranged in the arrangement order of the pixels g.
Realistic output. Each delay memory 621 to 624
Is a FIFO having a capacity of 31 (= 32-1) lines
It is. The pixel of interest output from the AD converter 620
g of received light data D620 is delayed by two fields.
At that time, the comparator 626 activates the memory bank.
In the past received light data for the pixel of interest g stored in the
Data D620. Delayed receiving data
Data D620 (output of delay memory 622)
If the value is larger than the maximum value, the AD converter 620 at that time
And the outputs of the delay memories 621 to 624 are
Memory banks 63E, 63D, 63C, 63B, 63A
And stored in the memory banks 63A to 63E.
The contents are rewritten. At the same time, the memory bank 63F
Is the received light data D620 stored in the memory bank 63C.
Is stored as the field number FN. That is, the n-th (n <N) field
When the received light amount of the pixel of interest g is maximized,
The data of the (n-2) th field is stored in the bank 63A.
And stored in the memory bank 63B.
Field data is stored in memory bank 63C.
The data of the first field is stored in the memory bank 63
D stores the data of the (n + 1) th field,
The data of the (n + 2) th field is stored in the memory bank 63E.
Is stored in the memory bank 63F.
You. FIG. 7 is a block diagram of the center-of-gravity calculating circuit 64.
You. The center-of-gravity calculation circuit 64 includes five multipliers 641 to 64
5, a total of three adders 646 to 648, a divider 649, and
And a delay circuit 640. (N-2) to (n +
2) 5 field numbers (that is, when sampling
Time) are weighted -2, -1, 0, 1, 2, respectively.
Addition to the received light data from each of the memory banks 63A to 63E.
Perform a weighted average calculation. Weighted average output of divider 649
The values are the nth sampling time and the time centroid Npeak
(See FIG. 4B). This time
Deviation and field number from memory bank 63F
By adding FN, the time barycenter Npeak is obtained. Late
The extension circuit 640 determines the field number at the same time as the time shift amount.
Provided to input the FN to the adder 648;
Delay field number FN by the time required for weighted average calculation
Extend. Corresponding to each pixel from memory banks 63A-F
The read data is sequentially read and input to the centroid operation circuit 64.
By this, the distance image DG which is the measurement information for one time is
Generated. The distance image DG is, for example, 30 times per second.
It is output repeatedly in a cycle. Next, a basic method of measurement by the three-dimensional camera 2
The order will be described. In the measurement system 1, the three-dimensional camera 2
The arrangement relationship with the measurement target is variable. That is, the user
Is to change the shooting distance and angle appropriately according to the application
Can be. For this reason, prior to measurement,
Pre-processing for setting the shooting conditions by checking the positional relationship (shooting preparation)
Is done automatically. FIG. 8 shows the relationship between each point of the optical system and the object Q.
FIG. Direct operation or three-dimensional camera 2
A zooming instruction is given by remote control by the host 3.
When the variator of the zoom unit 51 moves
Focusing by moving the focusing unit
Done. Approximate objective distance during focusing
Separation d 0 Is measured. For driving such a light receiving system lens
In response, the calculation of the amount of movement of the variator lens on the projecting side is
And lens movement control is performed based on the calculation result.
You. However, during shooting, the shooting conditions
Zooming and focusing to avoid changes
Is forbidden. The system controller 61 includes a lens controller.
The focusing drive system 59 is driven through the
Encoder output (feed amount Ed) and zooming drive system
Read 60 encoder outputs (zoom increment fp)
No. In the system controller 61, distortion correction
The difference table, principal point position table, and image distance table
Referenced and corresponds to the feed amount Ed and zoom increment value fp
The obtained photographing condition data is output to the host 2. Here
The photographing condition data includes a front principal point position, an image distance, and the like. The system controller 61 includes a semiconductor
Of the output (laser intensity) of the body laser 41 and the slit light U
Calculate deflection conditions (projection start angle, projection end angle, deflection angular velocity)
Set. First, the approximate distance between the objects d 0 On a flat object
Assuming that the body exists, the reflected light is
Set the projection angle to receive light. Next, calculate the laser intensity.
Set. Semiconductor with minimum strength in consideration of human safety
Lights the laser 41 in pulses and captures the output of the sensor 53
No. The projection angle at this time is the distance d 0 On the basis of the
The set angle. Between the captured signal and the appropriate level
The ratio is calculated, and a temporary laser intensity is set. Set temporary
The pulse is turned on again at the laser intensity, and the output of the sensor 53 is taken.
Embed. Until the output of the sensor 53 becomes a value within the allowable range.
Then, the temporary setting of the laser intensity and the confirmation of suitability are repeated. What
When the received light intensity is insufficient even when lit at the maximum intensity
Performs exposure control to extend the charge accumulation time of the sensor 53.
U. Subsequently, the projection angle and the light receiving position of the slit light U
Then, the distance d between the objects is determined by triangulation. Soshi
Finally, based on the determined inter-object distance d, the deflection
Calculate the condition. When calculating the deflection conditions,
The rear principal point H ′ of the light receiving system, which is the distance measurement reference point at a distance d, is
An offset doff from the starting point A is considered. Also scanning
The same measurable distance range as the center at the end in the direction
To secure d ', a predetermined amount (for example, for 8 pixels) of
Perform a bar scan. The projection start angle th1
The firing end angle th2 and the deflection angular velocity ω are represented by the following equations. Th1 = tan -1 [Β × pv (np / 2 +
8) + L) / (d + doff)] × 180 / π th2 = tan -1 [−β × pv (np / 2 + 8) + L)
/ (D + doff)] × 180 / π ω = (th1−th2) / np β: imaging magnification (= d / effective focal length freal) pv: pixel pitch np: number of effective pixels in the horizontal direction of the imaging surface S2 L: base line Actual measurement is performed under the conditions calculated in this way.
Device information including the specifications of the sensor 53 and the shooting conditions
Transmission from the 3D camera 2 to the host 3 together with the separated image DG
Is done. However, in the continuous mode described later,
In other words, the device information is transmitted only at the time of the first measurement. Table 1
Summarizes the main data that the 3D camera 2 sends to the host 3.
It is a thing. [Table 1] Hereinafter, the operation of the measurement system 1 will be described in more detail. The operation of the three-dimensional camera 2 corresponds to a start instruction.
One-shot mode in which measurement is performed only once in response,
After receiving the start instruction, the lap
Continuous mode for continuous measurement (continuous shooting mode)
). AF mode in continuous mode
As modes, there are a variable mode and a fixed mode. Variable mode
During the period excluding measurement, the AF sensor 57
In this mode, focusing is performed according to the force. Fixed module
Mode performs focusing only during the first measurement.
Mode. AF sensor in either mode
The measurement of the distance between the objects by 57
Will be implemented. When the magnification of shooting is large (telephoto state)
Provides a clear range image because defocus is likely to occur.
Variable mode is suitable above. Also, depending on the variable mode
For example, if the object moves greatly,
Can be On the other hand, according to the fixed mode,
The drive control can be omitted. FIGS. 9 and 10 show continuous mode.
Is a time chart showing the operation of the three-dimensional camera 2 in FIG.
is there. Table 2 shows the contents of the control signals. [Table 2] Here, the system controller 61 is focused on
Explain the work. [1] Turn on the start / stop button 27
In response to a start command input from the
Then, shooting preparation (pre-processing) is started. Preparation for shooting
As described above, the object distance d is obtained by the light projection method, and
Active AF (A-AF) / Projection angle setting / Laser intensity
This is processing for performing settings and the like. [2] When the photographing preparation is completed, the CTRL
The RUN bit of the register R1 is set to 1. And SSt
Wait for the art bit to become 1. [3] First VSync after RUN bit becomes 1
The SStart bit is set to 1 in response to
Reset the frame counter. The SStart bit is
The value is returned to 0 at the next VSync. [4] [5] SStart bit becomes 1
Lens movement is prohibited to fix the shooting conditions,
Start scanning (photographing) of the object with the cut light U
You. During the period of about 0.8 seconds thereafter, the system
Controller 61 is dedicated to scanning control, lens
The controller 58 executes the distance measurement by the AF sensor 57
I do. In this distance measurement, the next scan
Predict the distance between objectives at the start of canning
You. [6] [7] When scanning is completed,
The GCALC bit of the CTRL register R1 is set to 1.
In response to this, the center-of-gravity calculating circuit 64 sets the time center of gravity Npeak.
The calculation of is started. The GCALC bit is the distance image DG
Is completed by the center-of-gravity calculation circuit 64 when the generation of
Set. The lens is moved to the lens controller 58.
Allow the movement to resume. In response, the lens control
The lens 58 measures the inter-object distance with the AF sensor 57.
Start passive AF (P-AF) for lens movement
You. [8] [9] The GCALC bit becomes 0
In response to the first later VSync, the NextI bit is set to 1
And switch the frame memory to
The output of the separated image DG is started. After this, the next scan
Is performed until a new distance image DG is generated.
The distance image DG having the same content is repeatedly output. Next
The I bit returns to 0 at the first VSync after being set to 1.
You. [10] A port (data) different from the distance image DG
From the digital output terminal 33).
Output to strike 3. The host 3 receives this signal,
It recognizes that the latest distance image DG has been output.
When the specified data output is completed,
To calculate the distance and exposure conditions for the next shot.
And wait until the SStart bit becomes 1. In addition,
At this stage, if the above variable mode
The change in the distance between the objectives is detected based on the output of the black AF.
And when the distance between the objectives exceeds the allowable value
High-precision distance measurement using the light projection method
Calculate focusing and shooting conditions. [11] When the count value of the frame counter is
When the value reaches one less than the designated value (OPR), the next V
Reset the count value with Sync, and
Set the art bit to 1. SS at the next VSync
Set the start bit back to 0. The OPR is on the host side.
Set manually. In other words, the user sets the desired measurement cycle
Can be set. [12] [13] SStart bit is set to 1
If this happens, the lens movement is prohibited and scanning is performed as in [4] and [5].
Start the shooting. After that, [6]-[1
1], and every time the SStart bit becomes 1
Then, the measurement operations [3] to [11] are repeated. However,
In the second and subsequent measurements counted from the start instruction,
Output of device information is omitted. [14] [15] As shown in FIG.
Turn on the start / stop button 27 or from the host 3
The RUN bit is set to 0 in response to the input of the stop command.
Return to When the stop instruction is issued during the center of gravity calculation
Resets the GCALC bit to 0 at that time. At what point
Even if a stop instruction is given, the distance image obtained last
The output of the DG is continued. FIG. 11 shows the third order in the one-shot mode.
6 is a time chart illustrating the operation of the original camera 2. [21] to [29] Enter the continuous mode described above.
The same operation as [1] to [9] is performed. [30] When the NextI bit becomes 1,
Reset the RUN bit to 0. [31] Photographing conditions and device from digital output terminal 33
The information is output to the host 3. After that, a start instruction is given
Until the new range image DG is obtained.
The output of the distance image DG is continued. FIG. 12 shows the system controller of the three-dimensional camera 2.
6 is a main flowchart of the operation of the roller 61. Power supply
Is input, the bit of the CTRL register R1 is included.
Initial setting of control parameters is performed (# 1). Button operation
Or, set the mode according to the command from the host 3.
(# 2). At this time, the user
Set the measurement cycle in the mode in frame units
Can be. When the start instruction is received, the operation moves to the measuring operation.
(# 3). If the AF mode is the variable mode, the first scan
Execute the sequence (# 4, # 5)
For example, the second scan sequence is executed (# 6). FIG. 13 shows the first scan sequence and the second scan sequence.
6 is a flowchart of a scan sequence. FIG.
In the first scan sequence as shown in FIG.
Start the sib AF, and move the object relative to the three-dimensional camera 2.
The focusing lens position according to the movement
(# 51). When receiving a start instruction,
Stop passive AF to prevent lens movement during
To stop and prohibit zooming (# 52, 5
3). Scanning for obtaining distance image DG
Executes processing, and after scanning ends, passive AF
And cancel the ban on zooming (#
54-56). After receiving command input and operation,
The count value of the frame synchronization signal VSync reaches the set value
To check whether the end is appropriate (# 57-5)
9). In one shot mode or continuous
When the end instruction is received in the
Return to Chin. In continuous mode
If there is no end instruction, the flow returns to step # 52 to repeat the measurement.
Return. On the other hand, as shown in FIG.
In the sequence, first, passive AF is started,
Upon receiving the instruction, the passive AF is stopped and zoom
Is prohibited (# 61 to # 63). Scanning process
Is executed, the prohibition of zooming is released (# 64,
65). Passive AF does not resume. Command input and
Accepts the operation and counts the frame synchronization signal VSync.
Wait for the default value to reach the set value and check the end
(# 66- # 68). In one shot mode,
Indicates that a termination instruction has been received in continuous mode.
If so, the process returns to the main routine. Continue
If there is no end instruction in the sleep mode, step # 63
Return to and repeat the measurement. FIG. 14 shows the scanning process (#) in FIG.
54 and # 64). As mentioned above
The distance to the object (object to be measured)
57 at all times. This distance (object distance)
Check the amount of change in the distance, and if the amount of change exceeds the
In this case, use the slit light projection method to find the distance between the objectives and shoot
A setting process for determining conditions is executed (# 100, 10
1). Even if the change does not exceed the tolerance,
During the first measurement in response to the
Execute (# 102). In other words, in principle, from the second time
Setting process (# 100) is omitted in the measurement of
The setting process is executed only when there is a large change in. This
As a result, the accuracy of three-dimensional measurement is ensured, and the burden of control is reduced.
It is reduced. Photographing conditions in continuous mode
If the distance calculation mode is specified as the setting mode for
In such a case, the distance image DG is obtained under the shooting conditions at that time.
After executing the running control,
To calculate the shooting conditions for the next measurement.
To calculate the projection angle and the amount of slit light (#
103-106). Also, if the brightness calculation mode is specified
If scanning is
The lit light amount is calculated (# 107 to # 109). Rangefinder
Calculation mode and brightness calculation mode are not specified.
In the one-shot mode,
Execute the running control and return to the main routine
(# 103, 107, 110). The next measurement is taken based on the immediately preceding photography information.
Preliminary measurement is performed for each measurement by calculating shadow conditions
Required for preliminary measurement compared to calculating shooting conditions
The measurement cycle can be shortened by the interval. In addition, measurement
Will give you detailed information on the space of the scanning range.
Use the measurement information of the next as preliminary measurement information of the next measurement
In such a case, for example, a preliminary projection of the slit light U in one direction is performed.
More accurate calculation of shooting conditions than measurement
It is possible. FIG. 15 is a flowchart for calculating the projection angle.
It is. First, the distance image is analyzed and the representative value of the inter-object distance is calculated.
Is determined (# 1051). The decision method is as follows
There are various methods including Pixels are sampled uniformly from the whole image
The shortest distance is set as a representative value. According to this, the image
It is possible to avoid errors that represent the distance of the background part inside as a representative value.
it can. A plurality of images arranged vertically and horizontally near the center of the image
Sample the elementary values and represent the average or intermediate value of the distance as the representative value
And This method also has the advantage of being less affected by noise.
One. Is a method that combines
Sample multiple pixels lined up vertically and horizontally from each divided area
It is something to do. Next, device conditions such as a representative value and a pixel pitch will be described.
And triangulation based on shooting conditions such as focal length
The actual distance is obtained by applying the principle of (# 1052).
Then, a predetermined range before and after the position of the obtained distance is a measurement target.
The starting angle of the projection in scanning
And the end angle. FIG. 16 is a flowchart for calculating the amount of slit light.
It is. The memory bank 63C of the memory 63 stores
Uniform light reception data (reflected light amount) in the nth field
And the largest sampled value is the representative value
And At this time, the largest sampling value is the upper limit
, That is, the amount of light received by the measurement sensor 53 is saturated.
, The attention of the (n ± 1) th field
Maximum light quantity by interpolation calculation based on light receiving data of pixels
And the result is set as a representative value (# 1061). Next, according to the representative value, the measuring sensor 53
Set the slit light amount so that the
Is increased or decreased (# 1062). At this time, if necessary,
At the time of exposure of the measurement sensor 53 together with the adjustment of the lit light amount
By adjusting the interval, the amount of received light is optimized. FIG. 17 is a flowchart of the setting process of FIG.
It is. Designation of shooting distance by operation or command input
If there is no, irradiate slit light U and based on shooting information
To obtain the distance between the objectives, and a predetermined range around the position of the obtained distance.
So that the surrounding area becomes the measurement target.
Set the start angle and end angle of the shooting (# 1011-1
015). And if there is no designation of slit light amount,
Optimal amount of light received by measurement sensor 53 based on shooting information
Increase or decrease the set value of the slit light amount so that the value becomes
015, 1019). When the photographing distance is specified and the slit light amount
If not specified, illuminate with slit light U
The set value of the slit light amount is increased or decreased based on the
-1019). FIG. 18 is a flowchart of the measurement processing of the host 3.
It is. Start command for 3D camera 2
And waits for input of shooting condition data DS (# 31,
32). In response to the input of the photographing condition data DS, the distance
The separated image DG is captured as one measurement information (# 3
3). Then, information processing for the distance image DG is performed.
(# 34). This information processing includes the distance image DG and
Coordinate calculation based on shadow conditions and storage of distance image DG
And so on. Predetermined termination conditions (time,
Shooting condition data until the acquisition number end operation) is satisfied
Capture the latest range image DG in response to DS input
repeat. When the end condition is satisfied, the three-dimensional camera 2
Sends a stop command to end the measurement process
(# 35). In addition, the user operates the display of the host 3.
A distance image DG is displayed on a 3b to monitor the measurement situation.
Can be Range image DG and two-dimensional color
It is also possible to display a captured image. According to the above embodiment, the photographing condition data
DS is used as a control signal for capturing the range image DG.
Therefore, there is no need to separately provide a capture control signal.
The user can select the measurement mode in continuous mode.
Period can be changed in frame units depending on the application.
You. According to the first aspect of the present invention, periodic measurement is performed.
The reliability of setting measurement conditions when performing
Can be.

【図面の簡単な説明】 【図1】本発明に係る計測システムの構成図である。 【図2】3次元カメラの外観を示す図である。 【図3】3次元カメラの機能構成を示すブロック図であ
る。 【図4】計測システムにおける3次元位置の算出の原理
図である。 【図5】出力処理回路及びメモリのブロック図である。 【図6】センサの読出し範囲を示す図である。 【図7】重心演算回路のブロック図である。 【図8】光学系の各点と物体との関係を示す図である。 【図9】コンティニュアスモードにおける3次元カメラ
の動作を示すタイムチャートである。 【図10】コンティニュアスモードにおける3次元カメ
ラの動作を示すタイムチャートである。 【図11】ワンショットモードにおける3次元カメラの
動作を示すタイムチャートである。 【図12】3次元カメラのシステムコントローラの動作
のメインフローチャートである。 【図13】第1スキャンシーケンス及び第2スキャンシ
ーケンスのフローチャートである。 【図14】図13のスキャンニング処理のフローチャー
トである。 【図15】投射角度の演算のフローチャートである。 【図16】スリット光量の演算のフローチャートであ
る。 【図17】図14の設定処理のフローチャートである。 【図18】ホストの計測処理のフローチャートである。 【符号の説明】 2 3次元カメラ(3次元計測装置) 40 投光系(投光手段) 53 計測用センサ(撮像手段) 61 システムコントローラ(制御手段) Q 物体 U スリット光(検出光)
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a measurement system according to the present invention. FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera. FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera. FIG. 4 is a principle diagram of calculation of a three-dimensional position in the measurement system. FIG. 5 is a block diagram of an output processing circuit and a memory. FIG. 6 is a diagram showing a reading range of a sensor. FIG. 7 is a block diagram of a center-of-gravity calculation circuit. FIG. 8 is a diagram showing a relationship between each point of the optical system and an object. FIG. 9 is a time chart showing the operation of the three-dimensional camera in the continuous mode. FIG. 10 is a time chart showing the operation of the three-dimensional camera in the continuous mode. FIG. 11 is a time chart showing the operation of the three-dimensional camera in the one-shot mode. FIG. 12 is a main flowchart of the operation of the system controller of the three-dimensional camera. FIG. 13 is a flowchart of a first scan sequence and a second scan sequence. FIG. 14 is a flowchart of the scanning process of FIG. 13; FIG. 15 is a flowchart of calculation of a projection angle. FIG. 16 is a flowchart of calculation of a slit light amount. FIG. 17 is a flowchart of a setting process of FIG. 14; FIG. 18 is a flowchart of a host measurement process. [Explanation of Signs] 2 Three-dimensional camera (three-dimensional measuring device) 40 Light projecting system (light projecting means) 53 Measurement sensor (imaging means) 61 System controller (control means) Q Object U Slit light (detection light)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井手 英一 大阪府大阪市中央区安土町二丁目3番13 号 大阪国際ビル ミノルタ株式会社内 (56)参考文献 特開 平2−118538(JP,A) 特開 平8−5344(JP,A) 特開 平7−174536(JP,A) 特開 平8−136225(JP,A) 特開 平9−325009(JP,A) 特開 平9−325010(JP,A) 特開 平9−325018(JP,A) 特開 平9−325019(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G01C 3/00 - 3/32 G02B 7/28 - 7/40 G03B 13/32 - 13/36 G06T 1/00 - 9/40 ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Eiichi Ide 2-3-1 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside Osaka International Building Minolta Co., Ltd. (56) References JP-A-2-118538 (JP, A) JP-A-8-5344 (JP, A) JP-A-7-174536 (JP, A) JP-A 8-136225 (JP, A) JP-A-9-325509 (JP, A) JP-A-9 -325010 (JP, A) JP-A-9-325018 (JP, A) JP-A-9-325019 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00- 11/30 102 G01C 3/00-3/32 G02B 7/28-7/40 G03B 13/32-13/36 G06T 1/00-9/40

Claims (1)

(57)【特許請求の範囲】 【請求項1】検出光を照射して物体を光学的に走査する
ための投光手段と、前記物体で反射した前記検出光を受
光する撮像手段とを有し、光投影法によって物体形状を
計測する3次元計測装置であって、 対物間距離に応じた信号を出力する測距センサと、光投影法によって測定される 対物間距離に応じて計測条
件を設定する制御手段とを有し、 前記制御手段の動作モードとして、
光投影法によって測定された対
物間距離に応じて計測条件を設定した後、前記測距セン
サの出力を監視し、その出力の変化量が許容値を越えた
場合に、前記測距センサの出力に基づいて投射方向を定
めて光投影法によって対物間距離を改めて測定し、その
結果に基づいて計測条件を設定し直すモードが設けられ
たことを特徴とする3次元計測装置。
(57) Claims 1. A light projecting means for irradiating a detection light to optically scan an object, and an imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring an object shape by a light projection method, comprising: a distance measuring sensor for outputting a signal corresponding to the distance between the objects; and a measuring condition according to the distance between the objects measured by the light projection method. Control means for setting, as an operation mode of the control means,
After setting measurement conditions according to the distance between the objects measured by the light projection method, the output of the distance measuring sensor is monitored, and when the amount of change in the output exceeds an allowable value, the output of the distance measuring sensor is A three-dimensional measuring device provided with a mode in which a projection direction is determined based on the distance, a distance between objects is measured again by a light projection method, and a measurement condition is reset based on the result.
JP14282996A 1996-06-05 1996-06-05 3D measuring device Expired - Fee Related JP3511806B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP14282996A JP3511806B2 (en) 1996-06-05 1996-06-05 3D measuring device
US08/867,877 US6049385A (en) 1996-06-05 1997-06-04 Three dimensional measurement system and pickup apparatus
US09/465,446 US6172755B1 (en) 1996-06-05 1999-12-17 Three dimensional measurement system and pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14282996A JP3511806B2 (en) 1996-06-05 1996-06-05 3D measuring device

Publications (2)

Publication Number Publication Date
JPH09325006A JPH09325006A (en) 1997-12-16
JP3511806B2 true JP3511806B2 (en) 2004-03-29

Family

ID=15324593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14282996A Expired - Fee Related JP3511806B2 (en) 1996-06-05 1996-06-05 3D measuring device

Country Status (1)

Country Link
JP (1) JP3511806B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4380663B2 (en) * 2006-06-08 2009-12-09 コニカミノルタセンシング株式会社 Three-dimensional shape measurement method, apparatus, and focus adjustment method
JP5799211B2 (en) * 2009-04-24 2015-10-21 パナソニックIpマネジメント株式会社 Distance image sensor

Also Published As

Publication number Publication date
JPH09325006A (en) 1997-12-16

Similar Documents

Publication Publication Date Title
JP4111592B2 (en) 3D input device
US5196929A (en) Display system of camera having tracking apparatus
US6480288B1 (en) Measuring system with improved method of reading image data of an object
US6172755B1 (en) Three dimensional measurement system and pickup apparatus
JP3282331B2 (en) 3D shape measuring device
US6233049B1 (en) Three-dimensional measurement apparatus
US6424422B1 (en) Three-dimensional input device
JP3493403B2 (en) 3D measuring device
JP3991501B2 (en) 3D input device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JP3511806B2 (en) 3D measuring device
JPH10124646A (en) Three-dimensional measuring device
US7492398B1 (en) Three-dimensional input apparatus and image sensing control method
JPH09325019A (en) Three-dimensional measuring device
JPH09325010A (en) Three-dimensional measuring device
JP3554264B2 (en) Three-dimensional image generation apparatus and method
JPH09325009A (en) Three-dimensional measuring device
JP3324367B2 (en) 3D input camera
JPH09325018A (en) Three-dimensional measuring system and three-dimensional photographing device
JP3360505B2 (en) Three-dimensional measuring method and device
JP2000275024A (en) Three-dimensional input apparatus
JP3733625B2 (en) Imaging device for 3D measurement
JP2000002520A (en) Three-dimensional input apparatus
JP2001221621A (en) Three-dimensional shape-measuring device
JP3861475B2 (en) 3D input device

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031229

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees