JP3695169B2 - 3D input method and 3D input device - Google Patents

3D input method and 3D input device Download PDF

Info

Publication number
JP3695169B2
JP3695169B2 JP25786998A JP25786998A JP3695169B2 JP 3695169 B2 JP3695169 B2 JP 3695169B2 JP 25786998 A JP25786998 A JP 25786998A JP 25786998 A JP25786998 A JP 25786998A JP 3695169 B2 JP3695169 B2 JP 3695169B2
Authority
JP
Japan
Prior art keywords
light
reference light
starting point
measurement site
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25786998A
Other languages
Japanese (ja)
Other versions
JP2000088538A (en
Inventor
寿夫 糊田
浩志 内野
英一 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP25786998A priority Critical patent/JP3695169B2/en
Priority to US09/393,384 priority patent/US6556307B1/en
Publication of JP2000088538A publication Critical patent/JP2000088538A/en
Application granted granted Critical
Publication of JP3695169B2 publication Critical patent/JP3695169B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、物体に参照光を投射して物体を走査し、物体形状を特定するデータを得る3次元入力方法及び3次元入力装置に関する。
【0002】
【従来の技術】
レンジファインダと呼称される非接触型の3次元入力装置は、接触型に比べて高速の計測が可能であることから、CGシステムやCADシステムへのデータ入力、身体計測、ロボットの視覚認識などに利用されている。
【0003】
レンジファインダに好適な計測方法としてスリット光投影法(光切断法ともいう)が知られている。この方法は、物体を光学的に走査して距離画像(3次元画像)を得る方法であり、特定の参照光を投射して物体を撮影する能動的計測方法の一種である。距離画像は、物体上の複数の部位の3次元位置を示す画素の集合である。スリット光投影法では、参照光として投射ビームの断面が直線帯状であるスリット光が用いられる。走査中のある時点では物体の一部が照射され、撮像面には照射部分の起伏に応じて曲がった輝線が現れる。したがって、走査中に周期的に撮像面の各画素の輝度をサンプリングすることにより、物体形状を特定する一群のデータ(3次元入力データ)を得ることができる。
【0004】
従来においては、撮像面内の輝線の位置に基づいて物体で反射して撮像面に入射したスリット光の入射角度を求め、その入射角度と当該スリット光の投射角度と基線長(投射の起点と受光基準点との距離)とから三角測量の手法で物体の位置を算出していた。つまり、参照光の投射方向と受光方向とに基づく位置演算が行われていた。
【0005】
なお、レンジファインダにおいて、撮像の画角を調整するズーミングが実現されている。また、撮像面の輝度のサンプリングにおいて、1回のサンプリングの対象を撮像面全体ではなく参照光が入射すると予想される一部の領域に限定し、その領域をサンプリング毎にシフトさせる手法が知られている。これによれば、サンプリングの1回当たりの所要時間を短縮して走査を高速化することができ、データ量を削減して信号処理系の負担を軽減することができる。
【0006】
【発明が解決しようとする課題】
従来においては、3次元入力データの精度が撮像情報に基づいて特定される参照光の入射角度の精度に依存し、このために十分に高い精度の3次元入力データが得られなかったり、精度を確保するために複雑な演算が必要となったりするという問題があった。例えば、ミラーを用いて間接的に物体を撮像する場合には、ミラーの面精度及び取付け姿勢の影響を受けるので、直接的に撮像する場合と比べて入射角度の精度が低下する。また、ズーミング機能やフォーカシング機能を設けた場合には、可動レンズの停止位置毎に微妙に異なるレンズ歪み補正を行わなければならない。補正内容を設定するためにズーム段を切り換えて測定を行ったり、測定結果から他のズーム段の補正内容を推測したりする処理が必要になることもある。
【0007】
本発明は、参照光の入射角度情報によらない3次元入力を実現し、入射角度情報を得るための演算を不要にするとともに、投射角度情報と比べて入射角度情報の精度が低い場合における3次元入力データの精度の向上を図ることを目的としている。
【0008】
【課題を解決するための手段】
本発明においては、互いに離れた2点のそれぞれを起点として物体に対する参照光の投射を行い、起点間の距離と各起点からの投射の角度(起点どうしを結ぶ直線に対する傾き)とから三角測量の手法で物体の位置を算出する。その際、各起点からの投射の物体上の照射位置の一致確認に物体の撮像情報を用いる。ただし、撮像における視線方向(参照光の入射角度)の情報は用いない。各起点からの投射を順に行ってもよいし、同時に行ってもよい。順に行う場合には各起点から同じ波長の参照光を投射してもよい。同時に行う場合には、波長や点滅周期などの異なる識別可能な2種の参照光を用いる。
【0009】
請求項1の発明の方法は、第1の起点から物体上の測定部位を通過するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記測定部位を通過するように第2の参照光を投射し、前記第1及び第2の参照光の前記測定部位からの反射光を前記第1及び第2の起点とは別の位置で受光し、前記第1の参照光が前記測定部位を通過するときの当該第1の参照光の投射角度と前記第2の参照光が前記測定部位を通過するときの当該第2の参照光の投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記測定部位の位置を算出する3次元入力方法である。
請求項2の発明の方法は、前記第1及び第2の参照光の前記測定部位からの反射光を共通の位置で受光し、前記第1の参照光が前記測定部位を通過するときの当該第1の参照光の投射角度と前記第2の参照光が前記測定部位を通過するときの当該第2の参照光の投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記測定部位の位置を算出する3次元入力方法である。
【0010】
請求項の発明の方法は、第1の起点から仮想面に向かってそれを走査するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記仮想面に向かってそれを走査するように第2の参照光を投射し、物体で反射した前記第1及び第2の参照光のそれぞれが前記仮想面を細分化した各サンプリング区画を通過する時点を検出し、検出した各時点における前記第1及び第2の参照光のそれぞれの投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記各サンプリング区画毎に前記物体の位置を算出する3次元入力方法である。
【0011】
請求項の発明の装置は、第1の起点から仮想面に向かってそれを走査するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記仮想面に向かってそれを走査するように第2の参照光を投射する投光系と、物体で反射した前記第1及び第2の参照光を受光して電気信号に変換する撮像系と、前記電気信号に基づいて、物体で反射した前記第1及び第2の参照光のそれぞれが前記仮想面を細分化した各サンプリング区画を通過する時点を検出する信号処理手段とを備え、前記信号処理手段の検出した各時点における前記第1及び第2の参照光のそれぞれの投射角度に応じたデータを、前記物体における複数の部位の位置情報として出力する3次元入力装置である。
【0012】
請求項の発明の3次元入力装置において、前記投光系は、前記第1の参照光を投射する第1光学機構と、前記第2の参照光を投射する第2光学機構とを有する。
【0013】
請求項の発明の3次元入力装置において、前記投光系は、前記第1及び第2の参照光を順に投射するための光学機構と、前記光学機構の少なくとも一部を移動させて投射の起点を変更する移動機構とを有する。
【0014】
請求項の発明の3次元入力装置において、前記第1及び第2の参照光はスリット光であり、前記投光系は、前記第1及び第2の参照光を前記仮想面を第1方向に走査するように投射するとともに、前記第1の参照光を前記仮想面を前記第1方向と直交する第2方向に走査するように投射する。
【0015】
請求項の発明の3次元入力装置において、前記撮像系の結像の主点は、前記第1の起点と前記第2の起点との間の位置である。
請求項の発明の3次元入力装置において、前記撮像系の結像の主点は、前記第1及び第2の起点の双方に対して等距離の位置である。
【0016】
【発明の実施の形態】
図1は第1実施形態に係る3次元入力装置1の機能ブロック図である。
3次元入力装置1は、2個の投光機構11,16からなる投光系10と、ズーミング及びフォーカシングの可能な撮像系20とを有し、CPU31によって制御される。
【0017】
投光機構11は、光源としての半導体レーザ12、スリット光を投射するためのレンズ群13、及び投射角度を変更するビーム偏向手段としてのガルバノミラー14からなる。レンズ群13は、コリメータレンズとシリンドリカルレンズとで構成される。同様に投光機構16も半導体レーザ17、レンズ群18、及びガルバノミラー19からなる。ガルバノミラー14,19には、投光制御回路32からD/A変換器33,34を介して偏向制御信号が与えられる。
【0018】
撮像系20は、受光レンズ21、ビームスプリッタ22、物体Qの形状を表す距離画像を得るためのイメージセンサ24、モニター用のカラーイメージセンサ25、及びレンズ駆動機構26からなる。ビームスプリッタ22は、半導体レーザ12,17の発光波長域(例えば中心波長670nm)の光と可視光とを分離する。イメージセンサ24及びカラーイメージセンサ25はCCDエリアセンサである。ただし、CMOSエリアセンサをカラーイメージセンサ25として使用してもよい。イメージセンサ24の出力はA/D変換器35で受光データD35に変換され、逐次にメモリ回路37に転送される。メモリ回路37では受光データD35の値に応じて後述の投射角度θA,θBを特定するデータ(TA,TB)が記憶される。カラーイメージセンサ25の出力はA/D変換器36で受光データに変換され、カラー画像メモリ38によって逐次に記憶される。メモリ回路37及びカラー画像メモリ38のアドレス指定はメモリ制御回路39が担う。
【0019】
CPU31は、制御対象に適時に指示を与えるとともに、メモリ回路37からデータを読み出して距離画像データを得る演算を行う。距離画像データは適時に3次元入力データとして図示しない外部装置に出力される。その際、カラー画像メモリ38によって記憶されている2次元カラー画像も出力される。外部装置としては、コンピュータ、ディスプレイ、記憶装置などがある。
【0020】
図2は投射の模式図、図3は距離画像データの生成要領を説明するための図である。
3次元入力装置1は、ガルバノミラー14の反射面上の点を起点Aとして仮想面VSを走査するようにスリット光U1を投射するとともに、ガルバノミラー19の反射面上の点を起点Bとして仮想面VSを走査するようにスリット光U2を投射する。仮想面VSは、イメージセンサ24で撮像可能な空間(画角内の範囲)の奥行き方向と直交する断面に相当する。そして、仮想面VSのうちのイメージセンサ24における各画素gに対応した範囲が、3次元入力のサンプリング区画となる。図2においては、起点A、起点B、及び受光の主点Cが一直線上に配置されている。ここでは、起点A,Bが垂直方向に沿って並び、スリット光U1,U2のスリット長さ方向を水平方向とする。
【0021】
物体Qの3次元入力の概要は次のとおりである。
イメージセンサ24によるフレーム周期の撮像に同期させてガルバノミラー14の偏向角を制御する。そして、イメージセンサ24の各画素が、刻々と偏向されていくスリット光U1のどの時点の投射により照らされたかを検知する。スリット光U1の投射された物体をイメージセンサ24で撮像し、そのI×J個の画素gのうちのi列j行の画素gijの出力に注目すると、画素gijに対応した点Pをスリット光U1が通過する際にその出力が最大値となる。つまり、画素gijの出力がピークを示す時刻TAのスリット光U1の投射角度θA(図3参照)と起点Aの空間座標とによって特定される平面上に点Pが存在することになる。同様に、起点Bからの投射を行ったときには、画素gijの出力が最大となる時刻TBのスリット光U2の投射角度θBと起点Bの空間座標とによって特定される平面上に点Pが存在することになるので、これら2つの平面の交線上に点Pの存在が規定されることになる。したがって、投射角度θA,θB及び基線長Lに基づいて、三角測量の原理を適用して、起点A,Bを通る基線と点Pとの奥行き方向の距離Dを算出することができ、起点A,Bと点Pとの垂直方向及び奥行き方向の相対位置を特定することができる。
【0022】
以上の処理を各画素gについて行えば、物体Qについて画素数分のサンプリング点の位置情報が得られる。本実施形態の構成では水平方向の位置は未定であるが、3次元入力データの用途によっては、奥行き情報が重要であり水平方向の位置はさほど重要ではないこともある。水平方向についてはおおよその位置でよい場合であれば、簡易的に画素位置から算出することができる。また、後述のように水平方向にスリット光U1を偏向すれば、水平方向の位置も正確に測定することが可能となる。なお、起点A,Bについては、投光系10の構成によってその位置や位置の時間変化が異なるが、任意の時点において投射角度と一対一で対応する。したがって、3次元位置の算出には投射角度と起点位置のうちの投射角度のみが検出できれば十分である。
【0023】
次に、画素gijの出力が最大となる時刻TA,TBを検出するための回路の具体的な構成を説明する。
図4はメモリ回路の第1例のブロック図である。
【0024】
例示のメモリ回路37は、2個のメモリ371,376、比較器377、及びインデックスジェネレータ378から構成されている。メモリ371は、投光機構11による第1の走査に際して用いるメモリバンク371Aと、投光機構16による第2の走査に際して用いるメモリバンク371Bとを有している。同様に、メモリ376も2個のメモリバンク376A,376Bを有している。
【0025】
メモリ371にはA/D変換器35から受光データD35が入力され、メモリ376にはインデックスジェネレータ378からフレーム番号Tが入力される。。比較器377は、イメージセンサ24の画素毎に最新の入力データであるt番目のフレームの受光データD35と以前にメモリ371に書き込まれた受光データD35とを比較し、最新の受光データD35が以前の受光データD35より大きい場合にメモリ371,376に対して書込みを許可する。これを受けて各メモリ371,376は最新の入力データで上書きを行う。比較結果が逆の場合は各メモリ371,376において以前の記憶内容が保持される。したがって、各走査が終了した時点において、メモリ371は各画素gij毎に受光データD35の最大値を記憶し、メモリ376は各画素gij毎に受光データD35が最大となったフレームの番号Tを記憶することになる。各フレームの撮像は一定周期で行われるので、フレーム番号Tは走査期間中の時刻(走査開始からの経過時間)を表す。つまり、メモリ376が記憶するフレーム番号Tは上述の時刻TA,TBに相当し、投射角度θA,θBを特定する情報である。
【0026】
この例によれば、比較的に簡単な回路構成によって投射角度θA,θBを検知することができる。ただし、投射角度の検知の分解能はイメージセンサ24の画素ピッチに依存する。分解能の向上を図ったものが次の第2例である。
【0027】
図5はメモリ回路の第2例のブロック図、図6は撮像面における輝度分布と受光データとの関係を示す図である。図5において図4に対応した要素には図4と同一の符号を付してある。
【0028】
第2例のメモリ回路37bは、メモリ371に加えてそれと同サイズの4個の2個のメモリ372,373,374,375を設け、計4個の1フレームディレイメモリ379a〜dを介在させて各メモリ372〜375のデータ入力をメモリ371に対して順に1フレームずつ遅らせるように構成したものである。すなわち、メモリ回路37bでは、各画素gijについて連続した5フレームの受光データD35が同時に記憶される。比較器377は、入力が2フレーム遅れの第3番目のメモリ373の入出力を比較する。メモリ373の入力データ値が出力データ値(以前に書き込まれたデータ値)より大きい場合に、メモリ371〜375及びメモリ376の書込みが許可される。
【0029】
各走査が終了した時点において、メモリ373は各画素gij毎に受光データD35の最大値を記憶することになる。また、メモリ371,372,374,375によって、受光データD35が最大となったフレームの2つ前、1つ前、1つ後、2つ後の計4フレームの受光データD35が記憶されることになる。そして、メモリ376は、各画素gij毎に受光データD35が最大となったフレームの番号Tを記憶することになる。
【0030】
ここで、図6(a)のように、撮像面に結像したスリット光像の幅が5画素分であり、輝度分布が単一峰の山状であるものとする。このとき、1つの画素gijに注目すると、図6(b)のように輝度分布に応じた変化の受光データが得られる。したがって、メモリ371〜375に記憶されている5フレーム分の受光データD35に基づいて重心演算を行うことにより、フレーム周期(つまり画素ピッチ)よりも細かな刻みで時刻TA,TBを算出することができる。図6(b)の例では、時刻TA(TB)はt回目と(t+1)回目のサンプリング時刻間にある。
【0031】
この第2例によれば分解能が向上するが、輝度分布によっては所望の精度が得られないという問題がある。すなわち、実際の撮像では、光学系の特性などに起因して結像に何らかのノイズが加わる。このため、輝度分布に複数のピークが生じたり、平坦でピークの不明瞭な輝度分布となったりする。輝度分布が理想形状から大きく外れると、重心演算の信頼性が低下する。
【0032】
このようなノイズの影響は、輝度の最大値が得られたフレームとその前後の各数フレームを合わせた程度の短い期間ではなく、十分に長い期間の輝度分布に基づいて重心演算を行うことによって低減することができる。それを実現するのが次の第3例である。
【0033】
図7はメモリ回路の第3例のブロック図、図8は図7に係る重心の概念図である。
第3例のメモリ回路37cは、メモリ3710、定常光データ記憶部3720、減算部3730、第1加算部3740、第2加算部3750、及び除算部3760から構成され、各画素gij毎にフレーム数分の受光データD35に基づいて重心(時間重心)を算出する。
【0034】
メモリ3710は、2個のバンクを有し、順に行われる第1及び第2の走査で得られた所定数kのフレームの受光データD35を記憶する。各画素gijのT番目(T=1〜k)のフレームの受光データ値をxT と表す。定常光データ記憶部3720は、スリット光U1,U2以外の不要入射光量を表す定常光データを記憶する。定常光データはスリット光U1,U2が入射していないときの受光データD35に基づいて算出される。その値sは、予め定めた固定値でもよいし、受光データD35を用いてリアルタイムで求めてもよい。固定値とする場合には、受光データD35が8ビット(256階調)である場合に、例えば「5」「6」又は「10」などとする。減算部3730は、メモリ3710から読み出された受光データD35の値xT から定常光データの値sを差し引く。ここで、減算部3730からの出力データの値をあらためてXT とする。第1加算部3740は、画素gij毎にk個の受光データD35について、それぞれの値XT とそれに対応したフレーム番号Tとの乗算を行い、得られた積の合計値を出力する。第2加算部3750は、画素gij毎にk個の受光データD35の値XT の総和を出力する。除算部3760は、第1加算部3740の出力値を第2加算部3750の出力値で除し、得られた重心を時刻TA(又はTB)として出力する。
【0035】
図9は投光起点と受光主点との位置関係の設定例を示す図である。
投光系10及び撮像系20の配置においては、必ずしも投光の起点A,B及び受光の主点Cが一直線上に並ぶ図9(a)又は(b)のような構成にする必要はない。例えば、物体側からみて3点がL字状に並ぶ図9(c)の構成、T字状に並ぶ図9(d)の構成を採用してもよい。特に、図9(b)又は(d)のように起点Aと起点Bとの間に主点Cを配置すれば、起点A,Bの位置が異なることにより発生するオクルージョンを軽減することができる。その際には主点Cと各起点A,Bとの距離dを等しくするのが好ましい。
【0036】
図10は第2実施形態に係る3次元入力装置2の機能ブロック図である。図10及び以下の各図において図1と同一の符号を付した構成要素の機能は上述の3次元入力装置1と同一である。
【0037】
3次元入力装置2の構成は、投光系10b及びその制御に係わる部分を除いて図1の3次元入力装置1と同様である。3次元入力装置2において、投光系10bは、投光機構11とそれを平行移動させる移動機構110とから構成されている。半導体レーザ12、レンズ群13及びガルバノミラー14の配置関係を保持したまま投光機構11を移動させることにより、2個の投光機構を設けるのと同様に互いに離れた2点を起点としてスリット光U1,U2の投射を行うことができる。なお、投光機構11を移動させる代わりに光路内に退避可能にミラーを設け、起点を変更することも可能である。
【0038】
図11は第3実施形態に係る3次元入力装置3の機能ブロック図である。
第3実施形態は、スリット光ではなくビーム断面が点状のスポット光V1,V2を投射し、1次元のイメージセンサ(ラインセンサ)27を用いて撮像を行うものである。
【0039】
3次元入力装置3は、2個の投光機構11c,16cからなる投光系10c、ズーミング及びフォーカシングの可能な撮像系20cとを有している。投光機構11は、半導体レーザ12、コリメータレンズ13c、及びガルバノミラー14cからなる。同様に投光機構16cも半導体レーザ17、コリメータレンズ18c、及びガルバノミラー19cからなる。
【0040】
撮像系20cは、受光レンズ21、レンズ駆動機構26、赤外カットフィルタF1、バンドパスフィルタF2、フィルタ切換え機構28、及び3次元入力とモニター撮影とに兼用のイメージセンサ27からなる。イメージセンサ27は、RGBの各色に対応した画素列を有する3ラインCCDセンサである。モニター撮影のときには赤外カットフィルタF1を用いる。また、3次元入力のときにはレーザ波長域の光を透過させるバンドパスフィルタF2を用い、イメージセンサ27のRの画素列の出力のみを受光情報として用いる。
【0041】
スポット光V1,V2による場合も、時刻TA,TBを検出することにより、物体Q上の点Pの位置を算出することができる。その原理はスリット光U1,U2による場合と同様であるので、ここではその説明を省略する。
【0042】
図12は第4実施形態に係る3次元入力装置4の機能ブロック図、図13は図12に係る投射の模式図である。
第4実施形態は、スリット光U1による水平方向の走査を可能にし、物体Q上の点Pの水平方向の位置を正確に特定できるようにしたものである。
【0043】
3次元入力装置4の構成は、投光系10d及びその制御に係わる部分を除いて図1の3次元入力装置1と同様である。3次元入力装置4の投光系10dは、2個の投光機構11,16と、投光機構11の偏向方向を垂直方向と水平方向とに切り換えるための回転機構120とから構成されている。半導体レーザ12、レンズ群13及びガルバノミラー14の配置関係を保持したまま投光機構11を90°回動させることにより、水平方向の走査が可能となる。
【0044】
3次元入力装置4においては、スリット光U1,U2を垂直方向に偏向して時刻(時間重心)TA,TBを検出する走査に続いて、起点Aを中心に投光機構11を90°回動させてスリット光U3による水平方向の走査を行う。水平方向の走査においても垂直方向と同様の要領で各画素gijの出力が最大となる時間重心(時刻)TCを求める。時間重心TCによって一義的に決まる水平方向の投射角度と、上述のように垂直方向の投射角度θA,θBから求めた距離Dとから三角測量法を適用して点Pの水平方向の位置を算出することができる。
【0045】
図14は回転によって全周囲入力〔図14(a)〕、全方位入力〔図14(b)〕を実現する装置構成例を示す図、図15、図16はミラーによって全方位入力(図15)、全周囲入力(図16)を実現する装置構成例を示す図である。
【0046】
図14(a)の3次元入力装置5は、投光及び撮像を行う光学系10eと物体Qを乗せて回転するターンテーブル45とを備えている。光学系10eは、投光の起点間に受光の主点を配置したものであり、フィルタを切り換えて1個のイメージセンサで3次元入力とカラー撮影とを行うように構成されている。ターンテーブル45は、ある方向から物体Qを走査して重心を求めると、所定角度だけ回転する。光学系10eによる走査とターンテーブル45の回転とをN回繰り返すことにより、物体Qの外周面の最大360°の角度範囲にわたる3次元入力が可能である。光学系10eにはN回分のデータ記憶が可能な容量のメモリを設けられている。何回目の走査のデータであるからn ×θというかたちで方向成分が求められるので、測定対象物の空間上での3次元位置データが得られることになる。なお、物体Qを静止させてその周囲を光学系10eが回るように構成してもよい。
【0047】
図14(b)の3次元入力装置6では、ターンテーブル46の上に光学系10eが取り付けられている。3次元入力装置6を用いれば、空洞を有した物体の内壁面の全方位3次元入力が可能となる。
【0048】
図15は、凸型の曲面ミラー210を使用した全方位3次元計測装置の構成例を示す。曲面ミラ一210の軸上に、撮像装置(例えばビデオカメラ)20fをその光軸がミラー軸と一致するように配置する。曲面ミラ一210は、例えば双曲面のように、軸対称で且つ軸を含む平面による断面がその傾きを単調に増加させる曲線である形状をしている。これにより、撮像装置20fと投光系を含む光学システム自身が写っている範囲を除いて、図中のEの範囲の軸まわり全周の画像が、撮像装置20fの中に取り込まれる。
【0049】
さらに、曲面ミラ一210の軸上には、光源12、レンズ13f、走査ミラー15及びミラー回転機構130を備えた投光系10fを配置する。光源12から発せられた光は、レンズ13fにより適切な径を有するビームに整えられ、走査ミラー15で反射して投射される。走査ミラー15は、曲面ミラ一210の軸に垂直な軸周り角度制御が可能(図中B)で、これにより投射されるビームを図中B’のように偏向する。これを副走査とする。例えばガルバノスキャナのような角度制御機構付きの走査ミラー15を使用すれば、この副走査を実現することができる。
【0050】
ミラー回転機構130は、副走査中の走査ミラー15を、それのみ又はレンズ13f及び光源12の少なくとも一方とともに曲面ミラー軸周りに回転させる(図中A)。これによって、ビームは曲面ミラー軸周り、すなわち撮像装置の光軸周りに全周を走査する。これを主走査とする。
【0051】
主走査の1周期(方向Aの1回転)に対し、走査ミラー15の角度を副走査方向Bの分解能分だけ変化させる。これを図中B’の範囲で片道1副走査の間繰り返せば、B’の範囲で曲面ミラー軸周り全周の範囲をビームで走査することができる。
【0052】
主走査の1周期は、撮像装置20fの露光時間以下になるように設定する。ビームの投射角すなわち走査ミラー15の偏角φ(図中のBの方向)における全方位に投射したビームの反射光による軌跡を撮像することができる。撮像する毎に走査ミラー15の角度を副走査方向Bの分解能分だけ変化させる。この動作を繰り返しながら、上述した重心画像A(時刻TAを示す画素の集合)を作成する。
【0053】
その後、移動機構117により、投光系10fの位置を所定の距離だけ曲面ミラー軸方向(図中C)に移動させ上述の動作にて重心画像B(時刻TBを示す画素の集合)を作成する。
【0054】
この2枚の重心画像A,Bから各画素に対する投光系のそれぞれの位置での走査ミラー15の角度位置と投光系10fを移動させた距離とを用いて三角測量の原理で、垂直方向と奥行き方向の位置が求められる。また、各画素と画像中心位置(曲面ミラー軸が相当する位置)とから方位角を求めることかできる。したがって、画像中の各画素について空間上の3次元位置を算出することができる。
【0055】
図16は、逆円錐台状の曲面ミラー220を使用した全方位3次元計測装置の構成例を示す。内面が反射面となっている曲面ミラー220をその軸を鉛直方向に向けて配置する。ミラー形状は、ミラー軸鉛直上向きに座標軸hをとり、ある高さhに対するミラー断面半径をr、h軸に対するミラー面の角度をθmとおいて、以下の式で表わすことができる。
【0056】
r=h・tanθm+R
ここでRは、h=0に対するrの値である。その中に入力対象の物体(図示の例では人体)Qが置かれているとする。曲面ミラー220の上方に撮像装置20g及び投光系11gが、それらの光軸をミラー軸と一致させるように配置されている。曲面ミラー220における逆円錐台の頂角、撮像装置20gとの距離、及び撮像の画角を適切に設定することによって、撮像装置20gは曲面ミラー220を介して、頂点付近を除き物体Qの全周の映像をひとつの画像の中に捉えることができる。投光系11gは、ミラーの軸を回転軸として光ビームの投射方位(図中のM1方向)を回転させることが可能である。これを主走査とする。同時に、光ビームの投射角θyを鉛直面内(図中のM2方向)で走査することができるものとする。これを副走査とする。M1方向の走査は、モーターなどの動力源を使用して投光系11gの一部または全部を回転運動させることで実現できる。また、M2方向の変化は、例えばガルバノスキャナのような走査デバイスを使用すれば容易に可能である。なお、投光系11gは、撮像装置20gの視野の中で、ミラーの反射面が存在せず3次元情報の入力に関与しない中央付近の円形の領域内に収まるように、その大きさや形状、及び鉛直方向の設置位置を定める。
【0057】
物体Q上の点Pの像が、撮影した画像において点Piとして観測されているとする。この3次元入力本装置8は軸対称であるので、簡単化のために、以下では方位角を固定して、ミラー軸を含むある鉛直断面内に着目して説明する。
【0058】
光ビームの投射起点の高さをh=hxとして、あるタイミングにおいて、光ビームが経路xからx’を経て点P上に到達しているとする。投射角θxに対し、光ビームは経路xを経て反射後には以下の式で表現される経路x’をたどる。
【0059】
r=h・tan(θx+2θm)
+〔tanθx(hxtanθm+R)
−tan(θx+2θm )(hxtanθx−R)〕/(tanθm+tanθx)
この経路x’上に点Pが存在することになる。
【0060】
また、光ビームの投射起点の高さをh=hyとして、あるタイミングにおいて、光ビームが経路yからy’を経て点P上に到達しているとする。投射角θyに対し、光ビームは経路yを経て反射後には以下の式で表現される経路y’をたどる。
【0061】
r=h・tan(θy+2θm)
+〔tanθy(hytanθm+R)
−tan(θy+2θm )(hytanθx−R)〕/(tanθm+tanθy)
この経路y’上に点Pが存在することになる。
【0062】
以上から、点P(画像において点Pi)の位置(奥行き方向の位置:r、垂直方向の位置:h)は経路x’と経路y’との交点として定まることになる。したがって点Pの位置は、光ビームの投射角θxとθyから算出することが可能である。また、画像において点Piと画像中心位置(曲面ミラー軸が相当する位置)とから方位角を求めることができる。
【0063】
したがって、画像中の各画素に対する空間上の3次元位置を算出することが可能である。
一部繰り返しになるが、3次元入力の過程を説明する。上述の主走査の1周期は、撮像装置20fの露光時間以下になるように設定する。ビームの投射角、すなわち走査ミラーの偏角θ(図中のM2の方向)における全方位から投射したビームの反射光による軌跡を撮像することができる。撮像する毎に、走査ミラーの角度を副走査方向の分解能分だけ変化させる。この動作を繰り返しながら、重心画像Aを作成する。その後、移動機構118により、投光系11gの位置を所定の距離だけ曲面ミラー軸方向(図中M3)に移動させ、上述の動作にて重心画像Bを作成する。
【0064】
この二枚の重心画像A,Bから各画素に対する投光系11gの各々の位置での走査ミラーの偏角を求める。これらの値と投光系11gを移動させた距離とを用いて三角測量の原理で、垂直方向と奥行き方向の位置が求められる。また、各回素と画像中心位置(曲面ミラー軸が相当する位置)とから方位角を求めることができる。したがって、画像中の各画素について空間上の3次元位置を算出することが可能である。
【0065】
【発明の効果】
請求項1乃至請求項の発明によれば、参照光の入射角度情報によらない3次元入力を実現し、入射角度情報をえるための演算を不要にするとともに、投射角度情報と比べて入射角度情報の精度が低い場合における3次元入力データの精度の向上を図ることができる。
【図面の簡単な説明】
【図1】第1実施形態に係る3次元入力装置の機能ブロック図である。
【図2】投射の模式図である。
【図3】距離画像データの生成要領を説明するための図である。
【図4】メモリ回路の第1例のブロック図である。
【図5】メモリ回路の第2例のブロック図である。
【図6】撮像面における輝度分布と受光データとの関係を示す図である。
【図7】メモリ回路の第3例のブロック図である。
【図8】図7に係る重心の概念図である。
【図9】投光起点と受光主点との位置関係の設定例を示す図である。
【図10】第2実施形態に係る3次元入力装置2の機能ブロック図である。
【図11】第3実施形態に係る3次元入力装置3の機能ブロック図である。
【図12】第4実施形態に係る3次元入力装置4の機能ブロック図である。
【図13】図12に係る投射の模式図である。
【図14】回転によって全周囲入力又は全方位入力を実現する装置構成例を示す図である。
【図15】ミラーによって全方位入力を実現する装置構成例を示す図である。
【図16】ミラーによって全周囲入力を実現する装置構成例を示す図である。
【符号の説明】
1〜8 3次元入力装置
A,B 起点
P 点(物体上の特定部位)
U1,U2 参照光
L 基線長(起点の間の距離)
VS 仮想面
TA,TB 時刻(サンプリング区画を通過する時点)
θA,θB 投射角度
10 投光系
20 撮像系
37 メモリ回路(信号処理手段)
11 投光機構(第1光学機構)
16 投光機構(第2光学機構)
110 移動機構
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional input method and a three-dimensional input device for obtaining data for specifying an object shape by projecting reference light onto an object and scanning the object.
[0002]
[Prior art]
A non-contact type 3D input device called a range finder is capable of high-speed measurement compared to the contact type, so it can be used for data input to CG and CAD systems, body measurement, visual recognition of robots, etc. It's being used.
[0003]
A slit light projection method (also called a light cutting method) is known as a measurement method suitable for a range finder. This method is a method for obtaining a distance image (three-dimensional image) by optically scanning an object, and is a kind of active measurement method for photographing an object by projecting specific reference light. The distance image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the object. In the slit light projection method, slit light in which the cross section of the projection beam is a straight belt is used as reference light. At a certain point during scanning, a part of the object is irradiated, and a bright line bent according to the undulation of the irradiated part appears on the imaging surface. Therefore, a group of data (three-dimensional input data) specifying the object shape can be obtained by sampling the luminance of each pixel on the imaging surface periodically during scanning.
[0004]
Conventionally, the incident angle of the slit light reflected on the object and incident on the imaging surface based on the position of the bright line in the imaging surface is obtained, and the incident angle, the projection angle of the slit light, and the base line length (projection origin and The position of the object was calculated by the triangulation method from the distance to the light receiving reference point. That is, position calculation based on the projection direction and the light receiving direction of the reference light has been performed.
[0005]
In the range finder, zooming for adjusting the angle of view of imaging is realized. In addition, in the luminance sampling of the imaging surface, there is a known method in which the sampling target is limited to a part of the region where the reference light is expected to enter instead of the entire imaging surface, and the region is shifted for each sampling. ing. According to this, the time required for one sampling can be shortened to increase the scanning speed, and the amount of data can be reduced to reduce the load on the signal processing system.
[0006]
[Problems to be solved by the invention]
Conventionally, the accuracy of the three-dimensional input data depends on the accuracy of the incident angle of the reference light specified based on the imaging information. For this reason, sufficiently high-precision three-dimensional input data cannot be obtained, There has been a problem that a complicated calculation is required to secure it. For example, when an object is imaged indirectly using a mirror, the accuracy of the incident angle is reduced as compared with the case of imaging directly because it is affected by the mirror surface accuracy and mounting orientation. In addition, when a zooming function or a focusing function is provided, a slightly different lens distortion correction must be performed for each stop position of the movable lens. In order to set the correction contents, it may be necessary to perform processing by switching the zoom stage and estimating the correction contents of other zoom stages from the measurement result.
[0007]
The present invention realizes a three-dimensional input that does not depend on the incident angle information of the reference light, eliminates the need for a calculation for obtaining the incident angle information, and performs 3 in the case where the accuracy of the incident angle information is lower than the projection angle information. The purpose is to improve the accuracy of the dimension input data.
[0008]
[Means for Solving the Problems]
In the present invention, reference light is projected onto an object starting from two points separated from each other, and triangulation is calculated from the distance between the starting points and the angle of projection from each starting point (the inclination with respect to a straight line connecting the starting points). The position of the object is calculated by the method. At that time, the imaging information of the object is used for confirming the coincidence of the irradiation position on the object projected from each starting point. However, information on the line-of-sight direction (incident angle of reference light) in imaging is not used. Projection from each starting point may be performed sequentially or simultaneously. When performing in order, the reference light of the same wavelength may be projected from each starting point. When performing at the same time, two kinds of distinguishable reference lights having different wavelengths and blinking periods are used.
[0009]
  The method of the invention according to claim 1 is the method of:MeasurementPartTo pass throughThe first reference light is projected and the second starting point separated from the first starting pointMeasurementPartTo pass throughProject a second reference beam,When the reflected light from the measurement part of the first and second reference lights is received at a position different from the first and second starting points, the first reference light passes through the measurement part. The projection angle of the first reference light and the second reference light when the second reference light passes through the measurement siteBased on the projection angle of the second reference light and the distance between the first and second starting points,MeasurementThis is a three-dimensional input method for calculating the position of a part.
  According to the method of the invention of claim 2, the reflected light from the measurement part of the first and second reference lights is received at a common position, and the first reference light passes through the measurement part. Based on the projection angle of the first reference light, the projection angle of the second reference light when the second reference light passes through the measurement site, and the distance between the first and second starting points. This is a three-dimensional input method for calculating the position of the measurement site.
[0010]
  Claim3The method of the present invention projects the first reference light so as to scan the virtual surface from the first starting point toward the virtual surface, and moves from the second starting point away from the first starting point toward the virtual surface. Projecting the second reference light so as to scan it, and detecting the time when each of the first and second reference light reflected by the object passes through each sampling section subdividing the virtual plane, The position of the object is calculated for each sampling section based on the respective projection angles of the first and second reference lights at each detected time point and the distance between the first and second starting points. This is a three-dimensional input method.
[0011]
  Claim4The apparatus according to the invention projects the first reference light so as to scan the virtual surface from the first starting point toward the virtual surface, and moves from the second starting point away from the first starting point toward the virtual surface. A light projecting system for projecting the second reference light so as to scan it, an imaging system for receiving the first and second reference lights reflected by the object and converting them into an electric signal, and the electric signal Based on signal processing means for detecting when each of the first and second reference light reflected by the object passes through each sampling section obtained by subdividing the virtual plane, and detected by the signal processing means It is a three-dimensional input device that outputs data corresponding to the projection angles of the first and second reference beams at each time point as position information of a plurality of parts in the object.
[0012]
  Claim5In the three-dimensional input device according to the invention, the light projecting system includes a first optical mechanism that projects the first reference light and a second optical mechanism that projects the second reference light.
[0013]
  Claim6In the three-dimensional input device of the invention, the light projecting system changes the projection start point by moving an optical mechanism for sequentially projecting the first and second reference lights and at least a part of the optical mechanism. Moving mechanism.
[0014]
  Claim7In the three-dimensional input device according to the invention, the first and second reference beams are slit beams, and the light projecting system scans the first and second reference beams in the first direction on the virtual plane. And the first reference light is projected so as to scan the virtual plane in a second direction orthogonal to the first direction.
[0015]
  Claim8In the three-dimensional input device according to the invention, the main point of image formation of the imaging system is a position between the first start point and the second start point.
  Claim9In the three-dimensional input device according to the invention, the principal point of image formation of the imaging system is a position equidistant with respect to both the first and second starting points.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a functional block diagram of a three-dimensional input device 1 according to the first embodiment.
The three-dimensional input device 1 includes a light projecting system 10 including two light projecting mechanisms 11 and 16 and an imaging system 20 capable of zooming and focusing, and is controlled by a CPU 31.
[0017]
The light projecting mechanism 11 includes a semiconductor laser 12 as a light source, a lens group 13 for projecting slit light, and a galvanometer mirror 14 as beam deflecting means for changing the projection angle. The lens group 13 includes a collimator lens and a cylindrical lens. Similarly, the light projecting mechanism 16 includes a semiconductor laser 17, a lens group 18, and a galvano mirror 19. The galvanometer mirrors 14 and 19 are supplied with deflection control signals from the light projection control circuit 32 via the D / A converters 33 and 34.
[0018]
The imaging system 20 includes a light receiving lens 21, a beam splitter 22, an image sensor 24 for obtaining a distance image representing the shape of the object Q, a monitor color image sensor 25, and a lens driving mechanism 26. The beam splitter 22 separates light in the emission wavelength range (for example, center wavelength 670 nm) of the semiconductor lasers 12 and 17 from visible light. The image sensor 24 and the color image sensor 25 are CCD area sensors. However, a CMOS area sensor may be used as the color image sensor 25. The output of the image sensor 24 is converted into received light data D35 by the A / D converter 35 and sequentially transferred to the memory circuit 37. The memory circuit 37 stores data (TA, TB) for specifying projection angles θA, θB, which will be described later, according to the value of the light reception data D35. The output of the color image sensor 25 is converted into received light data by the A / D converter 36 and is sequentially stored by the color image memory 38. The memory control circuit 39 is responsible for addressing the memory circuit 37 and the color image memory 38.
[0019]
The CPU 31 gives an instruction to the control target in a timely manner, and performs calculation to read out data from the memory circuit 37 and obtain distance image data. The distance image data is output to an external device (not shown) as three-dimensional input data in a timely manner. At this time, a two-dimensional color image stored in the color image memory 38 is also output. Examples of the external device include a computer, a display, and a storage device.
[0020]
FIG. 2 is a schematic diagram of projection, and FIG. 3 is a diagram for explaining how to generate distance image data.
The three-dimensional input device 1 projects the slit light U1 so as to scan the virtual surface VS with the point on the reflection surface of the galvanomirror 14 as the starting point A, and the virtual point with the point on the reflection surface of the galvanomirror 19 as the starting point B. The slit light U2 is projected so as to scan the surface VS. The virtual plane VS corresponds to a cross section orthogonal to the depth direction of a space (range within the angle of view) that can be imaged by the image sensor 24. A range corresponding to each pixel g in the image sensor 24 in the virtual plane VS is a sampling section for three-dimensional input. In FIG. 2, the starting point A, the starting point B, and the light receiving principal point C are arranged on a straight line. Here, the starting points A and B are aligned along the vertical direction, and the slit length direction of the slit light beams U1 and U2 is the horizontal direction.
[0021]
The outline of the three-dimensional input of the object Q is as follows.
The deflection angle of the galvanometer mirror 14 is controlled in synchronization with the imaging of the frame period by the image sensor 24. Then, it is detected at which point in time the projection of the slit light U1 that is being deflected by each pixel of the image sensor 24 is illuminated. The object projected with the slit light U1 is imaged by the image sensor 24, and the pixel g in the i column and the j row among the I × J pixels g.ijNote the output of pixel gijWhen the slit light U1 passes through the point P corresponding to, the output becomes the maximum value. That is, pixel gijThe point P exists on the plane specified by the projection angle θA (see FIG. 3) of the slit light U1 at the time TA at which the output of shows a peak and the spatial coordinates of the starting point A. Similarly, when the projection from the starting point B is performed, the pixel gijSince the point P exists on the plane specified by the projection angle θB of the slit light U2 and the spatial coordinates of the starting point B at the time TB at which the output becomes the maximum, the point P is on the intersection of these two planes. The existence of Therefore, based on the projection angles θA and θB and the base length L, the distance D in the depth direction between the base line passing through the starting points A and B and the point P can be calculated by applying the principle of triangulation. , B and the point P in the vertical direction and the relative position in the depth direction can be specified.
[0022]
If the above processing is performed for each pixel g, the position information of the sampling points for the number of pixels for the object Q can be obtained. In the configuration of the present embodiment, the position in the horizontal direction is undetermined, but depending on the application of the three-dimensional input data, the depth information is important and the position in the horizontal direction may not be so important. If the approximate position in the horizontal direction is sufficient, it can be simply calculated from the pixel position. Further, if the slit light U1 is deflected in the horizontal direction as will be described later, the position in the horizontal direction can be accurately measured. Note that the starting points A and B have a one-to-one correspondence with the projection angle at an arbitrary point in time, although the position and the time change of the position differ depending on the configuration of the light projecting system 10. Therefore, it is sufficient for the calculation of the three-dimensional position that only the projection angle of the projection angle and the starting position can be detected.
[0023]
Next, pixel gijA specific configuration of a circuit for detecting the times TA and TB at which the output of the output becomes maximum will be described.
FIG. 4 is a block diagram of a first example of the memory circuit.
[0024]
The illustrated memory circuit 37 includes two memories 371 and 376, a comparator 377, and an index generator 378. The memory 371 has a memory bank 371A used for the first scan by the light projecting mechanism 11 and a memory bank 371B used for the second scan by the light projecting mechanism 16. Similarly, the memory 376 has two memory banks 376A and 376B.
[0025]
The light reception data D35 is input from the A / D converter 35 to the memory 371, and the frame number T is input from the index generator 378 to the memory 376. . The comparator 377 compares the received light data D35 of the t-th frame which is the latest input data for each pixel of the image sensor 24 with the received light data D35 previously written in the memory 371, and the latest received light data D35 is the previous data. If the received light data is larger than the received light data D35, writing to the memories 371 and 376 is permitted. In response to this, each of the memories 371 and 376 overwrites with the latest input data. When the comparison result is opposite, the previous stored contents are held in the memories 371 and 376. Therefore, at the time when each scan is completed, the memory 371 stores each pixel g.ijEach time the maximum value of the received light data D35 is stored, the memory 376 stores each pixel gijEvery time, the frame number T in which the light reception data D35 is maximum is stored. Since the imaging of each frame is performed at a constant cycle, the frame number T represents the time during the scanning period (elapsed time from the start of scanning). That is, the frame number T stored in the memory 376 corresponds to the above-described times TA and TB, and is information for specifying the projection angles θA and θB.
[0026]
According to this example, the projection angles θA and θB can be detected with a relatively simple circuit configuration. However, the resolution for detecting the projection angle depends on the pixel pitch of the image sensor 24. The following second example is intended to improve the resolution.
[0027]
FIG. 5 is a block diagram of a second example of the memory circuit, and FIG. 6 is a diagram showing the relationship between the luminance distribution on the imaging surface and the received light data. 5, elements corresponding to those in FIG. 4 are denoted by the same reference numerals as those in FIG.
[0028]
The memory circuit 37b of the second example is provided with four memories 372, 373, 374, and 375 of the same size in addition to the memory 371, with a total of four 1-frame delay memories 379a to 379d interposed therebetween. Data input to each of the memories 372 to 375 is configured to be delayed by one frame from the memory 371 in order. That is, in the memory circuit 37b, each pixel gijConsecutive five frames of received light data D35 are simultaneously stored. The comparator 377 compares the input and output of the third memory 373 whose input is delayed by 2 frames. When the input data value of the memory 373 is larger than the output data value (the previously written data value), writing to the memories 371 to 375 and the memory 376 is permitted.
[0029]
At the end of each scan, the memory 373 stores each pixel gijEvery time, the maximum value of the received light data D35 is stored. The memories 371, 372, 374, and 375 store the light reception data D35 of a total of four frames, two frames before, one before, one after, and two after the frame in which the light reception data D35 is maximum. become. The memory 376 stores each pixel gijEvery time, the frame number T in which the light reception data D35 is maximum is stored.
[0030]
Here, as shown in FIG. 6A, the width of the slit light image formed on the imaging surface is 5 pixels, and the luminance distribution is a single peak. At this time, one pixel gijWhen attention is paid to this, the received light data of the change corresponding to the luminance distribution is obtained as shown in FIG. Therefore, by calculating the center of gravity based on the received light data D35 for five frames stored in the memories 371 to 375, the times TA and TB can be calculated in finer steps than the frame period (that is, the pixel pitch). it can. In the example of FIG. 6B, the time TA (TB) is between the t-th sampling time and the (t + 1) -th sampling time.
[0031]
According to the second example, the resolution is improved, but there is a problem that a desired accuracy cannot be obtained depending on the luminance distribution. That is, in actual imaging, some noise is added to the imaging due to the characteristics of the optical system. For this reason, a plurality of peaks occur in the luminance distribution, or the luminance distribution is flat and unclear. If the luminance distribution deviates greatly from the ideal shape, the reliability of the centroid calculation decreases.
[0032]
The effect of such noise is that the calculation of the center of gravity is performed based on the luminance distribution over a sufficiently long period rather than the short period of time when the frame where the maximum luminance value is obtained and the several frames before and after it are combined. Can be reduced. This is achieved by the third example below.
[0033]
FIG. 7 is a block diagram of a third example of the memory circuit, and FIG. 8 is a conceptual diagram of the center of gravity according to FIG.
The memory circuit 37c of the third example includes a memory 3710, a stationary light data storage unit 3720, a subtraction unit 3730, a first addition unit 3740, a second addition unit 3750, and a division unit 3760, and each pixel gijThe center of gravity (temporal center of gravity) is calculated based on the received light data D35 for the number of frames every time.
[0034]
The memory 3710 has two banks, and stores light reception data D35 of a predetermined number k of frames obtained by the first and second scans performed in order. Each pixel gijX is the received light data value of the Tth (T = 1 to k) frame.TIt expresses. The steady light data storage unit 3720 stores steady light data representing unnecessary incident light amounts other than the slit lights U1 and U2. The steady light data is calculated based on the received light data D35 when the slit lights U1 and U2 are not incident. The value s may be a predetermined fixed value or may be obtained in real time using the received light data D35. In the case of a fixed value, when the received light data D35 is 8 bits (256 gradations), for example, “5” “6” or “10” is set. The subtracting unit 3730 receives the value x of the received light data D35 read from the memory 3710.TThe value s of the stationary light data is subtracted from Here, the value of the output data from the subtracting unit 3730 is changed to XTAnd The first addition unit 3740 includes a pixel gijFor each of the k received light data D35, each value XTIs multiplied by the corresponding frame number T, and the total value of the obtained products is output. The second addition unit 3750 is connected to the pixel gijK values of received light data D35 for each value XTOutput the sum of. Division unit 3760 divides the output value of first addition unit 3740 by the output value of second addition unit 3750, and outputs the obtained center of gravity as time TA (or TB).
[0035]
FIG. 9 is a diagram illustrating a setting example of the positional relationship between the light projection start point and the light receiving main point.
In the arrangement of the light projecting system 10 and the imaging system 20, it is not always necessary to have a configuration as shown in FIG. 9A or 9B in which the light projection starting points A and B and the light receiving principal point C are aligned. . For example, the configuration shown in FIG. 9C in which three points are arranged in an L shape when viewed from the object side, or the configuration in FIG. 9D arranged in a T shape may be adopted. In particular, if the main point C is arranged between the starting point A and the starting point B as shown in FIG. 9B or 9D, the occlusion that occurs due to the different positions of the starting points A and B can be reduced. . In this case, it is preferable to make the distance d between the main point C and the starting points A and B equal.
[0036]
FIG. 10 is a functional block diagram of the three-dimensional input device 2 according to the second embodiment. In FIG. 10 and each of the following drawings, the functions of the constituent elements denoted by the same reference numerals as those in FIG.
[0037]
The configuration of the three-dimensional input device 2 is the same as that of the three-dimensional input device 1 of FIG. 1 except for the light projecting system 10b and the part related to the control thereof. In the three-dimensional input device 2, the light projecting system 10 b includes a light projecting mechanism 11 and a moving mechanism 110 that translates the light projecting mechanism 11. By moving the light projecting mechanism 11 while maintaining the positional relationship of the semiconductor laser 12, the lens group 13, and the galvanometer mirror 14, the slit light starts from two points separated from each other, as in the case of providing two light projecting mechanisms. U1 and U2 can be projected. Instead of moving the light projecting mechanism 11, it is also possible to provide a mirror so as to be retractable in the optical path and change the starting point.
[0038]
FIG. 11 is a functional block diagram of the three-dimensional input device 3 according to the third embodiment.
In the third embodiment, spot light V1 and V2 having a beam cross section are projected instead of slit light, and imaging is performed using a one-dimensional image sensor (line sensor) 27.
[0039]
The three-dimensional input device 3 includes a light projecting system 10c composed of two light projecting mechanisms 11c and 16c, and an imaging system 20c capable of zooming and focusing. The light projecting mechanism 11 includes a semiconductor laser 12, a collimator lens 13c, and a galvanometer mirror 14c. Similarly, the light projecting mechanism 16c includes a semiconductor laser 17, a collimator lens 18c, and a galvanometer mirror 19c.
[0040]
The imaging system 20c includes a light receiving lens 21, a lens driving mechanism 26, an infrared cut filter F1, a band pass filter F2, a filter switching mechanism 28, and an image sensor 27 that is used for both three-dimensional input and monitor photographing. The image sensor 27 is a 3-line CCD sensor having pixel columns corresponding to RGB colors. An infrared cut filter F1 is used for monitor photographing. In the case of three-dimensional input, a band pass filter F2 that transmits light in the laser wavelength region is used, and only the output of the R pixel column of the image sensor 27 is used as light reception information.
[0041]
Also in the case of using the spot lights V1 and V2, the position of the point P on the object Q can be calculated by detecting the times TA and TB. Since the principle is the same as that in the case of using the slit lights U1 and U2, the description thereof is omitted here.
[0042]
FIG. 12 is a functional block diagram of the three-dimensional input device 4 according to the fourth embodiment, and FIG. 13 is a schematic diagram of projection according to FIG.
In the fourth embodiment, scanning in the horizontal direction by the slit light U1 is enabled, and the horizontal position of the point P on the object Q can be accurately specified.
[0043]
The configuration of the three-dimensional input device 4 is the same as that of the three-dimensional input device 1 of FIG. The light projecting system 10d of the three-dimensional input device 4 includes two light projecting mechanisms 11 and 16 and a rotating mechanism 120 for switching the deflection direction of the light projecting mechanism 11 between a vertical direction and a horizontal direction. . By rotating the light projecting mechanism 11 by 90 ° while maintaining the positional relationship among the semiconductor laser 12, the lens group 13, and the galvanometer mirror 14, scanning in the horizontal direction becomes possible.
[0044]
In the three-dimensional input device 4, the light projecting mechanism 11 is rotated about the starting point A by 90 ° following the scanning for detecting the time (center of time) TA and TB by deflecting the slit light beams U 1 and U 2 in the vertical direction. Thus, horizontal scanning with the slit light U3 is performed. In horizontal scanning, each pixel g is processed in the same manner as in the vertical direction.ijIs obtained as a time centroid (time) TC at which the output is maximized. The horizontal position of the point P is calculated by applying the triangulation method from the horizontal projection angle uniquely determined by the time center of gravity TC and the distance D obtained from the vertical projection angles θA and θB as described above. can do.
[0045]
FIG. 14 is a diagram showing a device configuration example that realizes omnidirectional input [FIG. 14A] and omnidirectional input [FIG. 14B] by rotation, and FIGS. 15 and 16 show omnidirectional input by a mirror (FIG. 15). FIG. 17 is a diagram illustrating a device configuration example that realizes all-around input (FIG. 16).
[0046]
The three-dimensional input device 5 of FIG. 14A includes an optical system 10e that performs light projection and imaging, and a turntable 45 that rotates with an object Q mounted thereon. The optical system 10e has a light receiving main point arranged between the light projection starting points, and is configured to switch a filter to perform three-dimensional input and color photographing with a single image sensor. When the turntable 45 scans the object Q from a certain direction to obtain the center of gravity, the turntable 45 rotates by a predetermined angle. By repeating the scanning by the optical system 10e and the rotation of the turntable 45 N times, three-dimensional input over an angular range of 360 ° at the maximum on the outer peripheral surface of the object Q is possible. The optical system 10e is provided with a memory capable of storing data for N times. Since it is the number of times of scanning data, the direction component can be obtained in the form of n × θ, so that three-dimensional position data in the space of the measurement object can be obtained. The object Q may be stationary and the optical system 10e may be rotated around the object Q.
[0047]
In the three-dimensional input device 6 of FIG. 14B, the optical system 10 e is attached on the turntable 46. If the three-dimensional input device 6 is used, omnidirectional three-dimensional input of the inner wall surface of an object having a cavity can be performed.
[0048]
FIG. 15 shows a configuration example of an omnidirectional three-dimensional measuring apparatus using a convex curved mirror 210. On the axis of the curved mirror 210, the imaging device (for example, video camera) 20f is arranged so that its optical axis coincides with the mirror axis. The curved mirror 210 has a shape that is axisymmetrical and has a curved surface that monotonously increases its inclination, such as a hyperboloid, for example. As a result, an image of the entire circumference around the axis in the range E in the drawing is taken into the imaging device 20f, except for a range in which the imaging system 20f and the optical system including the light projecting system are reflected.
[0049]
Further, a light projecting system 10 f including a light source 12, a lens 13 f, a scanning mirror 15, and a mirror rotating mechanism 130 is disposed on the axis of the curved mirror 210. The light emitted from the light source 12 is adjusted into a beam having an appropriate diameter by the lens 13f, reflected by the scanning mirror 15, and projected. The scanning mirror 15 can control the angle around the axis perpendicular to the axis of the curved mirror 210 (B in the figure), and deflects the projected beam as indicated by B 'in the figure. This is sub-scanning. For example, if a scanning mirror 15 with an angle control mechanism such as a galvano scanner is used, this sub-scanning can be realized.
[0050]
The mirror rotating mechanism 130 rotates the scanning mirror 15 during sub-scanning around the curved mirror axis alone or together with at least one of the lens 13f and the light source 12 (A in the figure). As a result, the beam scans the entire circumference around the curved mirror axis, that is, around the optical axis of the imaging device. This is referred to as main scanning.
[0051]
For one period of main scanning (one rotation in direction A), the angle of the scanning mirror 15 is changed by the resolution in the sub-scanning direction B. If this is repeated during one-way one sub-scan in the range B 'in the figure, the entire range around the curved mirror axis can be scanned with the beam in the range B'.
[0052]
One period of main scanning is set to be equal to or shorter than the exposure time of the imaging device 20f. The trajectory of the reflected light of the beam projected in all directions at the beam projection angle, that is, the deflection angle φ (direction B in the figure) of the scanning mirror 15 can be imaged. Each time an image is taken, the angle of the scanning mirror 15 is changed by the resolution in the sub-scanning direction B. While repeating this operation, the above-described center-of-gravity image A (a set of pixels indicating the time TA) is created.
[0053]
Thereafter, the moving mechanism 117 moves the position of the light projecting system 10f by a predetermined distance in the curved mirror axis direction (C in the figure), and creates the center-of-gravity image B (a set of pixels indicating the time TB) by the above-described operation. .
[0054]
Based on the principle of triangulation using the angular position of the scanning mirror 15 at each position of the light projection system with respect to each pixel and the distance moved by the light projection system 10f from the two gravity center images A and B, the vertical direction And the position in the depth direction. Further, the azimuth angle can be obtained from each pixel and the image center position (position corresponding to the curved mirror axis). Therefore, a three-dimensional position in space can be calculated for each pixel in the image.
[0055]
FIG. 16 shows a configuration example of an omnidirectional three-dimensional measuring apparatus using an inverted frustoconical curved mirror 220. A curved mirror 220 whose inner surface is a reflecting surface is arranged with its axis oriented in the vertical direction. The mirror shape can be expressed by the following equation, where the coordinate axis h is vertically upward, the mirror cross-sectional radius with respect to a certain height h is r, and the angle of the mirror surface with respect to the h axis is θm.
[0056]
r = h · tan θm + R
Here, R is the value of r for h = 0. It is assumed that an input target object Q (human body in the illustrated example) Q is placed therein. The imaging device 20g and the light projecting system 11g are arranged above the curved mirror 220 so that their optical axes coincide with the mirror axes. By appropriately setting the apex angle of the inverted truncated cone in the curved mirror 220, the distance from the imaging device 20g, and the angle of view of imaging, the imaging device 20g passes through the curved mirror 220 and the entire object Q except for the vicinity of the vertex. The image of the lap can be captured in one image. The light projecting system 11g can rotate the projection direction (M1 direction in the drawing) of the light beam with the axis of the mirror as the rotation axis. This is referred to as main scanning. At the same time, it is assumed that the projection angle θy of the light beam can be scanned in the vertical plane (M2 direction in the figure). This is sub-scanning. The scanning in the M1 direction can be realized by rotating part or all of the light projecting system 11g using a power source such as a motor. The change in the M2 direction can be easily performed by using a scanning device such as a galvano scanner. The light projecting system 11g has a size and a shape so that it falls within a circular area near the center where there is no reflecting surface of the mirror and is not involved in the input of three-dimensional information in the field of view of the imaging device 20g. And determine the installation position in the vertical direction.
[0057]
Assume that an image of a point P on the object Q is observed as a point Pi in the captured image. Since this three-dimensional input apparatus 8 is axially symmetric, for the sake of simplicity, the following description will be given focusing on a certain vertical section including the mirror axis with the azimuth angle fixed.
[0058]
Assume that the height of the projection start point of the light beam is h = hx, and the light beam reaches the point P from the path x through x ′ at a certain timing. With respect to the projection angle θx, the light beam follows the path x ′ expressed by the following expression after reflection through the path x.
[0059]
r = h · tan (θx + 2θm)
+ [Tan θx (hxtan θm + R)
−tan (θx + 2θm) (hxtanθx−R)] / (tanθm + tanθx)
A point P exists on this path x '.
[0060]
Further, it is assumed that the height of the projection start point of the light beam is h = hy and the light beam reaches the point P from the path y via y ′ at a certain timing. With respect to the projection angle θy, the light beam follows the path y ′ expressed by the following equation after reflection through the path y.
[0061]
r = h · tan (θy + 2θm)
+ [Tan θy (hytan θm + R)
−tan (θy + 2θm) (hytanθx−R)] / (tanθm + tanθy)
The point P exists on this path y ′.
[0062]
From the above, the position of point P (point Pi in the image) (depth position: r, vertical position: h) is determined as the intersection of path x 'and path y'. Therefore, the position of the point P can be calculated from the projection angles θx and θy of the light beam. Further, the azimuth angle can be obtained from the point Pi and the image center position (position corresponding to the curved mirror axis) in the image.
[0063]
Therefore, it is possible to calculate a three-dimensional position in space for each pixel in the image.
The process of three-dimensional input will be described although it is partly repeated. One period of the main scanning described above is set to be equal to or shorter than the exposure time of the imaging device 20f. The trajectory of the reflected light of the beam projected from all directions at the beam projection angle, that is, the deflection angle θ of the scanning mirror (direction M2 in the figure) can be imaged. Each time an image is taken, the angle of the scanning mirror is changed by the resolution in the sub-scanning direction. The center-of-gravity image A is created while repeating this operation. Thereafter, the position of the light projecting system 11g is moved by a predetermined distance in the curved mirror axis direction (M3 in the figure) by the moving mechanism 118, and the center of gravity image B is created by the above-described operation.
[0064]
The deviation angle of the scanning mirror at each position of the light projection system 11g with respect to each pixel is obtained from the two gravity center images A and B. Using these values and the distance moved by the projection system 11g, the positions in the vertical direction and the depth direction are obtained by the principle of triangulation. Further, the azimuth angle can be obtained from each element and the image center position (position corresponding to the curved mirror axis). Therefore, it is possible to calculate a three-dimensional position in space for each pixel in the image.
[0065]
【The invention's effect】
  Claims 1 to9According to the invention, when the three-dimensional input that does not depend on the incident angle information of the reference light is realized, the calculation for obtaining the incident angle information is unnecessary, and the accuracy of the incident angle information is lower than the projection angle information. The accuracy of the three-dimensional input data can be improved.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a three-dimensional input device according to a first embodiment.
FIG. 2 is a schematic diagram of projection.
FIG. 3 is a diagram for explaining how to generate distance image data;
FIG. 4 is a block diagram of a first example of a memory circuit.
FIG. 5 is a block diagram of a second example of the memory circuit.
FIG. 6 is a diagram illustrating a relationship between luminance distribution on the imaging surface and light reception data.
FIG. 7 is a block diagram of a third example of the memory circuit.
FIG. 8 is a conceptual diagram of the center of gravity according to FIG. 7;
FIG. 9 is a diagram illustrating a setting example of a positional relationship between a light projection start point and a light receiving main point.
FIG. 10 is a functional block diagram of a three-dimensional input device 2 according to the second embodiment.
FIG. 11 is a functional block diagram of a three-dimensional input device 3 according to a third embodiment.
FIG. 12 is a functional block diagram of a three-dimensional input device 4 according to a fourth embodiment.
13 is a schematic diagram of projection according to FIG. 12. FIG.
FIG. 14 is a diagram illustrating an example of a device configuration that realizes omnidirectional input or omnidirectional input by rotation.
FIG. 15 is a diagram illustrating a configuration example of an apparatus for realizing omnidirectional input by a mirror.
FIG. 16 is a diagram illustrating a configuration example of an apparatus that realizes all-around input using a mirror.
[Explanation of symbols]
1-8 3D input device
A, B starting point
P point (specific part on the object)
U1, U2 Reference light
L Baseline length (distance between starting points)
VS virtual plane
TA, TB time (when passing through the sampling section)
θA, θB Projection angle
10 Flood light system
20 Imaging system
37 Memory circuit (signal processing means)
11 Projection mechanism (first optical mechanism)
16 Light projection mechanism (second optical mechanism)
110 Movement mechanism

Claims (9)

第1の起点から物体上の測定部位を通過するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記測定部位を通過するように第2の参照光を投射し、
前記第1及び第2の参照光の前記測定部位からの反射光を前記第1及び第2の起点とは別の位置で受光し、
前記第1の参照光が前記測定部位を通過するときの当該第1の参照光の投射角度と前記第2の参照光が前記測定部位を通過するときの当該第2の参照光の投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記測定部位の位置を算出する
ことを特徴とする3次元入力方法。
The first reference light is projected from the first starting point so as to pass through the measurement site on the object, and the second reference is provided so as to pass through the measurement site from the second starting point that is separated from the first starting point. Project light,
The reflected light from the measurement site of the first and second reference light is received at a position different from the first and second starting points,
The projection angle of the first reference light when the first reference light passes through the measurement site and the projection angle of the second reference light when the second reference light passes through the measurement site The three-dimensional input method, wherein the position of the measurement site is calculated based on the distance between the first and second starting points.
第1の起点から物体上の測定部位を通過するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記測定部位を通過するように第2の参照光を投射し、
前記第1及び第2の参照光の前記測定部位からの反射光を共通の位置で受光し、
前記第1の参照光が前記測定部位を通過するときの当該第1の参照光の投射角度と前記第2の参照光が前記測定部位を通過するときの当該第2の参照光の投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記測定部位の位置を算出する
ことを特徴とする3次元入力方法。
The first reference light is projected from the first starting point so as to pass through the measurement site on the object, and the second reference is provided so as to pass through the measurement site from the second starting point that is separated from the first starting point. Project light,
The reflected light from the measurement site of the first and second reference light is received at a common position,
The projection angle of the first reference light when the first reference light passes through the measurement site and the projection angle of the second reference light when the second reference light passes through the measurement site The three-dimensional input method, wherein the position of the measurement site is calculated based on the distance between the first and second starting points.
第1の起点から仮想面に向かってそれを走査するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記仮想面に向かってそれを走査するように第2の参照光を投射し、
物体で反射した前記第1及び第2の参照光のそれぞれが前記仮想面を細分化した各サンプリング区画を通過する時点を検出し、
検出した各時点における前記第1及び第2の参照光のそれぞれの投射角度と前記第1及び第2の起点の間の距離とに基づいて、前記各サンプリング区画毎に前記物体の位置を算出する
ことを特徴とする3次元入力方法。
The first reference light is projected so as to scan the virtual surface from the first starting point, and is scanned from the second starting point away from the first starting point toward the virtual surface. Project a second reference beam to
Detecting when each of the first and second reference beams reflected by the object passes through each sampling section obtained by subdividing the virtual plane;
The position of the object is calculated for each sampling section based on the respective projection angles of the first and second reference lights at each detected time point and the distance between the first and second starting points. A three-dimensional input method characterized by the above.
第1の起点から仮想面に向かってそれを走査するように第1の参照光を投射するとともに、前記第1の起点と離れた第2の起点から前記仮想面に向かってそれを走査するように第2の参照光を投射する投光系と、
物体で反射した前記第1及び第2の参照光を受光して電気信号に変換する撮像系と、
前記電気信号に基づいて、物体で反射した前記第1及び第2の参照光のそれぞれが前記仮想面を細分化した各サンプリング区画を通過する時点を検出する信号処理手段とを備え、
前記信号処理手段の検出した各時点における前記第1及び第2の参照光のそれぞれの投射角度に応じたデータを、前記物体における複数の部位の位置情報として出力する
ことを特徴とする3次元入力装置。
The first reference light is projected so as to scan the virtual surface from the first starting point, and is scanned from the second starting point away from the first starting point toward the virtual surface. A light projecting system for projecting the second reference light to
An imaging system that receives the first and second reference lights reflected by the object and converts them into electrical signals;
Signal processing means for detecting when each of the first and second reference beams reflected by an object passes through each sampling section obtained by subdividing the virtual plane based on the electrical signal;
Data corresponding to the projection angles of the first and second reference lights at each time point detected by the signal processing means is output as position information of a plurality of parts in the object. apparatus.
前記投光系は、前記第1の参照光を投射する第1光学機構と、前記第2の参照光を投射する第2光学機構とを有する
請求項記載の3次元入力装置。
The three-dimensional input device according to claim 4 , wherein the light projecting system includes a first optical mechanism that projects the first reference light and a second optical mechanism that projects the second reference light.
前記投光系は、前記第1及び第2の参照光を順に投射するための光学機構と、前記光学機構の少なくとも一部を移動させて投射の起点を変更する移動機構とを有する
請求項記載の3次元入力装置。
The light projection system, according to claim 4 and a moving mechanism for changing the optical mechanism for projecting the first and second reference light in order, the starting point of the projection by moving at least a portion of said optical mechanism The three-dimensional input device described.
前記第1及び第2の参照光はスリット光であり、
前記投光系は、前記第1及び第2の参照光を前記仮想面を第1方向に走査するように投射するとともに、前記第1の参照光を前記仮想面を前記第1方向と直交する第2方向に走査するように投射する
請求項乃至請求項のいずれかに記載の3次元入力装置。
The first and second reference lights are slit lights,
The light projecting system projects the first and second reference lights so as to scan the virtual surface in a first direction, and the first reference light is orthogonal to the first direction. 3D input device according to any one of claims 4 to 6 projects so as to scan in the second direction.
前記撮像系の結像の主点は、前記第1の起点と前記第2の起点との間の位置である
請求項乃至請求項のいずれかに記載の3次元入力装置。
Principal point of the imaging of the imaging system, three-dimensional input device according to any one of claims 4 to 7 which is located between said second starting point and said first starting point.
前記撮像系の結像の主点は、前記第1及び第2の起点の双方に対して等距離の位置である
請求項記載の3次元入力装置。
The three-dimensional input device according to claim 8 , wherein a principal point of image formation of the imaging system is a position equidistant with respect to both the first and second starting points.
JP25786998A 1998-09-11 1998-09-11 3D input method and 3D input device Expired - Fee Related JP3695169B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25786998A JP3695169B2 (en) 1998-09-11 1998-09-11 3D input method and 3D input device
US09/393,384 US6556307B1 (en) 1998-09-11 1999-09-10 Method and apparatus for inputting three-dimensional data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25786998A JP3695169B2 (en) 1998-09-11 1998-09-11 3D input method and 3D input device

Publications (2)

Publication Number Publication Date
JP2000088538A JP2000088538A (en) 2000-03-31
JP3695169B2 true JP3695169B2 (en) 2005-09-14

Family

ID=17312314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25786998A Expired - Fee Related JP3695169B2 (en) 1998-09-11 1998-09-11 3D input method and 3D input device

Country Status (1)

Country Link
JP (1) JP3695169B2 (en)

Also Published As

Publication number Publication date
JP2000088538A (en) 2000-03-31

Similar Documents

Publication Publication Date Title
US11105617B2 (en) Hybrid light measurement method for measuring three-dimensional profile
AU2021200905B2 (en) Synchronized spinning lidar and rolling shutter camera system
US10917626B2 (en) Active illumination 3D imaging system
US6600168B1 (en) High speed laser three-dimensional imager
US5621529A (en) Apparatus and method for projecting laser pattern with reduced speckle noise
US7551771B2 (en) Methods, systems, and computer program products for acquiring three-dimensional range information
US20020054297A1 (en) Three dimensional scanning system
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
US6204916B1 (en) Three dimensional information measurement method and apparatus
JPH0816608B2 (en) Shape measuring device
NL8000561A (en) METHOD FOR MEASURING DISTANCES AND AN APPARATUS FOR CARRYING OUT THE METHOD
JP3991501B2 (en) 3D input device
US6788807B1 (en) Three dimensional information measurement method and apparatus
JP3941631B2 (en) Three-dimensional imaging apparatus and method
Choudhury et al. Simultaneous enhancement of scanning area and imaging speed for a MEMS mirror based high resolution LiDAR
JP3695169B2 (en) 3D input method and 3D input device
JP4787012B2 (en) Cross-sectional shape measuring apparatus and cross-sectional shape measuring method
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JPH05322526A (en) Three dimensional form measuring apparatus
US6411918B1 (en) Method and apparatus for inputting three-dimensional data
JPH11218409A (en) Three-dimensional information measuring method and equipment
JP3360505B2 (en) Three-dimensional measuring method and device
JP3307873B2 (en) Image measuring device and its control device
JP4850523B2 (en) Confocal microscope
JPH09145320A (en) Three-dimensional input camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041207

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050620

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080708

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100708

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130708

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees