JP4306006B2 - Three-dimensional data input method and apparatus - Google Patents

Three-dimensional data input method and apparatus Download PDF

Info

Publication number
JP4306006B2
JP4306006B2 JP08755299A JP8755299A JP4306006B2 JP 4306006 B2 JP4306006 B2 JP 4306006B2 JP 08755299 A JP08755299 A JP 08755299A JP 8755299 A JP8755299 A JP 8755299A JP 4306006 B2 JP4306006 B2 JP 4306006B2
Authority
JP
Japan
Prior art keywords
image
subject
dimensional data
dimensional
guide image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08755299A
Other languages
Japanese (ja)
Other versions
JP2000283720A (en
Inventor
佳子 坂川
英郎 藤井
光一 塩野
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP08755299A priority Critical patent/JP4306006B2/en
Priority to US09/536,686 priority patent/US7046838B1/en
Publication of JP2000283720A publication Critical patent/JP2000283720A/en
Application granted granted Critical
Publication of JP4306006B2 publication Critical patent/JP4306006B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、被写体の3次元データを入力するための3次元データ入力方法及び装置に関する。
【0002】
【従来の技術】
光学式の3次元データ入力装置(3次元カメラ)は、接触型に比べて高速の計測が可能であることから、CGシステムやCADシステムへのデータ入力、身体計測、ロボットの視覚認識などに利用されている。このような3次元データ入力装置に好適な計測方法としてスリット光投影法(光切断法ともいう)が知られている。
【0003】
図8はスリット光投影法を適用した3次元カメラ80の入力原理を示す図である。
図8において、3次元カメラ80は、投光部81と受光部82とを有する。投光部81は、断面が直線状のスリット光Sを照射する。受光部82は、撮像面83及び図示しない結像レンズを有する。投光部81と受光部82とは、通常、互いに所定の寸法だけ離れた状態で、1つのハウジングに一体的に組み込まれている。
【0004】
被写体Q1は、投光部81からのスリット光Sによって照射され、その反射光が撮像面83上でスリット像として捕らえられる。このスリット像における1つの点p' に対応する被写体Q1上の点pの空間座標は、スリット光Sによって形成される平面と、点p' 及び結像レンズの中心点Oを結ぶ直線Lとの交点の座標として求められる。したがって、スリット光Sで得られた1枚のスリット像から、このスリット像上の各点に対応した被写体Q1の表面の点群の空間座標が求められる。スリット光Sを水平方向に移動させることで被写体Q1を走査し、各走査位置でのスリット像を入力することで被写体Q1の表側部分、つまりスリット光Sの照射を受けた部分の3次元データが入力される。
【0005】
被写体Q1の全周における3次元データを得たい場合には、被写体Q1について複数方向から入力することが必要となる。そのための方法として2つの方法が知られている。第1の方法では、3次元カメラ80を、その撮影方向が被写体Q1に向いた状態で被写体Q1を中心とした所定の軌道上を移動させ、被写体Q1に対して複数方向から撮影を行う。第2の方法では、回転ステージに被写体Q1を載せて回転させ、所定位置に設置した3次元カメラ80により、被写体Q1に対して複数方向から撮影を行う。
【0006】
複数方向から入力された被写体Q1の3次元データは、3次元カメラ80の移動する軌道上における位置、又は回転ステージの位置に基づいて算出された変換パラメータにより、それぞれ位置合わせの処理が行われる。これにより、被写体Q1の全周における3次元デ−タが得られる。
【0007】
しかし、上述した方法では、位置合わせの精度を向上するために、3次元カメラ80の位置又は回転ステージの角度位置を高精度に検出する必要があり、コスト高となる。
【0008】
しかも、3次元カメラ80を移動装置などにセットすることとなるため、3次元カメラ80を手に持って撮影することができない。そのため、入力を行うことのできる被写体が制限される。つまり、例えば、既設の石像又は銅像などのように移動できない被写体は、この方法によっては3次元デ−タの入力ができない。
【0009】
このような問題を解決するために、特開平9−5051号公報に記載の装置が提案されている。この従来の装置によると、被写体Q1を任意の複数方向から撮影し、3次元デ−タの入力を行う。入力を行った後、複数方向から入力された3次元形状、及び、それらと同時に同一の視野から入力され且つ3次元データとの対応付けがなされているカラー画像を表示する。ユーザは、表示されたカラー画像を見ながら、それらの3次元形状における互いの対応点を色の変化などに基づいて手動で指定する。ユーザにより指定された対応点に基づいて、入力された3次元データの相互間の位置合わせが行われる。
【0010】
【発明が解決しようとする課題】
しかし、上に述べた従来の装置によると、複数の3次元データの相互間の位置合わせのために、ユーザが対応点を指定する作業を行う必要があり、その作業が極めて面倒である。
【0011】
また、3次元デ−タの入力を行う際には、被写体Q1の全周について旨く撮影が行われたか否かを確認する方法がない。そのため、複数の3次元データが適切な重なりを持って連続していなかったり、データが不足する場合には、3次元データの相互間の対応点を旨くとることができない。そのような場合には、3次元データの相互間の位置合わせの精度が低下したり、酷い場合には撮影をやり直す必要がある。
【0012】
本発明は、上述の問題に鑑みてなされたもので、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することを可能とする3次元データ入力方法及び装置を提供することを目的とする。
【0013】
請求項1に係る3次元データ入力方法は、図5及び図6に示すように、被写体Qを確認するためのモニタ画面21を有し、撮影により前記被写体Qを撮影することによって前記被写体Qの3次元データの入力を行うように構成された3次元データ入力装置2における3次元データ入力方法であって、前記被写体Qの一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成し、前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示し、その際に、前記案内画像GPを、次の撮影時の視点方向からの画像に変換して表示し、前記案内画像GPと前記被写体Qの画像QPのうち前記案内画像GPに対応する画像とが重なるようにフレーミングを行い、前記フレーミングがなされた状態で前記被写体Qの次の撮影を行う。
【0014】
請求項2に係る3次元データ入力装置は、図2乃至図6に示すように、被写体Qを確認するためのモニタ画面21を有し、前記被写体Qを撮影することによって前記被写体Qの3次元データの入力を行うように構成された3次元データ入力装置2であって、撮影により前記被写体Qの一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成する3次元形状モデル画像生成手段73と、前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示させる表示指示手段76と、前記案内画像GPを表示する際に、当該案内画像GPを次の撮影時の視点方向からの画像に変換する手段と、フレーミングがなされた被写体Qを次に撮影することによって入力される3次元データを記憶する記憶手段63と、を有する。
【0015】
【発明の実施の形態】
図1は本発明に係る3次元カメラ2を用いた計測システム1の構成図、図2は3次元カメラ2の外観を示す図である。
【0016】
図1に示すように、計測システム1は、3次元カメラ2及びホスト3から構成される。
3次元カメラ2は、スリット光投影法によって立体計測を行う可搬型の3次元データ入力装置であり、入力対象となる被写体Qを撮影することにより、3次元データ(距離データ)を入力し、この3次元データに基づいて被写体Qの3次元形状を求めるための基となるデータを算出し出力する。
【0017】
ホスト3は、CPU3a、ディスプレイ3b、キーボード3c、及びマウス3dなどから構成されたコンピュータシステムである。3次元カメラ2とホスト3との間では、オンライン及び可搬型の記録メディア4によるオフラインの両方の形態のデータ受渡しが可能である。記録メディア4としては、光磁気ディスク(MO)、ミニディスク(MD)、メモリカードなどがある。
【0018】
ホスト3は、3次元カメラ2から送られた3次元データに基づいて、三角測量法を用いてサンプリング点の座標を求める演算処理や貼り合わせ処理(合成処理)などを行う。そのためのソフトウエアはCPU3aに組み込まれている。
【0019】
図2(a)に示すように、3次元カメラ2は、そのハウジング20の前面に投光窓20a及び受光窓20bを有する。投光窓20aは受光窓20bに対して上側に位置する。内部の光学ユニットOUが射出するスリット光(所定幅wの帯状のレーザビーム)Uは、投光窓20aを通って被写体Qに向かう。スリット光Uの長さ方向M1の放射角度φは固定である。被写体Qの表面で反射したスリット光Uの一部が受光窓20bを通って光学ユニットOUに入射する。なお、光学ユニットOUは、投光軸と受光軸との相対関係を適正化するための2軸調整機構を備えている。
【0020】
ハウジング20の上面には、ズーミングボタン25a,25b、手動フォーカシングボタン26a,26b、及びシャッターボタン27が設けられている。
また、図2(b)に示すように、ハウジング20の背面には、ファインダー21、カーソルボタン22、セレクトボタン23、キャンセルボタン24、アナログ出力端子32、ディジタル出力端子33、及び記録メディア4の着脱口30aが設けられている。
【0021】
ファインダー21は、液晶ディスプレイなどのモニタ画面を有した画像表示装置である。ファインダー21上には、モニタ画像QP及び本発明の特徴である案内画像GPが表示される。モニタ画像QP及び案内画像GPの詳細については後述する。また、各操作段階においてユーザが次に行うべき操作を文字や記号によって指示する操作手順情報、及び撮影した部分の3次元データが濃淡によって表現された距離画像(濃淡画像)が表示される。
【0022】
背面の各ボタン22〜24は、撮影モード等の設定を行うためのものである。
アナログ出力端子32からは、被写体Qの2次元画像信号が例えばNTSC形式で出力される。ディジタル出力端子33は例えばSCSI端子である。
【0023】
次に、3次元カメラ2の機能について説明する。
図3は3次元カメラ2の機能構成を示すブロック図である。図3における実線矢印は電気信号の流れを示し、破線矢印は光の流れを示している。
【0024】
図3に示すように、3次元カメラ2は、上述の光学ユニットOUを構成する投光側及び受光側の2つの光学系40,50を有している。光学系40において、半導体レーザ(LD)41が射出する波長685nmのレーザビームは、投光レンズ系42を通過することによってスリット光Uとなり、ガルバノミラー(走査手段)43によって偏向される。半導体レーザ41のドライバ44、投光レンズ系42の駆動系45、及びガルバノミラー43の駆動系46は、システムコントローラ61によって制御される。
【0025】
光学系50において、ズームユニット51によって集光された光はビームスプリッタ52によって分光される。
半導体レーザ41の発振波長帯域の光は、計測用センサ53に入射する。可視帯域の光は、モニタ用カラーセンサ54に入射する。計測用センサ53及びモニタ用カラーセンサ54は、どちらもCCDエリアセンサである。計測用センサ53及びモニタ用カラーセンサ54は、それぞれ、被写体Qの撮影情報又は撮像情報を電気信号として出力する。
【0026】
ズームユニット51は内焦型であり、図示しないズームレンズが設けられている。このズームレンズを長焦点側と短焦点側との間で撮影方向に沿って移動することにより、3次元データを様々な解像度で入力することができる。また、入射光の一部がオートフォーカシング(AF)に利用される。AF機能は、AFセンサ57、レンズコントローラ58、及びフォーカシング駆動系59によって実現される。ズーミング駆動系60は電動ズーミングのために設けられている。
【0027】
次に、3次元カメラ2における電気信号の主な流れについて説明する。
まず、計測用センサ53による撮影情報は、ドライバ55からのクロックに同期して出力処理回路62へ転送される。出力処理回路62は、計測用センサ53の出力する各画素の光電変換信号を増幅する増幅器、及び光電変換信号を8ビットの受光データに変換するAD変換部を有している。出力処理回路62で得られた受光データはメモリ63によって一時的に記憶された後、重心演算回路73へ送られる。その際のアドレス指定はメモリ制御回路63Aが行う。重心演算回路73は、入力された受光データに基づいて3次元形状を算出するための基となるデータを算出し、それを出力用メモリ64に出力する。出力用メモリ64に格納されたデータは、SCSIコントローラ66を介してディジタル出力端子33から出力され、又は記録メディア4に出力される。
【0028】
また、重心演算回路73は、被写体Qの形状に対応した3次元データである被写体形状データTDを生成し、それを表示用メモリ74に出力する。表示用メモリ74に格納された被写体形状データTDは、表示制御部76によって後述する画像処理などが施された後、案内画像GPとしてファインダー21上に表示される。
【0029】
一方、モニタ用カラーセンサ54による撮像情報は、ドライバ56からのクロックに同期してカラー処理回路67へ転送される。カラー処理を受けた撮像情報は、NTSC変換回路70及びアナログ出力端子32を経てオンライン出力され、又はディジタル画像生成部68で量子化されてカラー画像メモリ69に格納される。カラー画像メモリ69に格納された撮像情報は、SCSIコントローラ66を介した後、ディジタル出力端子33からオンライン出力され又は記録メディア4に書き込まれる。撮像情報は、また、表示制御部76を介してファインダー21上にモニタ画像QPとして表示される。
【0030】
システムコントローラ61は、表示制御部76に対して、ファインダー21上に操作手順情報を表示するための指示を与える。なお、被写体形状データTDを生成するための光学系40,50から重心演算回路73に至るまでの回路、表示用メモリ74、カラー画像メモリ69、表示制御部76、システムコントローラ61、及びファインダー21は、重合わせ画像発生部7を構成する。
【0031】
以上のような構成及び機能を有する3次元カメラ2によって、被写体Qの全周又は所定範囲の3次元データが入力される。
図4は3次元カメラ2によって被写体Qの全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【0032】
図4(a)に示す方法は、ユーザが3次元カメラ2を被写体Qの周囲で移動させ、適応的に撮影条件を変更して入力を行う。図4(b)に示す方法は、被写体Qそれ自体を移動させながら、適応的に撮影条件を変更して入力を行う。また、3次元カメラ2を所定のアームに取り付け、このアームを移動させることで被写体Qを撮影する位置を変えるようにしてもよい。
【0033】
次に、モニタ画像QP及び案内画像GPについて説明する。
図5は重合わせ画像発生部7によるモニタ画像QP及び案内画像GPの生成の過程を説明するための図、図6はファインダー21上に表示された被写体Qのモニタ画像QP及び案内画像GPを示す図である。
【0034】
図5及び図6において、モニタ画像QPは、被写体Qのうちユーザが3次元カメラ2の視線を向けて3次元データを入力しようとしている部分をモニタするためのカラー画像であり、カラー画像メモリ69に格納された撮像情報から生成される。
【0035】
案内画像GPは、被写体Qの全周又は所定範囲の3次元データを入力する際に、被写体Qをどの位置からどのようにして撮影すべきかという情報をユーザに与える画像である。案内画像GPは、図5に示されるように、被写体形状データTDから生成される。
【0036】
ここで、被写体形状データTDは、被写体Qを入力した際の当該入力部分の3次元データである。本実施形態においては、兎の左半身が例として示されている。
【0037】
被写体形状データTDに対して、ワイヤーフレーム、シェ一ディング、テクスチャマッピング、又は色付けなどの処理が施される。色付けは、ワイヤーフレーム、シェ一ディング、又はテクスチャマッピング画像に対して、モニタ画像QPとの識別を行い易くするためになされる。色付けにより、例えば、青、緑、赤などの色となる。また、モニタ画像QPと案内画像GPの混合比を変えることにより、つまりオーバーラップしているこれら2つの画像の濃度の割合を任意に変えることにより、ユーザにとって最も見やすい状態とすることも可能である。これらの処理が施されることにより、案内画像GPとモニタ画像QPとの重ね合わせが容易となる。ユーザの希望に応じて、いずれの処理を施すかを選択することが可能である。本実施形態においては、テクスチャマッピングを施した例が示されている。
【0038】
ユーザは、案内画像GPが被写体を所望の位置から見たときの状態となるように、被写体形状データTDを回転(姿勢変化)させたり、ズーミングさせたりすることができる。これによって案内画像GPが変化する。ユーザはこの案内画像GPを参照して次の撮影位置を決めることができる。以降、案内画像GPをその表示形状によって他と区別する必要がある場合には、「GP1」「GP2」などのように末尾に数字を付して示す。
【0039】
これらのモニタ画像QP及び案内画像GPを用いて3次元データの入力を行う方法について、図5及び図6を参照して説明する。
ユーザは、まず、被写体Qを一方向から撮影する。ここでは、兎の左半身を右横から撮影する。撮影によって、兎の左半身の3次元データが得られる。得られた3次元データは、図6(a)に示すように、案内画像GP1としてファインダー21上に表示される。
【0040】
次に、ユーザは、例えば案内画像GP1(被写体形状データTD)を、上から見て右方向に回転させるように操作を行い、図6(b)に示すように、被写体を後方から見たときの状態である案内画像GP2を表示させる。このとき、被写体形状データTDの右側の端領域GPRがファインダー21上に表示されるようにしておく。1回目の撮影で得られた被写体形状データTDと、2回目の撮影で得られる被写体形状データTDとをつなぎ合わせるためののりしろを残しておくためである。なお、のりしろとなる端領域GPRの色を他の部分と異ならせておくと、ユーザが見やすくなる。
【0041】
次に、図6(c)に示すように、案内画像GP2とモニタ画像QPのうち案内画像GP2に対応する部分とが重なるようにフレーミングを行う。
なお、フレーミングに際しては、図4に示したように、3次元カメラ2を動かしてもよいし、被写体Qを動かしてもよい。ズーミングを行うことによって、又は3次元カメラ2を移動させることによって、様々な解像度で入力できる。例えば、顔などの精細なデータが必要な部分は高い解像度で入力し、これとは逆に背中などのあまり形状の変化が激しくない部分は低い解像度で入力することができる。これによって、不必要なデータの増大を防止できる。
【0042】
フレーミングを行った後で、シャッターボタン27を押して2回目の撮影を行う。ここでは、2回目は兎を後方から撮影する。
同様な操作によって、案内画像GP2を案内画像GP3、GP4…(図示せず)というように順次変更し、被写体の全周にわたって撮影を行う。これによって、被写体の全周の3次元データが入力される。
【0043】
なお、3回目以降の案内画像GP3、GP4…を生成するに当たって、例えば次の方法によることができる。
(1) 前回に撮影した画像から案内画像GPを生成する。
(2) これまでに撮影した全画像を使って案内画像GPを生成する。
(3) これまでに撮影した画像の中から任意の画像を選択し、その画像から案内画像GPを生成する。
【0044】
このように、順次になされる案内画像GPの変更は、ユーザの希望に応じて行う手動モード又は予プログラムによって決められた順序により行う自動モードのいずれでも可能である。手動モードを選択した場合には、マウスなどによって操作することも可能である。
【0045】
案内画像GPを参考にして入力を行うことにより、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができる。また、撮影された複数の3次元データは、位置合わせが容易であり、精度良く位置合わせを行うことが可能であるから、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することができる。
【0046】
図7は3次元データの入力動作及び処理を示すフローチャートである。
被写体に対し、適当な位置を第1の視点として撮影を行うことにより、第1の3次元データが入力される(#1)。第1の3次元データの入力時における座標系でファインダー表示用視点位置が決定される(#2)。第1の視点で、第1の3次元データに基づいた案内画像GP1が表示される(#3)。案内画像GP1は、自動的又はユーザの指定による回転やズーミングによって、案内画像GP2となる。次の視点である第2の視点から案内画像GP2とモニタ画像QPとを重ね合わせる(#4)。うまく重ね合わせができたら、第2の3次元データの入力を行う(#5)。第2の3次元データを、第1の3次元データの座標系に変換するためのパラメータを求める。ファインダー21上で重ね合わせて入力した3次元データはそれぞれの座標系のデータとなっており、これらの座標系の間で変換が必要となる。3次元データの位置合わせを行うということは、一方の座標系への変換を行うということになる。位置合わせを行う方法としては後述の2つの方法が可能である(#6)。求められたパラメータにより、第2の3次元データに対する座標変換が行われ(#7)、初期位置合わせが完了する(#8)。さらに高精度に位置合わせを行うために、ICPにて微調整を行う(#9)。
【0047】
なお、ICPとは、最も近い点を対応点として対応点間のトータル距離を最小にする方法である。ICPについては「A method of registration of 3−D shapes.」(P.Besl and N.McKay.著、IEEE Transactions on PatternAnalysis and Machine Intelligence,12(2):239〜256,1992.)を参照することができる。
【0048】
次に、(#6)で述べた位置合わせを行う2つの方法について説明する。
〔第1の位置合わせ方法〕
説明には次に示す各パラメータを用いる。
【0049】
Pt:案内画像GP作成時の視点位置
Vt:案内画像GP作成時の視線方向
Ut:案内画像GP作成時の上方向ベクトル
Ft:案内画像GP作成時の焦点距離
St:案内画像GP作成時の注視点までの距離
Fa:撮影した時の焦点距離
Sa:撮影距離
Pa:撮影した時の視点位置
Va:撮影した時の視線方向
Ua:撮影した時の上方向ベクトル
Pa’:座標変換後の視点位置
Va’:座標変換後の視線方向
Ua’:座標変換後の上方向ベクトル
ここに説明する方法では、撮影したときの視点位置Paを求めて位置合わせを行う。ファインダー21上に表示された案内画像GPを作成するときに視点位置Ptと視線方向Vtとが設定される。
【0050】
ファインダー21上で案内画像GPにモニタ画像QPを重ね合わせて被写体Qを撮影するときの視線方向Va及び視点位置Paは次のようになる。すなわち、視線方向Vaは視線方向Vtと同じ方向であり〔下記の(3)式〕、視点位置Paは視線方向Vtと同じ方向の前後に移動した位置となる。
【0051】
ここで、撮影したときのレンズ情報(焦点距離)が得られるため、像倍率が案内画像GPと同じになるように撮影距離Saを求めることにより、視線方向Va(=Vt)の前後の移動距離(St一Sa)が計算でき、下記の(4)式のように視点位置Paが求められる。すなわち、
Ft/St=Fa/Sa …(1)
であるから、撮影距離Saは次の(2)式のようになる。
【0052】
Sa=(Fa×St)/Ft …(2)
また、
Va=Vt,Ua=Ut …(3)
であるから、撮影したときの視点位置Paは次の(4)式のようになる。
【0053】
Pa=Pt+(St一Sa)×Vt …(4)
各方向から得られた3次元データを視点位置Paに基づいて平行移動させ、視線方向Vaに基づいて回転移動させることで、案内画像GPを作成したもとの3次元データの座標系へ変換することが可能となる。もとの3次元データの座標系へ変換する座標変換のための平行移動量Tは次の(5)式のようになる。
【0054】
T=Pa’−Pa …(5)
座標変換後の視線方向Va’及び座標変換後の上方向ベクトルUa’は、回転マトリックスをRとすると、Va,Uaを用いて、それぞれ次の(6)(7)式のように表される。
【0055】
Va’=R×Va …(6)
Ua’=R×Ua …(7)
平行移動量T及び回転マトリックスRによって各方向から得られた3次元データをもとの3次元データの座標系でのデータに変換することで位置合わせが行われる。
【0056】
重ね合わせを行うことで3次元カメラ2と被写体Qとの相対的な移動量が求められる。複数位置から入力した3次元データを、この移動量に基づいて、初めに撮影したときの座標系におけるデータに変換する。これにより、位置合わせが行える。
【0057】
上述したように、複数位置から入力された3次元データは、モニタ画像QPと案内画像GPとの重ね合わせにより、精度良く位置合わせが行われた状態で入力されている。したがって、事後的に位置合わせを行う必要がなく楽である。
【0058】
このように精度良く位置合わせが行われた複数位置からの3次元データに基づいて、ホスト3で貼り合わせ処理が行われる。したがって、ホスト3での貼り合わせ処理が高速に且つ高精度で行える。
〔第2の位置合わせ方法〕
この方法では、3次元データの重なり部分が既知であることを利用して位置合わせを行なう。
【0059】
説明には次に示す各パラメータを用いる。
Pti:最初に撮影されたデータの対応点
Pai:ファインダー上で位置合わせして撮影したデータの対応点
T:平行移動量
R:回転移動を示す回転マトリックス
ファインダー21上で重なったエリア内の点群に対し、この2次元画像上で最も近い点を対応点とする。この対応点の3次元上での距離が最小になるような座標変換を行うことにより位置合わせが行われる。対応点の距離が最小になる座標変換は、対応点の重心位置が一致するように平行移動量を決定し、次に回転移動を最小2乗法などを用いて求めることができる。その際に、次に示す(8)(9)式を用いる。
【0060】
【数1】

Figure 0004306006
【0061】
回転マトリックスRはJを最小にするように決定する。
【0062】
【数2】
Figure 0004306006
【0063】
この計算方法については、文献「Faugeras and Hebert,1986 O.Faugeras and M.Hebert.The representation,recognition and locati ngof 3−D objects.Internatinoal Journal of Robotics Research 5(3):27−52,1986.」を参照することができる。
【0064】
以上のようにして求められた平行移動量T及び回転マトリックスRを用いて第2の3次元データの各点Piの座標変換を次の(10)式により行う。
P’i=R×(Pi一T) …(10)
上述の座標変換を行なうことにより、第1の3次元データと第2の3次元データとの位置合わせが可能となる。
【0065】
上述の実施形態において、案内画像GP及びモニタ画像QPを3次元カメラ2と一体となったファインダー21上に表示させたが、3次元カメラ2と別体化したファインダーやホスト3におけるディスプレイ3bに表示させることも可能である。
【0066】
上述の実施の形態において、ファインダー21として、ハーフミラーなどを用いたシースルー方式の表示装置を用いてもよい。これにより、3次元カメラ2の消費電力が節約できる。
【0067】
上述の実施の形態においては、撮影した被写体Qの3次元データに基づいて案内画像GPが生成されるため、案内画像GPを予め作成する手間が省けるとともに案内画像GPを格納しておくためのメモリが最小限で済む。
【0068】
上述の実施形態において、計測システム1、3次元カメラ2の各部又は全体の構成、形状、配置、回路、処理形態などは、本発明の主旨に沿って適宜変更することができる。
【0069】
【発明の効果】
本発明によると、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することが可能となる。
【図面の簡単な説明】
【図1】本発明に係る3次元カメラを用いた計測システムの構成図である。
【図2】3次元カメラの外観を示す図である。
【図3】3次元カメラの機能構成を示すブロック図である。
【図4】3次元カメラによって被写体の全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【図5】重合わせ画像発生部によるモニタ画像及び案内画像の生成の過程を説明するための図である。
【図6】ファインダー上に表示された被写体のモニタ画像及び案内画像を示す図である。
【図7】3次元データの入力動作及び処理を示すフローチャートである。
【図8】スリット光投影法を適用した3次元カメラの入力原理を示す図である。
【符号の説明】
2 3次元カメラ(3次元データ入力装置)
21 ファインダー(モニタ画面)
63 メモリ(記憶手段)
73 重心演算回路(3次元形状モデル画像生成手段)
76 表示制御部(表示指示手段)
Q 被写体
GP 案内画像
QP モニタ画像(画像)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional data input method and apparatus for inputting three-dimensional data of a subject.
[0002]
[Prior art]
Optical three-dimensional data input devices (three-dimensional cameras) can be used for data input to CG and CAD systems, body measurements, robot visual recognition, etc. Has been. As a measurement method suitable for such a three-dimensional data input apparatus, a slit light projection method (also called a light cutting method) is known.
[0003]
FIG. 8 is a diagram showing the input principle of the three-dimensional camera 80 to which the slit light projection method is applied.
In FIG. 8, the three-dimensional camera 80 includes a light projecting unit 81 and a light receiving unit 82. The light projecting unit 81 irradiates slit light S having a linear cross section. The light receiving unit 82 includes an imaging surface 83 and an imaging lens (not shown). The light projecting unit 81 and the light receiving unit 82 are normally integrated into one housing in a state where they are separated from each other by a predetermined dimension.
[0004]
The subject Q1 is irradiated with the slit light S from the light projecting unit 81, and the reflected light is captured as a slit image on the imaging surface 83. The spatial coordinates of the point p on the subject Q1 corresponding to one point p ′ in this slit image are the plane formed by the slit light S and the straight line L connecting the point p ′ and the center point O of the imaging lens. It is obtained as the coordinates of the intersection. Therefore, from one slit image obtained with the slit light S, the spatial coordinates of the point group on the surface of the subject Q1 corresponding to each point on the slit image are obtained. By moving the slit light S in the horizontal direction, the subject Q1 is scanned, and by inputting a slit image at each scanning position, three-dimensional data of the front side portion of the subject Q1, that is, the portion irradiated with the slit light S is obtained. Entered.
[0005]
In order to obtain three-dimensional data for the entire circumference of the subject Q1, it is necessary to input the subject Q1 from a plurality of directions. Two methods are known for this purpose. In the first method, the three-dimensional camera 80 is moved on a predetermined trajectory centering on the subject Q1 in a state where the photographing direction faces the subject Q1, and the subject Q1 is photographed from a plurality of directions. In the second method, the subject Q1 is placed on the rotary stage and rotated, and the subject Q1 is photographed from a plurality of directions by the three-dimensional camera 80 installed at a predetermined position.
[0006]
The three-dimensional data of the subject Q1 input from a plurality of directions is subjected to alignment processing using conversion parameters calculated based on the position on the trajectory where the three-dimensional camera 80 moves or the position of the rotary stage. As a result, three-dimensional data on the entire circumference of the subject Q1 is obtained.
[0007]
However, in the above-described method, it is necessary to detect the position of the three-dimensional camera 80 or the angular position of the rotary stage with high accuracy in order to improve the alignment accuracy, resulting in high cost.
[0008]
In addition, since the three-dimensional camera 80 is set in a moving device or the like, the three-dimensional camera 80 cannot be taken with the hand. As a result, subjects that can be input are limited. That is, for example, an object that cannot move, such as an existing stone image or bronze image, cannot input three-dimensional data by this method.
[0009]
In order to solve such a problem, an apparatus described in Japanese Patent Laid-Open No. 9-5051 has been proposed. According to this conventional apparatus, the subject Q1 is photographed from an arbitrary plurality of directions, and three-dimensional data is input. After the input, a three-dimensional shape input from a plurality of directions and a color image input from the same field of view and associated with the three-dimensional data at the same time are displayed. While viewing the displayed color image, the user manually designates corresponding points in the three-dimensional shape based on a color change or the like. Based on the corresponding points designated by the user, the input three-dimensional data are aligned with each other.
[0010]
[Problems to be solved by the invention]
However, according to the conventional apparatus described above, it is necessary for the user to specify the corresponding points in order to align the positions of the plurality of three-dimensional data, which is extremely troublesome.
[0011]
Further, when inputting three-dimensional data, there is no method for confirming whether or not shooting has been successfully performed for the entire circumference of the subject Q1. For this reason, when a plurality of three-dimensional data are not continuous with appropriate overlap, or when the data is insufficient, the corresponding points between the three-dimensional data cannot be taken well. In such a case, the accuracy of the alignment between the three-dimensional data is lowered, or if it is severe, it is necessary to perform photographing again.
[0012]
The present invention has been made in view of the above-described problems, and can easily and quickly and accurately input 3D data of a subject, and can easily produce a composite image free from omission in the entire circumference or a predetermined range of the subject. It is an object of the present invention to provide a three-dimensional data input method and apparatus that can be acquired in a simple manner.
[0013]
3-dimensional data input method according to claim 1, as shown in FIGS. 5 and 6, has a monitor screen 21 for confirming the object Q, the object Q by taking the object Q by shooting A three-dimensional data input method in the three-dimensional data input device 2 configured to input three-dimensional data, the three-dimensional shape corresponding to the shape based on the three-dimensional data input from a part of the subject Q A model image is generated, and the image of the three-dimensional shape model is displayed on the monitor screen 21 as a framing guide image GP. At this time, the guide image GP is converted into an image from the viewpoint direction at the time of the next shooting. It converted to display performs framing so that the image corresponding overlaps the guide image GP of the image QP of the object Q and the guide image GP, the framing Performing the next photographing of the object Q in made state.
[0014]
As shown in FIGS. 2 to 6, the three-dimensional data input device according to claim 2 has a monitor screen 21 for confirming the subject Q. By photographing the subject Q, the three-dimensional data of the subject Q is obtained. A three-dimensional data input device 2 configured to input data, and generates an image of a three-dimensional shape model corresponding to the shape based on three-dimensional data input from a part of the subject Q by photographing. 3D shape model image generating means 73, display instruction means 76 for displaying the image of the 3D shape model on the monitor screen 21 as a framing guide image GP, and the guide image GP when the guide image GP is displayed. means for converting the GP to the image from the viewing direction at the time of the next shooting, 3-dimensional data inputted by next photographing an object Q which framing is made It includes a storage means 63 for storing to, a.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a configuration diagram of a measurement system 1 using a three-dimensional camera 2 according to the present invention, and FIG. 2 is a diagram showing an appearance of the three-dimensional camera 2.
[0016]
As shown in FIG. 1, the measurement system 1 includes a three-dimensional camera 2 and a host 3.
The three-dimensional camera 2 is a portable three-dimensional data input device that performs three-dimensional measurement by the slit light projection method, and inputs three-dimensional data (distance data) by photographing a subject Q to be input. Based on the three-dimensional data, data serving as a basis for obtaining the three-dimensional shape of the subject Q is calculated and output.
[0017]
The host 3 is a computer system including a CPU 3a, a display 3b, a keyboard 3c, a mouse 3d, and the like. Between the three-dimensional camera 2 and the host 3, both online and offline data transfer using the portable recording medium 4 is possible. Examples of the recording medium 4 include a magneto-optical disk (MO), a mini disk (MD), and a memory card.
[0018]
Based on the three-dimensional data sent from the three-dimensional camera 2, the host 3 performs arithmetic processing, pasting processing (compositing processing), and the like for obtaining the coordinates of the sampling points using the triangulation method. Software for this purpose is incorporated in the CPU 3a.
[0019]
As shown in FIG. 2A, the three-dimensional camera 2 has a light projection window 20 a and a light reception window 20 b on the front surface of the housing 20. The light projecting window 20a is located above the light receiving window 20b. The slit light (band-shaped laser beam with a predetermined width w) U emitted from the internal optical unit OU travels toward the subject Q through the projection window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected by the surface of the subject Q enters the optical unit OU through the light receiving window 20b. The optical unit OU includes a biaxial adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.
[0020]
Zooming buttons 25a and 25b, manual focusing buttons 26a and 26b, and a shutter button 27 are provided on the upper surface of the housing 20.
Further, as shown in FIG. 2B, on the rear surface of the housing 20, a finder 21, a cursor button 22, a select button 23, a cancel button 24, an analog output terminal 32, a digital output terminal 33, and a recording medium 4 are attached. A vent 30a is provided.
[0021]
The viewfinder 21 is an image display device having a monitor screen such as a liquid crystal display. On the viewfinder 21, a monitor image QP and a guide image GP which is a feature of the present invention are displayed. Details of the monitor image QP and the guide image GP will be described later. In addition, operation procedure information for instructing an operation to be performed next by the user at each operation stage is displayed, and a distance image (grayscale image) in which the three-dimensional data of the photographed portion is expressed by shading.
[0022]
The buttons 22 to 24 on the back are for setting the shooting mode and the like.
From the analog output terminal 32, a two-dimensional image signal of the subject Q is output, for example, in the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.
[0023]
Next, functions of the three-dimensional camera 2 will be described.
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. The solid line arrows in FIG. 3 indicate the flow of electrical signals, and the broken line arrows indicate the flow of light.
[0024]
As shown in FIG. 3, the three-dimensional camera 2 includes two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the above-described optical unit OU. In the optical system 40, the laser beam with a wavelength of 685 nm emitted from the semiconductor laser (LD) 41 passes through the light projecting lens system 42 to become slit light U, and is deflected by the galvanometer mirror (scanning means) 43. The driver 44 of the semiconductor laser 41, the drive system 45 of the light projection lens system 42, and the drive system 46 of the galvano mirror 43 are controlled by a system controller 61.
[0025]
In the optical system 50, the light collected by the zoom unit 51 is split by the beam splitter 52.
Light in the oscillation wavelength band of the semiconductor laser 41 enters the measurement sensor 53. The visible band light is incident on the monitor color sensor 54. Both the measurement sensor 53 and the monitor color sensor 54 are CCD area sensors. The measurement sensor 53 and the monitor color sensor 54 each output shooting information or imaging information of the subject Q as an electrical signal.
[0026]
The zoom unit 51 is an in-focus type and is provided with a zoom lens (not shown). By moving this zoom lens between the long focus side and the short focus side along the shooting direction, three-dimensional data can be input at various resolutions. A part of incident light is used for autofocusing (AF). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.
[0027]
Next, the main flow of electrical signals in the three-dimensional camera 2 will be described.
First, the photographing information from the measurement sensor 53 is transferred to the output processing circuit 62 in synchronization with the clock from the driver 55. The output processing circuit 62 includes an amplifier that amplifies the photoelectric conversion signal of each pixel output from the measurement sensor 53, and an AD conversion unit that converts the photoelectric conversion signal into 8-bit light reception data. The received light data obtained by the output processing circuit 62 is temporarily stored in the memory 63 and then sent to the gravity center calculation circuit 73. Address designation at that time is performed by the memory control circuit 63A. The center-of-gravity calculation circuit 73 calculates data serving as a basis for calculating a three-dimensional shape based on the received light reception data, and outputs the data to the output memory 64. The data stored in the output memory 64 is output from the digital output terminal 33 via the SCSI controller 66 or output to the recording medium 4.
[0028]
The center-of-gravity calculation circuit 73 generates subject shape data TD that is three-dimensional data corresponding to the shape of the subject Q, and outputs it to the display memory 74. The subject shape data TD stored in the display memory 74 is displayed on the viewfinder 21 as a guide image GP after image processing and the like described later are performed by the display control unit 76.
[0029]
On the other hand, imaging information from the monitor color sensor 54 is transferred to the color processing circuit 67 in synchronization with the clock from the driver 56. The imaging information subjected to the color processing is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or is quantized by the digital image generation unit 68 and stored in the color image memory 69. The imaging information stored in the color image memory 69 is output online from the digital output terminal 33 or written to the recording medium 4 via the SCSI controller 66. The imaging information is also displayed as a monitor image QP on the viewfinder 21 via the display control unit 76.
[0030]
The system controller 61 gives an instruction for displaying operation procedure information on the viewfinder 21 to the display control unit 76. The circuits from the optical systems 40 and 50 for generating the subject shape data TD to the centroid calculation circuit 73, the display memory 74, the color image memory 69, the display control unit 76, the system controller 61, and the viewfinder 21 The overlapping image generating unit 7 is configured.
[0031]
The three-dimensional camera 2 having the above-described configuration and functions inputs the entire circumference of the subject Q or a predetermined range of three-dimensional data.
FIG. 4 is a diagram showing a specific method of inputting the entire circumference of the subject Q or a predetermined range of 3D data by the 3D camera 2.
[0032]
In the method shown in FIG. 4A, the user moves the three-dimensional camera 2 around the subject Q and adaptively changes the shooting conditions and performs input. In the method shown in FIG. 4B, input is performed while adaptively changing the imaging conditions while moving the subject Q itself. Alternatively, the three-dimensional camera 2 may be attached to a predetermined arm, and the position where the subject Q is photographed may be changed by moving the arm.
[0033]
Next, the monitor image QP and the guide image GP will be described.
FIG. 5 is a diagram for explaining the process of generating the monitor image QP and the guide image GP by the superimposed image generator 7. FIG. 6 shows the monitor image QP and the guide image GP of the subject Q displayed on the viewfinder 21. FIG.
[0034]
5 and 6, the monitor image QP is a color image for monitoring a portion of the subject Q where the user is about to input the 3D data with the line of sight of the 3D camera 2, and the color image memory 69. Is generated from the imaging information stored in.
[0035]
The guide image GP is an image that gives information to the user from which position and how to photograph the subject Q when inputting the entire circumference of the subject Q or three-dimensional data of a predetermined range. The guide image GP is generated from the subject shape data TD as shown in FIG.
[0036]
Here, the subject shape data TD is three-dimensional data of the input portion when the subject Q is input. In the present embodiment, the left half of the heel is shown as an example.
[0037]
Processing such as wire frame, shading, texture mapping, or coloring is performed on the subject shape data TD. Coloring is performed to facilitate identification of the wire frame, the shading, or the texture mapping image from the monitor image QP. By coloring, for example, colors such as blue, green, and red are obtained. It is also possible to make the state most visible to the user by changing the mixing ratio of the monitor image QP and the guide image GP, that is, by arbitrarily changing the density ratio of these two overlapping images. . By performing these processes, the guide image GP and the monitor image QP can be easily superimposed. It is possible to select which processing is performed according to the user's wishes. In this embodiment, an example in which texture mapping is performed is shown.
[0038]
The user can rotate (posture change) or zoom the subject shape data TD so that the guide image GP is in a state when the subject is viewed from a desired position. As a result, the guide image GP changes. The user can determine the next shooting position with reference to the guide image GP. Hereinafter, when it is necessary to distinguish the guidance image GP from others depending on its display shape, a number is added at the end such as “GP1” and “GP2”.
[0039]
A method for inputting three-dimensional data using the monitor image QP and the guide image GP will be described with reference to FIGS.
The user first images the subject Q from one direction. Here, the left half of the frog is taken from the right side. By taking a picture, three-dimensional data of the left half of the cocoon is obtained. The obtained three-dimensional data is displayed on the finder 21 as a guide image GP1, as shown in FIG.
[0040]
Next, for example, when the user performs an operation to rotate the guide image GP1 (subject shape data TD) in the right direction when viewed from above, as shown in FIG. The guide image GP2 in the state of is displayed. At this time, the right end region GPR of the subject shape data TD is displayed on the viewfinder 21. This is to leave a margin for joining the subject shape data TD obtained by the first photographing and the subject shape data TD obtained by the second photographing. It should be noted that if the color of the end region GPR that becomes the margin is different from that of other portions, the user can easily see.
[0041]
Next, as shown in FIG. 6C, framing is performed so that the guide image GP2 and the portion of the monitor image QP corresponding to the guide image GP2 overlap.
In framing, as shown in FIG. 4, the three-dimensional camera 2 may be moved or the subject Q may be moved. By performing zooming or moving the three-dimensional camera 2, it is possible to input at various resolutions. For example, a portion requiring fine data such as a face can be input at a high resolution, and a portion such as a back where the shape change is not so severe can be input at a low resolution. This can prevent unnecessary increase in data.
[0042]
After framing, the shutter button 27 is pressed to perform the second shooting. Here, the second time is taken from behind.
By a similar operation, the guide image GP2 is sequentially changed to guide images GP3, GP4... (Not shown), and shooting is performed over the entire circumference of the subject. Thereby, three-dimensional data of the entire circumference of the subject is input.
[0043]
For example, the following method can be used to generate the third and subsequent guidance images GP3, GP4,.
(1) A guide image GP is generated from an image captured last time.
(2) A guide image GP is generated using all the images taken so far.
(3) An arbitrary image is selected from images captured so far, and a guide image GP is generated from the selected image.
[0044]
As described above, the guide images GP that are sequentially changed can be changed either in the manual mode performed according to the user's request or in the automatic mode performed in the order determined by the preprogram. When the manual mode is selected, it can be operated with a mouse or the like.
[0045]
By inputting with reference to the guide image GP, it is possible to input the three-dimensional data of the subject easily and quickly and accurately. In addition, since a plurality of photographed three-dimensional data can be easily aligned and can be accurately aligned, it is easy to obtain a composite image that is free from omission in the entire circumference or a predetermined range of the subject. be able to.
[0046]
FIG. 7 is a flowchart showing the input operation and processing of three-dimensional data.
The first three-dimensional data is input by shooting the subject at an appropriate position as the first viewpoint (# 1). The viewfinder display viewpoint position is determined in the coordinate system at the time of inputting the first three-dimensional data (# 2). From the first viewpoint, the guide image GP1 based on the first three-dimensional data is displayed (# 3). The guide image GP1 becomes the guide image GP2 automatically or by rotation or zooming specified by the user. The guide image GP2 and the monitor image QP are superimposed from the second viewpoint, which is the next viewpoint (# 4). If superimposition is successful, the second 3D data is input (# 5). Parameters for converting the second three-dimensional data into the coordinate system of the first three-dimensional data are obtained. The three-dimensional data input in a superimposed manner on the finder 21 is data of each coordinate system, and conversion between these coordinate systems is necessary. Performing alignment of the three-dimensional data means converting to one coordinate system. As a method of performing alignment, the following two methods are possible (# 6). Based on the obtained parameters, coordinate transformation is performed on the second three-dimensional data (# 7), and the initial alignment is completed (# 8). In order to perform alignment with higher accuracy, fine adjustment is performed by ICP (# 9).
[0047]
ICP is a method of minimizing the total distance between corresponding points with the closest point as the corresponding point. For ICP, refer to “A method of registration of 3-D shapes.” (P. Besl and N. McKay., See IEEE Transactions on Pattern Analysis and Machine Intelli. 6, 19-2, 25-39). Can do.
[0048]
Next, two methods for performing the alignment described in (# 6) will be described.
[First alignment method]
The following parameters are used for the description.
[0049]
Pt: viewpoint position at the time of creating the guide image GP Vt: line-of-sight direction at the time of creating the guide image GP Ut: upward direction vector at the time of creating the guide image GP Ft: focal length at the time of creating the guide image GP St: note at the time of creating the guide image GP Distance to viewpoint Fa: focal length Sa when shooting Sa: shooting distance Pa: viewpoint position when shooting Va: line of sight direction when shooting Ua: upward vector Pa ′ when shooting Pa: position of the viewpoint after coordinate conversion Va ′: Gaze direction after coordinate conversion Ua ′: Upward vector after coordinate conversion In the method described here, the viewpoint position Pa at the time of shooting is obtained and alignment is performed. When the guide image GP displayed on the viewfinder 21 is created, the viewpoint position Pt and the line-of-sight direction Vt are set.
[0050]
The line-of-sight direction Va and viewpoint position Pa when the subject Q is photographed by superimposing the monitor image QP on the guide image GP on the finder 21 are as follows. In other words, the line-of-sight direction Va is the same direction as the line-of-sight direction Vt [Equation (3) below], and the viewpoint position Pa is a position moved back and forth in the same direction as the line-of-sight direction Vt.
[0051]
Here, since lens information (focal length) at the time of photographing is obtained, the moving distance before and after the visual line direction Va (= Vt) is obtained by obtaining the photographing distance Sa so that the image magnification is the same as that of the guide image GP. (St 1 Sa) can be calculated, and the viewpoint position Pa is obtained as in the following equation (4). That is,
Ft / St = Fa / Sa (1)
Therefore, the shooting distance Sa is expressed by the following equation (2).
[0052]
Sa = (Fa × St) / Ft (2)
Also,
Va = Vt, Ua = Ut (3)
Therefore, the viewpoint position Pa when the image is taken is expressed by the following equation (4).
[0053]
Pa = Pt + (St 1 Sa) × Vt (4)
The three-dimensional data obtained from each direction is translated based on the viewpoint position Pa, and is rotated based on the line-of-sight direction Va, thereby converting the guide image GP into the original three-dimensional data coordinate system created. It becomes possible. The translation amount T for coordinate conversion for converting the original three-dimensional data into the coordinate system is expressed by the following equation (5).
[0054]
T = Pa′−Pa (5)
The line-of-sight direction Va ′ after the coordinate conversion and the upward vector Ua ′ after the coordinate conversion are expressed by the following equations (6) and (7) using Va and Ua, where R is the rotation matrix. .
[0055]
Va ′ = R × Va (6)
Ua ′ = R × Ua (7)
The alignment is performed by converting the three-dimensional data obtained from each direction by the translation amount T and the rotation matrix R into data in the coordinate system of the original three-dimensional data.
[0056]
By performing superposition, a relative movement amount between the three-dimensional camera 2 and the subject Q is obtained. Based on the amount of movement, the three-dimensional data input from a plurality of positions is converted into data in the coordinate system when first photographed. Thereby, alignment can be performed.
[0057]
As described above, the three-dimensional data input from a plurality of positions is input in a state where the alignment is performed with high accuracy by superimposing the monitor image QP and the guide image GP. Therefore, there is no need to perform alignment afterwards, which is easy.
[0058]
The bonding process is performed by the host 3 based on the three-dimensional data from a plurality of positions that have been accurately aligned as described above. Therefore, the bonding process at the host 3 can be performed at high speed and with high accuracy.
[Second alignment method]
In this method, alignment is performed using the fact that the overlapping portion of the three-dimensional data is known.
[0059]
The following parameters are used for the description.
Pti: Corresponding point Pai of the first photographed data Pai: Corresponding point of data photographed after alignment on the finder T: Parallel movement amount R: Point cloud in the overlapping area on the rotation matrix finder 21 indicating rotational movement On the other hand, the closest point on this two-dimensional image is taken as the corresponding point. Position alignment is performed by performing coordinate transformation that minimizes the three-dimensional distance between the corresponding points. The coordinate transformation that minimizes the distance between corresponding points can determine the parallel movement amount so that the barycentric positions of the corresponding points coincide with each other, and then determine the rotational movement using the least square method or the like. At that time, the following equations (8) and (9) are used.
[0060]
[Expression 1]
Figure 0004306006
[0061]
The rotation matrix R is determined so as to minimize J.
[0062]
[Expression 2]
Figure 0004306006
[0063]
This calculation method is described in the literature “Faugeras and Hebert, 1986 O. Faugeras and M. Hebert. The representation, recognition and locino ngofol 3-D objects. Can be referred to.
[0064]
Using the parallel movement amount T and the rotation matrix R obtained as described above, the coordinate transformation of each point Pi of the second three-dimensional data is performed by the following equation (10).
P′i = R × (Pi 1 T) (10)
By performing the above-described coordinate conversion, the first three-dimensional data and the second three-dimensional data can be aligned.
[0065]
In the above-described embodiment, the guide image GP and the monitor image QP are displayed on the finder 21 integrated with the three-dimensional camera 2. However, the guide image GP and the monitor image QP are displayed on the finder separated from the three-dimensional camera 2 or the display 3 b in the host 3. It is also possible to make it.
[0066]
In the above-described embodiment, a see-through display device using a half mirror or the like may be used as the finder 21. Thereby, the power consumption of the three-dimensional camera 2 can be saved.
[0067]
In the above-described embodiment, since the guide image GP is generated based on the three-dimensional data of the photographed subject Q, the memory for storing the guide image GP is saved while saving the trouble of creating the guide image GP in advance. Is minimal.
[0068]
In the above-described embodiment, the configuration, shape, arrangement, circuit, processing form, and the like of each part or the whole of the measurement system 1 and the three-dimensional camera 2 can be appropriately changed in accordance with the gist of the present invention.
[0069]
【The invention's effect】
According to the present invention, it is possible to input three-dimensional data of a subject easily and quickly and accurately, and it is possible to easily acquire a composite image that is free from omission in the entire circumference or a predetermined range of the subject.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a measurement system using a three-dimensional camera according to the present invention.
FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.
FIG. 4 is a diagram illustrating a specific method of inputting the entire circumference of a subject or a predetermined range of three-dimensional data with a three-dimensional camera.
FIG. 5 is a diagram for explaining a process of generating a monitor image and a guide image by a superimposed image generation unit.
FIG. 6 is a diagram illustrating a monitor image and a guide image of a subject displayed on the viewfinder.
FIG. 7 is a flowchart showing input operation and processing of three-dimensional data.
FIG. 8 is a diagram illustrating an input principle of a three-dimensional camera to which a slit light projection method is applied.
[Explanation of symbols]
2 3D camera (3D data input device)
21 Viewfinder (monitor screen)
63 Memory (storage means)
73 Center of gravity calculation circuit (three-dimensional shape model image generation means)
76 Display control unit (display instruction means)
Q Subject GP Guidance image QP Monitor image (image)

Claims (2)

被写体を確認するためのモニタ画面を有し、前記被写体を撮影することによって前記被写体の3次元データの入力を行うように構成された3次元データ入力装置における3次元データ入力方法であって、
撮影により前記被写体の一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成し、
前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示し、その際に、前記案内画像を、次の撮影時の視点方向からの画像に変換して表示し、
前記案内画像と前記被写体の画像のうち前記案内画像に対応する画像とが重なるようにフレーミングを行い、
前記フレーミングがなされた状態で前記被写体の次の撮影を行う、
ことを特徴とする3次元データ入力方法。
A three-dimensional data input method in a three-dimensional data input device having a monitor screen for confirming a subject and configured to input the three-dimensional data of the subject by photographing the subject,
Generating an image of a three-dimensional shape model corresponding to the shape based on three-dimensional data input from a part of the subject by photographing ;
The image of the three-dimensional shape model is displayed on the monitor screen as a framing guide image. At that time, the guide image is converted into an image from the viewpoint direction at the time of the next shooting and displayed.
Framing is performed so that the guide image and the image corresponding to the guide image among the images of the subject overlap.
The next shooting of the subject is performed with the framing performed.
A three-dimensional data input method.
被写体を確認するためのモニタ画面を有し、前記被写体を撮影することによって前記被写体の3次元データの入力を行うように構成された3次元データ入力装置であって、
撮影により前記被写体の一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成する3次元形状モデル画像生成手段と、
前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示させる表示指示手段と、
前記案内画像を表示する際に、当該案内画像を次の撮影時の視点方向からの画像に変換する手段と、
フレーミングがなされた被写体を次に撮影することによって入力される3次元データを記憶する記憶手段と、
を有することを特徴とする3次元データ入力装置。
A three-dimensional data input device having a monitor screen for confirming a subject and configured to input the three-dimensional data of the subject by photographing the subject;
3D shape model image generation means for generating an image of a 3D shape model corresponding to the shape based on 3D data input from a part of the subject by photographing ;
Display instruction means for displaying an image of the three-dimensional shape model on the monitor screen as a framing guide image;
Means for converting the guide image into an image from the viewpoint direction at the time of the next shooting when displaying the guide image;
Storage means for storing three-dimensional data that is input by capturing the next framed subject;
A three-dimensional data input device.
JP08755299A 1999-03-30 1999-03-30 Three-dimensional data input method and apparatus Expired - Fee Related JP4306006B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP08755299A JP4306006B2 (en) 1999-03-30 1999-03-30 Three-dimensional data input method and apparatus
US09/536,686 US7046838B1 (en) 1999-03-30 2000-03-28 Three-dimensional data input method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08755299A JP4306006B2 (en) 1999-03-30 1999-03-30 Three-dimensional data input method and apparatus

Publications (2)

Publication Number Publication Date
JP2000283720A JP2000283720A (en) 2000-10-13
JP4306006B2 true JP4306006B2 (en) 2009-07-29

Family

ID=13918163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08755299A Expired - Fee Related JP4306006B2 (en) 1999-03-30 1999-03-30 Three-dimensional data input method and apparatus

Country Status (1)

Country Link
JP (1) JP4306006B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892793B2 (en) * 2001-07-04 2012-03-07 コニカミノルタホールディングス株式会社 Measuring apparatus and measuring method
JP2007225434A (en) * 2006-02-23 2007-09-06 Yaskawa Electric Corp Three-dimensional measuring device
KR101615472B1 (en) 2007-09-24 2016-04-25 애플 인크. Embedded authentication systems in an electronic device
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
JP5049246B2 (en) * 2008-10-29 2012-10-17 アイシン精機株式会社 Object shape evaluation device
JP5049247B2 (en) * 2008-10-29 2012-10-17 アイシン精機株式会社 Surface defect evaluation system
US9189859B2 (en) * 2009-06-11 2015-11-17 Kabushiki Kaisha Toshiba 3D image generation
JP5445848B2 (en) * 2010-02-05 2014-03-19 アイシン精機株式会社 Object shape evaluation device
JP5812599B2 (en) * 2010-02-25 2015-11-17 キヤノン株式会社 Information processing method and apparatus
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
JP5269972B2 (en) * 2011-11-29 2013-08-21 株式会社東芝 Electronic device and three-dimensional model generation support method
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
CN109691074A (en) * 2016-09-23 2019-04-26 苹果公司 The image data of user's interaction for enhancing
JP6967610B2 (en) 2017-05-16 2021-11-17 アップル インコーポレイテッドApple Inc. Recording and sending pictograms
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information

Also Published As

Publication number Publication date
JP2000283720A (en) 2000-10-13

Similar Documents

Publication Publication Date Title
JP4306006B2 (en) Three-dimensional data input method and apparatus
US7046838B1 (en) Three-dimensional data input method and apparatus
JP6504274B2 (en) Three-dimensional shape data and texture information generation system, imaging control program, three-dimensional shape data and texture information generation method, and information recording medium
JP4262014B2 (en) Image photographing apparatus and image processing method
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
JP3893169B2 (en) 3D measuring device
JP4221808B2 (en) Three-dimensional data input method and apparatus
JP3178205B2 (en) Image input system
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
JPH1021401A (en) Three-dimensional information processor
JP3282332B2 (en) Image input system
JPH09305796A (en) Image information processor
JP3317093B2 (en) 3D shape data processing device
JP4266736B2 (en) Image processing method and apparatus
JP4262013B2 (en) Image processing method and image generation apparatus
JP4451968B2 (en) 3D image input device
JP2000307947A (en) Image processor and image processing method
JP4266737B2 (en) Image processing method and apparatus
JP3740848B2 (en) 3D input device
JP2004170277A (en) 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program
JP2000275024A (en) Three-dimensional input apparatus
JP3635943B2 (en) 3D input device
JP3635942B2 (en) 3D input device
JPH09187037A (en) Image processor
JPH09229648A (en) Input/output method and device for image information

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees