JP4221808B2 - 3次元データ入力方法及び装置 - Google Patents
3次元データ入力方法及び装置 Download PDFInfo
- Publication number
- JP4221808B2 JP4221808B2 JP08755399A JP8755399A JP4221808B2 JP 4221808 B2 JP4221808 B2 JP 4221808B2 JP 08755399 A JP08755399 A JP 08755399A JP 8755399 A JP8755399 A JP 8755399A JP 4221808 B2 JP4221808 B2 JP 4221808B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- dimensional data
- input
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、被写体の3次元データを入力するための3次元データ入力方法及び装置に関する。
【0002】
【従来の技術】
光学式の3次元データ入力装置(3次元カメラ)は、接触型に比べて高速の計測が可能であることから、CGシステムやCADシステムへのデータ入力、身体計測、ロボットの視覚認識などに利用されている。このような3次元データ入力装置に好適な計測方法としてスリット光投影法(光切断法ともいう)が知られている。
【0003】
図10はスリット光投影法を適用した3次元カメラ80の入力原理を示す図である。
図10において、3次元カメラ80は、投光部81と受光部82とを有する。投光部81は、断面が直線状のスリット光Sを照射する。受光部82は、撮像面83及び図示しない結像レンズを有する。投光部81と受光部82とは、通常、互いに所定の寸法だけ離れた状態で、1つのハウジングに一体的に組み込まれている。
【0004】
被写体Q1は、投光部81からのスリット光Sによって照射され、その反射光が撮像面83上でスリット像として捕らえられる。このスリット像における1つの点p' に対応する被写体Q1上の点pの空間座標は、スリット光Sによって形成される平面と、点p' 及び結像レンズの中心点Oを結ぶ直線Lとの交点の座標として求められる。したがって、スリット光Sで得られた1枚のスリット像から、このスリット像上の各点に対応した被写体Q1の表面の点群の空間座標が求められる。スリット光Sを水平方向に移動させることで被写体Q1を走査し、各走査位置でのスリット像を入力することで被写体Q1の表側部分、つまりスリット光Sの照射を受けた部分の3次元データ(3次元形状データ)が入力される。
【0005】
被写体Q1の全周における3次元データを得たい場合には、被写体Q1について複数方向から入力することが必要となる。そのための方法として2つの方法が知られている。第1の方法では、3次元カメラ80を、その撮影方向が被写体Q1に向いた状態で被写体Q1を中心とした所定の軌道上を移動させ、被写体Q1に対して複数方向から撮影を行う。第2の方法では、回転ステージに被写体Q1を載せて回転させ、所定位置に設置した3次元カメラ80により、被写体Q1に対して複数方向から撮影を行う。
【0006】
複数方向から入力された被写体Q1の3次元データは、3次元カメラ80の移動する軌道上における位置、又は回転ステージの位置に基づいて算出された変換パラメータにより、それぞれ位置合わせの処理が行われる。これにより、被写体Q1の全周における3次元デ−タが得られる。
【0007】
しかし、上述した方法では、位置合わせの精度を向上するために、3次元カメラ80の位置又は回転ステージの角度位置を高精度に検出する必要があり、コスト高となる。
【0008】
しかも、3次元カメラ80を移動装置などにセットすることとなるため、3次元カメラ80を手に持って撮影することができない。そのため、入力を行うことのできる被写体が制限される。つまり、例えば、既設の石像又は銅像などのように移動できない被写体は、この方法によっては3次元デ−タの入力ができない。
【0009】
このような問題を解決するために、特開平9−5051号公報に記載の装置が提案されている。この従来の装置によると、被写体Q1を任意の複数方向から撮影し、3次元デ−タの入力を行う。入力を行った後、複数方向から入力された3次元形状、及び、それらと同時に同一の視野から入力され且つ3次元データとの対応付けがなされているカラー画像を表示する。ユーザは、表示されたカラー画像を見ながら、それらの3次元形状における互いの対応点を色の変化などに基づいて手動で指定する。ユーザにより指定された対応点に基づいて、入力された3次元データの相互間の位置合わせが行われる。
【0010】
【発明が解決しようとする課題】
しかし、上に述べた従来の装置によると、複数の3次元データの相互間の位置合わせのために、ユーザが対応点を指定する作業を行う必要があり、その作業が極めて面倒である。
【0011】
また、3次元デ−タの入力を行う際には、被写体Q1の全周について旨く撮影が行われたか否かを確認する方法がない。そのため、複数の3次元データが適切な重なりを持って連続していなかったり、データが不足する場合には、3次元データの相互間の対応点を旨くとることができない。そのような場合には、3次元データの相互間の位置合わせの精度が低下したり、酷い場合には撮影をやり直す必要がある。
【0012】
本発明は、上述の問題に鑑みてなされたもので、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することを可能とする3次元データ入力方法及び装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
請求項1に係る3次元データ入力方法は、図5及び図6に示すように、被写体Qの入力部分を確認するためのモニタ画面21を有し、前記被写体Qを撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置2における3次元データ入力方法であって、前記被写体Qの形状と略同一の形状を有する3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面に表示し、前記案内画像GPに基づいてフレーミングを行い、前記フレーミングがなされた状態で前記被写体Qの撮影を行う。
【0014】
請求項2に係る3次元データ入力方法は、図5及び図6に示すように、被写体Qの入力部分を確認するためのモニタ画面21を有し、前記被写体Qを撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置2における3次元データ入力方法であって、前記被写体Qの形状と略同一の形状を有する3次元形状モデルのデータ及び前記3次元形状モデルを観察する位置に関する情報である属性情報AJをメモリ75に記憶しておき、前記属性情報AJにしたがって前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示し、前記入力部分の画像QPが前記案内画像GPに重なり合うようにフレーミングを行い、前記フレーミングがなされた状態で前記被写体Qの撮影を行う。
【0015】
請求項3に係る3次元データ入力方法は、図8に示すように、前記入力部分の画像QPと前記案内画像GPとの対応付けを行い、対応付けによって前記案内画像GPのスケールを前記被写体Qのスケールに一致させる。
【0016】
請求項4に係る3次元データ入力方法は、図4に示すように、前記撮影を前記被写体Qについて互いに異なる位置毎に行う。
請求項5に係る3次元データ入力装置2は、図2乃至図6に示すように、被写体Qの入力部分を確認するためのモニタ画面21を有し、前記被写体Qを撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置2であって、前記被写体Qの形状と略同一の形状を有する3次元形状モデルのデータ及び前記3次元形状モデルを観察する位置に関する情報である属性情報を記憶する記憶手段75、前記属性情報AJにしたがって前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示させる表示指示手段76と、フレーミングがなされた前記被写体Qを撮影することによって入力される3次元データを記憶する記憶手段63と、を有する。
【0017】
請求項6に係る3次元データ入力装置2は、図5及び図8に示すように、前記入力部分の画像QPと前記案内画像GPとの対応付けを行う対応付け手段と、前記対応付けに基づいて前記案内画像GPのスケールを前記被写体Qのスケールに一致させるスケール一致手段と、を有してなる。
【0018】
【発明の実施の形態】
図1は本発明に係る3次元カメラ2を用いた計測システム1の構成図、図2は3次元カメラ2の外観を示す図である。
【0019】
図1に示すように、計測システム1は、3次元カメラ2及びホスト3から構成される。
3次元カメラ2は、スリット光投影法によって立体計測を行う可搬型の3次元データ入力装置であり、入力対象となる被写体Qを撮影することにより、3次元データ(距離データ)を入力し、この3次元データに基づいて被写体Qの3次元形状を求めるための基となるデータを算出し出力する。
【0020】
ホスト3は、CPU3a、ディスプレイ3b、キーボード3c、及びマウス3dなどから構成されたコンピュータシステムである。3次元カメラ2とホスト3との間では、オンライン及び可搬型の記録メディア4によるオフラインの両方の形態のデータ受渡しが可能である。記録メディア4としては、光磁気ディスク(MO)、ミニディスク(MD)、メモリカードなどがある。
【0021】
ホスト3は、3次元カメラ2から送られた3次元データに基づいて、三角測量法を用いてサンプリング点の座標を求める演算処理や貼り合わせ処理(合成処理)などを行う。そのためのソフトウエアはCPU3aに組み込まれている。
【0022】
図2(a)に示すように、3次元カメラ2は、そのハウジング20の前面に投光窓20a及び受光窓20bを有する。投光窓20aは受光窓20bに対して上側に位置する。内部の光学ユニットOUが射出するスリット光(所定幅wの帯状のレーザビーム)Uは、投光窓20aを通って被写体Qに向かう。スリット光Uの長さ方向M1の放射角度φは固定である。被写体Qの表面で反射したスリット光Uの一部が受光窓20bを通って光学ユニットOUに入射する。なお、光学ユニットOUは、投光軸と受光軸との相対関係を適正化するための2軸調整機構を備えている。
【0023】
ハウジング20の上面には、ズーミングボタン25a,25b、手動フォーカシングボタン26a,26b、及びシャッターボタン27が設けられている。
また、図2(b)に示すように、ハウジング20の背面には、ファインダー21、カーソルボタン22、セレクトボタン23、キャンセルボタン24、アナログ出力端子32、ディジタル出力端子33、及び記録メディア4の着脱口30aが設けられている。
【0024】
ファインダー21は、液晶ディスプレイなどのモニタ画面を有した画像表示装置である。ファインダー21上には、モニタ画像QP及び本発明の特徴である案内画像GPが表示される。モニタ画像QP及び案内画像GPの詳細については後述する。また、各操作段階においてユーザが次に行うべき操作を文字や記号によって指示する操作手順情報、及び撮影した部分の3次元データが濃淡によって表現された距離画像(濃淡画像)が表示される。
【0025】
背面の各ボタン22〜24は、撮影モード等の設定を行うためのものである。アナログ出力端子32からは、被写体Qの2次元画像信号が例えばNTSC形式で出力される。ディジタル出力端子33は例えばSCSI端子である。
【0026】
次に、3次元カメラ2の機能について説明する。
図3は3次元カメラ2の機能構成を示すブロック図である。図3における実線矢印は電気信号の流れを示し、破線矢印は光の流れを示している。
【0027】
図3に示すように、3次元カメラ2は、上述の光学ユニットOUを構成する投光側及び受光側の2つの光学系40,50を有している。光学系40において、半導体レーザ(LD)41が射出する波長685nmのレーザビームは、投光レンズ系42を通過することによってスリット光Uとなり、ガルバノミラー(走査手段)43によって偏向される。半導体レーザ41のドライバ44、投光レンズ系42の駆動系45、及びガルバノミラー43の駆動系46は、システムコントローラ61によって制御される。
【0028】
光学系50において、ズームユニット51によって集光された光はビームスプリッタ52によって分光される。
半導体レーザ41の発振波長帯域の光は、計測用センサ53に入射する。可視帯域の光は、モニタ用カラーセンサ54に入射する。計測用センサ53及びモニタ用カラーセンサ54は、どちらもCCDエリアセンサである。計測用センサ53及びモニタ用カラーセンサ54は、それぞれ、被写体Qの撮影情報又は撮像情報を電気信号として出力する。
【0029】
ズームユニット51は内焦型であり、図示しないズームレンズが設けられている。このズームレンズを長焦点側と短焦点側との間で撮影方向に沿って移動することにより、3次元データを様々な解像度で入力することができる。また、入射光の一部がオートフォーカシング(AF)に利用される。AF機能は、AFセンサ57、レンズコントローラ58、及びフォーカシング駆動系59によって実現される。ズーミング駆動系60は電動ズーミングのために設けられている。
【0030】
次に、3次元カメラ2における電気信号の主な流れについて説明する。
まず、計測用センサ53による撮影情報は、ドライバ55からのクロックに同期して出力処理回路62へ転送される。出力処理回路62は、計測用センサ53の出力する各画素の光電変換信号を増幅する増幅器、及び光電変換信号を8ビットの受光データに変換するAD変換部を有している。出力処理回路62で得られた受光データはメモリ63によって一時的に記憶された後、重心演算回路73へ送られる。その際のアドレス指定はメモリ制御回路63Aが行う。重心演算回路73は、入力された受光データに基づいて3次元形状を算出するための基となるデータを算出し、それを出力用メモリ64に出力する。また、重心演算回路73は、被写体Qの形状に対応した距離画像を生成し、それを表示用メモリ74に出力する。出力用メモリ64に格納されたデータは、SCSIコントローラ66を介してディジタル出力端子33から出力され、又は記録メディア4に出力される。表示用メモリ74に格納された距離画像は、表示制御部76を介してファインダー21上に表示される。
【0031】
一方、モニタ用カラーセンサ54による撮像情報は、ドライバ56からのクロックに同期してカラー処理回路67へ転送される。カラー処理を受けた撮像情報は、NTSC変換回路70及びアナログ出力端子32を経てオンライン出力され、又はディジタル画像生成部68で量子化されてカラー画像メモリ69に格納される。カラー画像メモリ69に格納された撮像情報は、SCSIコントローラ66を介した後、ディジタル出力端子33からオンライン出力され又は記録メディア4に書き込まれる。撮像情報は、また、表示制御部76を介してファインダー21上にモニタ画像QPとして表示される。
【0032】
システムコントローラ61は、表示制御部76に対して、ファインダー21上に操作手順情報を表示するための指示を与える。なお、モデルデータメモリ75、カラー画像メモリ69、表示制御部76、システムコントローラ61、及びファインダー21は、重合わせ画像発生部7を構成する。
【0033】
以上のような構成及び機能を有する3次元カメラ2によって、被写体Qの全周又は所定範囲の3次元データが入力される。
図4は3次元カメラ2によって被写体Qの全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【0034】
図4(a)に示す方法は、ユーザが3次元カメラ2を被写体Qの周囲で移動させ、適応的に撮影条件を変更して入力を行う。図4(b)に示す方法は、被写体Qそれ自体を移動させながら、適応的に撮影条件を変更して入力を行う。また、3次元カメラ2を所定のアームに取り付け、このアームを移動させることで被写体Qを撮影する位置を変えるようにしてもよい。
【0035】
次に、モニタ画像QP及び案内画像GPについて説明する。
図5は重合わせ画像発生部7によるモニタ画像QP及び案内画像GPの生成の過程を説明するための図、図6はファインダー21上に表示された被写体Qのモニタ画像QP及び案内画像GPを示す図である。
【0036】
図5及び図6において、モニタ画像QPは、被写体Qのうちユーザが3次元カメラ2の視線を向けて3次元データを入力しようとしている部分をモニタするためのカラー画像であり、カラー画像メモリ69に格納された撮像情報から生成される。
【0037】
案内画像GPは、被写体Qの全周又は所定範囲の3次元データを入力する際に、被写体Qを、どの位置からどのようにして撮影すべきかという情報をユーザに与える画像である。このような情報は、図5によく示されるように、モデルデータMD及び属性情報AJから生成される。
【0038】
ここで、モデルデータMDは、入力対象である被写体と略同一の形状を有する3次元形状モデルのデータである。モデルデータMDは、立体形状が既知であって標準化が可能なもの、例えば人間の頭部(顔面を含む)、人体、動物、自動車、仏像、土器、銅鐸など、複数の種類のものについて、それぞれの標準的な形状モデルである。モデルデータMDは、各種類毎にモデルデータメモリ75に格納されている。
【0039】
ユーザは、入力対象とする被写体Qの種類に応じたモデルデータMDを所定の操作によって選択できる。本実施形態においては、人間の頭部が例として示されている。モデルデータMDとして、3次元カメラ2によって予め入力された3次元データから作成されたもの、又はコンピュータ上でCGによって作成されたものなどが用いられる。
【0040】
モデルデータMDには、ワイヤーフレーム、シェ一ディング、テクスチャマッピング、又は色付けなどの処理が施される。色付けは、ワイヤーフレーム、シェ一ディング、又はテクスチャマッピング画像に対して、モニタ画像QPとの識別を行い易くするためになされる。色付けにより、例えば、青、緑、赤などの色となる。また、モニタ画像QPと案内画像GPの混合比を変えることにより、つまりオーバーラップしているこれら2つの画像の濃度の割合を任意に変えることにより、ユーザにとって最も見やすい状態とすることも可能である。これらの処理が施されることにより、案内画像GPとモニタ画像QPとの重ね合わせが容易となる。ユーザの希望に応じて、いずれの処理を施すかを選択することが可能である。本実施形態においては、ワイヤーフレームを用いた例が示されている。
【0041】
属性情報AJは、モデルデータMDに付随したヘッダデータである。属性情報AJは、被写体Qの全周又は所定範囲の3次元データを入力する際に、被写体Qをどの位置からどのようにして撮影すべきかを示す情報である。属性情報AJとして、撮影方向、撮影画角、撮影枚数などの情報が含まれる。属性情報AJに基づいて、モデルデータMDから案内画像GPが作成される。
【0042】
また、属性情報AJによって、被写体Qが人間の頭部である場合に、目や鼻など特に精細なデータが必要な部分にはズーム機能を利用して高解像で入力するような指示を与えたり、頬や頭などのようにあまり形状の変化が激しくない部分は低い解像度で、つまりデータ点数が少なくて済むように入力するような指示を与えたりすることもできる。
【0043】
属性情報AJにしたがって、ワイヤーフレームなどの処理が施されたモデルデータMDが所定の案内画像GPとしてファインダー21上に表示される。以降、案内画像GPをその表示形状によって他と区別する必要がある場合には、「GP1」「GP2」などのように末尾に数字を付して示す。
〔第1の入力形態〕
これらのモニタ画像QP及び案内画像GP1を用いて3次元データの入力を行う方法について、図5及び図6を参照して説明する。
【0044】
ユーザは、まず、入力対象である被写体Qの種類に応じたモデルデータMDを選択する。選択されたモデルデータMDは、システムコントローラ61からの指示にしたがって、モデルデータメモリ75から読み出され、ファインダー21上に案内画像GP1として表示される。
【0045】
図6(a)において、案内画像GP1は、被写体Qを正面から撮影するように、ユーザに対して指示している。ユーザは、モニタ画像QPが案内画像GPにぴったりと重なるように、被写体Qのフレーミングを行う。フレーミングに際しては、図4に示したように、3次元カメラ2を動かしてもよいし、被写体Qを動かしてもよい。ズーミングを行うことによって、又は3次元カメラ2を移動させることによって、様々な解像度で入力できる。例えば、目や鼻などの精細なデータが必要な部分は高い解像度で入力し、これとは逆に頬や頭などのあまり形状の変化が激しくない部分は低い解像度で入力することができる。これによって、不必要なデータの増大を防止できる。重ね合わせを行った後、シャッターボタン27を押して第1の3次元データの入力を行う。
【0046】
第1の3次元データの入力が終わると、案内画像GP1は案内画像GP2に変更される。案内画像GP2は、被写体Qを次にどの位置から撮影すべきかについて指示する。この指示にしたがって次の入力を行うことにより、精度の良い位置合わせが可能となる。
【0047】
図6(b)においては、案内画像GP2は、次に被写体Qを斜め左方向から撮影すべきように指示している。ユーザは、モニタ画像QPが案内画像GP2と重なるように被写体Qのフレーミングを行う。すなわち、モニタ画像QPが案内画像GP2と一致するように、被写体Qと3次元カメラ2との相対位置を変化させる。モニタ画像QPが案内画像GP2と一致したときに、シャッターボタン27を押して第2の3次元データの入力を行う。以降同様に、案内画像GPによって、撮影すべき位置がユーザに順次指示される。ユーザは、各案内画像GPの指示にしたがって入力を順次行う。
【0048】
図6においては、案内画像GPによって頭部をどの方向から撮影すべきかという指示のみが示されているが、例えば、目や鼻などを拡大した案内画像GPを表示することにより、それらの精細なデータを高解像度で入力するように指示を与えることもできる。
【0049】
このように、順次になされる案内画像GPによる指示は、プログラムによって自動的に行われるようにしておくことができる。また、自動的にではなく、手動によって属性情報AJの内容を選択し、選択した順に逐次案内画像GPを表示させるようにすることもできる。
【0050】
案内画像GPによる指示によって入力を行うことにより、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができる。また、撮影された複数の3次元データは、位置合わせが容易であり、精度良く位置合わせを行うことが可能であるから、被写体の全周又は所定範囲における合成画像を容易に取得することができる。また、被写体の必要な部分が漏れなく撮影されるように属性情報AJを旨く設定しておくことによって、欠落のない合成画像を容易に得ることができる。
【0051】
なお、もし合成画像に欠落点などがあった場合に、補間処理によってデータを補うことが可能である。その場合に、最初に作成されたモデルデータMD、修正したモデルデータMD、又は以前に撮影することによって得られた3次元データなどを用いることができる。
【0052】
また、入力された3次元データのうち、データとして信頼性の低い周辺部分については、そのデータを用いないように、且つ表示しないようにすることも可能である。
【0053】
図7は第1の入力形態における3次元データの入力動作及び処理を示すフローチャートである。
ファインダー21上には、現在捕らえている被写体Qがモニタ画像QPとして表示されている(#1)。被写体Qに対応した案内画像GP1がファインダー21上に表示される(#2)。モニタ画像QPが案内画像GP1と重なるようにフレーミングを行う(#3)。ファインダー21に表示された案内画像GP1での座標系で、ファインダー表示用視点位置が決定される(#4)。このときの視点を「第1の視点」とする。第1の視点から、第1の3次元データが入力される(#5)。
【0054】
次の案内画像GP2が表示される(#6)。表示された案内画像GP2と重なるようにフレーミングを行い(#7)、第2の3次元データを入力する(#8)。第2の3次元データの座標系を、第1の3次元データの座標系に変換するためのパラメータを求める(#9)。つまり、ファインダー21上で重ね合わせて入力した3次元データは、それぞれの座標系のデータとなっており、これらの座標系の間で変換が必要となる。3次元データの位置合わせを行うということは、一方の座標系への変換を行うということである。位置合わせの方法は後述する。求められたパラメータにより、第2の3次元データに対する座標変換が行われ(#10)、初期位置合わせが完了する(#11)。さらに高精度に位置合わせを行うために、ICPにより微調整を行う(#12)。
【0055】
なお、ICPとは、最も近い点を対応点として対応点間のトータル距離を最小にする方法である。ICPについては、「A method of registration of 3−D shapes.」(P.Besl and N.McKay.著、IEEE Transactions on Pattern Analysis and Machine Intelligence,12(2):239〜256,1992.)を参照することができる。
【0056】
次に、ステップ#9で述べた位置合わせを行う方法について説明する。説明には次に示す各パラメータを用いる。
Pt:案内画像GP作成時の視点位置
Vt:案内画像GP作成時の視線方向
Ut:案内画像GP作成時の上方向ベクトル
Ft:案内画像GP作成時の焦点距離
St:案内画像GP作成時の注視点までの距離
Fa:撮影した時の焦点距離
Sa:撮影距離
Pa:撮影した時の視点位置
Va:撮影した時の視線方向
Ua:撮影した時の上方向ベクトル
Pa’:座標変換後の視点位置
Va’:座標変換後の視線方向
Ua’:座標変換後の上方向ベクトル
ここに説明する方法では、撮影したときの視点位置Paを求めて位置合わせを行う。ファインダー21上に表示された案内画像GPを作成するときに視点位置Ptと視線方向Vtとが設定される。
【0057】
ファインダー21上で案内画像GPにモニタ画像QPを重ね合わせて被写体Qを撮影するときの視線方向Va及び視点位置Paは次のようになる。すなわち、視線方向Vaは視線方向Vtと同じ方向であり〔下記の(3)式〕、視点位置Paは視線方向Vtと同じ方向の前後に移動した位置となる。
【0058】
ここで、撮影したときのレンズ情報(焦点距離)が得られるため、像倍率が案内画像GPと同じになるように撮影距離Saを求めることにより、視線方向Va(=Vt)の前後の移動距離(St一Sa)が計算でき、下記の(4)式のように視点位置Paが求められる。すなわち、
Ft/St=Fa/Sa …(1)
であるから、撮影距離Saは次の(2)式のようになる。
【0059】
Sa=(Fa×St)/Ft …(2)
また、
Va=Vt,Ua=Ut …(3)
であるから、撮影したときの視点位置Paは次の(4)式のようになる。
【0060】
Pa=Pt+(St一Sa)×Vt …(4)
各方向から得られた3次元データを視点位置Paに基づいて平行移動させ、視線方向Vaに基づいて回転移動させることで、案内画像GPを作成したもとの3次元データの座標系へ変換することが可能となる。もとの3次元データの座標系へ変換する座標変換のための平行移動量Tは次の(5)式のようになる。
【0061】
T=Pa’−Pa …(5)
座標変換後の視線方向Va’及び座標変換後の上方向ベクトルUa’は、回転マトリックスをRとすると、Va,Uaを用いて、それぞれ次の(6)(7)式のように表される。
【0062】
Va’=R×Va …(6)
Ua’=R×Ua …(7)
平行移動量T及び回転マトリックスRによって各方向から得られた3次元データをもとの3次元データの座標系でのデータに変換することで位置合わせが行われる。
【0063】
案内画像GPの各指示毎の移動量は予め属性情報PDで決められている。重ね合わせを行うことで3次元カメラ2と被写体Qとの相対的な移動量が求められる。複数位置から入力した3次元データを、この移動量に基づいて、初めに撮影したときの座標系におけるデータに変換する。これにより、位置合わせが行える。
【0064】
上述したように、複数位置から入力された3次元データは、モニタ画像QPと案内画像GPとの重ね合わせにより、精度良く位置合わせが行われた状態で入力されている。したがって、事後的に位置合わせを行う必要がなく楽である。
【0065】
このように精度良く位置合わせが行われた複数位置からの3次元データに基づいて、ホスト3で貼り合わせ処理が行われる。したがって、ホスト3での貼り合わせ処理が高速に且つ高精度で行える。
〔第2の入力形態〕
ところで、入力対象である被写体Qは、同じ種類であっても、形状が個別に多少異なることがある。例えば人間の頭部は、個人毎に、それぞれ、丸い、長い、又は後頭部が出ているなどというように、様々な特徴をもつ。また、大人と子供とでは大きさが異なる。このため、予め用意された案内画像GPが被写体Qの形状とかなりずれていたり、大きさがかなり異なったりすることがあり、重ね合わせがうまくできないことがある。
【0066】
第2の入力形態では、案内画像GPとモニタ画像QPとの間で対応付けを行うことでモデルデータMDを修正し、モニタ画像QPと案内画像GPとのスケールが合うようにスケール合わせを行う。
【0067】
図8は第2の入力形態におけるモニタ画像QP及び案内画像GPを示す図である。
図8において、ファインダー21上には、モニタ画像QPに対して縦方向に大きい案内画像GP3が表示されている。ユーザは、まず、モニタ画像QPが案内画像GP3におおよそ重なるように被写体Qのフレーミングを行う。次に、案内画像GP3とモニタ画像QPとの間で対応付けを行う。頭頂部P1、顎の先端P2、及び両耳の付け根P3などの各点をモデルデータMDに属性情報AJとして与えておき、各点に対応する点をモニタ画像QP上で指定する。なお、任意の対応点を指定する方法でもよい。
【0068】
その後、対応付けが行われた各点間の縦方向及び横方向の各移動量の比率が平均され、モデルデータMD、つまり、案内画像GPの全体に対してスケール変更が行われる。これによって、縦横比のスケール合わせがなされた案内画像GP4(図示せず)が生成される。
【0069】
そして、案内画像GP4にモニタ画像QPが重なるように被写体Qのフレーミングを行い、第1の3次元データの入力を行う。第1の3次元データの入力が終わると、第1の入力形態の場合と同様に、次の案内画像GPが表示される。以下、第1の3次元データの入力の場合と同様に、案内画像GPの指示にしたがって、おおよその重ね合わせ、対応付けによるスケール合わせ、及び3次元データの入力を繰り返す。
【0070】
このように、各3次元データは、それぞれ被写体Qの形状にスケールが合わされた案内画像GPの指示にしたがって入力されるので、精度良く位置合わせが行われた状態で入力されることになる。したがって、形状が個別に多少異なる被写体Qの場合であっても、精度の高い合成画像が得られる。
【0071】
なお、第1の入力形態の場合と同様に、合成画像に欠落点などがあった場合に、補間処理によってデータを補うことが可能である。また、入力された3次元データのうち、データとして信頼性の低い周辺部分について、そのデータを用いないように、且つ表示しないようにすることも可能である。
【0072】
図9は第2の入力形態における3次元データの入力動作及び処理を示すフローチャートである。
ファインダー21上には、現在捕らえている被写体Qがモニタ画像QPとして表示されている(#21)。被写体Qに対応した案内画像GP3が表示される(#22)。モニタ画像QPに案内画像GP3がおおよそ重なるようにフレーミングを行う(#23)。案内画像GP3とモニタ画像QPとの間で対応付けを行う。対応点の指定により、モデルデータMDと被写体Qの縦横比のスケール合わせを行う(#24)。この位置での座標系で、ファインダー表示用視点位置が決定される(#25)。このときの視点を「第1の視点」とする。第1の視点から第1の3次元データが入力される(#26)。被写体Qの実寸とモデルデータMDのスケール合わせを行うため、キャリブレーションを行う(#27)。
【0073】
次の案内画像GP4が表示される(#28)。モニタ画像QPに案内画像GP4がおおよそ重なるようにフレーミングを行い(#29)、対応点の指定により、モデルデータMDと被写体Qの縦横比のスケール合わせを行う(#30)。スケール合わせがなされた案内画像GP5(図示せず)にモニタ画像QPをぴったりと重ね合わせて、第2の3次元データを入力する(#31)。第2の3次元データの座標系を、第1の3次元データの座標系に変換するためのパラメータを求め(#32)、求められたパラメータにより、第2の3次元データに対する座標変換が行われ(#33)、第1の入力形態の場合と同様に、初期位置合わせが完了し(#34)、さらに高精度に位置合わせを行うために、ICPにより微調整を行う(#35)。
【0074】
上述のステップ24及びステップ30が本発明の対応付け手段及びスケール一致手段に相当する。
上述の実施形態において、案内画像GP及びモニタ画像QPを3次元カメラ2と一体となったファインダー21上に表示させたが、3次元カメラ2と別体化したファインダーやホスト3におけるディスプレイ3bに表示させることも可能である。
【0075】
上述の実施の形態において、ファインダー21として、ハーフミラーなどを用いたシースルー方式の表示装置を用いてもよい。これにより、3次元カメラ2の消費電力が節約できる。
【0076】
上述の実施形態において、計測システム1、3次元カメラ2の各部又は全体の構成、形状、配置、回路、処理形態などは、本発明の主旨に沿って適宜変更することができる。
【0077】
【発明の効果】
本発明によると、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することが可能となる。
【0078】
請求項3又は請求項6の発明によると、形状が個別に多少異なる被写体の場合であっても、精度の高い合成画像が得られる。
【図面の簡単な説明】
【図1】本発明に係る3次元カメラを用いた計測システムの構成図である。
【図2】3次元カメラの外観を示す図である。
【図3】3次元カメラの機能構成を示すブロック図である。
【図4】3次元カメラによって被写体の全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【図5】重合わせ画像発生部によるモニタ画像及び案内画像の生成の過程を説明するための図である。
【図6】ファインダー上に表示された被写体のモニタ画像及び案内画像を示す図である。
【図7】第1の入力形態における3次元データの入力動作及び処理を示すフローチャートである。
【図8】第2の入力形態におけるモニタ画像及び案内画像を示す図である。
【図9】第2の入力形態における3次元データの入力動作及び処理を示すフローチャートである。
【図10】スリット光投影法を適用した3次元カメラの入力原理を示す図である。
【符号の説明】
2 3次元カメラ(3次元データ入力装置)
21 ファインダー(モニタ画面)
63 メモリ(記憶手段)
75 モデルデータメモリ(記憶手段)
76 表示制御部(表示指示手段)
Q 被写体
MD モデルデータ(3次元形状モデルのデータ)
AJ 属性情報
GP 案内画像
QP モニタ画像(入力部分の画像)
#24 ステップ(対応付け手段、スケール一致手段)
#30 ステップ(対応付け手段、スケール一致手段)
Claims (6)
- 被写体の入力部分を確認するためのモニタ画面を有し、前記被写体を撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置における3次元データ入力方法であって、
前記被写体の形状と略同一の形状を有する3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示し、
前記案内画像に基づいてフレーミングを行い、
前記フレーミングがなされた状態で前記被写体の撮影を行う、
ことを特徴とする3次元データ入力方法。 - 被写体の入力部分を確認するためのモニタ画面を有し、前記被写体を撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置における3次元データ入力方法であって、
前記被写体の形状と略同一の形状を有する3次元形状モデルのデータ及び前記3次元形状モデルを観察する位置に関する情報である属性情報をメモリに記憶しておき、
前記属性情報にしたがって前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示し、
前記入力部分の画像が前記案内画像に重なり合うようにフレーミングを行い、
前記フレーミングがなされた状態で前記被写体の撮影を行う、
ことを特徴とする3次元データ入力方法。 - 前記入力部分の画像と前記案内画像との対応付けを行い、対応付けによって前記案内画像のスケールを前記被写体のスケールに一致させる、
請求項1又は請求項2記載の3次元データ入力方法。 - 前記撮影を前記被写体について互いに異なる位置毎に行う、
請求項1乃至請求項3記載の3次元データ入力方法。 - 被写体の入力部分を確認するためのモニタ画面を有し、前記被写体を撮影することによって前記入力部分の3次元データの入力を行うように構成された3次元データ入力装置であって、
前記被写体の形状と略同一の形状を有する3次元形状モデルのデータ及び前記3次元形状モデルを観察する位置に関する情報である属性情報を記憶する記憶手段と、
前記属性情報にしたがって前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示させる表示指示手段と、
フレーミングがなされた前記被写体を撮影することによって入力される3次元データを記憶する記憶手段と、
を有することを特徴とする3次元データ入力装置。 - 前記入力部分の画像と前記案内画像との対応付けを行う対応付け手段と、
前記対応付けに基づいて前記案内画像のスケールを前記被写体のスケールに一致させるスケール一致手段と、
を有してなる請求項5記載の3次元データ入力装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755399A JP4221808B2 (ja) | 1999-03-30 | 1999-03-30 | 3次元データ入力方法及び装置 |
US09/536,686 US7046838B1 (en) | 1999-03-30 | 2000-03-28 | Three-dimensional data input method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755399A JP4221808B2 (ja) | 1999-03-30 | 1999-03-30 | 3次元データ入力方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000287223A JP2000287223A (ja) | 2000-10-13 |
JP4221808B2 true JP4221808B2 (ja) | 2009-02-12 |
Family
ID=13918190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08755399A Expired - Fee Related JP4221808B2 (ja) | 1999-03-30 | 1999-03-30 | 3次元データ入力方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4221808B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677613B2 (ja) * | 2006-05-08 | 2011-04-27 | コニカミノルタセンシング株式会社 | 三次元形状測定システム |
WO2010142929A1 (en) * | 2009-06-11 | 2010-12-16 | Toshiba Research Europe Limited | 3d image generation |
CN102460066B (zh) * | 2009-06-29 | 2014-10-01 | 实耐宝公司 | 具有用户界面的车辆测量系统 |
JP5442122B2 (ja) * | 2010-07-15 | 2014-03-12 | キヤノン株式会社 | 被検面の形状を計測する計測方法、計測装置及び光学素子の製造方法 |
JP5593243B2 (ja) * | 2011-01-28 | 2014-09-17 | 株式会社日立ソリューションズ | 立体画像処理システム、立体画像処理装置および立体画像処理方法 |
JP5269972B2 (ja) * | 2011-11-29 | 2013-08-21 | 株式会社東芝 | 電子機器及び三次元モデル生成支援方法 |
JP2014202534A (ja) * | 2013-04-02 | 2014-10-27 | 株式会社東芝 | 動翼測定装置と動翼測定方法 |
JP6548967B2 (ja) | 2015-06-16 | 2019-07-24 | 株式会社東芝 | 画像処理装置、画像処理方法及びプログラム |
-
1999
- 1999-03-30 JP JP08755399A patent/JP4221808B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000287223A (ja) | 2000-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7046838B1 (en) | Three-dimensional data input method and apparatus | |
JP4306006B2 (ja) | 3次元データ入力方法及び装置 | |
JP4032603B2 (ja) | 3次元計測装置 | |
JP6504274B2 (ja) | 三次元形状データおよびテクスチャ情報生成システム、撮影制御プログラム、及び三次元形状データおよびテクスチャ情報生成方法並びに情報記録媒体 | |
JP4262014B2 (ja) | 画像撮影装置および画像処理方法 | |
JP4111592B2 (ja) | 3次元入力装置 | |
JPH08116490A (ja) | 画像処理装置 | |
JP3678022B2 (ja) | 3次元入力装置 | |
JP4221808B2 (ja) | 3次元データ入力方法及び装置 | |
JP3893169B2 (ja) | 3次元計測装置 | |
JP3178205B2 (ja) | 画像入力システム | |
JP3282332B2 (ja) | 画像入力システム | |
JP2000283721A (ja) | 3次元入力装置 | |
JP3235485B2 (ja) | 3次元計測のための分光装置 | |
JP2006017632A (ja) | 3次元画像処理装置、光軸調整方法、光軸調整支援方法 | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
JP2007071891A (ja) | 3次元計測装置 | |
JP3317093B2 (ja) | 3次元形状データ処理装置 | |
JP4266736B2 (ja) | 画像処理方法および装置 | |
JP4262013B2 (ja) | 画像処理方法および画像生成装置 | |
JP2001280917A (ja) | 3次元計測装置 | |
JP2000292121A (ja) | 3次元計測方法及び3次元入力装置 | |
JP4451968B2 (ja) | 3次元画像入力装置 | |
JP4266737B2 (ja) | 画像処理方法および装置 | |
JP3861475B2 (ja) | 3次元入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081028 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081110 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111128 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111128 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121128 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121128 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131128 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |