JP4306006B2 - Three-dimensional data input method and apparatus - Google Patents
Three-dimensional data input method and apparatus Download PDFInfo
- Publication number
- JP4306006B2 JP4306006B2 JP08755299A JP8755299A JP4306006B2 JP 4306006 B2 JP4306006 B2 JP 4306006B2 JP 08755299 A JP08755299 A JP 08755299A JP 8755299 A JP8755299 A JP 8755299A JP 4306006 B2 JP4306006 B2 JP 4306006B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- dimensional data
- dimensional
- guide image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、被写体の3次元データを入力するための3次元データ入力方法及び装置に関する。
【0002】
【従来の技術】
光学式の3次元データ入力装置(3次元カメラ)は、接触型に比べて高速の計測が可能であることから、CGシステムやCADシステムへのデータ入力、身体計測、ロボットの視覚認識などに利用されている。このような3次元データ入力装置に好適な計測方法としてスリット光投影法(光切断法ともいう)が知られている。
【0003】
図8はスリット光投影法を適用した3次元カメラ80の入力原理を示す図である。
図8において、3次元カメラ80は、投光部81と受光部82とを有する。投光部81は、断面が直線状のスリット光Sを照射する。受光部82は、撮像面83及び図示しない結像レンズを有する。投光部81と受光部82とは、通常、互いに所定の寸法だけ離れた状態で、1つのハウジングに一体的に組み込まれている。
【0004】
被写体Q1は、投光部81からのスリット光Sによって照射され、その反射光が撮像面83上でスリット像として捕らえられる。このスリット像における1つの点p' に対応する被写体Q1上の点pの空間座標は、スリット光Sによって形成される平面と、点p' 及び結像レンズの中心点Oを結ぶ直線Lとの交点の座標として求められる。したがって、スリット光Sで得られた1枚のスリット像から、このスリット像上の各点に対応した被写体Q1の表面の点群の空間座標が求められる。スリット光Sを水平方向に移動させることで被写体Q1を走査し、各走査位置でのスリット像を入力することで被写体Q1の表側部分、つまりスリット光Sの照射を受けた部分の3次元データが入力される。
【0005】
被写体Q1の全周における3次元データを得たい場合には、被写体Q1について複数方向から入力することが必要となる。そのための方法として2つの方法が知られている。第1の方法では、3次元カメラ80を、その撮影方向が被写体Q1に向いた状態で被写体Q1を中心とした所定の軌道上を移動させ、被写体Q1に対して複数方向から撮影を行う。第2の方法では、回転ステージに被写体Q1を載せて回転させ、所定位置に設置した3次元カメラ80により、被写体Q1に対して複数方向から撮影を行う。
【0006】
複数方向から入力された被写体Q1の3次元データは、3次元カメラ80の移動する軌道上における位置、又は回転ステージの位置に基づいて算出された変換パラメータにより、それぞれ位置合わせの処理が行われる。これにより、被写体Q1の全周における3次元デ−タが得られる。
【0007】
しかし、上述した方法では、位置合わせの精度を向上するために、3次元カメラ80の位置又は回転ステージの角度位置を高精度に検出する必要があり、コスト高となる。
【0008】
しかも、3次元カメラ80を移動装置などにセットすることとなるため、3次元カメラ80を手に持って撮影することができない。そのため、入力を行うことのできる被写体が制限される。つまり、例えば、既設の石像又は銅像などのように移動できない被写体は、この方法によっては3次元デ−タの入力ができない。
【0009】
このような問題を解決するために、特開平9−5051号公報に記載の装置が提案されている。この従来の装置によると、被写体Q1を任意の複数方向から撮影し、3次元デ−タの入力を行う。入力を行った後、複数方向から入力された3次元形状、及び、それらと同時に同一の視野から入力され且つ3次元データとの対応付けがなされているカラー画像を表示する。ユーザは、表示されたカラー画像を見ながら、それらの3次元形状における互いの対応点を色の変化などに基づいて手動で指定する。ユーザにより指定された対応点に基づいて、入力された3次元データの相互間の位置合わせが行われる。
【0010】
【発明が解決しようとする課題】
しかし、上に述べた従来の装置によると、複数の3次元データの相互間の位置合わせのために、ユーザが対応点を指定する作業を行う必要があり、その作業が極めて面倒である。
【0011】
また、3次元デ−タの入力を行う際には、被写体Q1の全周について旨く撮影が行われたか否かを確認する方法がない。そのため、複数の3次元データが適切な重なりを持って連続していなかったり、データが不足する場合には、3次元データの相互間の対応点を旨くとることができない。そのような場合には、3次元データの相互間の位置合わせの精度が低下したり、酷い場合には撮影をやり直す必要がある。
【0012】
本発明は、上述の問題に鑑みてなされたもので、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することを可能とする3次元データ入力方法及び装置を提供することを目的とする。
【0013】
請求項1に係る3次元データ入力方法は、図5及び図6に示すように、被写体Qを確認するためのモニタ画面21を有し、撮影により前記被写体Qを撮影することによって前記被写体Qの3次元データの入力を行うように構成された3次元データ入力装置2における3次元データ入力方法であって、前記被写体Qの一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成し、前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示し、その際に、前記案内画像GPを、次の撮影時の視点方向からの画像に変換して表示し、前記案内画像GPと前記被写体Qの画像QPのうち前記案内画像GPに対応する画像とが重なるようにフレーミングを行い、前記フレーミングがなされた状態で前記被写体Qの次の撮影を行う。
【0014】
請求項2に係る3次元データ入力装置は、図2乃至図6に示すように、被写体Qを確認するためのモニタ画面21を有し、前記被写体Qを撮影することによって前記被写体Qの3次元データの入力を行うように構成された3次元データ入力装置2であって、撮影により前記被写体Qの一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成する3次元形状モデル画像生成手段73と、前記3次元形状モデルの画像をフレーミングの案内画像GPとして前記モニタ画面21に表示させる表示指示手段76と、前記案内画像GPを表示する際に、当該案内画像GPを次の撮影時の視点方向からの画像に変換する手段と、フレーミングがなされた被写体Qを次に撮影することによって入力される3次元データを記憶する記憶手段63と、を有する。
【0015】
【発明の実施の形態】
図1は本発明に係る3次元カメラ2を用いた計測システム1の構成図、図2は3次元カメラ2の外観を示す図である。
【0016】
図1に示すように、計測システム1は、3次元カメラ2及びホスト3から構成される。
3次元カメラ2は、スリット光投影法によって立体計測を行う可搬型の3次元データ入力装置であり、入力対象となる被写体Qを撮影することにより、3次元データ(距離データ)を入力し、この3次元データに基づいて被写体Qの3次元形状を求めるための基となるデータを算出し出力する。
【0017】
ホスト3は、CPU3a、ディスプレイ3b、キーボード3c、及びマウス3dなどから構成されたコンピュータシステムである。3次元カメラ2とホスト3との間では、オンライン及び可搬型の記録メディア4によるオフラインの両方の形態のデータ受渡しが可能である。記録メディア4としては、光磁気ディスク(MO)、ミニディスク(MD)、メモリカードなどがある。
【0018】
ホスト3は、3次元カメラ2から送られた3次元データに基づいて、三角測量法を用いてサンプリング点の座標を求める演算処理や貼り合わせ処理(合成処理)などを行う。そのためのソフトウエアはCPU3aに組み込まれている。
【0019】
図2(a)に示すように、3次元カメラ2は、そのハウジング20の前面に投光窓20a及び受光窓20bを有する。投光窓20aは受光窓20bに対して上側に位置する。内部の光学ユニットOUが射出するスリット光(所定幅wの帯状のレーザビーム)Uは、投光窓20aを通って被写体Qに向かう。スリット光Uの長さ方向M1の放射角度φは固定である。被写体Qの表面で反射したスリット光Uの一部が受光窓20bを通って光学ユニットOUに入射する。なお、光学ユニットOUは、投光軸と受光軸との相対関係を適正化するための2軸調整機構を備えている。
【0020】
ハウジング20の上面には、ズーミングボタン25a,25b、手動フォーカシングボタン26a,26b、及びシャッターボタン27が設けられている。
また、図2(b)に示すように、ハウジング20の背面には、ファインダー21、カーソルボタン22、セレクトボタン23、キャンセルボタン24、アナログ出力端子32、ディジタル出力端子33、及び記録メディア4の着脱口30aが設けられている。
【0021】
ファインダー21は、液晶ディスプレイなどのモニタ画面を有した画像表示装置である。ファインダー21上には、モニタ画像QP及び本発明の特徴である案内画像GPが表示される。モニタ画像QP及び案内画像GPの詳細については後述する。また、各操作段階においてユーザが次に行うべき操作を文字や記号によって指示する操作手順情報、及び撮影した部分の3次元データが濃淡によって表現された距離画像(濃淡画像)が表示される。
【0022】
背面の各ボタン22〜24は、撮影モード等の設定を行うためのものである。
アナログ出力端子32からは、被写体Qの2次元画像信号が例えばNTSC形式で出力される。ディジタル出力端子33は例えばSCSI端子である。
【0023】
次に、3次元カメラ2の機能について説明する。
図3は3次元カメラ2の機能構成を示すブロック図である。図3における実線矢印は電気信号の流れを示し、破線矢印は光の流れを示している。
【0024】
図3に示すように、3次元カメラ2は、上述の光学ユニットOUを構成する投光側及び受光側の2つの光学系40,50を有している。光学系40において、半導体レーザ(LD)41が射出する波長685nmのレーザビームは、投光レンズ系42を通過することによってスリット光Uとなり、ガルバノミラー(走査手段)43によって偏向される。半導体レーザ41のドライバ44、投光レンズ系42の駆動系45、及びガルバノミラー43の駆動系46は、システムコントローラ61によって制御される。
【0025】
光学系50において、ズームユニット51によって集光された光はビームスプリッタ52によって分光される。
半導体レーザ41の発振波長帯域の光は、計測用センサ53に入射する。可視帯域の光は、モニタ用カラーセンサ54に入射する。計測用センサ53及びモニタ用カラーセンサ54は、どちらもCCDエリアセンサである。計測用センサ53及びモニタ用カラーセンサ54は、それぞれ、被写体Qの撮影情報又は撮像情報を電気信号として出力する。
【0026】
ズームユニット51は内焦型であり、図示しないズームレンズが設けられている。このズームレンズを長焦点側と短焦点側との間で撮影方向に沿って移動することにより、3次元データを様々な解像度で入力することができる。また、入射光の一部がオートフォーカシング(AF)に利用される。AF機能は、AFセンサ57、レンズコントローラ58、及びフォーカシング駆動系59によって実現される。ズーミング駆動系60は電動ズーミングのために設けられている。
【0027】
次に、3次元カメラ2における電気信号の主な流れについて説明する。
まず、計測用センサ53による撮影情報は、ドライバ55からのクロックに同期して出力処理回路62へ転送される。出力処理回路62は、計測用センサ53の出力する各画素の光電変換信号を増幅する増幅器、及び光電変換信号を8ビットの受光データに変換するAD変換部を有している。出力処理回路62で得られた受光データはメモリ63によって一時的に記憶された後、重心演算回路73へ送られる。その際のアドレス指定はメモリ制御回路63Aが行う。重心演算回路73は、入力された受光データに基づいて3次元形状を算出するための基となるデータを算出し、それを出力用メモリ64に出力する。出力用メモリ64に格納されたデータは、SCSIコントローラ66を介してディジタル出力端子33から出力され、又は記録メディア4に出力される。
【0028】
また、重心演算回路73は、被写体Qの形状に対応した3次元データである被写体形状データTDを生成し、それを表示用メモリ74に出力する。表示用メモリ74に格納された被写体形状データTDは、表示制御部76によって後述する画像処理などが施された後、案内画像GPとしてファインダー21上に表示される。
【0029】
一方、モニタ用カラーセンサ54による撮像情報は、ドライバ56からのクロックに同期してカラー処理回路67へ転送される。カラー処理を受けた撮像情報は、NTSC変換回路70及びアナログ出力端子32を経てオンライン出力され、又はディジタル画像生成部68で量子化されてカラー画像メモリ69に格納される。カラー画像メモリ69に格納された撮像情報は、SCSIコントローラ66を介した後、ディジタル出力端子33からオンライン出力され又は記録メディア4に書き込まれる。撮像情報は、また、表示制御部76を介してファインダー21上にモニタ画像QPとして表示される。
【0030】
システムコントローラ61は、表示制御部76に対して、ファインダー21上に操作手順情報を表示するための指示を与える。なお、被写体形状データTDを生成するための光学系40,50から重心演算回路73に至るまでの回路、表示用メモリ74、カラー画像メモリ69、表示制御部76、システムコントローラ61、及びファインダー21は、重合わせ画像発生部7を構成する。
【0031】
以上のような構成及び機能を有する3次元カメラ2によって、被写体Qの全周又は所定範囲の3次元データが入力される。
図4は3次元カメラ2によって被写体Qの全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【0032】
図4(a)に示す方法は、ユーザが3次元カメラ2を被写体Qの周囲で移動させ、適応的に撮影条件を変更して入力を行う。図4(b)に示す方法は、被写体Qそれ自体を移動させながら、適応的に撮影条件を変更して入力を行う。また、3次元カメラ2を所定のアームに取り付け、このアームを移動させることで被写体Qを撮影する位置を変えるようにしてもよい。
【0033】
次に、モニタ画像QP及び案内画像GPについて説明する。
図5は重合わせ画像発生部7によるモニタ画像QP及び案内画像GPの生成の過程を説明するための図、図6はファインダー21上に表示された被写体Qのモニタ画像QP及び案内画像GPを示す図である。
【0034】
図5及び図6において、モニタ画像QPは、被写体Qのうちユーザが3次元カメラ2の視線を向けて3次元データを入力しようとしている部分をモニタするためのカラー画像であり、カラー画像メモリ69に格納された撮像情報から生成される。
【0035】
案内画像GPは、被写体Qの全周又は所定範囲の3次元データを入力する際に、被写体Qをどの位置からどのようにして撮影すべきかという情報をユーザに与える画像である。案内画像GPは、図5に示されるように、被写体形状データTDから生成される。
【0036】
ここで、被写体形状データTDは、被写体Qを入力した際の当該入力部分の3次元データである。本実施形態においては、兎の左半身が例として示されている。
【0037】
被写体形状データTDに対して、ワイヤーフレーム、シェ一ディング、テクスチャマッピング、又は色付けなどの処理が施される。色付けは、ワイヤーフレーム、シェ一ディング、又はテクスチャマッピング画像に対して、モニタ画像QPとの識別を行い易くするためになされる。色付けにより、例えば、青、緑、赤などの色となる。また、モニタ画像QPと案内画像GPの混合比を変えることにより、つまりオーバーラップしているこれら2つの画像の濃度の割合を任意に変えることにより、ユーザにとって最も見やすい状態とすることも可能である。これらの処理が施されることにより、案内画像GPとモニタ画像QPとの重ね合わせが容易となる。ユーザの希望に応じて、いずれの処理を施すかを選択することが可能である。本実施形態においては、テクスチャマッピングを施した例が示されている。
【0038】
ユーザは、案内画像GPが被写体を所望の位置から見たときの状態となるように、被写体形状データTDを回転(姿勢変化)させたり、ズーミングさせたりすることができる。これによって案内画像GPが変化する。ユーザはこの案内画像GPを参照して次の撮影位置を決めることができる。以降、案内画像GPをその表示形状によって他と区別する必要がある場合には、「GP1」「GP2」などのように末尾に数字を付して示す。
【0039】
これらのモニタ画像QP及び案内画像GPを用いて3次元データの入力を行う方法について、図5及び図6を参照して説明する。
ユーザは、まず、被写体Qを一方向から撮影する。ここでは、兎の左半身を右横から撮影する。撮影によって、兎の左半身の3次元データが得られる。得られた3次元データは、図6(a)に示すように、案内画像GP1としてファインダー21上に表示される。
【0040】
次に、ユーザは、例えば案内画像GP1(被写体形状データTD)を、上から見て右方向に回転させるように操作を行い、図6(b)に示すように、被写体を後方から見たときの状態である案内画像GP2を表示させる。このとき、被写体形状データTDの右側の端領域GPRがファインダー21上に表示されるようにしておく。1回目の撮影で得られた被写体形状データTDと、2回目の撮影で得られる被写体形状データTDとをつなぎ合わせるためののりしろを残しておくためである。なお、のりしろとなる端領域GPRの色を他の部分と異ならせておくと、ユーザが見やすくなる。
【0041】
次に、図6(c)に示すように、案内画像GP2とモニタ画像QPのうち案内画像GP2に対応する部分とが重なるようにフレーミングを行う。
なお、フレーミングに際しては、図4に示したように、3次元カメラ2を動かしてもよいし、被写体Qを動かしてもよい。ズーミングを行うことによって、又は3次元カメラ2を移動させることによって、様々な解像度で入力できる。例えば、顔などの精細なデータが必要な部分は高い解像度で入力し、これとは逆に背中などのあまり形状の変化が激しくない部分は低い解像度で入力することができる。これによって、不必要なデータの増大を防止できる。
【0042】
フレーミングを行った後で、シャッターボタン27を押して2回目の撮影を行う。ここでは、2回目は兎を後方から撮影する。
同様な操作によって、案内画像GP2を案内画像GP3、GP4…(図示せず)というように順次変更し、被写体の全周にわたって撮影を行う。これによって、被写体の全周の3次元データが入力される。
【0043】
なお、3回目以降の案内画像GP3、GP4…を生成するに当たって、例えば次の方法によることができる。
(1) 前回に撮影した画像から案内画像GPを生成する。
(2) これまでに撮影した全画像を使って案内画像GPを生成する。
(3) これまでに撮影した画像の中から任意の画像を選択し、その画像から案内画像GPを生成する。
【0044】
このように、順次になされる案内画像GPの変更は、ユーザの希望に応じて行う手動モード又は予プログラムによって決められた順序により行う自動モードのいずれでも可能である。手動モードを選択した場合には、マウスなどによって操作することも可能である。
【0045】
案内画像GPを参考にして入力を行うことにより、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができる。また、撮影された複数の3次元データは、位置合わせが容易であり、精度良く位置合わせを行うことが可能であるから、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することができる。
【0046】
図7は3次元データの入力動作及び処理を示すフローチャートである。
被写体に対し、適当な位置を第1の視点として撮影を行うことにより、第1の3次元データが入力される(#1)。第1の3次元データの入力時における座標系でファインダー表示用視点位置が決定される(#2)。第1の視点で、第1の3次元データに基づいた案内画像GP1が表示される(#3)。案内画像GP1は、自動的又はユーザの指定による回転やズーミングによって、案内画像GP2となる。次の視点である第2の視点から案内画像GP2とモニタ画像QPとを重ね合わせる(#4)。うまく重ね合わせができたら、第2の3次元データの入力を行う(#5)。第2の3次元データを、第1の3次元データの座標系に変換するためのパラメータを求める。ファインダー21上で重ね合わせて入力した3次元データはそれぞれの座標系のデータとなっており、これらの座標系の間で変換が必要となる。3次元データの位置合わせを行うということは、一方の座標系への変換を行うということになる。位置合わせを行う方法としては後述の2つの方法が可能である(#6)。求められたパラメータにより、第2の3次元データに対する座標変換が行われ(#7)、初期位置合わせが完了する(#8)。さらに高精度に位置合わせを行うために、ICPにて微調整を行う(#9)。
【0047】
なお、ICPとは、最も近い点を対応点として対応点間のトータル距離を最小にする方法である。ICPについては「A method of registration of 3−D shapes.」(P.Besl and N.McKay.著、IEEE Transactions on PatternAnalysis and Machine Intelligence,12(2):239〜256,1992.)を参照することができる。
【0048】
次に、(#6)で述べた位置合わせを行う2つの方法について説明する。
〔第1の位置合わせ方法〕
説明には次に示す各パラメータを用いる。
【0049】
Pt:案内画像GP作成時の視点位置
Vt:案内画像GP作成時の視線方向
Ut:案内画像GP作成時の上方向ベクトル
Ft:案内画像GP作成時の焦点距離
St:案内画像GP作成時の注視点までの距離
Fa:撮影した時の焦点距離
Sa:撮影距離
Pa:撮影した時の視点位置
Va:撮影した時の視線方向
Ua:撮影した時の上方向ベクトル
Pa’:座標変換後の視点位置
Va’:座標変換後の視線方向
Ua’:座標変換後の上方向ベクトル
ここに説明する方法では、撮影したときの視点位置Paを求めて位置合わせを行う。ファインダー21上に表示された案内画像GPを作成するときに視点位置Ptと視線方向Vtとが設定される。
【0050】
ファインダー21上で案内画像GPにモニタ画像QPを重ね合わせて被写体Qを撮影するときの視線方向Va及び視点位置Paは次のようになる。すなわち、視線方向Vaは視線方向Vtと同じ方向であり〔下記の(3)式〕、視点位置Paは視線方向Vtと同じ方向の前後に移動した位置となる。
【0051】
ここで、撮影したときのレンズ情報(焦点距離)が得られるため、像倍率が案内画像GPと同じになるように撮影距離Saを求めることにより、視線方向Va(=Vt)の前後の移動距離(St一Sa)が計算でき、下記の(4)式のように視点位置Paが求められる。すなわち、
Ft/St=Fa/Sa …(1)
であるから、撮影距離Saは次の(2)式のようになる。
【0052】
Sa=(Fa×St)/Ft …(2)
また、
Va=Vt,Ua=Ut …(3)
であるから、撮影したときの視点位置Paは次の(4)式のようになる。
【0053】
Pa=Pt+(St一Sa)×Vt …(4)
各方向から得られた3次元データを視点位置Paに基づいて平行移動させ、視線方向Vaに基づいて回転移動させることで、案内画像GPを作成したもとの3次元データの座標系へ変換することが可能となる。もとの3次元データの座標系へ変換する座標変換のための平行移動量Tは次の(5)式のようになる。
【0054】
T=Pa’−Pa …(5)
座標変換後の視線方向Va’及び座標変換後の上方向ベクトルUa’は、回転マトリックスをRとすると、Va,Uaを用いて、それぞれ次の(6)(7)式のように表される。
【0055】
Va’=R×Va …(6)
Ua’=R×Ua …(7)
平行移動量T及び回転マトリックスRによって各方向から得られた3次元データをもとの3次元データの座標系でのデータに変換することで位置合わせが行われる。
【0056】
重ね合わせを行うことで3次元カメラ2と被写体Qとの相対的な移動量が求められる。複数位置から入力した3次元データを、この移動量に基づいて、初めに撮影したときの座標系におけるデータに変換する。これにより、位置合わせが行える。
【0057】
上述したように、複数位置から入力された3次元データは、モニタ画像QPと案内画像GPとの重ね合わせにより、精度良く位置合わせが行われた状態で入力されている。したがって、事後的に位置合わせを行う必要がなく楽である。
【0058】
このように精度良く位置合わせが行われた複数位置からの3次元データに基づいて、ホスト3で貼り合わせ処理が行われる。したがって、ホスト3での貼り合わせ処理が高速に且つ高精度で行える。
〔第2の位置合わせ方法〕
この方法では、3次元データの重なり部分が既知であることを利用して位置合わせを行なう。
【0059】
説明には次に示す各パラメータを用いる。
Pti:最初に撮影されたデータの対応点
Pai:ファインダー上で位置合わせして撮影したデータの対応点
T:平行移動量
R:回転移動を示す回転マトリックス
ファインダー21上で重なったエリア内の点群に対し、この2次元画像上で最も近い点を対応点とする。この対応点の3次元上での距離が最小になるような座標変換を行うことにより位置合わせが行われる。対応点の距離が最小になる座標変換は、対応点の重心位置が一致するように平行移動量を決定し、次に回転移動を最小2乗法などを用いて求めることができる。その際に、次に示す(8)(9)式を用いる。
【0060】
【数1】
【0061】
回転マトリックスRはJを最小にするように決定する。
【0062】
【数2】
【0063】
この計算方法については、文献「Faugeras and Hebert,1986 O.Faugeras and M.Hebert.The representation,recognition and locati ngof 3−D objects.Internatinoal Journal of Robotics Research 5(3):27−52,1986.」を参照することができる。
【0064】
以上のようにして求められた平行移動量T及び回転マトリックスRを用いて第2の3次元データの各点Piの座標変換を次の(10)式により行う。
P’i=R×(Pi一T) …(10)
上述の座標変換を行なうことにより、第1の3次元データと第2の3次元データとの位置合わせが可能となる。
【0065】
上述の実施形態において、案内画像GP及びモニタ画像QPを3次元カメラ2と一体となったファインダー21上に表示させたが、3次元カメラ2と別体化したファインダーやホスト3におけるディスプレイ3bに表示させることも可能である。
【0066】
上述の実施の形態において、ファインダー21として、ハーフミラーなどを用いたシースルー方式の表示装置を用いてもよい。これにより、3次元カメラ2の消費電力が節約できる。
【0067】
上述の実施の形態においては、撮影した被写体Qの3次元データに基づいて案内画像GPが生成されるため、案内画像GPを予め作成する手間が省けるとともに案内画像GPを格納しておくためのメモリが最小限で済む。
【0068】
上述の実施形態において、計測システム1、3次元カメラ2の各部又は全体の構成、形状、配置、回路、処理形態などは、本発明の主旨に沿って適宜変更することができる。
【0069】
【発明の効果】
本発明によると、被写体の3次元データの入力を簡単に迅速に且つ正確に行うことができ、被写体の全周又は所定範囲における欠落のない合成画像を容易に取得することが可能となる。
【図面の簡単な説明】
【図1】本発明に係る3次元カメラを用いた計測システムの構成図である。
【図2】3次元カメラの外観を示す図である。
【図3】3次元カメラの機能構成を示すブロック図である。
【図4】3次元カメラによって被写体の全周又は所定範囲の3次元データを入力する具体的な方法を示す図である。
【図5】重合わせ画像発生部によるモニタ画像及び案内画像の生成の過程を説明するための図である。
【図6】ファインダー上に表示された被写体のモニタ画像及び案内画像を示す図である。
【図7】3次元データの入力動作及び処理を示すフローチャートである。
【図8】スリット光投影法を適用した3次元カメラの入力原理を示す図である。
【符号の説明】
2 3次元カメラ(3次元データ入力装置)
21 ファインダー(モニタ画面)
63 メモリ(記憶手段)
73 重心演算回路(3次元形状モデル画像生成手段)
76 表示制御部(表示指示手段)
Q 被写体
GP 案内画像
QP モニタ画像(画像)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional data input method and apparatus for inputting three-dimensional data of a subject.
[0002]
[Prior art]
Optical three-dimensional data input devices (three-dimensional cameras) can be used for data input to CG and CAD systems, body measurements, robot visual recognition, etc. Has been. As a measurement method suitable for such a three-dimensional data input apparatus, a slit light projection method (also called a light cutting method) is known.
[0003]
FIG. 8 is a diagram showing the input principle of the three-
In FIG. 8, the three-
[0004]
The subject Q1 is irradiated with the slit light S from the
[0005]
In order to obtain three-dimensional data for the entire circumference of the subject Q1, it is necessary to input the subject Q1 from a plurality of directions. Two methods are known for this purpose. In the first method, the three-
[0006]
The three-dimensional data of the subject Q1 input from a plurality of directions is subjected to alignment processing using conversion parameters calculated based on the position on the trajectory where the three-
[0007]
However, in the above-described method, it is necessary to detect the position of the three-
[0008]
In addition, since the three-
[0009]
In order to solve such a problem, an apparatus described in Japanese Patent Laid-Open No. 9-5051 has been proposed. According to this conventional apparatus, the subject Q1 is photographed from an arbitrary plurality of directions, and three-dimensional data is input. After the input, a three-dimensional shape input from a plurality of directions and a color image input from the same field of view and associated with the three-dimensional data at the same time are displayed. While viewing the displayed color image, the user manually designates corresponding points in the three-dimensional shape based on a color change or the like. Based on the corresponding points designated by the user, the input three-dimensional data are aligned with each other.
[0010]
[Problems to be solved by the invention]
However, according to the conventional apparatus described above, it is necessary for the user to specify the corresponding points in order to align the positions of the plurality of three-dimensional data, which is extremely troublesome.
[0011]
Further, when inputting three-dimensional data, there is no method for confirming whether or not shooting has been successfully performed for the entire circumference of the subject Q1. For this reason, when a plurality of three-dimensional data are not continuous with appropriate overlap, or when the data is insufficient, the corresponding points between the three-dimensional data cannot be taken well. In such a case, the accuracy of the alignment between the three-dimensional data is lowered, or if it is severe, it is necessary to perform photographing again.
[0012]
The present invention has been made in view of the above-described problems, and can easily and quickly and accurately input 3D data of a subject, and can easily produce a composite image free from omission in the entire circumference or a predetermined range of the subject. It is an object of the present invention to provide a three-dimensional data input method and apparatus that can be acquired in a simple manner.
[0013]
3-dimensional data input method according to
[0014]
As shown in FIGS. 2 to 6, the three-dimensional data input device according to
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a configuration diagram of a
[0016]
As shown in FIG. 1, the
The three-
[0017]
The
[0018]
Based on the three-dimensional data sent from the three-
[0019]
As shown in FIG. 2A, the three-
[0020]
Zooming
Further, as shown in FIG. 2B, on the rear surface of the
[0021]
The
[0022]
The
From the
[0023]
Next, functions of the three-
FIG. 3 is a block diagram showing a functional configuration of the three-
[0024]
As shown in FIG. 3, the three-
[0025]
In the
Light in the oscillation wavelength band of the semiconductor laser 41 enters the measurement sensor 53. The visible band light is incident on the monitor color sensor 54. Both the measurement sensor 53 and the monitor color sensor 54 are CCD area sensors. The measurement sensor 53 and the monitor color sensor 54 each output shooting information or imaging information of the subject Q as an electrical signal.
[0026]
The zoom unit 51 is an in-focus type and is provided with a zoom lens (not shown). By moving this zoom lens between the long focus side and the short focus side along the shooting direction, three-dimensional data can be input at various resolutions. A part of incident light is used for autofocusing (AF). The AF function is realized by an
[0027]
Next, the main flow of electrical signals in the three-
First, the photographing information from the measurement sensor 53 is transferred to the output processing circuit 62 in synchronization with the clock from the driver 55. The output processing circuit 62 includes an amplifier that amplifies the photoelectric conversion signal of each pixel output from the measurement sensor 53, and an AD conversion unit that converts the photoelectric conversion signal into 8-bit light reception data. The received light data obtained by the output processing circuit 62 is temporarily stored in the memory 63 and then sent to the gravity
[0028]
The center-of-
[0029]
On the other hand, imaging information from the monitor color sensor 54 is transferred to the color processing circuit 67 in synchronization with the clock from the driver 56. The imaging information subjected to the color processing is output online via the NTSC conversion circuit 70 and the
[0030]
The system controller 61 gives an instruction for displaying operation procedure information on the
[0031]
The three-
FIG. 4 is a diagram showing a specific method of inputting the entire circumference of the subject Q or a predetermined range of 3D data by the
[0032]
In the method shown in FIG. 4A, the user moves the three-
[0033]
Next, the monitor image QP and the guide image GP will be described.
FIG. 5 is a diagram for explaining the process of generating the monitor image QP and the guide image GP by the
[0034]
5 and 6, the monitor image QP is a color image for monitoring a portion of the subject Q where the user is about to input the 3D data with the line of sight of the
[0035]
The guide image GP is an image that gives information to the user from which position and how to photograph the subject Q when inputting the entire circumference of the subject Q or three-dimensional data of a predetermined range. The guide image GP is generated from the subject shape data TD as shown in FIG.
[0036]
Here, the subject shape data TD is three-dimensional data of the input portion when the subject Q is input. In the present embodiment, the left half of the heel is shown as an example.
[0037]
Processing such as wire frame, shading, texture mapping, or coloring is performed on the subject shape data TD. Coloring is performed to facilitate identification of the wire frame, the shading, or the texture mapping image from the monitor image QP. By coloring, for example, colors such as blue, green, and red are obtained. It is also possible to make the state most visible to the user by changing the mixing ratio of the monitor image QP and the guide image GP, that is, by arbitrarily changing the density ratio of these two overlapping images. . By performing these processes, the guide image GP and the monitor image QP can be easily superimposed. It is possible to select which processing is performed according to the user's wishes. In this embodiment, an example in which texture mapping is performed is shown.
[0038]
The user can rotate (posture change) or zoom the subject shape data TD so that the guide image GP is in a state when the subject is viewed from a desired position. As a result, the guide image GP changes. The user can determine the next shooting position with reference to the guide image GP. Hereinafter, when it is necessary to distinguish the guidance image GP from others depending on its display shape, a number is added at the end such as “GP1” and “GP2”.
[0039]
A method for inputting three-dimensional data using the monitor image QP and the guide image GP will be described with reference to FIGS.
The user first images the subject Q from one direction. Here, the left half of the frog is taken from the right side. By taking a picture, three-dimensional data of the left half of the cocoon is obtained. The obtained three-dimensional data is displayed on the
[0040]
Next, for example, when the user performs an operation to rotate the guide image GP1 (subject shape data TD) in the right direction when viewed from above, as shown in FIG. The guide image GP2 in the state of is displayed. At this time, the right end region GPR of the subject shape data TD is displayed on the
[0041]
Next, as shown in FIG. 6C, framing is performed so that the guide image GP2 and the portion of the monitor image QP corresponding to the guide image GP2 overlap.
In framing, as shown in FIG. 4, the three-
[0042]
After framing, the
By a similar operation, the guide image GP2 is sequentially changed to guide images GP3, GP4... (Not shown), and shooting is performed over the entire circumference of the subject. Thereby, three-dimensional data of the entire circumference of the subject is input.
[0043]
For example, the following method can be used to generate the third and subsequent guidance images GP3, GP4,.
(1) A guide image GP is generated from an image captured last time.
(2) A guide image GP is generated using all the images taken so far.
(3) An arbitrary image is selected from images captured so far, and a guide image GP is generated from the selected image.
[0044]
As described above, the guide images GP that are sequentially changed can be changed either in the manual mode performed according to the user's request or in the automatic mode performed in the order determined by the preprogram. When the manual mode is selected, it can be operated with a mouse or the like.
[0045]
By inputting with reference to the guide image GP, it is possible to input the three-dimensional data of the subject easily and quickly and accurately. In addition, since a plurality of photographed three-dimensional data can be easily aligned and can be accurately aligned, it is easy to obtain a composite image that is free from omission in the entire circumference or a predetermined range of the subject. be able to.
[0046]
FIG. 7 is a flowchart showing the input operation and processing of three-dimensional data.
The first three-dimensional data is input by shooting the subject at an appropriate position as the first viewpoint (# 1). The viewfinder display viewpoint position is determined in the coordinate system at the time of inputting the first three-dimensional data (# 2). From the first viewpoint, the guide image GP1 based on the first three-dimensional data is displayed (# 3). The guide image GP1 becomes the guide image GP2 automatically or by rotation or zooming specified by the user. The guide image GP2 and the monitor image QP are superimposed from the second viewpoint, which is the next viewpoint (# 4). If superimposition is successful, the second 3D data is input (# 5). Parameters for converting the second three-dimensional data into the coordinate system of the first three-dimensional data are obtained. The three-dimensional data input in a superimposed manner on the
[0047]
ICP is a method of minimizing the total distance between corresponding points with the closest point as the corresponding point. For ICP, refer to “A method of registration of 3-D shapes.” (P. Besl and N. McKay., See IEEE Transactions on Pattern Analysis and Machine Intelli. 6, 19-2, 25-39). Can do.
[0048]
Next, two methods for performing the alignment described in (# 6) will be described.
[First alignment method]
The following parameters are used for the description.
[0049]
Pt: viewpoint position at the time of creating the guide image GP Vt: line-of-sight direction at the time of creating the guide image GP Ut: upward direction vector at the time of creating the guide image GP Ft: focal length at the time of creating the guide image GP St: note at the time of creating the guide image GP Distance to viewpoint Fa: focal length Sa when shooting Sa: shooting distance Pa: viewpoint position when shooting Va: line of sight direction when shooting Ua: upward vector Pa ′ when shooting Pa: position of the viewpoint after coordinate conversion Va ′: Gaze direction after coordinate conversion Ua ′: Upward vector after coordinate conversion In the method described here, the viewpoint position Pa at the time of shooting is obtained and alignment is performed. When the guide image GP displayed on the
[0050]
The line-of-sight direction Va and viewpoint position Pa when the subject Q is photographed by superimposing the monitor image QP on the guide image GP on the
[0051]
Here, since lens information (focal length) at the time of photographing is obtained, the moving distance before and after the visual line direction Va (= Vt) is obtained by obtaining the photographing distance Sa so that the image magnification is the same as that of the guide image GP. (
Ft / St = Fa / Sa (1)
Therefore, the shooting distance Sa is expressed by the following equation (2).
[0052]
Sa = (Fa × St) / Ft (2)
Also,
Va = Vt, Ua = Ut (3)
Therefore, the viewpoint position Pa when the image is taken is expressed by the following equation (4).
[0053]
Pa = Pt + (
The three-dimensional data obtained from each direction is translated based on the viewpoint position Pa, and is rotated based on the line-of-sight direction Va, thereby converting the guide image GP into the original three-dimensional data coordinate system created. It becomes possible. The translation amount T for coordinate conversion for converting the original three-dimensional data into the coordinate system is expressed by the following equation (5).
[0054]
T = Pa′−Pa (5)
The line-of-sight direction Va ′ after the coordinate conversion and the upward vector Ua ′ after the coordinate conversion are expressed by the following equations (6) and (7) using Va and Ua, where R is the rotation matrix. .
[0055]
Va ′ = R × Va (6)
Ua ′ = R × Ua (7)
The alignment is performed by converting the three-dimensional data obtained from each direction by the translation amount T and the rotation matrix R into data in the coordinate system of the original three-dimensional data.
[0056]
By performing superposition, a relative movement amount between the three-
[0057]
As described above, the three-dimensional data input from a plurality of positions is input in a state where the alignment is performed with high accuracy by superimposing the monitor image QP and the guide image GP. Therefore, there is no need to perform alignment afterwards, which is easy.
[0058]
The bonding process is performed by the
[Second alignment method]
In this method, alignment is performed using the fact that the overlapping portion of the three-dimensional data is known.
[0059]
The following parameters are used for the description.
Pti: Corresponding point Pai of the first photographed data Pai: Corresponding point of data photographed after alignment on the finder T: Parallel movement amount R: Point cloud in the overlapping area on the
[0060]
[Expression 1]
[0061]
The rotation matrix R is determined so as to minimize J.
[0062]
[Expression 2]
[0063]
This calculation method is described in the literature “Faugeras and Hebert, 1986 O. Faugeras and M. Hebert. The representation, recognition and locino ngofol 3-D objects. Can be referred to.
[0064]
Using the parallel movement amount T and the rotation matrix R obtained as described above, the coordinate transformation of each point Pi of the second three-dimensional data is performed by the following equation (10).
P′i = R × (Pi 1 T) (10)
By performing the above-described coordinate conversion, the first three-dimensional data and the second three-dimensional data can be aligned.
[0065]
In the above-described embodiment, the guide image GP and the monitor image QP are displayed on the
[0066]
In the above-described embodiment, a see-through display device using a half mirror or the like may be used as the
[0067]
In the above-described embodiment, since the guide image GP is generated based on the three-dimensional data of the photographed subject Q, the memory for storing the guide image GP is saved while saving the trouble of creating the guide image GP in advance. Is minimal.
[0068]
In the above-described embodiment, the configuration, shape, arrangement, circuit, processing form, and the like of each part or the whole of the
[0069]
【The invention's effect】
According to the present invention, it is possible to input three-dimensional data of a subject easily and quickly and accurately, and it is possible to easily acquire a composite image that is free from omission in the entire circumference or a predetermined range of the subject.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a measurement system using a three-dimensional camera according to the present invention.
FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.
FIG. 4 is a diagram illustrating a specific method of inputting the entire circumference of a subject or a predetermined range of three-dimensional data with a three-dimensional camera.
FIG. 5 is a diagram for explaining a process of generating a monitor image and a guide image by a superimposed image generation unit.
FIG. 6 is a diagram illustrating a monitor image and a guide image of a subject displayed on the viewfinder.
FIG. 7 is a flowchart showing input operation and processing of three-dimensional data.
FIG. 8 is a diagram illustrating an input principle of a three-dimensional camera to which a slit light projection method is applied.
[Explanation of symbols]
2 3D camera (3D data input device)
21 Viewfinder (monitor screen)
63 Memory (storage means)
73 Center of gravity calculation circuit (three-dimensional shape model image generation means)
76 Display control unit (display instruction means)
Q Subject GP Guidance image QP Monitor image (image)
Claims (2)
撮影により前記被写体の一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成し、
前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示し、その際に、前記案内画像を、次の撮影時の視点方向からの画像に変換して表示し、
前記案内画像と前記被写体の画像のうち前記案内画像に対応する画像とが重なるようにフレーミングを行い、
前記フレーミングがなされた状態で前記被写体の次の撮影を行う、
ことを特徴とする3次元データ入力方法。A three-dimensional data input method in a three-dimensional data input device having a monitor screen for confirming a subject and configured to input the three-dimensional data of the subject by photographing the subject,
Generating an image of a three-dimensional shape model corresponding to the shape based on three-dimensional data input from a part of the subject by photographing ;
The image of the three-dimensional shape model is displayed on the monitor screen as a framing guide image. At that time, the guide image is converted into an image from the viewpoint direction at the time of the next shooting and displayed.
Framing is performed so that the guide image and the image corresponding to the guide image among the images of the subject overlap.
The next shooting of the subject is performed with the framing performed.
A three-dimensional data input method.
撮影により前記被写体の一部分から入力した3次元データに基づいてその形状に対応する3次元形状モデルの画像を生成する3次元形状モデル画像生成手段と、
前記3次元形状モデルの画像をフレーミングの案内画像として前記モニタ画面に表示させる表示指示手段と、
前記案内画像を表示する際に、当該案内画像を次の撮影時の視点方向からの画像に変換する手段と、
フレーミングがなされた被写体を次に撮影することによって入力される3次元データを記憶する記憶手段と、
を有することを特徴とする3次元データ入力装置。A three-dimensional data input device having a monitor screen for confirming a subject and configured to input the three-dimensional data of the subject by photographing the subject;
3D shape model image generation means for generating an image of a 3D shape model corresponding to the shape based on 3D data input from a part of the subject by photographing ;
Display instruction means for displaying an image of the three-dimensional shape model on the monitor screen as a framing guide image;
Means for converting the guide image into an image from the viewpoint direction at the time of the next shooting when displaying the guide image;
Storage means for storing three-dimensional data that is input by capturing the next framed subject;
A three-dimensional data input device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755299A JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
US09/536,686 US7046838B1 (en) | 1999-03-30 | 2000-03-28 | Three-dimensional data input method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755299A JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000283720A JP2000283720A (en) | 2000-10-13 |
JP4306006B2 true JP4306006B2 (en) | 2009-07-29 |
Family
ID=13918163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08755299A Expired - Fee Related JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4306006B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4892793B2 (en) * | 2001-07-04 | 2012-03-07 | コニカミノルタホールディングス株式会社 | Measuring apparatus and measuring method |
JP2007225434A (en) * | 2006-02-23 | 2007-09-06 | Yaskawa Electric Corp | Three-dimensional measuring device |
KR101615472B1 (en) | 2007-09-24 | 2016-04-25 | 애플 인크. | Embedded authentication systems in an electronic device |
US8600120B2 (en) | 2008-01-03 | 2013-12-03 | Apple Inc. | Personal computing device control using face detection and recognition |
JP5049246B2 (en) * | 2008-10-29 | 2012-10-17 | アイシン精機株式会社 | Object shape evaluation device |
JP5049247B2 (en) * | 2008-10-29 | 2012-10-17 | アイシン精機株式会社 | Surface defect evaluation system |
US9189859B2 (en) * | 2009-06-11 | 2015-11-17 | Kabushiki Kaisha Toshiba | 3D image generation |
JP5445848B2 (en) * | 2010-02-05 | 2014-03-19 | アイシン精機株式会社 | Object shape evaluation device |
JP5812599B2 (en) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | Information processing method and apparatus |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
JP5269972B2 (en) * | 2011-11-29 | 2013-08-21 | 株式会社東芝 | Electronic device and three-dimensional model generation support method |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
US10043185B2 (en) | 2014-05-29 | 2018-08-07 | Apple Inc. | User interface for payments |
CN109691074A (en) * | 2016-09-23 | 2019-04-26 | 苹果公司 | The image data of user's interaction for enhancing |
JP6967610B2 (en) | 2017-05-16 | 2021-11-17 | アップル インコーポレイテッドApple Inc. | Recording and sending pictograms |
EP4156129A1 (en) | 2017-09-09 | 2023-03-29 | Apple Inc. | Implementation of biometric enrollment |
DK180078B1 (en) | 2018-05-07 | 2020-03-31 | Apple Inc. | USER INTERFACE FOR AVATAR CREATION |
US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
US11100349B2 (en) | 2018-09-28 | 2021-08-24 | Apple Inc. | Audio assisted enrollment |
US10860096B2 (en) | 2018-09-28 | 2020-12-08 | Apple Inc. | Device control using gaze information |
-
1999
- 1999-03-30 JP JP08755299A patent/JP4306006B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000283720A (en) | 2000-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4306006B2 (en) | Three-dimensional data input method and apparatus | |
US7046838B1 (en) | Three-dimensional data input method and apparatus | |
JP6504274B2 (en) | Three-dimensional shape data and texture information generation system, imaging control program, three-dimensional shape data and texture information generation method, and information recording medium | |
JP4262014B2 (en) | Image photographing apparatus and image processing method | |
EP0782100B1 (en) | Three-dimensional shape extraction apparatus and method | |
JP3893169B2 (en) | 3D measuring device | |
JP4221808B2 (en) | Three-dimensional data input method and apparatus | |
JP3178205B2 (en) | Image input system | |
JP4581512B2 (en) | Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method | |
JPH1021401A (en) | Three-dimensional information processor | |
JP3282332B2 (en) | Image input system | |
JPH09305796A (en) | Image information processor | |
JP3317093B2 (en) | 3D shape data processing device | |
JP4266736B2 (en) | Image processing method and apparatus | |
JP4262013B2 (en) | Image processing method and image generation apparatus | |
JP4451968B2 (en) | 3D image input device | |
JP2000307947A (en) | Image processor and image processing method | |
JP4266737B2 (en) | Image processing method and apparatus | |
JP3740848B2 (en) | 3D input device | |
JP2004170277A (en) | 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program | |
JP2000275024A (en) | Three-dimensional input apparatus | |
JP3635943B2 (en) | 3D input device | |
JP3635942B2 (en) | 3D input device | |
JPH09187037A (en) | Image processor | |
JPH09229648A (en) | Input/output method and device for image information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090414 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090427 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |