JP3630725B2 - Three-dimensional shape input device and input method thereof - Google Patents

Three-dimensional shape input device and input method thereof Download PDF

Info

Publication number
JP3630725B2
JP3630725B2 JP22888294A JP22888294A JP3630725B2 JP 3630725 B2 JP3630725 B2 JP 3630725B2 JP 22888294 A JP22888294 A JP 22888294A JP 22888294 A JP22888294 A JP 22888294A JP 3630725 B2 JP3630725 B2 JP 3630725B2
Authority
JP
Japan
Prior art keywords
dimensional shape
stereo image
coordinates
display
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22888294A
Other languages
Japanese (ja)
Other versions
JPH0869547A (en
Inventor
智明 河合
真和 藤木
修 吉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP22888294A priority Critical patent/JP3630725B2/en
Publication of JPH0869547A publication Critical patent/JPH0869547A/en
Application granted granted Critical
Publication of JP3630725B2 publication Critical patent/JP3630725B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、ステレオ画像から画像中の物体の三次元幾何形状を求める三次元形状入力装置およびその入力方法に関する。
【0002】
【従来の技術】
ステレオカメラなどによって撮影されたステレオ画像から画像中の物体の三次元的な形状を得るシステムとして、人間が対話的に対応点を指定しながら三次元形状を求める方法が提案されている(特開平5−299515号公報)。この方法では、ステレオ画像上の対応点から三角測量の原理に基づき三次元座標を求めた後、この三次元座標を結ぶ三角形の網を逐次的に生成していくことで三次元の面を生成するというものである。三角形の生成方法としては、Delaunayの原理に基づくステレオ画像での三角網生成手法等が一般に用いられる。二次元平面上の指定対応点をDelaunay三角形網で覆っていき、この三角形網の接続情報とこれとは別に三角測量の原理によって計算される対応点の三次元座標とから三次元の平面を構成するというものである。
【0003】
また、上記提案に加えて三次元形状表面に張り付けるテクスチャもステレオ画像から編集時に取ってくることも提案されている。
【0004】
上記三次元形状生成手法では、逐次的な点追加に対して有効であり、点を追加する度に三角形網が再計算され更新されていく。この手法の長所は人間がステレオ画像と三次元形状を確認しながら編集を進めていくことができる点にある。
【0005】
【発明が解決しようとする課題】
しかしながら、対話的にステレオ画像上の対応点を指定する方法では、つぎのような問題点がある。すなわち、対応点数(三角形の頂点になる)が多くなった場合に、対応点相互の関連がわからなくなりやすい。すなわち、すべての頂点は左右のステレオ画像および三次元表示上のいずれの上にも対応点が表示されているが、頂点が込み入っているような場合にはある頂点がこれら3通りの表示上でそれぞれどの点に対応しているかがわかりにくい。特に、点が密な場合には指定点の対応を誤りやすい。
【0006】
また、ステレオ画像撮影時のレンズの歪、ステレオ画像上での対応点の指定位置ズレ等により、三次元形状に誤差が生じることが多い。このような場合、現状では対応点を一旦削除し、打ち直すことで対応している。しかし、対応を削除すると三角形網の接続関係が変化する場合があり、また打ち直すことによって得られる三次元形状も予測がつきにくい。さらに、ステレオ画像では、対応点の横方向の小さなずれが三次元形状に大きな影響を及ぼすことが少なくない。このため、操作と三次元形状の対応が直観的に分かりにくいということがあった。
【0007】
そこで、本発明は頂点が密であっても対応点相互の関連を分かり易くでき、対応点の位置変更を容易に行なえる三次元形状入力装置およびその入力方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明の請求項1に係る三次元形状入力装置は、ステレオ画像を表示する画像表示手段と、三次元形状データを表示する三次元形状データ表示手段と、前記ステレオ画像の左右の画像中の対応点を指定する点指定手段と、該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算する計算手段と、入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成する生成手段と、該生成された三角形網と前記計算された三次元座標とを用いて、物体の表面を近似的に形成する表面形成手段と、前記生成された三角形網を前記ステレオ画像および前記三次元形状データに重畳する重畳手段と、画像表示手段および三次元形状データ表示手段に重畳表示された三角形網の頂点の指定を行なう頂点指定手段と、前記頂点指定手段による指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示する強調表示手段とを備える。
【0009】
請求項2に係る三次元形状入力装置は、請求項1に係る三次元形状入力装置において、前記各ステレオ画像上での頂点位置を移動する移動手段を備え、前記計算手段は前記画像表示手段および三次元形状データ表示手段に重畳表示される三角形網の各頂点の座標を該頂点の移動につれて相互に対応取りながら計算する。
【0010】
請求項3に係る三次元入力方法は、ステレオ画像を表示し、三次元形状データを表示し、前記ステレオ画像の左右の画像中の対応点を指定し、該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算し、入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成し、該生成された三角形網と前記計算された三次元座標とを用いて、物体の表面を近似的に形成し、前記生成された三角形網を前記ステレオ画像および前記三次元形状データに重畳し、前記ステレオ画像および前記三次元形状データに重畳表示された三角形網の頂点の指定を行ない、該指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示する。
【0011】
【作用】
本発明の請求項1に係る三次元形状入力装置では、画像表示手段によりステレオ画像を表示し、三次元形状データ表示手段により三次元形状データを表示し、前記ステレオ画像の左右の画像中の対応点を点指定手段により指定し、該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算手段により計算し、生成手段により入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成し、該生成された三角形網と前記計算された三次元座標とを用いて、表面形成手段により物体の表面を近似的に形成し、前記生成された三角形網を重畳手段により前記ステレオ画像および前記三次元形状データに重畳し、頂点指定手段により画像表示手段および三次元形状データ表示手段に重畳表示された三角形網の頂点の指定を行ない、強調表示手段により前記頂点指定手段による指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示する。
【0012】
【実施例】
つぎに、本発明の三次元形状入力装置およびその入力方法の実施例について説明する。
【0013】
図2は実施例の三次元形状入力装置の構成を示すブロック図である。本実施例の三次元形状入力装置はCPU14、主記憶装置13、ステレオ画像21を記録するハードディスク装置12、ビットマップディスプレイ15、キーボード16、マウス17および入出力部11を備える。三次元形状入力装置では、2台のカメラ(図示せず)で撮影されたステレオ画像は、ディジタル化されると入出力部11を通じてハードディスク装置12に読み込まれる。
【0014】
図1はステレオ画像が表示された画面を示す説明図である。図において、3おび4はそれぞれステレオ画像を構成する左側、右側の画像を表示するウインドウである。また、5は対話処理で得られた三次元形状データを三次元的に表示するウインドウである。
【0015】
尚、一般にステレオ画像は人間の視差に近い角度で撮影した2枚の画像を指すが、本実施例においてはより広い意味で捉え、任意の角度から撮影した2枚の画像という意味で用いることにする。
【0016】
図4および図5は三次元形状入力処理ルーチンを示すフローチャートである。また、図3は三次元形状入力処理ルーチンで利用するデータ構造を示す説明図である。まず、三次元形状入力処理装置を起動すると、ハードディスク装置12から主記憶13にステレオ画像21を読み込み(ステップS402)、読み込んだ左右の画像をビットマップディスプレイ15上に図1の3,4のようにマルチウインドウで表示する(ステップS403)。
【0017】
つぎに、操作者からのマウス、キーボード入力、メニュー選択などの操作を待ち合わせ(ステップS404)、操作があれば操作に応じた処理を実行した後、再びステップS404で操作待ち状態になる。操作がモード選択であるとき、キーボード入力、メニュー選択等によりモードを切り替える(ステップS406、S408)。操作が図1に示したウインドウ画像3、4、5上でのマウスクリックであれば、モードに応じて適切な処理を実行する(ステップS409〜S411)。操作がマウスクリックでもモード選択でもないときは操作に応じた他の処理を行って(ステップS407)ステップS404に戻る。以下に、モード別の処理について説明する。
【0018】
[マウスによる座標指定(点の追加)処理]
ステップS409で追加モードであるときには、ビットマップディスプレイ15上に表示されたステレオ画像上でマウスボタンをクリックした時点のマウスの位置を取得する(ステップS413)。右ウィンドウ画像4、左ウィンドウ画像3の両方の画像上で座標指定が行われたか否かを確認する(ステップS414)。操作者は目視などにより左右の画像中に写っている物体上の同一の点をマウスで座標指定する。ここで、指定された点は以後の三次元座標計算処理により三次元形状の頂点になる。
【0019】
尚、本実施例では左右の対応点は目視により両方の点を手動で指定しているが、パターンマッチングなどにより片方の画像の点を指定するともう片方の対応点は自動的に計算して求めるようにすることも可能である。
【0020】
左右の画像上の座標が揃った時点で、座標を保存する(ステップS415)。揃っていないときはステップS413に戻って同様の処理を行なう。左右の指定座標は図3に示すデータ構造として保存する。すなわち、左側の画像上の指定座標、右側の画像上の指定座標、および左右の指定座標から後述の計算で求められる三次元座標を要素とするリスト(A)(以下、点リストと呼ぶ)に登録する。以後、左右の点が指定されると、このリストに順次座標が追加登録されていく。図3のi番目のリスト要素は、i番目に追加された同一の点に対応する3通りの座標、すなわち左側の画像上の指定座標(Lxi,Lyi)、右側の画像上の指定座標(Rxi,Ryi)、左右の指定座標から後述する計算で求められる三次元座標(Vxi,Vyi,Vzi)である。
【0021】
さらに、ステップS417〜S422の処理を行ない、三次元座標計算、面の生成、三次元表示を行なう。ここでは、i番目の左右の対応点が与えられたものとして説明する。ステップS417では、i番目の点リストの左右の座標(Lxi,Lyi)、(Rxi,Ryi)および予め定めたカメラパラメータから三角測量の原理を用いて三次元座標(Vxi,Vyi,Vzi)を計算し、i番目の点リストに登録する(ステップS417)。尚、カメラパラメータとは、ステレオ画像の撮影条件、つまりカメラの位置、方向、焦点距離などの情報が含まれているパラメータであり、左右の画像毎に(左右の画像を撮影するカメラ毎に)別々に持っている。ただし、三角測量の原理が適用できるのは平行視を仮定した場合であるが、平行視を仮定しなくても、任意の2通りの方向から撮影したときのカメラの方向、三次元位置、焦点距離等のレンズ情報をカメラパラメータと左右のステレオ画像上の対応点が与えられれば、その点の三次元座標は原理的に計算可能である。このカメラパラメータは予め計測し、ファイルから読み込む等何らかの方法でシステムに与えてあるものとする。
【0022】
つぎに、図3(A)の点リストから面を生成していく(ステップS418)。本実施例ではどちらか一方の画像上の指定点列から三角形パッチを生成して、それを面として扱うようにしている。つまり、例えば右側の画像(二次元平面)上の点列(Rx1,Ry1)、(Rx2,Ry2)、…、(Rxn,Ryn)のうち、結線が重ならないように三つの点を選び出し、逐次的に三角形パッチを生成してゆく。入力された全ての点について、はじめの3点が指定された時点で1つの三角形が生成され、4点目以降は点が1つ増える毎に追加した1点とすでに入力されている点のうちの2点を三角形が重ならないように選び、新たに三角形を生成していく。点を追加した時点で必要に応じて既に生成されている三角形を再評価して、全て(あるいは一部)の三角形を重ならないように再生成する。
【0023】
三角形の生成方法としては、ここではDelaunayの原理に基づき、三角形網を自動生成する方法を用いる。尚、Delaunayの原理に基づく三角形網生成とは、三角形の頂点角度の最小のものが最大になるように、すなわち少しでも正三角形に近い三角形ができるように点群を結び、三角形網を生成する方法であり、点の追加に伴う再評価の計算量等の点で自動的に三角形網を生成する手法としては非常に有効である。ただし、すべて自動で三角形網を生成するので、明示的に2点を結ぶ辺を残すことはできない。この問題の解決方法に関しては特開平5−299515号公報に示されている。
【0024】
図1は画像上に三角形パッチを貼った様子を示す画面例であり、4は右側の画像の三角形パッチの様子を示している。左側の画像上および三次元の空間中の面についてはつぎのように求められる。例えば、点(Rx1,Ry1)、(Rx2,Ry2)、(Rx3,Ry3)を結ぶ1つの三角形に注目すると、対応する点リストのリスト要素P1、P2、P3から対応する左側の画像座標上および三次元座標の点を取り出し、左側の画像上および三次元空間中の三角形が求められる。
【0025】
こうして生成された三角形は図3(B)の構造をもった面リストに追加される(ステップS419)。この面リストの各要素には三角形の3つの頂点の座標に対応する点リスト(図3(A))の3つの要素へのポインタが含まれており、面リストと面リスト要素中に含まれる点のポインタを辿ることで二次元、三次元の三角形パッチを生成することが可能である。この面リストがDelaunay三角形網を構成することになる。
【0026】
二次元の三角形パッチは図1の3、4に示す画像に重ねて表示される(ステップS420)。
【0027】
三次元の三角形パッチは図1の5に示すように三次元的に表示される。三次元物体の表示の方法については、ワイヤフレーム表示やシェーディング表示など数通りの方法が知られているが、特に三次元表示方法にはこだわらない。以上の動作を繰り返し、物体表面の三次元形状を求めることができる。
【0028】
[頂点の強調表示処理]
頂点の強調表示処理とは、右ないし左のステレオ画像表示(図1の4、3)ないし三次元表示(図1の5)の3通りの表示のうちのいずれか1つの表示ウインドウ上で三角形パッチの頂点をマウスにより指定すると、他の表示上にも対応する頂点が強調表示されるというものである。
【0029】
ステップS410でモードが検索モードであるときは、すでに強調表示されている頂点があるか否かを調べる(ステップS422)。強調表示されている頂点が存在するか否かは指定点を格納するために用意したバッファ(指定点バッファと呼ぶことにする)の内容を見ることで判断する。強調表示されている頂点が存在すれば、にその頂点を通常の頂点表示にリセットし(ステップS423)、指定点バッファをクリアする(ステップS424)。つぎに、マウスクリックの位置を取得し(ステップS425)、最も近い頂点を指定する(ステップS426)。マウスクリックがウインドウ画像3、4の場合にはクリック位置の座標と全ての頂点との距離を比較すればよい。三次元表示ウインドウの場合であっても、例えば二次元に投影された画面表示の頂点位置を用いて距離を比較することで指定点を決定すればよい。
【0030】
指定点を点リストから検索し(ステップS427)、指定点が見つかった否かを判別する(ステップS428)。指定点が見つからないときはステップS404に戻って同様の処理を行なう。指定点が見つかったならば、点リストの座標情報を用いて指定点に対応する左右の画像上の頂点および三次元表示上の頂点を強調表示に切り替えるとともに(ステップS429)、指定点バッファにその点(リストのアドレス)を格納する(ステップS430)。尚、強調表示は色を変えて表示したり、輝度を変えて表示するなどによって、見た目が通常の頂点と異なることが分かるように表示する。
【0031】
[頂点の削除処理]
ステップS411で削除モードであると判別されたときは、強調表示されている頂点があるか否かを判別する(ステップS431)。強調表示されている頂点があるときは、この点を削除の対象として点リストから取り除くとともに(ステップS432)、三角形網を再生成することで(ステップS433)、面リストを再生成し(ステップS434)、表示を更新する(ステップS435)。
【0032】
以上示したように、本実施例の三次元形状入力装置よれば、ステレオ画像表示および三次元物体表示上で、相互に対応する頂点を強調表示する手段を設けることにより頂点数が多くなってきた場合でも、ステレオ画像表示、三次元表示間の対応点相互の関連が分かりやすい。
【0033】
[第2実施例]
つぎに、第2実施例の三次元形状入力装置について説明する。第2実施例の三次元形状入力装置では、前記第1実施例の指定点の強調表示機能に頂点位置の編集機能が追加されている。すなわち、図1の3、4、5の表示画像上のどれかで頂点の1つを選択し、それをマウスでドラッグ操作することにより対話的に3通りの表示で確認しながら三次元形状を編集できるようにしたものである。
【0034】
三角形網生成方法を考慮に入れた場合に、頂点位置の編集方法としては2通りある。すなわち、三角形網生成に移動前の頂点を利用する場合と移動後の頂点を利用する場合である。特に、三角形網生成にDeleaunay網を用いている場合には、頂点の移動操作によって生成される三次元形状が異なってくる。これについては後述する。
【0035】
以下に、第2実施例の三次元形状入力処理について説明するが、前記第1実施例と相違する点を主に説明する。図6は第2実施例のデータ構造を示す説明図である。同図(A)の点リストのリスト要素には、編集操作によって頂点が移動された場合、移動前の頂点を保持する項目が追加されている。同図(B)の面リストに関しては前記第1実施例と同じである。
【0036】
図4および図5に示した前記第1実施例の三次元入力処理ルーチンを示すフローチャートに、編集(頂点移動)モードおよびステップS409〜S411のモード判断に編集(頂点移動)モードの場合に移行するステップを追加することで、第2実施例の三次元入力処理ルーチンを構成することができる。モード選択が編集モードであった場合には編集モード処理を実行する。
【0037】
第2の実施例では、ステップS418の三角形パッチ生成(面リスト)処理において、点リストのリスト要素において移動前の点が存在している場合には、つまり頂点が編集されている場合にはこちらの点の座標を用いるものとする。ただし、三角形パッチ生成における頂点間の接続関係にのみ移動前の座標を利用するのであって、三角形網の接続関係を求めた後の三角形パッチ表示、三次元形状生成・表示では移動後の頂点座標を用いる。
【0038】
図7は第2実施例の編集モード処理ルーチンを示すフローチャートである。すでに、三次元形状がある程度生成されているものとする。まず、編集対象となる頂点を選択する(ステップS602、S603)。
【0039】
ここで、選択された頂点をPsとする。ステップS604では、編集対象になっている頂点の編集前の情報を移動前の頂点座標として保存する。具体的には、点リスト要素を新たに1つ生成し、これをPs’(図6ではS=2の場合が書かれている)とする。点リストのPsのリスト要素の内容をこのPs’にコピーし、「移動前の点」にPs’へのポインタを設定する。Ps’の内容はこの後の処理で変更される。
【0040】
つぎに、マウスボタンを押したままの状態でマウスを移動(ドラッグ)すると、マウスの移動に伴ってすべてのウィンドウ(図1の3、4、5)上の指定頂点が移動する。ステップS607では、ステップS606で取得したマウス座標を用いてマウスボタンが押されたウィンドウに対応するPsのリスト要素を更新する。例えば、右側画像で頂点位置編集を実行しているとすると、Psの右側座標を更新する。ステップS608では、Psの三次元座標を再計算し、Psのリスト要素の三次元座標を更新し、すべての表示ウィンドウを更新する。マウスボタンを離すまで、ステップS605〜S609の操作を実行するので、あるウィンドウ上での点の移動に伴い、他の表示も更新されることになる。
【0041】
尚、ここで頂点移動を三次元表示ウィンドウ5の上で実行する場合には、若干の特殊な操作が必要である。すなわち、三次元マウスなどの特殊デバイスを用いるなど、三次元表示ウィンドウ5の上で直接に三次元座標を変更することができれば、頂点の編集は可能である。この場合でも、三次元座標から左右のステレオ画像上の2次元座標を算出することは理論的に可能であるので、ステレオ画像上の頂点位置も三次元表示の頂点位置の移動に伴い移動することになる。
【0042】
マウスボタンを離すと(ステップS605)、三角形網生成に移動前の頂点を利用する場合には頂点移動処理を終了する(ステップS610、S614)。一方、三角形網生成に移動後の頂点を利用する場合には、移動後の頂点座標を用いて、点リスト要素を更新する。すなわち、点リスト中のPsをPs’で置き換え、Psのリスト要素を削除する(ステップS611)。この時点で、移動前の点へのポインタには内容は空になっている。移動後の頂点を用いて、三角形網を再計算し(ステップS612)、表示を更新して(ステップS613)終了する。
【0043】
尚、三角形網生成に移動前の頂点を利用する場合と移動後の頂点を利用する場合では、操作に伴う3次元形状の変化が異なる。三角形網生成にDeleunay網を用いている場合、全ての三角形がなるべく正三角形に近くなるように、つまり細長い三角形ができないように三角形網を生成するため、移動後の位置によっては三角形網の接続関係が変化する場合がある。一方、三角形網生成に移動前の頂点を利用する場合には三角形網の生成時点では、移動前の頂点を用い、実際の座標は移動後の点を用いることになるため、接続関係は変化しないが、Deleunay網に拘束されることなく、細長い形状の三角形も生成される可能性がある。このことは単純なDeleunay網を用いた三次元形状生成手法では対応できなかった凹領域へも対応できることを示している。
【0044】
以上示したように、第2実施例の三次元形状入力装置によれば、前記第1実施例の頂点強調表示手段に加えて、各ステレオ画像表示上での頂点位置を対話的に移動する手段と、一つのステレオ画像表示上での頂点の移動に伴い、対応する頂点の三次元座標も移動の都度、相互の座標に矛盾か生じないように、計算、三次元表示を行なう手段を有することによって、物体の三次元形状の変化を2つのステレオ画像表示、および三次元表示の3通りの表示で確認しながら、直観的に微妙な三次元形状の生成、編集が可能になった。また、頂点間の接続による三角形網生成には編集前の点を用い、実際に表示およひ三次元形状データを生成するときには編集した頂点座標を用いることにより、頂点座標に伴う予想外の形状変更が発生しないため、編集が直観的になるとともに、凹領域への対応も可能になった。
【0045】
【発明の効果】
本発明の請求項1に係る三次元形状入力装置によれば、画像表示手段によりステレオ画像を表示し、三次元形状データ表示手段により三次元形状データを表示し、前記ステレオ画像の左右の画像中の対応点を点指定手段により指定し、該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算手段により計算し、生成手段により入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成し、該生成された三角形網と前記計算された三次元座標とを用いて、表面形成手段により物体の表面を近似的に形成し、前記生成された三角形網を重畳手段により前記ステレオ画像および前記三次元形状データに重畳し、頂点指定手段により画像表示手段および三次元形状データ表示手段に重畳表示された三角形網の頂点の指定を行ない、強調表示手段により前記頂点指定手段による指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示するので、左右のステレオ画像三次元形状データの3通りの表示で相互に対応している関連が分かりやすくなる。例えば、相互に対応する頂点を強調表示することにより、頂点数が多くなってきた場合でも、ステレオ画像表示、三次元形状表示間の対応点の相互の関連が分かりやすい。特に、頂点が込み入っているような場合には、ある頂点がこれら3通りの表示上でそれぞれどの点に対応しているかが分かりにくく、指定点の対応を誤りやすいといった問題に有効である。
【0046】
請求項2に係る三次元形状入力装置によれば、前記各ステレオ画像上での頂点位置を移動する移動手段を備え、前記計算手段は前記画像表示手段および三次元形状データ表示手段に重畳表示される三角形網の各頂点の座標を該頂点の移動につれて相互に対応取りながら計算するので、頂点強調表示手段に加えて、各ステレオ画像表示上での頂点位置を移動する手段と、一つのステレオ画像表示上での頂点の移動に伴い、対応する頂点の三次元座標も移動の都度、相互の座標に矛盾が生じないように、計算、三次元表示する手段を有することによって、物体の三次元形状の変化を2つのステレオ画像表示、および三次元表示の3通りの表示で確認しながら、直観的で微妙な三次元形状の生成・編集が可能になった。また、頂点間の接続により三角形網生成には編集前の点を用い、実際に表示および三次元形状データを生成するときには編集した頂点座標を用いることにより、頂点編集に伴う予想外の形状変更が発生しないため編集が直観的であるとともに、凹領域への対応も可能である。
【0047】
請求項3に係る三次元形状入力方法によれば、ステレオ画像を表示し、三次元形状データを表示し、前記ステレオ画像の左右の画像中の対応点を指定し、該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算し、入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成し、該生成された三角形網と前記計算された三次元座標とを用いて、物体の表面を近似的に形成し、前記生成された三角形網を前記ステレオ画像および前記三次元形状データに重畳し、前記ステレオ画像および前記三次元形状データに重畳表示された三角形網の頂点の指定を行ない、該指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示するので、左右のステレオ画像三次元形状データの3通りの表示で相互に対応している関連が分かりやすくなる。例えば、相互に対応する頂点を強調表示することにより、頂点数が多くなってきた場合でも、ステレオ画像表示、三次元形状表示間の対応点の相互の関連が分かりやすい。特に、頂点が込み入っているような場合には、ある頂点がこれら3通りの表示上でそれぞれどの点に対応しているかが分かりにくく、指定点の対応を誤りやすいといった問題に有効である。
【図面の簡単な説明】
【図1】ステレオ画像が表示された画面を示す説明図である。
【図2】三次元形状入力装置の構成を示すブロック図である。
【図3】三次元形状入力処理ルーチンで利用するデータ構造を示す説明図である。
【図4】三次元形状入力処理ルーチンを示すフローチャートである。
【図5】図4につづく、三次元形状入力処理ルーチンを示すフローチャートである。
【図6】第2実施例のデータ構造を示す説明図である。
【図7】第2実施例の編集モード処理ルーチンを示すフローチャートである。
【符号の説明】
3、4、5 … ウィンドウ画像
11 … 入出力部
12 … ハードディスク装置
13 … 主記憶装置
14 … CPU
15 … ビットマップディスプレイ
16 … キーボード
17 … マウス
[0001]
[Industrial application fields]
The present invention relates to a three-dimensional shape input device for obtaining a three-dimensional geometric shape of an object in an image from a stereo image and an input method thereof.
[0002]
[Prior art]
As a system for obtaining a three-dimensional shape of an object in an image from a stereo image taken by a stereo camera or the like, a method has been proposed in which a human obtains a three-dimensional shape while interactively specifying corresponding points (Japanese Patent Laid-Open No. Hei. No. 5-299515). In this method, 3D coordinates are generated from corresponding points on a stereo image based on the principle of triangulation, and then a 3D surface is generated by sequentially generating a network of triangles connecting these 3D coordinates. It is to do. As a method for generating a triangle, a triangular network generating method for a stereo image based on the Delaunay principle is generally used. The specified corresponding point on the two-dimensional plane is covered with the Delaunay triangle network, and a three-dimensional plane is constructed from the connection information of this triangle network and the three-dimensional coordinates of the corresponding points calculated by the principle of triangulation. It is to do.
[0003]
In addition to the above proposals, it has also been proposed that textures attached to the surface of a three-dimensional shape are taken from a stereo image during editing.
[0004]
The three-dimensional shape generation method is effective for sequential point addition, and the triangle network is recalculated and updated each time a point is added. The advantage of this method is that humans can proceed with editing while confirming stereo images and 3D shapes.
[0005]
[Problems to be solved by the invention]
However, the method of interactively designating corresponding points on a stereo image has the following problems. That is, when the number of corresponding points (becomes the vertices of a triangle) increases, the relationship between the corresponding points tends to be lost. That is, all the vertices have corresponding points displayed on both the left and right stereo images and the three-dimensional display, but in the case where the vertices are complicated, a certain vertex is displayed on these three types of displays. It is difficult to tell which point corresponds to each. In particular, when the points are dense, it is easy to mistake the correspondence of the designated points.
[0006]
In addition, an error often occurs in the three-dimensional shape due to lens distortion at the time of capturing a stereo image, a specified position shift of a corresponding point on the stereo image, or the like. In such a case, currently, the corresponding point is deleted once and re-applied. However, if the correspondence is deleted, the connection relationship of the triangle network may change, and the three-dimensional shape obtained by retyping is difficult to predict. Furthermore, in stereo images, small lateral shifts of corresponding points often have a large effect on the three-dimensional shape. For this reason, it has been difficult to intuitively understand the correspondence between the operation and the three-dimensional shape.
[0007]
Therefore, the present invention has dense vertices. Also It is an object of the present invention to provide a three-dimensional shape input device and an input method thereof that make it easy to understand the relationship between the corresponding points and easily change the position of the corresponding points.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a three-dimensional shape input apparatus according to claim 1 of the present invention comprises an image display means for displaying a stereo image, a three-dimensional shape data display means for displaying three-dimensional shape data, and the stereo. Point designation means for designating corresponding points in the left and right images of the image, calculation means for sequentially calculating three-dimensional coordinates from the corresponding points and the camera parameters of the stereo image, and coordinates on the input image Generating means for generating a triangular network by connecting a set of three points, and surface forming means for approximately forming the surface of the object using the generated triangular network and the calculated three-dimensional coordinates Superimposing means for superimposing the generated triangular mesh on the stereo image and the three-dimensional shape data, and specifying the vertex of the triangular mesh superimposed on the image display means and the three-dimensional shape data displaying means And vertex designation means for performing, By the vertex designation means According to the specification On the display of the stereo image and the three-dimensional shape data, And highlighting means for highlighting corresponding vertices.
[0009]
The three-dimensional shape input apparatus according to claim 2 is the three-dimensional shape input apparatus according to claim 1, wherein the vertex position on each stereo image is Move Moving means to move, Said The calculation means calculates the coordinates of the vertices of the triangle network displayed superimposed on the image display means and the three-dimensional shape data display means while corresponding to each other as the vertices move.
[0010]
The three-dimensional input method according to claim 3 displays a stereo image, displays three-dimensional shape data, designates corresponding points in the left and right images of the stereo image, and sets the corresponding points and camera parameters of the stereo image. 3D coordinates are sequentially calculated from the above, and a triangle network is generated by connecting the coordinates on the input image in pairs, and the generated triangle network and the calculated 3D coordinates are generated. Are used to approximate the surface of the object, and the generated triangle network is superimposed on the stereo image and the three-dimensional shape data, and the triangle is displayed superimposed on the stereo image and the three-dimensional shape data. Specify the vertex of the net, and according to the specification On the display of the stereo image and the three-dimensional shape data, Highlight the corresponding vertex.
[0011]
[Action]
In the three-dimensional shape input device according to claim 1 of the present invention, the stereo image is displayed by the image display means, the three-dimensional shape data is displayed by the three-dimensional shape data display means, and the correspondence in the left and right images of the stereo image is displayed. A point is designated by point designating means, three-dimensional coordinates are sequentially calculated by the calculating means from the corresponding points and the camera parameters of the stereo image, and the coordinates on the image input by the generating means are made into a set of three points. A surface of the object is approximately formed by the surface forming means using the generated triangular network and the calculated three-dimensional coordinates, and the generated triangular network is generated. Is superimposed on the stereo image and the three-dimensional shape data by the superimposing means, and the top of the triangular mesh displayed on the image display means and the three-dimensional shape data display means by the vertex specifying means. Performs a specified, by highlighting means By the vertex designation means According to the specification On the display of the stereo image and the three-dimensional shape data, Highlight the corresponding vertex.
[0012]
【Example】
Next, an embodiment of the three-dimensional shape input device and the input method of the present invention will be described.
[0013]
FIG. 2 is a block diagram illustrating a configuration of the three-dimensional shape input apparatus according to the embodiment. The three-dimensional shape input device of this embodiment includes a CPU 14, a main storage device 13, a hard disk device 12 that records a stereo image 21, a bitmap display 15, a keyboard 16, a mouse 17, and an input / output unit 11. In the three-dimensional shape input device, stereo images taken by two cameras (not shown) are read into the hard disk device 12 through the input / output unit 11 when digitized.
[0014]
FIG. 1 is an explanatory diagram showing a screen on which a stereo image is displayed. In the figure, 3 and 4 are windows for displaying left and right images constituting a stereo image, respectively. Reference numeral 5 denotes a window for three-dimensionally displaying the three-dimensional shape data obtained by the interactive processing.
[0015]
In general, a stereo image indicates two images taken at an angle close to human parallax, but in this embodiment, it is understood in a broader sense and used to mean two images taken from an arbitrary angle. To do.
[0016]
4 and 5 are flowcharts showing a three-dimensional shape input processing routine. FIG. 3 is an explanatory diagram showing a data structure used in the three-dimensional shape input processing routine. First, when the three-dimensional shape input processing device is activated, the stereo image 21 is read from the hard disk device 12 to the main memory 13 (step S402), and the read left and right images are displayed on the bitmap display 15 as indicated by 3 and 4 in FIG. Are displayed in a multi-window (step S403).
[0017]
Next, the operation waits for an operation such as mouse input, keyboard input, menu selection, etc. from the operator (step S404). If there is an operation, processing corresponding to the operation is executed, and then the operation waits again in step S404. When the operation is mode selection, the mode is switched by keyboard input, menu selection, or the like (steps S406 and S408). If the operation is a mouse click on the window images 3, 4, and 5 shown in FIG. 1, appropriate processing is executed according to the mode (steps S409 to S411). If the operation is neither a mouse click nor a mode selection, another process corresponding to the operation is performed (step S407), and the process returns to step S404. Hereinafter, the processing for each mode will be described.
[0018]
[Coordinate specification (add point) processing with mouse]
When the mode is the addition mode in step S409, the position of the mouse when the mouse button is clicked on the stereo image displayed on the bitmap display 15 is acquired (step S413). It is confirmed whether or not coordinate designation has been performed on both the right window image 4 and the left window image 3 (step S414). The operator designates the coordinates of the same point on the object appearing in the left and right images with the mouse. Here, the designated point becomes a vertex of the three-dimensional shape by the subsequent three-dimensional coordinate calculation processing.
[0019]
In this embodiment, the left and right corresponding points are both manually specified by visual inspection. However, if one image point is specified by pattern matching or the like, the other corresponding point is automatically calculated and obtained. It is also possible to do so.
[0020]
When the coordinates on the left and right images are aligned, the coordinates are stored (step S415). If not, the process returns to step S413 and the same process is performed. The left and right designated coordinates are stored as a data structure shown in FIG. That is, a list (A) (hereinafter referred to as a point list) having three-dimensional coordinates obtained by calculation described later from the designated coordinates on the left image, the designated coordinates on the right image, and the left and right designated coordinates. register. Thereafter, when the left and right points are designated, the coordinates are sequentially added and registered in this list. The i-th list element in FIG. 3 includes three coordinates corresponding to the same point added to the i-th, that is, designated coordinates (Lxi, Lyi) on the left image, and designated coordinates (Rxi) on the right image. , Ryi), three-dimensional coordinates (Vxi, Vyi, Vzi) obtained by calculation described later from the left and right designated coordinates.
[0021]
Further, the processing of steps S417 to S422 is performed to perform three-dimensional coordinate calculation, surface generation, and three-dimensional display. Here, the i-th left and right corresponding points are assumed to be given. In step S417, three-dimensional coordinates (Vxi, Vyi, Vzi) are calculated using the triangulation principle from the left and right coordinates (Lxi, Lyi), (Rxi, Ryi) of the i-th point list and predetermined camera parameters. Then, it is registered in the i-th point list (step S417). The camera parameter is a parameter that includes stereo image shooting conditions, that is, information including camera position, direction, focal length, etc., for each left and right image (for each camera that shoots left and right images). Have it separately. However, the principle of triangulation can be applied when parallel viewing is assumed, but even if parallel viewing is not assumed, the camera direction, three-dimensional position, and focus when shooting from any two directions If lens information such as distance is given as camera parameters and corresponding points on the left and right stereo images, the three-dimensional coordinates of the points can be calculated in principle. This camera parameter is measured in advance and given to the system by some method such as reading from a file.
[0022]
Next, a surface is generated from the point list of FIG. 3A (step S418). In this embodiment, a triangular patch is generated from a specified point sequence on one of the images, and is treated as a surface. That is, for example, three points are selected from the sequence of points (Rx1, Ry1), (Rx2, Ry2),..., (Rxn, Ryn) on the right image (two-dimensional plane) so that the connections do not overlap. A triangular patch is generated. For all the input points, one triangle is generated when the first three points are specified, and after the fourth point, one point added every time one point is added and one point already input These two points are selected so that the triangles do not overlap, and a new triangle is generated. Re-evaluate triangles that have already been generated as needed when points are added, and regenerate all (or some) triangles so that they do not overlap.
[0023]
Here, as a method of generating a triangle, a method of automatically generating a triangle network based on the Delaunay principle is used. Triangular network generation based on the Delaunay principle is to generate a triangular network by connecting point groups so that the smallest vertex angle of a triangle is maximized, that is, a triangle close to a regular triangle is formed. This method is very effective as a method for automatically generating a triangular network from points such as the amount of calculation for re-evaluation accompanying the addition of points. However, since all triangle networks are automatically generated, it is not possible to leave an edge connecting two points explicitly. A method for solving this problem is disclosed in Japanese Patent Laid-Open No. 5-299515.
[0024]
FIG. 1 is an example of a screen showing a state where a triangular patch is pasted on an image, and 4 shows a state of a triangular patch in the right image. The plane on the left image and in the three-dimensional space can be obtained as follows. For example, when attention is paid to one triangle connecting the points (Rx1, Ry1), (Rx2, Ry2), (Rx3, Ry3), on the corresponding left image coordinates from the list elements P1, P2, P3 of the corresponding point list and The point of the three-dimensional coordinate is taken out, and the triangle on the left image and in the three-dimensional space is obtained.
[0025]
The triangle generated in this manner is added to the surface list having the structure of FIG. 3B (step S419). Each element of the surface list includes pointers to the three elements of the point list (FIG. 3A) corresponding to the coordinates of the three vertices of the triangle, and is included in the surface list and the surface list element. It is possible to generate two-dimensional and three-dimensional triangular patches by following the point pointer. This face list constitutes the Delaunay triangle network.
[0026]
The two-dimensional triangular patch is displayed so as to be superimposed on the images indicated by 3 and 4 in FIG. 1 (step S420).
[0027]
The three-dimensional triangular patch is displayed three-dimensionally as indicated by 5 in FIG. As a method of displaying a three-dimensional object, several methods such as wire frame display and shading display are known. However, the three-dimensional display method is not particularly particular. By repeating the above operation, the three-dimensional shape of the object surface can be obtained.
[0028]
[Vertex highlight processing]
The vertex emphasis display processing is a triangle on any one of the three display windows from right to left stereo image display (4, 3 in FIG. 1) to three-dimensional display (5 in FIG. 1). When the vertex of a patch is designated with the mouse, the corresponding vertex is highlighted on other displays.
[0029]
If the mode is the search mode in step S410, it is checked whether there is an already highlighted vertex (step S422). Whether or not there is a highlighted vertex is determined by looking at the contents of a buffer (hereinafter referred to as a designated point buffer) prepared for storing the designated point. If there is a highlighted vertex, the vertex is reset to normal vertex display (step S423), and the designated point buffer is cleared (step S424). Next, the position of the mouse click is acquired (step S425), and the nearest vertex is designated (step S426). When the mouse click is the window image 3 or 4, the distance between the coordinates of the click position and all the vertices may be compared. Even in the case of a three-dimensional display window, for example, the designated point may be determined by comparing the distances using the vertex positions of the screen display projected in two dimensions.
[0030]
The designated point is searched from the point list (step S427), and it is determined whether or not the designated point is found (step S428). If the designated point is not found, the process returns to step S404 and the same processing is performed. If the designated point is found, the vertex information on the left and right images and the vertex on the three-dimensional display corresponding to the designated point are switched to highlighted using the coordinate information of the point list (step S429), and the designated point buffer stores the specified point. The point (list address) is stored (step S430). Note that the highlighting is displayed so that the appearance is different from the normal vertex by changing the color or displaying the brightness.
[0031]
[Deleting vertex]
If it is determined in step S411 that the deletion mode is set, it is determined whether there is a highlighted vertex (step S431). If there is a highlighted vertex, this point is removed from the point list as a deletion target (step S432), and the face list is regenerated (step S434) by regenerating the triangle network (step S433). ), The display is updated (step S435).
[0032]
As described above, according to the three-dimensional shape input device of the present embodiment, the number of vertices has been increased by providing means for highlighting the corresponding vertices on the stereo image display and the three-dimensional object display. Even in this case, the relationship between the corresponding points between the stereo image display and the three-dimensional display is easy to understand.
[0033]
[Second Embodiment]
Next, the three-dimensional shape input device of the second embodiment will be described. In the three-dimensional shape input apparatus according to the second embodiment, a vertex position editing function is added to the designated point highlighting function of the first embodiment. That is, by selecting one of the vertices on any of the display images 3, 4, and 5 in FIG. 1 and dragging it with the mouse, the three-dimensional shape can be confirmed while interactively confirming the display in three ways. It can be edited.
[0034]
When the triangular net generation method is taken into consideration, there are two methods for editing the vertex position. That is, a case where a vertex before movement is used for generating a triangular network and a case where a vertex after movement is used. In particular, when the Delaunay network is used for generating the triangular network, the three-dimensional shape generated by the vertex movement operation differs. This will be described later.
[0035]
Hereinafter, the three-dimensional shape input process of the second embodiment will be described. The difference from the first embodiment will be mainly described. FIG. 6 is an explanatory diagram showing the data structure of the second embodiment. In the list element of the point list in FIG. 5A, an item for holding the vertex before the movement is added when the vertex is moved by the editing operation. The surface list in FIG. 5B is the same as that in the first embodiment.
[0036]
The flowchart showing the three-dimensional input processing routine of the first embodiment shown in FIGS. 4 and 5 shifts to the edit (vertex movement) mode and the mode determination in steps S409 to S411 in the edit (vertex movement) mode. By adding steps, the three-dimensional input processing routine of the second embodiment can be configured. If the mode selection is edit mode, edit mode processing is executed.
[0037]
In the second embodiment, in the triangular patch generation (surface list) processing in step S418, if a point before movement exists in the list element of the point list, that is, if the vertex is edited, click here The coordinates of the points are used. However, the coordinates before movement are used only for the connection relationship between the vertices in triangle patch generation, and the triangle patch display after obtaining the connection relationship of the triangle network, the vertex coordinates after movement in the 3D shape generation / display Is used.
[0038]
FIG. 7 is a flowchart showing the edit mode processing routine of the second embodiment. It is assumed that a three-dimensional shape has already been generated to some extent. First, the vertex to be edited is selected (steps S602 and S603).
[0039]
Here, let the selected vertex be Ps. In step S604, information before editing of the vertex to be edited is stored as vertex coordinates before movement. Specifically, one new point list element is generated, and this is assumed to be Ps ′ (in the case of S = 2 in FIG. 6). The contents of the list element of Ps of the point list are copied to this Ps ′, and a pointer to Ps ′ is set to “point before movement”. The contents of Ps ′ are changed in the subsequent processing.
[0040]
Next, when the mouse is moved (dragged) with the mouse button held down, the designated vertices on all windows (3, 4, and 5 in FIG. 1) move with the movement of the mouse. In step S607, the list element of Ps corresponding to the window in which the mouse button is pressed is updated using the mouse coordinates acquired in step S606. For example, if vertex position editing is being performed on the right image, the right coordinate of Ps is updated. In step S608, the three-dimensional coordinates of Ps are recalculated, the three-dimensional coordinates of the list element of Ps are updated, and all display windows are updated. Since the operations in steps S605 to S609 are executed until the mouse button is released, other displays are updated as the point moves on a certain window.
[0041]
Here, when the vertex movement is executed on the three-dimensional display window 5, some special operations are required. That is, if the three-dimensional coordinates can be changed directly on the three-dimensional display window 5 by using a special device such as a three-dimensional mouse, the vertex can be edited. Even in this case, since it is theoretically possible to calculate the two-dimensional coordinates on the left and right stereo images from the three-dimensional coordinates, the vertex position on the stereo image also moves as the vertex position of the three-dimensional display moves. become.
[0042]
When the mouse button is released (step S605), the vertex movement process is terminated when the vertex before movement is used for generating the triangle network (steps S610 and S614). On the other hand, when the moved vertex is used for generating the triangle network, the point list element is updated using the moved vertex coordinates. That is, Ps in the point list is replaced with Ps ′, and the list element of Ps is deleted (step S611). At this point, the content of the pointer to the point before movement is empty. The triangle network is recalculated using the moved vertex (step S612), the display is updated (step S613), and the process ends.
[0043]
It should be noted that the change in the three-dimensional shape associated with the operation differs between the case where the vertices before movement are used for the generation of the triangle network and the case where the vertices after movement are used. When the Delaunay network is used to generate the triangle network, the triangle network is generated so that all the triangles are as close to the regular triangle as possible, that is, no elongated triangle is formed. May change. On the other hand, when using the vertices before moving to generate the triangle network, the vertices before moving are used at the time of generating the triangle network, and the actual coordinates are used after moving, so the connection relationship does not change. However, without being constrained by the Delaunay network, elongated triangles may also be generated. This indicates that it is possible to deal with a concave region that cannot be dealt with by a three-dimensional shape generation method using a simple Delaunay network.
[0044]
As described above, according to the three-dimensional shape input device of the second embodiment, in addition to the vertex emphasis display means of the first embodiment, means for interactively moving the vertex position on each stereo image display And with the movement of vertices on one stereo image display, the corresponding 3D coordinates of the corresponding vertices also have means to perform calculation and 3D display so that there is no contradiction between the mutual coordinates each time they move As a result, it is possible to intuitively generate and edit a three-dimensional shape while confirming a change in the three-dimensional shape of an object with two stereo image displays and three display methods. In addition, the point before editing is used to generate the triangle network by connecting the vertices, and when the actual display and 3D shape data are generated, the edited vertex coordinates are used, thereby creating an unexpected shape associated with the vertex coordinates. Since no change occurred, editing became intuitive and it was possible to deal with concave areas.
[0045]
【The invention's effect】
According to the three-dimensional shape input device of the present invention, the stereo image is displayed by the image display means, the three-dimensional shape data is displayed by the three-dimensional shape data display means, and the left and right images of the stereo image are displayed. The corresponding points are designated by the point designating means, the three-dimensional coordinates are sequentially calculated by the calculating means from the corresponding points and the camera parameters of the stereo image, and the coordinates on the image inputted by the generating means are set in three points at a time. A triangular network is generated by connecting in pairs, and the surface of the object is approximately formed by surface forming means using the generated triangular network and the calculated three-dimensional coordinates, and the generated A triangular mesh is superimposed on the stereo image and the three-dimensional shape data by a superimposing unit, and is displayed on the image display unit and the three-dimensional shape data displaying unit by a vertex specifying unit. It performs the specified vertex, by highlighting means By the vertex designation means According to the specification On the display of the stereo image and the three-dimensional shape data, Since the corresponding vertex is highlighted, Left and right Stereo image When 3D shape It is easy to understand the relations that correspond to each other in three ways of displaying data. For example, By highlighting the vertices corresponding to each other, even if the number of vertices increases, the correlation between the corresponding points between the stereo image display and the three-dimensional shape display is easily understood. In particular, in the case where vertices are complicated, it is difficult to understand which point each vertex corresponds to on these three types of display, and this is effective for the problem that the correspondence between the designated points is likely to be erroneous.
[0046]
According to the three-dimensional shape input device according to claim 2, the vertex position on each stereo image Move Moving means to move, Said Since the calculation means calculates the coordinates of the vertices of the triangle network displayed superimposed on the image display means and the three-dimensional shape data display means while corresponding to each other as the vertices move, in addition to the vertex emphasis display means, Vertex position on stereo image display Move A means for moving and a means for calculating and displaying three-dimensionally so that there is no contradiction between the coordinates of the corresponding vertex each time the vertex moves on one stereo image display. This makes it possible to generate and edit an intuitive and delicate three-dimensional shape while confirming the change in the three-dimensional shape of the object with two stereo image displays and three display methods. In addition, by connecting the vertices, the points before editing are used to generate the triangle network, and when the display and 3D shape data are actually generated, the edited vertex coordinates are used, so that unexpected shape changes accompanying vertex editing can occur. Since it does not occur, editing is intuitive and it is possible to deal with concave areas.
[0047]
According to the three-dimensional shape input method according to claim 3, a stereo image is displayed, three-dimensional shape data is displayed, corresponding points in the left and right images of the stereo image are designated, and the corresponding points and the stereo image are displayed. The three-dimensional coordinates are sequentially calculated from the camera parameters of the image, and the triangle network is generated by connecting the coordinates on the input image in pairs, and the generated triangle network and the calculated 3D coordinates are used to approximately form the surface of the object, and the generated triangular network is superimposed on the stereo image and the 3D shape data, and superimposed on the stereo image and the 3D shape data. Specify the vertices of the triangle network, and according to the specification On the display of the stereo image and the three-dimensional shape data, Since the corresponding vertex is highlighted, Left and right Stereo image When 3D shape It is easy to understand the relations that correspond to each other in three ways of displaying data. For example, By highlighting the vertices corresponding to each other, even if the number of vertices increases, the correlation between the corresponding points between the stereo image display and the three-dimensional shape display is easily understood. In particular, in the case where vertices are complicated, it is difficult to understand which point each vertex corresponds to on these three types of display, and this is effective for the problem that the correspondence between the designated points is likely to be erroneous.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a screen on which a stereo image is displayed.
FIG. 2 is a block diagram showing a configuration of a three-dimensional shape input device.
FIG. 3 is an explanatory diagram showing a data structure used in a three-dimensional shape input processing routine.
FIG. 4 is a flowchart showing a three-dimensional shape input processing routine.
FIG. 5 is a flowchart showing a three-dimensional shape input processing routine continued from FIG. 4;
FIG. 6 is an explanatory diagram showing a data structure of a second embodiment.
FIG. 7 is a flowchart showing an edit mode processing routine of the second embodiment.
[Explanation of symbols]
3, 4, 5 ... Window image
11 ... Input / output section
12 ... Hard disk device
13 ... Main memory
14 ... CPU
15 ... Bitmap display
16 ... Keyboard
17 ... mouse

Claims (3)

ステレオ画像を表示する画像表示手段と、
三次元形状データを表示する三次元形状データ表示手段と、
前記ステレオ画像の左右の画像中の対応点を指定する点指定手段と、
該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算する計算手段と、
入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成する生成手段と、
該生成された三角形網と前記計算された三次元座標とを用いて、物体の表面を近似的に形成する表面形成手段と、
前記生成された三角形網を前記ステレオ画像および前記三次元形状データに重畳する重畳手段と、
画像表示手段および三次元形状データ表示手段に重畳表示された三角形網の頂点の指定を行なう頂点指定手段と、
前記頂点指定手段による指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示する強調表示手段とを備えたことを特徴とする三次元形状入力装置。
Image display means for displaying a stereo image;
3D shape data display means for displaying 3D shape data;
Point designating means for designating corresponding points in the left and right images of the stereo image;
Calculation means for sequentially calculating three-dimensional coordinates from the corresponding points and camera parameters of the stereo image;
Generating means for generating a triangular network by connecting the coordinates on the input image in groups of three points; and
Surface forming means for approximately forming the surface of the object using the generated triangular network and the calculated three-dimensional coordinates;
Superimposing means for superimposing the generated triangular network on the stereo image and the three-dimensional shape data;
Vertex designating means for designating the vertexes of the triangle net superimposed on the image display means and the three-dimensional shape data display means;
A three-dimensional shape input apparatus comprising highlighting means for highlighting vertices corresponding to each other on display of the stereo image and the three-dimensional shape data in accordance with designation by the vertex designation means .
前記各ステレオ画像上での頂点位置を移動する移動手段を備え、
前記計算手段は、前記画像表示手段および三次元形状データ表示手段に重畳表示される三角形網の各頂点の座標を該頂点の移動につれて相互に対応取りながら計算することを特徴とする請求項1記載の三次元形状入力装置。
Moving means for moving the vertex position on each stereo image;
2. The calculation unit according to claim 1, wherein the calculation unit calculates the coordinates of the vertices of the triangle network superimposed on the image display unit and the three-dimensional shape data display unit while corresponding to each other as the vertices move. 3D shape input device.
ステレオ画像を表示し、
三次元形状データを表示し、
前記ステレオ画像の左右の画像中の対応点を指定し、
該対応点と前記ステレオ画像のカメラパラメータとから逐次的に三次元座標を計算し、
入力された画像上の座標を3点ずつ組にして接続することで三角形網を生成し、
該生成された三角形網と前記計算された三次元座標とを用いて、物体の表面を近似的に形成し、
前記生成された三角形網を前記ステレオ画像および前記三次元形状データに重畳し、
前記ステレオ画像および前記三次元形状データに重畳表示された三角形網の頂点の指定を行ない、
該指定に応じて前記ステレオ画像および前記三次元形状データの表示上で、相互に対応する頂点を強調表示することを特徴とする三次元形状入力方法。
Display a stereo image,
Display 3D shape data,
Specify corresponding points in the left and right images of the stereo image,
3D coordinates are sequentially calculated from the corresponding points and the camera parameters of the stereo image,
Create a triangle network by connecting the coordinates on the input image in pairs,
Using the generated triangular network and the calculated three-dimensional coordinates, approximately form the surface of the object,
Superimposing the generated triangular network on the stereo image and the three-dimensional shape data;
Specify the vertices of the triangle network superimposed on the stereo image and the three-dimensional shape data,
A three-dimensional shape input method characterized by highlighting mutually corresponding vertices on the display of the stereo image and the three-dimensional shape data in accordance with the designation.
JP22888294A 1994-08-30 1994-08-30 Three-dimensional shape input device and input method thereof Expired - Fee Related JP3630725B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22888294A JP3630725B2 (en) 1994-08-30 1994-08-30 Three-dimensional shape input device and input method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22888294A JP3630725B2 (en) 1994-08-30 1994-08-30 Three-dimensional shape input device and input method thereof

Publications (2)

Publication Number Publication Date
JPH0869547A JPH0869547A (en) 1996-03-12
JP3630725B2 true JP3630725B2 (en) 2005-03-23

Family

ID=16883346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22888294A Expired - Fee Related JP3630725B2 (en) 1994-08-30 1994-08-30 Three-dimensional shape input device and input method thereof

Country Status (1)

Country Link
JP (1) JP3630725B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5156601B2 (en) * 2008-12-02 2013-03-06 株式会社トプコン Shape measuring apparatus and program
JP6124109B2 (en) * 2012-09-10 2017-05-10 宏介 津留 Generating the entire shape of an object from partial points and line shapes
JPWO2021166751A1 (en) * 2020-02-19 2021-08-26

Also Published As

Publication number Publication date
JPH0869547A (en) 1996-03-12

Similar Documents

Publication Publication Date Title
JP3634677B2 (en) Image interpolation method, image processing method, image display method, image processing apparatus, image display apparatus, and computer program storage medium
EP0689167B1 (en) Image processing apparatus and method
US9153062B2 (en) Systems and methods for sketching and imaging
KR101613721B1 (en) Methodology for 3d scene reconstruction from 2d image sequences
JP4025442B2 (en) 3D model conversion apparatus and method
JP4119529B2 (en) Virtual environment generation method and apparatus, and recording medium on which virtual environment generation program is recorded
JP3104638B2 (en) 3D image creation device
JPH10255081A (en) Image processing method and image processor
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JP2002236909A (en) Image data processing method and modeling device
Dong et al. Real-time occlusion handling for dynamic augmented reality using geometric sensing and graphical shading
US11625900B2 (en) Broker for instancing
JP3630725B2 (en) Three-dimensional shape input device and input method thereof
LU502672B1 (en) A method for selecting scene points, distance measurement and a data processing apparatus
US7064767B2 (en) Image solution processing method, processing apparatus, and program
JP3658038B2 (en) 3D shape data integration method and apparatus, and 3D image processing method
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JP3642923B2 (en) Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus
WO2014014928A2 (en) Systems and methods for three-dimensional sketching and imaging
Maghoumi et al. Gemsketch: Interactive image-guided geometry extraction from point clouds
JPH08263696A (en) Three-dimensional object model generating method
JP3575469B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JP2002222430A (en) Method, device and program for generating three- dimensional polygon mesh, and computer-readable recording medium with recorded program
KR101673442B1 (en) The method and apparatus for remeshing visual hull approximation by DBSS(displaced butterfly subdivision surface)
JP2001084408A (en) Method and device for processing three-dimensional data and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121224

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees