JP3579645B2 - Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method - Google Patents

Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method Download PDF

Info

Publication number
JP3579645B2
JP3579645B2 JP2000348019A JP2000348019A JP3579645B2 JP 3579645 B2 JP3579645 B2 JP 3579645B2 JP 2000348019 A JP2000348019 A JP 2000348019A JP 2000348019 A JP2000348019 A JP 2000348019A JP 3579645 B2 JP3579645 B2 JP 3579645B2
Authority
JP
Japan
Prior art keywords
texture
cutout
calculated
cutout area
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000348019A
Other languages
Japanese (ja)
Other versions
JP2002150314A (en
Inventor
憲作 藤井
潤 島村
研一 市河
知彦 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000348019A priority Critical patent/JP3579645B2/en
Publication of JP2002150314A publication Critical patent/JP2002150314A/en
Application granted granted Critical
Publication of JP3579645B2 publication Critical patent/JP3579645B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元形状モデルを生成する手法に関して、特に、3次元形状を構成する面ヘマッピングするテクスチャを対象画像から切り出す領域を算出し補正する方法及び装置に関するものである。
【0002】
【従来の技術】
近年、景観のシミュレーションやアミューズメント利用を目的として、精度の高い見た目にもきれいな3次元形状モデルを利用したいという要望が高まっている。このようなモデルには、精度の高い見た目にもきれいなリアリティの高いものが要求されるので、そのモデル形状を構成する面ヘテクスチャをマッピングする必要がある。
【0003】
このような要求に対して、これまで、モデル形状を構成する面ヘテクスチャをマッピングする技術がいくつか開発されている。例えば、特開平10−42282号に記載のシステムあるいは特開平10−267671号に記載の装置及びシステムは、いろいろな地点の画像を撮影したカメラの位置情報、姿勢情報とともに対応づけて記憶するものである。この位置情報及び姿勢情報から、撮影した画像中のどこに何が写っているかを提示したりして、その撮影画像をテクスチャ切り出し対象画像として利用することが可能となる。
【0004】
【発明が解決しようとする課題】
しかしながら、上述のような従来技術によるカメラの位置情報や姿勢情報は、撮影状況によって誤差も大きく画像中のどこに何が写っているかを正確に算出することは難しく、3次元モデル形状のような見た目のきれいさや精度を求められるような場合に、高精度で効果的にテクスチャを切り出して利用することは難しい。そこで精度を上げようとすると、このような位置情報や姿勢情報を取得するためのセンサが大きくなったり、高額になったりする。そのため、ヘリコプターや大きなワゴン車といったものに載せる必要があり、例えば、人が持ち歩くといった状況での利用は難しくなる。
【0005】
このように、従来の技術では、3次元形状を構成する面ヘテクスチャを高精度にマッピングすることは難しい。このため、精度の高い情報を取得するための大がかりな装置を用意したり、あるいは、人手を介したりする必要がある。また、この作業はかなりの時間と経験を要するものである。そのため、その省力化、更には自動化が強く望まれている。
【0006】
本発明は、上述したような従来技術が有する問題点や技術的な背景に鑑みてなされたものであって、何らかの立体形状計測手段によって得られた3次元形状を構成する面ヘ撮影画像等の対象画像から高精度にテクスチャを切り出してマッピングするためのテクスチャ切り出し領域補正方法及び装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
本発明によるテクスチャ切り出し領域補正方法は、3次元形状を有する対象オブジェクトを構成する面ヘテクスチャをマッピングするためにテクスチャ切り出し対象画像からテクスチャ切り出し領域を算出し補正する方法であって、対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する切り出し領域算出処理手順と、該テクスチャ切り出し対象画像から座標軸方向毎に臨界画素間隔を満たすエッジ対を算出する画像特徴量算出処理手順と、該算出された切り出し領域とエッジ対とを利用して該切り出し領域を補正する切り出し領域補正処理手順と、を備えることを特徴とする。
【0008】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記切り出し領域算出処理手順では、対象オブジェクトの面をテクスチャ切り出し対象画像上に投影した形状を構成する線分列の向きに対するヒストグラムを算出し、該線分列群と座標軸とのなす角が最小となる回転角を算出し、前記特徴量算出処理手順では、テクスチャ切り出し対象画像を該最小回転角で当該座標軸から回転させ、前記切り出し領域補正処理手順では、算出された切り出し領域を該最小回転角で当該座標軸から回転させることを特徴とする。
【0009】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記画像特徴量算出処理手順では、テクスチャ切り出し対象画像から座標軸方向のエッジ画像を生成し、該エッジ画像を座標軸方向にスキャンして或る対象エッジ画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合の画素の対をエッジ対として算出することを特徴とする。
【0010】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記切り出し領域補正処理手順では、切り出し領域とエッジ対とを利用して該切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する特徴量投票処理手順と、該算出された移動量の侯補から該移動量を決定する移動量算出処理手順と、を備えて、該決定した移動量により該切り出し領域を移動させて補正することを特徴とする。
【0011】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記特徴量投票処理手順では、得票数/全投票数で算出される臨界得票率を満たす上位いくつかを移動量の侯補として算出することを特徴とする。
【0012】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記移動量算出処理手順では、既に移動量が決定されたオブジェクトの決定された移動量以外の移動量侯補を削除し、同じ線分列を構成する線分列の移動量の差が或る値以下の組み合わせを算出し、異なる線分列を構成する該組み合わせで元の位置関係と矛盾がなく移動量の差が或る値以下の組み合わせを算出し、隣接するオブジェクトを構成する線分列に対して同様の処理にて組み合わせを算出し、該組み合わせの中で元の位置関係と矛盾がない組み合わせを算出し、該矛盾がない組み合わせの中で得票数が最大の組み合わせを算出し、該最大得票数の組み合わせから移動量を算出することを特徴とする。
【0013】
あるいは、上記のテクスチャ切り出し領域補正方法において、前記切り出し領域補正処理手順では、算出された切り出し領域を構成する線分を分割した線分列を構成する点を利用して該切り出し領域を構成する点の移動量を算出し、該移動量から該切り出し領域を補正することを特徴とする。
【0014】
また、本発明によるテクスチャ切り出し領域補正装置は、3次元形状を有する対象オブジェクトを構成する面ヘテクスチャをマッピングするためにテクスチャ切り出し対象画像からテクスチャを切り出す領域を算出し補正する装置であって、対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する切り出し領域算出処理手段と、該テクスチャ切り出し対象画像から座標軸方向毎に臨界画素間隔を満たすエッジ対を算出する画像特徴量算出処理手段と、該算出された切り出し領域とエッジ対とを利用して該切り出し領域を補正する切り出し領域補正処理手段と、を備えることを特徴とする。
【0015】
あるいは、上記のテクスチャ切り出し領域補正装置において、前記切り出し領域補正処理手段は、切り出し領域とエッジ対とを利用して該切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する特徴量投票処理手段と、該算出された移動量の侯補から該移動量を決定する移動量算出処理手段と、を備えて、該決定した移動量により該切り出し領域を移動させて補正するものであることを特徴とする。
【0016】
また、上記のテクスチャ切り出し領域補正方法における処理手順をコンピュータに実行させるためのプログラムを、該コンピュータが読み取り可能な記録媒体に記録したことを特徴とする。
【0017】
本発明では、3次元形状を構成する面ヘテクスチャをマッピングする際、撮影情報等のテクスチャ切り出し対象画像から算出された切り出し領域の形状をテクスチャ切り出し対象画像から抽出したエッジ対を利用して補正することにより、テクスチャの切り出し領域を高精度で補正できるようにし、きれいな3次元形状モデルを生成可能とする。ここで、エッジ対とは、例えば、画像上で明から暗に変化するエッジを構成する画素と暗から明に変化するエッジを構成する画素とが、対をなすと認められる間隔の閾値(臨界画素間隔と呼ぶ)以下であるものを意味する。このようなエッジ対は、通常の撮影画像の形状の境界に必ず出現する。
【0018】
また、対象オブジェクトの面をテクスチャ切り出し対象画像上に投影した形状を構成する線分列の向きに対するヒストグラムを算出し、該線分列群とX軸あるいはY軸といった座標軸とのなす角が最小となる回転角を算出することにより、移動量といった切り出し領域の補正量の算出が座標軸方向に帰着できるようにして、効率の良い非常に高速な処理を実現する。
【0019】
また、テクスチャ切り出し対象画像の座標軸方向のエッジ画像(方向エッジ画像と呼ぶ)を指定された座標軸方向にスキャンして、或る対象画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合の画素の対をエッジ対として算出することにより、移動量等の補正量の推定において画像処理により生じるノイズを軽減し、効率の良い非常に高速な処理を実現する。
【0020】
また、得票数/全投票数で算出される臨界得票率(移動量の候補として認められる閾値)を満たす上位いくつかのエッジ対を、移動量の侯補として選択することにより、移動量の決定において、効率の良い非常に高速な処理を実現する。
【0021】
また、既に移動量が決定されたオブジェクトの決定された移動量以外の移動量侯補を削除し、同じ線分列を構成する線分列の移動量の差が或る値以下の組み合わせを算出し、異なる線分列を構成する該組み合わせで元の位置関係と矛盾がなく移動量の差が或る値以下の組み合わせを算出し、隣接するオブジェクトを構成する線分列に対して同様な処理にて組み合わせを算出し、該組み合わせの中で元の位置関係と矛盾がない組み合わせを算出し、該矛盾のない組み合わせの中で得票数が最大の組み合わせを算出することにより、補正後の切り出し領域の矛盾を排除できるようにし、効率の良い非常に高速な処理を実現し、かつ、きれいな3次元形状モデルを生成可能とする。
【0022】
また、算出された切り出し領域を構成する線分を分割した線分を構成する点を利用して、切り出し領域を構成する点の移動量を推定し、切り出し領域を補正することにより、切り出し領域の形状を柔軟に制御可能とする。更に、移動量を推定するための情報も増加させて、効率の良い処理を実現する。
【0023】
【発明の実施の形態】
以下、本発明の実施形態例について図面を用いて説明する。
【0024】
本発明によるテクスチャ切り出し領域補正方法を実現する装置の実施形態例を図1に示す。
【0025】
本実施形態例による装置は、オペレータから処理を受け付け、処理結果を3次元形状データベース7ヘ格納する入出力処理手段1と、対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する切り出し領域算出処理手段2と、テクスチャ切り出し対象画像から軸方向毎に臨界画素間隔を満たすエッジ対を算出する画像特徴量算出処理手段3と、前記手順にて算出された切り出し領域とエッジ対を利用して切り出し領域を補正する切り出し領域補正処理手段4と、を備えている。
【0026】
また、この切り出し領域補正処理手段4は、前記処理手段2,3にて算出された切り出し領域とエッジ対を利用して、切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する特徴量投票処理手段5、及び前記処理手段5にて算出された移動量の侯補から移動量を決定する移動量算出処理処理手段6と、を備えている。
【0027】
3次元形状データベース7は、3次元モデルの構成点及び構成面の3次元座標点列のデータを含むデータを蓄積するものである。また、画像データベース8は、テクスチャ切り出し対象画像となる画像情報(各画素のRGB値)と、その画像中の各フレームに対して、そのフレームが撮影されたカメラの位置情報(X,Y,Z)と姿勢情報(Roll,Pitch,Yaw)を対応付けした撮影情報とを含むデータを蓄積している。
【0028】
入出力処理手段1は、オペレータから処理対象の領域あるいはオブジェクトを受け付け、該処理対象のオブジェクトのテクスチャ切り出し領域を算出し補正した結果を3次元形状データベース7ヘ格納する。この処理は、図2に示す手順で以下のように行われる。
[ステップ1] 3次元形状データベース7から、処理対象範囲に含まれるオブジェクトの情報を取得し、バッファに格納する。
[ステップ2] 未処理のオブジェクトに対して、隣接する他のオブジェクトの情報を算出する。
[ステップ3] 対象オブジェクトの未処理の面に対して、画像データベース8からテクスチャ切り出し対象の画像情報、及び撮影情報を取得する。
[ステップ4] 切り出し領域算出処理を行う。
[ステップ5] 画像特徴量算出処理を行う。
[ステップ6] 切り出し領域補正処理を行う。
[ステップ7] 対象となるすべての面に対して処理が終わるまで、[ステップ3]〜[ステップ6]を繰り返す。
[ステップ8] 対象となるすべてのオブジェクトに対して処理が終わるまで、[ステップ2]〜[ステップ7]を繰り返す。
[ステップ9] 3次元形状データベースにテクスチャ画像と切り出し領域を格納する。
【0029】
なお、この[ステップ3]は、従来の手法と特に変わるところがないので、ここではその詳細な説明は省略する。
【0030】
切り出し領域算出処理手段2は、対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する。この処理は、図3に示す手順で以下のように行われる。
[ステップ1] 対象オブジェクトの未処理の面を、テクスチャ切り出し対象の画像上に投影した形状(Ts)を算出する。
[ステップ2] Tsに隣接する他のオブジェクトを構成する面が投影された形状群(Rs(n))を算出する。
[ステップ3] Tsを構成する個々の線分列がX軸及びY軸となす角度のヒストグラムを算出し、最も出現頻度の高いものをX軸及びY軸となす角度とする。
[ステップ4] 線分列群とX軸あるいはY軸のなす角が小さい方を回転角αとする。
【0031】
なお、この[ステップ1]は、従来の手法と特に変わるところがないので、ここではその詳紬な説明は省略する。
【0032】
画像特徴量算出処理手段3は、テクスチャ切り出し対象画像から軸方向毎に臨界画素間隔を満たすエッジ対を算出する。この処理は、図4に示す手順で以下のように行われる。
[ステップ1] Ts,Rs(n)を含む領域にマージンを加えた領域の画像情報(Ti)を、テクスチャ切り出し対象の画像情報から取得する。
[ステップ2] Tiを角度α回転する。
[ステップ3] Tiから方向エッジ画像Teを算出する。
[ステップ4] TeからX軸方向、Y軸方向毎に臨界画素間隔を満たすエッジ対を算出する。
【0033】
このエッジ対は、方向エッジ画像Teを指定された軸方向にスキャンして、或る対象画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合に、その画素の対がエッジ対として算出される。この臨界画素間隔は、画像毎あるいは処理対象地域毎の値として、あらかじめ決めておくとしてもよい。なお、この[ステップ3]の方向エッジ画像を算出する方法は、従来の手法と特に変わるところがないので、ここではその詳細な説明は省略する。
【0034】
切り出し領域補正処理手段4は、前記手順にて算出された切り出し領域とエッジ対を利用して切り出し領域を補正する。この処理は、図5に示す手順で以下のように行われる。
[ステップ1] Ts,Rs(n)を構成する線分列を角度α回転し、該線分列をX軸方向、Y軸方向のカテゴリで分類する。
[ステップ2] Ts,Rs(n)を構成する線分列をm分割し、この線分列をL(i,j,k)とする。但し、i=Ts又はRs(n)、j=X軸方向又はY軸方向、k=分割された線分列番号とする。
[ステップ3] X軸方向、及びY軸方向でL(i,j,k)に対して、特徴量投票処理を行う。
[ステップ4] 移動量侯補の移動量が大きい軸方向を算出する。
[ステップ5] 算出された方向のL(i,j,k)でL(Ts,j,k)の移動量算出処理を行う。
[ステップ6] L(i,j,k)に算出された移動量を反映する。
[ステップ7] 未処理の方向のL(i,j,k)で再度、特徴量投票処理を行い、L(Ts,j,k)の移動量算出処理を行う。
[ステップ8] Tsを構成する点の移動量を決定する。
【0035】
なお、この分割数mは、あらかじめ決めておくとしてもよいし、分割しなくてもよい。また、このmが3以上の場合は間の線分列がTsを構成する点を含まないので処理対象からはずしてもよいし、処理を行って切り出し領域としてTsを構成する点ではなくTsを構成する分割された線分列あるいは線分列を構成する点とする、としてもよい。
【0036】
特徴量投票処理手段5は、前記手順にて切り出し領域とエッジ対を利用して、切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する。この処理は、図6に示す手順で以下のように行われる。
[ステップ1] 方向エッジ画像Teから指定された方向のL(i,j,k)、及び、その方向と逆方向の全エッジ対を取得する。
[ステップ2] 3次元モデルから未処理の線分列上の全点を取得する。
[ステップ3] 取得した全構成点から指定された逆の方向にスキャンして、全エッジ対までの距離を算出する。
[ステップ4] 算出された距離毎の頻度を投票する。
[ステップ5] 臨界得票率(得票数/全投票数)を満たす上位T個の移動量を取得し、移動量侯補とする。
[ステップ6] 対象となるすべての線分列に対して処理が終わるまで、[ステップ2]〜[ステップ5]を繰り返す。
【0037】
なお、この[ステップ4]にて頻度を投票する際に、あらかじめ決められた距離よりも大きな場合は投票せず、処理効率を高めるとしてもよい。また、取得基準の第T位、及び臨界得票率は、あらかじめ決めておくとしてもよいし、最低の得票数を決めておいて動的に設定するとしてもよい。
【0038】
移動量算出処理手段6は、前記手順にて算出された移動量の侯補から移動量を決定する。この処理は、図7に示す手順で以下のように行われる。
[ステップ1] 移動量侯補を取得し、臨界移動量(絶対値)以上の侯補を削除する。
[ステップ2] 既に決定されているオブジェクトで、決定された移動量以外の移動量侯補を削除する。
[ステップ3] 同じ線分列を構成するL(Ts,j,k)で、移動量の差が閾値(臨界移動量)D1以下の組み合わせを算出する。
[ステップ4] 異なる線分列を構成する該組み合わせで、元の位置関係と矛盾がなく、移動量の差が閾値(臨界移動量)D2以下の組み合わせを算出する。
[ステップ5] L(Rs(n)、j,k)で、[ステップ3]、[ステップ4]の処理を行い、同様の組み合わせを算出する。
[ステップ6] これらの組み合わせの中で、元の位置関係と矛盾がない組み合わせを算出する。
[ステップ7] これらの矛盾のない組み合わせの中で、得票数が最大の組み合わせを算出する。
[ステップ8] L(i,j,k)を構成する点毎の移動量を算出する。
【0039】
なお、臨界移動量(絶対値)、D1,D2の値は、あらかじめ決めておくとしてもよい。また、この[ステップ8]で、L(i,j,k)を構成する点ではなくL(i,j,k)を構成する線分列を構成する点とする、として、その移動量を算出してもよい。
【0040】
以降では、上述した処理手順を実際のデータに即して、具体的に示す。
【0041】
入出力処理にて、オペレータから処理を受け付け、3次元形状データベースから、処理対象範囲に含まれるオブジェクトの情報を取得してバッファに格納し、未処理のオブジェクトに対して、隣接する他のオブジェクトの情報を算出し、対象オブジェクトの未処理の面に対して、テクスチャ切り出し対象の画像情報、及び撮影情報を取得し、切り出し領域算出処理にて、対象オブジェクトの未処理の面をテクスチャ切り出し対象の画像上に投影した形状(Ts)を算出し、Tsに隣接する他のオブジェクトを構成する面が投影された形状群(Rs(n))を算出し、その結果、図8に示すような処理結果が得られたとする。
【0042】
これに対して、切り出し領域算出処理でテクスチャ切り出し対象画像上に投影された形状Tsを構成する線分列の向きに対するヒストグラムを算出し、この線分列群とここではX軸とのなす角が最小となったとして回転角αを算出し、画像特徴量算出処理にて、Ts,Rs(n)を含む領域にマージンを加えた領域の画像情報(Ti)をテクスチャ切り出し対象の画像情報から取得し、Tiを角度α回転した結果、図9に示すような処理結果が得られる。図9に示すように、この状態では、位置情報、姿勢情報を含む撮影情報の精度のため、テクスチャの切り出し領域がずれている。
【0043】
この画像情報Tiに対して、画像特徴量算出処理にて処理を行い、方向エッジ画像Teを算出する。例えば、Y軸方向の方向エッジ画像を示すと、図10のようになる。このTeに対して、X軸方向、Y軸方向毎にスキャンして、或る対象画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合に、その画素の対をエッジ対として算出する。
【0044】
更に切り出し領域補正処理にて、Ts,Rs(n)を構成する線分列を角度α回転し、該線分列をX軸方向、Y軸方向のカテゴリで分類し、Ts,Rs(n)を構成する線分列をm分割し、この線分列をL(i,j,k)とする。ここでは、この線分列は、図11に示すようになったとする。
【0045】
このL(i,j,k)の線分列に対して、X軸方向、及びY軸方向で特徴量投票処理を行う。特徴量投票処理では、まず、X軸方向のL(i,j,k)、及び、その方向と逆方向のY軸方向の全エッジ対を取得する。未処理の線分列上の全点を取得し、その全構成点から指定された逆の方向にスキャンして、全エッジ対までの距離を算出し、その距離毎の頻度を投票する。例えば、図12に示すような場合、距離が−21,−18,10,12,24,25,38,43に、各1票ずつ投票されることになる。こうして得られた得票数から、臨界得票率(得票数/全投票数)を満たす上位T個の移動量を取得し、移動量侯補とする。これらの処理を対象となるすべての線分列に対して行う。また、Y軸方向についても、同様の処理を行う。
【0046】
移動量侯補の移動量が大きい軸方向を算出し、ここでは、Y軸方向の移動量が大きかったとして、このY軸方向のL(i,j,k)の線分列でL(Ts,j,k)の線分列の移動量算出処理を行う。移動量算出処理では、まず、移動量侯補を取得し、臨界移動量(絶対値)以上の侯補を削除する。既に決定されているオブジェクトで、決定された移動量以外の移動量侯補を削除し、同じ線分列を構成するL(Ts,j,k)で、移動量の差が閾値(臨界移動量)D1以下の組み合わせを算出し、異なる線分列を構成する該組み合わせで、元の位置関係と矛盾がなく、移動量の差が閾値(臨界移動量)D2以下の組み合わせを算出する。この元の位置関係と矛盾がない場合とは、例えば、投影形状が図11に示すようなTsの場合、L(Ts,Y,5)、L(Ts,Y,6)で構成される線分列とL(Ts,Y,7)、L(Ts,Y,8)で構成される線分列の位置が左右入れ替わらないような場合である。また、L(Rs(n),j,k)で、同様の処理を行い、同様の組み合わせを算出する。これらの組み合わせの中で、元の位置関係と矛盾がない組み合わせで、得票数が最大の組み合わせを算出する。この元の位置関係と矛盾がない場合とは、例えば、図11に示すようなTsとRs(2)の場合、L(Ts,Y,5)、L(Ts,Y,6)で構成される線分列とL(Rs(2),Y,1)、L(Rs(2),Y,2)、L(Rs(2),Y,3)で構成される線分列の位置が左右入れ替わらないような場合である。こうして、L(i,j,k)を構成する点毎の移動量を算出する。
【0047】
更に切り出し領域補正処理にて、L(i,j,k)に算出された移動量を反映し、X軸方向についても同様に処理を行う。こうして、Tsを構成する点の移動量を決定し、図13に示すような補正された切り出し領域が算出される。
【0048】
最後に、入出力処理にて、処理対象オブジェクトのテクスチャ切り出し領域を算出した結果を3次元形状データベースヘ格納する。
【0049】
なお、図1で示した装置各部の一部もしくは全部の処理機能を、コンピュータを用いて実現することができること、あるいは、図2〜図7で示した処理手順をコンピュータに実行させることができることは言うまでもなく、コンピュータでその各部の処理機能を実現するためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記憶媒体、例えば、FD(フロッピーディスク:登録商標)や、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したり、配布したりすることが可能である。
【0050】
以上、本発明を実施形態例に基づき具体的に説明したが、本発明は上記の実施形態例に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
【0051】
【発明の効果】
本発明によれば、3次元形状を有する対象オブジェクトを構成する面ヘテクスチャをマッピングする際、撮影情報等により撮影画像等のテクスチャ切り出し対象画像から低い精度で算出された切り出し領域の形状を、同じくテクスチャ切り出しの対象画像から抽出したエッジ対を利用して補正するようにしたので、該算出されたテクスチャの切り出し領域を高精度で補正することができため、そのオブジェクトの面へ高精度に切り出したテクスチャをマッピングできるようになり、きれいな3次元形状モデルを生成できる効果が得られる。
【0052】
また、対象オブジェクトの面をテクスチャ切り出し対象画像上に投影した形状を構成する線分列の向きに対するヒストグラムを算出し、該線分列群とX軸あるいはY軸といった座標軸とのなす角が最小となる回転角を算出するようにしたので、移動量の算出が座標軸方向に帰着できるため、効率の良い非常に高速な処理を実現できる効果が得られる。
【0053】
また、テクスチャ切り出し対象画像の方向エッジ画像を指定された座標軸方向にスキャンして、或る対象画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合の画素の対をエッジ対として算出するようにしたので、移動量の推定において画像処理により生じるノイズが軽減でき、効率の良い非常に高速な処理を実現できる効果が得られる。
【0054】
また、得票数/全投票数で算出される臨界得票率を満たす上位いくつかを、移動量の侯補として選択するようにしたので、移動量の決定において、効率の良い非常に高速な処理を実現できる効果が得られる。
【0055】
また、既に移動量が決定されたオブジェクトの決定された移動量以外の移動量侯補を削除し、同じ線分列を構成する線分列の移動量の差が或る値以下の組み合わせを算出し、異なる線分列を構成する該組み合わせで元の位置関係と矛盾がなく移動量の差が或る値以下の組み合わせを算出し、隣接するオブジェクトを構成する線分列に対して同様の処理にて組み合わせを算出し、該組み合わせの中で元の位置関係と矛盾がない組み合わせを算出し、該矛盾のない組み合わせの中で得票数が最大の組み合わせを算出するようにしたので、補正後の切り出し領域の矛盾を排除することができ、効率の良い非常に高速な処理を実現し、かつ、きれいな3次元形状モデルを生成できる効果が得られる。
【0056】
また、算出された切り出し領域を構成する線分を分割した線分を構成する点を利用して、切り出し領域を構成する点の移動量の推定し、切り出し領域を補正するようにしたので、切り出し領域の形状を柔軟に制御できる効果が得られる。更に移動量を推定するための情報も増加するため、効率の良い処理を実現できる効果が得られる。
【図面の簡単な説明】
【図1】本発明の一実施形態例におけるテクスチャ切り出し領域補正方法を実現する装置の構成図である。
【図2】本実施形態例による入出力処理フローを説明する図である。
【図3】本実施形態例による切り出し領域算出処理フローを説明する図である。
【図4】本実施形態例による画像特徴量算出処理フローを説明する図である。
【図5】本実施形態例による切り出し領域補正処理フローを説明する図である。
【図6】本実施形態例による特徴量投票処理フローを説明する図である。
【図7】本実施形態例による移動量算出処理フローを説明する図である。
【図8】本実施形態例における、対象オブジェクトの面及び隣接するオブジェクトの面をテクスチャ切り出し対象画像上に投影した形状群Ts,Rs(n)の一例を説明する図である。
【図9】本実施形態例における、テクスチャ切り出し対象画像から取得した前記投影した形状群にマージンを加えた領域の画像情報Tiの一例を説明する図である。
【図10】本実施形態例における、Y軸方向の方向エッジ画像の一例を説明する図である。
【図11】(a),(b)は、本発明の一実施形態例における、前記投影した形状群を分割した線分列L(i,j,k)の一例を説明する図である。
【図12】本発明の一実施形態例における、特徴量投票処理の一例を説明する図である。
【図13】本発明の一実施形態例における、テクスチャ切り出し領域補正処理の処理結果の一例を説明する図である。
【符号の説明】
1…入出力処理手段
2…切り出し領域算出処理手段
3…画像特徴量算出処理手段
4…切り出し領域補正処理手段
5…特徴量投票処理手段
6…移動量算出処理手段
7…3次元形状データベース
8…画像データベース
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for generating a three-dimensional shape model, and more particularly to a method and an apparatus for calculating and correcting a region where a texture to be mapped to a surface forming a three-dimensional shape is cut out from a target image.
[0002]
[Prior art]
2. Description of the Related Art In recent years, there has been an increasing demand for using a beautiful three-dimensional shape model with a high precision appearance for the purpose of simulating a landscape and using amusement. Since such a model is required to have a high-precision appearance and a high degree of realism, it is necessary to map a texture onto a surface constituting the model shape.
[0003]
In response to such demands, several techniques have been developed so far for mapping textures to surfaces constituting a model shape. For example, the system described in Japanese Patent Application Laid-Open No. H10-42282 or the device and system described in Japanese Patent Application Laid-Open No. H10-267671 stores images of various points in association with position information and attitude information of a camera that has taken the images. is there. Based on the position information and the posture information, it is possible to present where and what is captured in the captured image, and to use the captured image as a texture cutout target image.
[0004]
[Problems to be solved by the invention]
However, the position information and the posture information of the camera according to the related art described above have large errors depending on the shooting conditions, and it is difficult to accurately calculate what appears in the image and what looks like a three-dimensional model shape. It is difficult to effectively cut out and use a texture with high precision when the cleanliness and precision of the image are required. Therefore, in order to increase the accuracy, a sensor for acquiring such position information and posture information becomes large or expensive. For this reason, it is necessary to mount the device on a helicopter or a large wagon, and it is difficult to use the device in a situation where, for example, a person carries the device.
[0005]
As described above, it is difficult to map a texture onto a surface forming a three-dimensional shape with high accuracy in the conventional technique. For this reason, it is necessary to prepare a large-scale device for acquiring high-precision information, or to manually operate the device. Also, this operation requires considerable time and experience. Therefore, labor saving and further automation are strongly desired.
[0006]
The present invention has been made in view of the above-described problems and technical backgrounds of the related art, and has been made in consideration of a photographed image or the like formed on a surface forming a three-dimensional shape obtained by any three-dimensional shape measuring means. It is an object of the present invention to provide a texture cutout area correction method and apparatus for cutting out and mapping a texture from a target image with high accuracy.
[0007]
[Means for Solving the Problems]
The texture cutout area correction method according to the present invention is a method for calculating and correcting a texture cutout area from a texture cutout target image in order to map a texture onto a surface constituting a target object having a three-dimensional shape. A cutout area calculation processing procedure for calculating a cutout area from a shape obtained by projecting a processing surface onto a texture cutout target image, and an image feature quantity calculation for calculating an edge pair satisfying a critical pixel interval for each coordinate axis direction from the texture cutout target image It is characterized by comprising a processing procedure, and a cutout area correction processing procedure for correcting the cutout area using the calculated cutout area and the edge pair.
[0008]
Alternatively, in the above-described texture cutout area correction method, in the cutout area calculation processing procedure, a histogram is calculated for the direction of a line segment sequence forming a shape in which the surface of the target object is projected on the texture cutout target image, and the line segment is calculated. The rotation angle at which the angle between the column group and the coordinate axis is minimized is calculated.In the feature amount calculation processing procedure, the texture cutout target image is rotated from the coordinate axis at the minimum rotation angle, and in the cutout area correction processing procedure, The calculated cutout area is rotated from the coordinate axis by the minimum rotation angle.
[0009]
Alternatively, in the above-described texture cutout area correction method, in the image feature amount calculation processing procedure, an edge image in the coordinate axis direction is generated from the texture cutout target image, and the edge image is scanned in the coordinate axis direction to obtain a certain target edge pixel. It is characterized in that a pair of pixels in a case where the interval to the edge pixel in the opposite direction satisfies the critical pixel interval is calculated as an edge pair.
[0010]
Alternatively, in the above-described texture cutout area correction method, the cutout area correction processing procedure uses the cutout area and the edge pair to calculate a candidate for the amount of movement of the cutout area. A volume voting process procedure and a travel amount calculation procedure for determining the travel amount from a candidate for the calculated travel amount are provided, and the clipping region is moved and corrected by the determined travel amount. Features.
[0011]
Alternatively, in the above-described texture cutout area correction method, in the feature amount voting processing procedure, some top satisfies the critical vote rate calculated by the number of votes / the total number of votes are calculated as candidates for the movement amount. I do.
[0012]
Alternatively, in the above-described texture cutout area correction method, in the moving amount calculation processing procedure, moving amount candidates other than the determined moving amount of the object whose moving amount is already determined are deleted to form the same line segment sequence. Calculate a combination in which the difference in the movement amount of the line segment sequence is a certain value or less, and calculate a combination in which the difference in the movement amount is a certain value or less without inconsistency with the original positional relationship in the combination forming the different line segment sequence Then, a combination is calculated by the same processing for the line segment sequence that constitutes the adjacent object, and a combination that is not inconsistent with the original positional relationship in the combination is calculated. It is characterized in that a combination having the largest number of votes is calculated, and a movement amount is calculated from the combination of the maximum number of votes.
[0013]
Alternatively, in the above-described texture cutout area correction method, in the cutout area correction processing procedure, a point forming the cutout area by using a point forming a line segment sequence obtained by dividing a line segment forming the calculated cutout area. Is calculated, and the cut-out area is corrected based on the calculated movement amount.
[0014]
Further, the texture cutout region correcting apparatus according to the present invention is a device for calculating and correcting a region from which a texture is cut out from a texture cutout target image in order to map a texture onto a surface constituting a target object having a three-dimensional shape, A cutout region calculation processing means for calculating a cutout region from a shape obtained by projecting an unprocessed surface of the object onto the texture cutout target image, and an image for calculating an edge pair satisfying a critical pixel interval for each coordinate axis direction from the texture cutout target image It is characterized by comprising a feature amount calculation processing means, and a cutout area correction processing means for correcting the cutout area using the calculated cutout area and the edge pair.
[0015]
Alternatively, in the above-described texture cut-out region correction apparatus, the cut-out region correction processing unit calculates a candidate for a moving amount of how much the cut-out region should be moved using the cut-out region and the edge pair. An amount voting processing means, and a movement amount calculation processing means for determining the movement amount from a candidate for the calculated movement amount, wherein the cutout area is moved and corrected by the determined movement amount. There is a feature.
[0016]
Further, a program for causing a computer to execute the processing procedure in the above-described texture cutout area correction method is recorded on a computer-readable recording medium.
[0017]
In the present invention, when mapping a texture to a surface forming a three-dimensional shape, the shape of a cutout area calculated from a texture cutout target image such as shooting information is corrected using an edge pair extracted from the texture cutout target image. As a result, the cut-out region of the texture can be corrected with high accuracy, and a beautiful three-dimensional shape model can be generated. Here, the edge pair is, for example, a threshold (critical threshold) at which a pixel forming an edge changing from light to dark and a pixel forming an edge changing from dark to light on an image are recognized as forming a pair. (Referred to as pixel spacing). Such an edge pair always appears at the boundary of the shape of a normal captured image.
[0018]
Further, a histogram is calculated for the direction of a line segment sequence forming a shape obtained by projecting the surface of the target object on the texture cut-out target image, and the angle between the line segment sequence group and a coordinate axis such as the X axis or the Y axis is determined to be the minimum. By calculating the rotation angle, the calculation of the correction amount of the cut-out area such as the movement amount can be reduced in the coordinate axis direction, thereby realizing efficient and very high-speed processing.
[0019]
When an edge image (referred to as a directional edge image) in the coordinate axis direction of the texture extraction target image is scanned in the specified coordinate axis direction, and the interval between the target pixel and the edge pixel in the opposite direction satisfies the critical pixel interval. Is calculated as an edge pair, noise generated by image processing in estimating a correction amount such as a movement amount is reduced, and efficient and very high-speed processing is realized.
[0020]
In addition, by selecting some upper edge pairs satisfying the critical vote rate (threshold recognized as a candidate for the moving amount) calculated by the number of votes / the total number of votes as candidates for the moving amount, the moving amount is determined. In the above, efficient and very high-speed processing is realized.
[0021]
In addition, a moving amount candidate other than the determined moving amount of the object whose moving amount has already been determined is deleted, and a combination in which the difference in the moving amount of the line segment sequence forming the same line segment sequence is equal to or less than a certain value is calculated. Then, a combination having a contradiction with the original positional relationship and having a difference of a movement amount equal to or less than a certain value is calculated for the combinations constituting the different line segment sequences, and the same processing is performed on the line segment sequences constituting the adjacent object. By calculating the combination, calculating the combination that is not inconsistent with the original positional relationship in the combination, and calculating the combination with the largest number of votes among the combination that is not inconsistent, the cutout area after correction Inconsistency can be eliminated, efficient and very high-speed processing can be realized, and a beautiful three-dimensional shape model can be generated.
[0022]
Further, by using the points forming the line segment obtained by dividing the calculated line segment forming the cutout region, the moving amount of the point forming the cutout region is estimated, and the cutout region is corrected. The shape can be controlled flexibly. Further, information for estimating the movement amount is also increased, and efficient processing is realized.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0024]
FIG. 1 shows an embodiment of an apparatus for realizing a texture cutout area correction method according to the present invention.
[0025]
The apparatus according to the present embodiment accepts processing from an operator and stores the processing result in a three-dimensional shape database 7 using an input / output processing unit 1 and a shape obtained by projecting an unprocessed surface of a target object onto a texture cut target image. A cut-out area calculation processing unit 2 for calculating a cut-out area, an image feature amount calculation processing unit 3 for calculating an edge pair satisfying a critical pixel interval for each axial direction from a texture cut-out target image, and a cut-out area calculated in the above procedure And a cutout area correction processing means 4 for correcting a cutout area using an edge pair.
[0026]
The cut-out area correction processing means 4 calculates a candidate for the amount of movement of the cut-out area by using the cut-out area and the edge pair calculated by the processing means 2 and 3. And a moving amount calculation processing unit 6 for determining a moving amount from candidates of the moving amount calculated by the processing unit 5.
[0027]
The three-dimensional shape database 7 accumulates data including data of the three-dimensional coordinate point sequence of the constituent points and the constituent surfaces of the three-dimensional model. In addition, the image database 8 stores image information (RGB values of each pixel) as a texture cutout target image, and position information (X, Y, Z) of a camera at which the frame was shot for each frame in the image. ) And photographing information in which the posture information (Roll, Pitch, Yaw) is associated.
[0028]
The input / output processing unit 1 receives a region or an object to be processed from an operator, calculates a texture cut-out region of the object to be processed and stores the corrected result in the three-dimensional shape database 7. This process is performed as follows in the procedure shown in FIG.
[Step 1] Information of an object included in the processing target range is acquired from the three-dimensional shape database 7 and stored in a buffer.
[Step 2] Information on other objects adjacent to the unprocessed object is calculated.
[Step 3] For the unprocessed surface of the target object, the image information and the photographing information of the texture cutout are acquired from the image database 8.
[Step 4] A cutout area calculation process is performed.
[Step 5] An image feature amount calculation process is performed.
[Step 6] A cutout area correction process is performed.
[Step 7] [Step 3] to [Step 6] are repeated until the processing is completed for all the target surfaces.
[Step 8] [Step 2] to [Step 7] are repeated until the processing is completed for all target objects.
[Step 9] The texture image and the cutout area are stored in the three-dimensional shape database.
[0029]
Since this [Step 3] is not particularly different from the conventional method, a detailed description thereof will be omitted here.
[0030]
The cut-out area calculation processing means 2 calculates a cut-out area from the shape of the unprocessed surface of the target object projected on the texture cut-out target image. This processing is performed as follows in the procedure shown in FIG.
[Step 1] The shape (Ts) of the unprocessed surface of the target object projected on the image of the texture cutout target is calculated.
[Step 2] A shape group (Rs (n)) on which a surface constituting another object adjacent to Ts is projected is calculated.
[Step 3] A histogram of the angles formed by the individual line segments forming the Ts with the X-axis and the Y-axis is calculated, and those having the highest appearance frequency are defined as the angles formed by the X-axis and the Y-axis.
[Step 4] A smaller angle between the line segment group and the X-axis or the Y-axis is defined as a rotation angle α.
[0031]
Since this [Step 1] is not particularly different from the conventional method, a detailed description thereof will be omitted here.
[0032]
The image feature value calculation processing unit 3 calculates an edge pair satisfying the critical pixel interval for each axial direction from the texture cutout target image. This processing is performed as follows in the procedure shown in FIG.
[Step 1] Image information (Ti) of an area obtained by adding a margin to an area including Ts and Rs (n) is obtained from image information to be cut out.
[Step 2] Ti is rotated by an angle α.
[Step 3] A direction edge image Te is calculated from Ti.
[Step 4] An edge pair that satisfies the critical pixel interval from Te in each of the X-axis direction and the Y-axis direction is calculated.
[0033]
This edge pair scans the directional edge image Te in the designated axial direction, and when the interval between a certain target pixel and the edge pixel in the opposite direction satisfies the critical pixel interval, the pair of pixels is regarded as an edge pair. Is calculated. The critical pixel interval may be determined in advance as a value for each image or each processing target area. Since the method of calculating the direction edge image in [Step 3] is not particularly different from the conventional method, a detailed description thereof is omitted here.
[0034]
The cutout area correction processing means 4 corrects the cutout area using the cutout area and the edge pair calculated in the above procedure. This process is performed as follows in the procedure shown in FIG.
[Step 1] The line segment sequence forming Ts, Rs (n) is rotated by an angle α, and the line segment sequence is classified into categories in the X-axis direction and the Y-axis direction.
[Step 2] The line segment sequence forming Ts, Rs (n) is divided into m, and this line segment sequence is defined as L (i, j, k). Here, i = Ts or Rs (n), j = X-axis direction or Y-axis direction, and k = division line segment number.
[Step 3] A feature voting process is performed on L (i, j, k) in the X-axis direction and the Y-axis direction.
[Step 4] An axial direction in which the moving amount of the moving amount candidate is large is calculated.
[Step 5] A movement amount calculation process of L (Ts, j, k) is performed with L (i, j, k) in the calculated direction.
[Step 6] The calculated movement amount is reflected in L (i, j, k).
[Step 7] The feature amount voting process is performed again with L (i, j, k) in the unprocessed direction, and the movement amount calculation process of L (Ts, j, k) is performed.
[Step 8] The movement amount of the points constituting Ts is determined.
[0035]
Note that the division number m may be determined in advance or may not be divided. When m is 3 or more, the line segment sequence between them does not include a point constituting Ts, and thus may be excluded from the processing target. It may be set as a divided line segment sequence or a point forming a line segment sequence.
[0036]
The feature amount voting processing means 5 calculates a candidate for the amount of movement of the cutout region by using the cutout region and the edge pair in the above procedure. This processing is performed as follows in the procedure shown in FIG.
[Step 1] L (i, j, k) in the specified direction from the direction edge image Te and all edge pairs in the direction opposite to that direction are acquired.
[Step 2] Obtain all points on the unprocessed line segment sequence from the three-dimensional model.
[Step 3] Scan in the specified reverse direction from all the obtained constituent points to calculate the distance to all the edge pairs.
[Step 4] Vote for the calculated frequency for each distance.
[Step 5] The top T moving amounts satisfying the critical vote rate (the number of votes / the total number of votes) are acquired and set as the moving amount candidates.
[Step 6] [Step 2] to [Step 5] are repeated until the processing is completed for all target line segment strings.
[0037]
When voting the frequency in [Step 4], if the distance is longer than a predetermined distance, the voting may not be performed and the processing efficiency may be increased. Further, the T-th place of the acquisition criterion and the critical vote rate may be determined in advance, or may be dynamically set by determining the minimum number of votes.
[0038]
The movement amount calculation processing means 6 determines the movement amount from the candidates of the movement amount calculated in the above procedure. This processing is performed as follows in the procedure shown in FIG.
[Step 1] A candidate for the moving amount is acquired, and candidates having a critical moving amount (absolute value) or more are deleted.
[Step 2] In the already determined object, the moving amount candidates other than the determined moving amount are deleted.
[Step 3] A combination of L (Ts, j, k) constituting the same line segment sequence and having a difference in movement amount equal to or less than a threshold (critical movement amount) D1 is calculated.
[Step 4] A combination is calculated that has a contradiction with the original positional relationship and has a difference in movement amount equal to or smaller than a threshold (critical movement amount) D2 in the combinations forming different line segment sequences.
[Step 5] With L (Rs (n), j, k), the processes of [Step 3] and [Step 4] are performed, and a similar combination is calculated.
[Step 6] Among these combinations, a combination that does not contradict the original positional relationship is calculated.
[Step 7] Among these consistent combinations, the combination with the largest number of votes is calculated.
[Step 8] The movement amount of each point constituting L (i, j, k) is calculated.
[0039]
The critical movement amount (absolute value) and the values of D1 and D2 may be determined in advance. Also, in this [Step 8], the movement amount is set as a point constituting a line segment sequence constituting L (i, j, k) instead of a point constituting L (i, j, k). It may be calculated.
[0040]
Hereinafter, the above-described processing procedure will be specifically described according to actual data.
[0041]
In the input / output processing, the processing is received from the operator, the information of the object included in the processing target range is acquired from the three-dimensional shape database, and stored in the buffer. Calculates information, obtains image information and shooting information of a texture extraction target for an unprocessed surface of the target object, and performs an extraction process on the unprocessed surface of the target object in a cutout region calculation process. The shape (Ts) projected above is calculated, and a shape group (Rs (n)) on which a surface constituting another object adjacent to Ts is projected is calculated. As a result, a processing result as shown in FIG. 8 is obtained. Is obtained.
[0042]
On the other hand, the histogram for the direction of the line segment sequence forming the shape Ts projected on the texture clipping target image in the clipping region calculation process is calculated, and the angle between this line segment sequence group and the X axis here is calculated. The rotation angle α is calculated assuming the minimum value, and image information (Ti) of a region obtained by adding a margin to the region including Ts and Rs (n) is obtained from the image information to be subjected to texture extraction in the image feature amount calculation process. Then, as a result of rotating Ti by an angle α, a processing result as shown in FIG. 9 is obtained. As shown in FIG. 9, in this state, the cutout region of the texture is shifted due to the accuracy of the imaging information including the position information and the posture information.
[0043]
The image information Ti is processed by an image feature amount calculation process to calculate a direction edge image Te. For example, FIG. 10 shows a direction edge image in the Y-axis direction. This Te is scanned in each of the X-axis direction and the Y-axis direction, and when the interval between a certain target pixel and an edge pixel in the opposite direction satisfies the critical pixel interval, the pixel pair is calculated as an edge pair. I do.
[0044]
Further, in the cutout area correction processing, the line segment sequence forming Ts, Rs (n) is rotated by an angle α, and the line segment sequence is classified into categories in the X-axis direction and the Y-axis direction, and Ts, Rs (n) Is divided into m, and this line segment sequence is defined as L (i, j, k). Here, it is assumed that this line segment sequence is as shown in FIG.
[0045]
A feature voting process is performed on the L (i, j, k) line segment sequence in the X-axis direction and the Y-axis direction. In the feature amount voting process, first, L (i, j, k) in the X-axis direction and all edge pairs in the Y-axis direction opposite to that direction are acquired. All points on the unprocessed line segment sequence are acquired, and scanning is performed from all the constituent points in the specified reverse direction to calculate distances to all edge pairs, and vote for the frequency for each distance. For example, in the case as shown in FIG. 12, one vote is cast for each of the distances of −21, −18, 10, 12, 24, 25, 38, and 43. From the number of votes obtained in this way, the top T movement amounts satisfying the critical vote rate (the number of votes / the total number of votes) are acquired and set as the movement amount candidates. These processes are performed on all the target line segment sequences. The same processing is performed for the Y-axis direction.
[0046]
The axial direction in which the moving amount of the moving amount candidate is large is calculated. Here, assuming that the moving amount in the Y-axis direction is large, L (Ts , J, k) is calculated. In the movement amount calculation processing, first, a movement amount candidate is acquired, and candidates having a critical movement amount (absolute value) or more are deleted. In the already determined objects, the moving amount candidates other than the determined moving amount are deleted, and the difference in the moving amount is a threshold (critical moving amount) in L (Ts, j, k) constituting the same line segment sequence. ) Calculate a combination of D1 or less, and calculate a combination in which a difference in movement amount is equal to or less than a threshold value (critical movement amount) D2 in the combination constituting a different line segment sequence, without inconsistency with the original positional relationship. The case where there is no inconsistency with the original positional relationship means that, for example, when the projected shape is Ts as shown in FIG. 11, a line composed of L (Ts, Y, 5) and L (Ts, Y, 6) This is a case where the position of the line segment line composed of the line segment and L (Ts, Y, 7) and L (Ts, Y, 8) does not interchange. Further, the same processing is performed on L (Rs (n), j, k) to calculate the same combination. Among these combinations, the combination having the largest number of votes is calculated in a combination that does not contradict the original positional relationship. The case where there is no inconsistency with the original positional relationship is, for example, in the case of Ts and Rs (2) as shown in FIG. 11, it is composed of L (Ts, Y, 5) and L (Ts, Y, 6). And the position of the line segment sequence composed of L (Rs (2), Y, 1), L (Rs (2), Y, 2), L (Rs (2), Y, 3) This is the case where the left and right are not interchanged. In this way, the movement amount for each point constituting L (i, j, k) is calculated.
[0047]
Further, in the cutout area correction processing, the movement amount calculated for L (i, j, k) is reflected, and the same processing is performed in the X-axis direction. In this way, the movement amount of the points constituting Ts is determined, and the corrected cutout area as shown in FIG. 13 is calculated.
[0048]
Finally, in the input / output processing, the result of calculating the texture cutout area of the processing target object is stored in the three-dimensional shape database.
[0049]
It is noted that some or all of the processing functions of each unit shown in FIG. 1 can be realized using a computer, or that the computer can execute the processing procedures shown in FIGS. 2 to 7. Needless to say, a program for realizing the processing function of each part in the computer or a program for causing the computer to execute the processing procedure is stored in a storage medium readable by the computer, for example, FD (floppy disk: registered trademark). ), MO, ROM, memory card, CD, DVD, removable disk, etc., and can be stored, provided, or distributed.
[0050]
As described above, the present invention has been specifically described based on the embodiment. However, it is needless to say that the present invention is not limited to the above embodiment and can be variously modified without departing from the gist thereof. Absent.
[0051]
【The invention's effect】
According to the present invention, when mapping a texture to a surface constituting a target object having a three-dimensional shape, the shape of a cutout area calculated with low accuracy from a texture cutout target image such as a shot image based on shooting information or the like is also used. Since the correction is performed by using the edge pair extracted from the target image of the texture extraction, the cut-out region of the calculated texture can be corrected with high accuracy, so that the object is cut out with high accuracy on the surface of the object. The texture can be mapped, and an effect of generating a beautiful three-dimensional shape model can be obtained.
[0052]
Further, a histogram is calculated for the direction of a line segment sequence forming a shape obtained by projecting the surface of the target object on the texture cut-out target image, and the angle between the line segment sequence group and a coordinate axis such as the X axis or the Y axis is determined to be the minimum. Since the rotation angle is calculated as follows, the calculation of the movement amount can be reduced in the coordinate axis direction, so that an effect of realizing efficient and very high-speed processing can be obtained.
[0053]
In addition, the direction edge image of the texture cutout target image is scanned in the designated coordinate axis direction, and a pair of pixels is calculated as an edge pair when an interval between a certain target pixel and an edge pixel in a direction opposite to the target pixel satisfies a critical pixel interval. Therefore, the noise generated by the image processing in estimating the movement amount can be reduced, and the effect of achieving efficient and very high-speed processing can be obtained.
[0054]
In addition, the top several satisfies the critical voting rate calculated by the number of votes / the total number of votes is selected as a candidate for the moving amount, so that in determining the moving amount, efficient and very high-speed processing is performed. The effect that can be realized is obtained.
[0055]
In addition, a moving amount candidate other than the determined moving amount of the object whose moving amount has already been determined is deleted, and a combination in which the difference in the moving amount of the line segment sequence forming the same line segment sequence is equal to or less than a certain value is calculated. Then, a combination having a contradiction with the original positional relationship and having a difference in the movement amount of a certain value or less is calculated for the combinations constituting the different line segment sequences, and the same processing is performed on the line segment sequences constituting the adjacent object. The combination is calculated in, the combination that does not contradict the original positional relationship in the combination is calculated, and the combination with the largest number of votes is calculated in the combination that does not have contradiction. The inconsistency of the cut-out areas can be eliminated, and an effect of realizing efficient and very high-speed processing and generating a beautiful three-dimensional shape model can be obtained.
[0056]
In addition, by using the points forming the line segments obtained by dividing the calculated line segments forming the cutout region, the amount of movement of the points forming the cutout region is estimated and the cutout region is corrected. An effect that the shape of the region can be flexibly controlled can be obtained. Further, since the information for estimating the movement amount also increases, an effect that an efficient process can be realized is obtained.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an apparatus for implementing a texture cutout area correction method according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an input / output processing flow according to the embodiment.
FIG. 3 is a diagram for explaining a cutout region calculation processing flow according to the embodiment;
FIG. 4 is a diagram for explaining an image feature amount calculation processing flow according to the embodiment;
FIG. 5 is a diagram illustrating a cutout region correction processing flow according to the embodiment.
FIG. 6 is a diagram illustrating a feature amount voting process flow according to the embodiment;
FIG. 7 is a diagram for explaining a movement amount calculation processing flow according to the embodiment;
FIG. 8 is a diagram illustrating an example of a shape group Ts, Rs (n) in which a surface of a target object and a surface of an adjacent object are projected on a texture cutout target image in the embodiment.
FIG. 9 is a diagram illustrating an example of image information Ti of a region obtained by adding a margin to the group of projected shapes acquired from a texture extraction target image according to the embodiment.
FIG. 10 is a diagram illustrating an example of a direction edge image in the Y-axis direction according to the embodiment.
FIGS. 11A and 11B are diagrams illustrating an example of a line segment L (i, j, k) obtained by dividing the projected shape group according to an embodiment of the present invention.
FIG. 12 is a diagram illustrating an example of a feature amount voting process according to an embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of a processing result of a texture cutout area correction process according to an embodiment of the present invention.
[Explanation of symbols]
1. Input / output processing means
2. Cutout area calculation processing means
3. Image feature amount calculation processing means
4. Cutout area correction processing means
5. Feature voting processing means
6. Moving amount calculation processing means
7 3D shape database
8. Image database

Claims (10)

3次元形状を有する対象オブジェクトを構成する面ヘテクスチャをマッピングするためにテクスチャ切り出し対象画像からテクスチャ切り出し領域を算出し補正する方法であって、
対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する切り出し領域算出処理手順と、
該テクスチャ切り出し対象画像から座標軸方向毎に臨界画素間隔を満たすエッジ対を算出する画像特徴量算出処理手順と、
該算出された切り出し領域とエッジ対とを利用して該切り出し領域を補正する切り出し領域補正処理手順と、を備える
ことを特徴とするテクスチャ切り出し領域補正方法。
A method for calculating and correcting a texture cutout area from a texture cutout target image in order to map a texture to a surface constituting a target object having a three-dimensional shape,
A cutout area calculation processing procedure for calculating a cutout area from a shape obtained by projecting an unprocessed surface of the target object on the texture cutout target image;
An image feature amount calculation processing procedure for calculating an edge pair satisfying a critical pixel interval for each coordinate axis direction from the texture extraction target image;
A cut-out area correction processing procedure for correcting the cut-out area using the calculated cut-out area and the edge pair.
前記切り出し領域算出処理手順では、対象オブジェクトの面をテクスチャ切り出し対象画像上に投影した形状を構成する線分列の向きに対するヒストグラムを算出し、該線分列群と座標軸とのなす角が最小となる回転角を算出し、
前記特徴量算出処理手順では、テクスチャ切り出し対象画像を該最小回転角で回転させ、
前記切り出し領域補正処理手順では、該線分列を該最小回転角で回転させる
ことを特徴とする請求項1に記載のテクスチャ切り出し領域補正方法。
In the cutout region calculation processing procedure, a histogram is calculated for the direction of a line segment sequence forming a shape obtained by projecting the surface of the target object onto the texture cut target image, and the angle between the line segment sequence group and the coordinate axis is determined to be the minimum. Calculate the rotation angle
In the feature amount calculation processing procedure, the texture cutout target image is rotated at the minimum rotation angle,
2. The texture cutout area correction method according to claim 1, wherein in the cutout area correction processing procedure, the line segment sequence is rotated at the minimum rotation angle.
前記画像特徴量算出処理手順では、
テクスチャ切り出し対象画像から座標軸方向のエッジ画像を生成し、該エッジ画像を座標軸方向にスキャンして或る対象エッジ画素と逆方向のエッジ画素までの間隔が臨界画素間隔を満たす場合の画素の対をエッジ対として算出することを特徴とする請求項1または請求項2に記載のテクスチャ切り出し領域補正方法。
In the image feature amount calculation processing procedure,
An edge image in the coordinate axis direction is generated from the texture extraction target image, and the edge image is scanned in the coordinate axis direction to determine a pair of pixels when the interval between a certain target edge pixel and the edge pixel in the opposite direction satisfies the critical pixel interval. 3. The texture cutout area correction method according to claim 1, wherein the calculation is performed as an edge pair.
前記切り出し領域補正処理手順では、
切り出し領域とエッジ対とを利用して該切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する特徴量投票処理手順と、
該算出された移動量の侯補から該移動量を決定する移動量算出処理手順と、を備えて、
該決定した移動量により該切り出し領域を移動させて補正する
ことを特徴とする請求項1から請求項3までのいずれかに記載のテクスチャ切り出し領域補正方法。
In the cutout area correction processing procedure,
A feature amount voting process procedure for calculating a candidate for a movement amount of how much the cut region should be moved using the cut region and the edge pair;
A moving amount calculation processing procedure for determining the moving amount from the candidate of the calculated moving amount,
4. The texture cutout area correction method according to claim 1, wherein the cutout area is moved and corrected by the determined movement amount.
前記特徴量投票処理手順では、
得票数/全投票数で算出される臨界得票率を満たす上位いくつかを移動量の侯補として算出する
ことを特徴とする請求項4に記載のテクスチャ切り出し領域補正方法。
In the feature amount voting processing procedure,
5. The texture cutout area correction method according to claim 4, wherein the top several satisfies the critical vote rate calculated by the number of votes / total votes is calculated as a candidate for the movement amount.
前記移動量算出処理手順では、
既に移動量が決定されたオブジェクトの決定された移動量以外の移動量侯補を削除し、同じ線分列を構成する線分列の移動量の差が或る値以下の組み合わせを算出し、異なる線分列を構成する該組み合わせで元の位置関係と矛盾がなく移動量の差が或る値以下の組み合わせを算出し、隣接するオブジェクトを構成する線分列に対して同様の処理にて組み合わせを算出し、該組み合わせの中で元の位置関係と矛盾がない組み合わせを算出し、該矛盾がない組み合わせの中で得票数が最大の組み合わせを算出し、該最大得票数の組み合わせから移動量を算出する
ことを特徴とする請求項4または請求項5に記載のテクスチャ切り出し領域補正方法。
In the movement amount calculation processing procedure,
The moving amount candidates other than the determined moving amount of the object whose moving amount has already been determined are deleted, and a combination in which the difference in the moving amount of the line segment sequence forming the same line segment sequence is equal to or less than a certain value is calculated, A combination having a contradiction with the original positional relationship and having a difference in the movement amount equal to or less than a certain value is calculated for the combinations constituting the different line segment sequences, and the same processing is performed on the line segment sequences constituting the adjacent object by a similar process. Calculate the combination, calculate the combination that is not inconsistent with the original positional relationship in the combination, calculate the combination with the largest number of votes among the combination that is not inconsistent, and calculate the movement amount from the combination of the maximum number of votes. The texture cutout area correction method according to claim 4 or 5, wherein is calculated.
前記切り出し領域補正処理手順では、
算出された切り出し領域を構成する線分を分割した線分列を構成する点を利用して該切り出し領域を構成する点の移動量を算出し、該移動量から該切り出し領域を補正する
ことを特徴とする請求項1から請求項6までのいずれかに記載のテクスチャ切り出し領域補正方法。
In the cutout area correction processing procedure,
Using the points forming a line segment sequence obtained by dividing the calculated line segment forming the cutout region, calculating the movement amount of the points forming the cutout region, and correcting the cutout region from the movement amount. The texture cutout area correction method according to any one of claims 1 to 6, characterized in that:
3次元形状を有する対象オブジェクトを構成する面ヘテクスチャをマッピングするためにテクスチャ切り出し対象画像からテクスチャを切り出す領域を算出し補正する装置であって、
対象オブジェクトの未処理の面をテクスチャ切り出し対象画像上に投影した形状から切り出し領域を算出する切り出し領域算出処理手段と、
該テクスチャ切り出し対象画像から座標軸方向毎に臨界画素間隔を満たすエッジ対を算出する画像特徴量算出処理手段と、
該算出された切り出し領域とエッジ対とを利用して該切り出し領域を補正する切り出し領域補正処理手段と、を備える
ことを特徴とするテクスチャ切り出し領域補正装置。
An apparatus for calculating and correcting a region from which a texture is extracted from a texture extraction target image in order to map a texture onto a surface constituting a target object having a three-dimensional shape,
A cutout region calculation processing unit that calculates a cutout region from a shape obtained by projecting an unprocessed surface of the target object onto the texture cutout target image;
Image feature amount calculation processing means for calculating an edge pair satisfying a critical pixel interval for each coordinate axis direction from the texture cutout target image;
A texture cutout area correction apparatus, comprising: cutout area correction processing means for correcting the cutout area using the calculated cutout area and the edge pair.
前記切り出し領域補正処理手段は、
切り出し領域とエッジ対とを利用して該切り出し領域をどのくらい移動させればよいかの移動量の侯補を算出する特徴量投票処理手段と、
該算出された移動量の侯補から該移動量を決定する移動量算出処理手段と、を備えて、
該決定した移動量により該切り出し領域を移動させて補正するものである
ことを特徴とする請求項8に記載のテクスチャ切り出し領域補正装置。
The cutout area correction processing means,
Feature amount voting processing means for calculating a candidate for the amount of movement of the cutout region by using the cutout region and the edge pair;
A moving amount calculation processing means for determining the moving amount from the candidate of the calculated moving amount,
9. The texture cut-out area correction device according to claim 8, wherein the cut-out area is moved and corrected by the determined movement amount.
請求項1から請求項7までのいずれかに記載のテクスチャ切り出し領域補正方法における処理手順をコンピュータに実行させるためのプログラムを、該コンピュータが読み取り可能な記録媒体に記録した
ことを特徴とするテクスチャ切り出し領域補正方法の実行プログラムを記録した記録媒体。
8. A texture cutout, wherein a program for causing a computer to execute a processing procedure in the texture cutout area correction method according to any one of claims 1 to 7 is recorded on a computer-readable recording medium. A recording medium on which an execution program for an area correction method is recorded.
JP2000348019A 2000-11-15 2000-11-15 Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method Expired - Fee Related JP3579645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000348019A JP3579645B2 (en) 2000-11-15 2000-11-15 Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000348019A JP3579645B2 (en) 2000-11-15 2000-11-15 Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method

Publications (2)

Publication Number Publication Date
JP2002150314A JP2002150314A (en) 2002-05-24
JP3579645B2 true JP3579645B2 (en) 2004-10-20

Family

ID=18821666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000348019A Expired - Fee Related JP3579645B2 (en) 2000-11-15 2000-11-15 Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method

Country Status (1)

Country Link
JP (1) JP3579645B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
JPH0883390A (en) * 1994-09-13 1996-03-26 Omron Corp Vehicle recognizing device
JPH09147114A (en) * 1995-11-16 1997-06-06 Nippon Avionics Co Ltd Pattern recognizing method
JP3162664B2 (en) * 1997-10-09 2001-05-08 株式会社シーエスケイ Method and apparatus for creating three-dimensional cityscape information

Also Published As

Publication number Publication date
JP2002150314A (en) 2002-05-24

Similar Documents

Publication Publication Date Title
KR102031302B1 (en) Object digitization
JP3813343B2 (en) 3D modeling equipment
US8803950B2 (en) Three-dimensional face capturing apparatus and method and computer-readable medium thereof
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
US20070133865A1 (en) Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image
JP2005326247A (en) Calibrator, calibration method, and calibration program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
KR20220017697A (en) calibration method and apparatus among mutiple sensors
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
JP3614709B2 (en) Landscape image index method, apparatus, and recording medium recording landscape image index program
JP2006195790A (en) Lens distortion estimation apparatus, lens distortion estimation method, and lens distortion estimation program
JP2006113832A (en) Stereoscopic image processor and program
CN116612253A (en) Point cloud fusion method, device, computer equipment and storage medium
JP3579645B2 (en) Texture cutout area correction method and apparatus, and recording medium storing an execution program of this method
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JP2003067726A (en) Solid model generation system and method
CN112634377B (en) Camera calibration method, terminal and computer readable storage medium of sweeping robot
JPH0814860A (en) Model creating device
JP3572252B2 (en) Method and apparatus for aligning photographed image and range data, and recording medium recording program for executing the method
CN113379899A (en) Automatic extraction method for regional images of construction engineering working face
JP2004030462A (en) Method, apparatus and program for processing image, and computer readable recording medium with the same program recorded thereon
GB2564715A (en) Systems and methods of forming virtual models
JP4081553B2 (en) Distance estimation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 9

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees