JP2015001792A - テクスチャ画像データの生成方法 - Google Patents

テクスチャ画像データの生成方法 Download PDF

Info

Publication number
JP2015001792A
JP2015001792A JP2013125147A JP2013125147A JP2015001792A JP 2015001792 A JP2015001792 A JP 2015001792A JP 2013125147 A JP2013125147 A JP 2013125147A JP 2013125147 A JP2013125147 A JP 2013125147A JP 2015001792 A JP2015001792 A JP 2015001792A
Authority
JP
Japan
Prior art keywords
image data
pixel
texture image
feature
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013125147A
Other languages
English (en)
Other versions
JP5997664B2 (ja
Inventor
岸川 喜代成
Kiyonari Kishikawa
喜代成 岸川
耕平 藤
Kohei Fuji
耕平 藤
佐藤 恭史
Yasushi Sato
恭史 佐藤
池上 達也
Tatsuya Ikegami
達也 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEO Technical Laboratory Co Ltd
Original Assignee
GEO Technical Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEO Technical Laboratory Co Ltd filed Critical GEO Technical Laboratory Co Ltd
Priority to JP2013125147A priority Critical patent/JP5997664B2/ja
Priority to PCT/JP2014/064662 priority patent/WO2014199860A1/ja
Publication of JP2015001792A publication Critical patent/JP2015001792A/ja
Application granted granted Critical
Publication of JP5997664B2 publication Critical patent/JP5997664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】 3次元モデルのポリゴンに適用するテクスチャ画像データを生成する。
【解決手段】 テクスチャの生成対象となる地物を撮影した画像データを複数枚読み込む。また、撮影時の撮影条件や画像データ内の色情報の解析によって、画像間で対応する特徴点を得る。テクスチャを生成する際には、テクスチャを構成する処理対象ピクセルPP1〜PP3ごとに、各画像内でこれに対応するピクセルCP11等を求め、対応するピクセルの色情報の平均値によって、各処理対象ピクセルの色を決定する。各画像内の特徴点は相互に対応関係がわかっているため、特徴点を基準とする相対的な位置関係を用いることによって、特徴点以外の点についても、対応するピクセルを特定することができる。このように複数の画像データを用いて画素単位でテクスチャの色を決定するため、他のポリゴンに遮蔽される部分などの欠落を補足し合ってテクスチャ画像を生成することができる。
【選択図】 図6

Description

本発明は、3次元モデルのポリゴンに適用するテクスチャ画像データの生成方法に関する。
地物の形状を3次元的に表した3次元地図においては、地物の3次元モデルを精度良く、かつ低い処理負荷で生成することが求められる。3次元モデルでは、リアリティを向上させるために、ポリゴンの表面に、各地物を撮影した画像をもとに生成されたテクスチャを貼り付ける方法がとられている。例えば、特許文献1、2は、それぞれ地物を撮影した写真の一部を切り出して、テクスチャとして利用する技術を開示している。
特開2003−6680号公報 特開2004−102474号公報
しかし、3次元モデルの生成対象とする地物の周囲には、他の種々の地物が存在していることがあるため、撮影された画像には、かならずしも地物全体が写っているとは限らない。また、地物の全体が写っている画像が、必ずしも全ての部分で高画質とも限らない。こうした課題を回避するため、複数の画像から、それぞれの良い部分を切り取って、パッチワークのように合成することで一つのテクスチャ画像を生成しようとしても、パッチの継ぎ目部分で不自然さが残り、かえって違和感のあるテクスチャになることがある。本発明は、こうした課題に鑑み、撮影された画像に基づいて、リアリティを向上させたテクスチャを生成可能とすることを目的とする。
本発明は、
コンピュータによって、地物の3次元モデルを構成するポリゴンに適用するテクスチャ画像の画像データを生成するテクスチャ画像データの生成方法であって、
前記コンピュータが実行するステップとして、
(A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込むステップと、
(B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得するステップと、
(C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するステップと
を備えるテクスチャ画像データの生成方法として構成することができる。
本発明によれば、処理対象となるピクセルに対応する箇所の色情報を複数の画像データから取得し、これに基づいて、そのピクセルの色を決定する。このように、テクスチャの生成に、複数の画像データを用いるため、各画像データに存在する欠点を補うことができる。また、ピクセル単位でテクスチャ画像を合成していくため、パッチワークのように合成する方法に比べて、継ぎ目などが現れない自然なテクスチャ画像データを生成することが可能となる。
本発明で用いる複数の画像データは、処理対象となる面(以下、「対象面」ということもある)を撮影したものであればよく、同一の地点、撮影角度で撮影したものでもよいし、多様な地点、撮影角度から撮影したものであってもよい。また、対称面の全体が写っているものであってもよいし、部分的に写っているものであってもよい。
複数の画像データから取得した色情報から、対象となるピクセルの色を決定する方法も、種々の方法をとりうる。例えば、複数の色情報の平均値、中央値、最大度数分布となる色などとすることができる。
本発明のテクスチャ画像データの生成方法においては、
前記ステップ(B)は、
(B1)前記複数の画像データにおける複数の特徴点同士の対応関係を求めるステップと、
(B2)前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定するステップと
を有するものとしてもよい。
こうすることにより、処理対象となるピクセルに対応する箇所を、各画像において精度良く特定することができるため、生成されるテクスチャ画像の画質を向上させることができる。
処理対象となるピクセルに対応する箇所を特定するために用いる特徴点は、1個または2個としてもよいが、2次元的な位置を精度良く特定するためには3個以上を用いることがより好ましい。
処理対象となるピクセルに対応する箇所は、特徴点から処理対象となるピクセルに対する相対位置を求め、各画像内における特徴点に対して同じ相対位置にある箇所を求めればよい。
特徴点としては、例えば、対称面の角や、地物の表面に存在する窓、手すり、看板その他の構造物の頂点、対象物表面で色や形状が急激に変化する点などを利用することができる。また、SIFT(Scale-Invariant Feature Transform)に代表する画像特徴量関連技術を用いても良い。かかる技術を利用すると、画像の色に基づいて、複数の画像間で非常に多くの特徴点を対応づけることができるため、ピクセルに対応する箇所を特定する精度を向上させることができる。
また、本発明のテクスチャ画像データの生成方法においては、
前記ステップ(C)は、
前記画像データのうち、他の地物によって遮蔽されている部分を除いて、前記ピクセルの色を決定するものとしてもよい。
遮蔽されている部分の色情報は、対象面の色とは異なるため、このように除外することにより、色の決定精度を向上させることができる。
このように、遮蔽されている部分を除く態様においては、
前記ステップ(A)は、さらに、前記画像データの撮影条件を読み込み、
前記ステップ(C)は、前記地物および該地物の周辺の3次元形状を表す3次元モデルを参照し、該3次元モデルと前記撮影条件に基づいて、前記遮蔽されている部分を特定するものとしてもよい。
撮影条件とは、撮影位置、撮影方向または角度、撮影時の画角など、撮影される画像の状態を特定するために必要な情報を言う。
3次元モデルからなる仮想空間内で、撮影条件に基づいて仮想的な「撮影」を行えば、得られた画像データ内で対象面が、他の地物によって遮蔽されている部分を比較的容易に特定することができる。こうして特定された領域を適用すれば、テクスチャの生成に用いる各画像内の遮蔽されている部分を、比較的容易かつ精度良く特定することができる。
遮蔽されている部分は、かかる方法の他、例えば、画像データ内の色や形状の不連続性などを解析して特定してもよい。画像特徴量を用いる場合には、複数の画像間で非常に多くの特徴点を得ることができるだけでなく、各特徴点ごとに法線ベクトルも得ることができるため、法線ベクトルの方向の不連続性に基づいて、遮蔽されている部分を特定することも可能である。
本発明のテクスチャ画像データの生成方法においては、
前記ステップ(A)は、前記ポリゴンに対応する面を、当該面の法線方向から見た状態の画像に変換して、前記撮影した複数の画像データを読み込むものとしてもよい。
かかる画像の変換は、例えば、各画像の撮影条件に基づいて、対象面をどの方向から撮影したかを特定し、これに基づいて法線方向から見た状態に変換する方法をとることができる。また別の方法として、各画像の対象面の形状を、いずれかの基準となる形状に合わせるようアフィン変換するものとしてもよい。画像の変換は、その他、種々の方法で行うことができる。
このように、画像データを統一した形状に変換してから処理を行えば、処理対象となるピクセルに対応する箇所も容易に特定することができ、処理の負荷を軽減できるとともに、精度向上を図ることもできる。
本発明は、上述した種々の特徴を必ずしも全て備えている必要はなく、適宜、その一部を省略したり組み合わせたりして構成してもよい。また、本発明は、上述のテクスチャ画像データ生成方法としての態様の他、テクスチャ画像データ生成装置として構成してもよい。さらに、テクスチャ画像データの生成をコンピュータに実行させるコンピュータプログラムとして構成してもよいし、かかるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。
3次元モデル生成システムの構成を示す説明図である。 3次元点群生成処理のフローチャートである。 3次元モデル生成処理のフローチャートである。 テクスチャ生成処理のフローチャート(1)である。 テクスチャ生成処理のフローチャート(2)である。 テクスチャ生成処理のフローチャート(3)である。
A.システム構成:
図1は、3次元モデル生成システムの構成を示す説明図である。3次元モデル生成システムは、処理対象となる地域の写真を航空機から撮影し、この写真を解析して地物ごとの3次元形状を表す3次元モデルを生成するシステムである。航空機に搭載され、地域の写真の画像データを取得する装置を撮影管理装置100と呼ぶ。画像データから3次元モデルを生成する装置を、3次元モデル生成装置200と呼ぶ。本発明のテクスチャ画像データ生成装置は、3次元モデル生成装置200の一機能として実現されている。以下、それぞれの構成について順に説明する。
(1)撮影管理装置100の構成:
撮影管理装置100は、航空機に搭載されている。航空機は、固定翼、回転翼いずれでもよく、有人/無人のいずれであってもよい。
撮影管理装置100には、撮影用のカメラ101、位置情報を取得するためのセンサであるGPS(Global
Positioning System)102、および図示する各機能ブロックが備えられている。機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成することもできるし、ハードウェア的に構成してもよい。
カメラ101は、3次元モデルを生成するための解析に使用される写真を撮影するためのものである。解析精度を向上させるためには、高解像度の写真が望ましい。本実施例では高解像度での撮影が可能な静止画用のディジタルカメラを用いた。十分な解像度が得られる場合には、動画撮影用のカメラを用いてもよい。
撮影シーケンス記憶部112は、撮影を行うための航空機の飛行経路および撮影ポイントを記憶している。撮影ポイントは、カメラ101の画角も考慮して設定されており、処理対象となる領域について、20枚以上の写真が、それぞれ60%程度以上は重複した状態で、順次撮影されるように設定されている。飛行経路の設定方法については後述する。飛行経路等は、予め別のコンピュータ等によって設定したものを、撮影シーケンス記憶部112に記憶させる方法をとってもよいし、撮影シーケンス記憶部112で設定するようにしてもよい。
有人の航空機を用いる場合、飛行経路に従って航空機を飛行させるのはパイロットの役目となる。かかる場合には、撮影シーケンス記憶部112は、パイロットに対し、適宜、設定された飛行経路に沿った飛行を支援するための情報を提供してもよい。
無人の航空機を用いる場合には、撮影シーケンス記憶部112は、飛行を制御する制御装置に、飛行経路に関する情報を送信するように構成してもよい。
撮影制御部110は、カメラ101を制御し、撮影シーケンス記憶部112で設定された撮影ポイントにおいて処理対象領域の写真を撮影する。航空機の現実の飛行経路と、撮影シーケンス記憶部112に記憶された経路とは誤差があるため、撮影制御部110は、かかる誤差も踏まえて、予め設定された撮影ポイント付近に到達したと判断される時点で撮影を行うようにしてもよい。
また、撮影シーケンスは、必ずしも撮影ポイントを特定する方法だけでなく、一定の時間周期で撮影を行うように設定してもよい。かかる場合には、撮影制御部110は、設定された時間間隔ごとに撮影を行うようカメラ101を制御することになる。
撮影制御部110は、いずれの方法で撮影を行う場合においても、カメラ101による撮影と同期して、GPS102から撮影位置の位置情報を取得し、両者を関連づけて画像記録部120に記録する。
撮影制御部110は、自動的に撮影を行う態様として構成する他、航空機に搭乗した撮影者に対して、撮影タイミングを知らせるものとしてもよい。
(2)3次元モデル生成装置200の構成:
3次元モデル生成装置200には、図示する機能ブロックが備えられている。これらの機能ブロックは、それぞれの機能を実現するためのコンピュータプログラムを、コンピュータにインストールすることによって構成されるし、ハードウェア的に構成してもよい。
以下、各機能ブロックの機能について説明する。
画像データ記憶部201は、撮影管理装置100で撮影、収集された画像データおよび撮影位置の位置情報を読込み、記憶する。撮影管理装置100から画像データ記憶部201への画像データの受け渡しは、有線、無線または記録媒体を介して行うことができる。
3次元点群生成部202は、画像データ記憶部201の画像データおよび撮影位置を用いて、3次元点群を生成する。3次元点群とは、それぞれ3次元の座標値および法線ベクトルが付与された多数の点である。法線ベクトルとは、各点が存在すると推定される面の法線ベクトルを意味する。
本実施例では、画像データを撮影した時系列に並べると、前後の画像データ同士は、約60%程度以上の面積が重複した状態で撮影されている。つまり、対象領域内の建物は、撮影ポイントが異なる複数の画像データに撮影されていることになる。従って、複数の画像データ内で相互に対応する点を特定できれば、いわゆる三角測量と同様の原理によってその点の3次元座標を特定することが可能となる。複数の画像データ内で対応する点を特定する技術としては、種々の技術が知られているが、本実施例では、画像特徴量の一例としてSIFT(Scale-Invariant Feature Transform)と呼ばれる公知の技術を適用した。
3次元点群データ記憶部203は、3次元点群生成部202によって得られた3次元点群を記憶する。画像データに写っている部分を解析して得られた点群であるから、3次元点群は、主として建物等の外壁、屋根などの外面部分を表すものとなる。また、画像内には、地面、道路、街路樹、車両など建物以外も多数写っており、これらについても画像内の対応関係が特定される限り3次元点群は生成可能であるから、3次元点群には、こうした建物以外を表すものも多数含まれている。3次元点群は、それぞれ3次元の座標値と法線ベクトルを有しているが、これらの座標値、法線ベクトルは、地球座標系で定義されたものではなく、解析のために設定された架空の3次元空間における座標値である。
このように地球座標系での位置関係が特定されておらず、建物単位に区分もされていない3次元点群から、建物ごとに地図として利用可能な精度で位置座標を有する3次元ポリゴンを生成するのが、以下で示す各機能ブロックの機能である。
重力方向解析部204は、点群の重力方向を解析する。通常、直交座標系で地理的な位置が表されている場合には、重力方向はZ軸方向と一致するが、3次元点群の座標系は地球座標系で定義されたものではないため、必ずしもZ軸が重力方向になるとは限らない。重力方向解析部204は、解析によって重力方向を求めることによって、点群の座標系を地球座標系に対応づける第1段階としての機能を奏する。
点群分離処理部205は、点群を建物単位に分離する。3次元点群は、画像に写っている点の3次元座標を求めたものであり、建物単位で分離もされていなければ、建物の地面等との分離もされていない。点群分離処理部205は、かかる3次元点群を解析して、建物ごとの点群に分離する機能を奏する。
建物枠生成部206は、建物ごとに分離された点群に基づいて2次元的な外形形状を表す建物枠を生成する。
位置合わせ処理部207は、2次元地図データ210に記憶された2次元地図に複数の建物枠を適合させることによって、重力方向以外の座標系を地球座標系に対応づける機能を奏する。位置合わせ処理部207は、建物ごとに分離された点群を1つずつ2次元地図に適合させていくのではない。点群で表されている複数の建物全体を、その相対的な関係を概ね保った状態で、全体として2次元地図に適合させるのである。このように複数の建物全体を適合させることによって、精度良く位置合わせを行うことができる。
ポリゴン生成部208は、以上の処理によって2次元的な形状が定まった建物ごとに、点群に基づき側面および上面のポリゴンを生成する。
テクスチャ生成部209は、生成されたポリゴンの表面に貼り付けるテクスチャを、画像データ記憶部201に記憶された画像データによって生成する。
以上の処理で生成された3次元ポリゴンおよびテクスチャは、3次元モデルデータ211に格納される。
B.3次元点群生成処理:
飛行経路および撮影ポイントが決まると、これに従って、目標の周辺を飛行しながら撮影が行われる。撮影された画像データは、図1で説明した通り、逐次、撮影ポイントの位置座標とともに、撮影管理装置100の画像記録部120に記録される。撮影が完了すると、画像データおよび位置座標は、3次元モデル生成装置200に入力され、3次元点群が生成される。画像データの3次元モデル生成装置200への読込みは、種々の方法で行うことができるが、本実施例では、記録媒体を介して読み込ませるものとした。
図2は、3次元点群生成処理のフローチャートである。3次元モデル生成装置200の3次元点群生成部202が実行する処理であり、ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理である。
処理を開始すると、3次元モデル生成装置200は、画像データおよび位置情報を読み込む(ステップS10)。そして、画像特徴量によるマッチングにより、画像間の特徴点の対応付けを行う(ステップS11)。図中に特徴点の対応付けの様子を示した。図示するように画像1、画像2のそれぞれから、特徴点(図中の4つの×印)を抽出し、それぞれの特徴点同士の対応関係を認識するのである。画像特徴量によるマッチングは、画像内の色成分に基づいて特徴点を抽出し、画像間の対応関係を求める解析技術であり、解析原理およびアルゴリズムともに周知であるため、詳細な説明は省略する。ステップS11では、画像間の特徴点同士を対応づけるものであれば、SIFTなど、種々の手法を用いることができる。
こうして特徴点の対応関係が求まると、各特徴点の3次元座標および法線ベクトルを算出することができる(ステップS12)。図中に算出原理を図示した。実施例で使用する各画像には、それぞれ撮影ポイントの位置情報が付されているため、複数の画像間で対応関係が得られた特徴点については、2つ以上の撮影ポイント1,2が対応づけられることになる。撮影ポイント1,2からの画角等に基づいて撮影した画像内の特徴点の位置を解析すれば、それぞれの撮影ポイント1,2から特徴点を視た方向を決定することができ、撮影ポイント1、2の座標値に対して特徴点の相対的な位置関係を特定することができる。ここで得られる特徴点の位置座標は、地球座標系での絶対的な位置座標ではなく、解析用の空間に設定された架空の3次元座標(xa、ya、za)上での座標値である。
法線ベクトルとは、各特徴点が存在すると推定される推定面の法線方向のベクトルである。実施例では、対応する画像において多数の特徴点が抽出され、各画像内の特徴点同士の相対的な位置関係が維持されることを前提として、画像間での特徴点の対応関係を認識する。このように特徴点同士の相対的な位置関係から、その特徴点が存在する推定面が特定され、その法線ベクトルを求めることができる。
これらの画像間の相対的位置関係、3次元座標および法線ベクトルの算出も、SfM(Structure
from Motion)技術、およびそれを利用した手法として周知であるため、さらなる詳細な説明は省略する。
3次元座標および法線ベクトルが算出された特徴点の集合を、以下、3次元点群と呼ぶ。3次元モデル生成装置200は、得られた3次元点群のデータを格納し(ステップS13)、3次元点群生成処理を終了する。
本実施例では、撮影した画像データから3次元点群を取得しているが、以下の処理は、レーザ計測など、他の方法によって得られた3次元点群を用いて行うこともできる。
D.3次元モデル生成処理:
図3は、3次元モデル生成処理のフローチャートである。先に説明した3次元点群データに基づいて、建物ごとの3次元形状を表す3次元モデルを生成するための処理である。この処理は、図1に示した重力方向解析部204、点群分離処理部205、建物枠生成部206、位置合わせ処理部207、ポリゴン生成部208、テクスチャ生成部209によって、それぞれ実現される処理である。ハードウェア的には、3次元モデル生成装置200のCPUが実行する処理となる。
図3には、全体の処理の流れを示した。
D1.重力方向解析処理:
3次元モデル生成処理では、まず重力方向解析処理が行われる(ステップS20)。これは、重力方向解析部204の機能に相当する処理であり、3次元点群を解析して重力方向を以下の手順で、特定する処理である。
本実施例では、3次元点群全体の主成分分析を行い、第3主成分をまず仮の重力方向Gtとして設定する。かかる方法で重力方向を特定できる理由は、次の通りである。本実施例の3次元点群は、目標を中心とする周辺の領域を撮影して得られるものである。撮影される建物が高層ビルであっても、その高さは、撮影される領域の水平方向の広がりに比べれば小さい。従って、3次元点群は、全体的に見れば、図示するように、比較的平たい領域に分布することとなる。
主成分分析とは、3次元空間内における3次元点群の分布を特徴づける方向を求めるものであり、3次元点群の分布が大きい方向から順に第1主成分、第2主成分、第3主成分となる。平たい領域に分布した3次元点群については、水平方向の分布に基づいて第1主成分、第2主成分が求まり、それに直交する方向が第3主成分となる。従って、第3主成分は、3次元点群の重力方向Gtを表すことになる。ただし、点群の分布に基づく誤差が含まれているため、第3主成分は、あくまでも仮の重力方向を示すに過ぎない。
本実施例では、このように平たい領域に分布する3次元点群を利用するため、垂直方向と推測される面のみを抽出するなどといった複雑な前処理を行うまでなく、主成分分析により仮の重力方向を求めることが可能となる。
実施例の3次元点群は、3次元の位置座標とともに、法線ベクトルを有しているから、仮の重力方向が決まると、これに比較的沿う方向の法線ベクトルを有する点群を特定することができる。かかる点群を除外すれば、建物を構成する点群のうち、水平面を構成する点群を除外することができ、建物の垂直面を構成する点群を抽出することができる。また、こうして抽出された点群について、点間の距離および法線方向に基づいてクラスタリングを行えば、点群を建物の側面単位で分離することができる。そして、各面ごとに主成分分析を行い、第3主成分求めれば、それが側面の法線ベクトル方向となる。この法線ベクトルの精度は、第3固有値によって評価できる。つまり、第3固有値が大きいということは、法線方向に点群のばらつきが大きいことを示しており、法線の精度が低いことを表すからである。
こうして各側面の法線ベクトルが得られると、任意の2つの側面の法線ベクトルVi、Vjの外積Vi×Vjを求めれば、重力方向Gが得られるはずである。ただし、法線ベクトルVi、Vjには、それぞれ誤差が含まれているから、こうして得られる重力方向Gにも誤差が含まれている。そこで、実施例では、得られている法線ベクトルから、平行ではない任意の組み合わせを選択して、外積により個別の重力方向を求め、その加重平均によって最終的な重力方向Gを算出する。加重平均における重み値としては、例えば、法線ベクトルVi、Vjの精度を表す第3固有値の和(ei+ej)の逆数とすることができる。
以上の通り、3次元点群に対して統計的な処理を施すことにより、それぞれの点の位置座標および法線ベクトルに含まれる誤差の影響を抑制し、高い精度で重力方向を決定することが可能となる。
D2.点群分離処理:
次に、点群分離処理が行われる(ステップS21)。これは、点群分離処理部205の機能に相当する処理であり、3次元点群を建物単位に分離する処理である。
この処理の過程で、まず、3次元モデル生成装置200は、3次元点群を階層ごとに分離する。そして、各階層内で点間の距離によって点群のクラスタリングを行う。このうち、上下方向の法線ベクトルが多く含まれているクラスタには屋上面が存在すると判断することができるから、クラスタを屋上面が存在するものと、側面のみのものに分離することができる。その上で、屋上面が存在するクラスタから、そのクラスタが積層されている下の階層のクラスタを特定していく。この特定は、例えば、上下の階層に属するクラスタ間の2次元的な距離が所定値以下となるもの同士を、同じ建物で上下に重なっているものと判断することで行うことができる。高層階で分岐している複雑な形状の建物の場合、上の分岐部分は、下の階層で共通のクラスタに関連づけられるから、このツリー構造によって、全体が一つの建物であると認識される。
このようにクラスタの関連付けおよびツリー構造を利用することにより、特殊な形状の建物も含め、3次元点群を建物ごとに分離することが可能となる。
D3.建物枠生成処理:
次に、建物枠生成処理が行われる(ステップS22)。これは、建物枠生成部206の機能に相当する処理であり、建物の2次元的な形状を特定する処理である。
この処理の過程で、まず、3次元モデル生成装置200は、法線ベクトルに基づいて、3次元点群から側面の点群を抽出する。そして、分離された側面に沿わせて所定サイズのグリッドを配置し、点群を水平面に投影し、1又は複数の点が存在する格子を抽出する。この処理によって、処理対象となるべき点数は、建物枠に対応する位置にある格子点の数にまで減少される。このように処理対象となる点数を減らした上で、3次元モデル生成装置200は、ほぼ直線的に配列されていると判断される部分について、点を間引くことで、建物枠を決定する。
D4.位置合わせ処理:
次に、位置合わせ処理が行われる(ステップS23)。これは、位置合わせ処理部207の機能に相当する処理であり、3次元点群を2次元の地図に適合させる処理である。
本実施例における位置合わせ処理は、建物ごとに2次元地図データと対比して、形状や位置の微修正を行うものではない。本実施例では、目標の建物周辺の領域について3次元点群が得られており、これらの3次元点群は、建物ごとに上面、側面を再現するのと同様の精度で、建物間の相対的な位置関係も表しているはずである。かかる考え方の下、本実施例では、これまでの処理で得られている複数の建物枠の全体を,2次元地図に最も精度良く適合させ得る形状および位置の変換方法を見いだすのである。
かかる位置合わせは、得られた建物枠を構成する頂点と、2次元地図上の頂点との対応関係を種々の組み合わせで試行し、最も小さい変形で、3次元点群を2次元地図に適合させられる対応関係を特定する。かかる特定には、焼きなまし法、またはシミューレーテッドアニーリング法を用いることができる。
かかる方法によれば、建物ごとの形状、および建物の相対的な位置関係について、3次元点群が有する情報を十分に活用することができるため、精度良く位置合わせを行うことが可能となる。
D5.ポリゴン生成処理:
次に、ポリゴン生成処理が行われる(ステップS24)。これは、ポリゴン生成部208の機能に相当する処理であり、建物ごとの3次元点群に基づいて、側面および上面のポリゴンを生成する処理である。
3次元モデル生成装置200は、ここまでの処理によって得られた建物枠に基づいて上面を定義し、次にこれを下方に平行移動することで、各辺に対して建物の側面のポリゴンを設定する。上で分岐しているような特殊な形状の建物についても同様に、分岐している各上面を下方に平行移動することによって分岐部分の側面を生成し、また低階層の上面を下方に平行移動することによって低階層の側面ポリゴンを生成することができる。このように上面の形状を利用する他、建物枠生成処理で分離された側面の点群に基づいてポリゴンを定義してもよい。
D6.テクスチャ生成処理:
最後に、テクスチャ生成処理が行われ(ステップS25)、3次元地図として利用可能な位置精度を有する建物ごとの3次元モデルが生成される。
図4〜6は、テクスチャ生成処理のフローチャートである。
処理を開始すると、3次元モデル生成装置200は、テクスチャの生成処理の対象ポリゴンに合わせた形状で無地のテクスチャを生成する(ステップS50)。図中に生成例を示した。左側に示した建物モデルの正面のポリゴンが対象ポリゴンであるとする。3次元モデル生成装置200は、図中の右側に示すように、この対象ポリゴンを正面から見た状態の無地テクスチャを生成するのである。無地テクスチャの形状は、例えば、対象ポリゴンを正面から見た状態に変換することで決めてもよいし、対象ポリゴンの縦横比を求め、それに応じた矩形を新たに生成してもよい。無地テクスチャのピクセル数pix、piyは、形状に応じて定まる。無地テクスチャにいずれかの画像から得られる対象ポリゴン自体を、初期のテクスチャとして用いても良い。
次に、3次元モデル生成装置200は、対象ポリゴンを撮影した画像データを読み込み、遮蔽判定を行う(ステップS52)。図中に処理の方法を示した。本実施例では、上空の種々の方向から地物を撮影しているため、対象ポリゴンが写った画像は複数、存在する。この処理は、対象ポリゴンが写った複数の画像を対象として行う。もっとも、必ずしも全画像を対象とする必要はなく、所定の枚数を選択してもよい。
3次元モデル生成装置200は、画像を読み込むと、対象ポリゴンの画像を切り出し、正面から見た画像に変換する。この変換は、その画像を撮影したときの撮影位置、方向、画角などの撮影条件に基づき、正面から見た状態に変換するためのパラメータを設定することで実現できる。また、対象ポリゴンが矩形であることが既知の場合には、撮影条件を用いるまでなく、対象ポリゴンの画像が矩形になるような変換を施しても良い。さらに、ステップS50で求めた無地テクスチャに、対象ポリゴンの頂点を一致させるように変換する方法をとることもできる。
こうして、正面からの画像に変換すると、3次元モデル生成装置200は、対象ポリゴンの画像から、遮蔽部分を除去する処理を行う。いずれの部分が遮蔽されているかの判断には、既に生成されている3次元モデルを利用することができる。それぞれの画像を撮影したときの撮影条件に基づいて、他の地物も含む3次元モデルの仮想空間の中で、撮影を再現する。こうして得られた画像内で、どの地物が写っているかは、3次元モデルに基づいて比較的容易に特定できるから、対象ポリゴンの画像内で他の地物によって遮蔽されている部分も特定可能である。かかる方法によって、対象ポリゴンの画像から、遮蔽部分を除去することができる。
画像データの読込み、および遮蔽部分の除去は、このように画像データを読みこんだ時点で行ってもよいし、ピクセルごとに色を決定する後述の処理の時点で行うようにしてもよい。また、本実施例では、読み込んだ画像を正面画像に変換するものとしているが、かかる変換をせずに利用しても構わない。
次に、3次元モデル生成装置200は、テクスチャの色を、各画素ごとに決める処理を行う。
まず、3次元モデル生成装置200は、処理対象となるピクセルを選択する(ステップS54)。図中には、テクスチャの左上の画素PPから矢印a1、a2のように順に処理する例を示したが、ピクセルの選択は、かかる順序に限られない。例えば、対象ポリゴンについて既に得られている特徴点を優先して処理するようにしてもよい。
処理対象ピクセルを選択すると、そのピクセルの周辺の特徴点を抽出し、特徴点を基準として、処理対象ピクセルの相対的な位置を特定する(ステップS56)。特徴点としては、本実施例では、画像特徴量に基づいて各画像の対応が得られている点を用いる。この他、対象ポリゴンの画像データを画像解析して得られる頂点その他の点を特徴点として用いても良い。
図中に相対的位置の特定方法を例示した。処理対象ピクセルPPの周囲に特徴点1〜4が存在するものとする。相対的位置関係は、例えば、対象ピクセルPPから、特徴点1〜4までの距離r1〜r4の比で表しても良い。また、左下の特徴点2を基準として、特徴点2,3を結ぶ軸上における対象ピクセルPPの座標CPx、特徴点w、1を結ぶ軸上における対象ピクセルPPの座標CPyによって、相対的な位置関係を表すようにしてもよい。相対的位置関係は、この他、種々の方法で表し得る。
こうして、相対的位置関係が求まると、3次元モデル生成装置200は、各画像データ内で、処理対象ピクセルに対応する対応ピクセルを特定する(ステップS58)。
図中に処理のイメージを例示した。特徴点1〜4は、テクスチャ生成の素材となるそれぞれの画像内に存在する点である。従って、画像1において、特徴点1〜4を見いだし、これに先に得られている相対的位置関係を適用すれば、対応ピクセルCP1が得られる。同様に、別の画像2においても、特徴点1〜4を見いだし、これに相対的位置関係を適用すれば、対応ピクセルCP2が得られる。このように、テクスチャ生成の素材となる画像、即ちS52で読み込んだ各画像に対し、同様の処理を施せば、各画像における対応ピクセルを特定することができる。
3次元モデル生成装置200は、こうして得られた各画像の対応ピクセルの平均値によって、処理対象ピクセルの色を決定する(ステップS60)。ただし、先にステップS52で説明した通り、画像データからは、遮蔽部分が除去されている。従って、この処理は、遮蔽部分を除く対応ピクセルの色を用いて行うことになる。
図中に処理例を示した。処理対象ピクセルPP1の色は、3つの画像内の対応ピクセルCP11、CP21、CP31の色を平均して求めることができる。処理対象ピクセルPP2については、2つめの対応ピクセルCP22は遮蔽部分で除去されているため、対応ピクセルCP12、CP32の平均値で求める。処理対象ピクセルPP3については、2つの対応ピクセルCP13、CP23が遮蔽部分で除去されているため、対応ピクセルCP33を用いて求める。
複数の対応ピクセルに基づいて色を決定する方法は、種々の方法が可能である。例えば、色ごとに対応ピクセルの分布を求めて、そのピーク値を採用するようにしてもよい。
3次元モデル生成装置200は、テクスチャの全ピクセルについて色が決定するまで(ステップS62)、ステップS54以降の処理を繰り返し実行し、完成したテクスチャを格納して(ステップS64)、テクスチャ生成処理を終了する。
E.効果:
以上の実施例によれば、対応ピクセルの平均値によって処理対象ピクセルの色を求めるため、遮蔽部分で除去されていない画像データが1つでも存在すれば、欠落部分を補足し合って、処理対象ピクセルの色を決定することができる。また、ピクセル単位で処理を行うため、複数の画像をパッチワークのように合成したときの継ぎ目などが現れず、テクスチャ全体の画質を向上させることができる。
実施例では、
以上、本発明の実施例について説明した。本発明は、必ずしも上述した実施例の全ての機能を備えている必要はなく、一部のみを実現するようにしてもよい。また、上述した内容に追加の機能を設けてもよい。
本発明は上述の実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、実施例においてハードウェア的に構成されている部分は、ソフトウェア的に構成することもでき、その逆も可能である。
実施例では、3次元点群を用いる例を示したが、テクスチャの生成は、必ずしも3次元点群を利用する態様に限らず適用可能である。
本発明は、3次元モデルのポリゴンに適用するテクスチャ画像データの生成に適用可能である。
100…撮影管理装置
101…カメラ
102…GPS
110…撮影制御部
112…撮影シーケンス記憶部
120…画像記録部
200…3次元モデル生成装置
201…画像データ記憶部
202…3次元点群生成部
203…3次元点群データ記憶部
204…重力方向解析部
205…点群分離処理部
206…建物枠生成部
207…位置合わせ処理部
208…ポリゴン生成部
209…テクスチャ生成部
210…2次元地図データ
211…3次元モデルデータ

Claims (7)

  1. コンピュータによって、地物の3次元モデルを構成するポリゴンに適用するテクスチャ画像の画像データを生成するテクスチャ画像データの生成方法であって、
    前記コンピュータが実行するステップとして、
    (A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込むステップと、
    (B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得するステップと、
    (C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するステップと
    を備えるテクスチャ画像データの生成方法。
  2. 請求項1記載のテクスチャ画像データの生成方法であって、
    前記ステップ(B)は、
    (B1)前記複数の画像データにおける複数の特徴点同士の対応関係を求めるステップと、
    (B2)前記ピクセルの周囲に位置する複数の特徴点を基準として、該ピクセルに対応する箇所を特定するステップと
    を有するテクスチャ画像データの生成方法。
  3. 請求項1または2記載のテクスチャ画像データの生成方法であって、
    前記ステップ(C)は、
    前記画像データのうち、他の地物によって遮蔽されている部分を除いて、前記ピクセルの色を決定する
    テクスチャ画像データの生成方法。
  4. 請求項3記載のテクスチャ画像データの生成方法であって、
    前記ステップ(A)は、さらに、前記画像データの撮影条件を読み込み、
    前記ステップ(C)は、前記地物および該地物の周辺の3次元形状を表す3次元モデルを参照し、該3次元モデルと前記撮影条件に基づいて、前記遮蔽されている部分を特定する
    テクスチャ画像データの生成方法。
  5. 請求項1〜4いずれか記載のテクスチャ画像データの生成方法であって、
    前記ステップ(A)は、前記ポリゴンに対応する面を、当該面の法線方向から見た状態の画像に変換して、前記撮影した複数の画像データを読み込む
    テクスチャ画像データの生成方法。
  6. 地物の3次元モデルを構成するポリゴンに適用するテクスチャ画像の画像データを生成するテクスチャ画像データ生成装置であって、
    前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込む画像データ入力部と、
    前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得し、前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成するテクスチャ生成部と
    を備えるテクスチャ画像データ生成装置。
  7. コンピュータに、地物の3次元モデルを構成するポリゴンに適用するテクスチャ画像の画像データを生成する機能を実現させるためのコンピュータプログラムであって、
    (A)前記地物の前記ポリゴンに対応する面を撮影した複数の画像データを読み込む機能と、
    (B)前記テクスチャ画像を構成するピクセルごとに、前記複数の画像データから該ピクセルに対応する箇所の色情報を取得する機能と、
    (C)前記取得された色情報に基づいて、前記ピクセルの色を決定することにより、前記テクスチャ画像を生成する機能と
    をコンピュータに実現させるコンピュータプログラム。


JP2013125147A 2013-06-14 2013-06-14 テクスチャ画像データの生成方法 Active JP5997664B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013125147A JP5997664B2 (ja) 2013-06-14 2013-06-14 テクスチャ画像データの生成方法
PCT/JP2014/064662 WO2014199860A1 (ja) 2013-06-14 2014-06-03 テクスチャ画像データの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013125147A JP5997664B2 (ja) 2013-06-14 2013-06-14 テクスチャ画像データの生成方法

Publications (2)

Publication Number Publication Date
JP2015001792A true JP2015001792A (ja) 2015-01-05
JP5997664B2 JP5997664B2 (ja) 2016-09-28

Family

ID=52022158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013125147A Active JP5997664B2 (ja) 2013-06-14 2013-06-14 テクスチャ画像データの生成方法

Country Status (2)

Country Link
JP (1) JP5997664B2 (ja)
WO (1) WO2014199860A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018143502A1 (ko) * 2017-02-06 2018-08-09 (주)볼트마이크로 데이터 포맷 변환 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997344A (ja) * 1995-09-29 1997-04-08 Fujitsu Ltd テクスチャ生成方法およびテクスチャ生成システム
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
JP2003115057A (ja) * 2001-10-05 2003-04-18 Mitsubishi Electric Corp テクスチャ編集装置、テクスチャ編集システムおよび方法
JP2003331259A (ja) * 2002-05-15 2003-11-21 Pasuko:Kk オルソフォト画像生成方法およびオルソフォト画像生成システム
JP2004220516A (ja) * 2003-01-17 2004-08-05 Pasuko:Kk 3次元地理形状モデルのテクスチャ画像取得方法
WO2009073726A1 (en) * 2007-12-03 2009-06-11 Pictometry International Corporation Systems and methods for rapid three-dimensional modeling with real façade texture

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997344A (ja) * 1995-09-29 1997-04-08 Fujitsu Ltd テクスチャ生成方法およびテクスチャ生成システム
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
JP2003115057A (ja) * 2001-10-05 2003-04-18 Mitsubishi Electric Corp テクスチャ編集装置、テクスチャ編集システムおよび方法
JP2003331259A (ja) * 2002-05-15 2003-11-21 Pasuko:Kk オルソフォト画像生成方法およびオルソフォト画像生成システム
JP2004220516A (ja) * 2003-01-17 2004-08-05 Pasuko:Kk 3次元地理形状モデルのテクスチャ画像取得方法
WO2009073726A1 (en) * 2007-12-03 2009-06-11 Pictometry International Corporation Systems and methods for rapid three-dimensional modeling with real façade texture

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久永聡, 外5名: "3次元都市構築におけるテクスチャマッピング方式", 第61回(平成12年後期)全国大会講演論文集(3) データベースとメディア ネットワーク, JPN6014034033, 3 October 2000 (2000-10-03), pages 3 - 49, ISSN: 0003383064 *

Also Published As

Publication number Publication date
WO2014199860A1 (ja) 2014-12-18
JP5997664B2 (ja) 2016-09-28

Similar Documents

Publication Publication Date Title
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
CN111629193B (zh) 一种实景三维重建方法及系统
US7509241B2 (en) Method and apparatus for automatically generating a site model
US10789765B2 (en) Three-dimensional reconstruction method
CN110574076B (zh) 图像生成设备、图像生成方法和计算可读存储介质
CN103810685B (zh) 一种深度图的超分辨率处理方法
JP2015114954A (ja) 撮影画像解析方法
WO2018061010A1 (en) Point cloud transforming in large-scale urban modelling
JP2014186567A (ja) 3次元点群解析方法
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
JP6080641B2 (ja) 3次元点群解析方法
JP6921686B2 (ja) 生成装置、生成方法、及びプログラム
JP2015022510A (ja) 自由視点画像撮像装置およびその方法
JP2014185947A (ja) 3次元復元のための画像撮影方法
KR20110070660A (ko) 3차원 도시 모델링 장치 및 방법
JP6080640B2 (ja) 3次元点群解析方法
CN110490967A (zh) 图像处理和对象建模方法与设备、图像处理装置及介质
CN115641401A (zh) 一种三维实景模型的构建方法及相关装置
JP2016218694A (ja) 3次元モデル生成装置、3次元モデル生成方法、及びプログラム
CN114766042A (zh) 目标检测方法、装置、终端设备及介质
JP2020008802A (ja) 三次元マップ生成装置および三次元マップ生成方法
BR102022015085A2 (pt) Aparelho de processamento de imagem, método de processamento de imagem e meio de armazenamento
KR101079475B1 (ko) 포인트 클라우드 필터링을 이용한 3차원 도시공간정보 구축 시스템
CN116051980B (zh) 基于倾斜摄影的建筑识别方法、系统、电子设备及介质
JP5997664B2 (ja) テクスチャ画像データの生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160826

R150 Certificate of patent or registration of utility model

Ref document number: 5997664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250