JP2004030462A - 画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 - Google Patents
画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP2004030462A JP2004030462A JP2002188582A JP2002188582A JP2004030462A JP 2004030462 A JP2004030462 A JP 2004030462A JP 2002188582 A JP2002188582 A JP 2002188582A JP 2002188582 A JP2002188582 A JP 2002188582A JP 2004030462 A JP2004030462 A JP 2004030462A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- feature
- image
- region
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて、容易に3次元画像を生成することができる画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体を提供する。
【解決手段】飛翔体に搭載されるラインセンサ201〜203から得られる画像データD1〜D3に基づいて、領域抽出手段103が特徴領域を、エッジ抽出手段106が特徴線分を、それぞれ抽出する。領域対応手段104は、同一の撮影対象物に関する特徴領域を画像データ間で対応付ける。エッジ対応手段107も同様に、特徴線分を対応付ける。そして、対応付けられた特徴領域及び特徴線分に基づいて、3次元領域及び3次元線分が生成される。3次元領域及び3次元線分が統合されて3次元画像が生成される。
【選択図】 図1
【解決手段】飛翔体に搭載されるラインセンサ201〜203から得られる画像データD1〜D3に基づいて、領域抽出手段103が特徴領域を、エッジ抽出手段106が特徴線分を、それぞれ抽出する。領域対応手段104は、同一の撮影対象物に関する特徴領域を画像データ間で対応付ける。エッジ対応手段107も同様に、特徴線分を対応付ける。そして、対応付けられた特徴領域及び特徴線分に基づいて、3次元領域及び3次元線分が生成される。3次元領域及び3次元線分が統合されて3次元画像が生成される。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
近年、GIS(Geographic Information System)分野において、特に都市部における3次元地図の需要が高まっている。その利用形態としては、カーナビゲーションなどに用いる道路情報、都市災害GISなどが挙げられる。また、電波の伝播解析、氾濫解析等の解析にも詳細かつ精度が高い3次元地図が求められている。
【0003】
【発明が解決しようとする課題】
3次元地図の作成方法としては、航空写真測量による写真に基づき、地図作成者が建造物の1つ1つを作成するといった方法が考えられる。しかしながら、そういった方法では精度のよい3次元地図を得ることは困難である。特に、多様な建造物が存在する都市部の3次元地図を精度よく作成する困難性は極めて高いものである。
【0004】
そこで、本発明は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて、精度よく3次元画像を生成することができる画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0005】
【課題を解決するための手段】
このような目的を達成するために、本発明による画像処理方法は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理方法であって、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出ステップと、領域抽出ステップにより抽出された特徴領域のうち、同一の撮影対象物に対応する特徴領域を、2次元画像間で対応付ける領域対応ステップと、領域対応ステップにより対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算ステップと、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出ステップと、エッジ抽出ステップにより抽出された特徴線分のうち、同一の撮影対象物に対応する特徴線分を、2次元画像間で対応付けるエッジ対応ステップと、エッジ対応ステップにより対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算ステップと、3次元領域と3次元線分とを統合して特徴面を生成する統合ステップと、統合ステップにより生成された特徴面に基づいて、該特徴面を有する撮影対象物の3次元画像を生成する画像生成ステップとを備えることを特徴とする。
【0006】
また、本発明による画像処理装置は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理装置であって、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出手段と、領域抽出手段により抽出された特徴領域のうち、同一の撮影対象物に対応する特徴領域を、2次元画像間で対応付ける領域対応手段と、領域対応手段により対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算手段と、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出手段と、エッジ抽出手段により抽出された特徴線分のうち、同一の撮影対象物に対応する特徴線分を、2次元画像間で対応付けるエッジ対応手段と、エッジ対応手段により対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算手段と、3次元領域と3次元線分とを統合して特徴面を生成する統合手段と、統合手段により生成された特徴面に基づいて、該特徴面を有する撮影対象物の3次元画像を生成する画像生成手段とを備えることを特徴とする。
【0007】
上記した画像処理方法及び画像処理装置は、異なる視点から撮影して得られた複数の2次元画像に基づいて、3次元領域及び3次元線分を生成している。そして、3次元領域と3次元線分とを用いて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。特徴面を特定することが容易な3次元領域と、位置精度が良い3次元線分とを特徴面の生成に用いることによって、3次元画像を精度よく生成することができる。
【0008】
また、画像処理方法(装置)は、エッジ対応ステップ(手段)が、同一の撮影対象物に対応する特徴線分を2次元画像間で対応付ける際に、第1演算ステップ(手段)により生成された、3次元領域の3次元座標の高さ成分を利用することを特徴としてもよい。これによって、特徴線分を対応付ける処理に要する時間を短縮することができる。
【0009】
また、画像処理方法(装置)は、統合ステップ(手段)により生成された特徴面のうち、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合ステップ(手段)をさらに備え、画像生成ステップ(手段)が、結合ステップ(手段)により生成された特徴面群に基づいて、特徴面群を有する撮影対象物の3次元画像を生成することを特徴としてもよい。これによって、複雑な形状を有する撮影対象物に対しても好適に3次元画像を生成することができる。
【0010】
また、画像処理方法(装置)は、画像生成ステップ(手段)により生成された撮影対象物の3次元画像に該撮影対象物のテクスチャを合成するテクスチャ合成ステップ(手段)をさらに備えることを特徴としてもよい。これによって、実際に上空から見た景色と同様の3次元画像を生成することができる。
【0011】
また、本発明による画像処理プログラムは、上記した画像処理方法をコンピュータに実行させることを特徴とする。
【0012】
また、本発明による記録媒体は、上記した画像処理方法をコンピュータに実行させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0013】
【発明の実施の形態】
以下、図面とともに本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0014】
図1は、本発明による画像処理装置の実施形態を示すブロック図である。図1に示す画像処理装置100は、第1のラインセンサ201により撮影された2次元画像である第1画像データD1、第2のラインセンサ202により撮影された2次元画像である第2画像データD2、及び第3のラインセンサ203により撮影された2次元画像である第3画像データD3を入力し、これらの画像データに基づいて3次元画像を作成する装置である。
【0015】
ここで、第1画像データD1ないし第3画像データD3について説明する。これらの画像データは、第1のラインセンサ201ないし第3のラインセンサ203によって生成される。第1のラインセンサ201ないし第3のラインセンサ203は、撮影装置200を構成している。そして、撮影装置200は、図2に示すような飛翔体204下部の所定の位置に取り付けられる。
【0016】
図3は、撮影装置200が上空から下方を撮影する概念を示す図である。第1のラインセンサ201ないし第3のラインセンサ203は、複数の画素bが一列に並べて構成されている。また、各ラインセンサは飛翔体204の進行方向に対する垂直方向を長手方向として、所定の間隔をあけて設置されている。また、第1のラインセンサ201の撮影方向ベクトルA1と、第2のラインセンサ202の撮影方向ベクトルA2と、第3のラインセンサ203の撮影方向ベクトルA3とは、ある一点で交わっている。この結果、第1のラインセンサ201は飛翔体204の前寄りの下方の画像である第1画像データD1を、第2のラインセンサ202は飛翔体204の直下の画像である第2画像データD2を、第3のラインセンサ203は飛翔体204の後ろ寄り下方の画像である第3画像データD3をそれぞれ取得することができる。
【0017】
図4は、建造物300上のある点Pを撮影する瞬間の各ラインセンサの位置を示している。図4に示すように、第1のラインセンサ201は、飛翔体204の進行方向(図4の矢印a)に対して前寄りの下方(撮影方向ベクトルA1)に建造物300を捉える。第2のラインセンサ202は、飛翔体204直下(撮影方向ベクトルA2)に建造物300を捉える。第3のラインセンサ203は、飛翔体204の進行方向に対して後ろ寄りの下方(撮影方向ベクトルA3)に建造物300を捉える。図5(a)は、こうして撮影された画像データのうち、第2画像データD2の一例である。第2画像データD2は、建造物300を図4の撮影方向ベクトルA2の方向から撮影して得られた画像300aを含んでいる。また、図5(b)は、第3画像データD3の一例である。第3画像データD3は、建造物300を図4の撮影方向ベクトルA3の方向から撮影して得られた画像300bを含んでいる。なお、図5(a)、図5(b)ともに、図中の矢印aは飛翔体204の進行方向を示す。
【0018】
図1に示す画像処理装置100は、記憶部101及び演算部102を有している。記憶部101は、上記した第1画像データD1、第2画像データD2、及び第3画像データD3を入力し、記憶する。そして、画像処理装置100は、第2画像データD2及び第3画像データD3を、演算部102に含まれる領域抽出手段103とエッジ抽出手段106とへ出力する。記憶部101としては、例えばメモリなどの記録素子や、ハードディスクなどの記録装置、あるいはフロッピーディスクなどの記録媒体を用いるとよい。
【0019】
演算部102は、CPUといった処理装置、及びメモリやハードディスクなどの記録装置を備えている。記録装置に記録された画像処理プログラムをCPUが読み込み、このプログラムを実行することによって、演算部102は、領域抽出手段103、領域対応手段104、第1演算手段105、エッジ抽出手段106、エッジ対応手段107、第2演算手段108、統合手段109、画像生成手段110、結合手段111、及びテクスチャ合成手段112を実現する。
【0020】
図6は、領域抽出手段103によって生成される(a)第2領域データD2a及び(b)第3領域データD3aを示す図である。領域抽出手段103は、記憶部101から第2画像データD2及び第3画像データD3を入力する。領域抽出手段103は、第2画像データD2に含まれている画像300aといった撮影対象物の画像から、一定の濃淡レベルで特徴付けられる特徴領域を抽出する。このとき、特徴領域の抽出方法として次の2種類のいずれか一方の方法を用いるとよい。1つの方法は、画像データを特徴が一様と考えられる小領域に分割しておき、その後に隣接する小領域間の特徴を調べ、類似した特徴を持つ小領域に逐次統合する領域拡張法である。他の方法は、画像データに基づく濃淡ヒストグラムの谷部を特徴領域の境界とすることでクラスタリングを行うレベルスライシング法である。図6(a)では特徴領域の一例として、略一定の濃淡レベルである画像300aの屋根部分を特徴領域301aとしている。
【0021】
このようにして、領域抽出手段103は、第2画像データD2に特徴領域に関する情報を付加した第2領域データD2aを領域対応手段104へ出力する。また、領域抽出手段103は、第3画像データD3についても第2画像データD2と同様に、例えば図6(b)に示す画像300bといった撮影対象物の画像から特徴領域301bといった特徴領域を抽出する。そして、領域抽出手段103は、第2画像データD3に特徴領域に関する情報を付加した第3領域データD3aを領域対応手段104へ出力する。
【0022】
領域対応手段104は、領域抽出手段103から第2領域データD2a及び第3領域データD3aを入力する。そして、領域対応手段104は、第2領域データD2aと第3領域データD3aとの双方に含まれる、同一の撮影対象物の特徴領域をデータ間で対応付ける。例えば、図6(a)に示した第2領域データD2aには、画像300aから抽出された特徴領域301aが含まれている。一方、図6(b)に示した第3領域データD3aには、画像300bから抽出された特徴領域301bが含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴領域301a及び301bは、その形状や大きさ、色、明るさなどによって対応付けられる。このとき、対応する特徴領域を探索する方法として、2つの画像の投影中心と対象点とが同一平面内に含まれる(共面条件)ことを利用して、該平面と画像とが交わる直線(エピポーラライン)上を探索する方法を用いるとよい。こうして、特徴領域301a及び301bは同一の撮影対象物の特徴領域として互いに対応付けられる。そして、領域対応手段104は、第2領域データD2a及び第3領域データD3aそれぞれに、特徴領域の対応関係に関する情報を付加して第2領域対応データE2、及び第3領域対応データE3を生成する。領域対応手段104は、第2領域対応データE2及び第3領域対応データE3を、第1演算手段105へ出力する。
【0023】
第1演算手段105は、領域対応手段104から第2領域対応データE2及び第3領域対応データE3を入力する。そして、第1演算手段105は、領域対応手段104により対応付けられた特徴領域から、対象領域の3次元座標を算出する。
【0024】
図7は、特徴点の3次元座標を算出する原理を説明する図である。ここでは、座標系としては地上座標系を用い、撮影対象物の特徴点Pの3次元座標(X,Y,Z)を撮影方向ベクトルA2及びA3を用いて前方後会法により算出する。撮影方向ベクトルA2は、第2のラインセンサ202の位置姿勢データ及びレンズの焦点距離と、撮影対象物の特徴点Pの画像データD2上での位置とに基づいて求まる。撮影方向ベクトルA3も、撮影方向ベクトルA2と同様に求まる。ここで、撮影方向ベクトルA2及びA3は、理論的には交わることになるが、一般的には、撮影方向ベクトルの誤算によりこれらのベクトルは交わらない。したがって、撮影方向ベクトルA2及びA3が最も近い距離になる、撮影方向ベクトルA2上の点PBと撮影方向ベクトルA3上の点PCとの中点PAの座標を、求める特徴点Pの座標とする。
【0025】
撮影方向ベクトルA2及びA3を次の(1)式及び(2)式
【数1】
のように表す。ここで、(Xa0,Ya0,Za0)は第2のラインセンサ202の位置座標、(Xb0,Yb0,Zb0)は第3のラインセンサ203の位置座標、(Vax,Vay,Vaz)は撮影方向ベクトルA2の単位ベクトル、(Vbx,Vby,Vbz)は撮影方向ベクトルA3の単位ベクトル、taは撮影方向ベクトルA2のパラメータ、tbは撮影方向ベクトルA3のパラメータである。
【0026】
ここで、次の(3)式ないし(8)式
【数2】
のようにA〜Fを定義すると、撮影方向ベクトルA2と撮影方向ベクトルA3との間隔が最小となるこれらのベクトル上の点PB、PCの位置を示すパラメータta、tbは次の(9)式及び(10)式のように求まる。
【数3】
したがって、そのときの点PAの座標(XC,YC,ZC)は次の(11)式
【数4】
となる。そして、この(XC,YC,ZC)が、求める特徴点Pの3次元座標(X,Y,Z)となる。
【0027】
第1演算手段は、上記の各数式を演算することによって特徴点Pの3次元座標を求める。そして、複数の特徴点Pの3次元座標から、2次元画像上の特徴領域に対応する3次元領域を求める。そして、第1演算手段は、特徴領域の3次元領域データG1をエッジ対応手段107及び統合手段109に出力する。
【0028】
図8は、エッジ抽出手段106によって生成される(a)第2線分データD2b及び(b)第3線分データD3bを示す図である。エッジ抽出手段106は、記憶部101から第2画像データD2及び第3画像データD3を入力する。エッジ抽出手段106は、第2画像データD2及び第3画像データD3に基づいて、特徴線分を抽出する。特徴線分の抽出方法としては、Gaussianフィルタの微係数を使って画像の濃淡レベルの勾配の極大を求めること等によるCanny法などを用いて得た結果に対し、テンプレートを用いること等をして、この結果に含まれる直線線分の抽出をするとよい。図8(a)では特徴線分の一例として、画像300aにおいて濃淡レベルの変化が大きい屋根部分の周囲の直線成分であるところの辺を特徴線分302a1〜302a4としている。
【0029】
このようにして、エッジ抽出手段106は、第2画像データD2に特徴線分に関する情報を付加した第2線分データD2bをエッジ対応手段107へ出力する。また、エッジ抽出手段106は、第3画像データD3についても第2画像データD2と同様に、例えば図8(b)に示す画像300bといった撮影対象物の画像から特徴線分302b1〜302b4といった特徴線分を抽出する。そして、エッジ抽出手段106は、第2画像データD3に特徴線分に関する情報を付加した第3線分データD3bをエッジ対応手段107へ出力する。
【0030】
エッジ対応手段107は、エッジ抽出手段106から第2線分データD2b及び第3線分データD3bを入力する。そして、エッジ対応手段107は、第2線分データD2bと第3線分データD3bとの双方に含まれる、同一の撮影対象物の特徴線分を対応付ける。例えば、図8(a)に示した第2線分データD2bには、画像300aから抽出された特徴線分302a1〜302a4が含まれている。一方、図8(b)に示した第3線分データD3bには、画像300bから抽出された特徴線分302b1〜302b4が含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴線分302a1〜302a4と302b1〜302b4とは、同一の撮影対象物の、同一箇所の特徴線分として互いに対応付けられる。この対応付けの方法としては、特徴線分の形状、特徴線分の両側の濃淡レベル、特徴線分の傾き、周囲の特徴領域との位置関係、特徴線分の長さ等が一致するような特徴線分同士を対応付ける。このとき、特徴領域の対応付けと同様に、対応する特徴線分をエピポーララインを用いて探索するとよい。
【0031】
このとき、エッジ対応手段107は、第1演算手段105によって生成された、3次元領域データG1を利用して特徴線分を対応付ける。すなわち、特徴線分は画像データ中に比較的多く存在するため、その対応付けに時間がかかり、対応付けの間違いも多い。これを解決するため、エピポーラライン上を探索するときに特徴線分に対応する3次元領域の3次元座標の高さ成分を利用して探索範囲を狭めるとよい。
【0032】
このようにして、エッジ対応手段107は、第2線分データD2b及び第3線分データD3bそれぞれに、特徴線分の対応関係に関する情報を付加して第2線分対応データF2、及び第3線分対応データF3を生成する。エッジ対応手段107は、第2線分対応データD2b及び第3線分対応データD3bを、第2演算手段108へ出力する。
【0033】
第2演算手段108は、エッジ対応手段107から第2線分対応データD2b及び第3線分対応データD3bを入力する。そして、第2演算手段108は、線分対応手段107により対応付けられた特徴線分から、撮影対象物の特徴点(線分の端点など)を抽出する。そして、第2演算手段108は、特徴点の3次元座標を算出する。第2演算手段108における特徴点の3次元座標の算出方法は、第1演算手段105における特徴点の3次元座標の算出方法と同様なので説明を省略する。第2演算手段108は、複数の特徴点の3次元座標に基づいて3次元線分データG2を生成する。そして、3次元線分データG2を統合手段109へ出力する。
【0034】
統合手段109は、第1演算手段105から特徴領域の3次元領域データG1を、第2演算手段108から特徴線分の3次元線分データG2を、それぞれ入力する。そして、統合手段109は、これらのデータに基づいて、同一の撮影対象物に関する3次元領域と3次元線分とを統合して特徴面を生成する。ここで、特徴面とは、撮影対象物の3次元画像を生成する際の基準となる面である。多くの場合、この特徴面は撮影対象物の上面となる。
【0035】
図9は、3次元領域と3次元線分とを統合したときの一例を示す図である。3次元領域301は、領域抽出手段103によって抽出された特徴領域301a(図6(a))と特徴領域301b(図6(b))とに基づいて生成された3次元領域である。また、3次元線分3021〜3024は、エッジ抽出手段106によって抽出された特徴線分302a1〜302a4(図8(a))と特徴線分302b1〜302b4(図8(b))とに基づいて生成された3次元線分3021〜3024である。これらの3次元領域301及び3次元線分3021〜3024は、その3次元座標位置によって同一の撮影対象物に関するものであると判定されて統合され、特徴面303が生成される。そして、統合手段109は、特徴面に関する情報を含む統合データG3を、結合手段110へ出力する。
【0036】
結合手段110は、統合手段109から統合データG3を入力する。そして、結合手段110は、近接する位置関係にある特徴面同士を対応付けた特徴面群を生成する。すなわち、複数の特徴面がX方向及びY方向に近接しているような場合、それらの特徴面は同一の撮影対象物に関するものであると言える。結合手段110は、そういった特徴面同士を対応付けて、1つの撮影対象物に関する特徴面群を生成する。そして、結合手段110は、特徴面及び特徴面群に関する情報を含む結合データG4を画像生成手段111へ出力する。
【0037】
画像生成手段111は、結合手段110から結合データG4を入力する。そして、画像生成手段111は、結合データG4に含まれる特徴面及び特徴面群から、該特徴面及び該特徴線分を有する撮影対象物の3次元画像(ソリッドモデル)を生成する。例えば、画像生成手段111は、図9に示すように、特徴面303を含み、地面(Z=0の平面)に垂直な平面である側壁304を加えた撮影対象物の3次元画像305を生成する。そして、画像生成手段111は、3次元画像に関する情報を含む3次元画像データG5をテクスチャ合成手段112へ出力する。
【0038】
テクスチャ合成手段112は、画像生成手段111から3次元画像データG5を、記憶部101から第2画像データD2及び第3画像データD3をそれぞれ入力する。そして、テクスチャ合成手段112は、3次元画像データG5に含まれる3次元画像に対応する撮影対象物のテクスチャを第2画像データD2もしくは第3画像データD3から切り取って、このテクスチャを3次元画像に合成する。こうして、テクスチャ合成手段112は、視覚により認識する撮影対象物の外見と略同様の外見を有する3次元画像データG6を生成する。
【0039】
図10は、テクスチャを合成した撮影対象物の3次元画像の一例を示す図である。図10に示す3次元画像305には、第2画像データD2もしくは第3画像データD3から切り取られた、窓などのテクスチャ306が貼り付けられている。テクスチャ合成手段112は、このようにテクスチャが合成された3次元画像データG6を画像処理装置100の外部へ出力する。
【0040】
図11は、上記した実施形態による画像処理装置の動作を示すフローチャートである。図11を用いて、上記した実施形態による画像処理方法について説明する。
【0041】
まず、撮影装置200が有する第1のラインセンサ201、第2のラインセンサ202、及び第3のラインセンサ203が上空から撮影対象物を含む地上の所定領域を撮影する(S1)。そして、第1のラインセンサ201から、飛翔体204の進行方向に対して前寄り下方の画像である第1画像データD1を得る。また、第2のラインセンサ202から、飛翔体204の直下の画像である第2画像データD2を得る。また、第3のラインセンサ203から、飛翔体204の進行方向に対して後ろ寄り下方の画像である第3画像データD3を得る。そして、これらの画像データが画像処理装置100に入力される(S2)。
【0042】
画像処理装置100に入力された第1画像データD1ないし第3画像データD3は、記憶部101に記憶される(S3)。そして、第2画像データD2及び第3画像データD3が、領域抽出手段104及びエッジ抽出手段106へ送られる。
【0043】
領域抽出手段104によって、第2画像データD2及び第3画像データD3から一定の濃淡レベルで特徴付けられる特徴領域が抽出される(領域抽出ステップ、S4)。そして、特徴領域に関する情報を含む第2領域データD2a及び第3領域データD3aが、領域対応手段104へ送られる。この領域対応手段104によって、第2領域データD2a及び第3領域データD3aに含まれる、同一の撮影対象物の特徴領域がデータ間で対応付けられる(領域対応ステップ、S5)。
【0044】
対応付けられた特徴領域に関する情報を含む第2領域対応データE2及び第3領域対応データE3が、第1演算手段105へ送られる。そして、これらの領域対応データに基づいて、対応付けられた特徴領域から、撮影対象物の特徴点を抽出する。そして、この特徴点の3次元座標を算出し、複数の特徴点の3次元座標から3次元領域を求める(第1演算ステップ、S6)。3次元領域に関する情報を含む3次元領域データG1が、エッジ対応手段107と統合手段109とに送られる。
【0045】
また、エッジ抽出手段106によって、第2画像データD2及び第3画像データD3に基づいて濃淡レベルの変化の度合い、及び直線部に細分化することによって特徴付けられる特徴線分が抽出される(エッジ抽出ステップ、S7)。そして、特徴線分に関する情報を含む第2線分データD2b及び第3線分データD3bが、エッジ対応手段107へ送られる。このエッジ対応手段107によって、第2線分データD2b及び第3線分データD3bに含まれる、同一の撮影対象物の特徴線分がデータ間で対応付けられる(エッジ対応ステップ、S8)。このとき、当該撮影対象物に対応する特徴領域の3次元座標の高さ成分が、特徴線分を対応付ける際の基準値として利用される。
【0046】
対応付けられた特徴線分に関する情報を含む第2線分対応データF2及び第3線分対応データF3が第2演算手段108に送られる。そして、これらの線分対応データに基づいて、対応付けられた特徴線分から、撮影対象物の特徴点を抽出する。そして、この特徴点の3次元座標を算出し、複数の特徴点の3次元座標から3次元線分を求める(第2演算ステップ、S9)。3次元線分に関する情報を含む3次元線分データG2が、統合手段109へ送られる。
【0047】
統合手段109では、3次元領域データG1、及び3次元線分データG2に基づいて、同一の撮影対象物に関する3次元領域と3次元線分とが統合され、特徴面が生成される(統合ステップ、S10)。そして、特徴面に関する情報を含む統合データG3が、結合手段110へ送られる。
【0048】
結合手段110では、近接する位置関係にある特徴面同士を対応付けた特徴面群が生成される(結合ステップ、S11)。そして、特徴面群に関する情報を含む結合データG4が、画像生成手段111へ送られる。
【0049】
画像生成手段111では、結合データG4に含まれる特徴面及び特徴面群に関する情報から、該特徴面及び該特徴面群を有する撮影対象物の3次元画像が生成される(画像生成ステップ、S12)。そして、3次元画像に関する情報を含む3次元画像データG5がテクスチャ合成手段S13へ送られる。
【0050】
テクスチャ合成手段では、3次元画像データG5に含まれる3次元画像に対応する撮影対象物のテクスチャが第2画像データD2もしくは第3画像データD3から切り取られて、3次元画像に合成される。そして、視覚により認識する撮影対象物の外見と略同様の外見を有する3次元画像データG6が生成される(テクスチャ合成ステップ、S13)。こうして生成された3次元画像データG6が、画像処理装置の外部へ出力される。
【0051】
ここで、上記した実施形態に係る画像処理プログラム、および当該画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体(以下、単に記録媒体という)について説明する。ここで、記録媒体とは、コンピュータのハードウェア資源に備えられている読み取り装置に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読み取り装置にプログラムの記述内容を伝達できるものである。このような記録媒体としては、例えば、磁気ディスク、光ディスク、CD−ROM、コンピュータに内蔵されるメモリなどが該当する。
【0052】
図12は、本発明による記録媒体の構成図である。記録媒体400は、プログラム領域400aを備えている。このプログラム領域400aには、画像処理プログラム401が記録されている。画像処理プログラム401は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成するプログラムである。
【0053】
図12に示すように、画像処理プログラム401は、処理を統括するメインモジュール401aと、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出処理をコンピュータに実行させる領域抽出モジュール401bと、特徴領域のうち、同一の撮影対象物に対応する特徴領域を2次元画像間で対応付ける領域対応処理をコンピュータに実行させる領域対応モジュール401cと、対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算処理をコンピュータに実行させる第1演算モジュール401dと、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出処理をコンピュータに実行させるエッジ抽出モジュール401eと、特徴線分のうち、同一の撮影対象物に対応する特徴線分を第1演算処理により生成された3次元領域の3次元座標の高さ成分を利用して2次元画像間で対応付けるエッジ対応処理をコンピュータに実行させるエッジ対応モジュール401fと、対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算処理をコンピュータに実行させる第2演算モジュール401gと、3次元領域と3次元線分とを統合して特徴面を生成する統合処理をコンピュータに実行させる統合モジュール401hと、特徴面のうち、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合処理をコンピュータに実行させる結合モジュール401iと、特徴面及び特徴面群に基づいて、該特徴面及び該特徴面群を有する撮影対象物の3次元画像を生成する画像生成処理をコンピュータに実行させる画像生成モジュール401jと、撮影対象物の3次元画像に該撮影対象物のテクスチャを合成するテクスチャ合成処理をコンピュータに実行させるテクスチャ合成モジュール401kとを備えて構成される。
【0054】
以上に詳述した画像処理装置(方法、及びプログラム)は、以下の効果を有する。すなわち、異なる視点から撮影して生成された複数の2次元画像データに基づいて、3次元領域及び3次元線分を生成している。そして、これら3次元領域及び3次元線分に基づいて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。
【0055】
3次元領域データに含まれている3次元領域は、3次元線分に較べて数が非常に少ないため、3次元領域データを用いることで特徴面を特定すること、及び特徴面を構成する3次元線分を特定することが容易になる。また、3次元線分データに含まれる3次元線分は位置精度が3次元領域の位置精度と較べて良いため、3次元線分データを用いることで特徴面の3次元座標を精度よく求めることができる。こうして求められた特徴面を用いて3次元画像を生成することにより、3次元画像を精度よく生成することができる。
【0056】
また、画像処理装置(方法、またはプログラム)は、エッジ対応手段(ステップ、または処理)が、特徴線分を画像データ間で対応付ける際に、当該特徴線分に対応する3次元領域の高さ成分を利用している。特徴線分を対応付ける際にはこのようにすることが好ましく、これによって特徴線分を対応付ける処理に要する時間を短縮することができる。
【0057】
また、画像処理装置(方法、またはプログラム)は、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合手段(ステップ、または処理)を備えている。そして、画像生成手段(ステップ、または処理)は、特徴面及び特徴面群に対応する撮影対象物の3次元画像を生成している。3次元画像を生成する際にはこのようにすることが好ましく、これによって複雑な形状を有する撮影対象物に対しても好適に3次元画像を生成することができる。
【0058】
また、画像処理装置(方法、またはプログラム)は、撮影対象物の3次元画像にテクスチャを合成するテクスチャ合成手段(ステップ、または処理)を備えることが好ましい。これによって、視覚により認識する撮影対象物の外見と略同様の外見を有する、すなわち実際に上空から見た景色と同様の3次元画像を生成することができる。
【0059】
本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体は、上記した実施形態に限られるものではなく、様々な変形が可能である。例えば、複数の2次元画像データとして撮像装置に含まれる3つのラインセンサにより得られる2次元画像データを用いているが、これに限らず、他の撮影機材によって2次元画像データを得ても良い。
【0060】
また、上記した実施形態においては、第1のラインセンサないし第3のラインセンサによって得られる、第1画像データないし第3画像データのうち第2画像データ及び第3画像データを用いている。特徴線分および特徴領域の対応付け、ならびに3次元線分及び3次元領域の生成にはこのように2つの2次元画像データがあればよい。すなわち、第1画像データないし第3画像データのうち任意の2つを選択して用いることができる。また、ラインセンサの個数は2つ以上の任意の個数とすることができる。
【0061】
【発明の効果】
本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体は、異なる視点から撮影して生成された複数の2次元画像データに基づいて、3次元領域及び3次元線分を生成している。そして、これら3次元領域及び3次元線分に基づいて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。
【0062】
3次元領域に基づくことで特徴面を特定することが容易になり、また、3次元線分に基づくことで特徴面の3次元座標を精度よく求めることができる。こうして求められた特徴面を用いて3次元画像を生成することにより、3次元画像を精度よく生成することができる。
【図面の簡単な説明】
【図1】本発明による画像処理装置の実施形態を示すブロック図である。
【図2】撮像装置が取り付けられる飛翔体を示す図である。
【図3】撮影装置が上空から下方を撮影する概念を示す図である。
【図4】建造物上のある点を撮影する瞬間の各ラインセンサの位置を示す図である。
【図5】図5(a)は、第2画像データの一例である。図5(b)は、第3画像データの一例である。
【図6】図6(a)は、領域抽出手段によって抽出される第2領域データを示す図である。図6(b)は、領域抽出手段によって抽出される第3領域データを示す図である。
【図7】特徴点の3次元座標を算出する原理を説明する図である。
【図8】図8(a)は、エッジ抽出手段によって抽出される第2線分データを示す図である。図8(b)は、エッジ抽出手段によって抽出される第3線分データを示す図である。
【図9】3次元領域と3次元線分とを統合したときの一例を示す図である。
【図10】テクスチャを合成した3次元画像の一例を示す図である。
【図11】画像処理装置の動作を示すフローチャートである。
【図12】本発明による記録媒体の構成図である。
【符号の説明】
100…画像処理装置、101…記憶部、102…演算部、103…領域抽出手段、104…領域対応手段、105…第1演算手段、106…エッジ抽出手段、107…エッジ対応手段、108…第2演算手段、109…統合手段、110…結合手段、111…画像生成手段、112…テクスチャ合成手段、200…撮像装置、201…第1のラインセンサ、202…第2のラインセンサ、203…第3のラインセンサ。
【発明の属する技術分野】
本発明は、画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
近年、GIS(Geographic Information System)分野において、特に都市部における3次元地図の需要が高まっている。その利用形態としては、カーナビゲーションなどに用いる道路情報、都市災害GISなどが挙げられる。また、電波の伝播解析、氾濫解析等の解析にも詳細かつ精度が高い3次元地図が求められている。
【0003】
【発明が解決しようとする課題】
3次元地図の作成方法としては、航空写真測量による写真に基づき、地図作成者が建造物の1つ1つを作成するといった方法が考えられる。しかしながら、そういった方法では精度のよい3次元地図を得ることは困難である。特に、多様な建造物が存在する都市部の3次元地図を精度よく作成する困難性は極めて高いものである。
【0004】
そこで、本発明は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて、精度よく3次元画像を生成することができる画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0005】
【課題を解決するための手段】
このような目的を達成するために、本発明による画像処理方法は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理方法であって、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出ステップと、領域抽出ステップにより抽出された特徴領域のうち、同一の撮影対象物に対応する特徴領域を、2次元画像間で対応付ける領域対応ステップと、領域対応ステップにより対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算ステップと、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出ステップと、エッジ抽出ステップにより抽出された特徴線分のうち、同一の撮影対象物に対応する特徴線分を、2次元画像間で対応付けるエッジ対応ステップと、エッジ対応ステップにより対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算ステップと、3次元領域と3次元線分とを統合して特徴面を生成する統合ステップと、統合ステップにより生成された特徴面に基づいて、該特徴面を有する撮影対象物の3次元画像を生成する画像生成ステップとを備えることを特徴とする。
【0006】
また、本発明による画像処理装置は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理装置であって、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出手段と、領域抽出手段により抽出された特徴領域のうち、同一の撮影対象物に対応する特徴領域を、2次元画像間で対応付ける領域対応手段と、領域対応手段により対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算手段と、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出手段と、エッジ抽出手段により抽出された特徴線分のうち、同一の撮影対象物に対応する特徴線分を、2次元画像間で対応付けるエッジ対応手段と、エッジ対応手段により対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算手段と、3次元領域と3次元線分とを統合して特徴面を生成する統合手段と、統合手段により生成された特徴面に基づいて、該特徴面を有する撮影対象物の3次元画像を生成する画像生成手段とを備えることを特徴とする。
【0007】
上記した画像処理方法及び画像処理装置は、異なる視点から撮影して得られた複数の2次元画像に基づいて、3次元領域及び3次元線分を生成している。そして、3次元領域と3次元線分とを用いて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。特徴面を特定することが容易な3次元領域と、位置精度が良い3次元線分とを特徴面の生成に用いることによって、3次元画像を精度よく生成することができる。
【0008】
また、画像処理方法(装置)は、エッジ対応ステップ(手段)が、同一の撮影対象物に対応する特徴線分を2次元画像間で対応付ける際に、第1演算ステップ(手段)により生成された、3次元領域の3次元座標の高さ成分を利用することを特徴としてもよい。これによって、特徴線分を対応付ける処理に要する時間を短縮することができる。
【0009】
また、画像処理方法(装置)は、統合ステップ(手段)により生成された特徴面のうち、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合ステップ(手段)をさらに備え、画像生成ステップ(手段)が、結合ステップ(手段)により生成された特徴面群に基づいて、特徴面群を有する撮影対象物の3次元画像を生成することを特徴としてもよい。これによって、複雑な形状を有する撮影対象物に対しても好適に3次元画像を生成することができる。
【0010】
また、画像処理方法(装置)は、画像生成ステップ(手段)により生成された撮影対象物の3次元画像に該撮影対象物のテクスチャを合成するテクスチャ合成ステップ(手段)をさらに備えることを特徴としてもよい。これによって、実際に上空から見た景色と同様の3次元画像を生成することができる。
【0011】
また、本発明による画像処理プログラムは、上記した画像処理方法をコンピュータに実行させることを特徴とする。
【0012】
また、本発明による記録媒体は、上記した画像処理方法をコンピュータに実行させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0013】
【発明の実施の形態】
以下、図面とともに本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0014】
図1は、本発明による画像処理装置の実施形態を示すブロック図である。図1に示す画像処理装置100は、第1のラインセンサ201により撮影された2次元画像である第1画像データD1、第2のラインセンサ202により撮影された2次元画像である第2画像データD2、及び第3のラインセンサ203により撮影された2次元画像である第3画像データD3を入力し、これらの画像データに基づいて3次元画像を作成する装置である。
【0015】
ここで、第1画像データD1ないし第3画像データD3について説明する。これらの画像データは、第1のラインセンサ201ないし第3のラインセンサ203によって生成される。第1のラインセンサ201ないし第3のラインセンサ203は、撮影装置200を構成している。そして、撮影装置200は、図2に示すような飛翔体204下部の所定の位置に取り付けられる。
【0016】
図3は、撮影装置200が上空から下方を撮影する概念を示す図である。第1のラインセンサ201ないし第3のラインセンサ203は、複数の画素bが一列に並べて構成されている。また、各ラインセンサは飛翔体204の進行方向に対する垂直方向を長手方向として、所定の間隔をあけて設置されている。また、第1のラインセンサ201の撮影方向ベクトルA1と、第2のラインセンサ202の撮影方向ベクトルA2と、第3のラインセンサ203の撮影方向ベクトルA3とは、ある一点で交わっている。この結果、第1のラインセンサ201は飛翔体204の前寄りの下方の画像である第1画像データD1を、第2のラインセンサ202は飛翔体204の直下の画像である第2画像データD2を、第3のラインセンサ203は飛翔体204の後ろ寄り下方の画像である第3画像データD3をそれぞれ取得することができる。
【0017】
図4は、建造物300上のある点Pを撮影する瞬間の各ラインセンサの位置を示している。図4に示すように、第1のラインセンサ201は、飛翔体204の進行方向(図4の矢印a)に対して前寄りの下方(撮影方向ベクトルA1)に建造物300を捉える。第2のラインセンサ202は、飛翔体204直下(撮影方向ベクトルA2)に建造物300を捉える。第3のラインセンサ203は、飛翔体204の進行方向に対して後ろ寄りの下方(撮影方向ベクトルA3)に建造物300を捉える。図5(a)は、こうして撮影された画像データのうち、第2画像データD2の一例である。第2画像データD2は、建造物300を図4の撮影方向ベクトルA2の方向から撮影して得られた画像300aを含んでいる。また、図5(b)は、第3画像データD3の一例である。第3画像データD3は、建造物300を図4の撮影方向ベクトルA3の方向から撮影して得られた画像300bを含んでいる。なお、図5(a)、図5(b)ともに、図中の矢印aは飛翔体204の進行方向を示す。
【0018】
図1に示す画像処理装置100は、記憶部101及び演算部102を有している。記憶部101は、上記した第1画像データD1、第2画像データD2、及び第3画像データD3を入力し、記憶する。そして、画像処理装置100は、第2画像データD2及び第3画像データD3を、演算部102に含まれる領域抽出手段103とエッジ抽出手段106とへ出力する。記憶部101としては、例えばメモリなどの記録素子や、ハードディスクなどの記録装置、あるいはフロッピーディスクなどの記録媒体を用いるとよい。
【0019】
演算部102は、CPUといった処理装置、及びメモリやハードディスクなどの記録装置を備えている。記録装置に記録された画像処理プログラムをCPUが読み込み、このプログラムを実行することによって、演算部102は、領域抽出手段103、領域対応手段104、第1演算手段105、エッジ抽出手段106、エッジ対応手段107、第2演算手段108、統合手段109、画像生成手段110、結合手段111、及びテクスチャ合成手段112を実現する。
【0020】
図6は、領域抽出手段103によって生成される(a)第2領域データD2a及び(b)第3領域データD3aを示す図である。領域抽出手段103は、記憶部101から第2画像データD2及び第3画像データD3を入力する。領域抽出手段103は、第2画像データD2に含まれている画像300aといった撮影対象物の画像から、一定の濃淡レベルで特徴付けられる特徴領域を抽出する。このとき、特徴領域の抽出方法として次の2種類のいずれか一方の方法を用いるとよい。1つの方法は、画像データを特徴が一様と考えられる小領域に分割しておき、その後に隣接する小領域間の特徴を調べ、類似した特徴を持つ小領域に逐次統合する領域拡張法である。他の方法は、画像データに基づく濃淡ヒストグラムの谷部を特徴領域の境界とすることでクラスタリングを行うレベルスライシング法である。図6(a)では特徴領域の一例として、略一定の濃淡レベルである画像300aの屋根部分を特徴領域301aとしている。
【0021】
このようにして、領域抽出手段103は、第2画像データD2に特徴領域に関する情報を付加した第2領域データD2aを領域対応手段104へ出力する。また、領域抽出手段103は、第3画像データD3についても第2画像データD2と同様に、例えば図6(b)に示す画像300bといった撮影対象物の画像から特徴領域301bといった特徴領域を抽出する。そして、領域抽出手段103は、第2画像データD3に特徴領域に関する情報を付加した第3領域データD3aを領域対応手段104へ出力する。
【0022】
領域対応手段104は、領域抽出手段103から第2領域データD2a及び第3領域データD3aを入力する。そして、領域対応手段104は、第2領域データD2aと第3領域データD3aとの双方に含まれる、同一の撮影対象物の特徴領域をデータ間で対応付ける。例えば、図6(a)に示した第2領域データD2aには、画像300aから抽出された特徴領域301aが含まれている。一方、図6(b)に示した第3領域データD3aには、画像300bから抽出された特徴領域301bが含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴領域301a及び301bは、その形状や大きさ、色、明るさなどによって対応付けられる。このとき、対応する特徴領域を探索する方法として、2つの画像の投影中心と対象点とが同一平面内に含まれる(共面条件)ことを利用して、該平面と画像とが交わる直線(エピポーラライン)上を探索する方法を用いるとよい。こうして、特徴領域301a及び301bは同一の撮影対象物の特徴領域として互いに対応付けられる。そして、領域対応手段104は、第2領域データD2a及び第3領域データD3aそれぞれに、特徴領域の対応関係に関する情報を付加して第2領域対応データE2、及び第3領域対応データE3を生成する。領域対応手段104は、第2領域対応データE2及び第3領域対応データE3を、第1演算手段105へ出力する。
【0023】
第1演算手段105は、領域対応手段104から第2領域対応データE2及び第3領域対応データE3を入力する。そして、第1演算手段105は、領域対応手段104により対応付けられた特徴領域から、対象領域の3次元座標を算出する。
【0024】
図7は、特徴点の3次元座標を算出する原理を説明する図である。ここでは、座標系としては地上座標系を用い、撮影対象物の特徴点Pの3次元座標(X,Y,Z)を撮影方向ベクトルA2及びA3を用いて前方後会法により算出する。撮影方向ベクトルA2は、第2のラインセンサ202の位置姿勢データ及びレンズの焦点距離と、撮影対象物の特徴点Pの画像データD2上での位置とに基づいて求まる。撮影方向ベクトルA3も、撮影方向ベクトルA2と同様に求まる。ここで、撮影方向ベクトルA2及びA3は、理論的には交わることになるが、一般的には、撮影方向ベクトルの誤算によりこれらのベクトルは交わらない。したがって、撮影方向ベクトルA2及びA3が最も近い距離になる、撮影方向ベクトルA2上の点PBと撮影方向ベクトルA3上の点PCとの中点PAの座標を、求める特徴点Pの座標とする。
【0025】
撮影方向ベクトルA2及びA3を次の(1)式及び(2)式
【数1】
のように表す。ここで、(Xa0,Ya0,Za0)は第2のラインセンサ202の位置座標、(Xb0,Yb0,Zb0)は第3のラインセンサ203の位置座標、(Vax,Vay,Vaz)は撮影方向ベクトルA2の単位ベクトル、(Vbx,Vby,Vbz)は撮影方向ベクトルA3の単位ベクトル、taは撮影方向ベクトルA2のパラメータ、tbは撮影方向ベクトルA3のパラメータである。
【0026】
ここで、次の(3)式ないし(8)式
【数2】
のようにA〜Fを定義すると、撮影方向ベクトルA2と撮影方向ベクトルA3との間隔が最小となるこれらのベクトル上の点PB、PCの位置を示すパラメータta、tbは次の(9)式及び(10)式のように求まる。
【数3】
したがって、そのときの点PAの座標(XC,YC,ZC)は次の(11)式
【数4】
となる。そして、この(XC,YC,ZC)が、求める特徴点Pの3次元座標(X,Y,Z)となる。
【0027】
第1演算手段は、上記の各数式を演算することによって特徴点Pの3次元座標を求める。そして、複数の特徴点Pの3次元座標から、2次元画像上の特徴領域に対応する3次元領域を求める。そして、第1演算手段は、特徴領域の3次元領域データG1をエッジ対応手段107及び統合手段109に出力する。
【0028】
図8は、エッジ抽出手段106によって生成される(a)第2線分データD2b及び(b)第3線分データD3bを示す図である。エッジ抽出手段106は、記憶部101から第2画像データD2及び第3画像データD3を入力する。エッジ抽出手段106は、第2画像データD2及び第3画像データD3に基づいて、特徴線分を抽出する。特徴線分の抽出方法としては、Gaussianフィルタの微係数を使って画像の濃淡レベルの勾配の極大を求めること等によるCanny法などを用いて得た結果に対し、テンプレートを用いること等をして、この結果に含まれる直線線分の抽出をするとよい。図8(a)では特徴線分の一例として、画像300aにおいて濃淡レベルの変化が大きい屋根部分の周囲の直線成分であるところの辺を特徴線分302a1〜302a4としている。
【0029】
このようにして、エッジ抽出手段106は、第2画像データD2に特徴線分に関する情報を付加した第2線分データD2bをエッジ対応手段107へ出力する。また、エッジ抽出手段106は、第3画像データD3についても第2画像データD2と同様に、例えば図8(b)に示す画像300bといった撮影対象物の画像から特徴線分302b1〜302b4といった特徴線分を抽出する。そして、エッジ抽出手段106は、第2画像データD3に特徴線分に関する情報を付加した第3線分データD3bをエッジ対応手段107へ出力する。
【0030】
エッジ対応手段107は、エッジ抽出手段106から第2線分データD2b及び第3線分データD3bを入力する。そして、エッジ対応手段107は、第2線分データD2bと第3線分データD3bとの双方に含まれる、同一の撮影対象物の特徴線分を対応付ける。例えば、図8(a)に示した第2線分データD2bには、画像300aから抽出された特徴線分302a1〜302a4が含まれている。一方、図8(b)に示した第3線分データD3bには、画像300bから抽出された特徴線分302b1〜302b4が含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴線分302a1〜302a4と302b1〜302b4とは、同一の撮影対象物の、同一箇所の特徴線分として互いに対応付けられる。この対応付けの方法としては、特徴線分の形状、特徴線分の両側の濃淡レベル、特徴線分の傾き、周囲の特徴領域との位置関係、特徴線分の長さ等が一致するような特徴線分同士を対応付ける。このとき、特徴領域の対応付けと同様に、対応する特徴線分をエピポーララインを用いて探索するとよい。
【0031】
このとき、エッジ対応手段107は、第1演算手段105によって生成された、3次元領域データG1を利用して特徴線分を対応付ける。すなわち、特徴線分は画像データ中に比較的多く存在するため、その対応付けに時間がかかり、対応付けの間違いも多い。これを解決するため、エピポーラライン上を探索するときに特徴線分に対応する3次元領域の3次元座標の高さ成分を利用して探索範囲を狭めるとよい。
【0032】
このようにして、エッジ対応手段107は、第2線分データD2b及び第3線分データD3bそれぞれに、特徴線分の対応関係に関する情報を付加して第2線分対応データF2、及び第3線分対応データF3を生成する。エッジ対応手段107は、第2線分対応データD2b及び第3線分対応データD3bを、第2演算手段108へ出力する。
【0033】
第2演算手段108は、エッジ対応手段107から第2線分対応データD2b及び第3線分対応データD3bを入力する。そして、第2演算手段108は、線分対応手段107により対応付けられた特徴線分から、撮影対象物の特徴点(線分の端点など)を抽出する。そして、第2演算手段108は、特徴点の3次元座標を算出する。第2演算手段108における特徴点の3次元座標の算出方法は、第1演算手段105における特徴点の3次元座標の算出方法と同様なので説明を省略する。第2演算手段108は、複数の特徴点の3次元座標に基づいて3次元線分データG2を生成する。そして、3次元線分データG2を統合手段109へ出力する。
【0034】
統合手段109は、第1演算手段105から特徴領域の3次元領域データG1を、第2演算手段108から特徴線分の3次元線分データG2を、それぞれ入力する。そして、統合手段109は、これらのデータに基づいて、同一の撮影対象物に関する3次元領域と3次元線分とを統合して特徴面を生成する。ここで、特徴面とは、撮影対象物の3次元画像を生成する際の基準となる面である。多くの場合、この特徴面は撮影対象物の上面となる。
【0035】
図9は、3次元領域と3次元線分とを統合したときの一例を示す図である。3次元領域301は、領域抽出手段103によって抽出された特徴領域301a(図6(a))と特徴領域301b(図6(b))とに基づいて生成された3次元領域である。また、3次元線分3021〜3024は、エッジ抽出手段106によって抽出された特徴線分302a1〜302a4(図8(a))と特徴線分302b1〜302b4(図8(b))とに基づいて生成された3次元線分3021〜3024である。これらの3次元領域301及び3次元線分3021〜3024は、その3次元座標位置によって同一の撮影対象物に関するものであると判定されて統合され、特徴面303が生成される。そして、統合手段109は、特徴面に関する情報を含む統合データG3を、結合手段110へ出力する。
【0036】
結合手段110は、統合手段109から統合データG3を入力する。そして、結合手段110は、近接する位置関係にある特徴面同士を対応付けた特徴面群を生成する。すなわち、複数の特徴面がX方向及びY方向に近接しているような場合、それらの特徴面は同一の撮影対象物に関するものであると言える。結合手段110は、そういった特徴面同士を対応付けて、1つの撮影対象物に関する特徴面群を生成する。そして、結合手段110は、特徴面及び特徴面群に関する情報を含む結合データG4を画像生成手段111へ出力する。
【0037】
画像生成手段111は、結合手段110から結合データG4を入力する。そして、画像生成手段111は、結合データG4に含まれる特徴面及び特徴面群から、該特徴面及び該特徴線分を有する撮影対象物の3次元画像(ソリッドモデル)を生成する。例えば、画像生成手段111は、図9に示すように、特徴面303を含み、地面(Z=0の平面)に垂直な平面である側壁304を加えた撮影対象物の3次元画像305を生成する。そして、画像生成手段111は、3次元画像に関する情報を含む3次元画像データG5をテクスチャ合成手段112へ出力する。
【0038】
テクスチャ合成手段112は、画像生成手段111から3次元画像データG5を、記憶部101から第2画像データD2及び第3画像データD3をそれぞれ入力する。そして、テクスチャ合成手段112は、3次元画像データG5に含まれる3次元画像に対応する撮影対象物のテクスチャを第2画像データD2もしくは第3画像データD3から切り取って、このテクスチャを3次元画像に合成する。こうして、テクスチャ合成手段112は、視覚により認識する撮影対象物の外見と略同様の外見を有する3次元画像データG6を生成する。
【0039】
図10は、テクスチャを合成した撮影対象物の3次元画像の一例を示す図である。図10に示す3次元画像305には、第2画像データD2もしくは第3画像データD3から切り取られた、窓などのテクスチャ306が貼り付けられている。テクスチャ合成手段112は、このようにテクスチャが合成された3次元画像データG6を画像処理装置100の外部へ出力する。
【0040】
図11は、上記した実施形態による画像処理装置の動作を示すフローチャートである。図11を用いて、上記した実施形態による画像処理方法について説明する。
【0041】
まず、撮影装置200が有する第1のラインセンサ201、第2のラインセンサ202、及び第3のラインセンサ203が上空から撮影対象物を含む地上の所定領域を撮影する(S1)。そして、第1のラインセンサ201から、飛翔体204の進行方向に対して前寄り下方の画像である第1画像データD1を得る。また、第2のラインセンサ202から、飛翔体204の直下の画像である第2画像データD2を得る。また、第3のラインセンサ203から、飛翔体204の進行方向に対して後ろ寄り下方の画像である第3画像データD3を得る。そして、これらの画像データが画像処理装置100に入力される(S2)。
【0042】
画像処理装置100に入力された第1画像データD1ないし第3画像データD3は、記憶部101に記憶される(S3)。そして、第2画像データD2及び第3画像データD3が、領域抽出手段104及びエッジ抽出手段106へ送られる。
【0043】
領域抽出手段104によって、第2画像データD2及び第3画像データD3から一定の濃淡レベルで特徴付けられる特徴領域が抽出される(領域抽出ステップ、S4)。そして、特徴領域に関する情報を含む第2領域データD2a及び第3領域データD3aが、領域対応手段104へ送られる。この領域対応手段104によって、第2領域データD2a及び第3領域データD3aに含まれる、同一の撮影対象物の特徴領域がデータ間で対応付けられる(領域対応ステップ、S5)。
【0044】
対応付けられた特徴領域に関する情報を含む第2領域対応データE2及び第3領域対応データE3が、第1演算手段105へ送られる。そして、これらの領域対応データに基づいて、対応付けられた特徴領域から、撮影対象物の特徴点を抽出する。そして、この特徴点の3次元座標を算出し、複数の特徴点の3次元座標から3次元領域を求める(第1演算ステップ、S6)。3次元領域に関する情報を含む3次元領域データG1が、エッジ対応手段107と統合手段109とに送られる。
【0045】
また、エッジ抽出手段106によって、第2画像データD2及び第3画像データD3に基づいて濃淡レベルの変化の度合い、及び直線部に細分化することによって特徴付けられる特徴線分が抽出される(エッジ抽出ステップ、S7)。そして、特徴線分に関する情報を含む第2線分データD2b及び第3線分データD3bが、エッジ対応手段107へ送られる。このエッジ対応手段107によって、第2線分データD2b及び第3線分データD3bに含まれる、同一の撮影対象物の特徴線分がデータ間で対応付けられる(エッジ対応ステップ、S8)。このとき、当該撮影対象物に対応する特徴領域の3次元座標の高さ成分が、特徴線分を対応付ける際の基準値として利用される。
【0046】
対応付けられた特徴線分に関する情報を含む第2線分対応データF2及び第3線分対応データF3が第2演算手段108に送られる。そして、これらの線分対応データに基づいて、対応付けられた特徴線分から、撮影対象物の特徴点を抽出する。そして、この特徴点の3次元座標を算出し、複数の特徴点の3次元座標から3次元線分を求める(第2演算ステップ、S9)。3次元線分に関する情報を含む3次元線分データG2が、統合手段109へ送られる。
【0047】
統合手段109では、3次元領域データG1、及び3次元線分データG2に基づいて、同一の撮影対象物に関する3次元領域と3次元線分とが統合され、特徴面が生成される(統合ステップ、S10)。そして、特徴面に関する情報を含む統合データG3が、結合手段110へ送られる。
【0048】
結合手段110では、近接する位置関係にある特徴面同士を対応付けた特徴面群が生成される(結合ステップ、S11)。そして、特徴面群に関する情報を含む結合データG4が、画像生成手段111へ送られる。
【0049】
画像生成手段111では、結合データG4に含まれる特徴面及び特徴面群に関する情報から、該特徴面及び該特徴面群を有する撮影対象物の3次元画像が生成される(画像生成ステップ、S12)。そして、3次元画像に関する情報を含む3次元画像データG5がテクスチャ合成手段S13へ送られる。
【0050】
テクスチャ合成手段では、3次元画像データG5に含まれる3次元画像に対応する撮影対象物のテクスチャが第2画像データD2もしくは第3画像データD3から切り取られて、3次元画像に合成される。そして、視覚により認識する撮影対象物の外見と略同様の外見を有する3次元画像データG6が生成される(テクスチャ合成ステップ、S13)。こうして生成された3次元画像データG6が、画像処理装置の外部へ出力される。
【0051】
ここで、上記した実施形態に係る画像処理プログラム、および当該画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体(以下、単に記録媒体という)について説明する。ここで、記録媒体とは、コンピュータのハードウェア資源に備えられている読み取り装置に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読み取り装置にプログラムの記述内容を伝達できるものである。このような記録媒体としては、例えば、磁気ディスク、光ディスク、CD−ROM、コンピュータに内蔵されるメモリなどが該当する。
【0052】
図12は、本発明による記録媒体の構成図である。記録媒体400は、プログラム領域400aを備えている。このプログラム領域400aには、画像処理プログラム401が記録されている。画像処理プログラム401は、撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成するプログラムである。
【0053】
図12に示すように、画像処理プログラム401は、処理を統括するメインモジュール401aと、2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する領域抽出処理をコンピュータに実行させる領域抽出モジュール401bと、特徴領域のうち、同一の撮影対象物に対応する特徴領域を2次元画像間で対応付ける領域対応処理をコンピュータに実行させる領域対応モジュール401cと、対応付けられた特徴領域から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算処理をコンピュータに実行させる第1演算モジュール401dと、2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出するエッジ抽出処理をコンピュータに実行させるエッジ抽出モジュール401eと、特徴線分のうち、同一の撮影対象物に対応する特徴線分を第1演算処理により生成された3次元領域の3次元座標の高さ成分を利用して2次元画像間で対応付けるエッジ対応処理をコンピュータに実行させるエッジ対応モジュール401fと、対応付けられた特徴線分から撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算処理をコンピュータに実行させる第2演算モジュール401gと、3次元領域と3次元線分とを統合して特徴面を生成する統合処理をコンピュータに実行させる統合モジュール401hと、特徴面のうち、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合処理をコンピュータに実行させる結合モジュール401iと、特徴面及び特徴面群に基づいて、該特徴面及び該特徴面群を有する撮影対象物の3次元画像を生成する画像生成処理をコンピュータに実行させる画像生成モジュール401jと、撮影対象物の3次元画像に該撮影対象物のテクスチャを合成するテクスチャ合成処理をコンピュータに実行させるテクスチャ合成モジュール401kとを備えて構成される。
【0054】
以上に詳述した画像処理装置(方法、及びプログラム)は、以下の効果を有する。すなわち、異なる視点から撮影して生成された複数の2次元画像データに基づいて、3次元領域及び3次元線分を生成している。そして、これら3次元領域及び3次元線分に基づいて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。
【0055】
3次元領域データに含まれている3次元領域は、3次元線分に較べて数が非常に少ないため、3次元領域データを用いることで特徴面を特定すること、及び特徴面を構成する3次元線分を特定することが容易になる。また、3次元線分データに含まれる3次元線分は位置精度が3次元領域の位置精度と較べて良いため、3次元線分データを用いることで特徴面の3次元座標を精度よく求めることができる。こうして求められた特徴面を用いて3次元画像を生成することにより、3次元画像を精度よく生成することができる。
【0056】
また、画像処理装置(方法、またはプログラム)は、エッジ対応手段(ステップ、または処理)が、特徴線分を画像データ間で対応付ける際に、当該特徴線分に対応する3次元領域の高さ成分を利用している。特徴線分を対応付ける際にはこのようにすることが好ましく、これによって特徴線分を対応付ける処理に要する時間を短縮することができる。
【0057】
また、画像処理装置(方法、またはプログラム)は、近接する位置関係にある特徴面同士を対応付けて特徴面群を生成する結合手段(ステップ、または処理)を備えている。そして、画像生成手段(ステップ、または処理)は、特徴面及び特徴面群に対応する撮影対象物の3次元画像を生成している。3次元画像を生成する際にはこのようにすることが好ましく、これによって複雑な形状を有する撮影対象物に対しても好適に3次元画像を生成することができる。
【0058】
また、画像処理装置(方法、またはプログラム)は、撮影対象物の3次元画像にテクスチャを合成するテクスチャ合成手段(ステップ、または処理)を備えることが好ましい。これによって、視覚により認識する撮影対象物の外見と略同様の外見を有する、すなわち実際に上空から見た景色と同様の3次元画像を生成することができる。
【0059】
本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体は、上記した実施形態に限られるものではなく、様々な変形が可能である。例えば、複数の2次元画像データとして撮像装置に含まれる3つのラインセンサにより得られる2次元画像データを用いているが、これに限らず、他の撮影機材によって2次元画像データを得ても良い。
【0060】
また、上記した実施形態においては、第1のラインセンサないし第3のラインセンサによって得られる、第1画像データないし第3画像データのうち第2画像データ及び第3画像データを用いている。特徴線分および特徴領域の対応付け、ならびに3次元線分及び3次元領域の生成にはこのように2つの2次元画像データがあればよい。すなわち、第1画像データないし第3画像データのうち任意の2つを選択して用いることができる。また、ラインセンサの個数は2つ以上の任意の個数とすることができる。
【0061】
【発明の効果】
本発明による画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体は、異なる視点から撮影して生成された複数の2次元画像データに基づいて、3次元領域及び3次元線分を生成している。そして、これら3次元領域及び3次元線分に基づいて特徴面を生成し、特徴面から3次元画像(ソリッドモデル)を生成している。
【0062】
3次元領域に基づくことで特徴面を特定することが容易になり、また、3次元線分に基づくことで特徴面の3次元座標を精度よく求めることができる。こうして求められた特徴面を用いて3次元画像を生成することにより、3次元画像を精度よく生成することができる。
【図面の簡単な説明】
【図1】本発明による画像処理装置の実施形態を示すブロック図である。
【図2】撮像装置が取り付けられる飛翔体を示す図である。
【図3】撮影装置が上空から下方を撮影する概念を示す図である。
【図4】建造物上のある点を撮影する瞬間の各ラインセンサの位置を示す図である。
【図5】図5(a)は、第2画像データの一例である。図5(b)は、第3画像データの一例である。
【図6】図6(a)は、領域抽出手段によって抽出される第2領域データを示す図である。図6(b)は、領域抽出手段によって抽出される第3領域データを示す図である。
【図7】特徴点の3次元座標を算出する原理を説明する図である。
【図8】図8(a)は、エッジ抽出手段によって抽出される第2線分データを示す図である。図8(b)は、エッジ抽出手段によって抽出される第3線分データを示す図である。
【図9】3次元領域と3次元線分とを統合したときの一例を示す図である。
【図10】テクスチャを合成した3次元画像の一例を示す図である。
【図11】画像処理装置の動作を示すフローチャートである。
【図12】本発明による記録媒体の構成図である。
【符号の説明】
100…画像処理装置、101…記憶部、102…演算部、103…領域抽出手段、104…領域対応手段、105…第1演算手段、106…エッジ抽出手段、107…エッジ対応手段、108…第2演算手段、109…統合手段、110…結合手段、111…画像生成手段、112…テクスチャ合成手段、200…撮像装置、201…第1のラインセンサ、202…第2のラインセンサ、203…第3のラインセンサ。
Claims (7)
- 撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理方法であって、前記2次元画像それぞれから、前記撮影対象物に対応する特徴領域を抽出する領域抽出ステップと、
前記領域抽出ステップにより抽出された前記特徴領域のうち、同一の前記撮影対象物に対応する前記特徴領域を、前記2次元画像間で対応付ける領域対応ステップと、
前記領域対応ステップにより対応付けられた前記特徴領域から前記撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算ステップと、
前記2次元画像それぞれから、前記撮影対象物に対応する特徴線分を抽出するエッジ抽出ステップと、
前記エッジ抽出ステップにより抽出された前記特徴線分のうち、同一の前記撮影対象物に対応する前記特徴線分を、前記2次元画像間で対応付けるエッジ対応ステップと、
前記エッジ対応ステップにより対応付けられた前記特徴線分から前記撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算ステップと、
前記3次元領域と前記3次元線分とを統合して特徴面を生成する統合ステップと、
前記統合ステップにより生成された前記特徴面に基づいて、該特徴面を有する前記撮影対象物の3次元画像を生成する画像生成ステップと
を備えることを特徴とする画像処理方法。 - 前記エッジ対応ステップは、同一の撮影対象物に対応する特徴線分を前記2次元画像間で対応付ける際に、前記第1演算ステップにより生成された、前記3次元領域の3次元座標の高さ成分を利用することを特徴とする請求項1に記載の画像処理方法。
- 前記統合ステップにより生成された前記特徴面のうち、近接する位置関係にある前記特徴面同士を対応付けて特徴面群を生成する結合ステップをさらに備え、
前記画像生成ステップは、前記結合ステップにより生成された前記特徴面群に基づいて、前記特徴面群を有する撮影対象物の3次元画像を生成することを特徴とする請求項1に記載の画像処理方法。 - 前記画像生成ステップにより生成された前記撮影対象物の3次元画像に該撮影対象物のテクスチャを合成するテクスチャ合成ステップをさらに備えることを特徴とする請求項1に記載の画像処理方法。
- 撮影対象物を含む所定エリアを異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理装置であって、前記2次元画像それぞれから、前記撮影対象物に対応する特徴領域を抽出する領域抽出手段と、
前記領域抽出手段により抽出された前記特徴領域のうち、同一の前記撮影対象物に対応する前記特徴領域を、前記2次元画像間で対応付ける領域対応手段と、前記領域対応手段により対応付けられた前記特徴領域から前記撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元領域を生成する第1演算手段と、
前記2次元画像それぞれから、前記撮影対象物に対応する特徴線分を抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出された前記特徴線分のうち、同一の前記撮影対象物に対応する前記特徴線分を、前記2次元画像間で対応付けるエッジ対応手段と、
前記エッジ対応手段により対応付けられた前記特徴線分から前記撮影対象物の特徴点を抽出し、該特徴点の3次元座標を算出して3次元線分を生成する第2演算手段と、
前記3次元領域と前記3次元線分とを統合して特徴面を生成する統合手段と、前記統合手段により生成された前記特徴面に基づいて、該特徴面を有する前記撮影対象物の3次元画像を生成する画像生成手段と
を備えることを特徴とする画像処理装置。 - 請求項1〜4のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
- 請求項1〜4のいずれか1項に記載の画像処理方法をコンピュータに実行させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188582A JP2004030462A (ja) | 2002-06-27 | 2002-06-27 | 画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188582A JP2004030462A (ja) | 2002-06-27 | 2002-06-27 | 画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004030462A true JP2004030462A (ja) | 2004-01-29 |
Family
ID=31183295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002188582A Pending JP2004030462A (ja) | 2002-06-27 | 2002-06-27 | 画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004030462A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008082870A (ja) * | 2006-09-27 | 2008-04-10 | Setsunan Univ | 画像処理プログラム及びこれを用いた路面状態計測システム |
JP2020502655A (ja) * | 2016-12-13 | 2020-01-23 | ドイチェス ツェントルム フュール ルフト−ウント ラウムファールト エー ファウDeutsches Zentrum Fuer Luft−Und Raumfahrt E.V. | 表面の2つのオーバーラップした画像の切断縁部を検知する方法および装置 |
CN111753031A (zh) * | 2019-12-05 | 2020-10-09 | 广州极飞科技有限公司 | 地图区域的整合方法、装置、存储介质和电子设备 |
-
2002
- 2002-06-27 JP JP2002188582A patent/JP2004030462A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008082870A (ja) * | 2006-09-27 | 2008-04-10 | Setsunan Univ | 画像処理プログラム及びこれを用いた路面状態計測システム |
JP2020502655A (ja) * | 2016-12-13 | 2020-01-23 | ドイチェス ツェントルム フュール ルフト−ウント ラウムファールト エー ファウDeutsches Zentrum Fuer Luft−Und Raumfahrt E.V. | 表面の2つのオーバーラップした画像の切断縁部を検知する方法および装置 |
CN111753031A (zh) * | 2019-12-05 | 2020-10-09 | 广州极飞科技有限公司 | 地图区域的整合方法、装置、存储介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1959392B1 (en) | Method, medium, and system implementing 3D model generation based on 2D photographic images | |
US7509241B2 (en) | Method and apparatus for automatically generating a site model | |
JP4392507B2 (ja) | 3次元サーフェス生成方法 | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
JP2009145314A (ja) | 異種センサ統合モデリングによるデジタル写真測量方法及びその装置 | |
JP2011129082A (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
CN110567441B (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
JP2012118666A (ja) | 三次元地図自動生成装置 | |
CN108399631B (zh) | 一种尺度不变性的倾斜影像多视密集匹配方法 | |
US7209136B2 (en) | Method and system for providing a volumetric representation of a three-dimensional object | |
JP2003323640A (ja) | レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム | |
JP5396585B2 (ja) | 地物特定方法 | |
KR102475790B1 (ko) | 지도제작플랫폼장치 및 이를 이용한 지도제작방법 | |
CN113129422A (zh) | 一种三维模型构建方法、装置、存储介质和计算机设备 | |
JP2005141655A (ja) | 3次元モデリング装置及び3次元モデリング方法 | |
JP2004030462A (ja) | 画像処理方法、画像処理装置、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 | |
JP4035018B2 (ja) | 形状獲得方法、装置、プログラム、およびこのプログラムを記録した記録媒体 | |
CN114387532A (zh) | 边界的识别方法及其装置、终端、电子设备和无人设备 | |
JPH11259658A (ja) | 物体認識方法およびその方法を用いた物体認識装置,車輌認識方法,車輌認識装置 | |
CN114729811A (zh) | 位置推断装置、车辆、位置推断方法及位置推断程序 | |
JP2005063129A (ja) | 時系列画像からのテクスチャ画像獲得方法,テクスチャ画像獲得装置,テクスチャ画像獲得プログラムおよびそのプログラムを記録した記録媒体 | |
CN105551068B (zh) | 一种三维激光扫描与光学照片的合成方法 | |
JP4025556B2 (ja) | 特徴点追跡画像決定装置、特徴点追跡画像決定方法、この方法のプログラム、およびこのプログラムを記録した記録媒体 | |
JP3691401B2 (ja) | 撮影対象物表面の自動獲得・復元方法及び装置 | |
JP3579645B2 (ja) | テクスチャ切り出し領域補正方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体 |