JP2004030440A - Image processing method, image processing program, and computer readable recording medium with the program recorded thereon - Google Patents

Image processing method, image processing program, and computer readable recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2004030440A
JP2004030440A JP2002188419A JP2002188419A JP2004030440A JP 2004030440 A JP2004030440 A JP 2004030440A JP 2002188419 A JP2002188419 A JP 2002188419A JP 2002188419 A JP2002188419 A JP 2002188419A JP 2004030440 A JP2004030440 A JP 2004030440A
Authority
JP
Japan
Prior art keywords
dimensional
image processing
line segment
processing method
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002188419A
Other languages
Japanese (ja)
Inventor
Masafumi Nakagawa
中川 雅史
Ryosuke Shibazaki
柴▲崎▼ 亮介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Starlabo Corp
Original Assignee
Starlabo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Starlabo Corp filed Critical Starlabo Corp
Priority to JP2002188419A priority Critical patent/JP2004030440A/en
Publication of JP2004030440A publication Critical patent/JP2004030440A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, an image processing program and a computer readable recording medium with the program recorded thereon for accurately producing a three-dimensional (3D) image. <P>SOLUTION: A prescribed area on the ground including a photographing target is photographed from different points of view by a line sensor to acquire image data (S1). Then, a 3D area and 3D line segments are produced from a feature area and feature line segments extracted from the photographing target (S4 and S9). The 3D line segments near the 3D area are collected to produce a 3D line segment group (S12), a height of the 3D area is corrected by using the 3D line segment group and based upon the corrected 3D area, a photographing target model of a 3D image is corrected (S16). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
近年、GIS(Geographic Information System)分野において、特に都市部における3次元地図の需要が高まっている。その利用形態としては、カーナビゲーションなどに用いる道路情報、都市災害GISなどが挙げられる。また、電波の伝播解析、氾濫解析等の解析にも詳細かつ精度が高い3次元地図が求められている。
【0003】
【発明が解決しようとする課題】
そういった3次元地図の作成方法の一つとして、対象エリアを上空の異なる視点から撮影した複数の2次元画像を用いて、対象エリアの3次元画像を生成する方法があると発明者は考えた。
【0004】
このような3次元画像を生成する場合、複数の2次元画像に含まれる同一の撮影対象物に関する画像に基づいて、該撮影対象物の屋根などの特徴部分の空間位置を求めた上で該撮影対象物の3次元画像を生成する。このように複数の2次元画像を用いて撮影対象物の3次元画像を生成する際には、3次元画像を精度よく生成することが好ましい。
【0005】
本発明は、3次元画像を精度よく生成できる画像処理方法、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0006】
【課題を解決するための手段】
このような目的を達成するために、本発明による画像処理方法は、撮影対象物を含む地上の所定エリアを上空の異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理方法であって、前記複数の2次元画像それぞれから、前記撮影対象物に対応する特徴領域を抽出する第1工程と、同一の前記撮影対象物に対応する前記特徴領域を前記2次元画像間で対応付ける第2工程と、対応付けられた前記特徴領域の形状及び空間位置を利用して撮影対象物の3次元モデルである撮影対象物モデルを推定する第3工程とを有するモデル推定ステップと、前記複数の2次元画像それぞれから、前記撮影対象物に対応する特徴線分を抽出する第4工程と、同一の前記撮影対象物に対応する前記特徴線分を前記2次元画像間で対応付ける第5工程と、対応付けられた前記特徴線分の3次元座標を算出して3次元線分を生成する第6工程とを有する線分生成ステップと、前記モデル推定ステップにより推定された前記撮影対象モデルの近傍に存在する複数の前記3次元線分をグルーピングして3次元線分群を生成する線分群生成ステップと、前記線分群生成ステップにより生成された前記3次元線分群に基づいて、前記撮影対象物モデルを修正するフィッティングステップとを備えることを特徴とする。
【0007】
上記した画像処理方法は、撮影対象物モデルの近傍に存在する3次元線分をグルーピングして生成された3次元線分群を用いて撮影対象物モデルを修正している。3次元線分は3次元領域よりも空間位置精度が良いため、このように撮影対象物モデルを修正することで3次元画像である撮影対象物モデルを精度良く生成することができる。
【0008】
また、画像処理方法は、フィッティングステップにより修正された撮影対象物モデルのうち、互いに近傍に位置する撮影対象物モデル同士を結合するモデルマージステップをさらに備えることを特徴としてもよい。これによって、複雑な形状を有する撮影対象物に対しても好適に撮影対象物モデルを生成することができる。
【0009】
また、画像処理方法は、線分群生成ステップが、所定エリアの高さ分布情報を利用して3次元線分群を生成することを特徴としてもよい。これによって、3次元領域が、3次元領域に対応する撮影対象物の面の形状に対して大きな誤差を有するときでも、3次元線分を好適にグルーピングすることができる。
【0010】
また、画像処理方法は、3次元線分群生成ステップにより生成された3次元線分群に含まれる3次元線分のうち、撮影対象物に含まれる同一の辺に関する複数の3次元線分をまとめて1本の3次元線分を生成するスムージングステップをさらに備えることを特徴としてもよい。撮影対象物が有する一辺に対し複数の3次元線分が生成されているときには、このスムージングステップによって一辺に対し1本の3次元線分を特定することができる。
【0011】
また、画像処理方法は、モデル推定ステップの第3工程が、対応付けられた特徴領域の3次元座標を算出して3次元領域を生成することにより撮影対象物モデルを推定することを特徴としてもよい。これによって、撮影対象物モデルを好適に推定することができる。
【0012】
また、画像処理方法は、フィッティングステップが、3次元領域の高さを、当該3次元領域から推定された撮影対象物モデルによりグルーピングされた3次元線分群の高さに基づいて修正することにより撮影対象物モデルを修正することを特徴としてもよい。これによって撮影対象物の上面を精度良くモデル化できるので、撮影対象物モデルをさらに精度良く生成することができる。
【0013】
また、画像処理方法は、3次元線分群に含まれる3次元線分同士の高低差が所定の値以上であるときに、3次元線分群に対応する3次元領域に傾斜を与える傾斜ステップをさらに備えることを特徴としてもよい。あるいは、2次元画像に含まれる撮影対象物の画像を対応付ける際に得られる3次元領域または3次元線分の傾斜情報に基づいて、3次元線分群に対応する3次元領域に傾斜を与える傾斜ステップをさらに備えることを特徴としてもよい。これらのような傾斜ステップを備えることによって、傾斜した面を有する撮影対象物の撮影対象物モデルを好適に生成することができる。
【0014】
また、本発明による画像処理プログラムは、上記した画像処理方法をコンピュータに実行させることを特徴とする。
【0015】
また、本発明による記録媒体は、上記した画像処理方法をコンピュータに実行させる画像処理プログラムを記録したことを特徴とする。
【0016】
【発明の実施の形態】
以下、図面とともに本発明による画像処理方法、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0017】
図1は、本実施形態による画像処理方法を実施する画像処理装置1を説明する図である。画像処理装置1は、ワークステーション、パーソナルコンピュータ等の計算機10、表示装置となるモニタ11、入力装置であるキーボード12、及びマウス13を備えている。なお、計算機10には、内部記録装置としてハードディスクを搭載するとともに、各種の外部記録装置が接続されていてもよい。
【0018】
計算機10の内部あるいは外部の記録装置には、後述する飛翔体に搭載される撮像装置2内のハードディスク21に記録された画像データ及び高さ分布情報データが転送される。この転送は、撮像装置2と画像データ処理装置1とを無線、有線で接続して行うほか、脱着可能な記録媒体を介して行っても良い。
【0019】
図2は、撮像装置2の構成を説明する図である。撮像装置2は、図2(a)に示されるように、航空機や飛行船、ヘリコプタといった飛翔体3の下部に取り付けられ、飛翔体3の飛行中に上空から撮影対象物を含む地上の所定エリアの2次元画像を取得するものである。
【0020】
図2(b)は、撮像装置2の構成を示す図である。図2(b)では、飛翔体3の通常の進行方向を左向きとして示している。撮像装置2は、データ処理部20、ハードディスク21、撮影部(カメラ)27、距離測定部28を備えている。
【0021】
撮影部27は、撮影対象物を含む所定エリアの2次元画像を取得するための装置である。ここで、図3は、撮影部27が上空から下方を撮影する概念を示す図である。ラインセンサ27B、27F、27Nは、複数の画素bを一列に並べて構成されており、飛翔体3の進行に従って連続的に撮影する。また、各ラインセンサは飛翔体3の進行方向に対する垂直方向を長手方向として、所定の間隔をあけて設置されている。また、ラインセンサ27Fの撮影方向ベクトルA1と、ラインセンサ27Nの撮影方向ベクトルA2と、ラインセンサ27Bの撮影方向ベクトルA3とは、ある一点で交わっている。この結果、ラインセンサ27Fは飛翔体3の前寄りの下方の2次元画像データである画像データD1を、ラインセンサ27Nは飛翔体3の直下の2次元画像データである画像データD2を、ラインセンサ27Bは飛翔体3の後ろ寄り下方の2次元画像データである画像データD3をそれぞれ取得することができる。
【0022】
図4は、撮影対象物300上のある点Pを撮影する瞬間の各ラインセンサの位置を示している。図4に示すように、ラインセンサ27Fは、飛翔体3の進行方向(図4の矢印a)に対して前寄りの下方(撮影方向ベクトルA1)に撮影対象物300を捉える。ラインセンサ27Nは、飛翔体3直下(撮影方向ベクトルA2)に撮影対象物300を捉える。ラインセンサ27Bは、飛翔体3の進行方向に対して後ろ寄りの下方(撮影方向ベクトルA3)に撮影対象物300を捉える。図5(a)は、こうして撮影された画像データのうち、画像データD2の一例である。画像データD2は、撮影対象物300を図4の撮影方向ベクトルA2の方向から撮影して得られた画像300aを含んでいる。また、図5(b)は、画像データD3の一例である。画像データD3は、撮影対象物300を図4の撮影方向ベクトルA3の方向から撮影して得られた画像300bを含んでいる。なお、図5(a)、図5(b)ともに、図中の矢印aは飛翔体3の進行方向を示す。
【0023】
また、図2(b)に示す距離測定部28は、撮像装置2から撮影対象物を含む地上の所定エリア内の複数のポイントまでの距離を測定する装置である。所定エリア内における複数のポイントの密度は、1ポイントの計測につき要する時間を考慮した上で必要な解像度を得るのに適した密度とするとよい。
【0024】
距離測定部28は、レーザプロファイラ28aを備えている。レーザプロファイラ28aは、地上へ向けてレーザを照射し、該レーザが反射して戻るまでの時間を検出することにより、撮影対象物を含む地上の所定エリア内に設定されたポイントからの距離を測定する。そして、レーザプロファイラ28aは、測定結果に基づいて当該所定エリアの高さ分布情報データD4を生成する。この高さ分布情報データD4は、3次元座標値を持つランダム点群データである。なお、レーザプロファイラ28aは、例えば高度3000m上空からの測定で2m程度の解像度となるような密度でポイントを測定するとよい。
【0025】
データ処理部20は、撮影部27により取得された画像データD1〜D3、及び距離測定部28により生成された高さ分布情報データD4を入力する。そして、データ処理部20は、画像データD1〜D3及び高さ分布情報データD4をハードディスク21へ出力する。ハードディスク21は、画像データD1〜D3及び高さ分布情報データD4を記録する。
【0026】
以下、本実施形態による画像処理方法について具体的に説明する。本実施形態による画像処理方法は、画像データD1〜D3間からデータ間のマッチングにより生成された3次元領域及び3次元線分と、高さ分布情報データD4とを用いて3次元画像である撮影対象物モデルを生成する方法である。
【0027】
図6は、本実施形態による画像処理方法を含む、3次元画像の生成方法を示すフローチャートである。最初のステップS1では、まず、ラインセンサ27F、27N、27Bを備える撮像装置2を用い、上空から撮影対象物を含む地上の所定エリアを撮像して2次元画像データである画像データD1〜D3を生成する。そして、画像データD1〜D3を、ハードディスク21といった記録装置に一旦記録させた後、計算機10に取り込む。
【0028】
続くステップS2では、計算機10に取り込まれた画像データD2及びD3を用いて、撮影対象物に対応する特徴領域を抽出し、特徴領域に関する領域データD2a及びD3aを生成する(第1工程)。図7は、ステップS2において生成される(a)領域データD2a及び(b)領域データD3aを示す図である。ステップS2では、画像データD2に含まれている画像300aといった撮影対象物の画像から、一定の濃淡レベルで特徴付けられる特徴領域を抽出する。このとき、特徴領域の抽出方法として次の2種類のいずれか一方の方法を用いるとよい。1つの方法は、画像データを特徴が一様と考えられる小領域に分割しておき、その後に隣接する小領域間の特徴を調べ、類似した特徴を持つ小領域に逐次統合する領域拡張法である。他の方法は、画像データに基づく濃淡ヒストグラムの谷部を特徴領域の境界とすることでクラスタリングを行うレベルスライシング法である。図7(a)では特徴領域の一例として、略一定の濃淡レベルである画像300aの屋根部分を特徴領域301aとしている。
【0029】
このようにして、ステップS2では、画像データD2に特徴領域に関する情報を付加した領域データD2aを生成する。また、ステップS2では、画像データD3についても画像データD2と同様に、例えば図7(b)に示す画像300bといった撮影対象物の画像から特徴領域301bといった特徴領域を抽出する。そして、画像データD3に特徴領域に関する情報を付加した領域データD3aを生成する。
【0030】
ステップS3では、領域データD2aと領域データD3aとの双方に含まれる、同一の撮影対象物の特徴領域をデータ間で対応付ける(第2工程)。例えば、図7(a)に示した領域データD2aには、画像300aから抽出された特徴領域301aが含まれている。一方、図7(b)に示した領域データD3aには、画像300bから抽出された特徴領域301bが含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴領域301a及び301bは、その形状や大きさなどによって対応付けられる。このとき、対応する特徴領域を探索する方法として、2つの画像の投影中心と対象点とが同一平面内に含まれる(共面条件)ことを利用して、該平面と画像とが交わる直線(エピポーラライン)上を探索する方法を用いるとよい。こうして、特徴領域301a及び301bは同一の撮影対象物の特徴領域として互いに対応付けられる。
【0031】
ステップS4では、ステップS3により対応付けられた特徴領域から、対象領域の3次元座標が領域データD2a及び領域データD3aに基づいて前方後会法により算出される。こうして3次元座標が求められた対象領域をもとに、特徴領域の空間位置が求められて3次元領域が生成される。そして、この3次元領域から、該3次元領域を含む撮影対象物の3次元画像(ソリッドモデル)である撮影対象物モデルを推定する(第3工程)。例えば、3次元領域が有する辺を含んで地面に垂直な平面を発生させて撮影対象物モデルを推定するとよい。
【0032】
以上の第1工程ないし第3工程によって、モデル推定ステップS5が構成される。
【0033】
ステップS6では、計算機10に取り込まれた画像データD2及びD3を用いて、撮影対象物の画像の濃淡により生じるエッジに関するエッジ画像を生成する。エッジ画像の生成方法としては、Gaussianフィルタの微係数を使って、画像の濃淡レベルの勾配の極大を求めることによりエッジの抽出を行うCanny法などを用いるとよい。また、濃淡レベルの勾配が小さいものについては、濃淡レベルの勾配が大きいエッジに繋がっているものをエッジとするとよい。
【0034】
ステップS7では、ステップS6により生成されたエッジ画像から、所定の長さを有するエッジである特徴線分を抽出する(第4工程)。特徴線分の抽出方法としては、例えば複数の画素が2次元状に配列されてその一部の画素が線分の一部分を示すようなテンプレートを数種類用意し、エッジをテンプレートに照合して特徴線分であることを判別し、抽出するとよい。図8は、ステップS7によって生成される(a)画像データD2から特徴線分を抽出した線分データD2b、及び(b)画像データD3から特徴線分を抽出した線分データD3bを示す図である。図8(a)では特徴線分の一例として、画像300aにおいて濃淡レベルの変化が大きい屋根部分の周囲の直線成分であるところの辺を特徴線分302a1〜302a4として抽出している。また、図8(b)でも同様に、画像300bにおいて濃淡レベルの変化が大きい屋根部分の周囲の辺を特徴線分302b1〜302b4として抽出している。
【0035】
ステップS8では、線分データD2bと線分データD3bとの双方に含まれる、同一の撮影対象物の特徴線分が対応付けられる(第5工程)。例えば、図8(a)に示した線分データD2bには、画像300aから抽出された特徴線分302a1〜302a4が含まれている。一方、図8(b)に示した線分データD3bには、画像300bから抽出された特徴線分302b1〜302b4が含まれている。画像300a及び画像300bは、同一の撮影対象物である建造物300(図4に示す)に関する画像であるので、これらの画像から抽出された特徴線分302a1〜302a4と302b1〜302b4とは、同一の撮影対象物の、同一箇所の特徴線分として互いに対応付けられる。この対応付けの方法としては、特徴線分の形状、特徴線分の両側の濃淡レベル、特徴線分の傾き、周囲の特徴領域との位置関係、特徴線分の長さ等が一致するような特徴線分同士を対応付ける。このとき、特徴領域の対応付けと同様に、対応する特徴線分をエピポーララインを用いて探索するとよい。
【0036】
また、ステップS8では、ステップS4によって生成された3次元領域を利用して特徴線分を対応付けるとよい。すなわち、特徴線分は画像データ中に比較的多く存在するため、その対応付けに時間がかかり、対応付けの間違いも多い。これを解決するため、特徴線分をエピポーララインを用いて探索するときに該特徴線分に対応する撮影対象物と同一の撮影対象物に関する3次元領域の3次元座標の高さ成分を利用して探索範囲を狭めるとよい。
【0037】
ステップS9では、ステップS8により対応付けられた特徴線分から、撮影対象物の特徴点(特徴線分の端点など)に対応する点が抽出される。そして、特徴点の3次元座標が線分データD2b及び線分データD3bに基づいて前方後会法により算出される。こうして3次元座標が求められた特徴点をもとに、特徴線分の空間位置が求められて3次元線分が生成される(第6工程)。
【0038】
以上の第4工程ないし第6工程によって、線分生成ステップS10が構成される。
【0039】
ここで、図2(b)に示した距離測定部28を用いて、撮影対象物を含む地上の所定エリアの高さ分布情報を取得する。ステップS11では、地上へ向けてレーザを照射し、該レーザが反射して戻るまでの時間を検出することにより、撮影対象物を含む地上の所定エリア内の複数のポイントからの距離が測定される。そして、この測定結果から所定エリアの高さ分布に関する高さ分布情報データD4が生成される。
【0040】
ステップS12では、ステップS5によって推定された撮影対象物モデルを用いて、ステップS10によって生成された3次元線分のうち1つの撮影対象物に関する3次元線分であると推定されるものを対応するグループにまとめ(グルーピング)、3次元線分群を生成する(線分群生成ステップ)。すなわち、撮影対象物モデルの近傍に存在する複数の3次元線分をグルーピングして3次元線分群とする。このとき、ステップS11によって生成された高さ分布情報データD4を利用して、3次元線分群を生成するとよい。例えば、ある撮影対象物モデルの一部が欠けており、実際の撮影対象物と形状が異なっているとする。こういった場合でも、高さ分布情報データD4に含まれる、当該撮影対象物付近の高さ分布は実際の撮影対象物の形状を良く表している。よって、その高さ分布にあわせて3次元線分群を生成するといったように高さ分布情報データD4を利用するとよい。こうすれば、撮影対象物モデルが正確でない場合でも好適に3次元線分群を生成できる。
【0041】
ステップS13では、ステップS4によって生成された3次元領域と、ステップS10によって生成された3次元線分とを3次元座標空間へ投影する。図9は、3次元座標空間に投影された3次元線分及び3次元領域を示す図である。なお、この図の中で、3次元線分3021〜3024は、3次元領域301の近傍であると判断されてグルーピングされ、3次元線分群を構成している。なお、図9では3次元線分をそれぞれ1本の線分3021〜3024として明示しているが、実際の3次元線分は細かな線分であり、線分3021〜3024の付近に散在している。
【0042】
ステップS14では、ステップS12により生成された3次元線分群に含まれる3次元線分のうち、撮影対象物に含まれる同一の辺に関する複数の前記3次元線分をまとめて1本の3次元線分が生成される(スムージングステップ)。図10は、ステップS13において3次元座標空間に投影された、同一の撮影対象物についての3次元領域及び3次元線分群を、X方向から見たときの空間位置の一例を示す図である。図10に示す図は、横軸にY座標、縦軸にZ座標をとり、3次元領域301及び3次元線分を示している。図10では、3次元線分群に含まれる3次元線分は高さ約42m〜約47mの範囲で散在している。ステップ14では、この散在した3次元線分に対して、所定の方法により1本の線分を決定してその線分を新たな3次元線分とする(スムージング)。所定の方法としては、例えばある3次元線分群に含まれる複数の3次元線分それぞれの高さの最頻値を、スムージングされた3次元線分の高さとするとよい。図10に示す3次元線分群の場合、新たな3次元線分を点線Aの高さ(約43m)に生成するとよい。
【0043】
このとき、ステップS14によってスムージングされた3次元線分のうち、同一の撮影対象物に対応する複数の3次元線分に高さが互いに異なるものが含まれる場合がある。こういった場合は、該当する撮影対象物の面が傾斜していることが考えられる。そこで、ステップS15として、複数の3次元線分それぞれの中点の高さをその3次元線分の平均高さとし、そのそれぞれの平均高さ同士の高低差が所定の値より大きいときに、面が傾斜していると判別するとよい。そして、この高低差から求まる傾斜を、対応する3次元領域に与えるとよい(傾斜ステップ)。
【0044】
また、ステップS15としては、以下の方法を用いてもよい。すなわち、ステップS3において特徴領域を対応付ける際に得られる傾斜情報に基づいて、3次元領域に傾斜を与える。あるいは、ステップS8において特徴線分を対応付ける際に得られる傾斜情報に基づいて、3次元領域に傾斜を与える。このうち特徴線分の対応付けの際には、互いの位置がほぼ等しくて画像データ上での傾きが異なる特徴線分が存在する場合に、例えば対応する3次元線分の傾斜角を推定しつつ対応付けて、両端の特徴点の座標が合致する傾斜角を求める。こうして、3次元線分の傾斜が求められる。また、3次元領域についても同様に求めることができる(傾斜ステップ)。
【0045】
ステップS16では、ステップS5によって生成された撮影対象物モデルを修正し(フィッティングステップ)、建物を構成する要素を加えて撮影対象物の3次元画像(ソリッドモデル)を生成する。その方法の一例として、まず3次元線分群の高さに基づいて、対応する3次元領域の高さを修正する。図10に示したとおり、3次元領域の高さは、実際の高さ(スムージングされた3次元線分の高さ)に比べて、メートルオーダーでずれている。そこで、3次元画像を生成する際には、3次元領域の高さを改めて求める必要がある。ステップS16では、ステップS13によってスムージングされた3次元線分を利用して、この3次元線分の高さと同じ高さになるように3次元領域を修正する。図10に示した3次元領域301の場合、スムージングされた3次元線分の高さ(点線A)と同じ高さへ3次元領域301の高さを修正する。
【0046】
そして、3次元線分群の高さに基づいて修正された3次元領域を用いて、ステップS5によって推定された撮影対象物モデルを修正し、建物を構成する要素を加えて撮影対象物の3次元画像(ソリッドモデル)を生成する。図11に、修正された撮影対象物モデルの一例を示す。撮影対象物モデル305は、修正された3次元領域303に、3次元領域303の一辺を含み、地面(Z=0の平面)に垂直な平面である側壁304を加えて形成されている。なお、3次元線分3021a〜3024aは、3次元領域303を修正するときに用いられるスムージング後の3次元線分である。
【0047】
ステップS17では、ステップS16によって生成されたソリッドモデルのうち、近接する位置関係にあるソリッドモデル同士を結合する(モデルマージステップ)。複数のソリッドモデルがX方向及びY方向に近接しているような場合、それらのソリッドモデルは同一の撮影対象物に関するものであると言える。ステップS17では、そのようなソリッドモデル同士を結合して、実際の撮影対象物の形状と略等しいモデルを生成する。このとき、同一の撮影対象物に関するソリッドモデルであると判別するための近接距離を、建築工事施工上等の制約により、50cm以上の間隔を設けるのが通例であり、50cmを基準とするとよい。
【0048】
以上に詳述した、本実施形態による画像処理方法は、以下の効果を有する。すなわち、本実施形態による画像処理方法は、撮影対象物モデルの近傍に存在する3次元線分をグルーピングして生成された3次元線分群を用いて撮影対象物モデルを修正している。3次元線分は3次元領域よりも空間位置精度が良いため、このように撮影対象物モデルを修正することで3次元画像である撮影対象物モデルを精度良く生成することができる。
【0049】
また、本実施形態による画像処理方法は、フィッティングステップにより修正された撮影対象物モデルのうち、互いに近傍に位置する撮影対象物モデル同士を結合するモデルマージステップを備えることが好ましい。これによって、複雑な形状を有する撮影対象物に対しても好適に撮影対象物モデルを生成することができる。
【0050】
また、本実施形態による画像処理方法は、線分群生成ステップが、高さ分布情報を利用して3次元線分群を生成することが好ましい。これによって、3次元領域が、該3次元領域に対応する撮影対象物の面の形状に対して大きな誤差を有するときでも、3次元線分を好適にグルーピングすることができる。
【0051】
また、本実施形態による画像処理方法は、3次元線分群生成ステップにより生成された3次元線分群に含まれる3次元線分のうち、撮影対象物に含まれる同一の辺に関する複数の3次元線分をまとめて1本の3次元線分を生成するスムージングステップを備えている。画像処理方法はスムージングステップを備えることが好ましく、撮影対象物が有する一辺に対し複数の3次元線分が生成されているときには、これによって一辺に対し1本の3次元線分を特定することができる。
【0052】
また、本実施形態による画像処理方法は、モデル推定ステップの第3工程が、対応付けられた特徴領域の3次元座標を算出して3次元領域を生成している。そして、この3次元領域から撮影対象物モデルを推定している。画像処理方法はこのような第3工程を備えることが好ましく、これによって、撮影対象物モデルを好適に推定することができる。
【0053】
また、本実施形態による画像処理方法は、3次元領域の高さを、当該3次元領域から推定された撮影対象物モデルによりグルーピングされた3次元線分群の高さに基づいて修正することが好ましい。これによって撮影対象物の上面を精度良くモデル化できるので、撮影対象物モデルをさらに精度良く生成することができる。
【0054】
また、本実施形態による画像処理方法は、3次元線分群に含まれる3次元線分同士の高低差が所定の値以上であるときに、3次元線分群に対応する3次元領域に傾斜を与える傾斜ステップを備えることが好ましい。あるいは、傾斜ステップは、2次元画像に含まれる撮影対象物の画像を対応付ける際に得られる3次元領域または3次元線分の傾斜情報に基づいて、3次元線分群に対応する3次元領域に傾斜を与えてもよい。これらのような傾斜ステップを備えることによって、傾斜した面を有する撮影対象物の撮影対象物モデルを好適に生成することができる。
【0055】
ここで、上記した実施形態に係る画像処理プログラム、および当該画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体(以下、単に記録媒体という)について説明する。ここで、記録媒体とは、コンピュータのハードウェア資源に備えられている読み取り装置に対して、プログラムの記述内容に応じて、磁気、光、電気等のエネルギーの変化状態を引き起こして、それに対応する信号の形式で、読み取り装置にプログラムの記述内容を伝達できるものである。このような記録媒体としては、例えば、磁気ディスク、光ディスク、CD−ROM、コンピュータに内蔵されるメモリなどが該当する。
【0056】
図12は、本実施形態による記録媒体の構成図である。記録媒体50は、プログラム領域50aを備えている。このプログラム領域50aには、画像処理プログラム51が記録されている。画像処理プログラム51は、撮影対象物を含む地上の所定エリアを上空の異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成するための画像処理プログラムである。
【0057】
画像処理プログラム51は、図12に示すように、処理を統括するメインモジュール51aと、複数の2次元画像それぞれから、撮影対象物に対応する特徴領域を抽出する第1処理、同一の撮影対象物に対応する特徴領域を2次元画像間で対応付ける第2処理、及び、対応付けられた特徴領域の3次元座標を算出して3次元領域を生成することにより撮影対象物の3次元モデルである撮影対象物モデルを推定する第3処理を有するモデル推定処理をコンピュータに実行させるモデル推定モジュール51bと、複数の2次元画像それぞれから、撮影対象物に対応する特徴線分を抽出する第4処理、同一の撮影対象物に対応する特徴線分を2次元画像間で対応付ける第5処理、及び、対応付けられた特徴線分の3次元座標を算出して3次元線分を生成する第6処理を有する線分生成処理をコンピュータに実行させる線分生成モジュール51cと、モデル推定処理により推定された撮影対象モデルの近傍に存在する複数の3次元線分を所定エリアの高さ分布情報を利用しつつグルーピングして3次元線分群を生成する線分群生成処理をコンピュータに実行させる線分群生成モジュール51dと、3次元線分群生成処理により生成された3次元線分群に含まれる3次元線分のうち、撮影対象物に含まれる同一の辺に関する複数の3次元線分をまとめて1本の3次元線分を生成するスムージング処理をコンピュータに実行させるスムージングモジュール51eと、3次元線分群に含まれる3次元線分同士の高低差が所定の値以上であるときに、3次元線分群に対応する3次元領域に傾斜を与える傾斜処理をコンピュータに実行させる傾斜モジュール51fと、3次元領域の高さを、当該3次元領域から推定された撮影対象物モデルによりグルーピングされた3次元線分群の高さに基づいて修正することにより撮影対象物モデルを修正するフィッティング処理をコンピュータに実行させるフィッティングモジュール51gと、フィッティング処理により修正された撮影対象物モデルのうち、互いに近傍に位置する撮影対象物モデル同士を結合するモデルマージ処理をコンピュータに実行させるモデルマージモジュール51hとを備えて構成される。
【0058】
ここで、傾斜モジュール51fは、上記した傾斜処理の代わりに、3次元線分群に含まれる3次元線分同士の高低差が所定の値以上であるときに、3次元線分群に対応する3次元領域に傾斜を与える傾斜処理をコンピュータに実行させても良い。
【0059】
上記した画像処理プログラムをコンピュータに読みとらせてこれを実行させることにより、前述した画像処理方法が実行される。
【0060】
本発明による画像処理方法、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体は、上記した実施形態に限られるものではなく、様々な変形が可能である。例えば、図6に示したフローチャートにおいて、ステップS12では、ステップS5により推定された撮影対象物モデルの近傍にある3次元線分をグルーピングして3次元線分群を生成している。3次元線分をグルーピングする際には、撮影対象物モデルとして、ステップS4により生成された3次元領域の近傍に存在する3次元線分をグルーピングしてもよい。
【0061】
また、上記した実施形態では、画像データD2及びD3を画像処理に用いている。画像データはこの組み合わせ以外にも、D1及びD3や、D1及びD2を用いてもよい。D1〜D3のうち好適な組み合わせを選択することで、本画像処理方法を実施することができる。
【0062】
【発明の効果】
本発明による画像処理方法、画像処理プログラム及びそれを記録する記録媒体は、撮影対象物モデルの近傍に存在する3次元線分をグルーピングして生成された3次元線分群を用いて撮影対象物モデルを修正している。3次元線分は3次元領域よりも空間位置精度が良いため、このように撮影対象物モデルを修正することで3次元画像である撮影対象物モデルを精度良く生成することができる。
【図面の簡単な説明】
【図1】本実施形態による画像処理方法の実施形態を実施する画像処理装置1を説明する図である。
【図2】図2(a)は、飛翔体上の撮像装置の配置を説明する図である。図2(b)は、撮像装置2の内部構成を示す図である。
【図3】撮影部が上空から下方を撮影する概念を示す図である。
【図4】建造物上のある点を撮影する瞬間の各ラインセンサの位置を示す図である。
【図5】図5(a)は、画像データD2の一例である。図5(b)は、画像データD3の一例である。
【図6】本実施形態による画像処理方法を含む、3次元画像の生成方法を示すフローチャートである。
【図7】図7(a)は、ステップS2において生成される領域データD2aを示す図である。図7(b)は、ステップS2において生成される領域データD3aを示す図である。
【図8】図8(a)は、ステップS7によって生成される画像データD2から特徴線分を抽出した線分データD2bを示す図である。図8(a)は、ステップS7によって生成される画像データD3から特徴線分を抽出した線分データD3bを示す図である。
【図9】3次元座標空間に投影された3次元線分及び3次元領域を示す図である。
【図10】ステップS12において3次元座標空間に投影された、同一の撮影対象物についての3次元領域及び3次元線分群を、X方向から見たときの空間位置の一例を示す図である。
【図11】修正された撮影対象物モデルの一例を示す図である。
【図12】本実施形態による記録媒体の構成図である。
【符号の説明】
1…画像処理装置、10…計算機、11…モニタ、12…キーボード、13…マウス、2…撮像装置、20…データ処理部、21…ハードディスク、27…撮像部、27F、27N、27B…ラインセンサ、28…距離測定部、28a…レーザプロファイラ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method, an image processing program, and a computer-readable recording medium storing the same.
[0002]
[Prior art]
2. Description of the Related Art In recent years, in the field of GIS (Geographic Information System), demand for a three-dimensional map has been increasing, particularly in an urban area. Examples of the usage form include road information used for car navigation and the like, urban disaster GIS, and the like. In addition, a detailed and highly accurate three-dimensional map is required for analyzes such as radio wave propagation analysis and flood analysis.
[0003]
[Problems to be solved by the invention]
The inventor thought that as one of the methods of creating such a three-dimensional map, there is a method of generating a three-dimensional image of the target area by using a plurality of two-dimensional images taken of the target area from different viewpoints in the sky.
[0004]
When such a three-dimensional image is generated, a spatial position of a characteristic portion such as a roof of the object to be photographed is obtained based on images of the same object to be photographed included in a plurality of two-dimensional images, and then the photographing is performed. Generate a three-dimensional image of the object. When generating a three-dimensional image of a shooting target using a plurality of two-dimensional images in this manner, it is preferable to generate the three-dimensional image with high accuracy.
[0005]
An object of the present invention is to provide an image processing method, an image processing program, and a computer-readable recording medium on which the image processing method and the image processing program can generate a three-dimensional image with high accuracy.
[0006]
[Means for Solving the Problems]
In order to achieve such an object, an image processing method according to the present invention provides a three-dimensional image based on a plurality of two-dimensional images obtained by photographing a predetermined area on the ground including a photographing object from different viewpoints in the sky. A first step of extracting a characteristic region corresponding to the imaging target from each of the plurality of two-dimensional images, and extracting the characteristic region corresponding to the same imaging target. A model having a second step of associating between two-dimensional images, and a third step of estimating a photographing object model that is a three-dimensional model of the photographing object using the shape and spatial position of the associated characteristic region An estimating step, a fourth step of extracting, from each of the plurality of two-dimensional images, a characteristic line corresponding to the imaging target, and extracting the characteristic line corresponding to the same imaging target into the two-dimensional image And a sixth step of calculating three-dimensional coordinates of the associated feature line to generate a three-dimensional line segment, and a fifth step of calculating the three-dimensional coordinates of the associated feature line, and a model estimation step. A line group generation step of grouping a plurality of the three-dimensional line segments present in the vicinity of the imaging target model to generate a three-dimensional line group, based on the three-dimensional line group generated by the line group generation step And a fitting step of correcting the photographing object model.
[0007]
In the image processing method described above, the imaging target object model is corrected by using a three-dimensional line group generated by grouping three-dimensional line segments existing near the imaging target object model. Since the three-dimensional line segment has better spatial position accuracy than the three-dimensional region, by correcting the photographing object model in this way, a photographing object model that is a three-dimensional image can be generated with high accuracy.
[0008]
In addition, the image processing method may further include a model merging step of combining imaging object models located near each other among the imaging object models corrected by the fitting step. As a result, it is possible to suitably generate an imaging target object model even for an imaging target having a complicated shape.
[0009]
The image processing method may be characterized in that the line group generation step generates a three-dimensional line group using height distribution information of a predetermined area. Accordingly, even when the three-dimensional region has a large error with respect to the shape of the surface of the imaging target corresponding to the three-dimensional region, the three-dimensional line segments can be appropriately grouped.
[0010]
Further, the image processing method collects a plurality of three-dimensional line segments related to the same side included in the imaging target among the three-dimensional line segments included in the three-dimensional line group generated in the three-dimensional line group generation step. The method may further include a smoothing step of generating one three-dimensional line segment. When a plurality of three-dimensional line segments are generated for one side of the object to be imaged, one three-dimensional line segment can be specified for one side by this smoothing step.
[0011]
Further, the image processing method may be characterized in that the third step of the model estimation step estimates a photographing target object model by calculating three-dimensional coordinates of the associated characteristic region and generating a three-dimensional region. Good. This makes it possible to appropriately estimate the photographing object model.
[0012]
In the image processing method, the fitting step corrects the height of the three-dimensional region based on the height of the three-dimensional line group grouped by the imaging target object model estimated from the three-dimensional region. It may be characterized in that the object model is modified. As a result, the upper surface of the object to be photographed can be modeled with high accuracy, so that the object model to be photographed can be generated with higher accuracy.
[0013]
In addition, the image processing method further includes a tilting step of tilting the three-dimensional region corresponding to the three-dimensional line segment group when the height difference between the three-dimensional line segments included in the three-dimensional line segment group is equal to or more than a predetermined value. It may be provided with a feature. Alternatively, a tilting step of giving a tilt to a three-dimensional region corresponding to a three-dimensional line segment group based on three-dimensional region or three-dimensional line segment tilt information obtained when associating an image of an imaging target included in a two-dimensional image. May be further provided. By providing such a tilting step, it is possible to suitably generate a shooting target model of a shooting target having a tilted surface.
[0014]
Further, an image processing program according to the present invention causes a computer to execute the above-described image processing method.
[0015]
Further, a recording medium according to the present invention is characterized by recording an image processing program for causing a computer to execute the above-described image processing method.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of an image processing method, an image processing program, and a computer-readable recording medium storing the same according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. Also, the dimensional ratios in the drawings do not always match those described.
[0017]
FIG. 1 is a diagram illustrating an image processing apparatus 1 that performs an image processing method according to the present embodiment. The image processing apparatus 1 includes a computer 10 such as a workstation or a personal computer, a monitor 11 as a display device, a keyboard 12 as an input device, and a mouse 13. The computer 10 may be equipped with a hard disk as an internal recording device, and may be connected to various external recording devices.
[0018]
Image data and height distribution information data recorded on a hard disk 21 in an imaging device 2 mounted on a flying object, which will be described later, are transferred to a recording device inside or outside the computer 10. This transfer may be performed by connecting the imaging device 2 and the image data processing device 1 wirelessly or by wire, or may be performed via a removable recording medium.
[0019]
FIG. 2 is a diagram illustrating a configuration of the imaging device 2. As shown in FIG. 2A, the imaging device 2 is attached to a lower part of a flying object 3 such as an aircraft, an airship, and a helicopter, and a predetermined area on the ground including an object to be photographed from above while the flying object 3 is flying. This is for acquiring a two-dimensional image.
[0020]
FIG. 2B is a diagram illustrating a configuration of the imaging device 2. In FIG. 2B, the normal traveling direction of the flying object 3 is shown as facing left. The imaging device 2 includes a data processing unit 20, a hard disk 21, an imaging unit (camera) 27, and a distance measurement unit 28.
[0021]
The photographing unit 27 is a device for acquiring a two-dimensional image of a predetermined area including a photographing target. Here, FIG. 3 is a diagram showing a concept in which the image capturing section 27 captures an image from above to below. The line sensors 27B, 27F, and 27N are configured by arranging a plurality of pixels b in a line, and continuously capture images as the flying object 3 advances. Further, each line sensor is provided at a predetermined interval with a longitudinal direction perpendicular to the traveling direction of the flying object 3 as a longitudinal direction. The shooting direction vector A1 of the line sensor 27F, the shooting direction vector A2 of the line sensor 27N, and the shooting direction vector A3 of the line sensor 27B intersect at one point. As a result, the line sensor 27F receives the image data D1, which is the two-dimensional image data immediately below the flying object 3, and the line sensor 27N sends the image data D2, which is the two-dimensional image data immediately below the flying object 3, to the line sensor 27F. Reference numeral 27B can acquire image data D3 which is two-dimensional image data below and behind the flying object 3, respectively.
[0022]
FIG. 4 shows the position of each line sensor at the moment when a certain point P on the photographing target 300 is photographed. As shown in FIG. 4, the line sensor 27F captures the photographing target 300 in a forward (downward direction) vector with respect to the traveling direction of the flying object 3 (arrow a in FIG. 4). The line sensor 27N captures the imaging target 300 directly below the flying object 3 (imaging direction vector A2). The line sensor 27B captures the object 300 to be photographed below the photographing direction vector A3 with respect to the traveling direction of the flying object 3. FIG. 5A shows an example of the image data D2 among the image data thus photographed. The image data D2 includes an image 300a obtained by photographing the photographing object 300 from the direction of the photographing direction vector A2 in FIG. FIG. 5B shows an example of the image data D3. The image data D3 includes an image 300b obtained by shooting the shooting target 300 from the direction of the shooting direction vector A3 in FIG. In both FIGS. 5A and 5B, the arrow a in the figure indicates the traveling direction of the flying object 3.
[0023]
The distance measuring unit 28 illustrated in FIG. 2B is a device that measures the distance from the imaging device 2 to a plurality of points in a predetermined area on the ground including the imaging target. The density of the plurality of points in the predetermined area may be a density suitable for obtaining the required resolution in consideration of the time required for measuring one point.
[0024]
The distance measuring unit 28 includes a laser profiler 28a. The laser profiler 28a measures the distance from a point set in a predetermined area on the ground including the photographing target by irradiating the laser toward the ground and detecting the time until the laser is reflected and returned. I do. Then, the laser profiler 28a generates the height distribution information data D4 of the predetermined area based on the measurement result. This height distribution information data D4 is random point cloud data having three-dimensional coordinate values. The laser profiler 28a may measure points at a density such that the resolution is about 2 m when measured from an altitude of 3000 m, for example.
[0025]
The data processing unit 20 inputs the image data D1 to D3 acquired by the imaging unit 27 and the height distribution information data D4 generated by the distance measurement unit 28. Then, the data processing unit 20 outputs the image data D1 to D3 and the height distribution information data D4 to the hard disk 21. The hard disk 21 records image data D1 to D3 and height distribution information data D4.
[0026]
Hereinafter, the image processing method according to the present embodiment will be specifically described. The image processing method according to the present embodiment uses a three-dimensional region and a three-dimensional line segment generated by matching between image data D1 to D3 and height distribution information data D4 to capture a three-dimensional image. This is a method for generating an object model.
[0027]
FIG. 6 is a flowchart illustrating a method of generating a three-dimensional image including the image processing method according to the present embodiment. In the first step S1, first, using the imaging device 2 including the line sensors 27F, 27N, and 27B, a predetermined area on the ground including the imaging target is imaged from the sky, and image data D1 to D3 that are two-dimensional image data are obtained. Generate. Then, the image data D1 to D3 are once recorded on a recording device such as the hard disk 21 and then loaded into the computer 10.
[0028]
In the following step S2, a characteristic region corresponding to the photographing target is extracted using the image data D2 and D3 taken into the computer 10, and region data D2a and D3a relating to the characteristic region are generated (first step). FIG. 7 is a diagram showing (a) the area data D2a and (b) the area data D3a generated in step S2. In step S2, a characteristic region characterized by a constant shading level is extracted from an image of the photographing target such as the image 300a included in the image data D2. At this time, one of the following two methods may be used as a method for extracting the characteristic region. One method is a region expansion method in which image data is divided into small regions whose features are considered to be uniform, features between adjacent small regions are checked, and successively integrated into small regions having similar features. is there. Another method is a level slicing method in which clustering is performed by using a valley of a grayscale histogram based on image data as a boundary of a feature region. In FIG. 7A, as an example of the characteristic region, the roof portion of the image 300a having a substantially constant shading level is set as the characteristic region 301a.
[0029]
In this way, in step S2, the area data D2a in which information on the characteristic area is added to the image data D2 is generated. In step S2, a characteristic region such as the characteristic region 301b is extracted from the image of the photographing target such as the image 300b shown in FIG. 7B, for example, in the same manner as the image data D2. Then, area data D3a is generated by adding information on the characteristic area to the image data D3.
[0030]
In step S3, the characteristic regions of the same photographic object included in both the region data D2a and the region data D3a are associated with each other (second step). For example, the region data D2a illustrated in FIG. 7A includes a characteristic region 301a extracted from the image 300a. On the other hand, the region data D3a shown in FIG. 7B includes a characteristic region 301b extracted from the image 300b. Since the image 300a and the image 300b are images relating to the building 300 (shown in FIG. 4) which is the same photographing target, the characteristic regions 301a and 301b extracted from these images depend on their shapes and sizes. Correlated. At this time, as a method of searching for a corresponding feature region, a straight line (the coplanar condition) where the projection center of the two images and the target point are included in the same plane (coplanar condition) is used. A method of searching on the epipolar line) may be used. Thus, the characteristic regions 301a and 301b are associated with each other as characteristic regions of the same object to be photographed.
[0031]
In step S4, the three-dimensional coordinates of the target region are calculated from the characteristic region associated in step S3 by the front rear association method based on the region data D2a and the region data D3a. The spatial position of the characteristic region is determined based on the target region for which the three-dimensional coordinates have been determined in this way, and a three-dimensional region is generated. Then, from the three-dimensional area, a photographing object model that is a three-dimensional image (solid model) of the photographing object including the three-dimensional area is estimated (third step). For example, a plane perpendicular to the ground including the sides of the three-dimensional region may be generated to estimate the imaging target object model.
[0032]
The first to third steps constitute a model estimation step S5.
[0033]
In step S6, using the image data D2 and D3 captured by the computer 10, an edge image related to an edge generated by shading of the image of the imaging target is generated. As a method of generating an edge image, it is preferable to use a Canny method or the like for extracting an edge by obtaining a maximum of a gradient of a gray level of an image using a differential coefficient of a Gaussian filter. Further, as for the edge having a small gradient of the gray level, the edge connected to the edge having the large gradient of the gray level may be set as the edge.
[0034]
In step S7, a feature line segment that is an edge having a predetermined length is extracted from the edge image generated in step S6 (fourth step). As a feature line segment extraction method, for example, several types of templates are prepared in which a plurality of pixels are arranged two-dimensionally and some of the pixels indicate a part of the line segment. It is good to determine that it is a minute and extract it. FIG. 8 is a diagram showing (a) line segment data D2b generated by extracting the characteristic line segment from the image data D2 and (b) line segment data D3b generated by extracting the characteristic line segment from the image data D3 generated in step S7. is there. In FIG. 8A, as an example of the feature line segment, sides that are linear components around the roof portion having a large change in shading level in the image 300a are extracted as feature line segments 302a1 to 302a4. Similarly, in FIG. 8B, the sides around the roof portion where the change in the gray level is large in the image 300b are extracted as the characteristic line segments 302b1 to 302b4.
[0035]
In step S8, the characteristic line segments of the same object to be photographed, which are included in both the line segment data D2b and the line segment data D3b, are associated (fifth step). For example, the line segment data D2b shown in FIG. 8A includes characteristic line segments 302a1 to 302a4 extracted from the image 300a. On the other hand, the line segment data D3b shown in FIG. 8B includes the characteristic line segments 302b1 to 302b4 extracted from the image 300b. Since the image 300a and the image 300b are images relating to the building 300 (shown in FIG. 4) as the same photographing target, the characteristic line segments 302a1 to 302a4 and 302b1 to 302b4 extracted from these images are the same. Are associated with each other as characteristic line segments at the same location of the object to be photographed. As a method of this association, the shape of the characteristic line, the shading level on both sides of the characteristic line, the inclination of the characteristic line, the positional relationship with the surrounding characteristic region, the length of the characteristic line, and the like are matched. The feature line segments are associated with each other. At this time, similarly to the association of the characteristic regions, a corresponding characteristic line segment may be searched using the epipolar line.
[0036]
In step S8, the feature line segments may be associated using the three-dimensional region generated in step S4. That is, since there are relatively many feature line segments in the image data, it takes a long time to associate them, and there are many mistakes in the association. In order to solve this, when searching for a feature line segment using an epipolar line, the height component of the three-dimensional coordinates of a three-dimensional region relating to the same shooting object as the shooting object corresponding to the feature line segment is used. To narrow the search range.
[0037]
In step S9, a point corresponding to a feature point (such as an end point of the feature line segment) of the imaging target is extracted from the feature line segment associated in step S8. Then, the three-dimensional coordinates of the feature point are calculated by the front rear association method based on the line segment data D2b and the line segment data D3b. Based on the feature points for which the three-dimensional coordinates have been determined in this way, the spatial position of the feature line is determined, and a three-dimensional line segment is generated (sixth step).
[0038]
The segment generation step S10 is configured by the above fourth to sixth processes.
[0039]
Here, height distribution information of a predetermined area on the ground including the imaging target is acquired using the distance measurement unit 28 illustrated in FIG. In step S11, the distance from a plurality of points in a predetermined area on the ground including the imaging target is measured by irradiating the laser toward the ground and detecting the time until the laser is reflected and returned. . Then, height distribution information data D4 relating to the height distribution of the predetermined area is generated from the measurement result.
[0040]
In step S12, using the imaging target object model estimated in step S5, one of the three-dimensional line segments generated in step S10 that is estimated to be a three-dimensional line segment related to one imaging target is corresponded. Grouping is performed (grouping), and a three-dimensional line group is generated (line group generation step). That is, a plurality of three-dimensional line segments existing in the vicinity of the object model are grouped into a three-dimensional line group. At this time, a three-dimensional line segment group may be generated using the height distribution information data D4 generated in step S11. For example, it is assumed that a part of a certain photographing object model is missing and has a shape different from that of an actual photographing object. Even in such a case, the height distribution near the imaging target included in the height distribution information data D4 well represents the shape of the actual imaging target. Therefore, it is preferable to use the height distribution information data D4 such that a three-dimensional line segment group is generated according to the height distribution. This makes it possible to suitably generate a three-dimensional line segment group even when the imaging target object model is not accurate.
[0041]
In step S13, the three-dimensional region generated in step S4 and the three-dimensional line segment generated in step S10 are projected onto a three-dimensional coordinate space. FIG. 9 is a diagram showing a three-dimensional line segment and a three-dimensional area projected on a three-dimensional coordinate space. In this figure, three-dimensional line segments 3021 to 3024 are determined to be in the vicinity of the three-dimensional region 301 and are grouped to form a three-dimensional line group. In FIG. 9, the three-dimensional line segments are clearly shown as one line segment 3021 to 3024, but the actual three-dimensional line segment is a fine line segment and is scattered near the line segments 3021 to 3024. ing.
[0042]
In step S14, among the three-dimensional line segments included in the three-dimensional line segment group generated in step S12, a plurality of the three-dimensional line segments related to the same side included in the object to be photographed are collected into one three-dimensional line. A minute is generated (smoothing step). FIG. 10 is a diagram illustrating an example of a spatial position when the three-dimensional region and the three-dimensional line group of the same imaging target projected on the three-dimensional coordinate space in step S13 are viewed from the X direction. The diagram shown in FIG. 10 shows a three-dimensional area 301 and a three-dimensional line segment, with the Y axis on the horizontal axis and the Z coordinate on the vertical axis. In FIG. 10, the three-dimensional line segments included in the three-dimensional line segment group are scattered in a range of about 42 m to about 47 m in height. In step 14, one line segment is determined for the scattered three-dimensional line segment by a predetermined method, and the line segment is set as a new three-dimensional line segment (smoothing). As a predetermined method, for example, the mode of the height of each of a plurality of three-dimensional line segments included in a certain three-dimensional line segment group may be set as the height of the smoothed three-dimensional line segment. In the case of the three-dimensional line group shown in FIG. 10, a new three-dimensional line segment may be generated at the height of the dotted line A (about 43 m).
[0043]
At this time, among the three-dimensional line segments smoothed in step S14, a plurality of three-dimensional line segments corresponding to the same object to be photographed may include those having different heights. In such a case, it is conceivable that the surface of the subject to be photographed is inclined. Therefore, in step S15, the height of the midpoint of each of the plurality of three-dimensional line segments is defined as the average height of the three-dimensional line segments. When the height difference between the respective average heights is larger than a predetermined value, May be determined to be inclined. Then, it is preferable to give the inclination obtained from the height difference to the corresponding three-dimensional area (inclination step).
[0044]
Also, the following method may be used as step S15. That is, the inclination is given to the three-dimensional region based on the inclination information obtained when associating the characteristic regions in step S3. Alternatively, the inclination is given to the three-dimensional area based on the inclination information obtained when associating the characteristic line segments in step S8. When associating characteristic lines, if there are characteristic lines having substantially the same position and different inclinations on the image data, for example, the inclination angle of the corresponding three-dimensional line is estimated. At the same time, an inclination angle at which the coordinates of the feature points at both ends match is obtained. Thus, the inclination of the three-dimensional line segment is obtained. Further, the same can be obtained for the three-dimensional area (inclination step).
[0045]
In step S16, the photographic object model generated in step S5 is corrected (fitting step), and a three-dimensional image (solid model) of the photographic object is generated by adding elements constituting a building. As an example of the method, first, the height of the corresponding three-dimensional region is corrected based on the height of the three-dimensional line group. As shown in FIG. 10, the height of the three-dimensional region is shifted on the order of meters from the actual height (the height of the smoothed three-dimensional line segment). Therefore, when generating a three-dimensional image, it is necessary to obtain the height of the three-dimensional region again. In step S16, using the three-dimensional line segment smoothed in step S13, the three-dimensional region is corrected so as to have the same height as the three-dimensional line segment. In the case of the three-dimensional area 301 shown in FIG. 10, the height of the three-dimensional area 301 is corrected to the same height as the smoothed three-dimensional line segment (dotted line A).
[0046]
Then, by using the three-dimensional area corrected based on the height of the three-dimensional line segment group, the imaging target model estimated in step S5 is corrected, and the three-dimensional image of the imaging target is added by adding the elements constituting the building. Generate an image (solid model). FIG. 11 shows an example of the corrected photographing object model. The imaging target object model 305 is formed by adding a side wall 304 which includes one side of the three-dimensional region 303 to the corrected three-dimensional region 303 and is a plane perpendicular to the ground (the plane of Z = 0). The three-dimensional line segments 3021a to 3024a are smoothed three-dimensional line segments used when correcting the three-dimensional region 303.
[0047]
In step S17, among the solid models generated in step S16, solid models having a close positional relationship are combined (model merging step). When a plurality of solid models are close to each other in the X direction and the Y direction, it can be said that those solid models relate to the same object to be photographed. In step S17, such solid models are combined with each other to generate a model that is substantially equal to the shape of the actual photographing target. At this time, it is customary to provide an interval of 50 cm or more due to restrictions on construction work and the like, and the proximity distance for discriminating a solid model relating to the same object to be photographed is generally set to 50 cm.
[0048]
The image processing method according to the present embodiment described above has the following effects. That is, in the image processing method according to the present embodiment, the imaging target object model is corrected by using the three-dimensional line group generated by grouping the three-dimensional line segments existing near the imaging target object model. Since the three-dimensional line segment has better spatial position accuracy than the three-dimensional region, by correcting the photographing object model in this way, a photographing object model that is a three-dimensional image can be generated with high accuracy.
[0049]
Further, it is preferable that the image processing method according to the present embodiment includes a model merging step of combining imaging object models located close to each other among imaging object models corrected by the fitting step. As a result, it is possible to suitably generate an imaging target object model even for an imaging target having a complicated shape.
[0050]
Further, in the image processing method according to the present embodiment, it is preferable that the line group generation step generates a three-dimensional line group using the height distribution information. Thus, even when the three-dimensional region has a large error with respect to the shape of the surface of the imaging target corresponding to the three-dimensional region, the three-dimensional line segments can be appropriately grouped.
[0051]
Further, the image processing method according to the present embodiment includes a plurality of three-dimensional lines related to the same side included in the imaging target among the three-dimensional line segments included in the three-dimensional line group generated in the three-dimensional line group generation step. And a smoothing step of generating one three-dimensional line segment by combining the minutes. The image processing method preferably includes a smoothing step. When a plurality of three-dimensional line segments are generated for one side of the object to be photographed, it is possible to specify one three-dimensional line segment for one side. it can.
[0052]
In the image processing method according to the present embodiment, the third step of the model estimation step generates a three-dimensional area by calculating three-dimensional coordinates of the associated characteristic area. Then, an imaging target object model is estimated from the three-dimensional area. The image processing method preferably includes such a third step, whereby the imaging target object model can be appropriately estimated.
[0053]
In the image processing method according to the present embodiment, it is preferable that the height of the three-dimensional region is corrected based on the height of the three-dimensional line group grouped by the imaging target model estimated from the three-dimensional region. . As a result, the upper surface of the object to be photographed can be modeled with high accuracy, so that a model of the object to be photographed can be generated with higher accuracy.
[0054]
Further, in the image processing method according to the present embodiment, when the height difference between the three-dimensional line segments included in the three-dimensional line group is equal to or more than a predetermined value, the three-dimensional region corresponding to the three-dimensional line group is inclined. Preferably, a tilting step is provided. Alternatively, the tilting step includes tilting to a three-dimensional region corresponding to the three-dimensional line segment group based on the three-dimensional region or the three-dimensional line segment tilt information obtained when associating the image of the imaging target included in the two-dimensional image. May be given. By providing such a tilting step, it is possible to suitably generate a shooting target model of a shooting target having a tilted surface.
[0055]
Here, an image processing program according to the above-described embodiment and a computer-readable recording medium (hereinafter, simply referred to as a recording medium) that stores the image processing program will be described. Here, the recording medium causes a change state of energy such as magnetism, light, electricity, or the like to occur in a reading device provided in a hardware resource of a computer in accordance with a description content of a program, and the recording medium corresponds to the change state. It is capable of transmitting the description content of the program to the reading device in the form of a signal. Examples of such a recording medium include a magnetic disk, an optical disk, a CD-ROM, and a memory built in a computer.
[0056]
FIG. 12 is a configuration diagram of the recording medium according to the present embodiment. The recording medium 50 has a program area 50a. The image processing program 51 is recorded in the program area 50a. The image processing program 51 is an image processing program for generating a three-dimensional image based on a plurality of two-dimensional images obtained by photographing a predetermined area on the ground including a photographing object from different viewpoints in the sky.
[0057]
As shown in FIG. 12, the image processing program 51 includes a main module 51a for controlling the processing, a first processing for extracting a characteristic region corresponding to the imaging target from each of a plurality of two-dimensional images, and the same imaging target. A second process for associating a feature region corresponding to the two-dimensional image with a two-dimensional image, and calculating a three-dimensional coordinate of the associated feature region to generate a three-dimensional region, thereby obtaining a three-dimensional model of the imaging target A model estimating module 51b for causing a computer to execute a model estimating process having a third process for estimating an object model, and a fourth process for extracting a characteristic line segment corresponding to a photographing object from each of a plurality of two-dimensional images, the same Fifth processing for associating a feature line segment corresponding to the object to be photographed between two-dimensional images, and calculating three-dimensional coordinates of the associated feature line segment to calculate the three-dimensional segment A line segment generation module 51c for causing a computer to execute a line segment generation process having a sixth process to be performed; and a plurality of three-dimensional line segments present in the vicinity of the imaging target model estimated by the model estimation process are set to the height of a predetermined area. A line group generation module 51d that causes a computer to execute a line group generation process of generating a three-dimensional line group by grouping using distribution information, and 3Ds included in the three-dimensional line group generated by the three-dimensional line group generation process. A smoothing module 51e that causes a computer to execute a smoothing process of generating a single three-dimensional line by combining a plurality of three-dimensional lines related to the same side included in the imaging target among the three-dimensional lines; When the height difference between the three-dimensional line segments included in the segment group is equal to or greater than a predetermined value, a gradient is given to the three-dimensional region corresponding to the three-dimensional line segment group. By correcting the height of the three-dimensional area based on the height of the three-dimensional line group grouped by the imaging target object model estimated from the three-dimensional area, the tilt module 51f that causes the computer to execute the tilt processing. A fitting module 51g for causing a computer to execute a fitting process for correcting a shooting object model, and a model merging process for combining shooting object models located close to each other among the shooting object models corrected by the fitting process. And a model merge module 51h to be executed.
[0058]
Here, instead of the above-described tilting process, the tilt module 51f performs the three-dimensional line segment group corresponding to the three-dimensional line segment group when the height difference between the three-dimensional line segments included in the three-dimensional line segment group is equal to or more than a predetermined value. The computer may execute a tilt process for giving a tilt to the region.
[0059]
The above-described image processing method is executed by causing a computer to read and execute the above-described image processing program.
[0060]
The image processing method, the image processing program, and the computer-readable recording medium storing the image processing program according to the present invention are not limited to the above-described embodiments, and various modifications are possible. For example, in the flowchart shown in FIG. 6, in step S12, three-dimensional line segments near the object model estimated in step S5 are grouped to generate a three-dimensional line group. When grouping the three-dimensional line segments, the three-dimensional line segments that exist near the three-dimensional region generated in step S4 may be grouped as the imaging target object model.
[0061]
In the above embodiment, the image data D2 and D3 are used for image processing. The image data may use D1 and D3 or D1 and D2 in addition to this combination. The present image processing method can be performed by selecting a suitable combination from D1 to D3.
[0062]
【The invention's effect】
An image processing method, an image processing program, and a recording medium for recording the image processing method according to the present invention use a three-dimensional line group generated by grouping three-dimensional line segments existing in the vicinity of the imaging target object model. Has been corrected. Since the three-dimensional line segment has better spatial position accuracy than the three-dimensional region, by correcting the photographing object model in this way, a photographing object model that is a three-dimensional image can be generated with high accuracy.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an image processing apparatus 1 that implements an embodiment of an image processing method according to the present embodiment.
FIG. 2A is a diagram illustrating an arrangement of an imaging device on a flying object. FIG. 2B is a diagram illustrating an internal configuration of the imaging device 2.
FIG. 3 is a diagram illustrating a concept in which a photographing unit photographs a lower part from the sky.
FIG. 4 is a diagram showing the position of each line sensor at the moment when a certain point on a building is imaged.
FIG. 5A is an example of image data D2. FIG. 5B is an example of the image data D3.
FIG. 6 is a flowchart illustrating a method for generating a three-dimensional image, including the image processing method according to the present embodiment.
FIG. 7A is a diagram showing region data D2a generated in step S2. FIG. 7B is a diagram showing the area data D3a generated in step S2.
FIG. 8A is a diagram illustrating line segment data D2b obtained by extracting a characteristic line segment from image data D2 generated in step S7. FIG. 8A is a diagram showing line segment data D3b obtained by extracting a characteristic line segment from the image data D3 generated in step S7.
FIG. 9 is a diagram showing a three-dimensional line segment and a three-dimensional area projected on a three-dimensional coordinate space.
FIG. 10 is a diagram illustrating an example of a spatial position when a three-dimensional region and a three-dimensional line group of the same imaging target projected on a three-dimensional coordinate space in step S12 when viewed in the X direction.
FIG. 11 is a diagram illustrating an example of a corrected photographing target object model.
FIG. 12 is a configuration diagram of a recording medium according to the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 10 ... Computer, 11 ... Monitor, 12 ... Keyboard, 13 ... Mouse, 2 ... Imaging device, 20 ... Data processing part, 21 ... Hard disk, 27 ... Imaging part, 27F, 27N, 27B ... Line sensor , 28... Distance measuring unit, 28 a.

Claims (10)

撮影対象物を含む地上の所定エリアを上空の異なる視点から撮影して得られた複数の2次元画像に基づいて3次元画像を生成する画像処理方法であって、
前記複数の2次元画像それぞれから、前記撮影対象物に対応する特徴領域を抽出する第1工程と、同一の前記撮影対象物に対応する前記特徴領域を前記2次元画像間で対応付ける第2工程と、対応付けられた前記特徴領域の形状及び空間位置を利用して撮影対象物の3次元モデルである撮影対象物モデルを推定する第3工程とを有するモデル推定ステップと、
前記複数の2次元画像それぞれから、前記撮影対象物に対応する特徴線分を抽出する第4工程と、同一の前記撮影対象物に対応する前記特徴線分を前記2次元画像間で対応付ける第5工程と、対応付けられた前記特徴線分の3次元座標を算出して3次元線分を生成する第6工程とを有する線分生成ステップと、
前記モデル推定ステップにより推定された前記撮影対象モデルの近傍に存在する複数の前記3次元線分をグルーピングして3次元線分群を生成する線分群生成ステップと、
前記線分群生成ステップにより生成された前記3次元線分群に基づいて、前記撮影対象物モデルを修正するフィッティングステップと
を備えることを特徴とする画像処理方法。
An image processing method for generating a three-dimensional image based on a plurality of two-dimensional images obtained by shooting a predetermined area on the ground including a shooting target from different viewpoints in the sky,
A first step of extracting a characteristic region corresponding to the imaging target from each of the plurality of two-dimensional images, and a second step of associating the characteristic region corresponding to the same imaging target with the two-dimensional images A model estimation step including: a third step of estimating an imaging target object model that is a three-dimensional model of the imaging target object using the shape and spatial position of the associated characteristic region.
A fourth step of extracting, from each of the plurality of two-dimensional images, a characteristic line corresponding to the imaging target; and a fifth step of associating the characteristic line corresponding to the same imaging target with the two-dimensional images. A line segment generating step comprising: a step; and a sixth step of calculating three-dimensional coordinates of the associated characteristic line to generate a three-dimensional line segment.
A line group generation step of grouping a plurality of the three-dimensional line segments present in the vicinity of the imaging target model estimated by the model estimation step to generate a three-dimensional line group;
A fitting step of correcting the photographing object model based on the three-dimensional line segment group generated in the line group generation step.
前記フィッティングステップにより修正された前記撮影対象物モデルのうち、互いに近傍に位置する前記撮影対象物モデル同士を結合するモデルマージステップをさらに備えることを特徴とする請求項1に記載の画像処理方法。The image processing method according to claim 1, further comprising: a model merging step of combining the photographing object models located near each other among the photographing object models corrected by the fitting step. 前記線分群生成ステップは、前記所定エリアの高さ分布情報を利用して前記3次元線分群を生成することを特徴とする請求項1に記載の画像処理方法。The image processing method according to claim 1, wherein in the line group generation step, the three-dimensional line group is generated using height distribution information of the predetermined area. 前記3次元線分群生成ステップにより生成された前記3次元線分群に含まれる前記3次元線分のうち、前記撮影対象物に含まれる同一の辺に関する複数の前記3次元線分をまとめて1本の3次元線分を生成するスムージングステップをさらに備えることを特徴とする請求項1に記載の画像処理方法。Among the three-dimensional line segments included in the three-dimensional line segment group generated in the three-dimensional line segment group generation step, a plurality of the three-dimensional line segments related to the same side included in the imaging target are collectively collected into one. The image processing method according to claim 1, further comprising a smoothing step of generating a three-dimensional line segment. 前記モデル推定ステップの前記第3工程は、対応付けられた前記特徴領域の3次元座標を算出して3次元領域を生成することにより前記撮影対象物モデルを推定することを特徴とする請求項1に記載の画像処理方法。The method according to claim 1, wherein the third step of the model estimating step estimates the imaging target object model by calculating three-dimensional coordinates of the associated characteristic region and generating a three-dimensional region. 2. The image processing method according to 1., 前記フィッティングステップは、前記3次元領域の高さを、当該3次元領域から推定された前記撮影対象物モデルによりグルーピングされた前記3次元線分群の高さに基づいて修正することにより前記撮影対象物モデルを修正することを特徴とする請求項5に記載の画像処理方法。The fitting step corrects the height of the three-dimensional region based on the height of the three-dimensional line group grouped by the three-dimensional object model estimated from the three-dimensional region, and thereby adjusts the height of the three-dimensional region. The image processing method according to claim 5, wherein the model is modified. 前記3次元線分群に含まれる前記3次元線分同士の高低差が所定の値以上であるときに、前記3次元線分群に対応する前記3次元領域に傾斜を与える傾斜ステップをさらに備えることを特徴とする請求項5に記載の画像処理方法。A step of inclining the three-dimensional area corresponding to the three-dimensional line segment group when a height difference between the three-dimensional line segments included in the three-dimensional line segment group is equal to or more than a predetermined value. The image processing method according to claim 5, wherein: 前記2次元画像に含まれる前記撮影対象物の画像を対応付ける際に得られる前記3次元領域または前記3次元線分の傾斜情報に基づいて、前記3次元線分群に対応する前記3次元領域に傾斜を与える傾斜ステップをさらに備えることを特徴とする請求項5に記載の画像処理方法。Tilting the three-dimensional region corresponding to the three-dimensional line segment group based on the three-dimensional region or the three-dimensional line segment tilt information obtained when associating the image of the imaging target included in the two-dimensional image The image processing method according to claim 5, further comprising a tilting step of: 請求項1〜8のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。An image processing program for causing a computer to execute the image processing method according to claim 1. 請求項1〜8のいずれか1項に記載の画像処理方法をコンピュータに実行させる画像処理プログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。A computer-readable recording medium having recorded thereon an image processing program for causing a computer to execute the image processing method according to claim 1.
JP2002188419A 2002-06-27 2002-06-27 Image processing method, image processing program, and computer readable recording medium with the program recorded thereon Pending JP2004030440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002188419A JP2004030440A (en) 2002-06-27 2002-06-27 Image processing method, image processing program, and computer readable recording medium with the program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002188419A JP2004030440A (en) 2002-06-27 2002-06-27 Image processing method, image processing program, and computer readable recording medium with the program recorded thereon

Publications (1)

Publication Number Publication Date
JP2004030440A true JP2004030440A (en) 2004-01-29

Family

ID=31183172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002188419A Pending JP2004030440A (en) 2002-06-27 2002-06-27 Image processing method, image processing program, and computer readable recording medium with the program recorded thereon

Country Status (1)

Country Link
JP (1) JP2004030440A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105092608A (en) * 2015-09-24 2015-11-25 哈尔滨工业大学 Removing method for twin image in terminal optical element damage on-line detection
WO2017145634A1 (en) * 2016-02-23 2017-08-31 株式会社リコー Image processing device, imaging device, system for controlling mobile body, image processing method, and program
CN111489439A (en) * 2020-04-15 2020-08-04 京东方科技集团股份有限公司 Three-dimensional line graph reconstruction method and device and electronic equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105092608A (en) * 2015-09-24 2015-11-25 哈尔滨工业大学 Removing method for twin image in terminal optical element damage on-line detection
CN105092608B (en) * 2015-09-24 2017-11-03 哈尔滨工业大学 The elimination method of twin image in final-optics element damage on-line checking
WO2017145634A1 (en) * 2016-02-23 2017-08-31 株式会社リコー Image processing device, imaging device, system for controlling mobile body, image processing method, and program
JPWO2017145634A1 (en) * 2016-02-23 2018-12-06 株式会社リコー Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US10776633B2 (en) 2016-02-23 2020-09-15 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
CN111489439A (en) * 2020-04-15 2020-08-04 京东方科技集团股份有限公司 Three-dimensional line graph reconstruction method and device and electronic equipment

Similar Documents

Publication Publication Date Title
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
US7509241B2 (en) Method and apparatus for automatically generating a site model
JP6733267B2 (en) Information processing program, information processing method, and information processing apparatus
CN104574393B (en) A kind of three-dimensional pavement crack pattern picture generates system and method
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP4058293B2 (en) Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model
JP6534296B2 (en) Three-dimensional model generation device, three-dimensional model generation method, and program
JP5834933B2 (en) Vehicle position calculation device
CN112862966B (en) Method, device, equipment and storage medium for constructing surface three-dimensional model
JP6135972B2 (en) Orientation method, orientation program, and orientation device
JP5396585B2 (en) Feature identification method
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
KR101393273B1 (en) System for advanced road texture image
JP2004030440A (en) Image processing method, image processing program, and computer readable recording medium with the program recorded thereon
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
JP4035018B2 (en) Shape acquisition method, apparatus, program, and recording medium recording this program
Briese et al. Analysis of mobile laser scanning data and multi-view image reconstruction
JP4675368B2 (en) Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
Hsu Geocoded terrestrial mosaics using pose sensors and video registration
KR101907057B1 (en) Device and Method for Depth Information Compensation by Sphere Surface Modeling
JP7467722B2 (en) Feature Management System
JP3691401B2 (en) Method and apparatus for automatically acquiring and restoring the surface of an object to be photographed
JP2004030011A (en) Three-dimensional form data acquisition system and method
JP2004030462A (en) Method, apparatus and program for processing image, and computer readable recording medium with the same program recorded thereon