JP2009271650A - 地物特定方法 - Google Patents
地物特定方法 Download PDFInfo
- Publication number
- JP2009271650A JP2009271650A JP2008120165A JP2008120165A JP2009271650A JP 2009271650 A JP2009271650 A JP 2009271650A JP 2008120165 A JP2008120165 A JP 2008120165A JP 2008120165 A JP2008120165 A JP 2008120165A JP 2009271650 A JP2009271650 A JP 2009271650A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- photographing
- image
- point
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000000605 extraction Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 27
- 101001021281 Homo sapiens Protein HEXIM1 Proteins 0.000 description 7
- 101000693265 Homo sapiens Sphingosine 1-phosphate receptor 1 Proteins 0.000 description 7
- 102100025750 Sphingosine 1-phosphate receptor 1 Human genes 0.000 description 7
- 101100153168 Arabidopsis thaliana TIC21 gene Proteins 0.000 description 5
- 101100273813 Homo sapiens CDKN1A gene Proteins 0.000 description 5
- 108700038981 SUMO-1 Proteins 0.000 description 5
- 101100083337 Schizosaccharomyces pombe (strain 972 / ATCC 24843) pic1 gene Proteins 0.000 description 5
- 102100026940 Small ubiquitin-related modifier 1 Human genes 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 102000004137 Lysophosphatidic Acid Receptors Human genes 0.000 description 4
- 108090000642 Lysophosphatidic Acid Receptors Proteins 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000013256 coordination polymer Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】 車両に搭載したビデオカメラ122で走行しながら建物を撮影し、フレーム画像を切り出す。複数のフレーム画像に共通して写された建物について、ステレオマッチングにより、撮影位置から建物までの撮影距離を算出する。地図データを参照して、被写体としての候補建物を抽出し、候補建物の中から、建物の表面から撮影距離だけ離れた位置に撮影位置を設置することで得られる撮影位置が、適正な撮影可能な地点に来るものを絞り込む。また、この中から、撮影した画像から算出できる建物幅に適合する建物に更に絞込をかける。こうすることで、画像内の建物を地図データ上で特定することが可能となる。
【選択図】 図1
Description
これらの技術では、カメラを設置した車両で、走行しながら建造物を撮影する。カメラは、車両の真横に位置する建造物が画角内に入るように斜め前、斜め後ろに向けて2台設置されている。この状態で移動しながら撮影すると、同一の建物を複数の地点で撮影することになる。従って、三角測量と同じ原理によって、建物までの距離等を算出することができるのである。
従って、撮影した画像をもとに3次元モデルを生成したとしても、生成対象となった建物を、2次元の地図上で特定することは、容易ではなかった。
本発明は、かかる課題に鑑み、撮影された画像内の建物その他の地物を地図データ上で特定可能とすることを目的とする。
本発明では、コンピュータは、まず、地物を撮影した画像を表す画像データと、撮影を行った撮影地点を表す撮影地点情報とを入力する。
撮影地点情報は、後述する地図データを実効的な範囲で参照できる程度に、撮影を行った地点を限定できる情報であればよい。例えば、緯度経度などの座標情報としてもよいし、街区などの住所情報、撮影を行った道路名などとしてもよい。緯度経度などの座標情報は、例えば、GPS(Global Positioning System)やジャイロ等を用いて検出することができる。
候補地物の抽出は、例えば、次の手順で行うことができる。
まず撮影地点から撮影距離だけ離れた被写地点を求め、この被写地点を含む地物を特定する。撮影されているのは地物の表面であるから、被写地点が地物の内部に存在することはあり得ない。従って、地物の内部に被写地点が存在する場合には、撮影地点に誤差があるものとして、被写地点が地物の表面に一致するよう撮影地点を修正する。
次に、修正後の撮影地点が撮影可能な地点か否かを判断する。例えば、車両に搭載したカメラで地物を撮影している場合には、修正後の撮影地点が、車両が走行可能な位置となっているか否かを判断すればよい。この判断時には、地図データに基づいて、修正後の撮影地点から地物を見通すことができるか否かを考慮してもよい。修正後の撮影地点が、撮影可能な地点となっている場合には、その地物が候補地物として抽出される。
抽出された候補地物の周辺に存在する地物についても同様に、その地物の表面から撮影距離だけ離れた撮影地点を求め、撮影可能な地点か否かを判断することで、候補地物に追加してもよい。撮影地点に誤差が含まれている場合には、最初に特定された候補地物が正しいとは限らないからである。
例えば、画像に基づいて地物の3次元モデルを生成した場合、生成された3次元モデルを2次元地図データと関連づけることによって、容易に絶対座標を特定することが可能となるため、3次元の地図データを比較的容易に生成することができるようになる。また、撮影した画像から地物の表面に相当する部分を切り出し、生成済みの3次元モデルに貼り付けるためのテクスチャを生成してもよい。更に、車両で撮影した画像内で目的地となる建物を指示することにより、経路探索の目的地を容易に指定可能としてもよい。
コンピュータは、候補地物のうち、地物の画像において設定される複数の代表点間の実距離を求める。実距離とは、画像内の代表点間の距離を、画角等に基づいて現実の距離に換算したものを言う。コンピュータは、この実距離に適合する地物を候補として絞り込むことができる。
こうすることによって、地物自体の寸法を考慮して、地物の候補を絞り込むことができる。代表点は任意に設定可能である。例えば、オペレータが指定してもよいし、画像処理によって特徴点を抽出してもよい。
このように代表点を設定することによって、移動方向に直交する方向では撮影距離に基づいて地物候補を絞り込み、移動方向に沿う方向では実距離に基づき地物自体の寸法を考慮した絞り込みを行うことができる。2方向の距離で絞り込むことにより、効果的な絞り込みが可能となる利点がある。
この場合には、被写体の地物表面における代表点の位置が限定されるため、候補地物を精度良く絞り込むことが可能となる利点がある。
この方法では、コンピュータは、複数地点で同一の地物を撮影した画像について、画像データ、撮影地点情報、および該撮影を行う際の撮影条件を入力しておく。例えば、移動しながら撮影した動画を構成する複数のフレーム画像を用いることができる。この方法では、撮影地点情報は、複数の地点間の距離を特定可能な情報とする。撮影条件としては、撮影時のカメラの方向、画角が含まれる。
これらのデータが得られている場合には、コンピュータは、複数の画像データ、撮影地点情報および撮影条件に基づいて、撮影距離を解析することができる。撮影地点情報に基づき複数地点間の移動距離が求まるから、画像データ内で被写体の地物が特定されると、撮影条件を考慮することにより、三角測量と同じ原理によって地物までの撮影距離を解析することができるのである。
本発明は、上述した地物特定方法の他、かかる方法を実現する地物特定装置として構成してもよい。また、地物特定方法をコンピュータによって実現するためのコンピュータプログラムとして構成してもよい。
更に、これらのコンピュータまたは経路案内データベースを記録するコンピュータ読み取り可能な記録媒体として構成してもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等、コンピュータが読取り可能な種々の媒体を利用できる。
A.処理概要:
B.装置構成:
C.撮影位置の特定:
D.建物特定処理:
図1は本実施例における処理概要を示す説明図である。
本実施例では、車両で道路を走行しながら、搭載したビデオカメラで街中の画像を撮影する。左側に撮影したビデオ画像を構成するフレーム画像の例を示した。画像内の2次元座標をu,vとする。
このフレーム画像内で、オペレータが特定の建物上の一点を指定した場合を考える。図中の例では、座標点(Up、Vp)の点Pが指定されている。
2次元地図データによって、点Pが建物BLDを指示していることが分かれば、3次元モデルにおいても、建物BLD上に点Pを表示することが可能となる。
また、フレーム画像から建物の表面画像を切り出して、3次元モデルの建物BLDの表面にテクスチャとして貼り付けることも可能となる。
本実施例では、このようにビデオカメラで撮影された画像内の建物を、2次元地図データおよび3次元モデル内で特定するための建物特定システムおよび建物特定処理を開示する。
本実施例では、建物を特定する場合を例示するが、本実施例で開示する方法は、建物に限らず、橋や高速道路、崖など2次元地図データ上で輪郭形状を明確に認識可能な人工および自然の地物に適用可能である。
図2は実施例としての建物特定システムの構成を示す説明図である。このシステムは、画像を撮影するための画像データ取得装置100と、その処理をして撮影された画像内の建物を特定するための建物特定装置200から構成されている。
本実施例では、両者を別体の構成としたが、単一の装置として構成してもよい。また、建物特定装置200を多数の装置からなる分散処理システムとして構成してもよい。
広範囲・高精細の画像を効率的に取得するため、ビデオカメラ122は、ハイビジョンの広角カメラを利用することが好ましい。
もっとも、後述する通り、GPS102の出力は、撮影位置の解析に必須のデータではないため、GPS102を省略することも可能である。
車速センサ104は、車両が一定距離移動する度に車速パルスと呼ばれる信号を出力する。
本実施例では、撮影位置の精度を向上させるため、撮影中に基準位置、即ち緯度経度が既知の位置を通過した時点で、通過した時刻および基準位置の情報を記録するものとした。基準位置としては、例えば、既知の交差点の横断歩道などとすることができる。
車速パルスおよび基準位置パルスも、画像データと併せてハードディスク114に記録される。以下、これらのデータを「撮影データ」と総称することもある。
本実施例では、ディスプレイ上に表示された地図112dにおいて、オペレータが記録すべき基準位置をマウス等でクリックすると、クリックされた時刻および基準位置の情報が記録される構成とした。地図表示に必要となる地図データは、ハードディスク114、やCD−ROMなどの記録媒体に予め記録しておくようにしてもよいし、無線のネットワークを介して外部サーバから取得するようにしてもよい。
基準位置情報の入力は、上述の方法に限らず、緯度経度などの情報をキーボード等から直接入力するようにしてもよいし、記録すべき基準位置が予め設定されている場合には、それぞれの基準位置に対応づけられたコードを入力してもよい。更には、撮影時には基準位置情報の入力を省略し、単に通過時刻のみを入力するようにしてもよい。
建物特定装置200は、汎用のコンピュータに、画像データ処理用のコンピュータプログラムをインストールして構成されている。
上述のコンピュータプログラムのインストールにより、建物特定装置200には、図示する種々の機能ブロックが構成される。もっとも、これらの機能ブロックの少なくとも一部は、ASICなどによってハードウェア的に構成することも可能である。
画像データ取得装置100から建物特定装置200へのデータの転送は、リムーバブルハードディスク114aを用いるものとした。かかる方法に限らず、DVDその他の記録媒体を用いても良いし、ネットワーク経由で転送するようにしてもよい。
先に説明した通り、本実施例では、撮影時に、基準位置情報および車速パルスも併せて記録されている。車速パルスは、車両が一定距離移動する度に出力される信号であるため、車両の移動距離を表す信号となる。
基準位置情報は、予め既知の基準位置を通過した時刻を表す情報である。これらの情報を考慮すれば、基準位置からの経過時間と移動距離との関係を特定することができる。この処理については、後述する。
従って、この移動距離に適合するように、GPS102で出力された緯度経度を修正することによって位置精度を向上させることができる。こうして設定された各時刻における位置情報はフレーム画像抽出部208に受け渡される。
ステレオマッチング部210は、同一の建物を写した複数のフレーム画像が撮影された位置情報に基づいてステレオマッチングによって、撮影位置から建物までの距離(以下、「撮影距離」と称する)を算出する。
画像内に多数の建物が写っている場合には、処理対象となる建物をオペレータが指示する。オペレータの指示に代えて、画像の中央付近に写っている建物や、画像内で最大面積の建物などの条件に従って、処理対象となる建物を自動的に設定するようにしてもよい。
ステレオマッチングによる距離の算出方法については後述する。
こうして算出された撮影距離は候補建物抽出部212、候補建物絞込部214にそれぞれ受け渡される。
この処理で用いられる地図データベース230には、2次元地図データ231、3次元モデル232が格納されている。2次元地図データ231は、図1の右上に示したように、2次元平面内で各地物の形状および位置を表した地図データである。3次元モデルは、図1の右下に示したように、建物を3次元的に表示するためのモデルである。本実施例では、3次元モデルは、2次元地図データ231と関連づけられているものとして説明する。
候補建物の抽出時には、2次元地図データ231を参照する。候補を抽出するための処理については、後述する。
2次元地図データ231に基づいて特定された建物の絶対座標を取得し、この絶対座標に対応する3次元モデル232を選択するようにすれば、2次元地図データ231と3次元モデル232が関連づけられていない場合でも、3次元モデル232の特定は可能である。
テクスチャ取得部216の機能は、フレーム画像を活用する一例にすぎず、建物特定装置200に必須の機能ではない。
フレーム画像を活用するために、他の機能ブロックを設けても良い。例えば、図1に示したように、3次元モデルの形状が不完全な場合には、フレーム画像に適合するように3次元モデルを修正させるようにしてもよい。
図3は撮影位置の特定方法を示す説明図である。ビデオカメラ122で撮影された動画像を構成するフレームデータ、および車速パルス、基準位置パルスの関係を示した。図の上方のデータ群Tには、これらの各種データを時間基準で配置した状態を示した。
フレームデータは、任意の時刻に撮影された静止画の集合を用いることもできる。この場合、時間間隔は不定であっても良い。
データ群Tは時間基準で並べたものであるため、車速パルスの間隔は車両の移動速度に応じて変化する。例えば、パルスP1、P2の間が狭いのは移動速度が比較的高かいからである。逆に、パルスP2、P3の間が広いのは移動速度が遅いからである。
t1:t2=r1:r2;
t1…データ群Tにおける車速パルスP1とフレームFr2との間の時間;
t2…データ群Tにおける車速パルスP2とフレームFr2との間の時間;
r1…データ群Rにおける車速パルスP1とフレームFr2との間の距離;
r2…データ群Rにおける車速パルスP2とフレームFr2との間の距離;
他の各フレームデータおよび基準位置パルスも同様である。
こうすることにより、データ群Rに示すように、各フレームデータを撮影時の軌跡に沿って配置すること、即ち軌跡に沿う方向の位置を特定することが可能となる。
また、本実施例では、撮影位置はGPS102でも取得されているため、その誤差範囲内で、各フレームデータFr1〜Fr10の位置は特定されており、概ねの走行軌跡は既知である。
従って、GPS102によって得られた走行軌跡に沿って、フレームデータFr4を基準位置として、各フレームデータをデータ群Rで得られる移動距離に対応した位置に配置することによって、各フレームの撮影位置を、より精度良く特定することができる。
図4は建物特定処理のフローチャートである。建物特定装置200のCPUが実行する処理である。
処理を開始すると、CPUはフレーム画像および位置情報を入力する(ステップS10)。併せてビデオカメラ122の姿勢、画角などの情報も、この段階で入力してもよい。
そして、CPUは、建物の特徴点(図1の点P参照)の指定を受け付ける(ステップS12)。本実施例では、フレーム画像を表示し、オペレータが、マウス等のポインティングデバイスを用いて画面内で特徴点を指示するものとした。特徴点は建物内部の点であれば任意に指定可能である。
オペレータによる指示に代えて、CPUがエッジ抽出などの画像処理によって特徴点を抽出するようにしてもよい。
次に、CPUはステレオマッチング処理によって撮影距離を算出する(ステップS14)。
図の下方に示す通り、この時点でのフレーム画像PIC1には、建物BLD1、BLD2が撮影される。点P2に移動すると、破線で示す画角で建物が撮影される。点P1、P2でそれぞれ撮影されたフレーム画像を比較すると、建物BLD1のコーナーCNRの位置が相対的に移動する。
点P1とコーナーCNRを結ぶ線と画角の端線とのなす角度を角度A2とすると、点P1の時点では、コーナーCNRに対応するエッジEDG1はフレーム画像PIC1の幅SCをA2/A1で内分した点に写る。
点P2の時点では、角度A2が大きくなるため、エッジEDG1の位置はフレーム画像内で図中右方向に移動する。この移動距離をMBとする。
点P1から点P2までの移動距離MAは既知である。移動距離MAは、点P1、点P2の位置座標から算出してもよいし、図3に示した通り車速パルスによって得られたフレーム間の距離を用いても良い。
こうして移動距離MA、MBおよび画角A1が求まると、これらの値に基づき、幾何学的に撮影位置からコーナーCNRまでの撮影距離DISTを決定することができる。
エッジEDG1に対して行ったのと同様の処理は、建物BLD1の他方のエッジEDG2に対しても行うことができる。
また、距離DISTが求まれば、画角A1に基づき、エッジEDG1、EDG2間の実際の距離、即ち建物BLD1の幅を特定することができる。
ステレオマッチング処理(ステップS14)によって撮影距離が求まると、CPUは位置情報に基づき候補建物を抽出する(ステップS16)。まず、CPUは、処理対象となっているフレーム画像の位置情報から、撮影距離だけずれた地点(以下、「被写地点」と呼ぶ)を求める。そして、被写地点が含まれる建物を主候補建物として抽出する。
本実施例では、撮影の位置情報には誤差が含まれている。従って、上述の主候補建物に対して進行方向に隣接する数個の建物も候補建物として抽出する。周辺の建物を抽出する範囲は、撮影の位置情報に含まれる誤差範囲を考慮して設定すればよい。本実施例では、図3に示した通り、車速パルスを活用して位置情報の修正を行っているため、比較的、位置情報の精度は高い。従って、候補建物は、主候補建物に隣接するもののみを抽出した。位置情報の精度が低い場合には、主候補建物に対して、車両の進行方向および逆方向に数個ずつ隣接する建物を抽出するようにしてもよい。
こうして抽出された候補建物は、候補建物データに格納される。
ステップS18、S20の処理内容について、具体例を示しながら説明する。
道路RDを走行しながら撮影した画像に基づくステレオマッチング処理によって、撮影距離DISTが得られているとする。
フレーム画像の撮影位置が、点C21であるとすると、この点から撮影距離DISTだけ離れた点P2が被写位置となる。そして、被写位置P2を含む建物B2が主候補建物として抽出される。
また、主候補建物の両側に隣接する建物B1、B3がそれぞれ候補建物として抽出される。
点C11、C31が撮影位置であるとすれば、そこから撮影距離DISTだけ離れた点P1、P3がそれぞれ被写位置になると考えられる。
つまり、特徴点はフレーム画像に撮影された候補建物B1〜B3の表面の点であるから、被写位置は候補建物B1〜B3の道路RD側の面上に位置するはずである。かかる状態が実現されるよう、被写位置P1〜P3を道路RDに交差する方向に移動させるのである。この修正後も撮影距離DISTは維持されるはずであるから、撮影位置C11、C21、C31も同様に移動させる。
例えば、候補建物B1については、ベクトルV11で示すように被写位置P1を点Q1に移動させる。そして、ベクトルV11を撮影位置C11に適用することによって(図中のベクトルV12)、撮影位置C12を得る。
同様にして候補建物B2については、ベクトルV21で示すように被写位置P2を点Q2に移動させる。そして、ベクトルV21を撮影位置C21に適用することによって(図中のベクトルV22)、撮影位置C22を得る。
候補建物B3については、ベクトルV31で示すように被写位置P3を点Q3に移動させる。そして、ベクトルV31を撮影位置C31に適用することによって(図中のベクトルV32)、撮影位置C32を得る。
図6の例では、撮影位置C12は道路RDから外れているため、不適切である。撮影位置C21、C31は道路RD上にあるため、不適切とは言えない。従って、候補建物B1は、候補から除外され、建物B2、B3が候補建物として抽出されることになる。
この例では、道路RDからはみ出しているか否かで判断したが、撮影位置の適否の判断条件は種々の設定が可能である。例えば、撮影位置が道路RDの反対車線に入るか否かという条件や、道路RDの特定の車線からはみ出すか否かなどの条件、他の建物に邪魔されずに候補建物を見通すことができるか否かなどの条件を用いても良い。
ステップS20までの処理によって、候補建物が一つに絞り込まれている場合には(ステップS22)、CPUは、抽出した結果を出力して(ステップS26)、処理を終了する。
一つに絞り込まれていない場合には(ステップS22)、CPUは、更に進行方向の整合性による絞込みを行い(ステップS24)、候補建物を一つに絞り込んだ上で、結果を出力して(ステップS26)、処理を終了する。
先に説明した通り、図6の処理例では、建物B2、B3が候補建物として抽出されている。
本実施例では、フレーム画像PIC1内で特徴点が2点指定されており、ステレオマッチング処理によって2点間の距離が求められている(図5参照)。図6中に示す通り、この処理例では、フレーム画像PIC1において建物の両端のエッジEDG1、EDG2上の2点が指定されているものとし、その間の距離はW1と求められているとする。
CPUは、候補建物B2,B3の進行方向の幅W2、W3を、上述の距離W1と比較する。距離W1=W3であるとすると、この比較によって、候補建物B3が指定された建物であると特定することができる。
例えば、建物の両端以外の2点が特徴点として指定されたとする。この場合でも、指定された特徴点間の距離(図6中のW1に相当する距離)はステレオマッチングによって支障なく求めることができる。両端以外の点が指定されている場合には、候補建物B2、B3のうち、この距離以上の幅を有しているものを抽出すればよい。「W3<特徴点間の距離≦W2」なる範囲にある場合には、候補建物B2が指定された建物であると特定することが可能である。
これらの情報が得られている場合には、図6で説明したのと同じ手順で絞込みを行うことができる。つまり、フレーム画像に基づいて特徴点間の高さ方向の間隔を求めた上で、この間隔以上の高さを有している建物を抽出すればよい。
(2) 実施例では、車速パルス等を用いて撮影位置を比較的精度良く解析する例を示した。図6に示したように、本実施例では、種々の条件を組み合わせて候補建物を抽出することができる。従って、撮影位置は、必ずしも厳密に解析されている必要はなく、撮影位置は、地図データを実効的な範囲で参照できる程度に、つまり図6で示した処理を許容される時間内で完了できる程度に撮影を行った地点を限定できる情報であればよい。
102…GPS
104…車速センサ
110…制御部
112…基準位置入力部
112d…地図
114…ハードディスク
114a…リムーバブルハードディスク
122…ビデオカメラ
200…建物特定装置
202…コマンド入力部
204…軌跡設定部
206…データ入力部
208…フレーム画像抽出部
210…ステレオマッチング部
212…候補建物抽出部
214…候補建物絞込部
216…テクスチャ取得部
220…ネットワークデータベース
230…地図データベース
231…2次元地図データ
232…3次元モデル
Claims (7)
- 地物を撮影して得られた画像に基づいて、撮影された地物をコンピュータによって特定する地物特定方法であって、該コンピュータが実行する工程として、
(a) 前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する工程と、
(b) 前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める工程と、
(c) 地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する工程とを備える地物特定方法。 - 請求項1記載の地物特定方法であって、更に、
(d) 前記候補地物のうち、前記地物の画像において設定される複数の代表点間の実距離を求め、該実距離に適合する地物を候補として絞り込む工程を備える地物特定方法。 - 請求項2記載の地物特定方法であって、
前記画像は道路を移動しながら、該移動の方向に直交する向きに撮影されたものであり、
前記複数の代表点間の実距離は、前記移動の方向に沿う成分を有する地物特定方法。 - 請求項3記載の地物特定方法であって、
前記代表点は、前記移動の方向における前記地物の両端を含む地物特定方法。 - 請求項1〜4いずれか記載の地物特定方法であって、
前記工程(a)は、複数地点で同一の地物を撮影した複数の画像について、画像データ、撮影地点情報、および該撮影を行う際の撮影条件を入力し、
前記工程(b)は、前記複数の画像データ、撮影地点情報および撮影条件に基づいて、前記撮影距離を解析する工程である地物特定方法。 - 地物を撮影して得られた画像に基づいて撮影された地物を特定する地物特定装置であって、
前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する入力部と、
前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める撮影距離取得部と、
地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する候補地物抽出部とを備える地物特定装置。 - 地物を撮影して得られた画像に基づいて撮影された地物をコンピュータによって特定するためのコンピュータプログラムであって、
前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する入力サブプログラムと、
前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める撮影距離取得サブプログラムと、
地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する候補地物抽出サブプログラムとを供えるコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008120165A JP5396585B2 (ja) | 2008-05-02 | 2008-05-02 | 地物特定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008120165A JP5396585B2 (ja) | 2008-05-02 | 2008-05-02 | 地物特定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009271650A true JP2009271650A (ja) | 2009-11-19 |
JP5396585B2 JP5396585B2 (ja) | 2014-01-22 |
Family
ID=41438164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008120165A Active JP5396585B2 (ja) | 2008-05-02 | 2008-05-02 | 地物特定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5396585B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215974A (ja) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 画像処理システム |
JP2013534449A (ja) * | 2010-07-12 | 2013-09-05 | 3シェイプ アー/エス | テクスチャ的特徴を用いる物体の3dモデル化方法 |
JP2013222335A (ja) * | 2012-04-17 | 2013-10-28 | Hitachi Ltd | 対象物特定システム、対象物特定サーバ及び対象物特定端末 |
JP2016540187A (ja) * | 2013-09-27 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 外部ハイブリッドフォトマッピング |
JP2019028617A (ja) * | 2017-07-27 | 2019-02-21 | 株式会社ゼンリン | 移動体制御システム及び移動体制御方法 |
JP2019160227A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社Lifull | 情報提供システム、サーバ装置、及び情報提供方法 |
CN112348886A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉定位方法、终端和服务器 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119797A (ja) * | 2004-10-20 | 2006-05-11 | Sony Ericsson Mobilecommunications Japan Inc | 情報提供システムおよび携帯端末 |
WO2006114955A1 (ja) * | 2005-04-25 | 2006-11-02 | Geo Technical Laboratory Co., Ltd. | 撮影位置解析方法 |
-
2008
- 2008-05-02 JP JP2008120165A patent/JP5396585B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119797A (ja) * | 2004-10-20 | 2006-05-11 | Sony Ericsson Mobilecommunications Japan Inc | 情報提供システムおよび携帯端末 |
WO2006114955A1 (ja) * | 2005-04-25 | 2006-11-02 | Geo Technical Laboratory Co., Ltd. | 撮影位置解析方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215974A (ja) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 画像処理システム |
JP2013534449A (ja) * | 2010-07-12 | 2013-09-05 | 3シェイプ アー/エス | テクスチャ的特徴を用いる物体の3dモデル化方法 |
US10776533B2 (en) | 2010-07-12 | 2020-09-15 | 3Shape A/S | 3D modeling of a dental restoration using textural features |
JP2013222335A (ja) * | 2012-04-17 | 2013-10-28 | Hitachi Ltd | 対象物特定システム、対象物特定サーバ及び対象物特定端末 |
JP2016540187A (ja) * | 2013-09-27 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 外部ハイブリッドフォトマッピング |
US9947100B2 (en) | 2013-09-27 | 2018-04-17 | Qualcomm Incorporated | Exterior hybrid photo mapping |
JP2019028617A (ja) * | 2017-07-27 | 2019-02-21 | 株式会社ゼンリン | 移動体制御システム及び移動体制御方法 |
JP7020813B2 (ja) | 2017-07-27 | 2022-02-16 | 株式会社ゼンリン | 移動体制御システム及びプログラム |
JP2019160227A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社Lifull | 情報提供システム、サーバ装置、及び情報提供方法 |
CN112348886A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 视觉定位方法、终端和服务器 |
CN112348886B (zh) * | 2019-08-09 | 2024-05-14 | 华为技术有限公司 | 视觉定位方法、终端和服务器 |
US12046001B2 (en) | 2019-08-09 | 2024-07-23 | Huawei Technologies Co., Ltd. | Visual localization method, terminal, and server |
Also Published As
Publication number | Publication date |
---|---|
JP5396585B2 (ja) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5309291B2 (ja) | 撮影位置解析方法 | |
JP5832341B2 (ja) | 動画処理装置、動画処理方法および動画処理用のプログラム | |
US8625851B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
JP4889351B2 (ja) | 画像処理装置及びその処理方法 | |
JP5362189B2 (ja) | 画像処理装置及びその処理方法 | |
JP5396585B2 (ja) | 地物特定方法 | |
JP6510247B2 (ja) | 測量データ処理装置、測量データ処理方法およびプログラム | |
JP4619962B2 (ja) | 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置 | |
WO2018133727A1 (zh) | 一种正射影像图的生成方法及装置 | |
JP2006053890A (ja) | 障害物検出装置及び方法 | |
US11551411B2 (en) | Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds | |
JP2019128175A (ja) | トンネル壁面検査装置及びトンネル壁面検査プログラム | |
KR102082254B1 (ko) | 차량 인식 시스템 | |
JP6552448B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
CN111105695B (zh) | 地图制作方法、装置、电子设备及计算机可读存储介质 | |
JPWO2020039937A1 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
KR101549165B1 (ko) | 차량 자세 추정 장치 및 차량 자세 추정 방법 | |
KR20220160850A (ko) | 소실점을 추정하는 방법 및 장치 | |
JP2006309450A (ja) | 画像認識装置及び画像認識方法 | |
JP2005056186A (ja) | 交通状況観測システム | |
JP2020027328A (ja) | 信号機推定装置、信号機推定方法およびプログラム | |
JP2004030440A (ja) | 画像処理方法、画像処理プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体 | |
JP2019020218A (ja) | データ間引き装置、測量装置、測量システム及びデータ間引き方法 | |
US20220415031A1 (en) | Information processing device and information processing method | |
JP2004233138A (ja) | 写真測量における計測点の対応付け方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130905 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5396585 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |