JP5396585B2 - 地物特定方法 - Google Patents

地物特定方法 Download PDF

Info

Publication number
JP5396585B2
JP5396585B2 JP2008120165A JP2008120165A JP5396585B2 JP 5396585 B2 JP5396585 B2 JP 5396585B2 JP 2008120165 A JP2008120165 A JP 2008120165A JP 2008120165 A JP2008120165 A JP 2008120165A JP 5396585 B2 JP5396585 B2 JP 5396585B2
Authority
JP
Japan
Prior art keywords
feature
photographing
point
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008120165A
Other languages
English (en)
Other versions
JP2009271650A (ja
Inventor
喜代成 岸川
入江  徹
博 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEO Technical Laboratory Co Ltd
Original Assignee
GEO Technical Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEO Technical Laboratory Co Ltd filed Critical GEO Technical Laboratory Co Ltd
Priority to JP2008120165A priority Critical patent/JP5396585B2/ja
Publication of JP2009271650A publication Critical patent/JP2009271650A/ja
Application granted granted Critical
Publication of JP5396585B2 publication Critical patent/JP5396585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、地物を撮影して得られた画像に基づいて、撮影された地物を地図上で特定する技術に関する。
電子地図データはカーナビゲーションなど種々の分野で活用されている。近年では、ユーザが直感的に把握しやすい地図を提供するため、建物などの地物を3次元モデルによるコンピュータグラフィックスで表した3次元地図なども提供されつつある。
3次元モデルを生成するための方法として、車載のビデオカメラで撮影した映像を活用する方法が提案されている。例えば、特許文献1および特許文献2は、車両に搭載した2台のライン画像撮像装置によって同じ景観を撮影したライン画像を解析することによって、移動経路から被撮像物体までの距離と高さとを計算する技術を開示している。
これらの技術では、カメラを設置した車両で、走行しながら建造物を撮影する。カメラは、車両の真横に位置する建造物が画角内に入るように斜め前、斜め後ろに向けて2台設置されている。この状態で移動しながら撮影すると、同一の建物を複数の地点で撮影することになる。従って、三角測量と同じ原理によって、建物までの距離等を算出することができるのである。
特開平3−167678号公報 特開2006−195758号公報
特開2002−237322号公報
しかし、従来技術では、撮影地点と建物の相対的な位置関係は分かるものの、現実に建物の絶対座標を特定することは困難であった。移動しながら撮影している車両の撮影地点、車両から建物までの相対的な距離などにそれぞれ誤差が含まれるからである。
従って、撮影した画像をもとに3次元モデルを生成したとしても、生成対象となった建物を、2次元の地図上で特定することは、容易ではなかった。
本発明は、かかる課題に鑑み、撮影された画像内の建物その他の地物を地図データ上で特定可能とすることを目的とする。
本発明は、地物を撮影して得られた画像に基づいて、撮影された地物をコンピュータによって特定する地物特定方法として構成することができる。
本発明では、コンピュータは、まず、地物を撮影した画像を表す画像データと、撮影を行った撮影地点を表す撮影地点情報とを入力する。
撮影地点情報は、後述する地図データを実効的な範囲で参照できる程度に、撮影を行った地点を限定できる情報であればよい。例えば、緯度経度などの座標情報としてもよいし、街区などの住所情報、撮影を行った道路名などとしてもよい。緯度経度などの座標情報は、例えば、GPS(Global Positioning System)やジャイロ等を用いて検出することができる。
コンピュータは、画像内で特定される地物の代表点と撮影地点との間の撮影距離を求める。処理対象となる地物は、例えば、オペレータが指定するものとしてもよいし、画像の中央付近に写っている地物や、最大面積の地物など、所定の規則に基づいて自動的に設定するものとしてもよい。撮影距離は、後述するように算出するものとしてもよいし、例えば、レーザー測距装置などで計測してもよい。
次に、コンピュータは、地図データを参照して処理対象となっている候補地物を抽出する。候補地物は、撮影地点付近において撮影が可能な地点と地図データ内に存在する地物との距離が撮影距離に適合するものを抽出する。
候補地物の抽出は、例えば、次の手順で行うことができる。
まず撮影地点から撮影距離だけ離れた被写地点を求め、この被写地点を含む地物を特定する。撮影されているのは地物の表面であるから、被写地点が地物の内部に存在することはあり得ない。従って、地物の内部に被写地点が存在する場合には、撮影地点に誤差があるものとして、被写地点が地物の表面に一致するよう撮影地点を修正する。
次に、修正後の撮影地点が撮影可能な地点か否かを判断する。例えば、車両に搭載したカメラで地物を撮影している場合には、修正後の撮影地点が、車両が走行可能な位置となっているか否かを判断すればよい。この判断時には、地図データに基づいて、修正後の撮影地点から地物を見通すことができるか否かを考慮してもよい。修正後の撮影地点が、撮影可能な地点となっている場合には、その地物が候補地物として抽出される。
抽出された候補地物の周辺に存在する地物についても同様に、その地物の表面から撮影距離だけ離れた撮影地点を求め、撮影可能な地点か否かを判断することで、候補地物に追加してもよい。撮影地点に誤差が含まれている場合には、最初に特定された候補地物が正しいとは限らないからである。
本発明によれば、このように撮影地点と地物との間の距離に基づいて地図データを参照することにより、被写体となっている候補地物を抽出することができる。従って、撮影された画像内の地物を地図データ上で比較的容易に特定可能である。候補地物が一つだけに絞り込まれている場合には、その地物を被写体として特定すればよい。複数の候補地物が抽出されている場合には、オペレータがその中から選択するようにしてもよいし、後述する更なる絞り込みをかけるようにしてもよい。
本発明によれば、撮影された画像内の地物を地図データ上で特定可能となるため、画像を種々の用途に活用することが可能となる利点がある。
例えば、画像に基づいて地物の3次元モデルを生成した場合、生成された3次元モデルを2次元地図データと関連づけることによって、容易に絶対座標を特定することが可能となるため、3次元の地図データを比較的容易に生成することができるようになる。また、撮影した画像から地物の表面に相当する部分を切り出し、生成済みの3次元モデルに貼り付けるためのテクスチャを生成してもよい。更に、車両で撮影した画像内で目的地となる建物を指示することにより、経路探索の目的地を容易に指定可能としてもよい。
複数の候補地物が抽出された場合の絞り込みは、例えば、次の方法で行うことができる。
コンピュータは、候補地物のうち、地物の画像において設定される複数の代表点間の実距離を求める。実距離とは、画像内の代表点間の距離を、画角等に基づいて現実の距離に換算したものを言う。コンピュータは、この実距離に適合する地物を候補として絞り込むことができる。
こうすることによって、地物自体の寸法を考慮して、地物の候補を絞り込むことができる。代表点は任意に設定可能である。例えば、オペレータが指定してもよいし、画像処理によって特徴点を抽出してもよい。
画像が道路を移動しながら、移動の方向に直交する向きに撮影されたものである場合には、複数の代表点間の実距離は、移動の方向に沿う成分を有することが好ましい。これは、代表点間を結ぶベクトルが、移動方向の成分を含むことを意味する。
このように代表点を設定することによって、移動方向に直交する方向では撮影距離に基づいて地物候補を絞り込み、移動方向に沿う方向では実距離に基づき地物自体の寸法を考慮した絞り込みを行うことができる。2方向の距離で絞り込むことにより、効果的な絞り込みが可能となる利点がある。
代表点間の実距離による絞り込みは、地物の寸法に基づく絞り込みである。従って、その実効性をあげるために、実距離を求めるための代表点は、移動の方向における地物の両端を含めることが好ましい。
この場合には、被写体の地物表面における代表点の位置が限定されるため、候補地物を精度良く絞り込むことが可能となる利点がある。
本発明において、撮影地点から地物までの距離は、先に説明した測距による方法の他、次に示す手順で撮影された画像から算出するようにしてもよい。
この方法では、コンピュータは、複数地点で同一の地物を撮影した画像について、画像データ、撮影地点情報、および該撮影を行う際の撮影条件を入力しておく。例えば、移動しながら撮影した動画を構成する複数のフレーム画像を用いることができる。この方法では、撮影地点情報は、複数の地点間の距離を特定可能な情報とする。撮影条件としては、撮影時のカメラの方向、画角が含まれる。
これらのデータが得られている場合には、コンピュータは、複数の画像データ、撮影地点情報および撮影条件に基づいて、撮影距離を解析することができる。撮影地点情報に基づき複数地点間の移動距離が求まるから、画像データ内で被写体の地物が特定されると、撮影条件を考慮することにより、三角測量と同じ原理によって地物までの撮影距離を解析することができるのである。
本発明は、上述の特徴を必ずしも全て備えている必要はなく、適宜、これらの一部を省略してもよいし、これらの特徴を組み合わせて用いても良い。
本発明は、上述した地物特定方法の他、かかる方法を実現する地物特定装置として構成してもよい。また、地物特定方法をコンピュータによって実現するためのコンピュータプログラムとして構成してもよい。
更に、これらのコンピュータまたは経路案内データベースを記録するコンピュータ読み取り可能な記録媒体として構成してもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等、コンピュータが読取り可能な種々の媒体を利用できる。
本発明の実施例について以下の順序で説明する。
A.処理概要:
B.装置構成:
C.撮影位置の特定:
D.建物特定処理:
A.処理概要:
図1は本実施例における処理概要を示す説明図である。
本実施例では、車両で道路を走行しながら、搭載したビデオカメラで街中の画像を撮影する。左側に撮影したビデオ画像を構成するフレーム画像の例を示した。画像内の2次元座標をu,vとする。
このフレーム画像内で、オペレータが特定の建物上の一点を指定した場合を考える。図中の例では、座標点(Up、Vp)の点Pが指定されている。
図の右上には、2次元の地図データを示した。点CPが撮影を行った地点である。破線SAは、カメラの画角を表している。撮影した画像の幅と、点Pの位置を表すu0座標との比が分かれば、撮影地点CPから点Pに至る方向Aが分かる。従って、撮影地点CPから点Pまでの距離が分かれば、オペレータが指示した建物BLDを2次元地図データ上で特定することができる。
図の右下には、3次元モデルによる画像例を示した。3次元モデルは、2次元地図データと関連づけられており、それぞれの建物に対して3次元表示するためのモデルを設定したデータベースである。
2次元地図データによって、点Pが建物BLDを指示していることが分かれば、3次元モデルにおいても、建物BLD上に点Pを表示することが可能となる。
図中の例では、建物BLDの3次元モデルと、左側の画像内の点Pの建物とは形状が異なっている。3次元モデルにおいて点Pが建物BLDを指示していることが特定できれば、撮影されたフレーム画像を活用して3次元モデルの形状を修正することが可能となる。
また、フレーム画像から建物の表面画像を切り出して、3次元モデルの建物BLDの表面にテクスチャとして貼り付けることも可能となる。
このように、画面内で建物が指定された場合に、2次元地図データおよび3次元モデルにおいて、どの建物が指示されたのかを特定することによって、フレーム画像の情報を有効活用することが可能となる。図1の例では、点Pをオペレータが指定するものとして説明したが、画像内の特徴点の抽出などの画像処理によって特徴点Pを特定する場合も同様である。
本実施例では、このようにビデオカメラで撮影された画像内の建物を、2次元地図データおよび3次元モデル内で特定するための建物特定システムおよび建物特定処理を開示する。
本実施例では、建物を特定する場合を例示するが、本実施例で開示する方法は、建物に限らず、橋や高速道路、崖など2次元地図データ上で輪郭形状を明確に認識可能な人工および自然の地物に適用可能である。
B.装置構成:
図2は実施例としての建物特定システムの構成を示す説明図である。このシステムは、画像を撮影するための画像データ取得装置100と、その処理をして撮影された画像内の建物を特定するための建物特定装置200から構成されている。
本実施例では、両者を別体の構成としたが、単一の装置として構成してもよい。また、建物特定装置200を多数の装置からなる分散処理システムとして構成してもよい。
実施例の画像データ取得装置100は、車両上に種々の装置を搭載して構成されている。車両には、側方画像を撮影するためのビデオカメラ122が搭載されている。ビデオカメラ122は、車両の前後方向の対称軸に対してほぼ直角の姿勢角を保持可能な状態で固定されている。姿勢角は一定の状態が保持可能であれば、斜め前または斜め後ろ方向でも構わない。
広範囲・高精細の画像を効率的に取得するため、ビデオカメラ122は、ハイビジョンの広角カメラを利用することが好ましい。
車両には、取得されたデータをディジタルの画像データとして保存するためのハードディスク114およびこの保存等を制御するための制御部110が用意されている。制御部110は、例えば、汎用のコンピュータに、画像データ等を取得・管理するためのコンピュータプログラムをインストールすることで構成可能である。ハードディスク114には、ビデオカメラ122の姿勢、画角などの撮影条件も記録されている。
GPS(Global Positioning System)102は撮影時の車両の位置情報(以下、「撮影位置」と称する)、即ち緯度経度を周期的に検出し、検出時刻と共に出力する。このデータは、画像データと併せて種々のハードディスク114に記録される。
もっとも、後述する通り、GPS102の出力は、撮影位置の解析に必須のデータではないため、GPS102を省略することも可能である。
車速センサ104は、車両が一定距離移動する度に車速パルスと呼ばれる信号を出力する。
本実施例では、撮影位置の精度を向上させるため、撮影中に基準位置、即ち緯度経度が既知の位置を通過した時点で、通過した時刻および基準位置の情報を記録するものとした。基準位置としては、例えば、既知の交差点の横断歩道などとすることができる。
車速パルスおよび基準位置パルスも、画像データと併せてハードディスク114に記録される。以下、これらのデータを「撮影データ」と総称することもある。
車両には、オペレータの指示に従って、この記録を行うため、基準位置入力部112が設けられている。基準位置入力部112は、制御部110と同様、汎用のコンピュータに、基準位置入力機能を実現するためのコンピュータプログラムをインストールすることで構成可能である。
本実施例では、ディスプレイ上に表示された地図112dにおいて、オペレータが記録すべき基準位置をマウス等でクリックすると、クリックされた時刻および基準位置の情報が記録される構成とした。地図表示に必要となる地図データは、ハードディスク114、やCD−ROMなどの記録媒体に予め記録しておくようにしてもよいし、無線のネットワークを介して外部サーバから取得するようにしてもよい。
基準位置情報の入力は、上述の方法に限らず、緯度経度などの情報をキーボード等から直接入力するようにしてもよいし、記録すべき基準位置が予め設定されている場合には、それぞれの基準位置に対応づけられたコードを入力してもよい。更には、撮影時には基準位置情報の入力を省略し、単に通過時刻のみを入力するようにしてもよい。
本実施例では、制御部110および基準位置入力部112を、コンピュータプログラムのインストールによってソフトウェア的に実現するものとしたが、これらは専用の回路によってハードウェア的に構成することも可能である。
次に、建物特定装置200の構成について説明する。
建物特定装置200は、汎用のコンピュータに、画像データ処理用のコンピュータプログラムをインストールして構成されている。
上述のコンピュータプログラムのインストールにより、建物特定装置200には、図示する種々の機能ブロックが構成される。もっとも、これらの機能ブロックの少なくとも一部は、ASICなどによってハードウェア的に構成することも可能である。
データ入力部206は画像データ取得装置100で生成された画像データを入力する。画像データと併せてGPS102で検出された緯度経度、車速パルスおよび基準位置情報も入力する。
画像データ取得装置100から建物特定装置200へのデータの転送は、リムーバブルハードディスク114aを用いるものとした。かかる方法に限らず、DVDその他の記録媒体を用いても良いし、ネットワーク経由で転送するようにしてもよい。
コマンド入力部202は、オペレータによるマウスやキーボードの操作を介して、軌跡設定部204等に必要なコマンドを入力する。オペレータから入力されるコマンドは、適宜、軌跡設定部204以外の機能ブロックにも受け渡されるが、図の煩雑化を避けるため、図中では軌跡設定部204に受け渡す様子のみを示した。
軌跡設定部204は、GPS102で検出された緯度経度に基づいて撮影時の軌跡を設定する。GPS102の出力には、位置誤差が含まれる。従って、本実施例では、ネットワークデータベース220および車速パルスの出力を利用して位置誤差を修正するものとした。
先に説明した通り、本実施例では、撮影時に、基準位置情報および車速パルスも併せて記録されている。車速パルスは、車両が一定距離移動する度に出力される信号であるため、車両の移動距離を表す信号となる。
基準位置情報は、予め既知の基準位置を通過した時刻を表す情報である。これらの情報を考慮すれば、基準位置からの経過時間と移動距離との関係を特定することができる。この処理については、後述する。
従って、この移動距離に適合するように、GPS102で出力された緯度経度を修正することによって位置精度を向上させることができる。こうして設定された各時刻における位置情報はフレーム画像抽出部208に受け渡される。
フレーム画像抽出部208は、画像データから各フレーム画像を抽出し、その撮影時刻に対応する位置情報を対応づける。
ステレオマッチング部210は、同一の建物を写した複数のフレーム画像が撮影された位置情報に基づいてステレオマッチングによって、撮影位置から建物までの距離(以下、「撮影距離」と称する)を算出する。
画像内に多数の建物が写っている場合には、処理対象となる建物をオペレータが指示する。オペレータの指示に代えて、画像の中央付近に写っている建物や、画像内で最大面積の建物などの条件に従って、処理対象となる建物を自動的に設定するようにしてもよい。
ステレオマッチングによる距離の算出方法については後述する。
こうして算出された撮影距離は候補建物抽出部212、候補建物絞込部214にそれぞれ受け渡される。
候補建物抽出部212は、フレーム画像を撮影位置および撮影距離に基づいて、地図データベース230を参照しながら、撮影された地物の候補を抽出する。
この処理で用いられる地図データベース230には、2次元地図データ231、3次元モデル232が格納されている。2次元地図データ231は、図1の右上に示したように、2次元平面内で各地物の形状および位置を表した地図データである。3次元モデルは、図1の右下に示したように、建物を3次元的に表示するためのモデルである。本実施例では、3次元モデルは、2次元地図データ231と関連づけられているものとして説明する。
候補建物の抽出時には、2次元地図データ231を参照する。候補を抽出するための処理については、後述する。
候補建物絞込部214は、2次元地図データ231を参照して、候補建物抽出部212によって抽出された候補の絞込みを行う。本実施例では、撮影された建物の画像内で指定された2点間の距離を実寸に換算することによって、建物上で指定された2点間の実距離を求める。そして、この実距離に見合う寸法を有する建物を候補建物として絞り込むのである。絞込みの方法については後述する。
こうして候補建物抽出部212および候補建物絞込部214の作用によって、画像に撮影された建物を2次元地図データ231上で特定することができる。2次元地図データ231と3次元モデル232とは関連づけられているから、併せて3次元モデルも特定することができる。
2次元地図データ231に基づいて特定された建物の絶対座標を取得し、この絶対座標に対応する3次元モデル232を選択するようにすれば、2次元地図データ231と3次元モデル232が関連づけられていない場合でも、3次元モデル232の特定は可能である。
テクスチャ取得部216は、フレーム画像抽出部208から、フレーム画像を取得し、特定された3次元モデル232の表面に貼り付ける。こうすることによって、撮影された画像を活かした3次元モデルを生成することができる。
テクスチャ取得部216の機能は、フレーム画像を活用する一例にすぎず、建物特定装置200に必須の機能ではない。
フレーム画像を活用するために、他の機能ブロックを設けても良い。例えば、図1に示したように、3次元モデルの形状が不完全な場合には、フレーム画像に適合するように3次元モデルを修正させるようにしてもよい。
C.撮影位置の特定:
図3は撮影位置の特定方法を示す説明図である。ビデオカメラ122で撮影された動画像を構成するフレームデータ、および車速パルス、基準位置パルスの関係を示した。図の上方のデータ群Tには、これらの各種データを時間基準で配置した状態を示した。
データ群Tに示す通り、フレームデータFr1〜Fr10は、一定の時間間隔で取得されている。本実施例では30Hzとした。
フレームデータは、任意の時刻に撮影された静止画の集合を用いることもできる。この場合、時間間隔は不定であっても良い。
車速パルスP1〜P6は、車両が一定距離移動するたびに取得される。本実施例では、約0.39m移動するごとに取得されている。
データ群Tは時間基準で並べたものであるため、車速パルスの間隔は車両の移動速度に応じて変化する。例えば、パルスP1、P2の間が狭いのは移動速度が比較的高かいからである。逆に、パルスP2、P3の間が広いのは移動速度が遅いからである。
基準位置パルスは、車両が横断歩道などの予め規定された基準位置を通過した時点で取得される。基準位置パルスは、車両がある程度の距離を移動した時点で取得されるものであるため、フレームデータおよび車速パルスに比較して、取得の頻度は低い。また、基準位置パルスは、撮影位置解析処理の精度を向上させるために初期位置として用いられるものであるため、このように低い頻度であっても支障はない。
下方のデータ群Rには、データ群Tに示した各データを撮影時の移動距離基準で並べた状態を示した。移動距離基準であるため、図示する通り、車速パルスP1〜P6が等間隔で並べられることになる。フレームデータFr1〜Fr8は、それぞれの車速パルス間では車両が等速で移動しているという仮定の下で並べられる。この結果、例えば、フレームデータFr2は、次の規則の下で並べられることになる。
t1:t2=r1:r2;
t1…データ群Tにおける車速パルスP1とフレームFr2との間の時間;
t2…データ群Tにおける車速パルスP2とフレームFr2との間の時間;
r1…データ群Rにおける車速パルスP1とフレームFr2との間の距離;
r2…データ群Rにおける車速パルスP2とフレームFr2との間の距離;
他の各フレームデータおよび基準位置パルスも同様である。
こうすることにより、データ群Rに示すように、各フレームデータを撮影時の軌跡に沿って配置すること、即ち軌跡に沿う方向の位置を特定することが可能となる。
データ群Rにおいて、基準位置パルスがフレームデータFr4に対応しているとする。基準位置パルスは既知の地点を通過した時点を示す信号であるから、基準位置パルスに対応する位置情報を取得することによって、フレームデータFr4の撮影位置を特定することができる。
また、本実施例では、撮影位置はGPS102でも取得されているため、その誤差範囲内で、各フレームデータFr1〜Fr10の位置は特定されており、概ねの走行軌跡は既知である。
従って、GPS102によって得られた走行軌跡に沿って、フレームデータFr4を基準位置として、各フレームデータをデータ群Rで得られる移動距離に対応した位置に配置することによって、各フレームの撮影位置を、より精度良く特定することができる。
フレームデータの配置は、図示した方法に依らず、種々の方法を採ることができる。例えば、車速パルスに比較してフレームデータが十分に高い頻度で取得されている場合には、これらのフレームデータから、車速パルスと同期しているもののみを抽出するようにしてもよい。こうすることにより、等距離間隔で取得されたフレームデータ群を生成することが可能となる。車速パルスと同期しているフレームデータを抽出する場合、撮影位置の解析に要求される精度を考慮し、両者の時刻間に所定範囲内の誤差を許容してもよい。
D.建物特定処理:
図4は建物特定処理のフローチャートである。建物特定装置200のCPUが実行する処理である。
処理を開始すると、CPUはフレーム画像および位置情報を入力する(ステップS10)。併せてビデオカメラ122の姿勢、画角などの情報も、この段階で入力してもよい。
そして、CPUは、建物の特徴点(図1の点P参照)の指定を受け付ける(ステップS12)。本実施例では、フレーム画像を表示し、オペレータが、マウス等のポインティングデバイスを用いて画面内で特徴点を指示するものとした。特徴点は建物内部の点であれば任意に指定可能である。
オペレータによる指示に代えて、CPUがエッジ抽出などの画像処理によって特徴点を抽出するようにしてもよい。
次に、CPUはステレオマッチング処理によって撮影距離を算出する(ステップS14)。
図5は撮影距離の算出方法を示す説明図である。図の上方には2次元地図の一部を拡大して示した。図示する通り、建物BLD1〜BLD3が建っている道路上を点P1から点P2に移動しながら面像を撮影したとする。建物BLD1〜BLD3の位置座標(緯度、経度)は既知である。
点P1において実線で示す画角A1で建物を撮影した場合を考える。
図の下方に示す通り、この時点でのフレーム画像PIC1には、建物BLD1、BLD2が撮影される。点P2に移動すると、破線で示す画角で建物が撮影される。点P1、P2でそれぞれ撮影されたフレーム画像を比較すると、建物BLD1のコーナーCNRの位置が相対的に移動する。
このフレーム画像PIC1および点P2でのフレーム画像において、オペレータがエッジEDG1上の点を特徴点Pとして指定した場合を考える。特徴点は2次元地図上では、コーナーCNRが指定されたことになる。
点P1とコーナーCNRを結ぶ線と画角の端線とのなす角度を角度A2とすると、点P1の時点では、コーナーCNRに対応するエッジEDG1はフレーム画像PIC1の幅SCをA2/A1で内分した点に写る。
点P2の時点では、角度A2が大きくなるため、エッジEDG1の位置はフレーム画像内で図中右方向に移動する。この移動距離をMBとする。
点P1から点P2までの移動距離MAは既知である。移動距離MAは、点P1、点P2の位置座標から算出してもよいし、図3に示した通り車速パルスによって得られたフレーム間の距離を用いても良い。
こうして移動距離MA、MBおよび画角A1が求まると、これらの値に基づき、幾何学的に撮影位置からコーナーCNRまでの撮影距離DISTを決定することができる。
本実施例では、後述する候補建物の絞込に使用するため、フレーム画像内で特徴点を2点指定するものとした。特徴点は、任意に指定可能であるが、車両の走行方向に位置が異なる点を指定することが好ましい。以下の説明では、建物BLD1の他方のエッジEDG2上の点を2つめの特徴点として指定したものとする。
エッジEDG1に対して行ったのと同様の処理は、建物BLD1の他方のエッジEDG2に対しても行うことができる。
また、距離DISTが求まれば、画角A1に基づき、エッジEDG1、EDG2間の実際の距離、即ち建物BLD1の幅を特定することができる。
図4に戻り、建物特定処理について再び説明する。
ステレオマッチング処理(ステップS14)によって撮影距離が求まると、CPUは位置情報に基づき候補建物を抽出する(ステップS16)。まず、CPUは、処理対象となっているフレーム画像の位置情報から、撮影距離だけずれた地点(以下、「被写地点」と呼ぶ)を求める。そして、被写地点が含まれる建物を主候補建物として抽出する。
本実施例では、撮影の位置情報には誤差が含まれている。従って、上述の主候補建物に対して進行方向に隣接する数個の建物も候補建物として抽出する。周辺の建物を抽出する範囲は、撮影の位置情報に含まれる誤差範囲を考慮して設定すればよい。本実施例では、図3に示した通り、車速パルスを活用して位置情報の修正を行っているため、比較的、位置情報の精度は高い。従って、候補建物は、主候補建物に隣接するもののみを抽出した。位置情報の精度が低い場合には、主候補建物に対して、車両の進行方向および逆方向に数個ずつ隣接する建物を抽出するようにしてもよい。
こうして抽出された候補建物は、候補建物データに格納される。
CPUは、これらの候補建物に基づき位置情報を修正する(ステップS18)。そして、修正後の位置情報が不適切となる候補建物を除外する(ステップS20)。これは、図2における候補建物抽出部212の機能に相当する処理である。
ステップS18、S20の処理内容について、具体例を示しながら説明する。
図6は本実施例における処理例を示す説明図である。
道路RDを走行しながら撮影した画像に基づくステレオマッチング処理によって、撮影距離DISTが得られているとする。
フレーム画像の撮影位置が、点C21であるとすると、この点から撮影距離DISTだけ離れた点P2が被写位置となる。そして、被写位置P2を含む建物B2が主候補建物として抽出される。
また、主候補建物の両側に隣接する建物B1、B3がそれぞれ候補建物として抽出される。
指定された特徴点が候補建物B1、B3上にあるとすると、フレーム画像の撮影位置には点C21に対して、進行方向に誤差があることになる。候補建物B1が撮影されているのだとすれば、撮影位置は、点C21を進行方向に移動させた点C11となる。候補建物B3が撮影されているのだとすれば、撮影位置は点C31となる。
点C11、C31が撮影位置であるとすれば、そこから撮影距離DISTだけ離れた点P1、P3がそれぞれ被写位置になると考えられる。
図4のステップS18では、このようにして各候補建物B1〜B3に対して、撮影位置C11、C21、C31および被写位置P1、P2、P3を定めた上で、撮影位置および被写位置を修正する。
つまり、特徴点はフレーム画像に撮影された候補建物B1〜B3の表面の点であるから、被写位置は候補建物B1〜B3の道路RD側の面上に位置するはずである。かかる状態が実現されるよう、被写位置P1〜P3を道路RDに交差する方向に移動させるのである。この修正後も撮影距離DISTは維持されるはずであるから、撮影位置C11、C21、C31も同様に移動させる。
例えば、候補建物B1については、ベクトルV11で示すように被写位置P1を点Q1に移動させる。そして、ベクトルV11を撮影位置C11に適用することによって(図中のベクトルV12)、撮影位置C12を得る。
同様にして候補建物B2については、ベクトルV21で示すように被写位置P2を点Q2に移動させる。そして、ベクトルV21を撮影位置C21に適用することによって(図中のベクトルV22)、撮影位置C22を得る。
候補建物B3については、ベクトルV31で示すように被写位置P3を点Q3に移動させる。そして、ベクトルV31を撮影位置C31に適用することによって(図中のベクトルV32)、撮影位置C32を得る。
図4のステップS20では、上述の修正後の撮影位置が不適切なものを候補建物から除外する。
図6の例では、撮影位置C12は道路RDから外れているため、不適切である。撮影位置C21、C31は道路RD上にあるため、不適切とは言えない。従って、候補建物B1は、候補から除外され、建物B2、B3が候補建物として抽出されることになる。
この例では、道路RDからはみ出しているか否かで判断したが、撮影位置の適否の判断条件は種々の設定が可能である。例えば、撮影位置が道路RDの反対車線に入るか否かという条件や、道路RDの特定の車線からはみ出すか否かなどの条件、他の建物に邪魔されずに候補建物を見通すことができるか否かなどの条件を用いても良い。
図4に戻り、建物特定処理について引き続き説明する。
ステップS20までの処理によって、候補建物が一つに絞り込まれている場合には(ステップS22)、CPUは、抽出した結果を出力して(ステップS26)、処理を終了する。
一つに絞り込まれていない場合には(ステップS22)、CPUは、更に進行方向の整合性による絞込みを行い(ステップS24)、候補建物を一つに絞り込んだ上で、結果を出力して(ステップS26)、処理を終了する。
ステップS24における絞込は、図2における候補建物絞込部214の機能に相当する処理である。この処理について、図6の処理例に基づいて説明する。
先に説明した通り、図6の処理例では、建物B2、B3が候補建物として抽出されている。
本実施例では、フレーム画像PIC1内で特徴点が2点指定されており、ステレオマッチング処理によって2点間の距離が求められている(図5参照)。図6中に示す通り、この処理例では、フレーム画像PIC1において建物の両端のエッジEDG1、EDG2上の2点が指定されているものとし、その間の距離はW1と求められているとする。
CPUは、候補建物B2,B3の進行方向の幅W2、W3を、上述の距離W1と比較する。距離W1=W3であるとすると、この比較によって、候補建物B3が指定された建物であると特定することができる。
図6の例では、建物の両端が特徴点として指定された場合を例示したが、上述の絞込みは、かかる場合に限らず適用可能である。
例えば、建物の両端以外の2点が特徴点として指定されたとする。この場合でも、指定された特徴点間の距離(図6中のW1に相当する距離)はステレオマッチングによって支障なく求めることができる。両端以外の点が指定されている場合には、候補建物B2、B3のうち、この距離以上の幅を有しているものを抽出すればよい。「W3<特徴点間の距離≦W2」なる範囲にある場合には、候補建物B2が指定された建物であると特定することが可能である。
同様の絞込みは、特徴点が建物の高さ方向にのみ異なる2点で指定された場合にも適用可能である。例えば、図6中のエッジEDG1上で高さの異なる2点が特徴点として指定された場合である。ただし、この場合には、高さ方向に異なる2点間の距離をステレオマッチング処理で算出可能な情報、カメラの仰ぎ角などが得られている必要がある。また、2次元地図データにおいて各建物の高さが属性として記録されている必要がある。
これらの情報が得られている場合には、図6で説明したのと同じ手順で絞込みを行うことができる。つまり、フレーム画像に基づいて特徴点間の高さ方向の間隔を求めた上で、この間隔以上の高さを有している建物を抽出すればよい。
以上で説明した本実施例によれば、撮影した画像内の建物を、地図データ上で特定することができる。この結果、比較的軽い負荷で、画像を3Dモデルの生成、3Dモデル用のテクスチャ生成など、種々の用途に活用することができる。
(1) 実施例では、ステレオマッチングによって建物までの撮影距離を算出する例を示したが、特徴点を撮影時に指定し、レーザー測距装置などによって建物までの距離を実測するようにしてもよい。
(2) 実施例では、車速パルス等を用いて撮影位置を比較的精度良く解析する例を示した。図6に示したように、本実施例では、種々の条件を組み合わせて候補建物を抽出することができる。従って、撮影位置は、必ずしも厳密に解析されている必要はなく、撮影位置は、地図データを実効的な範囲で参照できる程度に、つまり図6で示した処理を許容される時間内で完了できる程度に撮影を行った地点を限定できる情報であればよい。
以上、本発明の種々の実施例について説明したが、本発明はこれらの実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。
本実施例における処理概要を示す説明図である。 実施例としての建物特定システムの構成を示す説明図である。 撮影位置の特定方法を示す説明図である。 建物特定処理のフローチャートである。 撮影距離の算出方法を示す説明図である。 本実施例における処理例を示す説明図である。
符号の説明
100…画像データ取得装置
102…GPS
104…車速センサ
110…制御部
112…基準位置入力部
112d…地図
114…ハードディスク
114a…リムーバブルハードディスク
122…ビデオカメラ
200…建物特定装置
202…コマンド入力部
204…軌跡設定部
206…データ入力部
208…フレーム画像抽出部
210…ステレオマッチング部
212…候補建物抽出部
214…候補建物絞込部
216…テクスチャ取得部
220…ネットワークデータベース
230…地図データベース
231…2次元地図データ
232…3次元モデル

Claims (7)

  1. 地物を撮影して得られた画像に基づいて、撮影された地物をコンピュータによって特定する地物特定方法であって、該コンピュータが実行する工程として、
    (a) 前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する工程と、
    (b) 前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める工程と、
    (c) 地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する工程とを備える地物特定方法。
  2. 請求項1記載の地物特定方法であって、更に、
    (d) 前記候補地物のうち、前記地物の画像において設定される複数の代表点間の実距離を求め、該実距離に適合する地物を候補として絞り込む工程を備える地物特定方法。
  3. 請求項2記載の地物特定方法であって、
    前記画像は道路を移動しながら、該移動の方向に直交する向きに撮影されたものであり、
    前記複数の代表点間の実距離は、前記移動の方向に沿う成分を有する地物特定方法。
  4. 請求項3記載の地物特定方法であって、
    前記代表点は、前記移動の方向における前記地物の両端を含む地物特定方法。
  5. 請求項1〜4いずれか記載の地物特定方法であって、
    前記工程(a)は、複数地点で同一の地物を撮影した複数の画像について、画像データ、撮影地点情報、および該撮影を行う際の撮影条件を入力し、
    前記工程(b)は、前記複数の画像データ、撮影地点情報および撮影条件に基づいて、前記撮影距離を解析する工程である地物特定方法。
  6. 地物を撮影して得られた画像に基づいて撮影された地物を特定する地物特定装置であって、
    前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する入力部と、
    前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める撮影距離取得部と、
    地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する候補地物抽出部とを備える地物特定装置。
  7. 地物を撮影して得られた画像に基づいて撮影された地物をコンピュータによって特定するためのコンピュータプログラムであって、
    前記画像を表す画像データと、該撮影を行った撮影地点を表す撮影地点情報とを入力する入力サブプログラムと、
    前記画像内で特定される前記地物の代表点と前記撮影地点との間の撮影距離を求める撮影距離取得サブプログラムと、
    地図データを参照して、前記撮影地点付近において撮影が可能な地点と、前記地図データ内に存在する地物との距離が、前記撮影距離に適合する地物を候補地物として抽出する候補地物抽出サブプログラムとを供えるコンピュータプログラム。
JP2008120165A 2008-05-02 2008-05-02 地物特定方法 Active JP5396585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008120165A JP5396585B2 (ja) 2008-05-02 2008-05-02 地物特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008120165A JP5396585B2 (ja) 2008-05-02 2008-05-02 地物特定方法

Publications (2)

Publication Number Publication Date
JP2009271650A JP2009271650A (ja) 2009-11-19
JP5396585B2 true JP5396585B2 (ja) 2014-01-22

Family

ID=41438164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008120165A Active JP5396585B2 (ja) 2008-05-02 2008-05-02 地物特定方法

Country Status (1)

Country Link
JP (1) JP5396585B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5182594B2 (ja) * 2010-03-31 2013-04-17 アイシン・エィ・ダブリュ株式会社 画像処理システム
US10776533B2 (en) 2010-07-12 2020-09-15 3Shape A/S 3D modeling of a dental restoration using textural features
JP6020986B2 (ja) * 2012-04-17 2016-11-02 株式会社日立製作所 対象物特定システム、対象物特定サーバ及び対象物特定端末
US20150092048A1 (en) 2013-09-27 2015-04-02 Qualcomm Incorporated Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
JP7020813B2 (ja) * 2017-07-27 2022-02-16 株式会社ゼンリン 移動体制御システム及びプログラム
JP6591594B2 (ja) * 2018-03-16 2019-10-16 株式会社Lifull 情報提供システム、サーバ装置、及び情報提供方法
CN112348886B (zh) * 2019-08-09 2024-05-14 华为技术有限公司 视觉定位方法、终端和服务器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4697931B2 (ja) * 2004-10-20 2011-06-08 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 情報提供システムおよび携帯端末
WO2006114955A1 (ja) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. 撮影位置解析方法

Also Published As

Publication number Publication date
JP2009271650A (ja) 2009-11-19

Similar Documents

Publication Publication Date Title
JP5309291B2 (ja) 撮影位置解析方法
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
US8625851B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
JP5362189B2 (ja) 画像処理装置及びその処理方法
JP4889351B2 (ja) 画像処理装置及びその処理方法
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
JP5396585B2 (ja) 地物特定方法
JP6510247B2 (ja) 測量データ処理装置、測量データ処理方法およびプログラム
WO2018133727A1 (zh) 一种正射影像图的生成方法及装置
JP4619962B2 (ja) 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置
JP2006053890A (ja) 障害物検出装置及び方法
KR102082254B1 (ko) 차량 인식 시스템
EP3324359B1 (en) Image processing device and image processing method
CN111105695B (zh) 地图制作方法、装置、电子设备及计算机可读存储介质
JPWO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
JP2022042146A (ja) データ処理装置、データ処理方法およびデータ処理用プログラム
JP2020153956A (ja) 移動体位置推定システムおよび移動体位置推定方法
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
JP2006309450A (ja) 画像認識装置及び画像認識方法
US11461944B2 (en) Region clipping method and recording medium storing region clipping program
JP2005148784A (ja) 路面走行レーン検出装置
JP2005056186A (ja) 交通状況観測システム
JP4622889B2 (ja) 画像処理装置、及び画像処理方法
JP2020027328A (ja) 信号機推定装置、信号機推定方法およびプログラム
JP2019020218A (ja) データ間引き装置、測量装置、測量システム及びデータ間引き方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5396585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250