JP2007078409A - 物体測位装置 - Google Patents

物体測位装置 Download PDF

Info

Publication number
JP2007078409A
JP2007078409A JP2005263890A JP2005263890A JP2007078409A JP 2007078409 A JP2007078409 A JP 2007078409A JP 2005263890 A JP2005263890 A JP 2005263890A JP 2005263890 A JP2005263890 A JP 2005263890A JP 2007078409 A JP2007078409 A JP 2007078409A
Authority
JP
Japan
Prior art keywords
information
distribution
unit
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005263890A
Other languages
English (en)
Other versions
JP4874607B2 (ja
Inventor
Shinya Taguchi
進也 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005263890A priority Critical patent/JP4874607B2/ja
Publication of JP2007078409A publication Critical patent/JP2007078409A/ja
Application granted granted Critical
Publication of JP4874607B2 publication Critical patent/JP4874607B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 測位誤差を低減して精度良く対象物を測位する。
【解決手段】 観測部102は画像から対象物の情報の尤度関数を求め、推定部104は対象物の情報の尤度関数と予測された事前分布に基づき対象物の情報の事後分布を推定し、予測部106はカメラの位置情報及び姿勢情報と推定された対象物の情報の事後分布に基づき対象物の情報の事前分布を予測し、検出部107は対象物の情報の事後分布に基づき対象物の情報の検出値を算出し、測位部108は対象物の情報の検出値とカメラの位置情報及び姿勢情報に基づき対象物の地理座標を算出する。
【選択図】 図1

Description

この発明は映像から特定の物体を検出して測位する物体測位装置に関するものである。
地理情報を収集する従来の物体測位装置として、特許文献1に記載の道路環境情報通知装置があり、地理情報のデータベースを連携させた物体認識手法が開示されている。この装置は、映像から道路標識等の対象物を認識し、車載したステレオカメラ等を用いてカメラから対象物までの相対距離を求め、この相対距離と車載したGPSの測位結果を加算して対象物の地理座標を求める。この求めた対象物の地理座標と、データベースに保存された対象物の地理座標とを統合して、最終的な対象物の認識結果を算出する。このため、日照変化により対象物の見かけが変化したり、遮蔽物等で対象物が隠れてしまうということが原因で、対象物の検出が困難な場合でも、データベースの情報で対象物の検出を補助することが可能である。
また、特許文献1に記載の装置において、対象物を映像から認識する際に認識確信度(認識の結果の確かさを示す指標)を算出し、過去の映像における認識確信度と現在の映像における認識確信度を統合することで検出精度を高める方法についても開示されている。
特開2004−171159号公報(段落0017,0021)
従来の物体測位装置は以上のように構成されているので、ステレオ立体視やGPSの測位結果に伴う外乱を除去して、正確に対象物を測位する方法については開示されていなかった。
また、従来の物体測位装置において、対象物の種類や大きさ等を推定する方法は開示されていなかった。例えば、映像情報からある道路標識を認識した結果、それが“駐車禁止”の道路標識である確率が33%、“速度制限”の道路標識である確率が33%、“進入禁止”の道路標識である確率が33%、という複数の認識確信度が得られることがある。しかし、従来の物体測位装置では、一つの対象物は一つの認識確信度しか持たないことを前提としており、複数の認識確信度が得られた場合に対象物の種類を決定する方法について開示されていなかった。
このため、GPSの測位誤差や、ステレオ立体視に伴う測位誤差を低減して対象物を測位する手法が必要とされ、また、例えば、道路標識の種類等を効率良く特定する方法も必要とされている。
この発明は上記のような課題を解決するためになされたもので、GPSの測位誤差やステレオ立体視に伴う測位誤差を低減して精度良く対象物を測位することができ、対象物の種類や大きさ等の対象物の情報も効率的に求めることができる物体測位装置を得ることを目的とする。
この発明に係る物体測位装置は、映像情報並びにその映像情報に同期したカメラの位置情報及び姿勢情報を記憶するデータベースと、該データベースに記憶されている映像情報から画像を取得する画像取得部と、該画像取得部により取得された画像から対象物の情報の尤度関数を求める観測部と、該観測部により求められた対象物の情報の尤度関数と予測された対象物の情報の確率分布である事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する推定部と、上記データベースに記憶されているカメラの位置情報及び姿勢情報を取得する位置姿勢取得部と、該位置姿勢取得部により取得されたカメラの位置情報及び姿勢情報と上記推定部により推定された対象物の情報の事後分布に基づき、対象物の情報の事前分布を予測する予測部と、上記推定部により推定された対象物の情報の事後分布に基づき対象物の情報の検出値を算出する検出部と、該検出部により算出された対象物の情報の検出値と上記位置姿勢取得部により取得されたカメラの位置情報及び姿勢情報に基づき、対象物の地理座標を算出する測位部とを備えたものである。
この発明により、GPSの測位誤差やステレオ立体視に伴う測位誤差を低減して精度良く対象物を測位することができ、対象物の種類や大きさ等の対象物の情報も効率的に求めることができるという効果が得られる。
実施の形態1.
以下、この実施の形態1において、「相対座標」とはカメラを中心とした3次元の座標系における座標を指し、「地理座標」とは地理座標系における座標(緯度、経度、標高)を指し、「画像座標」とは2次元の画像上の座標(正規化カメラ座標)を指し、「対象物」とは検出の対象となっている物体を指すものとする。
図1はこの発明の実施の形態1による物体測位装置の構成を示すブロック図である。この物体測位装置は、映像から特定の対象物を検出してその地理座標を算出するもので、データベース100、画像取得部101、観測部102、事前分布計算部103、推定部104、位置姿勢取得部105、予測部106、検出部107、測位部108及び表示部109を備えている。
図1において、データベース100は映像情報並びにその映像情報に同期したカメラの位置情報及び姿勢情報を記憶し、画像取得部101はデータベース100の映像情報から画像を取得する。観測部102は画像取得部101により取得された画像から対象物の情報の尤度関数を求め、事前分布計算部103は対象物の事前情報を反映した確率分布を対象物の情報の事前分布として算出する。
推定部104は、観測部102により求められた対象物の情報の尤度関数と事前分布計算部103に算出された対象物の情報の事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定すると共に、観測部102により求められた対象物の情報の尤度関数と予測部106により予測された対象物の情報の確率分布である事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する。
位置姿勢取得部105はデータベース100に記憶されているカメラの位置情報及びカメラの姿勢情報を取得する。予測部106は、位置姿勢取得部105により取得されたカメラの位置情報及びカメラの姿勢情報と推定部104により推定された対象物の情報の事後分布に基づき、対象物の情報の事前分布を予測する。
検出部107は推定部104により推定された対象物の情報の事後分布に基づき対象物の情報の検出値を算出する。測位部108は、検出部107により算出された対象物の情報の検出値と位置姿勢取得部105により取得されたカメラの位置情報及びカメラの姿勢情報に基づき、対象物の地理座標を算出する。表示部109は、検出部107及び測位部108により算出された対象物の情報を表示する。
ここで、データベース100には、映像情報と、映像情報の各フレームに同期して計測されたカメラの位置情報(地理座標の情報)と、カメラの姿勢情報(三軸の角度、角加速度等の情報)とが記憶されているものとする。
図2はカメラの位置情報及び姿勢情報を収集する装置の一例を示す図である。ここでは、例えば、カメラの位置情報を計測するGPS等の高精度測位装置201、映像情報を取得するカメラ202、カメラの姿勢情報を計測する方位センサ203及び収集した各情報を記録するデータベース100が移動体(車両)204に搭載されている。この車両204を用いて情報収集対象地域の路上を走行して、路上の映像情報と、路上の映像情報の各フレームに同期したカメラの位置情報(地理座標情報)及びカメラの姿勢情報の収集を行い、この収集された各情報をデータベース100に記録することができる。
このデータベース100に記憶されている映像情報は、一眼カメラで撮影された一つの映像でも良いし、複数のカメラで同じ対象物を撮影した複数の映像でも良い。また、映像情報は、可視カメラで撮影した可視画像に限らず、例えば、ラインスキャンレーザで得られる奥行き映像情報や、赤外線カメラによって得られる熱映像情報等、カメラ以外のセンサから得られる情報でも良い。
次に動作について説明する。
図3はこの発明の実施の形態1による物体測位装置の初期化フェイズの処理手順を示すフローチャートである。この初期化フェイズは映像中に対象物を初めて検出して対象物の事前分布を予測する段階である。
ステップST101において、画像取得部101はデータベース100に記憶されている映像情報から画像を取得する。以下では、この画像が撮影された時刻をtとし、画像取得部101が取得した画像をytとする。ここで、画像取得部101による画像の取得は、映像情報の収集中にリアルタイムに行っても良いし、あるいは、予め収集しておいた映像情報から画像を取得しても良い。
ステップST102において、観測部102は画像取得部101により取得された画像ytから対象物の情報の尤度関数を求める。ここで、対象物の情報とは、対象物の地理座標や相対座標、種類、大きさ、向き、経年変化、対象物の周辺情報等の対象物の情報全般のことを指す。すなわち、観測部102は対象物の地理座標や相対座標、種類、大きさ、向き、経年変化、対象物の周辺情報等の対象物の情報全般の尤度関数を求める。
ここで、尤度関数の定義について述べる。以下、この実施の形態1では、時刻tにおける対象物の情報を確率変数とみなし、これをXtとし、また、時刻tにおける画像取得部101が取得する画像を確率変数とみなし、これをYtとする。また、Xt=xtが与えられたときのYtの条件付確率密度関数をP(yt|Xt=xt)とする。このとき、対象物の情報の尤度関数とは、与えられた画像Yt=ytに対する対象物の情報xtの関数として、次の式(1)で定義される。
L(xt|yt)=P(Yt=yt|xt) (1)
上記尤度関数Lは、画像ytを観測したときの対象物の情報xtの尤もらしさを表す指標と考えることができる。
図4は、観測部102が取得された画像から、例えば色のヒストグラムを利用して対象物の情報の尤度関数を求める方法を説明する図である。ここでは、観測部102は、画像上に射影された対象物を囲む矩形領域に含まれる色のヒストグラムを利用して、対象物の情報の尤度関数を求める。
以下では、道路標識の大きさと、種類、カメラからの相対座標の情報を収集する状況を想定する。また、時刻tにおける対象物の大きさをstとし、時刻tにおける対象物の種類をatとし、時刻tにおける対象物の相対座標をztとし、時刻tにおける対象物の情報をxt={zt,at,st}とする。
初めに、観測部102は、認識のために必要な多数の種類のテンプレート画像を用意し、各テンプレート画像の色のヒストグラムを求めておく。例えば、テンプレート画像がRGB画像の場合、観測部102は、図4(a)に示すように、Rプレーン(赤成分)における画素値の和と、Gプレーン(緑成分)における画素値の和と、Bプレーン(青成分)における画素値の和を求めておく。以下、種類aのテンプレート画像の色のヒストグラムをtHi(a)と定義する。
次に、観測部102は、図4(b)に示すように、相対座標がztで大きさがstである対象物が、画像yt上に射影されたときの矩形領域rtを求める。矩形領域rtの中心座標ctと、矩形領域rtの大きさistは、例えば、次の式(2)により求めることができる。
Figure 2007078409
ここで、fはカメラの焦点距離である。また、zt(1)、zt(2)、zt(3)はそれぞれztの垂直成分、水平成分、奥行き成分とする。また、ct(1)、ct(2)はctの垂直成分と水平成分とする。
次に、観測部102は、種類aのテンプレート画像の色のヒストグラムtHi(a)を求めたときと同じ方法により、矩形領域rtにおける色のヒストグラムHi(rt)を求める。
最後に、観測部102は、上記で求めたヒストグラムtHi(a)とHi(rt)を用いて、次の式(3)により対象物の情報の尤度関数を求める。
Figure 2007078409
ここで、Bは正の定数であり、Aは規格化定数である。また、Hi(rt)*tHi(at)は、各ヒストグラムの要素対の積和(各ヒストグラムをベクトルとみなして内積した値)である。また、矩形領域rtはztとstの関数である。
また、観測部102は、例えば、下記の参考文献1及び参考文献2に記載のアルゴリズムを利用して、対象物の情報の尤度関数を求めても良い。参考文献1に記載のAdaboostあるいはLogitboostと呼ばれる学習アルゴリズム、及び参考文献2に記載の画像検出アルゴリズムを用いると、多数の判別関数の出力を組み合わせて、“矩形領域rtの画像が種類atの対象物である確信度”を算出する関数K(rt,at)を得ることができる。ここで、確信度とは、矩形領域の画像が、目的の種類の対象物の画像と類似している度合いを数値的に表現したものであり、類似性が高いほど確信度は大きな値をとり、類似性が低いほど確信度は小さな値を取る。このとき、尤度関数L(xt|yt)は次の式(4)で与えられる。
L(xt|yt)=exp(K(rt,at))/(exp(K(rt,at))
+exp(−K(rt,at))) (4)
[参考文献1]
Jerome Friedman,Trevor Hastie and Robert Tibshirani,“Additive Logistic Regression: a Statistical View of Boosting”,Ann.Statist. 28,no.2(2000),pp.337-407
[参考文献2]
Viola,P.;Jones,M.,“Rapid Object Detection Using a Boosted Cascade of Simple Features”,IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),ISSN:1063-6919,Vol.1,pp.511-518,December 2001
なお、観測部102は、上記で述べた二つの方法に限らず、パターンマッチングやニューラルネット等、その他の方法を用いて尤度関数を求めても良い。
次に、図2のステップST103において、事前分布計算部103は、対象物の事前情報を反映した確率分布(以下、これを対象物の情報の事前分布と呼ぶ)を算出する。
ここで、対象物の情報の事前分布とは、例えば、時刻1からt−1までの画像y1:t-1を与えたときの、対象物の情報xtの条件付確率分布P(xt|y1:t-1)のことを指す。
例えば、事前分布計算部103が、道路標識の大きさと、種類、カメラからの相対座標の情報を収集する状況を想定して、事前分布P(xt|y1:t-1)を求める方法について説明する。
ここで、事前分布は過去の画像y1:t-1に依存せず、また、対象物の位置と大きさと種類はそれぞれ独立であると仮定すると、次の式(5)のように分解できる。
P(xt|y1:t-1)=Pz(zt)Pa(at)Ps(st) (5)
ここで、xt={zt,at,st}であり、Pz(zt)は対象物の相対座標の事前情報を反映した確率分布とし、Pa(at)は対象物の種類の事前情報を反映した確率分布とし、Ps(st)は対象物の大きさの事前情報を反映した確率分布とする。
例えば、予め寸法が定められている対象物(例えば、道路標識や信号機等)の場合、これらの定められた値をs0として、次の式(6)のように設定することができる。
Ps(st)=Asexp(−Bs(st−s02) (6)
ここで、Asは規格化定数であり、Bsは分布の広がりを調節する定数である。
また、例えば、対象物の種類に対して予め情報がない場合には、次の式(7)のように設定することができる。
Pa(at)=1/N (全てのatに対して) (7)
ここで、Nは対象物の種類の総数である。
また、例えば、移動体204がステレオカメラを搭載している場合には、ステレオ立体視を用いて計測した対象物の相対座標をz0として、次の式(8)のように設定することができる。
Pz(zt)=Azexp(−Bz(zt−z02) (8)
ここで、Azは規格化定数であり、Bzは分布の広がりを調節する定数である。
さらに、例えば、対象物の位置がカメラから半径Rメートル付近に存在することが予め判明している場合には、次の式(9)のように設定しても良い。
Figure 2007078409
ここで、Azは規格化定数であり、Bzは分布の広がりを調節する定数である。
次に、ステップST104において、推定部104は、事前分布計算部103により算出された対象物の情報の事前分布と、観測部102で求めた対象物の情報の尤度関数とを用いて、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する。
推定部104は、例えば、ベイズの定理を用いて、次の式(10)に示すように事後分布P(xt|y1:t-1)を求めても良い。このとき、推定部104は、ベイズの定理を用いて、対象物の3次元座標、対象物の種類、対象物の大きさ等の対象物の情報の確率分布を同時に更新して対象物の情報の事後分布を推定する。
P(xt|y1:t-1)=C×L(xt|yt)×P(xt|y1:t-1) (10)
ここで、Cは規格化定数である。また、L(xt|yt)は観測部102が求めた尤度関数で、P(xt|y1:t-1)は事前分布計算部103が算出した事前分布である。また、事後分布P(xt|y1:t-1)は、時刻1からt−1までの画像y1:t-1を与えたときの対象物の情報xtの条件付確率分布である。
このように、対象物の情報を確率分布として表現することにより、対象物の情報を効率的かつ、総合的に判断することが可能となる。例えば、推定部104が道路標識の種類の事後分布を求めて、“駐車禁止”の道路標識である確率が1%、“速度制限”の道路標識である確率が49%、“進入禁止”の道路標識である確率が50%という結果が得られたとする。このような場合に、この実施の形態1では、最も確率の大きな確率を持つ“進入禁止”だけを選択するのではなく、どの結果も次の時刻における確率分布の推定に使用する。このことにより、二番目に大きな確率を持つ“速度制限”も、検出結果の候補に入れることができる。
また、推定部104は、このように、対象物の情報の確率分布を更新して事後分布を推定することにより、推定した対象物の情報の事後分布の分布状況に基づき、対象物の情報の精度も同時に推定することが可能である。
図5は推定部104が求めたzt(1)の事後分布の例を示す図である。図5(a)と図5(b)において、事後分布を最大化するような値はどちらもmである。しかし、図5(a)に示す事後分布は分布の広がりが大きいため、出力した値mの精度が低い(信頼度が低い)と解釈することができる。一方、図5(b)に示す事後分布は分布の広がりが小さいため、出力した値mの精度が高い(信頼度が高い)と解釈することができる。
ステップST105において、位置姿勢情報取得部105は、データベース100に記憶されている映像情報に同期したカメラの位置情報及び姿勢情報を取得する。ここで、位置姿勢情報取得部105は、時刻tにおけるカメラの位置情報及び姿勢情報を取得しても良いし、時刻1からtまでのカメラの位置情報及び姿勢情報を取得しても良い。また、すでに収集した映像情報をオフラインで処理している場合には、時刻1から一時刻先(時刻t+1)のカメラの位置情報及び姿勢情報を取得しても良い。
以下では、時刻tにおけるカメラの位置情報及び姿勢情報をGtとする。また、時刻1からtまでのカメラの位置情報及び姿勢情報をG1:tとする。
ステップST106において、予測部106は、位置姿勢取得部105により取得されたカメラの位置情報及び姿勢情報と推定部104により推定された事後分布に基づき、次の時刻における対象物の情報の確率分布を対象物の情報の事前分布として予測する。
ここで、例えば、位置姿勢取得部105が時刻1からt+1までのカメラの位置情報及び姿勢情報G1:t+1を取得したとする。このとき、予測部106は、事前分布として、画像y1:tとG1:t+1を与えたときの次の時刻における対象物の情報xt+1の条件付確率分布P(xt+1|y1:t,G1:t+1)を予測する。
例えば、予測部106は、次の式(11)に従って事前分布を予測しても良い。
Figure 2007078409
ここで、P(xt|y1:t)は推定部104が推定した事後分布である。また、P(xt+1|xt,G1:t+1)は、xtとG1:t+1を与えたときのxt+1の条件付確率分布(以下、これを状態遷移確率分布と呼ぶ)である。この状態遷移確率分布は時刻tからt+1に進むにつれて対象物の情報がどのように変化するのかを確率的に表現したものである。
ここで、状態遷移確率分布について説明する。例えば、道路標識の大きさと、種類と、カメラからの相対座標の情報を収集する状況を想定し、時刻tにおける対象物の情報をxt={zt,at,st}とする。このとき、状態遷移確率分布は以下の式(12)のように分解することができる。
P(xt+1|xt,G1:t+1
=P(zt+1|zt,G1:t+1)P(at+1|at)P(st+1|st) (12)
ここで、P(zt+1|zt,G1:t+1)は対象物の相対座標の状態遷移確率分布であり、P(at+1|at)は対象物の種類の状態遷移確率分布であり、P(st+1|st)は対象物の大きさの状態遷移確率分布である。
ここで、対象物の相対座標の状態遷移確率分布は、例えば、次の式(13)のように設定することができる。
P(zt+1|zt,G1:t+1
=Aexp(−B(zt+1−zt−Tt2) (13)
ここで、Ttはカメラの位置情報とカメラの姿勢情報から算出した対象物の相対座標の移動ベクトルである。また、zt+Ttは次の時刻における対象物の相対座標の予測値である。このように、予測部106は、位置情報取得部105により取得されたカメラ位置情報及び姿勢情報を用いて、次の時刻における対象物の相対位置の確率分布を求めて、時々刻々と対象物の相対座標及び画像座標を追跡(トラッキング)する。
また、Aは規格化定数であり、Bはカメラの位置情報及び姿勢情報の測位精度により決定される定数である。例えば、カメラの位置情報及び姿勢情報の測位精度が悪い場合にはBの値は小さく設定し、カメラの位置情報及び姿勢情報の測位精度が良い場合にはBの値は大きく設定する。このように、カメラ位置情報及び姿勢情報の計測精度を状態遷移確率分布によりモデル化することが可能であり、例えば、GPSの精度に対応した対象物の情報を求めることができる。
また、対象物の種類の状態遷移確率分布は、例えば、次の式(14)のように設定することができる。
P(at+1|at)=0.6δ(at+1−at)+0.2δ(at+1−α)
+0.2δ(at+1−β) (14)
ここで、α、βは対象物の種類のインデックスである。これは、時刻t+1における対象物の種類が、確率0.6で種類atに、確率0.2で種類αに、確率0.2で種類βに遷移することを表している。
また、対象物の大きさの状態遷移確率分布は、例えば、次の式(15)のように設定することができる。
P(st+1|st
=Asexp(−Bs(st+1−st2) (15)
ここで、Asは規格化定数であり、Bsは対象物の大きさの測定精度により決定される定数である。
図6はこの発明の実施の形態1による物体測位装置の追跡フェイズの処理手順を示すフローチャートである。この追跡フェイズは図3に示す初期化フェイズの後に対象物を追跡して対象物の情報の確率分布を求める段階である。
ステップST201において、画像取得部101はデータベース100に記憶されている映像情報から次の時刻の画像を取得する。以下では、この画像が撮影された時刻をt+1とし、画像取得部101が取得した画像をyt+1とする。
ステップST202において、観測部102は画像取得部101により取得された画像yt+1から対象物の情報の尤度関数L(xt+1|yt+1)を求める。観測部102の処理は前述したステップST102と同一であるのでここでは記述を省略する。
ステップST203において、推定部104は、観測部102により求められた対象物の情報の尤度関数と前の時刻において予測部106により予測された対象物の情報の事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する。
例えば、推定部104は、次の式(16)に示すベイズの定理を用いて、対象物の情報の事後分布P(xt+1|y1:t+1,G1:t+1)を推定しても良い。
P(xt+1|y1:t+1,G1:t+1
=C×L(xt+1|yt+1)×P(xt+1|y1:t,G1:t+1) (16)
ここで、Cは規格化定数である。また、P(xt+1|y1:t,G1:t+1)は前の時刻において予測部106が予測した事前分布であり、L(xt+1|yt+1)は観測部102が求めた尤度関数である。
その他の処理の方法は前述したステップST104の方法と同一であるので、ここでは記述を省略する。
ステップST204において、位置姿勢情報取得部105はデータベース100に記憶されている映像情報に同期したカメラの位置情報及び姿勢情報を取得する。その他の処理の方法は、前述したステップST105の方法と同一であるので、ここでは記述を省略する。
ステップST205において、予測部106は、位置姿勢取得部105により取得されたカメラの位置情報及び姿勢情報と推定部104により推定された事後分布に基づき、次の時刻における対象物の情報の事前分布を予測し、推定部104は、観測部102により求められた対象物の情報の尤度関数と予測部106により予測された対象物の情報の事前分布に基づき、次の時刻において、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する。
例えば、位置姿勢取得部105がG1:t+2を取得した場合、予測部106は次の式(17)に従って事前分布P(xt+2|y1:t+1,G1:t+2)を予測しても良い。
Figure 2007078409
ここで、P(xt+1|y1:t+1,G1:t+1)は推定部104により推定された事後分布である。また、P(xt+2|xt+1,G1:t+2)は、上記ステップST106で述べた状態遷移確率分布である。その他の処理の方法は、前述したステップST106の方法と同一であるので、ここでは記述を省略する。
予測された事前分布は、次の時刻(時刻t+2)において、推定部104が事後分布を推定するために用いる。
ステップST206において、検出部107は推定部104により推定された事後分布に基づき対象物の情報の検出値を算出する。
ここで、検出部107の処理例について説明する。例えば、道路標識の相対座標と、大きさと、種類の情報を収集する状況を想定し、時刻t+1における対象物の情報をxt+1={zt+1,at+1,st+1}とする。
このとき、検出部107は、例えば、推定部104により推定された事後分布P(xt+1|y1:t+1,G1:t+1)=P(zt+1,at+1,st+1|y1:t+1,G1:t+1)を最大とするような値を対象物の情報の検出値としても良い。すなわち、検出部107は、次の式(18)に従って、時刻t+1における対象物の相対座標の検出値
Figure 2007078409
と、時刻t+1における対象物の大きさの検出値
Figure 2007078409
と、時刻t+1における対象物の種類の検出値
Figure 2007078409
とを求めても良い。
Figure 2007078409
また、検出部107は、推定部104により推定された事後分布の分布状況に基づき、すなわち事後分布の広がりに基づき、対象物の情報の検出値の精度(あるいは対象物の情報の検出値の信頼度)を判定することができる。
また、検出部107は、画像に複数の対象物が同時に写っている場合、対象物の情報をグルーピングすることにより複数の対象物の情報の検出値を算出しても良い。
例えば、まず、検出部107は下記の式(19)の条件を満たすzt+1を抽出する。
Figure 2007078409
ここで、θは検出率を調節するための閾値である。
次に、検出部107は、抽出したzt+1のうち、距離が近いデータをまとめてグループ化する。ここで、グループ化の方法には、例えばk−meansアルゴリズム等の既存のクラスタリングアルゴリズムを用いても良い。
次に、検出部107は、次の式(20)に従って、各グループにおける対象物の大きさと対象物の種類を決定する。
Figure 2007078409
ここで、
Figure 2007078409
はi番目のグループMiに属するzt+1に対して和をとることを意味する。また、
Figure 2007078409
はi番目のグループにおける対象物の大きさの検出値であり、
Figure 2007078409
はi番目のグループにおける対象物の種類の検出値である。
ステップST207において、測位部108は、検出部107により算出された対象物の情報の検出値である対象物の相対座標の検出値と位置姿勢取得部105により取得されたカメラの位置情報及び姿勢情報に基づき、対象物の地理座標を算出する。
例えば、測位部108は、次の式(21)に従って、対象物の地理座標wを求めても良い。
w=Qt+1t+1+Pt+1 (21)
ここで、zt+1は検出部107により算出された対象物の相対座標である。Qt+1は、時刻t+1におけるカメラ座標系から地理座標系へ座標変換を行うための行列であり、位置姿勢取得部105により取得されたカメラの姿勢情報から求めることができる。また、Pt+1は時刻t+1におけるカメラの地理座標であり、位置姿勢取得部105により取得されたカメラの位置情報から求めることができる。
通常、位置姿勢取得部105により取得されたカメラの位置情報及び姿勢情報には計測誤差が伴う。このため、位置姿勢取得部105により取得されたカメラの位置情報やカメラの姿勢情報に対して、例えばカルマンフィルタを用いて計測誤差を低減し、Qt+1及びPt+1を算出する。
ステップST208において、表示部109は、検出部107及び測位部108により算出された対象物の情報を、ディスプレイ等の表示装置に表示する。例えば、表示部109は、測位部108により算出された対象物の地理座標を、既存の電子地図や映像の上に表示する。
ステップST209において、対象物が映像に写っている間、上記ステップST201からステップST208までの処理を繰り返す。
このように、推定部104は、前の時刻で求めた対象物の情報の確率分布を用いて、現在の時刻における確率分布の推定を行うことにより、各画像から得られる情報を時々刻々と累積していき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定していくことにより、結果として対象物の情報を精度良く求めることができる。
図7は速度規制の道路標識が入力された場合の画像取得部101と予測部106と推定部104の処理を説明する図である。
例えば、画像取得部101が“速度規制”の道路標識が写る画像を取得したところ、日照変化や遮蔽等が原因で、図7(a)に示す時刻tにおける対象物の種類に関する尤度関数が得られたとする。この場合、もし、尤度関数のみを使用して対象物の種類を判断すると、最も尤度の大きな“駐車禁止”が誤って選択されてしまう。
一方、予測部106によって図7(b)に示す事前分布が予測されたとする。この事前分布は、過去の画像から得られる情報を累積しており、入力した“速度規制”の画像である確率が最も高い。このため、推定部104が、図7(a)示す尤度関数と図7(b)に示す事前分布に基づき、図7(c)に示す事後分布を推定した場合、本来入力した“速度規制”である確率が最も高くなり、対象物の誤検出を防ぐことができる。
同様な理由により、推定部104が、時系列画像から相対座標や大きさ等の情報の事後分布を時々刻々と求めることにより、画像やGPS信号等への外乱に対して頑健に情報を収集することが可能となる。
なお、この実施の形態1は、例えば、参考文献3に記載のParticle Filterを用いて実装することが可能である。Particle Filterとは、サンプリングにより確率分布を近似して、確率分布の推定を行うアルゴリズムであり、この実施の形態1における確率分布の計算を効率的に行うことができる。
[参考文献3]
S.Arulampalam,S.Maskell,N.J.Gordon,and T.Clapp,“A Tutorial on Particle Filters for Online Non-linear/Non-Gaussian Bayesian Tracking”,IEEE Transactions on Signal Processing,Vol.50(2),pages 174-188,February 2002.
以上のように、この実施の形態1によれば、前の時刻で求めた対象物の情報の確率分布を用いて、現在の時刻における確率分布の推定を行い、各画像から得られる情報を時々刻々と累積していくことにより、GPSの測位誤差やステレオ立体視に伴う測位誤差を低減して精度良く対象物を測位することができ、対象物の種類や大きさ等の対象物の情報も効率的に求めることができるという効果が得られる。
また、この実施の形態1によれば、道路標識、信号、マンホール、ガードレール等の道路設備の情報を自動で収集するだけではなく、収集した情報を、設備管理や、カーナビのための地図作成に利用することができる。さらに、道路設備の情報収集だけではなく、例えば、本装置を電車に搭載して、路線状況の情報収集や管理を行うことも可能である。
実施の形態2.
図8はこの発明の実施の形態2による物体測位装置の構成を示すブロック図である。この物体測位装置は、上記実施の形態1の図1に示す構成に、対象物情報データベース110を追加したものであり、その他の構成は図1と同じである。
上記実施の形態1では、データベース100に記憶されている映像情報並びにその映像情報に同期して計測されたカメラの位置情報及び姿勢情報に基づき、対象物の情報の確率分布を求める方法について説明しているが、この実施の形態2では、予め与えられた対象物情報データベース110を利用して、対象物の情報の確率分布を求める方法について説明する。
ここで、対象物情報データベース110とは、例えば、カーナビ等で使用されている地理情報を保存したデータベースや、道路設備管理に使用している設備管理情報を保存したデータベースのことを指す。以下、対象物情報データベース110に記憶された情報をDとする。また、対象物情報データベース110には、情報Dの精度(情報Dに対する信頼度)も記録されていても良い。
次に動作について説明する。
事前分布計算部103は、対象物情報データベース110に記憶されている情報Dに基づき、対象物の事前情報を反映した確率分布を対象物の情報の事前分布として算出する。ここで、対象物の情報の事前分布とは、時刻1からt−1までの画像y1:t-1と、対象物情報データベース110に記憶されている情報Dを与えたときの、対象物の情報xtの条件付確率分布P(xt|y1:t-1,D)のことを指す。
このとき、事前分布計算部103は、例えば、対象物情報データベース110を検索して、現在の時刻におけるカメラの地理座標の近辺に存在する対象物の情報を取得し、この対象物の大きさや種類や地理座標の情報を用いて、事前分布を算出することができる。
ここで、道路標識の大きさと、種類、カメラからの相対座標の情報を収集する状況を想定して、事前分布P(xt|y1:t-1,D)を求める方法について説明する。また、事前分布計算部103が、対象物情報データベース110の中から、時刻tにおけるカメラの地理座標の近辺に存在する対象物の情報を検索して、対象物の地理座標w0と、対象物の大きさs0と、対象物の種類a0を取得したとする。
まず、事前分布は過去の画像y1:t-1に依存せず、また、対象物の位置と大きさと種類はそれぞれ独立であると仮定すると、事前分布は次の式(22)のように分解できる。
P(xt|y1:t-1,D)
=Pz(zt|D)Pa(at|D)Ps(st|D) (22)
ここで、xt={zt,at,st}であり、Pz(zt|D)は対象物情報データベース110に基づいた対象物の相対距離の確率分布、Pa(at|D)は対象物情報データベース110に基づいた対象物の種類の確率分布、Ps(st|D)は対象物情報データベース110に基づいた対象物の大きさの確率分布である。
このとき、例えば、対象物の大きさの事前分布は、次の式(23)のように設定することができる。
Pz(st)=Asexp(−Bs(st−s02) (23)
ここで、Asは規格化定数であり、Bsは分布の広がりを調節する定数である。対象物情報データベース110に記憶されている対象物の大きさs0の精度が悪い(信頼度が低い)場合はBsを小さく設定する。また、s0の精度が良い(信頼度が高い)場合にはBsを大きく設定する。
また、例えば、対象物の種類の事前分布は、次の式(24)のように設定することができる。
Pa(at)=1(at=a0の場合)
Pa(at)=0(その他の場合) (24)
また、例えば、対象物の相対位置の事前分布は、次の式(25)のように設定することができる。
Pz(zt)=Azexp(−Bz(zt−H(w0))2) (25)
ここで、Hは地理座標系の座標をカメラ座標系の座標に変換する関数であり、位置姿勢取得部105で取得したカメラの位置情報とカメラの姿勢情報から求めることができる。また、Azは規格化定数であり、Bzは分布の広がりを調節する定数である。例えば、対象物情報データベース110に記憶されている対象物の大きさw0の精度が悪い場合は、Bzを小さく設定する。また、w0の精度が良い場合には、Bzを大きく設定する。
推定部104は、事前分布計算部により算出された事前分布と、観測部102により求められた尤度関数に基づき、最終的に対象物の情報の事後分布P(xt|y1:t,G1:t,D)を推定する。ここで、P(xt|y1:t,G1:t,D)は、時刻1からtまでの画像y1:tと、時刻1からtまでのカメラの位置情報及び姿勢情報G1:tと、対象物情報データベース110に記憶されている情報Dとを与えたときの対象物の情報xtの条件付確率分布である。
その他の構成要素の処理については、上記実施の形態1と同じであるので、説明を省略する。
以上のように、この実施の形態2によれば、上記実施の形態1と同様の効果が得られると共に、対象物情報データベース110に記憶されている対象物の情報と、対象物情報データベース110に記憶されている対象物の情報の精度(情報の信頼度)を同時に利用して、新たに対象物の情報を収集することが可能であり、情報収集の効率化を図ることができるという効果が得られる。
また、この実施の形態2によれば、収集した対象物の情報と、対象物情報データベース110に記憶された情報とを比べることで、情報の差異を発見することも可能である。
この発明の実施の形態1による物体測位装置の構成を示すブロック図である。 カメラの位置情報及び姿勢情報を収集する装置の一例を示す図である。 この発明の実施の形態1による物体測位装置の初期化フェイズの処理手順を示すフローチャートである。 この発明の実施の形態1による物体測位装置の観測部が取得された画像から例えば色のヒストグラムを利用して対象物の情報の尤度関数を求める方法を説明する図である。 この発明の実施の形態1による物体測位装置の推定部が求めた事後分布の例を示す図である。 この発明の実施の形態1による物体測位装置の追跡フェイズの処理手順を示すフローチャートである。 この発明の実施の形態1による物体測位装置において、速度規制の道路標識が入力された場合の画像取得部と予測部と推定部の処理を説明する図である。 この発明の実施の形態2による物体測位装置の構成を示すブロック図である。
符号の説明
100 データベース、101 画像取得部、102 観測部、103 事前分布計算部、104 推定部、105 位置姿勢取得部、106 予測部、107 検出部、108 測位部、109 表示部、110 対象物情報データベース。

Claims (14)

  1. 映像情報並びにその映像情報に同期したカメラの位置情報及び姿勢情報を記憶するデータベースと、
    該データベースに記憶されている映像情報から画像を取得する画像取得部と、
    該画像取得部により取得された画像から対象物の情報の尤度関数を求める観測部と、
    該観測部により求められた対象物の情報の尤度関数と予測された対象物の情報の確率分布である事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定する推定部と、
    上記データベースに記憶されているカメラの位置情報及び姿勢情報を取得する位置姿勢取得部と、
    該位置姿勢取得部により取得されたカメラの位置情報及び姿勢情報と上記推定部により推定された対象物の情報の事後分布に基づき、対象物の情報の事前分布を予測する予測部と、
    上記推定部により推定された対象物の情報の事後分布に基づき対象物の情報の検出値を算出する検出部と、
    該検出部により算出された対象物の情報の検出値と上記位置姿勢取得部により取得されたカメラの位置情報及び姿勢情報に基づき、対象物の地理座標を算出する測位部とを備えた物体測位装置。
  2. 上記観測部は対象物の地理座標や相対座標、種類、大きさ、向き、経年変化、対象物の周辺情報等の対象物の情報の尤度関数を求めることを特徴とする請求項1記載の物体測位装置。
  3. 上記観測部は、画像上に射影された対象物を囲む矩形領域に含まれる色のヒストグラムを利用して、対象物の情報の尤度関数を求めることを特徴とする請求項1記載の物体測位装置。
  4. 上記推定部は、ベイズの定理を用いて、対象物の3次元座標、対象物の種類、対象物の大きさ等の対象物の情報の確率分布を同時に更新して対象物の情報の事後分布を推定することを特徴とする請求項1記載の物体測位装置。
  5. 上記推定部は、推定した対象物の情報の事後分布の分布状況に基づき、対象物の情報の精度を推定することを特徴とする請求項4記載の物体測位装置。
  6. 上記推定部は、前の時刻で求めた対象物の情報の確率分布を用いて現在の時刻における確率分布の推定を行うことにより、各画像から得られる対象物の情報を時々刻々と累積していき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定することを特徴とする請求項1記載の物体測位装置。
  7. 上記予測部は、位置姿勢取得部により取得されたカメラの位置情報及び姿勢情報を用いて、次の時刻における対象物の相対位置の確率分布を求めて時々刻々と対象物の相対座標を追跡することを特徴とする請求項1記載の物体測位装置。
  8. 上記予測部は、カメラの位置情報及び姿勢情報の測定精度を状態遷移確率分布によってモデル化して、対象物の情報の事前分布を予測することを特徴とする請求項1記載の物体測位装置。
  9. 上記検出部は、上記推定部により推定された対象物の情報の事後分布を最大とするような値を検出値とすることを特徴とする請求項1記載の物体測位装置。
  10. 上記検出部は、上記推定部により推定された事後分布の分布状況に基づき、算出した対象物の情報の検出値の精度を判定することを特徴とする請求項1記載の物体測位装置。
  11. 上記検出部は、画像に複数の対象物が同時に写っている場合、対象物の情報をグルーピングすることにより複数の対象物の情報の検出値を算出することを特徴とする請求項1記載の物体測位装置。
  12. 対象物の事前情報を反映した確率分布を対象物の情報の事前分布として算出する事前分布計算部を備え、
    上記推定部は、上記観測部により求められた対象物の情報の尤度関数と上記事前分布計算部により算出された対象物の情報の事前分布に基づき、対象物の情報の確率分布を更新して対象物の情報の事後分布を推定することを特徴とする請求項1記載の物体測位装置。
  13. 対象物の情報を記憶する対象物情報データベースを備え、
    上記事前分布計算部は、上記対象物情報データベースに記憶されている対象物の情報に基づき、対象物の事前情報を反映した確率分布を対象物の情報の事前分布として算出することを特徴とする請求項12記載の物体測位装置。
  14. 上記対象物情報データベースは対象物の情報の精度を記憶し、
    上記事前分布計算部は、上記対象物情報データベースに記憶されている対象物の情報の精度に基づき、対象物の情報の事前分布を算出することを特徴とする請求項13記載の物体測位装置。
JP2005263890A 2005-09-12 2005-09-12 物体測位装置 Expired - Fee Related JP4874607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005263890A JP4874607B2 (ja) 2005-09-12 2005-09-12 物体測位装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005263890A JP4874607B2 (ja) 2005-09-12 2005-09-12 物体測位装置

Publications (2)

Publication Number Publication Date
JP2007078409A true JP2007078409A (ja) 2007-03-29
JP4874607B2 JP4874607B2 (ja) 2012-02-15

Family

ID=37938899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005263890A Expired - Fee Related JP4874607B2 (ja) 2005-09-12 2005-09-12 物体測位装置

Country Status (1)

Country Link
JP (1) JP4874607B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008310796A (ja) * 2007-06-15 2008-12-25 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
JP2009015671A (ja) * 2007-07-06 2009-01-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009053059A (ja) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp 対象特定装置、対象特定方法および対象特定プログラム
JP2009245207A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム
JP2011043995A (ja) * 2009-08-21 2011-03-03 Mitsubishi Electric Corp 路面標示認識装置
JP2012234466A (ja) * 2011-05-09 2012-11-29 Nippon Telegr & Teleph Corp <Ntt> 状態追跡装置、方法、及びプログラム
US8401234B2 (en) 2010-02-19 2013-03-19 Panasonic Corporation Object position correction apparatus, object position correction method, and object position correction program
KR20150088636A (ko) * 2014-01-24 2015-08-03 한화테크윈 주식회사 위치 추정 장치 및 방법
KR20160100507A (ko) * 2015-02-16 2016-08-24 주식회사 유에스엔 위치 추적 시스템과 그의 위치 엔진 및 그의 위치 정보 수집 방법
JP2018009833A (ja) * 2016-07-12 2018-01-18 株式会社Soken 自車位置特定装置、及び自車位置特定方法
WO2021075581A1 (ja) * 2019-10-18 2021-04-22 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム
JP2021518622A (ja) * 2018-03-20 2021-08-02 ユニヴァーシティ・オブ・エセックス・エンタープライジズ・リミテッド 自己位置推定、マッピング、およびネットワークトレーニング

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01312411A (ja) * 1988-06-10 1989-12-18 Hitachi Ltd 画像を用いた物体位置推定方法及びセンサ状態推定方法
JP2000293670A (ja) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
JP2003303346A (ja) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体
JP2004171159A (ja) * 2002-11-18 2004-06-17 Nec Corp 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01312411A (ja) * 1988-06-10 1989-12-18 Hitachi Ltd 画像を用いた物体位置推定方法及びセンサ状態推定方法
JP2000293670A (ja) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
JP2003303346A (ja) * 2002-04-09 2003-10-24 Nippon Telegr & Teleph Corp <Ntt> 目標追跡方法、目標追跡装置、目標追跡プログラム、並びにこのプログラムを記録した記録媒体
JP2004171159A (ja) * 2002-11-18 2004-06-17 Nec Corp 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP2004302700A (ja) * 2003-03-28 2004-10-28 Ntt Data Corp 位置判別装置、移動経路算出装置および位置・移動経路算出方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148663A (ja) * 2005-11-25 2007-06-14 Sony Corp オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP4682820B2 (ja) * 2005-11-25 2011-05-11 ソニー株式会社 オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008310796A (ja) * 2007-06-15 2008-12-25 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
JP2009015671A (ja) * 2007-07-06 2009-01-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009053059A (ja) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp 対象特定装置、対象特定方法および対象特定プログラム
JP2009245207A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム
US8284292B2 (en) 2008-03-31 2012-10-09 Fujifilm Corporation Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
JP2011043995A (ja) * 2009-08-21 2011-03-03 Mitsubishi Electric Corp 路面標示認識装置
US8401234B2 (en) 2010-02-19 2013-03-19 Panasonic Corporation Object position correction apparatus, object position correction method, and object position correction program
JP2012234466A (ja) * 2011-05-09 2012-11-29 Nippon Telegr & Teleph Corp <Ntt> 状態追跡装置、方法、及びプログラム
KR20150088636A (ko) * 2014-01-24 2015-08-03 한화테크윈 주식회사 위치 추정 장치 및 방법
KR102016551B1 (ko) * 2014-01-24 2019-09-02 한화디펜스 주식회사 위치 추정 장치 및 방법
KR20160100507A (ko) * 2015-02-16 2016-08-24 주식회사 유에스엔 위치 추적 시스템과 그의 위치 엔진 및 그의 위치 정보 수집 방법
KR101708664B1 (ko) * 2015-02-16 2017-02-22 주식회사 이에스아이티 위치 추적 시스템과 그의 위치 엔진 및 그의 위치 정보 수집 방법
JP2018009833A (ja) * 2016-07-12 2018-01-18 株式会社Soken 自車位置特定装置、及び自車位置特定方法
JP2021518622A (ja) * 2018-03-20 2021-08-02 ユニヴァーシティ・オブ・エセックス・エンタープライジズ・リミテッド 自己位置推定、マッピング、およびネットワークトレーニング
WO2021075581A1 (ja) * 2019-10-18 2021-04-22 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム
JP2021067482A (ja) * 2019-10-18 2021-04-30 株式会社デンソーアイティーラボラトリ トラッキング装置、トラッキング方法、トラッキングプログラム
JP7211329B2 (ja) 2019-10-18 2023-01-24 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム

Also Published As

Publication number Publication date
JP4874607B2 (ja) 2012-02-15

Similar Documents

Publication Publication Date Title
JP4874607B2 (ja) 物体測位装置
US10417816B2 (en) System and method for digital environment reconstruction
JP7326720B2 (ja) 移動体位置推定システムおよび移動体位置推定方法
US20200401617A1 (en) Visual positioning system
JP4717760B2 (ja) 物体認識装置および映像物体測位装置
CN109099929B (zh) 基于场景指纹的智能车定位装置及方法
Mu et al. Multiple Vehicle Detection and Tracking in Highway Traffic Surveillance Video Based on SIFT Feature Matching.
KR101569919B1 (ko) 차량의 위치 추정 장치 및 방법
KR20160062880A (ko) 카메라 및 레이더를 이용한 교통정보 관리시스템
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
US11430199B2 (en) Feature recognition assisted super-resolution method
CN112991391A (zh) 一种基于雷达信号和视觉融合的车辆检测与跟踪方法
CN106780567B (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
Aeschliman et al. Tracking vehicles through shadows and occlusions in wide-area aerial video
JP2006119591A (ja) 地図情報生成方法、地図情報生成プログラム及び地図情報収集装置
CN116403139A (zh) 一种基于目标检测的视觉跟踪定位方法
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
JP7259454B2 (ja) 移動体位置推定システムおよび移動体位置推定方法
Szottka et al. Tracking multiple vehicles in airborne image sequences of complex urban environments
Diaz-Ruiz et al. Vision-only 3d tracking for self-driving cars
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
Ao et al. Detecting tiny moving vehicles in satellite videos
Christiansen et al. Monocular vehicle distance sensor using HOG and Kalman tracking
Zhang et al. Visual odometry based on random finite set statistics in urban environment
Vella et al. Improved detection for wami using background contextual information

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071004

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees