JP5086824B2 - 追尾装置及び追尾方法 - Google Patents

追尾装置及び追尾方法 Download PDF

Info

Publication number
JP5086824B2
JP5086824B2 JP2008015862A JP2008015862A JP5086824B2 JP 5086824 B2 JP5086824 B2 JP 5086824B2 JP 2008015862 A JP2008015862 A JP 2008015862A JP 2008015862 A JP2008015862 A JP 2008015862A JP 5086824 B2 JP5086824 B2 JP 5086824B2
Authority
JP
Japan
Prior art keywords
tracking
distance
unit
map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008015862A
Other languages
English (en)
Other versions
JP2009177666A (ja
Inventor
淳 黒田
哲也 塘中
英明 村田
喜一 杉本
陽介 藤冨
康晴 天内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2008015862A priority Critical patent/JP5086824B2/ja
Publication of JP2009177666A publication Critical patent/JP2009177666A/ja
Application granted granted Critical
Publication of JP5086824B2 publication Critical patent/JP5086824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、移動する追尾対象物を追尾する追尾装置及び追尾方法に関する。
移動する追尾対象物(移動体)を追尾する装置として、テンプレートマッチング手法を用いたものの一例の概略を図15に示す。この装置は、追尾対象物101が車両で、それを追尾する追尾体も車両(追尾車両)である場合のものである。追尾車両に追尾装置が搭載される。追尾装置は、追尾対象物101を撮影するカメラ装置102と、カメラ装置102が撮影した画像を、追尾対象物101を追尾するために処理する画像追尾処理部103とからなっている。カメラ装置102は旋回装置104により鉛直軸回り及び水平軸回りに旋回できるようになっている。画像追尾処理部103には、追尾対象物を画像データとしたテンプレート105を格納(記憶)するテンプレート格納部106が備えられている。このテンプレート格納部106に格納されているテンプレート105は、入力画像との一致の度合い(一致度)を演算するための基準画像で、画面上で操作者が指定した画像を取り込むことにより、または予め記憶しているデータにより形成される。
画像追尾処理部103には特徴抽出部107が備えられ、この特徴抽出部107に、カメラ装置102で撮像された追尾対象物101の画像情報が送られる。特徴抽出部107では、画像情報から、追尾対象物101の輪郭や色、ホットポイントなどの特徴を抽出する。テンプレート格納部106のテンプレート情報及び特徴抽出部106の情報はテンプレートマッチング処理部108に送られる。テンプレートマッチング処理部108では、テンプレート105と特徴抽出部106からの追尾対象物101の特徴情報とが比較され、それらの一致度が算出される。そして、一致度が最も高い画像が追尾対象物として算出され、そして例えばその中心点が追尾点Xとして算出される。次々と入力される画像情報に対して追尾点Xが求められる。カメラ装置102は、追尾点Xが画面の中心に来るように制御される。
図16には、テンプレートマッチング処理部108の処理内容を模式的に示す。図16(B)に示すようにカメラ装置102がとらえた画像を映し出すモニター画面109上に枠110を設定し、枠110でとらえた画像111とテンプレート105との一致度を比較しながら探索する。探索は、テンプレート105を図16(A)中に矢印で示すようにモニター画面109上で走査させることにより行なう。そして、図16(B)に示すように枠110でとらえた画像とテンプレート105との一致度の高い点を追尾点として算出する。画像111は、追尾対象物である車両だけでなく木も写っている場合のものである。
画面の一致度を見る装置は、例えば、特開2004−129131号公報(特許文献1)、特開2006−279890号公報(特許文献2)、特開平6−241787号公報(特許文献3)、特開平9−130784号公報(特許文献4)、特開平9−265538号公報(特許文献5)などに開示されている。
特開2004−129131号公報 特開2006−279890号公報 特開平6−241787号公報 特開平9−130784号公報 特開平9−265538号公報
カメラ装置で追尾対象物を捉える追尾装置にあっては、天候(雨、霧、夕暮れなど)の影響で画像のコントラストが低くなってフォーカスがずれることがある。また、テンプレートを使う装置にあっては、近距離から遠距離まで広範囲の目標に対応する際にテンプレートのサイズが不適切となることがある。目標近辺の背景が複雑である場合には、背景と目標との切り分けが困難となり、追尾精度の低下を招くこともある。更に、追尾対象物も動くものである場合には、相対速度が予測しづらくなり、追尾精度の低下が予測される。
本発明は、追尾対象物を追尾する追尾装置の位置を推定し、推定結果に基づいて追尾に必要な処理をすることにより追尾精度を向上させることを目的とする。
上記課題を解決する第1の発明に係る追尾装置の構成は、
追尾対象物を追尾する追尾体に搭載された撮像装置で捉えた画像の情報と追尾対象物のテンプレートとのテンプレートマッチング処理の一致度から追尾点を求める画像追尾処理部を備えた追尾装置において、前記追尾体に搭載されたGPS及びIMUと、前記GPS及び前記IMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出する自己位置姿勢推定部と、予め取得された3Dマップと、前記自己位置姿勢推定部と前記3Dマップとから注視点を検出する注視点検出部と、前記3Dマップより得られる推定2次元画像と前記撮像装置より得られる実画像をマッチングすることにより前記注視視点の誤差を補正する注視点誤差処理部とを備えることを特徴とする。
上記課題を解決する第2の発明に係る追尾装置の構成は、第1の発明に係る追尾装置において、
前記注視点検出部からの注視点情報と前記3Dマップとから追尾対象物の距離を推定する距離推定部と、この距離推定部の推定距離に基づいて前記撮像装置のフォーカス距離を算出するフォーカス算出部とを備え、前記フォーカス算出部の算出結果に基づいて前記撮像装置のフォーカス距離を修正することを特徴とする。
上記課題を解決する第3の発明に係る追尾装置の構成は、第1の発明に係る追尾装置において、
前記距離推定部の推定距離に基づいてテンプレートのサイズを算出するテンプレートサイズ算出部を備えることを特徴とする。
上記課題を解決する第4の発明に係る追尾装置の構成は、第1の発明に係る追尾装置において、
前記注視点検出部からの注視点情報と前記3Dマップとから前記追尾対象物が存在しない可能性が高い不存在領域を求め、その不存在領域をテンプレートマッチング処理の対象から除外することを特徴とする。
上記課題を解決する第5の発明に係る追尾装置の構成は、第1の発明に係る追尾装置において、
前記注視点検出部からの注視点情報と前記3Dマップとから前記追尾対象物と前記追尾体との相対距離を推定し、この相対距離を前記テンプレートマッチング処理に反映させることを特徴とする。
上記課題を解決する第6の発明に係る追尾装置の構成は、第1の発明に係る追尾装置において、
前記撮像装置の位置がプリセットされている場合に、前記注視点検出部からの注視点情報と前記3Dマップとからプリセット位置との関係を算出し、その算出結果に基づいて前記撮像装置がプリセット位置を向くように制御することを特徴とする。
上記課題を解決する第の発明に係る追尾装置の構成は、第2の発明に係る追尾装置において、
前記撮像装置を複数備えることにより距離を推定し、この推定された距離に基づいて前記距離推定部に求められた推定距離を補正することを特徴とする。
上記課題を解決する第の発明に係る追尾方法の構成は、
追尾対象物を追尾する追尾体に搭載された撮像画像で捉えた画像の情報と追尾対象物のテンプレートとのテンプレートマッチング処理の一致度から追尾点を求める追尾方法において、GPS及びIMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出するために自己位置姿勢を推定し、予め取得された3Dマップと前記自己位置姿勢ととから注視点を検出し、この注視点についての情報から前記撮像装置で捉えた追尾対象物までのフォーカス距離を決定する一方、前記3Dマップより得られる推定2次元画像と前記撮像装置より得られる実画像をマッチングすることにより前記注視視点の誤差を補正することを特徴とする。
上記第1乃至第の発明に係る追尾装置によれば、追尾対象物を追尾する追尾体に搭載された撮像装置で捉えた画像の情報と追尾対象物のテンプレートとのテンプレートマッチング処理の一致度から追尾点を求める画像追尾処理部を備えた追尾装置において、前記追尾体に搭載されたGPS及びIMUと、前記GPS及び前記IMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出する自己位置姿勢推定部と、予め取得された3Dマップと、前記自己位置姿勢推定部と前記3Dマップとから注視点を検出する注視点検出部とを備え、前記注視点検出部により注視点を検出し、それに基づいて種々の処理を行なうようにしたので、追尾精度自体が向上する。具体的には、注視点と3Dマップとから追尾対象物の距離を推定して撮像装置のフォーカスを制御し、テンプレートのサイズを算出してテンプレートを変更し、追尾対象物の不存在領域を検出してテンプレートマッチング処理対象から外し、相対距離を算出してテンプレートマッチング処理に反映させるようにしたので、追尾精度が向上する。また、前記3Dマップより得られる推定2次元画像と前記撮像装置より得られる実画像をマッチングすることにより誤差を補正するようにしたので、この面でも追尾精度が向上する。更に、前記撮像装置を複数備えることにより距離を推定し、この推定された距離に基づいて前記距離推定部に求められた推定距離を補正するようしたので、この面でも追尾精度が向上する。
また、第の発明に係る追尾方法によれば、GPS及びIMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出するために自己位置姿勢を推定し、予め取得された3Dマップと前記自己位置姿勢ととから注視点を検出し、この注視点についての情報から前記撮像装置で捉えた追尾対象物までのフォーカス距離を決定するようにしたので、追尾対象物に対する視認性が向上し、結果として追尾精度が向上する。
実施の形態1
以下、本発明に係る追尾装置の実施の形態1を、図面に基づき説明する。
図1は本発明の実施の形態1に係る追尾装置の概念ブロック図であり、図2は、実施の形態1に係る追尾装置における実画像と3Dマップ上での推定手法を示す説明図である。この実施の形態1に係る追尾装置は、図2に示すように追尾対象物が車両(追尾対象車両)1であり、車両1を追尾する追尾体も車両(追尾車両)2の場合のものである。なお、本発明は、この実施の形態1に限らず後述する実施の形態においても、追尾対象物としては車両に限らず種々の移動体に適用できる。
追尾車両2に追尾装置3が搭載される。追尾装置3は、追尾対象車両1を撮影する撮像装置としてのカメラ装置4と、カメラ装置4が撮影した画像から追尾点を求める処理をする画像追尾処理部5とを備える。カメラ装置4は、例えば光学的測距によるオートフォーカスカメラなどが採用される。カメラ装置4は旋回装置6により鉛直軸回り及び水平軸回りに旋回できるようになっている。画像追尾処理部5には、追尾対象車両1を画像データとしたテンプレート7を格納(記憶)するテンプレート格納部8が備えられる。このテンプレート格納部8に格納されているテンプレート7は、入力画像との一致の度合い(一致度)を演算するための基準画像で、カメラ装置4でとらえた画像を操作者が指定して取り込んだり、予め記憶しているデータにより形成されたりする。
画像追尾処理部5には特徴抽出部9が備えられ、この特徴抽出部9に、カメラ装置4で撮像された画像情報が送られる。特徴抽出部9では、画像情報から、追尾対象車両1の輪郭や色、ホットポイントなどの特徴を抽出する。テンプレート格納部8のテンプレート情報及び特徴抽出部9の抽出情報はテンプレートマッチング処理部10に送られる。テンプレートマッチング処理部10では、テンプレート7と抽出情報とが比較され、それらの一致度が算出される。このテンプレートマッチング処理を、図10(A)にイメージ的に示してある。A,B,C,Dが画面18上に表れている画像であり、それぞれの画像とテンプレートのマッチングがなされるのである(図16参照)。そして、一致度が最も高い画像が追尾対象物として算出され、そして例えば画像の中心点が追尾点Xとして算出される。カメラ装置4はこの追尾点Xを向くように制御される。つまり、画像追尾処理部5から旋回装置6に旋回指令(旋回量)が出され、その旋回指令に基づきカメラ装置4のカメラの向きが垂直軸回り及び水平軸回りに駆動され、カメラの向きが追尾対象車両1に合せられる。
本発明では追尾装置3として更にGPS(Global Positioning System:全地球測位システム)11、IMU(Inertial Measurement Unit:慣性姿勢計測装置又は慣性航法装置)12が搭載される。GPS11は人工衛星の軌道情報を利用して全地球上で3次元位置(x、y、z)を検出するもので、追尾車両2の位置が検出される。IMU12は直交する3軸(x軸、y軸、z軸)にそれぞれ設けられた加速度計と3つのジャイロスコープとから構成され、回転成分(Rx,Ry,Rz)と座標(x、y、z)(Δx、Δy、Δz)から追尾車両2の姿勢が検出される。GPS11及びIMU12の検出情報は自己位置・姿勢推定部13に送られる。自己位置・姿勢推定部13では、GPS11及びIMU12からの情報により追尾車両2の位置及び姿勢を推定する。
自己位置・姿勢推定部13の推定結果は注視点検出部14に入力される。注視点検出部14では、地図情報として3Dマップが格納された3Dマップ格納部15からその位置の3Dマップ情報が読み出される。そして、注視点検出部14では、自己位置・姿勢推定部13からの推定自己位置・姿勢情報と3Dマップとから地図上でどこを注視しているかが検出される。なお、以上の構成は、図1中破線で囲み符号17で示す部分であるが、この部分は本発明の基本構成部であり、後述する他の実施の形態においても共通する。
注視点検出部14の注視点情報は距離推定部16に送られる。距離推定部16では、注視点の方向と3Dマップとから追尾対象車両1までの距離が推定される。つまり、地図上で追尾車両2の位置、姿勢がわかり、そこから注視点の方向の追尾対象車両1が存在していると考えられる場所までの距離が推定できるのである。例えば、注視点方向に道路があれば、そこに追尾対象車両1が存在すると考えられるので、追尾車両2から道路までの距離を3Dマップ上から読み取り、推定距離とするのである。
図2に基づき距離推定部16における距離推定処理について更に説明すると、図2(A)は、追尾対象車両1と追尾車両2とを3Dマップ23上に表した状態をイメージ的に示してある。カメラ装置4でとらえた映像は画面上では図2(B)のように表される。図2(B)には、画面18内に、道路19、その上にある追尾対象車両1、背景の山林20、空21が映し出されている。また、上方から見た状態はイメージ的には図2(C)のようになる。注視点を推定するには、前述のようにGPS11及びIMU12からの情報より、3Dマップ23上での追尾車両2の自己位置及び姿勢から、視線方向を算出し、視線方向の距離を推定する。そして、追尾対象車両1が存在する場所として考えられるのは道路19であり、視線方向における道路19までの距離(図2(C)における矢印間の距離)が算出される。これが推定距離となる。
距離推定部16での推定結果である推定距離はフォーカス算出部22に入力され、ここで、推定距離にある追尾対象車両1を映し出す焦点距離が算出される。算出された焦点距離に基づきカメラ装置4の制御部にレンズ制御指令が出され、カメラ装置4の焦点距離が制御される。これにより、カメラ装置4の焦点がより追尾対象車両1に合ったものとなり、より鮮明な画像が得られる。より鮮明な画像が得られることから画像追尾処理部5におけるテンプレートマッチング処理の精度が向上する。つまり、追尾精度が向上する。
画像追尾処理部5からの旋回指令(旋回量)は、テンプレートマッチング処理部10にも入力され、追尾処理に利用される。例えば、図3に示すように、時刻t(このときの画面18を実線で示す)から時刻t+1(このときの画面18を破線で示す)で、x方向に10画素カメラが旋回しているとするとき、画面18上の追尾対象車両1が止まっていれば、画面中での追尾対象車両1の位置が時刻tから時刻t+1の間に10画素ずれた場所に来ている確率が高い。これにより、追尾処理する際の、捜索範囲を決定したりすることができる。
通常、画面18に表示されるカメラ装置4からのすべて情報に対してテンプレートマッチング処理を行なうと計算負荷が高くなる。そこで、図4に示すように、目標対象車両1の動作に見合った限られた範囲(探索範囲)18aのみでテンプレートマッチング処理を行なうようにする。旋回量がテンプレートマッチング処理部10に入るので、その旋回量から追尾対象車両1の画面18上での移動範囲が予測できる。その予測範囲をカバーできる範囲を探索範囲18aとして目標対象車両1に相当する画像を検索し、テンプレートマッチング処理を行なう。画面18全体に対しての処理ではないので、計算の負荷が軽減され、処理が速くなる。
この実施の形態1に係る追尾装置によれば、追尾対象車両1に対する距離を推定してカメラ装置4のフォーカス制御をするので、追尾対象車両1に対する視認性が向上し、結果として追尾精度が向上する。したがって、天候の影響で画像のコントラストが低く、オートフォーカスによる焦点がずれたとしてもそれを補正することができる。
実施の形態2
図5に本件発明の実施の形態2に係る追尾装置3aの概念ブロック図を示す。この実施の形態2に係る追尾装置3aは、追尾対象車両との推定距離に基づき、画像追尾処理に用いるテンプレートのサイズを変更するようにしたものである。つまり、追尾対象物が近距離にある場合と遠距離にある場合とで同じサイズのテンプレートを用いたのでは追尾精度に影響を与えるおそれがある。例えば、テンプレートを小さいサイズのまま使用すると背景などに埋もれてしまうおそれがある。そこで、追尾対象物までの距離を推定し、カメラ装置の焦点距離を調整する一方において、推定距離に基づいてテンプレートサイズを変えるようにするのである。
この追尾装置3aの基本構成部17の構成は、実施の形態1に係る追尾装置3のものと同じである。距離推定部16、フォーカス算出部22が設けられている構成も同じである。この追尾装置3aでは、更にテンプレートサイズ算出部31が設けられる。このテンプレートサイズ算出部31には、距離推定部16から推定距離情報が入力される。テンプレートサイズ算出部31では、距離とテンプレートとのサイズの関係に基づき推定距離からテンプレートのサイズが求められ、求められたテンプレートサイズが画像追尾処理部5に入力される。画像追尾処理部5では、テンプレートのサイズを変更して、テンプレートマッチング処理を行なう。したがって、カメラ装置4でとらえられた画像に合った大きさのテンプレートとのマッチングとなるので、適正なマッチング処理となる。
なお、旋回指令(旋回量)が画像追尾処理部5に入力されて、追尾処理(図3、図4)に利用されるのは実施の形態1と同様である。
この実施の形態2に係る追尾装置3aによれば、推定距離に基づき画像追尾処理に用いるテンプレートのサイズを設定するようにしたので、実施の形態1に係る追尾装置3による効果に加え、目標の特徴を適切にとらえることができ、かつ外乱の影響を抑えるこができるので、その面でも追尾精度の向上が図れるという効果を奏する。
実施の形態3
図6に本件発明の実施の形態3に係る追尾装置3bの概念ブロック図を示す。追尾対象物近辺の背景が複雑で、背景との追尾対象物との切り分けが困難な場合は、追尾精度が低くなる。この実施の形態3に係る追尾装置3bは、3Dマップの地図データにより、目標対象物との切り分けを難しくしている部分を追尾候補点から排除するようにしたものである。
この追尾装置3bの基本構成部17の構成は実施の形態1に係る追尾装置3のものと同じである。この追尾装置3bでは、更に目標候補存在確率算出部32が設けられる。この目標候補存在確率算出部32には、注視点検出部14からの注視点情報及び3Dマップ格納部15から3Dマップ情報が入力される。そして、図2(A)に示すように、3Dマップ23上に追尾対象車両1を表し、追尾対象車両1を追尾する上で切り分けを複雑とする要因となる部分を排除する。ここでは、地形的に追尾対象車両1が存在しない確率が高い箇所である山林20、空21などを探索領域から除外するのであり、図2(B)では、空21の部分を注視点算出の対象から外すことを示している。
画像追尾処理部5での処理をイメージ的に表したのが図10(B)である。画面18に現れている画像A,B,C,Dのうち、D地点が、目標候補存在確率算出部32で、3Dマップ情報、距離・姿勢情報から空と判断される場合は、空には追尾対象車両1は存在せず、Dは、追尾対象車両1の存在確率が低い箇所としてマッチングの対象から外すのである。したがって、D以外の部分とのマッチングにより追尾対象物を検索するのである。
この実施の形態3に係る追尾装置3bによれば、マップ上の地形データより、追尾対象車両1が明らかに存在しない追尾候補点を排除するので、誤った個所を追尾点として算出する可能性が低減され、結果として追尾精度が向上する。また、マッチング処理の対象が少なくなるので、処理部による処理(演算)がより高速化する。
なお、上述では、追尾候補点を排除する方法を採用しているが、例えば、道路>山>空といった順序で存在確率を定量的に評価し、テンプレートマッチング処理結果と併用して追尾点を算出するようにしてもよい。例えば、追尾点をマッチング度と存在確率の積で考えれば、以下のような場合には、B点の方が高得点となり、追尾点として選択されることになる。
座標A マッチング度 100 存在確率 10
座標B マッチング度 90 存在確率70
実施の形態4
図7には本件発明の実施の形態4に係る追尾装置3cの概念ブロック図を示す。追尾対象車両1もそれを追尾する追尾車両2も移動している場合には、相対速度が予測しづらくなり追尾精度の低下が予測される。注視点検出部14により追尾車両2の注視点がわかっているので、追尾対象車両1との相対的関係(速度、距離など)を知ることができ、それに基づき追尾対象車両1を適正に検出できるようにしたのである。
この追尾装置3cの基本構成部17の構成は実施の形態1に係る追尾装置3のものと同じであるが、更に距離測定・目標動き検出部33、目標候補存在確率算出部34が設けられる。距離測定・目標動き検出部33、目標候補存在確率算出部34で行なう処理を図8に基づき説明する。例えば、追尾対象車両1が等速で移動しているとすると、追尾車両2と追尾対象車両1との相対距離が変わらない場合には、時刻tのときの追尾対象車両1の位置に対し時刻t+1のとき、時刻t+2のときの追尾対象車両1の位置は、図8(A)に示すようになる。しかし、追尾車両2と追尾対象車両1との相対距離が変わる場合には、図8(B)に示すように、同じ時刻t+1、t+2において追尾対象車両1は図8(A)で示した位置とは異なり、見かけ上速度が減少しているようになり、t+1、t+2の時刻においては相対速度が変わらない場合に比べてL1、L2ずれた位置にあるごとく認識される。したがって、相対距離が変化している場合に、それを勘案せずに、時刻t+2には図8(a)における時刻t+2の位置に追尾対象車両1があると推測して探すと、探せず又は誤ったものを認識してしまうことになる。
そのため、本実施の形態4に係る追尾装置3cでは、距離測定・目標動き検出部33において、追尾対象車両1に対する推定距離と画面上の動きを検出して相対速度、相対距離を求める。そして、目標候補存在確率算出部34にて、追尾対象車両1との相対距離、相対速度から追尾対象車両1が存在する位置を推測する。つまり、追尾対象車両1の画面上での過去の動きから等速運動モデルを仮定し、目標候補の存在確率を求めるのであるが、追尾対象車両1及び追尾車両が移動する場合には、相対距離を考慮しながら、画面上での等速モデルを推定する。
目標候補存在確率算出部34で推定された結果は、画像追尾処理部5に入力され、テンプレートマッチング処理部10(図1参照)にて撮像された画像とテンプレートとのマッチングの際に考慮される。例えば、距離推定処理をイメージ的に表した説明図である図10(C)に示すように、過去の追尾位置から目標の等速モデルを仮定し、Bに居る確率が高い、Cの位置まで急に位置が変化することはない、等を推定し追尾点を算出する。
なお、旋回指令(旋回量)が画像追尾処理部5に入力されて、追尾処理(図3、図4)に利用されるのは実施の形態1と同様である。
この実施の形態4に係る追尾装置3cによれば、追尾対象車両1との相対的関係を検出してそれをテンプレートマッチングに反映させるので、相対的関係を考慮したマッチングができ、マッチングの精度が向上する。また、移動位置を予測して追尾するので、例えば追尾対象車両1が木陰に隠れて画像としては現れていないときでも、存在位置を推測することができる、つまり追尾することができ、画面上に現れたらマッチング処理を行なうというようなこともできる。
なお、図7に示した実施の形態4では、追尾対象車両1に対する推定距離に基づくフォーカス算出は行なっていないが、勿論実施の形態1と同様に、距離推定部とフォーカス算出部を設けて、カメラ装置4のレンズ制御を行なうようにすることもできる。
実施の形態5
図9には実施の形態5に係る追尾装置3dの概念ブロック図を示す。この追尾装置3dは、追尾対象カメラ装置4を向ける位置をプリセットしておき、追尾車両2が移動し、更には姿勢が変わった場合でも、プリセット位置にカメラ装置4が向くようにしたものである。
追尾装置3dの基本構成部17の構成は実施の形態1に係る追尾装置3のものと同じである。この追尾装置3dでは、プリセット位置算出部35が設けられる。このプリセット位置算出部35には、予めプリセット情報が記憶又は入力される。プリセット情報としては、ある箇所における追尾対象車両が出現する可能性の高い箇所、例えば道路、出入り口などであり、これらの箇所を優先的に探索すべき場所として決めておくのである。予め入力し記憶させておいてもよいし、3Dマップ格納部15から該当する箇所の情報が入力されるようにしてもよい。
注視点検出部14により追尾車両2の位置・姿勢が推定されると、この情報が、プリセット位置算出部35に入力される。また、プリセット位置算出部35には、画像追尾処理部5から追尾点Xの情報が旋回補正のための信号として入力される。プリセット位置算出部35では、プリセット情報と位置・姿勢の推定値との比較演算により、カメラ装置4をプリセット位置に向けるためにはどの方向にどれ位回転させればよいかが演算される。それが、テンプレートマッチング処理の結果である追尾点X情報に加味され、最終的にカメラ装置4を旋回させる量が算出される。この算出結果である旋回量がカメラ装置4に送られ、カメラ装置4の向きが回転制御される。これを図10(D)ではイメージ的に表してある。つまり、建物の入り口B、主要道路Cは優先的に探索すべき箇所であり、これらにカメラ装置4が優先的に向けられて探索がなされる。
この実施の形態5においては、プリセット位置算出部35からの旋回指令(旋回量)が画像処理部5に入力され、実施の形態1と同様に追尾処理(図3、図4)に利用される。
この実施の形態5に係る追尾装置3dによれば、追尾車両2が移動してプリセット位置に対する姿勢が変わってもプリセット位置にカメラ装置4を合わせることができるので、追尾精度が向上する。また、追尾対象車両が出現する可能性の高い所に優先的にカメラ装置を向けるので、探索の速度も上がる。
実施の形態6
図11には実施の形態6に係る追尾装置3eの概略ブロック図を示す。この追尾装置3eは、注視点誤差の補正機能を持たせたものである。つまり、GPS11やIMU12による検出誤差が蓄積されると自己位置・姿勢の推定値に誤差が生じるので、それを補正するようにしたのである。
追尾装置3eの基本構成部17の構成は実施の形態1に係る追尾装置3のものと同じである。この追尾装置3eでは、注視点誤差補正処理部36が備えられている。この注視点誤差補正処理部36には、注視点検出部14からの注視点情報及びカメラ装置4からの実際のカメラ映像が入力される。画像追尾処理部5からの追尾点情報も入力される。図12には、注視点検出部14から注視点誤差補正処理部36に送られる注視点情報(画像)がどのようなものであるかを示す。GPS11及びIMU12からの情報により算出される推定自車位置の誤差範囲37内、つまりGPS11及びIMU12から算出した追尾車両2の存在範囲内からの視点を、3Dマップ23から算出し、その位置からの2次元画像を作成する。この2次元画像が注視点誤差補正処理部36に送られる。図12においては、3Dマップ23内において、追尾車両(自車)2が今居ると推定された箇所に居る状態、及びその状態から見える地形を示す。
図13には、注視点誤差補正処理部36での補正処理の内容を示す。
前述のように注視点誤差補正処理部36には、カメラ装置4からの実画像38が入力される。一方、GPS11及びIMU12の検出誤差により追尾車両2が存在すると考えられる誤差範囲37において視点を変えて目標を見た場合の模擬画像39a,39b,39c・・・が3Dマップから作成され、注視点誤差補正処理部36に入力される。注視点誤差補正処理部36では、実画像38と擬似画像39a,39b,39c・・・との比較がなされ、例えば実画像38を擬似画像39a,39b,39c・・・上でスキャンさせることにより、実画像38と最も一致度の高い擬似画像を求め、その擬似画像の位置を正確な位置として算出する。例えば、擬似画像39cとの一致度が最も高い場合には、その擬似画像39cに対応する視点に追尾車両2が居ると判断する。
注視点誤差補正装置36からは誤差補正情報が画像追尾処理部5及びカメラ装置4の旋回装置6に入力される。画像追尾処理部5では、誤差補正情報に基づき追尾点の位置を修正し、カメラ装置4に旋回指令を出す。また、誤差補正情報に基づきカメラ装置4では、その水平方向及び上下方向の向きが制御される。
この実施の形態6に係る追尾装置3eによれば、GPS11及びIMU12の検出情報に基づく追尾車両2の推定位置・姿勢の誤差を、実際の画像と、追尾車両2が居ると予測される範囲37内の2次元擬似画像とのマッチングにより求め、その結果に基づき追尾点を補正するようにしたので、追尾精度を維持することができる。
実施の形態7
図14には実施の形態7に係る追尾装置3fの概略ブロック図を示す。この追尾装置3fは、カメラ装置を二台備えて追尾対象物をステレオ視し、その結果に基づき、GPS11及びIMU12の検出結果に基づき推測された距離の精度を上げるようにしたものである。
追尾装置3fの基本構成部17の構成は実施の形態1に係る追尾装置3のものと同じである。この追尾装置3fには、もう1台カメラ装置41が装備される。カメラ装置41の撮像画像情報はステレオ視距離推定部42に入力される。カメラ装置4の撮像画像は、画像追尾処理部3に送られるだけではなく、ステレオ視距離推定部42にも送られる。ステレオ視距離推定部42の推定結果は、距離推定部16に送られる。
この追尾装置3fでは、2台のカメラ装置4、41からの画像情報によりステレオ視距離推定部42で、追尾対象車両1までの距離を推定する。このステレオ視推定距離は距離推定部16に送られる。一方、GPS11及びIMU12の検出情報は自己位置・姿勢推定部13に送られる。自己位置・姿勢推定部13では、GPS11及びIMU12からの情報により追尾車両2の位置及び姿勢を推定する。自己位置・姿勢推定部13の推定結果は注視点検出部14に入力される。注視点検出部14では、地図情報として3Dマップが格納された3Dマップ格納部15からその位置の3Dマップ情報が読み出される。そして、注視点検出部14では、自己位置・姿勢推定部13からの推定自己位置・姿勢情報と3Dマップとから地図上でどこを注視しているかが検出される。この注視点検出部14の注視点情報は距離推定部16に送られる。距離推定部16では、注視点の方向と3Dマップとから追尾対象車両1までの距離が推定される。つまり、地図上で追尾車両2の位置、姿勢がわかり、そこから注視点の方向の追尾対象車両1が存在していると考えられる場所までの距離が推定できるのである。
3Dマップ情報に基づき距離推定部16で推定された推定距離は、ステレオ視距離推定部42からのステレオ視推定距離に基づき補正される。補正された推定距離は、フォーカス算出部22に送られ、距離推定部16での推定結果はフォーカス算出部22に入力され、ここで追尾対象車両1までの焦点距離が算出される。算出された焦点距離に基づきカメラ装置4の制御部にレンズ制御指令が出され、カメラ装置4の焦点距離が制御される。これにより、カメラ装置4の焦点がより追尾対象車両1に合ったものとなり、より鮮明な画像が得られることから画像追尾処理部5におけるテンプレートマッチング処理の精度が向上する。
なお、旋回指令(旋回量)が画像追尾処理部5に入力されて、追尾処理(図3、図4)に利用されるのは実施の形態1と同様である。
この実施の形態7に係る追尾装置3fによれば、追尾対象車両1に対する推定距離の精度が高まり、フォーカスの精度も向上するので、追尾対象車両1に対する視認性が向上し、結果として追尾精度が向上する。また、GPS11及びIMU12の検出精度が低下した場合でもそれを補正することができる。
本発明の実施の形態1に係る追尾装置の概略ブロック図である。 実施の形態1における実画像と3Dマップ上での推定手法を示す説明図である。 実施の形態1に係る追尾装置の追尾処理における旋回量の利用形態を示す模式図である。 実施の形態1に係る追尾装置の追尾処理における旋回量の利用形態を示す模式図である。 本発明の実施の形態2に係る追尾装置の概略ブロック図である。 本発明の実施の形態3に係る追尾装置の概略ブロック図である。 本発明の実施の形態4に係る追尾装置の概略ブロック図である。 本発明の実施の形態4に係る追尾装置における相対速度と相対距離との関係の説明図である。 本発明の実施の形態5に係る追尾装置の概略ブロック図である。 本発明の実施の形態1、3、4、5の内容をイメージ的に表した説明図である。 本発明の実施の形態6に係る追尾装置の概略ブロック図である。 GPS、IMUから算出した追尾車両の存在範囲を示すイメージ図である。 本発明の実施の形態6に係る追尾装置の処理内容の説明図である。 本発明の実施の形態7に係る追尾装置の概略ブロック図である。 従来のテンプレートマッチング処理のブロック図である。 テンプレートマッチング処理の説明図である。
符号の説明
1 追尾対象車両、2 追尾車両、3 追尾装置、4 カメラ装置、5 画像追尾理部、6 旋回装置、7 テンプレート、8 テンプレート格納部(記憶部)、9 特徴抽出部、10 テンプレートマッチング処理部、11 GPS装置、12 IMU装置、13 自己位置・姿勢推定部、14 注視点検出部、15 3Dマップ格納部、16 距離推定部、17 基本構成部、18 画面、19 道路、20 山林、21 空、22 フォーカス算出部、23 3Dマップ、31 テンプレートサイズ算出部、32 目標存在確率算出部、33 距離推定・目標動き検出部、34 目標候補存在確率算出部、35 プリセット位置算出部、36 注視点誤差補正処理部、37 誤差範囲、38 実画像、39a,39b,39c・・・擬似画像、41 カメラ装置、42 ステレオ視距離推定部。

Claims (8)

  1. 追尾対象物を追尾する追尾体に搭載された撮像装置で捉えた画像の情報と追尾対象物のテンプレートとのテンプレートマッチング処理の一致度から追尾点を求める画像追尾処理部を備えた追尾装置において、前記追尾体に搭載されたGPS及びIMUと、前記GPS及び前記IMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出する自己位置姿勢推定部と、予め取得された3Dマップと、前記自己位置姿勢推定部と前記3Dマップとから注視点を検出する注視点検出部と、前記3Dマップより得られる推定2次元画像と前記撮像装置より得られる実画像をマッチングすることにより前記注視視点の誤差を補正する注視点誤差処理部とを備えること追尾装置。
  2. 前記注視点検出部からの注視点情報と前記3Dマップとから追尾対象物の距離を推定する距離推定部と、この距離推定部の推定距離に基づいて前記撮像装置のフォーカス距離を算出するフォーカス算出部とを備え、前記フォーカス算出部の算出結果に基づいて前記撮像装置のフォーカス距離を修正することを特徴とする請求項1に記載の追尾装置。
  3. 前記距離推定部の推定距離に基づいてテンプレートのサイズを算出するテンプレートサイズ算出部を備えることを特徴とする請求項2に記載の追尾装置。
  4. 前記注視点検出部からの注視点情報と前記3Dマップとから前記追尾対象物の不存在領域を求め、その不存在領域をテンプレートマッチング処理の対象から除外することを特徴とする請求項1に記載の追尾装置。
  5. 前記注視点検出部からの注視点情報と前記3Dマップとから前記追尾対象物と前記追尾体との相対距離を推定し、この相対距離を前記テンプレートマッチング処理に反映させることを特徴とする請求項1に記載の追尾装置。
  6. 前記撮像装置の位置がプリセットされている場合に、前記注視点検出部からの注視点情報と前記3Dマップとからプリセット位置を算出し、前記撮像装置を制御することを特徴とする請求項1に記載の追尾装置。
  7. 前記撮像装置を複数備えることにより距離を推定し、この推定された距離に基づいて前記距離推定部に求められた推定距離を補正することを特徴とする請求項2に記載の追尾装置。
  8. 追尾対象物を追尾する追尾体に搭載された撮像画像で捉えた画像の情報と追尾対象物のテンプレートとのテンプレートマッチング処理の一致度から追尾点を求める追尾方法において、GPS及びIMUの検出情報に基づいて前記追尾体の位置及び姿勢を検出するために自己位置姿勢を推定し、予め取得された3Dマップと前記自己位置姿勢ととから注視点を検出し、この注視点についての情報から前記撮像装置で捉えた追尾対象物までのフォーカス距離を決定する一方、前記3Dマップより得られる推定2次元画像と前記撮像装置より得られる実画像をマッチングすることにより前記注視視点の誤差を補正することを特徴とする追尾方法。
JP2008015862A 2008-01-28 2008-01-28 追尾装置及び追尾方法 Active JP5086824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008015862A JP5086824B2 (ja) 2008-01-28 2008-01-28 追尾装置及び追尾方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008015862A JP5086824B2 (ja) 2008-01-28 2008-01-28 追尾装置及び追尾方法

Publications (2)

Publication Number Publication Date
JP2009177666A JP2009177666A (ja) 2009-08-06
JP5086824B2 true JP5086824B2 (ja) 2012-11-28

Family

ID=41032257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008015862A Active JP5086824B2 (ja) 2008-01-28 2008-01-28 追尾装置及び追尾方法

Country Status (1)

Country Link
JP (1) JP5086824B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101994595B (zh) * 2009-08-24 2013-06-12 本田技研工业株式会社 车辆用内燃机的汽缸头构造

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385754B (zh) * 2010-08-30 2016-12-07 三星电子株式会社 一种物体跟踪方法和设备
EP2820837A4 (en) 2012-03-01 2016-03-09 H4 Eng Inc APPARATUS AND METHOD FOR AUTOMATIC VIDEO RECORDING
WO2017045143A1 (en) 2015-09-16 2017-03-23 SZ DJI Technology Co., Ltd. Systems and methods for positioning of uav
JP2019007964A (ja) * 2018-07-24 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uavの位置を推定するシステム及び方法
JP2021177582A (ja) * 2018-07-31 2021-11-11 ソニーグループ株式会社 制御装置、制御方法、およびプログラム
CN116528046A (zh) * 2020-11-09 2023-08-01 华为技术有限公司 目标用户追焦拍摄方法、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09170898A (ja) * 1995-12-20 1997-06-30 Mitsubishi Electric Corp 誘導装置
JP3919994B2 (ja) * 2000-01-13 2007-05-30 三菱電機株式会社 撮影システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101994595B (zh) * 2009-08-24 2013-06-12 本田技研工业株式会社 车辆用内燃机的汽缸头构造

Also Published As

Publication number Publication date
JP2009177666A (ja) 2009-08-06

Similar Documents

Publication Publication Date Title
CN112567201B (zh) 距离测量方法以及设备
US10339387B2 (en) Automated multiple target detection and tracking system
EP3650814B1 (en) Vision augmented navigation
US8397181B2 (en) Method and apparatus for marking a position of a real world object in a see-through display
JP5086824B2 (ja) 追尾装置及び追尾方法
JP6176541B2 (ja) 情報表示装置、情報表示方法及びプログラム
US20080279421A1 (en) Object detection using cooperative sensors and video triangulation
US9275458B2 (en) Apparatus and method for providing vehicle camera calibration
EP3355241B1 (en) Determining a position of a vehicle on a track
JP6129981B2 (ja) 移動体位置推定装置および移動体位置推定方法
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR20180112090A (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
US20130215270A1 (en) Object detection apparatus
US20140253737A1 (en) System and method of tracking an object in an image captured by a moving device
KR102219843B1 (ko) 자율주행을 위한 위치 추정 장치 및 방법
JP6229041B2 (ja) 基準方向に対する移動要素の角度偏差を推定する方法
US10991105B2 (en) Image processing device
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP6858681B2 (ja) 距離推定装置及び方法
JP2006234703A (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
US11346670B2 (en) Position estimating device
JP2009260564A (ja) 移動体画像追尾装置
CN113011212B (zh) 图像识别方法、装置及车辆
CN116295327A (zh) 定位方法、装置、电子设备和计算机可读存储介质
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120907

R151 Written notification of patent or utility model registration

Ref document number: 5086824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250