JP7008898B1 - 目標追尾装置、目標追尾システム、及び目標追尾方法 - Google Patents

目標追尾装置、目標追尾システム、及び目標追尾方法 Download PDF

Info

Publication number
JP7008898B1
JP7008898B1 JP2021570748A JP2021570748A JP7008898B1 JP 7008898 B1 JP7008898 B1 JP 7008898B1 JP 2021570748 A JP2021570748 A JP 2021570748A JP 2021570748 A JP2021570748 A JP 2021570748A JP 7008898 B1 JP7008898 B1 JP 7008898B1
Authority
JP
Japan
Prior art keywords
unit
target
predicted
correlation
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021570748A
Other languages
English (en)
Other versions
JPWO2021171498A1 (ja
Inventor
哲太郎 山田
堅也 杉原
健太 鈴木
将成 中村
慶 赤間
良晃 横山
知視 森野
秀好 大和
洋志 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021171498A1 publication Critical patent/JPWO2021171498A1/ja
Application granted granted Critical
Publication of JP7008898B1 publication Critical patent/JP7008898B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

目標追尾装置(1)は、検出部(5)が検出した複数種の観測特徴量と予測部(6)が予測した複数種の予測特徴量との相関を決定する相関部(7)と、相関部(7)が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択部(8)と、検出部(5)が検出した複数種の観測特徴量のうちの、特徴量選択部(8)が選択した種別に該当する観測特徴量、及び、予測部(6)が予測した複数種の予測特徴量のうちの、特徴量選択部(8)が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリング部(9)と、を備えている。

Description

本発明は、目標追尾装置に関する。
予防保全又は防災を目的として、船舶、自動車、航空機又は人物等の移動体を監視することが求められている。移動体を継続的に監視する手段として、カメラ、レーダ又はレーザ等の非接触センサによって移動体を目標として検出及び追尾する技術が知られている(例えば、特許文献1参照)。
特開2011-232822号公報
目標を検出及び追尾する従来技術では、目標の検出及び追尾に用いられる画像のぼけ、画像の撮影環境、又は画像における目標の写り方等によっては、目標の位置等の特徴量を検出する検出精度が安定せずに、目標を追尾する追尾性能が劣化してしまうという問題がある。
この発明は、上記のような問題点を解決するためになされたものであり、目標を追尾する追尾性能を向上させる技術を提供することを目的とする。
この発明に係る目標追尾装置は、目標に関するセンサデータを取得する取得部と、取得部が取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する検出部と、検出部が過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する予測部と、検出部が検出した複数種の観測特徴量と予測部が予測した複数種の予測特徴量との相関を決定する相関部と、相関部が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択部と、検出部が検出した複数種の観測特徴量のうちの、特徴量選択部が選択した種別に該当する観測特徴量、及び、予測部が予測した複数種の予測特徴量のうちの、特徴量選択部が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリング部と、を備えている。
この発明によれば、目標を追尾する追尾性能を向上させることができる。
実施の形態1に係る目標追尾装置を備えている目標追尾システムの構成を示すブロック図である。 実施の形態1に係る目標追尾装置による目標追尾方法を示すフローチャートである。 実施の形態1に係る目標追尾装置による目標追尾方法の第1の具体例を説明するための概念図である。 実施の形態1に係る目標追尾装置による目標追尾方法の第2の具体例を説明するための概念図である。 実施の形態1に係る目標追尾装置による目標追尾方法の第3の具体例を説明するための概念図である。 実施の形態1に係る目標追尾装置による目標追尾方法の第4の具体例を説明するための概念図である。 実施の形態1に係る目標追尾装置によるパラメータ調整方法を示すフローチャートである。 図8Aは、センサ部がカメラである場合の目標追尾装置の機能を実現するハードウェア構成を示すブロック図である。図8Bは、センサ部がレーダである場合の目標追尾装置の機能を実現するハードウェア構成を示すブロック図である。 図9Aは、センサ部がカメラである場合の目標追尾装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図9Bは、センサ部がレーダである場合の目標追尾装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態2に係る目標追尾装置を備えている目標追尾システムの構成を示すブロック図である。 実施の形態2に係る目標追尾装置による目標追尾方法を示すフローチャートである。 実施の形態3に係る目標追尾装置を備えている目標追尾システムの構成を示すブロック図である。 実施の形態3に係る目標追尾装置による目標追尾方法を示すフローチャートである。 実施の形態3に係る目標追尾装置による目標追尾方法の具体例を説明するための概念図である。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る目標追尾装置1を備えている目標追尾システム100の構成を示すブロック図である。図1が示すように、目標追尾システム100は、センサ部2、目標追尾装置1、及び表示装置3を備えている。目標追尾装置1は、取得部4、検出部5、予測部6、相関部7、特徴量選択部8、及びフィルタリング部9を備えている。
センサ部2は、目標を検知することにより、目標に関するセンサデータを取得する。センサ部2が検知する目標の数は、単数であってもよいし、複数であってもよい。センサ部2は、例えば、カメラ、レーダ、又はレーザセンサ等である。例えば、センサ部2がカメラである場合、当該カメラは、目標を撮影することによりセンサデータとして画像を取得する。例えば、当該画像は、複数のフレームから構成された動画像である。センサ部2は取得したセンサデータを取得部4に出力する。
取得部4は、目標に関するセンサデータを取得する。実施の形態1では、取得部4は、センサ部2が取得したセンサデータを取得する。取得部4は、取得したセンサデータを検出部5に出力する。
検出部5は、取得部4が取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する。より詳細には、センサ部2がカメラであり、取得部4がセンサデータとして画像を取得した場合、検出部5は、取得部4が取得した画像に基づいて、現在時刻における複数種の観測特徴量を検出する。その場合、検出部5は、取得部4が取得した画像に対して、例えば、SSD(Single Shot MultiBox Detector)又はyolo(You Look Only Once)等の目標検出アルゴリズムを用いて、現在時刻における複数種の観測特徴量を検出する。
検出部5が検出する、現在時刻における複数種の観測特徴量は、例えば、目標の位置、目標の大きさ、センサ部2から目標までの距離、目標の色ヒストグラム、目標の勾配方向ヒストグラム、又は、目標を囲うバウンディングボックスに関する複数種の観測特徴量等である。当該バウンディングボックスが2次元のバウンディングボックスである場合、バウンディングボックスに関する複数種の観測特徴量は、例えば、四角形のバウンディングボックスの4つの頂点の各位置、又は、四角形のバウンディングボックスの縦サイズ若しくは横サイズ等である。当該バウンディングボックスが3次元のバウンディングボックスである場合、バウンディングボックスに関する複数種の観測特徴量は、例えば、六面体のバウンディングボックスの8つの頂点の各位置、又は、六面体のバウンディングボックスの縦サイズ、横サイズ若しくは奥行サイズ等である。
検出部5は、取得部4が取得したセンサデータに基づいて、局所領域毎に、現在時刻における複数種の観測特徴量を検出してもよい。
検出部5は、検出した複数種の観測特徴量を予測部6に出力する。なお、本明細書において、簡略化のため、「複数種の観測特徴量」という用語は、「過去の」等の修飾語を付さない限り、現在時刻における複数種の観測特徴量を意味するものとする。
予測部6は、検出部5が過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する。なお、予測部6は、後述するフィルタリング部9が算出した過去の出力用特徴量にさらに基づいて、現在時刻における複数種の予測特徴量を予測する。
予測部6が現在時刻における複数種の予測特徴量を予測する具体的な方法の例として、例えば、等速直線モデル又は旋回モデル等の運動モデルを用いて目標の状態の変化を予測する方法が挙げられる。より詳細には、例えば、予測部6は、検出部5が過去に検出した過去の複数種の観測特徴量と、後述するフィルタリング部9が算出した過去の出力用特徴量とを、目標の状態の変化を示す状態方程式に入力することにより、現在時刻における複数種の予測特徴量を予測する。
予測部6が予測する、現在時刻における複数種の予測特徴量は、例えば、目標の位置、目標の大きさ、センサ部2から目標までの距離、目標の色ヒストグラム、目標の勾配方向ヒストグラム、又は、目標を囲うバウンディングボックスに関する複数種の予測特徴量等である。当該バウンディングボックスが2次元のバウンディングボックスである場合、バウンディングボックスに関する複数種の予測特徴量は、例えば、四角形のバウンディングボックスの4つの頂点の各位置、又は、バウンディングボックスの縦サイズ若しくは横サイズ等である。当該バウンディングボックスが3次元のバウンディングボックスである場合、バウンディングボックスに関する複数種の予測特徴量は、例えば、六面体のバウンディングボックスの8つの頂点の各位置、又は、六面体のバウンディングボックスの縦サイズ、横サイズ若しくは奥行サイズ等である。なお、予測部6は、これらの現在時刻における複数種の予測特徴量を予測する際に、対応する過去の複数種の観測特徴量に基づいて予測する。
予測部6は、検出部5が局所領域毎に複数種の観測特徴量を検出する場合、検出部5が過去に局所領域毎に検出した過去の複数種の観測特徴量に基づいて、局所領域毎に、現在時刻における複数種の予測特徴量を予測する。
予測部6は、予測した複数種の予測特徴量を相関部7に出力する。なお、本明細書において、簡略化のため、「複数種の予測特徴量」という用語は、「過去の」等の修飾語を付さない限り、現在時刻における複数種の予測特徴量を意味するものとする。
相関部7は、検出部5が検出した複数種の観測特徴量と、予測部6が予測した複数種の予測特徴量との相関を決定する。より詳細には、例えば、相関部7は、検出部5が検出した複数種の観測特徴量と、予測部6が予測した複数種の予測特徴量とを比較することにより、検出部5が検出した複数種の観測特徴量と、予測部6が予測した複数種の予測特徴量との対応関係を決定する。
相関部7が上記の相関を決定する具体的な方法の例として、例えば、GNN(Global Nearest Neighbor)又はMHT(Multiple Hypothesis Tracking)等の相関アルゴリズムを用いて上記の対応関係を決定する方法が挙げられる。
相関部7が決定する相関は、例えば、検出部5が検出した目標の大きさと予測部6が予測した目標の大きさとの相関、検出部5が検出した目標の色ヒストグラムと、予測部6が予測した目標の色ヒストグラムとの相関、検出部5が検出した目標の勾配方向ヒストグラムと、予測部6が予測した目標の勾配方向ヒストグラムとの相関、又は、検出部5が検出した局所領域毎の複数種の観測特徴量である。または、相関部7が決定する相関は、予測部6が予測した局所領域毎の複数種の予測特徴量との相関、検出部5が検出した目標までの距離及び目標の平面上の位置と予測部6が予測した目標までの距離及び目標の平面上の位置との相関、又は、検出部5が検出したバウンディングボックスに関する複数種の観測特徴量と予測部6が予測したバウンディングボックスに関する複数種の予測特徴量との相関である。
相関部7は、検出部5が局所領域毎に複数種の観測特徴量を検出し、予測部6が局所領域毎に複数種の予測特徴量を予測した場合、局所領域毎に、検出部5が局所領域毎に検出した複数種の観測特徴量と、予測部6が局所領域毎に予測した複数種の予測特徴量との相関を決定する。
相関部7は、決定した相関を示す情報を、特徴量選択部8に出力する。
特徴量選択部8は、相関部7が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する。より詳細には、例えば、相関部7が観測特徴量と当該観測特徴量に対応する予測特徴量との差を相関として決定した場合、特徴量選択部8は、相関部7が決定した当該差が、所定の閾値以下であるか否かを判定し、当該差が所定の閾値以下である場合、当該観測特徴量及び当該予測特徴量の種別を、フィルタリングの対象として選択する。
特徴量選択部8が選択する特徴量の種別は、例えば、目標の位置、目標の大きさ、センサ部2から目標までの距離、目標の色ヒストグラム、目標の勾配方向ヒストグラム、又は、目標を囲うバウンディングボックスに関する特徴量等である。当該バウンディングボックスが2次元のバウンディングボックスである場合、バウンディングボックスに関する特徴量は、例えば、四角形のバウンディングボックスの4つの頂点のうちの少なくとも1つ以上の頂点の位置、又は、四角形のバウンディングボックスの縦サイズ若しくは横サイズ等である。当該バウンディングボックスが3次元のバウンディングボックスである場合、バウンディングボックスに関する特徴量は、例えば、六面体のバウンディングボックスの8つの頂点のうちの少なくとも1つ以上の頂点の位置、又は、六面体のバウンディングボックスの縦サイズ、横サイズ若しくは奥行サイズ等である。
特徴量選択部8は、相関部7が局所領域毎に相関を決定した場合、相関部7が局所領域毎に決定した相関に基づいて、局所領域毎に、フィルタリングの対象とする特徴量の種別を選択する。
特徴量選択部8は、選択した種別を示す情報をフィルタリング部9に出力する。
フィルタリング部9は、検出部5が検出した複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出する。
例えば、フィルタリング部9は、検出部5が検出した複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量に基づいて、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量をフィルタリングすることにより、出力用特徴量を算出する。または、例えば、フィルタリング部9は、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、検出部5が検出した複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量をフィルタリングすることにより、出力用特徴量を算出する。
フィルタリング部9が出力用特徴量を算出するために用いる具体的なフィルタリングの例として、例えば、カルマンフィルタ、非線形カルマンフィルタ若しくは粒子フィルタ等の状態推定フィルタを用いたフィルタリング、又はα-βフィルタを用いたフィルタリング等が挙げられる。
フィルタリング部9が算出する出力用特徴量は、例えば、目標の位置、目標の大きさ、センサ部2から目標までの距離、目標の色ヒストグラム、目標の勾配方向ヒストグラム、又は、目標を囲うバウンディングボックスに関する特徴量等である。当該バウンディングボックスが2次元のバウンディングボックスである場合、バウンディングボックスに関する特徴量は、例えば、四角形のバウンディングボックスの4つの頂点のうちの少なくとも1つ以上の頂点の位置、又は、四角形のバウンディングボックスの縦サイズ若しくは横サイズ等である。当該バウンディングボックスが3次元のバウンディングボックスである場合、バウンディングボックスに関する特徴量は、例えば、六面体のバウンディングボックスの8つの頂点のうちの少なくとも1つ以上の頂点の位置、又は、六面体のバウンディングボックスの縦サイズ、横サイズ若しくは奥行サイズ等である。
フィルタリング部9は、特徴量選択部8が局所領域毎に種別を選択した場合、検出部5が局所領域毎に検出した複数種の観測特徴量のうちの、特徴量選択部8が局所領域毎に選択した種別に該当する観測特徴量、及び、予測部6が局所領域毎に予測した複数種の予測特徴量のうちの、特徴量選択部8が局所領域毎に選択した種別に該当する予測特徴量に基づいて、局所領域毎にフィルタリングを行うことにより、局所領域毎に出力用特徴量を算出する。
フィルタリング部9は、算出した出力用特徴量を、表示装置3と予測部6とに出力する。
表示装置3は、フィルタリング部9が算出した出力用特徴量に基づいた画像を表示する。より詳細には、例えば、表示装置3は、フィルタリング部9が算出した出力用特徴量を数値として示す画像を表示する。または、例えば、表示装置3は、フィルタリング部9が算出した出力用特徴量が反映された画素を含む画像を表示する。
なお、上述の通り、予測部6は、検出部5が過去に検出した過去の複数種の観測特徴量に加えて、フィルタリング部9が算出した過去の出力用特徴量にさらに基づいて、現在時刻における複数種の予測特徴量を予測する。より詳細には、上述の予測部6は、フィルタリング部9が算出した過去の出力用特徴量と、検出部5が過去に検出した過去の複数種の観測特徴量のうち、フィルタリング部9が算出した過去の出力用特徴量の種別に該当しない種別の観測特徴量と、に基づいて、現在時刻における複数種の予測特徴量を予測する。
次に、実施の形態1に係る目標追尾装置1の動作について図面を参照して説明する。図2は、実施の形態1に係る目標追尾装置1による目標追尾方法を示すフローチャートである。なお、目標追尾装置1が当該目標追尾方法を実行する前に、上述のセンサ部2が、目標を検知することにより、目標に関するセンサデータを取得し、当該センサデータを取得部4に出力したものとする。
図2が示すように、取得部4は、センサ部2が取得したセンサデータを取得する(ステップST1)。取得部4は、取得したセンサデータを検出部5に出力する。
次に、検出部5は、取得部4が取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する(ステップST2)。検出部5は、検出した複数種の観測特徴量を予測部6に出力する。
次に、予測部6は、検出部5が過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する(ステップST3)。予測部6は、予測した複数種の予測特徴量を相関部7に出力する。
次に、相関部7は、検出部5が検出した複数種の観測特徴量と、予測部6が予測した複数種の予測特徴量との相関を決定する(ステップST4)。相関部7は、決定した相関を示す情報を、特徴量選択部8に出力する。
次に、特徴量選択部8は、相関部7が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する(ステップST5)。特徴量選択部8は、選択した種別を示す情報をフィルタリング部9に出力する。
次に、フィルタリング部9は、検出部5が検出した複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出する(ステップST6)。フィルタリング部9は、算出した出力用特徴量を、表示装置3と予測部6とに出力する。
次に、表示装置3は、表示装置3は、フィルタリング部9が算出した出力用特徴量に基づいた画像を表示する。また、センサ部2は、目標を新たに検知することにより、目標に関するセンサデータを新たに取得し、当該センサデータを取得部4に出力する。
取得部4は、ステップST1の処理に戻り、センサ部2が新たに取得したセンサデータを取得する。次に、検出部5は、ステップST2の処理として、取得部4が新たに取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を新たに検出する。次に、ステップST3の処理として、予測部6は、検出部5が過去に検出した過去の複数種の観測特徴量と、上記のステップST6においてフィルタリング部9が算出した過去の出力用特徴量とに基づいて、現在時刻における複数種の予測特徴量を新たに予測する。そして、上述の通り、目標追尾装置1は、ステップST4からステップST6までの各工程を再度実行する。以上のように、目標追尾装置1は、ステップST1からステップST6の各工程を繰り返すことにより、目標を追尾する。
次に、実施の形態1に係る目標追尾装置1による目標追尾方法の第1の具体例について図面を参照して説明する。図3は、目標追尾装置1による目標追尾方法の第1の具体例を説明するための概念図である。なお、当該第1の具体例では、目標追尾装置1は、前の時刻において、上述のステップST1からステップST6を行い、前の時刻における目標を囲うバウンディングボックスPを予め導出したものとする。また、センサ部2は、目標を予め検知することにより、目標を示す画像を予め取得したものとする。
まず、上述のステップST1において、取得部4は、センサ部2がセンサデータとして取得した画像を取得する。次に、上述のステップST2において、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標を囲うバウンディングボックスに関する複数種の観測特徴量として、バウンディングボックスQの4つの頂点の各位置、及びバウンディングボックスQの縦サイズL及び横サイズWを検出する。つまり、目標の状態の変化を示す状態方程式に用いられる状態ベクトルは、位置及びサイズである。なお、図3が示すように、バウンディングボックスQは、前景Rによるオクルージョンによって、前の時刻のバウンディングボックスPとは、形状が異なっている。
次に、上述のステップST3において、予測部6は、前の時刻におけるバウンディングボックスPの4つの頂点の各位置、及びバウンディングボックスPの縦サイズ及び横サイズに基づいて、現在時刻におけるバウンディングボックスSの4つの頂点の各位置、及びバウンディングボックスSの縦サイズ及び横サイズを予測する。
次に、上述のステップST4において、相関部7は、検出部5が検出したバウンディングボックスQの4つの頂点の各位置並びにバウンディングボックスQの縦サイズL及び横サイズWと、予測部6が予測したバウンディングボックスSの4つの頂点の各位置並びにバウンディングボックスSの縦サイズ及び横サイズとの相関を決定する。この際、例えば、相関部7は、バウンディングボックスQに関する観測特徴量と、当該観測特徴量に対応するバウンディングボックスSに関する予測特徴量との差が所定の閾値以下であるか否かを判定する。
上記の判定の結果として、相関部7は、上記の差が所定の閾値以下であると判定したバウンディングボックスQの左上の頂点の位置とバウンディングボックスSの左上の頂点の位置とが対応しているものとする。また、相関部7は、上記の差が所定の閾値以下であると判定したバウンディングボックスQの右上の頂点の位置とバウンディングボックスSの右上の頂点の位置とが対応しているものとする。また、相関部7は、上記の差が所定の閾値以下であると判定したバウンディングボックスQの横サイズWとバウンディングボックスSの横サイズとが対応しているものとする。
一方、相関部7は、バウンディングボックスQがオクルージョンの影響を受けているか否かをさらに判定する。そして、相関部7は、オクルージョン判定の結果として、バウンディングボックスQの左下の頂点の位置及び右下の頂点の位置、及びバウンディングボックスQの縦サイズLが、前景Rによるオクルージョンの影響を受けているものとする。つまり、相関部7は、バウンディングボックスQの左下の頂点の位置及び右下の頂点の位置並びにバウンディングボックスQの縦サイズLと、バウンディングボックスSの左下の頂点の位置及び右下の頂点の位置並びにバウンディングボックスSの縦サイズとはそれぞれ対応関係がないものとする。
次に、上述のステップST5において、特徴量選択部8は、相関部7が決定した相関に基づいて、フィルタリングの対象として、バウンディングボックスの左上の頂点の位置及び右上の頂点の位置、並びにバウンディングボックスの横サイズを選択する。
次に、上述のステップST6において、フィルタリング部9は、バウンディングボックスQの左上の頂点の位置とバウンディングボックスSの左上の頂点の位置とに基づいて、フィルタリングを行うことにより、出力用特徴量として、バウンディングボックスTの左上の頂点の位置を算出する。また、フィルタリング部9は、バウンディングボックスQの右上の頂点の位置とバウンディングボックスSの右上の頂点の位置とに基づいて、フィルタリングを行うことにより、出力用特徴量として、バウンディングボックスTの右上の頂点の位置を算出する。また、フィルタリング部9は、バウンディングボックスQの横サイズWとバウンディングボックスSの横サイズとに基づいて、フィルタリングを行うことにより、出力用特徴量として、バウンディングボックスTの横サイズを算出する。
次に、実施の形態1に係る目標追尾装置1による目標追尾方法の第2の具体例について図面を参照して説明する。図4は、目標追尾装置1による目標追尾方法の第2の具体例を説明するための概念図である。なお、当該第2の具体例では、目標追尾装置1は、前の時刻において、上述のステップST1からステップST6を行い、前の時刻における目標を囲うバウンディングボックスP2を予め導出したものとする。また、センサ部2は、目標を予め検知することにより、目標を示す画像を予め取得したものとする。
なお、図4のバウンディングボックスP2において、1が指し示す局所領域が左上の局所領域であり、2が指し示す局所領域が右上の局所領域であり、3が指し示す局所領域が左下の局所領域であり、4が指し示す局所領域が右下の局所領域である。以下の説明では、目標追尾装置1は、特徴量として、色ヒストグラムを用いるが、色ヒストグラムの代わりに、勾配方向ヒストグラムを用いてもよい。また、目標追尾装置1は、同じ人物を異なる状況やカメラから写した複数の画像データセットを用いて同じ人の画像同士の類似度が大きくなるよう調整された見た目の特徴量を用いても良い。
まず、上述のステップST1において、取得部4は、センサ部2がセンサデータとして取得した画像を取得する。次に、上述のステップST2において、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標を囲うバウンディングボックスに関する複数種の観測特徴量として、バウンディングボックスQ2における、左上の局所領域の色ヒストグラム、右上の局所領域の色ヒストグラム、左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムを検出する。なお、図4が示すように、バウンディングボックスQ2は、前景R2によるオクルージョンによって、前の時刻のバウンディングボックスP2とは、形状が異なっている。
次に、上述のステップST3において、予測部6は、前の時刻のバウンディングボックスP2における、左上の局所領域の色ヒストグラム、右上の局所領域の色ヒストグラム、左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムに基づいて、現在時刻のバウンディングボックスS2における、左上の局所領域の色ヒストグラム、右上の局所領域の色ヒストグラム、左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムを予測する。
次に、上述のステップST4において、相関部7は、検出部5が検出したバウンディングボックスQ2における、左上の局所領域の色ヒストグラム、右上の局所領域の色ヒストグラム、左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムと、予測部6が予測したバウンディングボックスS2における、左上の局所領域の色ヒストグラム、右上の局所領域の色ヒストグラム、左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムとの相関を決定する。この際、例えば、相関部7は、バウンディングボックスQ2における局所領域の色ヒストグラムと、バウンディングボックスS2における対応する局所領域の色ヒストグラムとのバタチャリヤ距離等の類似度指標を用いてこれらの相関の判定を行う。さらに、相関部7は、バウンディングボックスQ2がオクルージョンの影響を受けているか否かを判定する。
そして、相関部7は、類似度指標を用いた判定の結果として、バウンディングボックスQ2における左上の局所領域の色ヒストグラムと、バウンディングボックスS2における左上の局所領域の色ヒストグラムとが対応し、バウンディングボックスQ2における右上の局所領域の色ヒストグラムと、バウンディングボックスS2における右上の局所領域の色ヒストグラムとが対応しているものとする。一方、相関部7は、オクルージョン判定の結果として、バウンディングボックスQ2における左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムが、前景R2によるオクルージョンの影響を受けているものとする。つまり、相関部7は、バウンディングボックスQ2における左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムと、バウンディングボックスS2における左下の局所領域の色ヒストグラム及び右下の局所領域の色ヒストグラムとはそれぞれ対応関係がないものとする。
次に、上述のステップST5において、特徴量選択部8は、相関部7が決定した相関に基づいて、フィルタリングの対象として、バウンディングボックスにおける左上の局所領域の色ヒストグラム及び右上の局所領域の色ヒストグラムを選択する。
次に、上述のステップST6において、フィルタリング部9は、バウンディングボックスQ2の左上の局所領域の色ヒストグラムとバウンディングボックスS2の左上の局所領域の色ヒストグラムとに基づいて、フィルタリングを行うことにより、出力用特徴量として、バウンディングボックスT2の左上の局所領域の色ヒストグラムを算出する。また、フィルタリング部9は、バウンディングボックスQ2の右上の局所領域の色ヒストグラムとバウンディングボックスS2の右上の局所領域の色ヒストグラムとに基づいて、フィルタリングを行うことにより、出力用特徴量として、バウンディングボックスT2の右上の局所領域の色ヒストグラムを算出する。
次に、実施の形態1に係る目標追尾装置1による目標追尾方法の第3の具体例について図面を参照して説明する。図5は、目標追尾装置1による目標追尾方法の第3の具体例を説明するための概念図である。なお、センサ部2は、地上又は海上に存在する目標を予め撮影することにより、目標と地平線又は水平線とを示す画像を予め取得したものとする。以下の説明では、目標追尾装置1が、センサデータとして、水平線Hを示す画像を用いる例を示す。
まず、上述のステップST1において、取得部4は、センサ部2がセンサデータとして取得した画像を取得する。次に、上述のステップST2において、検出部5は、取得部4が取得した画像に基づいて、現在時刻における、2次元画素座標系を基準とした目標の位置を検出する。なお、図5では、目標の位置がx、yで示されている。また、上述のステップST2において、検出部5は、取得部4が取得した、現在時刻のフレーム及び過去のフレームを含む複数のフレームに基づいて、目標の移動方向を検出する。なお、図5では、目標の移動方向がdx、dyで示されている。また、上述のステップST2において、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標を囲うバウンディングボックスの縦サイズ及び横サイズを検出する。なお、図5では、バウンディングボックスの縦サイズがwで示され、バウンディングボックスの横サイズがlで示されている。
次に、上述のステップST3において、予測部6は、取得部4が取得した画像における水平線Hから目標までの画素数に基づいて、現在時刻における目標までの距離を算出し、当該距離と、検出部5が過去に検出した過去の目標の位置とに基づいて、現在時刻における、3次元直交座標系を基準とした目標の位置を予測する。なお、ここにおける「目標までの距離」は、センサ部2から目標までの距離を意味する。
より詳細には、上述のステップST3において、例えば、予測部6は、算出した上述の距離と、検出部5が過去に検出した過去の目標の位置と、検出部5がステップST2で検出した目標の移動方向とに基づいて、現在時刻における目標の位置を予測する。また、予測部6は、目標が直方体、球体又は円柱等の3次元立体であることを想定して、当該3次元立体の形状を予測し、予測した形状の3次元立体を囲うバウンディングボックスを予測し、当該バウンディングボックスの縦サイズ、横サイズ及び奥行サイズを予測する。なお、図5では、バウンディングボックスの奥行サイズがdで示されている。
次に、上述のステップST4において、相関部7は、検出部5が検出した目標の位置と、予測部6が予測した目標の位置との相関を決定する。また、上述のステップST4において、相関部7は、検出部5が検出したバウンディングボックスの縦サイズ及び横サイズと、予測部6が検出したバウンディングボックスの縦サイズ及び横サイズとの相関を決定する。
次に、上述のステップST5において、特徴量選択部8は、相関部7が決定した相関に基づいて、フィルタリングの対象として、目標の位置と、バウンディングボックスの縦サイズ、横サイズ及び奥行サイズを選択する。
次に、上述のステップST6において、フィルタリング部9は、検出部5が検出した目標の位置と、予測部6が予測した目標の位置とに基づいて、2次元画素座標系と3次元直交座標系との非線形関係を示す非線形状態推定モデルを用いたフィルタリングを行うことにより、出力用特徴量として、出力用の目標の位置を算出する。なお、ここにおける「非線形状態推定モデル」は、例えば、拡張カルマンフィルタ等である。
また、上述のステップST6において、フィルタリング部9は、検出部5が検出したバウンディングボックスの縦サイズ及び横サイズと、予測部6が予測したバウンディングボックスの縦サイズ、横サイズ及び奥行サイズとに基づいて、2次元画素座標系と3次元直交座標系との非線形関係を示す非線形状態推定モデルを用いたフィルタリングを行うことにより、出力用特徴量として、出力用のバウンディングボックスの縦サイズ、横サイズ及び奥行サイズを算出する。
次に、実施の形態1に係る目標追尾装置1による目標追尾方法の第4の具体例について図面を参照して説明する。図6は、目標追尾装置1による目標追尾方法の第4の具体例を説明するための概念図である。なお、当該第4の具体例では、目標を囲うバウンディングボックスの縦サイズ又は横サイズが周期的に振動するため、当該縦サイズの変化又は当該横サイズの変化を、三角関数を用いて表すことが可能であるものとする。以下では、目標追尾装置1がバウンディングボックスの横サイズの変化を予測する例を示す。
第4の具体例では、上述のステップST2において、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標を囲うバウンディングボックスの横サイズを検出する。この際、検出部5は、検出したバウンディングボックスの横サイズを上述の三角関数に当てはめ、現在時刻における三角関数の位相、振幅及び周波数を導出する。つまり、目標の状態の変化を示す状態方程式に用いられる状態ベクトルは、三角関数の位相、振幅及び周波数である。
次に、上述のステップST3において、予測部6は、検出部5が過去に導出した三角関数の位相、振幅及び周波数に基づいて、現在時刻におけるバウンディングボックスの横サイズを予測する。
つまり、第4の具体例では、目標追尾装置1は、三角関数を用いることにより、バウンディングボックスのサイズを好適に予測することができる。
次に、目標追尾装置1が目標の検出に用いる検出パラメータと目標の追尾に用いる追尾パラメータとを調整するパラメータ調整方法について図面を参照して説明する。図7は、目標追尾装置1によるパラメータ調整方法を示すフローチャートである。なお、目標追尾装置1がパラメータ調整方法を実行する前に、目標追尾装置1には、目標に関する時系列のセンサデータ等の時系列の入力データと、当該時系列の入力データに応じた正解の時系列の教師データとが与えられるものとする。
まず、目標追尾装置1は、入力データとしてのセンサデータと、当該センサデータに応じた正解の観測特徴量とに基づいて、検出パラメータを学習する(ステップST10)。当該検出パラメータは、検出部5がセンサデータに基づいて現在時刻における観測特徴量を検出する際に用いるパラメータである。検出パラメータは、例えば、検出部5が用いる検出アルゴリズムがCNN(Convolutional Neural Network)である場合、ネットワークの重み、又は、信頼度が一定以上の目標を検出する際の信頼度閾値である。
次に、目標追尾装置1は、入力データとしての過去の観測特徴量と、当該過去の観測特徴量に応じた現在時刻における正解の予測特徴量とに基づいて、予測に関する追尾パラメータを学習する(ステップST11)。当該予測に関する追尾パラメータは、予測部6が過去の観測特徴量に基づいて現在時刻における予測特徴量を予測する際に用いるパラメータである。例えば、当該予測に関する追尾パラメータは、駆動雑音、又は遷移行列等である。
次に、目標追尾装置1は、入力データとしての観測特徴量及び予測特徴量と、これらの正解の相関とに基づいて、相関に関する追尾パラメータを学習する(ステップST12)。当該相関に関する追尾パラメータは、相関部7が観測特徴量と予測特徴量との相関を決定する際に用いるパラメータである。より詳細には、例えば、当該相関に関する追尾パラメータは、相関部7が観測特徴量と当該観測特徴量に対応する予測特徴量との相関スコアを算出する際に用いるパラメータである。より具体的には、当該相関に関する追尾パラメータは、検出確率、新目標密度、誤警報密度、又はゲート内外判定閾値である。相関部7が当該相関に関する追尾パラメータを学習する際の最適化指標は、相関の正解率又はMOTA: Multi-object tracking accuracy等である。なお、当該相関スコアについて、例えば、特徴量選択部8は、相関部7が算出した相関スコアが所定の閾値以上であった特徴量の種別をフィルタリングの対象として選択する。
次に、目標追尾装置1は、入力データとしての観測特徴量及び予測特徴量と、正解の出力用特徴量とに基づいて、フィルタリングに関する追尾パラメータを学習する(ステップST13)。当該フィルタリングに関する追尾パラメータは、フィルタリング部9が観測特徴量及び予測特徴量に基づいてフィルタリングを行う際に用いられるパラメータである。例えば、当該フィルタリングに関する追尾パラメータは、入力データがバウンディングボックスに関する特徴量である場合、バウンディングボックスの頂点の位置又はサイズの観測雑音等である。または、例えば、当該フィルタリングに関する追尾パラメータは、入力データが色ヒストグラム又は勾配方向ヒストグラムである場合、バタチャリヤ距離の観測誤差等である。また、目標追尾装置1は、残差誤差共分散を推定してもよい。フィルタリング部9が当該フィルタリングに関する追尾パラメータを学習する際の最適化指標は、追尾精度、又はメモリトラック航跡の少なさ、又はMOTA: Multi-object tracking accuracy等である。
次に、目標追尾装置1は、上述のステップST1からステップST6までの各工程を繰り返すことにより、目標を追尾する(ステップST14)。
目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能は、処理回路により実現される。すなわち、目標追尾装置1は、図2に示したステップST1からステップST6までの処理、又は図7に示したステップST10からステップST13までの処理を実行するための処理回路を備える。この処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
図8Aは、上述のセンサ部2がカメラである場合の目標追尾装置1の機能を実現するハードウェア構成を示すブロック図である。図8Bは、上述のセンサ部2がレーダである場合の目標追尾装置1の機能を実現するハードウェア構成を示すブロック図である。図9Aは、上述のセンサ部2がカメラである場合の目標追尾装置1の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図9Bは、上述のセンサ部2がレーダである場合の目標追尾装置1の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図8A及び図9Aにおけるカメラ10は、目標を撮影することにより、センサデータとして目標を示す画像を取得する。図8A、図8B、図9A及び図9Bにおけるディスプレイ11は、フィルタリング部9が算出した出力用特徴量に基づいた画像を表示する。図8B及び図9Bにおけるアンテナ12及び送受信機13は、レーダを構成し、送受信機13は、アンテナ12を介して目標に向けて電波を送信し、アンテナ12を介して、目標によって反射された電波をアナログ信号として受信する。図8B及び図9BにおけるA/D変換器14は、送受信機13が受信したアナログ信号をセンサデータとしてのデジタル信号に変換する。
上記処理回路が図8A及び図8Bに示す専用のハードウェアの処理回路15である場合、処理回路15は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)又はこれらを組み合わせたものが該当する。
目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
上記処理回路が図9A及び図9Bに示すプロセッサ16である場合、目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能は、ソフトウェア、ファームウェア又はソフトウェアとファームウェアとの組み合わせによって実現される。
なお、ソフトウェア又はファームウェアは、プログラムとして記述されてメモリ17に記憶される。
プロセッサ16は、メモリ17に記憶されたプログラムを読み出して実行することにより、目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能を実現する。すなわち、目標追尾装置1は、プロセッサ16によって実行されるときに、図2に示したステップST1からステップST6までの処理又は図7に示したステップST10からステップST13が結果的に実行されるプログラムを記憶するためのメモリ17を備える。
これらのプログラムは、目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9の手順又は方法をコンピュータに実行させる。メモリ17は、コンピュータを、目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
メモリ17には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
目標追尾装置1における、取得部4、検出部5、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能について一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現してもよい。
例えば、取得部4及び検出部5は、専用のハードウェアとしての処理回路で機能を実現する。予測部6、相関部7、特徴量選択部8及びフィルタリング部9については、プロセッサ16がメモリ17に記憶されたプログラムを読み出して実行することにより機能を実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組み合わせにより上記機能のそれぞれを実現することができる。
以上のように、実施の形態1に係る目標追尾装置1は、目標に関するセンサデータを取得する取得部4と、取得部4が取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する検出部5と、検出部5が過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する予測部6と、検出部5が検出した複数種の観測特徴量と予測部6が予測した複数種の予測特徴量との相関を決定する相関部7と、相関部7が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択部8と、検出部5が検出した複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリング部9と、を備えている。
上記の構成によれば、観測特徴量の検出精度が安定しない場合でも、フィルタリングの対象として選択された観測特徴量及び予測特徴量に基づいてフィルタリングを行う部分特徴量フィルタリングによって、出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における検出部5は、取得部4が取得したセンサデータに基づいて、現在時刻における目標の大きさを少なくとも検出し、予測部6は、検出部5が過去に検出した過去の目標の大きさに基づいて、現在時刻における目標の大きさを少なくとも予測し、相関部7は、検出部5が検出した目標の大きさと、予測部6が予測した目標の大きさとの相関を少なくとも決定し、フィルタリング部9は、特徴量選択部8がフィルタリングの対象として目標の大きさを選択した場合、検出部5が検出した目標の大きさと、予測部6が予測した目標の大きさとに基づいて、フィルタリングを行うことにより、出力用特徴量として、出力用の目標の大きさを算出する。
上記の構成によれば、観測特徴量として目標の大きさを検出する精度が安定しない場合でも、フィルタリングの対象として選択された観測特徴量の目標の大きさ及び予測特徴量の目標の大きさに基づいてフィルタリングを行う部分特徴量フィルタリングによって、出力用特徴量の目標の大きさの精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における取得部4が取得するセンサデータは、画像であり、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標の色ヒストグラムを少なくとも検出し、予測部6は、検出部5が過去に検出した過去の目標の色ヒストグラムに基づいて、現在時刻における目標の色ヒストグラムを少なくとも予測し、相関部7は、検出部5が検出した目標の色ヒストグラムと、予測部6が予測した目標の色ヒストグラムとの相関を少なくとも決定し、フィルタリング部9は、特徴量選択部8がフィルタリングの対象として目標の色ヒストグラムを選択した場合、検出部5が検出した目標の色ヒストグラムと、予測部6が予測した目標の色ヒストグラムとに基づいて、フィルタリングを行うことにより、出力用特徴量として、出力用の目標の色ヒストグラムを算出する。
上記の構成によれば、観測特徴量として目標の色ヒストグラムを検出する精度が安定しない場合でも、フィルタリングの対象として選択された観測特徴量の目標の色ヒストグラム及び予測特徴量の目標の色ヒストグラムに基づいてフィルタリングを行う部分特徴量フィルタリングによって、出力用特徴量の目標の色ヒストグラムの精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における取得部4が取得するセンサデータは、画像であり、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標の勾配方向ヒストグラムを少なくとも検出し、予測部6は、検出部5が過去に検出した過去の目標の勾配方向ヒストグラムに基づいて、現在時刻における目標の勾配方向ヒストグラムを少なくとも予測し、相関部7は、検出部5が検出した目標の勾配方向ヒストグラムと、予測部6が予測した目標の勾配方向ヒストグラムとの相関を少なくとも決定し、フィルタリング部9は、特徴量選択部8がフィルタリングの対象として目標の勾配方向ヒストグラムを選択した場合、検出部5が検出した目標の勾配方向ヒストグラムと、予測部6が予測した目標の勾配方向ヒストグラムとに基づいて、フィルタリングを行うことにより、出力用特徴量として、出力用の目標の勾配方向ヒストグラムを算出する。
上記の構成によれば、観測特徴量として目標の勾配方向ヒストグラムを検出する精度が安定しない場合でも、フィルタリングの対象として選択された観測特徴量の目標の勾配方向ヒストグラム及び予測特徴量の目標の勾配方向ヒストグラムに基づいてフィルタリングを行う部分特徴量フィルタリングによって、出力用特徴量の目標の勾配方向ヒストグラムの精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における検出部5は、取得部4が取得したセンサデータに基づいて、局所領域毎に、現在時刻における複数種の観測特徴量を検出し、予測部6は、検出部5が過去に局所領域毎に検出した過去の複数種の観測特徴量に基づいて、局所領域毎に、現在時刻における複数種の予測特徴量を予測し、相関部7は、局所領域毎に、検出部5が検出した複数種の観測特徴量と、予測部6が予測した複数種の予測特徴量との相関を決定し、特徴量選択部8は、相関部7が局所領域毎に決定した相関に基づいて、局所領域毎に、フィルタリングの対象とする特徴量の種別を選択し、フィルタリング部9は、検出部5が局所領域毎に検出した複数種の観測特徴量のうちの、特徴量選択部8が局所領域毎に選択した種別に該当する観測特徴量、及び、予測部6が局所領域毎に予測した複数種の予測特徴量のうちの、特徴量選択部8が局所領域毎に選択した種別に該当する予測特徴量に基づいて、局所領域毎にフィルタリングを行うことにより、局所領域毎に出力用特徴量を算出する。
上記の構成によれば、局所領域毎の観測特徴量を検出する精度が安定しない場合でも、フィルタリングの対象として局所領域毎に選択された観測特徴量及び予測特徴量に基づいて局所領域毎にフィルタリングを行う局所領域毎の部分特徴量フィルタリングによって、局所領域毎に出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における取得部4が取得するセンサデータは、地平線又は水平線を少なくとも示す画像であり、検出部5は、取得部4が取得した画像に基づいて、現在時刻における、2次元画素座標系を基準とした目標の位置を少なくとも検出し、予測部6は、取得部4が取得した画像における地平線又は水平線から目標までの画素数に基づいて、現在時刻における目標までの距離を算出し、当該距離と、検出部5が過去に検出した過去の目標の位置とに基づいて、現在時刻における、3次元直交座標系を基準とした目標の位置を少なくとも予測し、相関部7は、検出部5が検出した目標の位置と、予測部6が予測した目標の位置との相関を少なくとも決定し、フィルタリング部9は、特徴量選択部8がフィルタリングの対象として目標の位置を選択した場合、検出部5が検出した目標の位置と、予測部6が予測した目標の位置とに基づいて、2次元画素座標系と3次元直交座標系との非線形関係を示す非線形状態推定モデルを用いたフィルタリングを行うことにより、出力用特徴量として、出力用の目標の位置を算出する。
上記の構成によれば、観測特徴量として目標の位置を検出する精度が安定しない場合でも、フィルタリングの対象として選択された観測特徴量の目標の位置及び予測特徴量の目標の位置に基づいて非線形状態推定モデルを用いたフィルタリングを行う部分特徴量フィルタリングによって、出力用特徴量の目標の位置の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における取得部4が取得するセンサデータは、画像であり、検出部5は、取得部4が取得した画像に基づいて、現在時刻における目標を囲うバウンディングボックスに関する複数種の観測特徴量を少なくとも検出し、予測部6は、検出部5が過去に検出した過去のバウンディングボックスに関する複数種の観測特徴量に基づいて、現在時刻におけるバウンディングボックスに関する複数種の予測特徴量を少なくとも予測し、相関部7は、検出部5が検出したバウンディングボックスに関する複数種の観測特徴量と、予測部6が予測したバウンディングボックスに関する複数種の予測特徴量との相関を少なくとも決定し、フィルタリング部9は、特徴量選択部8がフィルタリングの対象としてバウンディングボックスに関する特徴量の種別を選択した場合、検出部5が検出したバウンディングボックスに関する複数種の観測特徴量のうち、特徴量選択部8が選択した種別に該当する観測特徴量と、予測部6が予測したバウンディングボックスに関する複数種の予測特徴量のうち、特徴量選択部8が選択した種別に該当する予測特徴量とに基づいて、フィルタリングを行うことにより、出力用特徴量として、出力用のバウンディングボックスに関する特徴量を算出する。
上記の構成によれば、観測特徴量としてバウンディングボックスに関する観測特徴量を検出する精度が安定しない場合でも、フィルタリングの対象として選択された、バウンディングボックスに関する観測特徴量及びバウンディングボックスに関する予測特徴量に基づいてフィルタリングを行う部分特徴量フィルタリングによって、バウンディングボックスに関する出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1が用いる上記のバウンディングボックスは、3次元のバウンディングボックスである。
上記の構成によれば、3次元のバウンディングボックスに関する出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1におけるフィルタリング部9は、時系列の教師データから算出された追尾パラメータを用いてフィルタリングを行う。
上記の構成によれば、フィルタリングの精度を向上させることができ、フィルタリングの結果としての出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾装置1における相関部7は、時系列の教師データから算出された追尾パラメータを用いて、検出部5が検出した複数種の観測特徴量と予測部6が予測した複数種の予測特徴量との相関として、相関スコアを算出する。相関スコアは、例えば、目標の中心位置の差とバウンディングボックスの大きさの差とヒストグラムや見た目の特徴量のバタチャリヤ距離を残差共分散で正規化したマハラビノス距離を用いて相関スコアとしてもよい。
上記の構成によれば、相関スコアの算出の精度を向上させることができ、当該相関スコアに基づいてフィルタリングの対象を適切に選択できるようになる。よって、フィルタリングを適切に行うことができ、フィルタリングの結果としての出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
また、実施の形態1に係る目標追尾システム100は、上記の各態様の目標追尾装置1と、目標を検知することによりセンサデータを取得するセンサ部2と、フィルタリング部9が算出した出力用特徴量に基づいた画像を表示する表示装置3と、を備えている。
上記の構成によれば、目標追尾システム100において、上記の各態様の目標追尾装置1が奏する効果と同様の効果を奏する。
また、実施の形態1に係る目標追尾方法は、目標に関するセンサデータを取得する取得ステップと、取得ステップで取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する検出ステップと、検出ステップで過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する予測ステップと、検出ステップで検出した複数種の観測特徴量と予測ステップで予測した複数種の予測特徴量との相関を決定する相関ステップと、相関ステップで決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択ステップと、検出ステップで検出した複数種の観測特徴量のうちの、特徴量選択ステップで選択した種別に該当する観測特徴量、及び、予測ステップで予測した複数種の予測特徴量のうちの、特徴量選択ステップで選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリングステップと、を含む。
上記の構成によれば、局所領域毎の観測特徴量を検出する精度が安定しない場合でも、フィルタリングの対象として局所領域毎に選択された観測特徴量及び予測特徴量に基づいて局所領域毎にフィルタリングを行う局所領域毎の部分特徴量フィルタリングによって、局所領域毎に出力用特徴量の精度を向上させることができる。よって、目標を追尾する追尾性能を向上させることができる。
実施の形態2.
実施の形態2では、目標の動きをベクトルで表すオプティカルフローを用いて観測特徴量を検出する構成について説明する。
以下で、実施の形態2について図面を参照して説明する。なお、実施の形態1で説明した構成と同様の機能を有する構成については同一の符号を付し、その説明を省略する。
図10は、実施の形態2に係る目標追尾装置20を備えている目標追尾システム101の構成を示すブロック図である。図10が示すように、目標追尾装置20は、実施の形態1に係る目標追尾装置1と比較して、検出部5の代わりに、検出部21を備えている。検出部21は、特徴点相関部22、クラスタリング部23及び識別部24を備えている。
実施の形態2に係るセンサ部2は、目標を検知することにより、目標に関するセンサデータとして、現在時刻のフレーム及び過去のフレームを含む複数のフレームを取得する。実施の形態2に係る取得部4は、センサ部2が取得した複数のフレームを取得する。
検出部21の特徴点相関部22は、取得部4が取得した複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する。なお、特徴点相関部22は、フレーム毎に特徴点を検出する前に、取得部4が取得した複数のフレームに基づいて、フレーム毎に複数種の観測特徴量を検出し、検出したフレーム毎の複数種の観測特徴量に基づいて、フレーム毎に特徴点を検出し得る。
特徴点相関部22の構成についてより詳細には、実施の形態2では、特徴点相関部22は、予測部6が現在時刻における複数種の予測特徴量を予測する時間間隔よりも短い時間間隔の複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する。
特徴点相関部22が上記の相関を決定してオプティカルフローを算出する具体的な方法の例として、ORB(Oriented FAST and Rotated BRIEF)、KAZE又はAKAZE等の特徴点マッチングアルゴリズムを用いた方法が挙げられる。
特徴点相関部22は、検出した特徴点と、算出したオプティカルフローとをクラスタリング部23に出力する。
検出部21のクラスタリング部23は、特徴点相関部22が算出したオプティカルフローに基づいて、特徴点相関部22が検出したフレーム毎の特徴点の集合をクラスタリングすることにより複数の部分集合に分割する。
例えば、クラスタリング部23は、特徴点相関部22が検出したフレーム毎の特徴点の位置と、特徴点相関部22が算出したオプティカルフローとの類似度に基づいて同一とみなせる特徴点の集合を、階層型クラスタリング、EM法やk-menas法又は変分ベイズ法等の非階層型クラスタリングを用いてクラスタリングすることにより複数の部分集合に分割する。
クラスタリング部23は、分割した複数の部分集合を識別部24に出力する。
検出部21の識別部24は、クラスタリング部23が分割した複数の部分集合のうち、目標を示す部分集合を識別する。識別部24は、識別した目標の複数種の観測特徴量を予測部6に出力する。
例えば、識別部24は、クラスタリング部23が分割した部分集合である、クラスタリング中心を中心とした切り出し画像に対して、CNN等に基づく識別処理を実施し、目標の種別を識別し、識別した目標のうちの対象とする目標の観測特徴量を予測部6に出力する。
実施の形態2に係る予測部6は、特徴点相関部22が算出したオプティカルフローと、識別部24が出力した過去の複数種の観測特徴量とに基づいて、現在時刻における目標の速度ベクトルを少なくとも含む現在時刻における目標の予測特徴量を予測する。
例えば、予測部6は、初期値生成の際に、特徴点相関部22が算出したオプティカルフローの情報に基づいて初期の状態ベクトルの速度成分を設定し、当該初期の状態ベクトルの速度成分と、識別部24が出力した過去の観測特徴量とに基づいて、現在時刻における目標の速度ベクトルを少なくとも含む現在時刻における目標の複数種の予測特徴量を予測する。
また、実施の形態2に係る相関部7は、特徴点相関部22が算出したオプティカルフローと、予測部6が予測した速度ベクトルとの一致度から相関スコアを少なくとも算出する。
実施の形態2に係る特徴量選択部8は、相関部7が算出した相関スコアに少なくとも基づいて、フィルタリングの対象とする特徴量の種別を選択する。より詳細には、例えば、特徴量選択部8は、相関部7が算出した相関スコアが所定の閾値以上であった特徴量の種別をフィルタリングの対象として選択する。
次に、実施の形態2に係る目標追尾装置20の動作について図面を参照して説明する。図11は、実施の形態2に係る目標追尾装置20による目標追尾方法を示すフローチャートである。実施の形態2に係る目標追尾方法の説明において、実施の形態1で説明した目標追尾方法の工程と同様の工程については、その詳細な説明を適宜省略する。なお、目標追尾装置20が当該目標追尾方法を実行する前に、上述のセンサ部2が、目標を検知することにより、現在時刻のフレーム及び過去のフレームを含む複数のフレームを取得し、当該複数のフレームを取得部4に出力したものとする。
図11が示すように、取得部4は、センサ部2が取得した複数のフレームを取得する(ステップST20)。取得部4は、取得した複数のフレームを検出部21の特徴点相関部22に出力する。
次に、検出部21の特徴点相関部22は、取得部4が取得した複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する(ステップST21)。特徴点相関部22は、検出した特徴点と、算出したオプティカルフローとをクラスタリング部23に出力する。
次に、検出部21のクラスタリング部23は、特徴点相関部22が算出したオプティカルフローに基づいて、特徴点相関部22が検出したフレーム毎の特徴点の集合をクラスタリングすることにより複数の部分集合に分割する(ステップST22)。クラスタリング部23は、分割した複数の部分集合を識別部24に出力する。
次に、検出部21の識別部24は、クラスタリング部23が分割した複数の部分集合のうち、目標を示す部分集合を識別する(ステップST23)。識別部24は、識別した目標の複数種の観測特徴量を予測部6に出力する。
次に、予測部6は、特徴点相関部22が算出したオプティカルフローと、識別部24が出力した過去の複数種の観測特徴量とに基づいて、現在時刻における目標の速度ベクトルを少なくとも含む現在時刻における目標の複数種の予測特徴量を予測する(ステップST24)。予測部6は、予測した複数種の予測特徴量を相関部7に出力する。
次に、相関部7は、特徴点相関部22が算出したオプティカルフローと、予測部6が予測した目標の速度ベクトルとの一致度から相関スコアを少なくとも算出する(ステップST25)。相関部7は、算出した相関スコアを特徴量選択部8に少なくとも出力する。
次に、特徴量選択部8は、相関部7が算出した相関スコアに少なくとも基づいて、フィルタリングの対象とする特徴量の種別を選択する(ステップST26)。特徴量選択部8は、選択した種別に関する情報をフィルタリング部9に出力する。
次に、フィルタリング部9は、特徴点相関部22が算出したオプティカルフロー及び識別部24が識別した目標の複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出する(ステップST27)。フィルタリング部9は、算出した出力用特徴量を、表示装置3と予測部6とに出力する。次に、表示装置3は、表示装置3は、フィルタリング部9が算出した出力用特徴量に基づいた画像を表示する。また、センサ部2は、目標を新たに検知することにより、複数の目標に関するセンサデータを新たに取得し、当該センサデータを取得部4に出力する。そして、目標追尾装置20は、上記のステップST20からステップST27を繰り返し実行することにより、目標を追尾する。
なお、ステップST26において、特徴量選択部8がフィルタリングの対象として速度ベクトルを選択した場合、ステップST27において、フィルタリング部9は、特徴点相関部22が算出したオプティカルフロー、及び予測部6が予測した目標の速度ベクトルに基づいて、フィルタリングを行うことにより、出力用の目標の速度ベクトルを算出する。
なお、実施の形態2に係る目標追尾装置20における、取得部4、検出部21、予測部6、相関部7、特徴量選択部8及びフィルタリング部9のそれぞれの機能は、処理回路により実現される。すなわち、実施の形態2に係る目標追尾装置20は、図11に示したステップST20からステップST27までの処理を実行するための処理回路を備える。この処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。実施の形態2に係る目標追尾装置20の機能を実現するハードウェア構成は、図8A又は図8Bが示すハードウェア構成と同様である。また、実施の形態2に係る目標追尾装置20の機能を実現するソフトウェアを実行するハードウェア構成は、図9A又は図9Bが示すハードウェア構成と同様である。
以上のように、実施の形態2に係る目標追尾装置20における取得部4が取得するセンサデータは、現在時刻のフレーム及び過去のフレームを含む複数のフレームであり、検出部21は、取得部4が取得した複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する特徴点相関部22と、特徴点相関部22が算出したオプティカルフローに基づいて、特徴点相関部22が検出したフレーム毎の特徴点の集合をクラスタリングすることにより複数の部分集合に分割するクラスタリング部23と、クラスタリング部23が分割した複数の部分集合のうち、目標を示す部分集合を識別し、識別した目標の複数種の観測特徴量を予測部6に出力する識別部24と、を備えている。
上記の構成によれば、目標の数が複数である場合でも、オプティカルフローに基づいて、複数の目標をそれぞれ適切に区別することができ、識別する対象の数を低減することが可能となる。よって、観測特徴量の精度及び予測特徴量の精度を向上させ、フィルタリング性能を向上させることができる。従って、目標を追尾する追尾性能を向上させることができる。
また、実施の形態2に係る目標追尾装置20における特徴点相関部22は、予測部6が現在時刻における複数種の予測特徴量を予測する時間間隔よりも短い時間間隔の複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する。
上記の構成によれば、オプティカルフローの精度を向上させることができる。よって、観測特徴量の精度及び予測特徴量の精度をより向上させ、フィルタリング性能をより向上させることができる。従って、目標を追尾する追尾性能をより向上させることができる。
また、実施の形態2に係る目標追尾装置20における予測部6は、識別部24が出力した過去の複数種の観測特徴量と、特徴点相関部22が算出したオプティカルフローとに基づいて、現在時刻における目標の速度ベクトルを少なくとも含む現在時刻における目標の複数種の予測特徴量を予測し、相関部7は、特徴点相関部22が算出したオプティカルフローと、予測部6が予測した速度ベクトルとの一致度から相関スコアを少なくとも算出する。
上記の構成によれば、算出した相関スコアに基づいて、フィルタリングの対象を選択することにより、目標の速度ベクトルに対してフィルタリングを適切に行うことができる。
実施の形態3.
実施の形態3では、単一の目標に関する複数種の観測特徴量と、複数の目標に関する目標毎の複数種の予測特徴量とが対応するか否かを判定することにより、観測特徴量と予測特徴量との相関を決定する構成について説明する。
以下で、実施の形態3について図面を参照して説明する。なお、実施の形態1で説明した構成と同様の機能を有する構成については同一の符号を付し、その説明を省略する。
図12は、実施の形態3に係る目標追尾装置30を備えている目標追尾システム102の構成を示すブロック図である。図12が示すように、目標追尾装置30は、実施の形態1に係る目標追尾装置1と比較して、相関部7の代わりに、相関部31を備えている。相関部31は、縮退仮説判定部32及び部分相関部33を備えている。
相関部31の縮退仮説判定部32は、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量とが対応するか否かを判定する。なお、検出部5が検出した単一の目標に関する複数種の観測特徴量は、例えば、単一の目標を囲うバウンディングボックスに関する複数種の観測特徴量である。また、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量は、例えば、目標として第1の目標及び第2の目標が存在する場合、第1の目標を囲うバウンディングボックスに関する複数種の予測特徴量、及び第2の目標を囲うバウンディングボックスに関する複数種の予測特徴量である。
縮退仮説判定部32についてより詳細には、例えば、縮退仮説判定部32は、検出部5が検出した単一の目標に関する観測特徴量と、予測部6が予測した単一の目標に関する予測特徴量との相関度を示すスコアを行列表現した航跡相関行列を作成する。つまり、当該スコアは、検出部5が観測特徴量を検出したある単一の目標と、予測部6が予測特徴量を予測したある単一の目標とが同一の目標であるという仮説の評価指標である。例えば、縮退仮説判定部32は、当該航跡相関行列が示す複数の仮説のうちから、スコアの高い上位N番目の仮説を、Munkres又はMurty等の割り当てアルゴリズムを用いて抽出する。なお、当該Nは、正の整数である。例えば、縮退仮説判定部32は、抽出したN個の仮説のうち、単一の目標に関する観測特徴量と単一の目標に関する予測特徴量との類似度が所定の閾値以上である仮説が存在するか否か判定する。縮退仮説判定部32は、当該類似度が所定の閾値以上である仮説が存在しないと判定した場合、単一の目標に関する複数種の観測特徴量と複数の目標に関する目標毎の複数種の予測特徴量とが対応しているという縮退仮説を生成する。つまり、縮退仮説判定部32は、以上の各工程を実行することにより、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量とが対応するか否かを判定し得る。換言すれば、縮退仮説判定部32は、実際は目標が複数存在するにも関わらず検出部5が複数の目標を単一の目標として検出したものとして、複数の目標が単一の目標に縮退しているという縮退仮説を生成する。また、縮退仮説判定部32は、縮退の判定の際には、IOU(Intersection over Union)が一定以上である複数の予測特徴量があった場合に縮退としているという判定をしてもよい。
相関部31の部分相関部33は、縮退仮説判定部32が単一の目標に関する複数種の観測特徴量と複数の目標に関する目標毎の複数種の予測特徴量とが対応していると判定した場合、検出部5が検出した単一の目標に関する複数種の観測特徴量と予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量との相関を決定する。より詳細には、例えば、部分相関部33は、縮退仮説判定部32が上述の縮退仮説を生成した場合、検出部5が検出した単一の目標に関する複数種の観測特徴量と予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量との相関を決定する。
実施の形態3に係る特徴量選択部8は、部分相関部33が決定した相関に基づいて、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの対応する予測特徴量とをそれぞれ比較することにより、フィルタリングの対象とする特徴量の種別を選択する。
実施の形態3に係るフィルタリング部9は、検出部5が検出した単一の目標に関する複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、目標毎に出力用特徴量を算出する。ここで、フィルタリング部9は、縮退仮説に含まれる縮退している可能性がある観測特徴量を用いたフィルタリングの際には、縮退状況で学習した追尾パラメータを利用しても良い。
次に、実施の形態3に係る目標追尾装置30の動作について図面を参照して説明する。図13は、実施の形態3に係る目標追尾装置30による目標追尾方法を示すフローチャートである。実施の形態3に係る目標追尾方法の説明において、実施の形態1で説明した目標追尾方法の工程と同様の工程については、その詳細な説明を適宜省略する。なお、目標追尾装置30が当該目標追尾方法を実行する前に、上述のセンサ部2が、複数の目標を検知することにより、複数の目標に関するセンサデータを取得し、当該センサデータを取得部4に出力したものとする。より詳細には、例えば、上述のセンサ部2は、第1の目標及び第2の目標を検知することにより、第1の目標及び第2の目標に関するセンサデータを取得し、当該センサデータを取得部4に出力し得る。
図13が示すように、取得部4は、センサ部2が取得したセンサデータを取得する(ステップST30)。取得部4は、取得したセンサデータを検出部5に出力する。
次に、検出部5は、取得部4が取得したセンサデータに基づいて、現在時刻における単一の目標に関する複数種の観測特徴量を検出する(ステップST31)。検出部5は、検出した単一の目標に関する複数種の観測特徴量を予測部6に出力する。なお、現在時刻の前の時刻においては、検出部5は、取得部4が取得したセンサデータに基づいて、現在時刻における複数の目標に関する目標毎の複数種の観測特徴量を検出したものとする。
次に、予測部6は、検出部5が過去に検出した過去の複数の目標に関する目標毎の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する(ステップST32)。なお、例えば、ステップST32において、予測部6は、検出部5が過去に検出した第1の目標に関する複数種の観測特徴量及び第2の目標に関する複数種の観測特徴量に基づいて、現在時刻における第1の目標に関する複数種の予測特徴量と、現在時刻における第2の目標に関する複数種の予測特徴量とを予測し得る。予測部6は、予測した複数種の予測特徴量を相関部31の縮退仮説判定部32に出力する。
次に、縮退仮説判定部32は、検出部5が検出した単一の目標に関する観測特徴量と、予測部6が予測した単一の目標に関する予測特徴量との相関度を示すスコアを行列表現した航跡相関行列を作成する(ステップST33)。例えば、当該スコアは、検出部5が検出した単一の目標に関する観測特徴量と予測部6が予測した第1の目標に関する予測特徴量との相関度を示すスコア、及び検出部5が検出した単一の目標に関する観測特徴量と予測部6が予測した第2の目標に関する予測特徴量との相関度を示すスコアであり得る。つまり、当該例の航跡相関行列は、検出部5が観測特徴量を検出した単一の目標と予測部6が予測特徴量を予測した第1の目標とが同一の目標であるという仮説、及び検出部5が観測特徴量を検出した単一の目標と予測部6が予測特徴量を予測した第2の目標とが同一の目標であるという仮説を示す。
次に、縮退仮説判定部32は、作成した航跡相関行列が示す複数の仮説のうちから、スコアの高い上位N番目の仮説を抽出する(ステップST34)。
次に、縮退仮説判定部32は、抽出したN個の仮説のうち、単一の目標に関する観測特徴量と単一の目標に関する予測特徴量との類似度が所定の閾値以上である仮説が存在するか否か判定する(ステップST35)。例えば、縮退仮説判定部32が判定に用いる類似度は、単一の目標に関する観測特徴量と第1の目標に関する予測特徴量との類似度、及び単一の目標に関する観測特徴量と第2の目標に関する予測特徴量との類似度であり得る。
縮退仮説判定部32がステップST35において上記の類似度が所定の閾値以上である仮説が存在すると判定した場合(ステップST35のYES)、部分相関部33は、上記の類似度が所定の閾値以上である仮説に含まれる、単一の目標に関する複数種の観測特徴量と単一の目標に関する複数種の予測特徴量との相関を決定する(ステップST36)。例えば、ここにおける相関は、単一の目標に関する複数種の観測特徴量と第1の目標に関する複数種の予測特徴量との相関、又は単一の目標に関する複数種の観測特徴量と第2の目標に関する複数種の予測特徴量との相関である。つまり、この場合、縮退仮説判定部32は、検出部5が観測特徴量を検出した単一の目標と、予測部6が予測特徴量を予測した単一の目標とが同一の目標であると判定し、単一の目標に関する観測特徴量と単一の目標に関する予測特徴量との相関を決定する。縮退仮説判定部32は、決定した相関に関する情報を特徴量選択部8に出力する。
ステップST36の次に、特徴量選択部8は、部分相関部33が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する(ステップST37)。特徴量選択部8は、選択した種別を示す情報をフィルタリング部9に出力する。
ステップST37の次に、フィルタリング部9は、検出部5が検出した単一の目標に関する複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した単一の目標に関する複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出する(ステップST38)。フィルタリング部9は、算出した出力用特徴量を、表示装置3と予測部6とに出力する。
一方、縮退仮説判定部32は、ステップST35において上記の類似度が所定の閾値以下である仮説が存在しないと判定した場合(ステップST35のNO)、単一の目標に関する複数種の観測特徴量と複数の目標に関する目標毎の複数種の予測特徴量とが対応しているという縮退仮説を生成する(ステップST39)。例えば、縮退仮説判定部32は、ステップST35において上記の類似度が所定の閾値以下である仮説が存在しないと判定した場合、単一の目標に関する複数種の観測特徴量と、第1の目標に関する複数種の予測特徴量及び第2の目標に関する複数種の予測特徴量とが対応しているという縮退仮説を生成し得る。つまり、縮退仮説判定部32は、実際は複数の目標が存在するにも関わらず、検出部5が複数の目標を単一の目標として検出したものとして、複数の目標が単一の目標に縮退しているという縮退仮説を生成する。
ステップST39の次に、部分相関部33は、縮退仮説に含まれる、単一の目標に関する複数種の観測特徴量と複数の目標に関する目標毎の複数種の予測特徴量との相関を決定する(ステップST40)。例えば、部分相関部33は、縮退仮説に含まれる、単一の目標に関する複数種の観測特徴量と第1の目標に関する複数種の予測特徴量及び第2の目標に関する複数種の予測特徴量との相関を決定し得る。部分相関部33は、決定した相関に関する情報を特徴量選択部8に出力する。
ステップST40の次に、特徴量選択部8は、部分相関部33が決定した相関に基づいて、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの対応する予測特徴量とをそれぞれ比較することにより、フィルタリングの対象とする特徴量の種別を選択する(ステップST41)。例えば、特徴量選択部8は、部分相関部33が決定した相関に基づいて、単一の目標に関する複数種の観測特徴量と第1の目標に関する複数種の予測特徴量のうちの対応する予測特徴量とを比較し、部分相関部33が決定した相関に基づいて、単一の目標に関する複数種の観測特徴量と第2の目標に関する複数種の予測特徴量のうちの対応する予測特徴量とを比較することにより、フィルタリングの対象とする特徴量の種別を選択し得る。特徴量選択部8は、選択した種別を示す情報をフィルタリング部9に出力する。
ステップST41の次に、フィルタリング部9は、検出部5が検出した単一の目標に関する複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、目標毎に出力用特徴量を算出する(ステップST42)。例えば、フィルタリング部9は、検出部5が検出した単一の目標に関する複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した第1の目標に関する複数種の予測特徴量及び第2の目標に関する複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、目標毎に出力用特徴量を算出する(ステップST42)。フィルタリング部9は、目標毎に算出した出力用特徴量を、表示装置3と予測部6とに出力する。
ステップST38又はステップST42の次に、表示装置3は、表示装置3は、フィルタリング部9が目標毎に算出した出力用特徴量に基づいた画像を表示する。また、センサ部2は、複数の目標を新たに検知することにより、複数の目標に関するセンサデータを新たに取得し、当該センサデータを取得部4に出力する。そして、目標追尾装置30は、上記のステップST30からステップST38又はステップST42までの各工程を繰り返し実行することにより、複数の目標を追尾する。なお、縮退仮説判定部32は、上述のステップST33で作成した航跡相関行列が示す複数の仮説を再度用いて縮退仮説判定を行ってもよい。また、上記では、目標追尾装置30が追尾する目標が第1の目標及び第2の目標である例を説明したが、目標追尾装置30が追尾する目標の数は、特に限定されない。
次に、実施の形態3に係る目標追尾装置30による目標追尾方法の具体例について図面を参照して説明する。図14は、目標追尾装置30による目標追尾方法の具体例を説明するための概念図である。なお、当該具体例では、目標追尾装置30は、前の時刻において、上述のステップST30からステップST38又はステップST42までの各工程を行い、前の時刻における第1の目標Aを囲うバウンディングボックスP3と、前の時刻における第2の目標Bを囲うバウンディングボックスP4とを予め導出したものとする。また、当該具体例では、センサ部2が第1の目標A及び第2の目標Bを予め検知することにより、第1の目標A及び第2の目標Bを示す画像を予め取得したものとする。
まず、上述のステップST30において、取得部4は、センサ部2がセンサデータとして取得した画像を取得する。次に、上述のステップST31において、検出部5は、現在時刻における単一の目標を囲うバウンディングボックスQ3に関する複数種の観測特徴量を検出する。
次に、上述のステップST32において、予測部6は、前の時刻における第1の目標Aを囲うバウンディングボックスP3に関する複数種の観測特徴量、及び前の時刻における第2の目標Bを囲うバウンディングボックスP4に関する複数種の観測特徴量に基づいて、現在時刻における第1の目標Aを囲うバウンディングボックスS3に関する複数種の予測特徴量と、現在時刻における第2の目標Bを囲うバウンディングボックスS4に関する複数種の予測特徴量とを予測する。
次に、上述のステップST33において、縮退仮説判定部32は、検出部5が検出した単一の目標を囲うバウンディングボックスQ3に関する観測特徴量と予測部6が予測した第1の目標Aを囲うバウンディングボックスS3に関する予測特徴量との相関度を示すスコア、及び検出部5が検出した単一の目標を囲うバウンディングボックスQ3に関する観測特徴量と予測部6が予測した第2の目標Bを囲うバウンディングボックスS4に関する予測特徴量との相関度を示すスコアを行列表現した航跡相関行列を作成する。
次に、上述のステップST34において、縮退仮説判定部32は、作成した航跡相関行列が示す複数の仮説のうち、検出部5がバウンディングボックスQ3に関する観測特徴量を検出した目標と、予測部6がバウンディングボックスS3に関する予測特徴量を予測した第1の目標Aとが同一の目標であるという仮説と、検出部5がバウンディングボックスQ3に関する観測特徴量を検出した目標と、予測部6がバウンディングボックスS4に関する予測特徴量を予測した第2の目標Bとが同一の目標であるという仮説とを抽出する。
次に、上述のステップST35において、縮退仮説判定部32は、単一の目標を囲うバウンディングボックスQ3に関する観測特徴量と第1の目標Aを囲うバウンディングボックスS3に関する予測特徴量との類似度が所定の閾値以上であるか否かを判定する。また、縮退仮説判定部32は、単一の目標を囲うバウンディングボックスQ3に関する観測特徴量と第2の目標Bを囲うバウンディングボックスS4に関する予測特徴量との類似度が所定の閾値以上であるか否かを判定する。これらの判定により、縮退仮説判定部32は、抽出した2個の仮説のうち、単一の目標に関する観測特徴量と単一の目標に関する予測特徴量との類似度が所定の閾値以上である仮説が存在しないと判定したものとする。
次に、上述のステップST39において、縮退仮説判定部32は、単一の目標を囲うバウンディングボックスQ3に関する複数種の観測特徴量と、第1の目標Aを囲うバウンディングボックスS3に関する複数種の予測特徴量及び第2の目標Bを囲うバウンディングボックスS4に関する複数種の予測特徴量とが対応しているという縮退仮説を生成する。
次に、上述のステップST40において、縮退仮説判定部32は、縮退仮説に含まれる、単一の目標を囲うバウンディングボックスQ3に関する複数種の観測特徴量と、第1の目標Aを囲うバウンディングボックスS3に関する複数種の予測特徴量及び第2の目標Bを囲うバウンディングボックスS4に関する複数種の予測特徴量との相関を決定する。縮退仮説判定部32は、決定した相関に関する情報を特徴量選択部8に出力する。
次に、上述のステップST41において、特徴量選択部8は、部分相関部33が決定した相関に基づいて、検出部5が検出した単一の目標を囲うバウンディングボックスQ3に関する複数種の観測特徴量と、予測部6が予測した第1の目標Aを囲うバウンディングボックスS3に関する複数種の予測特徴量のうちの対応する予測特徴量をそれぞれ比較する。また、特徴量選択部8は、部分相関部33が決定した相関に基づいて、検出部5が検出した単一の目標を囲うバウンディングボックスQ3に関する複数種の観測特徴量と、予測部6が予測した第2の目標Bを囲うバウンディングボックスS4に関する複数種の予測特徴量のうちの対応する予測特徴量とをそれぞれ比較する。これにより、特徴量選択部8は、フィルタリングの対象とする特徴量の種別を選択する。
より詳細には、図14が示すように、特徴量選択部8は、バウンディングボックスS3の左上の頂点の位置とバウンディングボックスQ3の左上の頂点の位置(△で示された位置)とを比較することにより、フィルタリングの対象として、バウンディングボックスの左上の頂点の位置を選択する。また、特徴量選択部8は、バウンディングボックスS3の右上の頂点の位置と、バウンディングボックスQ3の右上の頂点の位置(△で示された位置)とを比較することにより、フィルタリングの対象として、バウンディングボックスの右上の頂点の位置を選択する。また、特徴量選択部8は、バウンディングボックスS4の左下の頂点の位置と、バウンディングボックスQ3の左下の頂点の位置(○で示された位置)とを比較することにより、フィルタリングの対象として、バウンディングボックスの左下の頂点の位置を選択する。また、特徴量選択部8は、バウンディングボックスS4の右下の頂点の位置と、バウンディングボックスQ3の右下の頂点の位置(○で示された位置)とを比較することにより、フィルタリングの対象として、バウンディングボックスの右下の頂点の位置を選択する。特徴量選択部8は、選択した種別を示す情報をフィルタリング部9に出力する。
次に、上述のステップST42において、フィルタリング部9は、検出部5が検出した単一の目標を囲うバウンディングボックスQ3の左上の頂点及び右上の頂点の各位置と、予測部6が予測した第1の目標Aを囲うバウンディングボックスS3の左上の頂点及び右上の頂点の各位置とに基づいてフィルタリングを行うことにより、第1の目標Aに関する出力用特徴量として、バウンディングボックスT3の左上の頂点及び右上の頂点の各位置を算出する。また、フィルタリング部9は、検出部5が検出した単一の目標を囲うバウンディングボックスQ3の左下の頂点及び右下の頂点の各位置と、予測部6が予測した第2の目標Bを囲うバウンディングボックスS4の左下の頂点及び右下の頂点の各位置とに基づいてフィルタリングを行うことにより、第2の目標Bに関する出力用特徴量として、バウンディングボックスT4の左下の頂点及び右下の頂点の各位置を算出する。上述のステップST42においてフィルタリング部9が用いるフィルタリングの方法の例として、例えば、カルマンフィルタ、非線形カルマンフィルタ若しくは粒子フィルタ等の状態推定フィルタ又はα-βフィルタを用いたフィルタリングの方法が挙げられる。
なお、実施の形態3に係る目標追尾装置30における、取得部4、検出部5、予測部6、相関部31、特徴量選択部8及びフィルタリング部9のそれぞれの機能は、処理回路により実現される。すなわち、実施の形態3に係る目標追尾装置30は、図13に示したステップST30からステップST42までの処理を実行するための処理回路を備える。この処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。実施の形態3に係る目標追尾装置30の機能を実現するハードウェア構成は、図8A又は図8Bが示すハードウェア構成と同様である。また、実施の形態3に係る目標追尾装置30の機能を実現するソフトウェアを実行するハードウェア構成は、図9A又は図9Bが示すハードウェア構成と同様である。
以上のように、実施の形態3に係る目標追尾装置30における取得部4は、複数の目標に関するセンサデータを取得し、相関部31は、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量とが対応するか否かを判定する縮退仮説判定部32と、縮退仮説判定部32が単一の目標に関する複数種の観測特徴量と、複数の目標に関する目標毎の複数種の予測特徴量とが対応していると判定した場合、検出部5が検出した単一の目標に関する複数種の観測特徴量と予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量との相関を決定する部分相関部33とを備えている。
上記の構成によれば、複数の目標が単一の目標として検出された場合であっても、複数の目標が単一の目標として検出されたものとして、単一の目標に関する複数種の観測特徴量と、複数の目標に関する目標毎の複数種の予測特徴量との相関を決定することができる。よって、当該相関に基づいて、フィルタリングの対象の選択とフィルタリングとを適切に行うことにより、複数の目標を追尾し続ける追尾の継続性を向上させることができる。
また、実施の形態3に係る目標追尾装置30における特徴量選択部8は、部分相関部33が決定した相関に基づいて、検出部5が検出した単一の目標に関する複数種の観測特徴量と、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの対応する予測特徴量とをそれぞれ比較することにより、フィルタリングの対象とする特徴量の種別を選択し、フィルタリング部9は、検出部5が検出した単一の目標に関する複数種の観測特徴量のうちの、特徴量選択部8が選択した種別に該当する観測特徴量、及び、予測部6が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの、特徴量選択部8が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、目標毎に出力用特徴量を算出する。
上記の構成によれば、複数の目標が単一の目標として検出された場合であっても、複数の目標が単一の目標として検出されたものとして、予測特徴量に対応する適切な観測特徴量を用いてフィルタリングを行うことができる。よって、目標毎に出力用特徴量を適切に算出することができ、複数の目標を追尾し続ける追尾の継続性を向上させることができる。
また、実施の形態3に係る目標追尾装置30における追尾パラメータの学習において、目標追尾装置30は、観測特徴量の縮退に対応するため、正解データを縮退が発生しているデータと縮退が発生していないデータに分けたうえで、縮退した場合と縮退しない場合で観測誤差を別々に学習してもよい。具体的には、正解データのバウンディングボックスに重複があり,IOU(Intersection over Union)が一定以上である場合には縮退の状況と判定し、縮退環境下での正解データと観測データのばらつきを計算する。一方、目標追尾装置30は、正解データのバウンディングボックスに隣接するバウンディングボックスとの重複がないもしくはIOUが一定以下の正解データに対して正解データと観測データのばらつきを計算して非縮退時の観測雑音としてもよい。また、目標追尾装置30は、縮退の有無に応じて学習データを分類したうえで新航跡密度や検出確率等の追尾パラメータを学習してもよい。
そして、実施の形態1に係る目標追尾装置1、実施の形態2に係る目標追尾装置20又は実施の形態3に係る目標追尾装置30におけるフィルタリング部9は、縮退時と非縮退時に分けた教師データから算出した追尾パラメータを用いてフィルタリングを行ってもよい。また、実施の形態1に係る目標追尾装置1若しくは実施の形態2に係る目標追尾装置20における相関部7又は実施の形態3に係る目標追尾装置30における相関部31は、縮退時と非縮退時に分けた教師データから算出した追尾パラメータを用いて、検出部5が検出した複数種の観測特徴量と予測部6が予測した複数種の予測特徴量との相関として、相関スコアを算出してもよい。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る目標追尾装置は、目標を追尾する追尾性能を向上させることができるため、目標追尾システムに利用可能である。
1 目標追尾装置、2 センサ部、3 表示装置、4 取得部、5 検出部、6 予測部、7 相関部、8 特徴量選択部、9 フィルタリング部、10 カメラ、11 ディスプレイ、12 アンテナ、13 送受信機、14 A/D変換器、15 処理回路、16 プロセッサ、17 メモリ、20 目標追尾装置、21 検出部、22 特徴点相関部、23 クラスタリング部、24 識別部、30 目標追尾装置、31 相関部、32 縮退仮説判定部、33 部分相関部、100,101,102 目標追尾システム。

Claims (17)

  1. 目標に関するセンサデータを取得する取得部と、
    前記取得部が取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する検出部と、
    前記検出部が過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する予測部と、
    前記検出部が検出した複数種の観測特徴量と前記予測部が予測した複数種の予測特徴量との相関を決定する相関部と、
    前記相関部が決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択部と、
    前記検出部が検出した複数種の観測特徴量のうちの、前記特徴量選択部が選択した種別に該当する観測特徴量、及び、前記予測部が予測した複数種の予測特徴量のうちの、前記特徴量選択部が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリング部と、を備えていることを特徴とする、目標追尾装置。
  2. 前記検出部は、前記取得部が取得したセンサデータに基づいて、現在時刻における前記目標の大きさを少なくとも検出し、
    前記予測部は、前記検出部が過去に検出した過去の前記目標の大きさに基づいて、現在時刻における前記目標の大きさを少なくとも予測し、
    前記相関部は、前記検出部が検出した前記目標の大きさと、前記予測部が予測した前記目標の大きさとの相関を少なくとも決定し、
    前記フィルタリング部は、前記特徴量選択部がフィルタリングの対象として前記目標の大きさを選択した場合、前記検出部が検出した前記目標の大きさと、前記予測部が予測した前記目標の大きさとに基づいて、フィルタリングを行うことにより、前記出力用特徴量として、出力用の前記目標の大きさを算出することを特徴とする、請求項1に記載の目標追尾装置。
  3. 前記取得部が取得するセンサデータは、画像であり、
    前記検出部は、前記取得部が取得した画像に基づいて、現在時刻における前記目標の色ヒストグラムを少なくとも検出し、
    前記予測部は、前記検出部が過去に検出した過去の前記目標の色ヒストグラムに基づいて、現在時刻における前記目標の色ヒストグラムを少なくとも予測し、
    前記相関部は、前記検出部が検出した前記目標の色ヒストグラムと、前記予測部が予測した前記目標の色ヒストグラムとの相関を少なくとも決定し、
    前記フィルタリング部は、前記特徴量選択部がフィルタリングの対象として前記目標の色ヒストグラムを選択した場合、前記検出部が検出した前記目標の色ヒストグラムと、前記予測部が予測した前記目標の色ヒストグラムとに基づいて、フィルタリングを行うことにより、前記出力用特徴量として、出力用の前記目標の色ヒストグラムを算出することを特徴とする、請求項1に記載の目標追尾装置。
  4. 前記取得部が取得するセンサデータは、画像であり、
    前記検出部は、前記取得部が取得した画像に基づいて、現在時刻における前記目標の勾配方向ヒストグラムを少なくとも検出し、
    前記予測部は、前記検出部が過去に検出した過去の前記目標の勾配方向ヒストグラムに基づいて、現在時刻における前記目標の勾配方向ヒストグラムを少なくとも予測し、
    前記相関部は、前記検出部が検出した前記目標の勾配方向ヒストグラムと、前記予測部が予測した前記目標の勾配方向ヒストグラムとの相関を少なくとも決定し、
    前記フィルタリング部は、前記特徴量選択部がフィルタリングの対象として前記目標の勾配方向ヒストグラムを選択した場合、前記検出部が検出した前記目標の勾配方向ヒストグラムと、前記予測部が予測した前記目標の勾配方向ヒストグラムとに基づいて、フィルタリングを行うことにより、前記出力用特徴量として、出力用の前記目標の勾配方向ヒストグラムを算出することを特徴とする、請求項1に記載の目標追尾装置。
  5. 前記検出部は、前記取得部が取得したセンサデータに基づいて、局所領域毎に、現在時刻における複数種の観測特徴量を検出し、
    前記予測部は、前記検出部が過去に局所領域毎に検出した過去の複数種の観測特徴量に基づいて、局所領域毎に、現在時刻における複数種の予測特徴量を予測し、
    前記相関部は、局所領域毎に、前記検出部が検出した複数種の観測特徴量と、前記予測部が予測した複数種の予測特徴量との相関を決定し、
    前記特徴量選択部は、前記相関部が局所領域毎に決定した相関に基づいて、局所領域毎に、フィルタリングの対象とする特徴量の種別を選択し、
    前記フィルタリング部は、前記検出部が局所領域毎に検出した複数種の観測特徴量のうちの、前記特徴量選択部が局所領域毎に選択した種別に該当する観測特徴量、及び、前記予測部が局所領域毎に予測した複数種の予測特徴量のうちの、前記特徴量選択部が局所領域毎に選択した種別に該当する予測特徴量に基づいて、局所領域毎にフィルタリングを行うことにより、局所領域毎に出力用特徴量を算出することを特徴とする、請求項1に記載の目標追尾装置。
  6. 前記取得部が取得するセンサデータは、地平線又は水平線を少なくとも示す画像であり、
    前記検出部は、前記取得部が取得した画像に基づいて、現在時刻における、2次元画素座標系を基準とした前記目標の位置を少なくとも検出し、
    前記予測部は、前記取得部が取得した画像における前記地平線又は前記水平線から前記目標までの画素数に基づいて、現在時刻における前記目標までの距離を算出し、当該距離と、前記検出部が過去に検出した過去の前記目標の位置とに基づいて、現在時刻における、3次元直交座標系を基準とした前記目標の位置を少なくとも予測し、
    前記相関部は、前記検出部が検出した前記目標の位置と、前記予測部が予測した前記目標の位置との相関を少なくとも決定し、
    前記フィルタリング部は、前記特徴量選択部がフィルタリングの対象として前記目標の位置を選択した場合、前記検出部が検出した前記目標の位置と、前記予測部が予測した前記目標の位置とに基づいて、前記2次元画素座標系と前記3次元直交座標系との非線形関係を示す非線形状態推定モデルを用いたフィルタリングを行うことにより、前記出力用特徴量として、出力用の前記目標の位置を算出することを特徴とする、請求項1に記載の目標追尾装置。
  7. 前記取得部が取得するセンサデータは、画像であり、
    前記検出部は、前記取得部が取得した画像に基づいて、現在時刻における前記目標を囲うバウンディングボックスに関する複数種の観測特徴量を少なくとも検出し、
    前記予測部は、前記検出部が過去に検出した過去のバウンディングボックスに関する複数種の観測特徴量に基づいて、現在時刻におけるバウンディングボックスに関する複数種の予測特徴量を少なくとも予測し、
    前記相関部は、前記検出部が検出したバウンディングボックスに関する複数種の観測特徴量と、前記予測部が予測したバウンディングボックスに関する複数種の予測特徴量との相関を少なくとも決定し、
    前記フィルタリング部は、前記特徴量選択部がフィルタリングの対象としてバウンディングボックスに関する特徴量の種別を選択した場合、前記検出部が検出したバウンディングボックスに関する複数種の観測特徴量のうち、前記特徴量選択部が選択した種別に該当する観測特徴量と、前記予測部が予測したバウンディングボックスに関する複数種の予測特徴量のうち、前記特徴量選択部が選択した種別に該当する予測特徴量とに基づいて、フィルタリングを行うことにより、前記出力用特徴量として、出力用のバウンディングボックスに関する特徴量を算出することを特徴とする、請求項1に記載の目標追尾装置。
  8. 前記バウンディングボックスは、3次元のバウンディングボックスであることを特徴とする、請求項7に記載の目標追尾装置。
  9. 前記取得部が取得するセンサデータは、現在時刻のフレーム及び過去のフレームを含む複数のフレームであり、
    前記検出部は、
    前記取得部が取得した複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出する特徴点相関部と、
    前記特徴点相関部が算出したオプティカルフローに基づいて、前記特徴点相関部が検出したフレーム毎の特徴点の集合をクラスタリングすることにより複数の部分集合に分割するクラスタリング部と、
    前記クラスタリング部が分割した複数の部分集合のうち、前記目標を示す部分集合を識別し、識別した目標の複数種の観測特徴量を前記予測部に出力する識別部と、を備えていることを特徴とする、請求項1に記載の目標追尾装置。
  10. 前記特徴点相関部は、前記予測部が現在時刻における複数種の予測特徴量を予測する時間間隔よりも短い時間間隔の複数のフレームに基づいて、フレーム毎に特徴点を検出し、検出したフレーム毎の特徴点の相関を決定し、決定した相関に基づいて、過去から現在時刻までのオプティカルフローを算出することを特徴とする、請求項9に記載の目標追尾装置。
  11. 前記予測部は、前記識別部が出力した過去の複数種の観測特徴量と、前記特徴点相関部が算出したオプティカルフローとに基づいて、現在時刻における前記目標の速度ベクトルを少なくとも含む現在時刻における前記目標の複数種の予測特徴量を予測し、
    前記相関部は、前記特徴点相関部が算出したオプティカルフローと、前記予測部が予測した速度ベクトルとの一致度から相関スコアを少なくとも算出することを特徴とする、請求項9に記載の目標追尾装置。
  12. 前記取得部は、複数の目標に関するセンサデータを取得し、
    前記相関部は、
    前記検出部が検出した単一の目標に関する複数種の観測特徴量と、前記予測部が予測した複数の目標に関する目標毎の複数種の予測特徴量とが対応するか否かを判定する縮退仮説判定部と、
    前記縮退仮説判定部が前記単一の目標に関する複数種の観測特徴量と、前記複数の目標に関する目標毎の複数種の予測特徴量とが対応していると判定した場合、前記検出部が検出した単一の目標に関する複数種の観測特徴量と前記予測部が予測した複数の目標に関する目標毎の複数種の予測特徴量との相関を決定する部分相関部とを備えていることを特徴とする、請求項1に記載の目標追尾装置。
  13. 前記特徴量選択部は、前記部分相関部が決定した相関に基づいて、前記検出部が検出した単一の目標に関する複数種の観測特徴量と、前記予測部が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの対応する予測特徴量とをそれぞれ比較することにより、フィルタリングの対象とする特徴量の種別を選択し、
    前記フィルタリング部は、前記検出部が検出した単一の目標に関する複数種の観測特徴量のうちの、前記特徴量選択部が選択した種別に該当する観測特徴量、及び、前記予測部が予測した複数の目標に関する目標毎の複数種の予測特徴量のうちの、前記特徴量選択部が選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、目標毎に出力用特徴量を算出することを特徴とする、請求項12に記載の目標追尾装置。
  14. 前記フィルタリング部は、縮退時と非縮退時に分けた教師データから算出した追尾パラメータを用いてフィルタリングを行うことを特徴とする、請求項1に記載の目標追尾装置。
  15. 前記相関部は、縮退時と非縮退時に分けた教師データから算出した追尾パラメータを用いて、前記相関として、相関スコアを算出することを特徴とする、請求項1に記載の目標追尾装置。
  16. 請求項1に記載の目標追尾装置と、
    前記目標を検知することにより前記センサデータを取得するセンサ部と、
    前記フィルタリング部が算出した出力用特徴量に基づいた画像を表示する表示装置と、を備えていることを特徴とする、目標追尾システム。
  17. 目標に関するセンサデータを取得する取得ステップと、
    前記取得ステップで取得したセンサデータに基づいて、現在時刻における複数種の観測特徴量を検出する検出ステップと、
    前記検出ステップで過去に検出した過去の複数種の観測特徴量に基づいて、現在時刻における複数種の予測特徴量を予測する予測ステップと、
    前記検出ステップで検出した複数種の観測特徴量と前記予測ステップで予測した複数種の予測特徴量との相関を決定する相関ステップと、
    前記相関ステップで決定した相関に基づいて、フィルタリングの対象とする特徴量の種別を選択する特徴量選択ステップと、
    前記検出ステップで検出した複数種の観測特徴量のうちの、前記特徴量選択ステップで選択した種別に該当する観測特徴量、及び、前記予測ステップで予測した複数種の予測特徴量のうちの、前記特徴量選択ステップで選択した種別に該当する予測特徴量に基づいて、フィルタリングを行うことにより、出力用特徴量を算出するフィルタリングステップと、を含むことを特徴とする、目標追尾方法。
JP2021570748A 2020-02-27 2020-02-27 目標追尾装置、目標追尾システム、及び目標追尾方法 Active JP7008898B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/008090 WO2021171498A1 (ja) 2020-02-27 2020-02-27 目標追尾装置、目標追尾システム、及び目標追尾方法

Publications (2)

Publication Number Publication Date
JPWO2021171498A1 JPWO2021171498A1 (ja) 2021-09-02
JP7008898B1 true JP7008898B1 (ja) 2022-01-25

Family

ID=77492123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021570748A Active JP7008898B1 (ja) 2020-02-27 2020-02-27 目標追尾装置、目標追尾システム、及び目標追尾方法

Country Status (2)

Country Link
JP (1) JP7008898B1 (ja)
WO (1) WO2021171498A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023062400A1 (ja) * 2021-10-12 2023-04-20 日産自動車株式会社 物体認識方法及び物体認識装置
JPWO2023181229A1 (ja) * 2022-03-24 2023-09-28
JP7486685B1 (ja) 2023-03-03 2024-05-17 三菱電機株式会社 目標追尾装置および目標追尾方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148962A (ja) * 2015-02-12 2016-08-18 日立オートモティブシステムズ株式会社 物体検知装置
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP2019144900A (ja) * 2018-02-21 2019-08-29 株式会社豊田中央研究所 状態推定装置及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148962A (ja) * 2015-02-12 2016-08-18 日立オートモティブシステムズ株式会社 物体検知装置
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP2019144900A (ja) * 2018-02-21 2019-08-29 株式会社豊田中央研究所 状態推定装置及びプログラム

Also Published As

Publication number Publication date
JPWO2021171498A1 (ja) 2021-09-02
WO2021171498A1 (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7008898B1 (ja) 目標追尾装置、目標追尾システム、及び目標追尾方法
Simon et al. Complexer-yolo: Real-time 3d object detection and tracking on semantic point clouds
Barnes et al. Masking by moving: Learning distraction-free radar odometry from pose information
Ferrier et al. Real-time traffic monitoring.
Zulkifley et al. Robust hierarchical multiple hypothesis tracker for multiple-object tracking
Boumediene et al. Multi-ROI association and tracking with belief functions: application to traffic sign recognition
CN111913177A (zh) 对目标物探测方法、装置以及存储介质
Schöller et al. Vision-based object tracking in marine environments using features from neural network detections
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
WO2020213099A1 (ja) オブジェクト検出・追跡装置、方法、およびプログラム記録媒体
Kohara et al. Obstacle detection based on occupancy grid maps using stereovision system
Blasch et al. Identifying moving HRR signatures with an ATR belief data association filter
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
Su et al. An efficient human-following method by fusing kernelized correlation filter and depth information for mobile robot
CN111967403B (zh) 视频移动区域确定方法、装置及电子设备
SR OBJECT DETECTION, TRACKING AND BEHAVIOURAL ANALYSIS FOR STATIC AND MOVING BACKGROUND.
Engedy et al. Global, camera-based localization and prediction of future positions in mobile robot navigation
Zaveri et al. Wavelet-based detection and its application to tracking in an IR sequence
Sun et al. Multiple moving objects tracking for automated visual surveillance
Yang et al. Building recognition based on geometric model in FLIR image sequences
Kamijo et al. Occlusion robust vehicle tracking for behavior analysis utilizing spatio-temporal Markov random field model
CN116385530B (zh) 一种基于物联网技术的河湖漂浮物目标识别方法
Argese Sensors Selection for Obstacle Detection: Sensor Fusion and YOLOv4 for an Autonomous Surface Vehicle in Venice Lagoon
CN118155038A (zh) 多目标轨迹检测方法、装置、设备和存储介质
Braun et al. Deep Learning Method for Cell-Wise Object Tracking, Velocity Estimation and Projection of Sensor Data over Time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220111

R150 Certificate of patent or registration of utility model

Ref document number: 7008898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150