JP6194450B2 - 状態推定装置、プログラムおよび集積回路 - Google Patents

状態推定装置、プログラムおよび集積回路 Download PDF

Info

Publication number
JP6194450B2
JP6194450B2 JP2013085014A JP2013085014A JP6194450B2 JP 6194450 B2 JP6194450 B2 JP 6194450B2 JP 2013085014 A JP2013085014 A JP 2013085014A JP 2013085014 A JP2013085014 A JP 2013085014A JP 6194450 B2 JP6194450 B2 JP 6194450B2
Authority
JP
Japan
Prior art keywords
probability distribution
likelihood
data
observation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013085014A
Other languages
English (en)
Other versions
JP2014206907A5 (ja
JP2014206907A (ja
Inventor
哲一 生駒
哲一 生駒
長谷川 弘
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
MegaChips Corp
Original Assignee
Kyushu Institute of Technology NUC
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC, MegaChips Corp filed Critical Kyushu Institute of Technology NUC
Priority to JP2013085014A priority Critical patent/JP6194450B2/ja
Priority to EP14785984.7A priority patent/EP2975577A4/en
Priority to PCT/JP2014/055571 priority patent/WO2014171212A1/ja
Publication of JP2014206907A publication Critical patent/JP2014206907A/ja
Priority to US14/881,652 priority patent/US9911191B2/en
Publication of JP2014206907A5 publication Critical patent/JP2014206907A5/ja
Application granted granted Critical
Publication of JP6194450B2 publication Critical patent/JP6194450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、時系列フィルタを用いて観測可能な事象の状態推定を行う技術に関し、例えば、時系列フィルタを用いて動画像上の物体を追跡する技術に関する。
時々刻々変化する観測対象の内部状態を推定する技術として、時系列フィルタを用いた技術がある。時系列フィルタとは、時刻tにおける対象の内部状態を状態ベクトルxとし、時刻tにおいて観測された特徴を観測ベクトルyとしたとき、観測された観測ベクトルyから、直接観測できない対象の内部状態xを推定する手法である。
つまり、時系列フィルタとは、以下の状態空間モデル、すなわち、
システムモデル:x〜f(x|xt−1
観測モデル:y〜h(y|x
から、観測系列(時刻tまでの観測ベクトルの集合)y1:t={y,y,・・・,y}が与えられたとき、状態系列x0:t={x,x,・・・,x}の条件付確率分布p(x|y1:t)を求める手法である。
システムノイズをvとし、観測ノイズをwとすると、対象の内部状態のシステムモデルおよび対象を観測した時の観測モデルは、以下のように表すことができる。
対象の内部状態のシステムモデル:x=f(xt−1,v
対象を観測した時の観測モデル:y=h(x,w
f(xt−1,v):時刻t−1と時刻tとの状態変化を表す状態遷移関数
h(x,w):状態xのときに得られる観測ベクトルを表す関数
このとき、1期先予測は、
であり、ベイズ則により、時刻tにおける事後確率分布p(x|y1:t)は、
となる。なお、h(y|x)は尤度(状態xのときに、観測ベクトルyを得る確率)であり、p(x|y1:t−1)は確率事前分布である。
時系列フィルタの実装の一手法としてパーティクルフィルタがある。パーティクルフィルタでは、観測対象の内部状態の確率分布をパーティクルの分布で表現し、現時刻における状態の事後確率分布を次時刻における状態の事前確率分布とする。そして、パーティクルフィルタでは、当該事前確率分布を表すパーティクル(当該事前確率分布に従って生成されたサンプル集合)の状態から推定されたテンプレートの観測(予測サンプル)と、次時刻における実際の画像(実際の観測)とを比較することで尤度を求める。
そして、パーティクルフィルタでは、求めた尤度と事前確率分布とからパーティクルの事後確率分布を推定する。
次時刻以降、前述の処理を繰り返すことで、パーティクルフィルタでは、動的に変化する観測対象(例えば、追跡対象)の状態が逐次的に推定される。
パーティクルフィルタでは、粒子数(パーティクルの数)をM(M:自然数)とし、1≦i≦M(i:整数)としたとき、以下の(1)〜(4)の処理を行う。
(1)粒子生成(1期先予測)
以下の数式に相当する処理により、各サンプル(各パーティクル)について、時刻tにおける予測サンプルを生成する。つまり、時刻t−1の事後確率分布(時刻t−1の観測対象の内部状態の確率分布)から、システムモデル(状態遷移関数)により予測した確率分布を取得する。具体的には、システムモデルfに従って、時刻t−1の各サンプル(各パーティクル)を遷移させて予測サンプルを生成する。
xa (i)〜f(x|xt−1 (i)
xa={xa (1),xa (2),xa (3),・・・,xa (M)
xa:状態遷移関数f()による状態ベクトルxの予測(推定)ベクトル
(2)重みの計算(尤度計算)
以下の数式に相当する処理により、処理(1)で生成された各予測サンプルについて、重み(尤度)を算出する。つまり、観測モデルhに従って、観測ベクトルyを得る確率(尤度)を推定する。
wa (i)〜h(y|xa (i)
wa={wa (1),wa (2),wa (3),・・・,wa (M)
wa:関数h()による重み(尤度)wの予測(推定)ベクトル(尤度の予測値の集合)
(3)リサンプリング
重み(尤度)wa (i)に比例する割合でM個の粒子を復元抽出する(粒子xa (i)を抽出する)。このようにして復元抽出されたM個の粒子の分布から、時刻tの事後確率分布(時刻tの観測対象の内部状態の確率分布)を取得する。
(4)時刻tを進めて(1)に戻る。このとき、処理(3)で取得した事後確率分布(時刻tでの事後確率分布)を、次の時刻(時刻t+1)の事前確率分布とする。
このように、パーティクルフィルタとは、観測対象の状態を表すパラメータの事前確率分布の予測と、事後確率分布の計算とを繰り返し行うことで、時々刻々変化する、観測対象の状態を表すパラメータを推定するものである。このようなパーティクルフィルタは、例えば、動画像上の物体(オブジェクト)の位置の追跡に利用される。パーティクルフィルタを用いて物体(オブジェクト)の位置追跡処理を行う場合、追跡対象(観測対象の一例)の状態を表すパラメータは、例えば、物体の位置を表すパラメータである。この場合、パーティクルフィルタでは、物体の位置を表すパラメータから推定される観測(予測サンプル)と、実際の観測(例えば、カメラ等により撮像される画像)とを比較することによって尤度を算出し、算出した尤度に基づいて、粒子のリサンプリングを行うことで、観測対象の状態を表すパラメータの事後確率分布を取得することができる(例えば、特許文献1)。
ところで、パーティクルフィルタにより物体の追跡処理を行う場合、実際の観測をカメラ等により撮像される画像(動画像)とすると、追跡対象とする物体の画像特徴量を抽出しながら、尤度を計算する必要がある。このため、尤度を計算するときの演算量が多くなる。
そこで、追跡対象とする物体の特徴を決定しておき、カメラ等により撮像される画像(動画像)から、物体の特徴量を検出した画像特徴量検出画像を取得し、取得した画像特徴量検出画像を用いて尤度を計算することが考えられる。例えば、追跡対象とする物体の特徴を、大きさがW×H(W:幅、H:高さ)である黄色の物体とすると、カメラ等により撮像される画像(動画像)から、大きさがW×H(W:幅、H:高さ)であり、かつ、黄色の度合いが高い画像領域である程、当該画像領域に含まれる画素の画素値が大きな画素値となるようにした画像特徴量検出画像を取得する。そして、当該画像特徴量検出画像を用いて尤度を計算することで、少ない演算量で尤度計算を行うことができる。これにより、演算量の増加を抑えつつ、適切に観測対象の内部状態を推定するパーティクルフィルタ処理(例えば、物体の追跡処理)を実現することができる。
特開2012−234466号公報
しかしながら、上記パーティクルフィルタ処理では、単一の観測から取得された尤度を用いて、事後確率分布の計算を行っているので、状況によっては、観測対象の内部状態を適切に推定することができない場合がある。例えば、上記パーティクルフィルタ処理により、動画像上の物体を追跡する場合、単一の観測から取得された尤度を用いているので、例えば、大きさが変化する物体を追跡する場合や、大きさが異なる複数の物体を追跡する場合、これらの物体を正確に追跡することは困難である。
そこで、本発明は、上記問題点に鑑み、複数の観測から尤度を求めることによって、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる状態推定装置、プログラムおよび集積回路を実現することを目的とする。
上記課題を解決するために、第1の発明は、観測取得部と、観測選択部と、尤度取得部と、事後確率分布推定部と、事前確率分布出部と、を備える状態推定装置である。
観測取得部は、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する。
観測選択部は、前時刻t−1に取得された事後確率分布データに基づいて、観測取得部により取得された複数の観測データの中から、1つの観測データを選択する。
尤度取得部は、観測選択部により選択された1つの観測データと、事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する。
事後確率分布推定部は、尤度取得部により取得された予測後確率分布データと、尤度データとから、事象の状態の事後確率分布データを推定する。
事前確率分布出部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
この状態推定装置では、観測取得部により、複数の観測(観測データ)が取得され、観測選択部より、観測対象(例えば、追跡対象)の内部状態に応じて、より適切な観測データが選択される。そして、この状態推定装置では、選択された観測データに基づいて、尤度データが算出され、算出された尤度データを用いて、事後確率分布データが取得される。したがって、この状態推定装置では、観測対象(例えば、追跡対象)の状態が変化した場合であっても、適切な事後確率分布データを取得することができる。その結果、この状態推定装置では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
なお、「時刻」とは、例えば、観測対象をサンプリングする時間間隔に基づく時刻を含む概念であり、時刻t−1は、時刻tのサンプリングの1つ前のサンプリング時刻を示す。
また、「観測データ」は、観測対象の特徴を示す所定の特徴量を抽出(検出)したデータであってもよい。
第2の発明は、観測取得部と、尤度算出部と、尤度取得部と、事後確率分布推定部と、事前確率分布出部と、を備える状態推定装置である。
観測取得部は、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する。
尤度算出部は、前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する。
尤度取得部は、尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した1つの尤度データを決定尤度データとして取得する。
事後確率分布推定部は、予測後確率分布データと決定尤度データとに基づいて、事象の状態の事後確率分布データを推定する。
事前確率分布出部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
この状態推定装置では、観測取得部により、複数の観測(観測データ)が取得され、尤度算出部より、複数の観測のそれぞれに対して尤度データが算出される。そして、この状態推定装置では、尤度算出部により算出された複数の尤度データの中から、観測対象(例えば、追跡対象)の状態に応じて、より適切な尤度データが導出される。そして、この状態推定装置では、導出された尤度データを用いて、事後確率分布データが取得される。したがって、状態推定装置では、観測対象(例えば、追跡対象)の状態が変化した場合であっても、適切な事後確率分布データを取得することができる。その結果、この状態推定装置では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
第3の発明は、第2の発明であって、尤度取得部は、複数の尤度データから選択した1つの尤度データを決定尤度データとして取得する。
これにより、この状態推定装置では、複数の尤度データから選択した1つの尤度データを用いて、事後確率分布データを取得することができる。
第4の発明は、第2の発明であって、尤度取得部は、複数の尤度データの重み付け和により導出した尤度データを、決定尤度データとして取得する。
この状態推定装置では、複数の尤度データの重み付け和により導出した尤度データを用いて、事後確率分布データを取得する。したがって、この状態推定装置では、観測対象(例えば、追跡対象)の状態が急激に変化する場合であっても、適切な事後確率分布データを取得することができる。つまり、追跡対象の状態が急激に変化する場合、複数の観測のいずれかを選択して処理を行うと、選択対象が切り替わるときに、取得される事後確率分布データも急激に変化し、不自然な状態推定処理(例えば、追跡処理)になることがあるが、この状態推定装置では、複数の尤度データの重み付け和により導出した尤度データにより処理が実行されるので、観測対象に急激な変化があった場合であっても、取得される事後確率分布データが急激に変化することを適切に抑制できる。その結果、この状態推定装置では、自然な状態推定処理(例えば、追跡処理)を実現することができる。
第5の発明は、第4の発明であって、尤度算出部、尤度取得部、事後確率分布推定部、および、事前確率分布出力部は、パーティクルフィルタによる処理を実行する。
尤度データの重み付け係数は、パーティクルの内部状態を表す関数である。
これにより、パーティクルの内部状態を表す関数により取得された重み付け係数を用いて、尤度データを取得することができる。
第6の発明は、第2から第5のいずれかの発明であって、尤度算出部、尤度取得部、事後確率分布推定部、および、事前確率分布出力部は、パーティクルフィルタによる処理を実行する。
これにより、パーティクルフィルタにより処理が実行される状態推定装置を実現することができる。
第7の発明は、第1の発明であって、観測選択部、尤度取得部、事後確率分布推定部、および、事前確率分布出力部は、パーティクルフィルタによる処理を実行する。
これにより、パーティクルフィルタにより処理が実行される状態推定装置を実現することができる。
第8の発明は、観測取得ステップと、観測選択ステップと、尤度取得ステップと、事後確率分布推定ステップと、事前確率分布出ステップと、を備える状態推定方法をコンピュータに実行させるためのプログラムである。
観測取得ステップは、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する。
観測選択ステップは、前時刻t−1に取得された事後確率分布データに基づいて、観測取得ステップにより取得された複数の観測データの中から、1つの観測データを選択する。
尤度取得ステップは、観測選択ステップにより選択された1つの観測データと、事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する。
事後確率分布推定ステップは、尤度取得ステップにより取得された予測後確率分布データと、尤度データとから、事象の状態の事後確率分布データを推定する。
事前確率分布出ステップは、事後確率分布推定ステップにより推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
これにより、第1の発明と同様の効果を奏する状態推定方法をコンピュータに実行させるためのプログラムを実現することができる。
第9の発明は、観測取得ステップと、尤度算出ステップと、尤度取得ステップと、事後確率分布推定ステップと、事前確率分布出ステップと、を備える状態推定方法をコンピュータに実行させるためのプログラムである。
観測取得ステップは、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する。
尤度算出ステップは、前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得ステップにより取得された複数の観測データごとに、尤度データを算出する。
尤度取得ステップは、尤度算出ステップにより取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した1つの尤度データを決定尤度データとして取得する。
事後確率分布推定ステップは、予測後確率分布データと決定尤度データとに基づいて、事象の状態の事後確率分布データを推定する。
事前確率分布出ステップは、事後確率分布推定ステップにより推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
これにより、第2の発明と同様の効果を奏する状態推定方法をコンピュータに実行させるためのプログラムを実現することができる。
第10の発明は、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、観測選択部と、尤度取得部と、事後確率分布推定部と、事前確率分布出部と、を備える。
観測選択部は、前時刻t−1に取得された事後確率分布データに基づいて、観測取得部により取得された複数の観測データの中から、1つの観測データを選択する。
尤度取得部は、観測選択部により選択された1つの観測データと、事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する。
事後確率分布推定部は、尤度取得部により取得された予測後確率分布データと、尤度データとから、事象の状態の事後確率分布データを推定する。
事前確率分布出部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
第11の発明は、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、尤度算出部と、尤度取得部と、事後確率分布推定部と、事前確率分布出部と、を備える。
尤度算出部は、前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する。
尤度取得部は、尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した1つの尤度データを決定尤度データとして取得する。
事後確率分布推定部は、予測後確率分布データと決定尤度データとに基づいて、事象の状態の事後確率分布データを推定する。
事前確率分布出部は、事後確率分布推定部により推定された事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
これにより、第2の発明と同様の効果を奏する集積回路を実現することができる。
本発明によれば、複数の観測から尤度を求めることによって、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる状態推定装置、プログラムおよび集積回路を実現することができる。
第1実施形態に係る状態推定システム1000の概略構成図。 第1実施形態の観測取得部1の概略構成図。 動画像上で移動する物体を模式的に示した図。 時刻t0における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B0の状態とを模式的に示す図。 時刻t1における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B1の状態とを模式的に示す図。 時刻t1における、尤度取得部3による予測処理および尤度計算と、事後確率分布推定部4によるサンプリングとを説明するための図。 時刻t2における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とを模式的に示す図。 時刻t3における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体Bの状態とを模式的に示す図。 第2実施形態に係る状態推定システム2000の概略構成図。 他の実施形態に係る観測取得部1Aおよび観測選択部2Aの概略構成図。 他の実施形態に係る観測取得部1A、尤度算出部7A、および、尤度取得部3Bの概略構成図。 他の実施形態に係る観測取得部1Bの概略構成図。
[第1実施形態]
第1実施形態について、図面を参照しながら、以下、説明する。
<1.1:状態推定システムの構成>
図1は、第1実施形態に係る状態推定システム1000の概略構成図である。
状態推定システム1000は、図1に示すように、観測取得部1と、観測選択部2と、尤度取得部3と、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6と、を備える。
観測取得部1は、複数の観測(観測データ)を取得し、取得した複数の観測(観測データ)を観測選択部2に出力する。観測取得部1は、図1に示すように、第1観測取得部11と、第2観測取得部12とを備える。
第1観測取得部11は、第1の観測(第1の観測データ)を取得し、取得した第1の観測(第1の観測データ)を観測選択部2に出力する。第1観測取得部11は、例えば、図2に示すように、第1映像入力部111と、第1物体検出部112とを備える。
第1映像入力部111は、例えば、被写体を撮像することで映像信号(動画像信号)を取得する。そして、第1映像入力部111は、取得した映像信号(動画像信号)を第1物体検出部112に出力する。
第1物体検出部112は、第1映像入力部111から出力される映像信号(動画像信号)を入力する。第1物体検出部112は、入力された画像(動画像を形成する画像)から、物体検出画像を取得する。
物体を追跡する処理を行う場合、第1物体検出部112は、追跡対象とする物体の画像特徴量を抽出(検出)した物体検出画像(物体検出画像信号)を取得し、取得した物体検出画像(物体検出画像信号)を第1の観測(第1の観測データ)として観測選択部2に出力する。
第2観測取得部12は、第2の観測(第2の観測データ)を取得し、取得した第2の観測(第2の観測データ)を観測選択部2に出力する。第2観測取得部12は、例えば、図2に示すように、第2映像入力部121と、第2物体検出部122とを備える。
第2映像入力部121は、例えば、被写体を撮像することで映像信号(動画像信号)を取得する。そして、第2映像入力部121は、取得した映像信号(動画像信号)を第2物体検出部122に出力する。
第2物体検出部122は、第2映像入力部121から出力される映像信号(動画像信号)を入力する。第2物体検出部122は、入力された画像(動画像を形成する画像)から、物体検出画像を取得する。
物体を追跡する処理を行う場合、第2物体検出部122は、追跡対象とする物体の画像特徴量を抽出(検出)した物体検出画像(物体検出画像信号)を取得し、取得した物体検出画像(物体検出画像信号)を第2の観測(第2の観測データ)として観測選択部2に出力する。
なお、本実施形態では、説明便宜のため、観測取得部1が、2つの観測取得部(第1観測取得部11および第2観測取得部12)を備える場合について説明するが、観測取得部1が備える観測取得部の数は、2つに限定されることはなく、3以上であってもよい。観測取得部1が、N個(N:自然数)の観測取得部を備える場合、観測取得部1は、N個の観測(N個の観測データ)を観測選択部2に出力する。
観測選択部2は、観測取得部1から出力される複数の観測(観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。観測選択部2は、事前確率分布(事前確率分布データ)に基づいて、複数の観測(観測データ)の中から1つの観測(観測データ)を選択し、選択した観測(観測データ)を尤度取得部3に出力する。
尤度取得部3は、観測選択部2から出力される観測(観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。尤度取得部3は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、尤度取得部3は、観測(観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度を算出する。そして、尤度取得部3は、算出した尤度(尤度データ)と予測後確率分布(予測後確率分布データ)とを事後確率分布推定部4に出力する。
事後確率分布推定部4は、尤度取得部3から出力される尤度(尤度データ)と、予測後確率分布(予測後確率分布データ)とを入力する。事後確率分布推定部4は、尤度(尤度データ)と予測後確率分布(予測後確率分布データ)とに基づいて、事後確率分布(事後確率分布データ)を推定(取得)する。そして、事後確率分布推定部4は、取得した事後確率分布(事後確率分布データ)を、事前確率分布出力部5に出力する。
事前確率分布出力部5は、初期状態設定部6から出力される初期状態の設定データと、事後確率分布推定部4から出力される事後確率分布(事後確率分布データ)とを入力する。事前確率分布出力部5は、初期状態では、初期状態設定部6から出力される初期状態の設定データに基づいて、事前確率分布(事前確率分布データ)を生成し、生成した事前確率分布(事前確率分布データ)を観測選択部2と、尤度取得部3とに出力する。
また、事前確率分布出力部5は、初期状態以外の状態では、事後確率分布推定部4から出力される、時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1において、事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
初期状態設定部6は、初期状態における事前確率分布(事前確率分布)を生成するためのデータ(初期値)を保持しており、当該データ(初期値)を事前確率分布出力部5に出力する。
<1.2:状態推定システムの動作>
以上のように構成された状態推定システム1000の動作について、以下、説明する。
なお、以下では、大きさが変化する黄色の物体を追跡する処理を例に説明する。具体的には、図3に示すように、大きさを変化させながら移動する黄色の物体を追跡する場合について、説明する。なお、図3は、動画像上で移動する物体を模式的に示した図であり、図3において、横軸がX軸であり、縦軸がY軸であるものとする。そして、物体は、時刻t0〜t3において、B0〜B3に大きさを変化させながら移動するものとする。各時刻における、物体B0〜B3の中心位置、幅(X軸方向の大きさ)、高さ(Y軸方向の大きさ)は、以下の通りであるものとする。
≪時刻t0≫ 物体:B0、中心位置:(X0,Y0)、幅:W0、高さ:H0
≪時刻t1≫ 物体:B1、中心位置:(X1,Y1)、幅:W1、高さ:H1
≪時刻t2≫ 物体:B2、中心位置:(X2,Y2)、幅:W2、高さ:H2
≪時刻t3≫ 物体:B3、中心位置:(X3,Y3)、幅:W3、高さ:H3
また、以下の関係が成り立つものとする。
W0<W1<W2<W3
H0<H1<H2<H3
W3=2×W0
H3=2×H0
また、観測対象(追跡対象)の時刻tの内部状態を示す状態ベクトルをxとし、時刻tにおいて観測された特徴を観測ベクトルyとし、事前確率分布p(x|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St|t−1
t|t−1={st|t−1 (1),st|t−1 (2),・・・,st|t−1 (M)
とし、事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t
t|t={st|t (1),st|t (2),・・・,st|t (M)
とする。
また、サンプル集合(パーティクルの集合)St|tのi番目のサンプル(パーティクル)st|t (i)は、i番目のサンプル(パーティクル)の画像上の座標位置(Xt(i),Yt(i))と、当該座標位置を中心とする画像領域の幅Wt(i)および高さHt(i)を内部変数とするベクトルデータであるものとする。つまり、サンプル(パーティクル)st|t (i)は、
t|t (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるものとする。
また、第1の観測(第1の観測データ)は、幅W0、高さH0である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第1物体検出部112は、第1映像入力部111が取得した画像において、幅W0、高さH0の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅W0、高さH0である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
また、第2の観測(第2の観測データ)は、幅(2×W0)、高さ(2×H0)である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第2物体検出部122は、第2映像入力部121が取得した画像において、幅(2×W0)、高さ(2×H0)の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅(2×W0)、高さ(2×H0)である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
時刻t0において、初期状態設定部6は、追跡対象の状態の初期状態を設定するための初期値を事前確率分布出力部5に出力する。
事前確率分布出力部5は、初期状態設定部6から入力された初期値に基づいて、追跡対象の初期状態を示すサンプル(パーティクル)の集合St|t−1(t=t0)を生成する。
なお、追跡対象の初期状態を示すサンプル(パーティクル)の集合St|t−1(t=t0)の生成処理は、例えば、可能性のある全ての状態を表すパーティクルの集合が、初期状態を示すパーティクルの集合として生成されるように実行すればよい。
事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)は、観測選択部2、および、尤度取得部3に出力される。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
観測選択部2では、追跡対象を発見(特定)するまで、第1の観測データと第2の観測データの両方のデータを尤度取得部3に出力する、あるいは、物体検出結果が顕著である方の観測データ(例えば、物体検出結果画像の全画素の画素値の平均値が高い方の画像(観測データ))を尤度取得部3に出力するようにする。
図4は、時刻t0における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B0の状態とを模式的に示す図である。なお、図4の左側の第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)は、右側の物体B0の状態を示す図と同じ画像領域を縮小して示している(図5、図7、図8において同様)。
図4に示すように、時刻t0では、第1の観測(物体検出画像)のみに検出画像領域があるので、観測選択部2は、第1の観測データを尤度取得部3に出力するものとする。
尤度取得部3では、事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
そして、予測処理後のパーティクルの集合st|t−1と、観測選択部2から出力された第1の観測データ(実際の観測)とに基づいて、尤度を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa (i)とする。
そして、尤度取得部3により算出された尤度waは、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
事後確率分布推定部4では、尤度wa (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t0の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、図4に、上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveを示す。
また、図4に、上記処理により取得された、時刻t0の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveを示す。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=1.4×W0
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
図5は、時刻t1における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B1の状態とを模式的に示す図である。
時刻t1において、事前確率分布出力部5は、時刻t0における事後確率分布(事後確率分布データ)を、時刻t1における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
つまり、観測選択部2は、時刻t1の事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
具体的には、観測選択部2は、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさを、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)と、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)との間の所定の閾値Thと比較することで、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。なお、本実施形態では、Th=2×WO×H0とし、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさが閾値Thよりも小さい場合、第1の観測データを選択するものとする。
パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=1.4×W0
t−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、観測選択部2は、第1の観測データを選択する。
そして、選択された第1の観測データは、尤度取得部3に出力される。
尤度取得部3では、事前確率分布出力部5により生成された時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
例えば、時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合st|t−1を取得する。つまり、v (i)がガウス分布に従うシステムノイズとし、
t|t−1 (i)=f(st−1|t−1 (i),v (i)
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
(i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
具体的には、時刻t1における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(Xt−1|t−1 (i),Yt−1|t−1 (i),Wt−1|t−1 (i),Ht−1|t−1 (i))であり、予測処理後のi番目のパーティクルの内部状態は、(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i))であるので、
t|t−1 (i)=Xt−1|t−1 (i)+ΔX(i)
t|t−1 (i)=Yt−1|t−1 (i)+ΔY(i)
t|t−1 (i)=Wt−1|t−1 (i)+ΔW(i)
t|t−1 (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
このようにして取得した予測処理後のパーティクルの集合st|t−1の平均値による画像領域R_pred_aveを、図5に示す。
そして、尤度取得部3は、予測処理後のパーティクルの集合st|t−1と、観測選択部2から出力された第1の観測データ(実際の観測)とに基づいて、尤度を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa (i)とする。
そして、尤度取得部3により算出された尤度waは、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
事後確率分布推定部4では、尤度wa (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t1の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、図5に、(1)時刻t1における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveと、を示す。
また、図5に、上記処理により取得された、時刻t1の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveを示す。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=1.6×W0
t|t_ave=1.4×H0
として取得されたものとする。
図6は、時刻t1における、尤度取得部3による予測処理および尤度計算と、事後確率分布推定部4によるサンプリングとを説明するための図であり、図5の物体B1の周辺の画像領域を抽出して示した図である。なお、図6では、Y軸方向のパーティクルのみを模式的に示している。
図6に示すように、時刻t1の事前確率分布に従うパーティクル集合st−1|t−1に対して予測処理を実行することで、予測後確率分布に従うパーティクル集合st|t−1が取得される。そして、予測後確率分布に従うパーティクル集合st|t−1の中で、その中心位置が、物体B1の画像領域内に含まれるパーティクルの尤度は、大きな値となる。図6では、尤度が大きなパーティクルを大きな円で示している。
そして、事後確率分布推定部4では、尤度に比例する割合でM個のパーティクル(粒子)を復元抽出するので、図6に示すように、尤度の大きなパーティクルが複数個のパーティクルに復元されることで、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)St|tが取得される。
そして、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)St|tの平均値を算出することで、Y軸の平均位置が、図6のY_aveとなり、高さの平均値が、図6のH_aveとなる。
X軸方向についても、同様に処理を実行し、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)St|tの平均値を算出することで、X軸の平均位置が、図6のX_aveとなり、幅の平均値が、図6のW_aveとなる。
これにより、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)St|tの平均値により決定される画像領域が、図6の領域R_after_aveとなる。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
図7は、時刻t2における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とを模式的に示す図である。
時刻t2において、事前確率分布出力部5は、時刻t1における事後確率分布(事後確率分布データ)を、時刻t2における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
つまり、観測選択部2は、時刻t2の事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=1.6×W0
t−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
そして、選択された第2の観測データは、尤度取得部3に出力される。
尤度取得部3では、事前確率分布出力部5により生成された時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
例えば、時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合st|t−1を取得する。つまり、v (i)がガウス分布に従うシステムノイズとし、
t|t−1 (i)=f(st−1|t−1 (i),v (i)
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
(i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
具体的には、時刻t2における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(Xt−1|t−1 (i),Yt−1|t−1 (i),Wt−1|t−1 (i),Ht−1|t−1 (i))であり、予測処理後のi番目のパーティクルの内部状態は、(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i))であるので、
t|t−1 (i)=Xt−1|t−1 (i)+ΔX(i)
t|t−1 (i)=Yt−1|t−1 (i)+ΔY(i)
t|t−1 (i)=Wt−1|t−1 (i)+ΔW(i)
t|t−1 (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
このようにして取得した予測処理後のパーティクルの集合st|t−1の平均値による画像領域R_pred_aveを、図7に示す。
そして、尤度取得部3は、予測処理後のパーティクルの集合st|t−1と、観測選択部2から出力された第2の観測データ(実際の観測)とに基づいて、尤度を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa (i)とする。
ここで、図7に示すように、第2の観測データは、第1の観測データよりも、物体B2の領域の検出結果が良好である。このため、第の観測データを用いて、尤度を計算することで、物体B2の画像領域に含まれるパーティクルの尤度を大きくすることができる。その結果、事後確率分布において、物体B2の画像領域に含まれるパーティクルの数を多くすることができる。したがって、時刻t2において、観測選択部2により選択された第2の観測を用いて、尤度の算出を行うことで、より適切に物体の追跡処理が実行できる。
そして、尤度取得部3により算出された尤度waは、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
事後確率分布推定部4では、尤度wa (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t2の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、図7に、(1)時刻t2における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveと、を示す。
また、図7に、上記処理により取得された、時刻t2の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveを示す。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=2.3×W0
t|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
図8は、時刻t3における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体Bの状態とを模式的に示す図である。
時刻t3において、事前確率分布出力部5は、時刻t2における事後確率分布(事後確率分布データ)を、時刻t3における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
つまり、観測選択部2は、時刻tの事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=2.3×W0
t−1|t−1_ave=Ht|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
そして、選択された第2の観測データは、尤度取得部3に出力される。
尤度取得部3では、事前確率分布出力部5により生成された時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
例えば、時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合st|t−1を取得する。つまり、v (i)がガウス分布に従うシステムノイズとし、
t|t−1 (i)=f(st−1|t−1 (i),v (i)
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
(i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
具体的には、時刻t3における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(Xt−1|t−1 (i),Yt−1|t−1 (i),Wt−1|t−1 (i),Ht−1|t−1 (i))であり、予測処理後のi番目のパーティクルの内部状態は、(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i))であるので、
t|t−1 (i)=Xt−1|t−1 (i)+ΔX(i)
t|t−1 (i)=Yt−1|t−1 (i)+ΔY(i)
t|t−1 (i)=Wt−1|t−1 (i)+ΔW(i)
t|t−1 (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
このようにして取得した予測処理後のパーティクルの集合st|t−1の平均値による画像領域R_pred_aveを、図8に示す。
そして、尤度取得部3は、予測処理後のパーティクルの集合st|t−1と、観測選択部2から出力された第2の観測データ(実際の観測)とに基づいて、尤度を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa (i)とする。
ここで、図8に示すように、第2の観測データは、第1の観測データよりも、物体B3の領域の検出結果が良好である。このため、第の観測データを用いて、尤度を計算することで、物体B3の画像領域に含まれるパーティクルの尤度を大きくすることができる。その結果、事後確率分布において、物体B3の画像領域に含まれるパーティクルの数を多くすることができる。したがって、時刻t3において、観測選択部2により選択された第2の観測を用いて、尤度の算出を行うことで、より適切に物体の追跡処理が実行できる。
そして、尤度取得部3により算出された尤度waは、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
事後確率分布推定部4では、尤度wa (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t3の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、図8に、(1)時刻tにおける事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveと、を示す。
また、図8に、上記処理により取得された、時刻t3の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveを示す。
以上の処理を継続させることで、状態推定システム1000により、物体の追跡処理を行うことができる。
このように、状態推定システム1000では、観測取得部1により、複数の観測(観測データ)が取得され、観測選択部2より、追跡対象の状態(本実施形態では、物体の大きさ)に応じて、より適切な観測データが選択される。そして、状態推定システム1000では、選択された観測データに基づいて、尤度が算出され、算出された尤度を用いて、リサンプリングが実行される。したがって、状態推定システム1000では、追跡対象の状態が変化した場合であっても(本実施形態では、物体の大きさが変化した場合であっても)、適切な事後確率分布データを取得することができる。その結果、状態推定システム1000では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
[第2実施形態]
次に、第2実施形態について、説明する。
<2.1:状態推定システムの構成>
図9は、第2実施形態に係る状態推定システム2000の概略構成図である。
状態推定システム2000は、図9に示すように、観測取得部1と、尤度算出部7と、尤度取得部3Aと、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6と、を備える。
状態推定システム2000において、観測取得部1と、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6とは、第1実施形態の状態推定システム1000のものと同様である。
なお、事前確率分布出力部5は、第1実施形態とは出力先だけが異なる。つまり、状態推定システム2000の事前確率分布出力部5は、生成した事前確率分布(事前確率分布データ)を尤度算出部7と、尤度取得部3とに出力する。
本実施形態において、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
尤度算出部7は、図9に示すように、第1尤度算出部71と、第2尤度算出部72とを備える。
第1尤度算出部71は、第1観測取得部11から出力される第1の観測(第1の観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。第1尤度算出部71は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、第1尤度算出部71は、第1の観測(第1の観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度(第1尤度)を算出する。そして、第1尤度算出部71は、第1の観測データを用いて算出した第1尤度(第1尤度データ)と予測後確率分布(予測後確率分布データ)とを尤度取得部3Aに出力する。
第2尤度算出部72は、第2観測取得部12から出力される第2の観測(第2の観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。第2尤度算出部72は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、第2尤度算出部72は、第2の観測(第2の観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度(第2尤度)を算出する。そして、第2尤度算出部72は、第2の観測データを用いて算出した第2尤度(第1尤度データ)と予測後確率分布(予測後確率分布データ)とを尤度取得部3Aに出力する。
なお、事前確率分布(事前確率分布データ)に対する予測処理は、第1尤度算出部71および第2尤度算出部72のいずれか一方のみで実行されるものであってもよい。この場合、第1尤度算出部71および第2尤度算出部72のいずれか一方で取得された予測後確率分布(予測後確率分布データ)は、他方に出力される。また、第1尤度算出部71および第2尤度算出部72のいずれか一方で取得された予測後確率分布(予測後確率分布データ)は、尤度取得部3Aに出力される。
なお、図9では、尤度算出部が2つの構成を示しているが、これに限定されることはなく、尤度算出部は、3つ以上であってもよい。
尤度取得部3Aは、第1尤度算出部71から出力される第1尤度と、第2尤度算出部72から出力される第2尤度と、第1尤度算出部71および第2尤度算出部72の一方(または両方)から出力される予測後確率分布(予測後確率分布データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。尤度取得部3Aは、事前確率分布(事前確率分布データ)に基づいて、複数の尤度(図9の場合、第1尤度と第2尤度)の中から1つの尤度(尤度データ)を選択し、選択した尤度(尤度データ)を事後確率分布推定部4に出力する。
<2.2:状態推定システムの動作>
以上のように構成された状態推定システム2000の動作について、以下、説明する。
なお、以下では、第1実施形態と同様に、大きさが変化する黄色の物体を追跡する処理を例に説明する。
また、第1実施形態と同様に、第1の観測(第1の観測データ)は、幅W0、高さH0である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第1物体検出部112は、第1映像入力部111が取得した画像において、幅W0、高さH0の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅W0、高さH0である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
また、第2の観測(第2の観測データ)は、幅(2×W0)、高さ(2×H0)である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第2物体検出部122は、第2映像入力部121が取得した画像において、幅(2×W0)、高さ(2×H0)の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅(2×W0)、高さ(2×H0)である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
時刻t0において、初期状態設定部6は、追跡対象の状態の初期状態を設定するための初期値を事前確率分布出力部5に出力する。
事前確率分布出力部5は、初期状態設定部6から入力された初期値に基づいて、追跡対象の初期状態を示すサンプル(パーティクル)の集合St|t−1(t=t0)を生成する。
なお、追跡対象の初期状態を示すサンプル(パーティクル)の集合St|t−1(t=t0)の生成処理は、例えば、可能性のある全ての状態を表すパーティクルの集合が、初期状態を示すパーティクルの集合として生成されるように実行すればよい。
事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)は、尤度算出部7、尤度取得部3A、および、事後確率分布推定部4に出力される。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
そして、予測処理後のパーティクルの集合st|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a (i)とする。
そして、第1尤度算出部71により算出された尤度w1a(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合st|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a (i)とする。
そして、第2尤度算出部72により算出された尤度w2a(第2尤度)は、尤度取得部3Aに出力される。
尤度取得部3Aでは、追跡対象が発見(特定)されるまで、第1の観測データと第2の観測データの両方のデータを参照し、第1尤度および第2尤度のどちらを出力するかを決定する。時刻t0の場合、図4に示すように、第1の観測データ(物体検出画像)に検出結果が顕著に現れているので、尤度取得部3Aは、第1尤度を選択し、選択した第1尤度を事後確率分布推定部4に出力する。
事後確率分布推定部4では、第1尤度w1a (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t0の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveは、図4に示したものと同様のものとなる。
また、上記処理により取得された、時刻t0の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveは、図4に示したものと同様のものとなる。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=1.4×W0
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
時刻t1における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B1の状態とは、図5と同様である。
時刻t1において、事前確率分布出力部5は、時刻t0における事後確率分布(事後確率分布データ)を、時刻t1における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
そして、予測処理後のパーティクルの集合st|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a (i)とする。
そして、第1尤度算出部71により算出された尤度w1a(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合st|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a (i)とする。
そして、第2尤度算出部72により算出された尤度w2a(第2尤度)は、尤度取得部3Aに出力される。
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
つまり、尤度取得部3Aは、時刻t1の事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
具体的には、尤度取得部3Aは、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさを、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)と、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)との間の所定の閾値Thと比較することで、第1尤度と第2尤度のどちらの尤度を選択するか決定する。なお、本実施形態では、Th=2×WO×H0とし、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさが閾値Thよりも小さい場合、第1尤度を選択するものとする。
パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=1.4×W0
t−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、尤度取得部3Aは、第1尤度を選択する。
そして、選択された第1尤度は、事後確率分布推定部4に出力される。
事後確率分布推定部4では、第1尤度w1a (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t1の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、(1)時刻t1における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveとは、図5と同様である。
また、上記処理により取得された、時刻t1の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveは、図5と同様である。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=1.6×W0
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
時刻t2における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とは、図7と同様である。
時刻t2において、事前確率分布出力部5は、時刻t1における事後確率分布(事後確率分布データ)を、時刻t2における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
そして、予測処理後のパーティクルの集合st|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a (i)とする。
そして、第1尤度算出部71により算出された尤度w1a(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合st|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a (i)とする。
そして、第2尤度算出部72により算出された尤度w2a(第2尤度)は、尤度取得部3Aに出力される。
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
つまり、尤度取得部3Aは、時刻t2の事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
具体的には、尤度取得部3Aは、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=1.6×W0
t−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
そして、選択された第2尤度は、事後確率分布推定部4に出力される。
事後確率分布推定部4では、第2尤度w2a (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t2の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、(1)時刻t2における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveとは、図7と同様である。
また、上記処理により取得された、時刻t2の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveは、図7と同様である。
なお、Wt|t_ave、および、Ht|t_aveは、
t|t_ave=2.3×W0
t|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
時刻t3における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とは、図8と同様である。
時刻t3において、事前確率分布出力部5は、時刻t2における事後確率分布(事後確率分布データ)を、時刻t3における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合st−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合st|t−1を取得する。
そして、予測処理後のパーティクルの集合st|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a (i)とする。
そして、第1尤度算出部71により算出された尤度w1a(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合st|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合st|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
つまり、i番目(1≦i≦M)のパーティクルの場合、
t|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i)
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a (i)とする。
そして、第2尤度算出部72により算出された尤度w2a(第2尤度)は、尤度取得部3Aに出力される。
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
つまり、尤度取得部3Aは、時刻t3の事前確率分布p(xt−1|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
具体的には、尤度取得部3Aは、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、
t−1|t−1_ave=Wt|t_ave=2.3×W0
t−1|t−1_ave=Ht|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
そして、選択された第2尤度は、事後確率分布推定部4に出力される。
事後確率分布推定部4では、第2尤度w2a (i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t3の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M)
を取得する。
なお、(1)時刻t3における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合st|t−1に関するデータ)に従うパーティクルの平均値(Xt|t−1_ave,Yt|t−1_ave,Wt|t−1_ave,Ht|t−1_ave)を示す領域R_pred_aveとは、図8と同様である。
また、上記処理により取得された、時刻t3の事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|tの平均値(Xt|t_ave,Yt|t_ave,Wt|t_ave,Ht|t_ave)を示す領域R_after_aveは、図8と同様である。
以上の処理を継続させることで、状態推定システム2000により、物体の追跡処理を行うことができる。
このように、状態推定システム2000では、観測取得部1により、複数の観測(観測データ)が取得され、尤度算出部7より、複数の観測のそれぞれに対して尤度が算出される。そして、状態推定システム2000では、尤度算出部7により算出された複数の尤度の中から、追跡対象の状態(本実施形態では、物体の大きさ)に応じて、より適切な尤度が選択される。そして、状態推定システム2000では、選択された尤度を用いて、リサンプリングが実行される。したがって、状態推定システム2000では、追跡対象の状態が変化した場合であっても(本実施形態では、物体の大きさが変化した場合であっても)、適切な事後確率分布データを取得することができる。その結果、状態推定システム2000では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
≪変形例≫
次に、第2実施形態の変形例について、説明する。
本変形例の状態推定システムは、第2実施形態の状態推定システム2000と同様の構成を有している。
第2実施形態の状態推定システム2000では、尤度取得部3Aが、第1尤度および第2尤度のいずれか一方を選択していたが、本変形例では、尤度取得部3Aは、第1尤度および第2尤度を合成した合成尤度を取得し、取得した合成尤度を事後確率分布推定部4に出力する。本変形例において、この点のみが、第2実施形態と相違する。
以下では、本変形例に特有の部分について、説明する。
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度とを合成する比率を決定する。
具体的には、尤度取得部3Aは、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさをA1とし、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)をD1とし、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)D2とし、D1<A1<D2であるとすると、
α=(A1―D1)/(D2−D1)
0≦α≦1
により、内分比αを取得する。そして、尤度取得部3Aは、
(合成尤度)=(第1尤度)×(1−α)+(第2尤度)×α
により、合成尤度を算出し、算出した合成尤度を事後確率分布推定部4に出力する。
このように、本変形例の状態推定システムでは、第1尤度と第2尤度とを重み付けして合成した合成尤度を用いて、リサンプリングが実行されるので、追跡対象の状態が急激に変化する場合であっても、適切な事後確率分布データを取得することができる。つまり、追跡対象の状態が急激に変化する場合、複数の観測のいずれかを選択して処理を行うと、選択対象が切り替わるときに、取得される事後確率分布データも急激に変化し、不自然な追跡処理になることがあるが、本変形例の状態推定システムでは、第1尤度と第2尤度とを重み付けして合成した合成尤度により処理が実行されるので、このような急激な変化があった場合であっても、取得される事後確率分布データが急激に変化することを適切に抑制できる。その結果、本変形例の状態推定システムでは、自然な追跡処理を実現することができる。
なお、上記では、内分により合成尤度を算出する場合について説明したが、これに限定されることはなく、外分等の他の重み付けにより、合成尤度を取得するようにしてもよい。
また、非線形な関数(例えば、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の幅および高さを変数とする非線形関数)により、合成尤度を取得するようにしてもよい。
また、上記では、尤度算出部7で取得される尤度の数が2つである場合について、説明したが、これに限定されることはなく、尤度算出部7で取得される尤度の数は3以上であってもよい。
[他の実施形態]
上記実施形態(変形例を含む)では、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理において、画像領域の面積に基づいて、閾値Thを設定する場合について、説明したがこれに限定されることはない。例えば、追跡対象の物体の高さHと幅Wのアスペクト比が固定値である場合、閾値を幅または高さに基づいて、閾値を設定し、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の幅または高さを比較対象として、閾値処理することで、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
例えば、追跡対象の物体の高さHと幅Wのアスペクト比がH:W=1:2で固定である場合であって、第1観測データが幅16画素である物体を最も顕著に検出する物体検出画像であり、第2観測データが幅32画素である物体を最も顕著に検出する物体検出画像である場合、例えば、中間値の「24」を閾値とする。そして、
(1)W≦24のとき、第1観測データを選択し、
(2)W>24のとき、第2観測データを選択する
ことで、第1の観測データおよび第2観測データの選択処理を実行し、
(1)W≦24のとき、第1尤度を選択し、
(2)W>24のとき、第2尤度を選択する
ことで、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
また、上記実施形態(変形例を含む)では、パーティクルの示す状態は、パーティクルの中心座標(X,Y)と、座標(X,Y)を中心とする幅W、高さHとにより決定される矩形領域を示す状態ベクトル(X,Y,W,H)を用いて処理を行う場合について説明したが、これに限定されることはない。例えば、パーティクルの示す状態は、例えば、パーティクルの中心座標(X,Y)と、座標(X,Y)を中心とする長軸2A、短軸2Bとにより決定される楕円領域を示す状態ベクトル(X,Y,A,B)を用いて処理を行うようにしてもよい。
また、上記実施形態(変形例を含む)では、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値としたが、これに限定されることはなく、例えば、各パーティクルの内部変数に基づいて、設定される画像領域(例えば、W×Hの画像領域より所定の割合だけ大きい画像領域等)内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値、重み付け積算値(パーティクルの中心座標からの距離により重み付けした値の積算値)、平均値、重み付け平均値(パーティクルの中心座標からの距離により重み付けした値の平均値)等であってもよい。
また、上記実施形態(変形例を含む)では、観測は、黄色物体に反応するような観測であったが、観測はこれによらず、例えば、ニューラルネットを用いた物体検出器で、異なる大きさの物体を検出するような複数の観測であってもよい。この場合、観測取得部1では、カメラから入力された画像がニューラルネットワークを用いた検出器に入力され、検出結果として検出信号がグレースケールの画像として出力され、この画像が、観測選択部2あるいは尤度算出部7の入力となる。そして、尤度を算出処理において、パーティクルの状態ベクトル(X,Y,W,H)が示す領域を抽出し、抽出した領域内の上記グレー画像のすべての画素について画素値を加算することにより尤度を算出すればよい。
また、上記実施形態(変形例を含む)では、大きさが変化する1つの物体を追跡する場合について説明したが、これに限定されることはなく、状態推定システムにおいて、大きさが変化する複数の物体を追跡する処理を実行するようにしてもよい。この場合、複数の追跡対象物体が占有する画像領域ごとに、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理を実行し、上記と同様の処理を適用すればよい。
また、上記実施形態(変形例を含む)では、黄色の物体を追跡対象としたが、これに限定さされることはなく、追跡対象は、他の特徴を有するものであってもよい。
黄色の物体を追跡対象とする場合、第1映像入力部111、第2映像入力部121で取得される画像(映像)の各画素のRGB値をR,G,B(各8ビット)とすると、たとえば、
Ye=(255−B)×R×G/(1+R+G+B)
により黄色度合いを検出し、検出した結果を物体検出画像とすればよい。
また、他の色の物体を追跡対象とする場合、上記と同様に、当該他の色成分を抽出する処理を実行し、検出した結果を物体検出画像とすればよい。
また、上記実施形態(変形例を含む)では、図3に示すように、第1観測取得部11と第2観測取得部12とが、それぞれ、映像入力部(第1映像入力部111と第2映像入力部121)を有する構成としたが、これに限定されることはなく、例えば、観測取得部1は、1つの映像入力部を有し、その映像入力部の出力が、第1物体検出部112および第2物体検出部122の入力となるように構成されるものであってもよい。
また、第1実施形態の状態推定システムにおいて、観測取得部1を、図10に示す観測取得部1Aに置換し、観測選択部2を図10に示す観測選択部2Aに置換した構成としてもよい。
この場合、図10に示すように、観測取得部1Aは、1つの映像入力とN個の物体検出部
とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
そして、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nは、それぞれ、映像入力部111Aが取得した動画像(動画像信号)を入力し、入力された動画像(動画像信号)から第1〜第Nの物体検出画像を取得し、取得した第1〜第Nの物体検出画像(第1〜第Nの観測データ)を観測選択部2Aに出力する。
観測選択部2は、第1〜第Nの物体検出画像(第1〜第Nの観測データ)の中から、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)に基づいて、複数の観測(観測データ)の中から1つの観測(観測データ)を選択する。
以降の処理は、第1実施形態と同様である。このように、複数の観測データ(例えば、複数の物体検出結果画像)を用いて、第1実施形態と同様の処理を行うようにしてもよい。
また、第2実施形態の状態推定システムにおいて、観測取得部1を、図11に示す観測取得部1Aに置換し、尤度算出部7を、図11に示す尤度算出部7Aに置換し、尤度取得部3Aを、図11に示す尤度取得部3Bに置換した構成としてもよい。
この場合、図11に示すように、観測取得部1Aは、1つの映像入力とN個の物体検出部とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
そして、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nは、それぞれ、映像入力部111Aが取得した動画像(動画像信号)を入力し、入力された動画像(動画像信号)から第1〜第Nの物体検出画像を取得し、取得した第1〜第Nの物体検出画像(第1〜第Nの観測データ)を尤度算出部7Aに出力する。
図11に示すように、尤度算出部7Aは、第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nを備える。
尤度算出部7Aの第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nは、それぞれ、第1〜第Nの物体検出画像(第1〜第Nの観測データ)を入力し、第1〜第Nの物体検出画像(第1〜第Nの観測データ)に対して、上記実施形態で説明したのと同様の処理(上記実施形態で説明した第1尤度算出部71等と同様の処理)を行い、第1〜第N尤度(第1〜第N尤度データ)を取得する。そして、第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nは、それぞれ、取得した第1〜第N尤度(第1〜第N尤度データ)を尤度取得部3Bに出力する。
尤度取得部3Bは、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)に基づいて、複数の尤度(第1〜第N尤度)の中から1つの尤度(尤度データ)を選択する。
以降の処理は、第2実施形態と同様である。このように、複数の観測データ(例えば、複数の物体検出画像)、複数の尤度(尤度データ)を用いて、第2実施形態と同様の処理を行うようにしてもよい。
また、上記実施形態(変形例)および図10、図11に示した構成において、観測取得部(1、A)を、図12に示す観測取得部1Bに置換した構成にしてもよい。
観測取得部1Bは、図12に示すように、2つの映像入力部(第1映像入力部111A、第2映像入力部111B)と、N個の物体検出部を備える。
そして、図12に示すように、第1映像入力部111Aの出力は、第1〜第K物体検出部に入力され、第2映像入力部111Bの出力は、第K+1〜第N物体検出部に入力される。
このように、複数の映像入力部と、複数の物体検出部とを用いて、複数の観測データ(例えば、複数の物体検出画像)により、上記実施形態と同様の処理を適用するようにしてもよい。
なお、映像入力部の数と、物体検出部の数とは、例えば、図12に示すように、同じ数でなくてもよい。
上記のように、複数の観測(複数の観測データ)、および/または、複数の尤度(複数の尤度データ)を用いて、上記実施形態(変形例も含む)と同様の処理を適用させることで、状態推定システムでは、より精度の高い状態推定(例えば、物体追跡処理)を実行することができる。例えば、状態推定システムにおいて、物体追跡処理を行う場合、第1〜第N物体検出部が、それぞれ、異なる大きさの物体の検出結果(物体検出画像)を取得し、その検出結果(物体検出画像)を用いて、処理を実行することで、より精度の高い物体追跡処理を実現することができる。
また、状態推定システムにおいて、物体追跡処理を行う場合、第1〜第N物体検出部が、それぞれ、異なる大きさの物体の検出結果(物体検出画像)を取得し、その検出結果(物体検出画像)を用いて複数の尤度を取得し、取得した複数の尤度を用いて処理を実行することで、より精度の高い物体追跡処理を実現することができる。
さらに、取得した複数の尤度を用いて、第2実施形態で説明したのと同様に、内分処理により、合成尤度を算出し、算出した合成尤度を用いて、第2実施形態と同様の処理を行うことで、より精度の高い物体追跡処理を実現することができる。
また、上記実施形態で説明した状態推定システムにおいて、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
1000、2000 状態推定システム
1 観測取得部
11 第1観測取得部
12 第2観測取得部
2 観測選択部
3、3A 尤度取得部
4 事後確率分布推定部
5 事前確率分布出力部
6 初期状態設定部
7 尤度算出部
71 第1尤度算出部
72 第2尤度算出部

Claims (11)

  1. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部と、
    前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得部により取得された前記複数の観測データの中から、1つの観測データを選択する観測選択部と、
    前記観測選択部により選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得部と、
    前記尤度取得部により取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
    前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
    を備える状態推定装置。
  2. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部と、
    前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する尤度算出部と、
    前記尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得部と、
    前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
    前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
    を備える状態推定装置。
  3. 前記尤度取得部は、前記複数の尤度データから選択した1つの尤度データを前記決定尤度データとして取得する、
    請求項2に記載の状態推定装置。
  4. 前記尤度取得部は、前記複数の尤度データの重み付け和により導出した尤度データを、前記決定尤度データとして取得する、
    請求項2に記載の状態推定装置。
  5. 前記尤度算出部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行し、
    前記尤度データの重み付け係数は、パーティクルの内部状態を表す関数である、
    請求項4に記載の状態推定装置。
  6. 前記尤度算出部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行する、
    請求項2から5のいずれかに記載の状態推定装置。
  7. 前記観測選択部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行する、
    請求項1に記載の状態推定装置。
  8. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得ステップと、
    前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得ステップにより取得された前記複数の観測データの中から、1つの観測データを選択する観測選択ステップと、
    前記観測選択ステップにより選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得ステップと、
    前記尤度取得ステップにより取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定ステップと、
    前記事後確率分布推定ステップにより推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出ステップと、
    を備える状態推定方法をコンピュータに実行させるためのプログラム。
  9. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得ステップと、
    前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得ステップにより取得された複数の観測データごとに、尤度データを算出する尤度算出ステップと、
    前記尤度算出ステップにより取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得ステップと、
    前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定ステップと、
    前記事後確率分布推定ステップにより推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出ステップと、
    を備える状態推定方法をコンピュータに実行させるためのプログラム。
  10. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、
    前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得部により取得された前記複数の観測データの中から、1つの観測データを選択する観測選択部と、
    前記観測選択部により選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得部と、
    前記尤度取得部により取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
    前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
    を備える集積回路。
  11. 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、
    前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する尤度算出部と、
    前記尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得部と、
    前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
    前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
    を備える集積回路。

JP2013085014A 2013-04-15 2013-04-15 状態推定装置、プログラムおよび集積回路 Active JP6194450B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013085014A JP6194450B2 (ja) 2013-04-15 2013-04-15 状態推定装置、プログラムおよび集積回路
EP14785984.7A EP2975577A4 (en) 2013-04-15 2014-03-05 DEVICE, PROGRAM, AND INTEGRATED STATE ESTIMATING CIRCUIT
PCT/JP2014/055571 WO2014171212A1 (ja) 2013-04-15 2014-03-05 状態推定装置、プログラムおよび集積回路
US14/881,652 US9911191B2 (en) 2013-04-15 2015-10-13 State estimation apparatus, state estimation method, and integrated circuit with calculation of likelihood data and estimation of posterior probability distribution data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085014A JP6194450B2 (ja) 2013-04-15 2013-04-15 状態推定装置、プログラムおよび集積回路

Publications (3)

Publication Number Publication Date
JP2014206907A JP2014206907A (ja) 2014-10-30
JP2014206907A5 JP2014206907A5 (ja) 2016-06-02
JP6194450B2 true JP6194450B2 (ja) 2017-09-13

Family

ID=51731171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085014A Active JP6194450B2 (ja) 2013-04-15 2013-04-15 状態推定装置、プログラムおよび集積回路

Country Status (4)

Country Link
US (1) US9911191B2 (ja)
EP (1) EP2975577A4 (ja)
JP (1) JP6194450B2 (ja)
WO (1) WO2014171212A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6295122B2 (ja) * 2014-03-27 2018-03-14 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6366999B2 (ja) * 2014-05-22 2018-08-01 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
WO2016025507A1 (en) * 2014-08-12 2016-02-18 Joseph Cole Harper System and method for accurately analyzing sensed data
JP6482844B2 (ja) * 2014-12-11 2019-03-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6571552B2 (ja) * 2016-02-04 2019-09-04 日本電信電話株式会社 予測装置および予測方法
US11222438B2 (en) * 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11132611B2 (en) * 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US10481379B1 (en) * 2018-10-19 2019-11-19 Nanotronics Imaging, Inc. Method and system for automatically mapping fluid objects on a substrate
JP7381330B2 (ja) * 2019-12-24 2023-11-15 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020198681A1 (en) * 2001-06-13 2002-12-26 Kouritzin Michael A. Flexible efficient branching particle tracking algorithms
US7351975B2 (en) * 2005-03-29 2008-04-01 Duke University Sensor system for identifying and tracking movements of multiple sources
US8463461B2 (en) * 2005-03-30 2013-06-11 The Boeing Company Trajectory prediction based on state transitions and lantencies
JP4208898B2 (ja) 2006-06-09 2009-01-14 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
JP4686663B2 (ja) * 2006-07-10 2011-05-25 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
JP4991595B2 (ja) * 2008-02-21 2012-08-01 株式会社東芝 パーティクルフィルタを使用する追跡システム
CN101975575B (zh) * 2010-10-15 2012-03-28 西安电子科技大学 基于粒子滤波的被动传感器多目标跟踪方法
US8452535B2 (en) * 2010-12-13 2013-05-28 GM Global Technology Operations LLC Systems and methods for precise sub-lane vehicle positioning
JP5674550B2 (ja) 2011-05-09 2015-02-25 日本電信電話株式会社 状態追跡装置、方法、及びプログラム

Also Published As

Publication number Publication date
WO2014171212A1 (ja) 2014-10-23
US9911191B2 (en) 2018-03-06
JP2014206907A (ja) 2014-10-30
EP2975577A1 (en) 2016-01-20
EP2975577A4 (en) 2016-06-15
US20160035098A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
JP6194450B2 (ja) 状態推定装置、プログラムおよび集積回路
CN110378844B (zh) 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
WO2019093152A1 (ja) 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
JP6482844B2 (ja) 状態推定装置、プログラムおよび集積回路
JP2010009375A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
JP6366999B2 (ja) 状態推定装置、プログラムおよび集積回路
CN108140291A (zh) 烟雾检测装置、方法以及图像处理设备
CN108876813B (zh) 用于视频中物体检测的图像处理方法、装置及设备
JP2005128619A (ja) 物体計測装置、物体計測方法、およびプログラム
Lee et al. Gaussianmask: Uncertainty-aware instance segmentation based on gaussian modeling
JP2014206907A5 (ja)
US20110057933A1 (en) Resolution Enhancement of Video Stream Based on Spatial and Temporal Correlation
Wang et al. Object counting in video surveillance using multi-scale density map regression
JP2010055252A (ja) 動きベクトル検出装置および画像処理装置
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
JP6452324B2 (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2011162309A1 (ja) 物体領域抽出装置、方法、及び、プログラム
JP2022148383A (ja) 学習方法、学習装置、及び、プログラム
WO2020044866A1 (ja) 変位計測装置及び変位計測方法
JP2007156954A (ja) 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム
JP5419925B2 (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
JPWO2016142965A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体
EP3798976B1 (en) Method and system for determining dynamism in a scene by processing a depth image
JP2012198877A (ja) 動き検出装置、動き検出方法及び動き検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170623

R150 Certificate of patent or registration of utility model

Ref document number: 6194450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250