JP6482844B2 - 状態推定装置、プログラムおよび集積回路 - Google Patents

状態推定装置、プログラムおよび集積回路 Download PDF

Info

Publication number
JP6482844B2
JP6482844B2 JP2014250985A JP2014250985A JP6482844B2 JP 6482844 B2 JP6482844 B2 JP 6482844B2 JP 2014250985 A JP2014250985 A JP 2014250985A JP 2014250985 A JP2014250985 A JP 2014250985A JP 6482844 B2 JP6482844 B2 JP 6482844B2
Authority
JP
Japan
Prior art keywords
data
reliability
observation
likelihood
probability distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014250985A
Other languages
English (en)
Other versions
JP2016114988A5 (ja
JP2016114988A (ja
Inventor
長谷川 弘
弘 長谷川
哲一 生駒
哲一 生駒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
MegaChips Corp
Original Assignee
Kyushu Institute of Technology NUC
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC, MegaChips Corp filed Critical Kyushu Institute of Technology NUC
Priority to JP2014250985A priority Critical patent/JP6482844B2/ja
Priority to EP15195370.0A priority patent/EP3032496B1/en
Priority to US14/950,302 priority patent/US10375360B2/en
Priority to CN201510820272.0A priority patent/CN105701839B/zh
Publication of JP2016114988A publication Critical patent/JP2016114988A/ja
Publication of JP2016114988A5 publication Critical patent/JP2016114988A5/ja
Application granted granted Critical
Publication of JP6482844B2 publication Critical patent/JP6482844B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、時系列フィルタを用いて観測可能な事象の状態推定を行う技術に関し、例えば、時系列フィルタを用いて動画像上の物体を追跡する技術に関する。
時々刻々変化する観測対象の内部状態を推定する技術として、時系列フィルタを用いた技術がある。時系列フィルタとは、時刻tにおける対象の内部状態を状態ベクトルxとし、時刻tにおいて観測された特徴を観測ベクトルyとしたとき、観測された観測ベクトルyから、直接観測できない対象の内部状態xを推定する手法である。
つまり、時系列フィルタとは、以下の状態空間モデル、すなわち、
システムモデル:x〜f(x|xt−1
観測モデル:y〜h(y|x
から、観測系列(時刻tまでの観測ベクトルの集合)y1:t={y,y,・・・,y}が与えられたとき、状態系列x0:t={x,x,・・・,x}の条件付確率分布p(x|y1:t)を求める手法である。
システムノイズをvとし、観測ノイズをwとすると、対象の内部状態のシステムモデルおよび対象を観測した時の観測モデルは、以下のように表すことができる。
対象の内部状態のシステムモデル:x=f(xt−1,v
対象を観測した時の観測モデル:y=h(x,w
f(xt−1,v):時刻t−1と時刻tとの状態変化を表す状態遷移関数
h(x,w):状態xのときに得られる観測ベクトルを表す関数
このとき、1期先予測は、

であり、ベイズ則により、時刻tにおける事後確率分布p(x|y1:t)は、

となる。なお、h(y|x)は尤度(状態xのときに、観測ベクトルyを得る確率)であり、p(x|y1:t−1)は予測確率分布である。
時系列フィルタの実装の一手法としてパーティクルフィルタがある。パーティクルフィルタでは、観測対象の内部状態の確率分布をパーティクルの分布で表現し、現時刻における状態の事後確率分布を次時刻における状態の事前確率分布とする。そして、パーティクルフィルタでは、当該事前確率分布を表すパーティクル(当該事前確率分布に従って生成されたサンプル集合)の状態から推定されたテンプレートの観測(予測サンプル)と、次時刻における実際の画像(実際の観測)とを比較することで尤度を求める。
そして、パーティクルフィルタでは、求めた尤度と予測確率分布とからパーティクルの事後確率分布を推定する。
次時刻以降、前述の処理を繰り返すことで、パーティクルフィルタでは、動的に変化する観測対象(例えば、追跡対象)の状態が逐次的に推定される。
パーティクルフィルタでは、粒子数(パーティクルの数)をM(M:自然数)とし、1≦i≦M(i:整数)としたとき、以下の(1)〜(4)の処理を行う。
(1)粒子生成(1期先予測)
以下の数式に相当する処理により、各サンプル(各パーティクル)について、時刻tにおける予測サンプルを生成する。つまり、時刻t−1の事後確率分布(時刻t−1の観測対象の内部状態の確率分布)から、システムモデル(状態遷移関数)により予測した確率分布(予測確率分布)を取得する。具体的には、システムモデルfに従って、時刻t−1の各サンプル(各パーティクル)を遷移させて予測サンプルを生成する。
xa (i)〜f(x|xt−1 (i)
xa={xa (1),xa (2),xa (3),・・・,xa (M)
xa:状態遷移関数f()による状態ベクトルxの予測(推定)ベクトル
(2)重みの計算(尤度計算)
以下の数式に相当する処理により、処理(1)で生成された各予測サンプルについて、重み(尤度)を算出する。つまり、観測モデルhに従って、観測ベクトルyを得る確率(尤度)を推定する。
wa (i)〜h(y|xa (i)
wa={wa (1),wa (2),wa (3),・・・,wa (M)
wa:関数h()による重み(尤度)wの予測(推定)ベクトル(尤度の予測値の集合)
(3)リサンプリング
重み(尤度)wa (i)に比例する割合でM個の粒子を復元抽出する(粒子xa (i)を抽出する)。このようにして復元抽出されたM個の粒子の分布から、時刻tの事後確率分布(時刻tの観測対象の内部状態の確率分布)を取得する。
(4)時刻tを進めて(1)に戻る。このとき、処理(3)で取得した事後確率分布(時刻tでの事後確率分布)を、次の時刻(時刻t+1)の事前確率分布とする。
このように、パーティクルフィルタとは、観測対象の状態を表すパラメータの事前確率分布の予測と、事後確率分布の計算とを繰り返し行うことで、時々刻々変化する、観測対象の状態を表すパラメータを推定するものである。このようなパーティクルフィルタは、例えば、動画像上の物体(オブジェクト)の位置の追跡に利用される。パーティクルフィルタを用いて物体(オブジェクト)の位置追跡処理を行う場合、追跡対象(観測対象の一例)の状態を表すパラメータは、例えば、物体の位置を表すパラメータである。この場合、パーティクルフィルタでは、物体の位置を表すパラメータから推定される観測(予測サンプル)と、実際の観測(例えば、カメラ等により撮像される画像)とを比較することによって尤度を算出し、算出した尤度に基づいて、粒子のリサンプリングを行うことで、観測対象の状態を表すパラメータの事後確率分布を取得することができる(例えば、特許文献1)。
特開2012−234466号公報
しかしながら、従来技術では、単一の観測データを用いて物体の追跡処理を実行するので、観測データを取得する環境が変化した場合等において、適切な観測データを安定して取得できず、その結果、内部状態の推定を適切に行うことができないことがある。また、従来技術では、単一の観測データを用いて、物体の追跡処理が実行されるので、多様な対象物を適切に検出・追跡処理することが困難である。
さらに、従来技術では、観測データにノイズがある場合や、観測データを取得する際にエラーや異常が発生した場合、追跡対象の物体の内部状態を適切に推定することが困難である。
そこで、本発明は、上記問題点に鑑み、追跡対象の物体について、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された尤度(複数の尤度)および観測データの信頼度(複数の観測データの信頼度)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる状態推定装置、プログラム、および、集積回路を実現することを目的とする。
上記課題を解決するために、第1の発明は、観測対象の内部状態を推定する状態推定装置であって、第1観測取得部と、第2観測取得部と、事前確率分布予測部と、第1尤度取得部と、第2尤度取得部と、尤度合成部と、事後確率分布取得部と、を備える。
第1観測取得部は、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
第2観測取得部は、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
事前確率分布予測部は、前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
第1尤度取得部は、第1観測データに基づいて、第1尤度を取得する。
第2尤度取得部は、第2観測データに基づいて、第2尤度を取得する。
尤度合成部は、第1尤度と、第2尤度と、第1観測データの信頼度を示す第1信頼度データと、第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する。
事後確率分布取得部は、合成尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する。
この状態推定装置では、複数の観測データ(例えば、第1観測データおよび第2観測データ)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(例えば、第1尤度および第2尤度)を、観測データの信頼度(例えば、第1信頼度データおよび第2信頼度データ)に基づいて、合成することで、合成尤度を取得する。つまり、この状態推定装置では、観測データの信頼度のより高いデータに基づいて、合成尤度を取得することができるので、精度の高い事後確率分布データを取得することができる。その結果、この状態推定装置では、精度の高い事後確率分布データを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
なお、「時刻」とは、例えば、観測対象をサンプリングする時間間隔に基づく時刻を含む概念であり、例えば、時刻t−1は、時刻tのサンプリングの1つ前のサンプリング時刻を示す。
また、「現時刻t」と「次時刻t+1」、あるいは、「前時刻t−1」と「現時刻t」との時間間隔は、例えば、事後確率分布取得部において、単位画像分(例えば、1フレーム分)の事後確率分布データを取得するのに十分な時間であればよく、例えば、1フレームに相当する時間(1フレーム時間)である。
第2の発明は、第1の発明であって、第1信頼度取得部と、第2信頼度取得部と、をさらに備える。
第1信頼度取得部は、第1信頼度データを取得する。
第2信頼度取得部は、第2信頼度データを取得する。
そして、第1観測取得部は、第1観測データの検出精度に関するデータである第1検出精度データを取得し、第2観測取得部は、第2観測データの検出精度に関するデータである第2検出精度データを取得する。
そして、第1信頼度取得部は、第1検出精度データに基づいて、第1信頼度データを取得し、第2信頼度取得部は、第2検出精度データに基づいて、第2信頼度データを取得する。
これにより、この状態推定装置では、第1信頼度取得部により取得された第1信頼度データと、第2信頼度取得部により取得された第2信頼度データと、に基づいて、より適切に合成尤度を取得することができる。例えば、この状態推定装置では、第1信頼度取得部が、時系列で連続的に、第1信頼度データを取得し、第2信頼度取得部が、時系列で連続的に、第2信頼度データを取得することができるので、より精度の高い第1信頼度データ、第2信頼度データを取得することができる。したがって、この状態推定装置では、観測データの信頼度のより高いデータに基づいて、より適切に、合成尤度を取得することができるので、精度の高い事後確率分布データを取得することができる。その結果、この状態推定装置では、精度の高い事後確率分布データを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
第3の発明は、第2の発明であって、1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部をさらに備える。
そして、尤度合成部は、センサー部により取得されたセンサー検出値に基づいて、第1信頼度データを修正することで修正第1信頼度データを取得し、センサー部により取得されたセンサー検出値に基づいて、第2信頼度データを修正することで修正第2信頼度データを取得する。
そして、尤度合成部は、修正第1信頼度データおよび修正第2信頼度データに基づいて、合成尤度を取得する。
これにより、この状態推定装置では、センサー検出値を考慮した合成尤度を取得することができるので、さらに、精度の高い事後確率分布データを取得することができる。その結果、この状態推定装置では、精度の高い事後確率分布データを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
第4の発明は、第2の発明であって、1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部をさらに備える。
そして、第1信頼度取得部は、センサー部により取得されたセンサー検出値と、第1検出精度データとに基づいて、第1信頼度データを取得する。
第2信頼度取得部は、センサー部により取得されたセンサー検出値と、第2検出精度データとに基づいて、第2信頼度データを取得する。
これにより、この状態推定装置では、センサー検出値を考慮した合成尤度を取得することができるので、さらに、精度の高い事後確率分布データを取得することができる。その結果、この状態推定装置では、精度の高い事後確率分布データを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
第5の発明は、第1から第4のいずれかの発明であって、第1信頼度データは、固定値であり、第2信頼度データは、固定値である。
これにより、この状態推定装置では、固定値である、第1信頼度データおよび第2信頼度データを用いて、状態推定処理を実行することができる。
第6の発明は、第1から第5のいずれかの発明であって、第1信頼度データは、2値データであり、第2信頼度データは、2値データである。
これにより、この状態推定装置では、2値データである、第1信頼度データおよび第2信頼度データを用いて、状態推定処理を実行することができる。
第7の発明は、第1から第5のいずれかの発明であって、第1信頼度データは、連続値であり、第2信頼度データは、連続値である。
これにより、この状態推定装置では、連続値である、第1信頼度データおよび第2信頼度データを用いるので、より精度の高い合成尤度を取得することができる。その結果、この状態推定装置では、より精度の高い事後確率分布データを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
第8の発明は、観測対象の内部状態を推定する状態推定方法をコンピュータに実行させるプログラムである。状態推定方法は、第1観測取得ステップと、第2観測取得ステップと、事前確率分布予測ステップと、第1尤度取得ステップと、第2尤度取得ステップと、合成尤度取得ステップと、事後確率分布取得ステップと、を備える。
第1観測取得ステップは、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
第2観測取得ステップは、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
事前確率分布予測ステップは、前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
第1尤度取得ステップは、第1観測データに基づいて、第1尤度を取得する。
第2尤度取得ステップは、第2観測データに基づいて、第2尤度を取得する。
合成尤度取得ステップは、第1尤度と、第2尤度と、第1観測データの信頼度を示す第1信頼度データと、第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する。
事後確率分布取得ステップは、合成尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する。
これにより、第1の発明と同様の効果を奏する状態推定方法をコンピュータに実行させるプログラムを実現することができる。
第9の発明は、観測対象の内部状態を推定する集積回路であって、第1観測取得部と、第2観測取得部と、事前確率分布予測部と、第1尤度取得部と、第2尤度取得部と、尤度合成部と、事後確率分布取得部と、を備える。
第1観測取得部は、観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する。
第2観測取得部は、観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する。
事前確率分布予測部は、前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する。
第1尤度取得部は、第1観測データに基づいて、第1尤度を取得する。
第2尤度取得部は、第2観測データに基づいて、第2尤度を取得する。
尤度合成部は、第1尤度と、第2尤度と、第1観測データの信頼度を示す第1信頼度データと、第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する。
事後確率分布取得部は、合成尤度と予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する。
これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
本発明によれば、追跡対象の物体について、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された尤度(複数の尤度)および観測データの信頼度(複数の観測データの信頼度)を用いて、物体の内部状態を推定することにより、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる状態推定装置、プログラム、および、集積回路を実現することができる。
第1実施形態に係る状態推定装置1000の概略構成図。 撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDinを模式的に示す図。 第1観測取得部1により取得された第1観測データD1を模式的に示す図。 第2観測取得部2により取得された第2観測データD2を模式的に示す図。 第1観測データD1(第1観測データによる画像データD1)と、第2観測データD2(第2観測データによる画像データD2)とを重畳させて、模式的に示した図。 観測対象(追跡対象)を物体TG1とした場合における、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図。 第1実施形態の第1変形例に係る状態推定装置1000Aの概略構成図。 第2実施形態に係る状態推定装置2000の概略構成図。 可視光用イメージセンサーを有する撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDin1を模式的に示す図。 赤外光用イメージセンサーを有する撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDin2を模式的に示す図。 第1観測取得部1Aにより取得された第1観測データD1を模式的に示す図。 第2観測取得部2Aにより取得された第2観測データD2を模式的に示す図。 第1観測データD1(第1観測データによる画像データD1)と、第2観測データD2(第2観測データによる画像データD2)とを重畳させて、模式的に示した図。 状態推定装置2000が明るい環境下に置かれている場合において、観測対象(追跡対象)を物体TG1としたときの、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図。 状態推定装置2000が暗い環境下に置かれている場合において、観測対象(追跡対象)を物体TG1としたときの、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図。 第2実施形態の第1変形例に係る状態推定装置2000Aの概略構成図。 第2実施形態の第2変形例に係る状態推定装置2000Bの概略構成図。 第1信頼度取得部9A、第2信頼度取得部10A、および、尤度合成部5の処理を説明するためのタイミングチャート。 第2実施形態の第1変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5との概略構成図(多入力の場合)。 第2実施形態の第3変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5Cと、センサー部S1とを示す概略構成図(多入力の場合)。 第2実施形態の第3変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5Bとを示す概略構成図(多入力の場合)。 第2実施形態の第3変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5との概略構成図(一入力の場合)。 第2実施形態の第3変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5Cと、センサー部S1とを示す概略構成図(一入力の場合)。 第2実施形態の第3変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5Bとを示す概略構成図(一入力の場合)。
[第1実施形態]
第1実施形態について、図面を参照しながら、以下、説明する。
<1.1:状態推定装置の構成>
図1は、第1実施形態に係る状態推定装置1000の概略構成図である。
状態推定装置1000は、図1に示すように、第1観測取得部1と、第2観測取得部2と、第1尤度取得部3と、第2尤度取得部4と、尤度合成部5と、事後確率分布取得部6と、事前確率分布予測部7と、初期状態設定部8と、を備える。
第1観測取得部1は、入力データDinを入力とする。第1観測取得部1は、入力データDinから第1観測データD1を取得し、取得した第1観測データD1を第1尤度取得部3に出力する。第1観測取得部1は、例えば、撮像装置により撮像された画像(撮像画像)を入力データDinとし、当該入力データDinから、所定の画像特徴量を抽出した画像特徴量抽出画像を第1観測データD1として取得する。
第2観測取得部2は、入力データDinを入力とする。第2観測取得部2は、入力データDinから第2観測データD2を取得し、取得した第2観測データD2を第2尤度取得部4に出力する。第2観測取得部2は、例えば、撮像装置により撮像された画像(撮像画像)を入力データDinとし、当該入力データDinから、所定の画像特徴量を抽出した画像特徴量抽出画像を第2観測データD2として取得する。
第1尤度取得部3は、第1観測取得部1から出力される第1観測データD1と、事前確率分布予測部7から出力される予測確率分布データとを入力する。第1尤度取得部3は、第1観測データD1および予測確率分布データに基づいて、第1尤度w1を取得する。そして、第1尤度取得部3は、取得した第1尤度w1を尤度合成部5に出力する。
第2尤度取得部4は、第2観測取得部2から出力される第2観測データD2と、事前確率分布予測部7から出力される予測確率分布データとを入力する。第2尤度取得部4は、第2観測データD2および予測確率分布データに基づいて、第2尤度w2を取得する。そして、第2尤度取得部4は、取得した第2尤度w2を尤度合成部5に出力する。
尤度合成部5は、第1尤度取得部3から出力される第1尤度w1と、第2尤度取得部4から出力される第2尤度w2と、を入力する。また、尤度合成部5は、第1観測取得部1の観測データの信頼度を示す信頼度データP(1)と、第2観測取得部2の観測データの信頼度を示す信頼度データP(2)と、を入力する。尤度合成部5は、第1尤度w1、第2尤度w2、信頼度データP(1)、P(2)に基づいて、合成尤度wcを取得する。そして、尤度合成部5は、取得した合成尤度wcを、事後確率分布取得部6に出力する。
事後確率分布取得部6は、尤度合成部5から出力される合成尤度wcと、事前確率分布予測部7から出力される予測確率分布データとを入力する。事後確率分布取得部6は、合成尤度wcと予測確率分布データとに基づいて、事後確率分布データを取得(推定)する。そして、事後確率分布取得部6は、取得した事後確率分布データを、事前確率分布予測部7に出力する。
事前確率分布予測部7は、初期状態設定部8から出力される初期状態の設定データと、事後確率分布取得部6から出力される事後確率分布データとを入力する。事前確率分布予測部7は、初期状態では、初期状態設定部8から出力される初期状態の設定データに基づいて、事前確率分布データを生成し、生成した事前確率分布データを、予測確率分布データとして、第1尤度取得部3、第2尤度取得部4、および、事後確率分布取得部6に出力する。
また、事前確率分布予測部7は、初期状態以外の状態では、事後確率分布取得部6から出力される、時刻tにおける事後確率分布データから、システムモデル(状態遷移関数)により予測した確率分布データを取得する。そして、事前確率分布予測部7は、取得した確率分布データを、次の時刻t+1の予測確率分布データとして、第1尤度取得部3、第2尤度取得部4、および、事後確率分布取得部6に出力する。
初期状態設定部8は、初期状態における事前確率分布(事前確率分布データ)を生成するためのデータ(初期値)を保持しており、当該データ(初期値)を事前確率分布予測部7に出力する。
<1.2:状態推定装置の動作>
以上のように構成された状態推定装置1000の動作について、以下、説明する。
なお、以下では、撮像装置(不図示)により撮像された動画像(撮像動画像)を入力データDinとし、第1観測取得部1が、入力データDinから人に相当する領域を抽出した画像特徴量抽出画像を第1観測データとして取得し、第2観測取得部2が、入力データDinから動く物体に相当する領域を抽出した画像特徴量抽出画像を第2観測データとして取得する場合を一例として、説明する。
図2は、撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDinを模式的に示す図である。
図3は、第1観測取得部1により取得された第1観測データD1を模式的に示す図である。なお、図3では、物体を検出(追跡)するために用いられるパーティクル(粒子)(一例)も模式的に描いている。
図4は、第2観測取得部2により取得された第2観測データD2を模式的に示す図である。
現時刻(時刻t)において、図2に示す入力データDinが、第1観測取得部1および第2観測取得部2に入力される。
図2に示すように、時刻tの入力データDinには、4つの物体TG1〜TG4が含まれているものとする。そして、物体TG1、TG2、TG3は、人であり、物体TG4は、人以外の物体であるものとする。また、物体TG1、TG2は、動く物体であるものとする。つまり、物体TG1、TG2は、前時刻t−1(1フレーム前の時刻)から現時刻t(現フレームの時刻)において、画像上において、所定の距離以上移動した物体であるものとする。
第1観測取得部1は、入力データDinから、人に相当する画像領域を抽出することで、第1観測データD1を取得する。第1観測取得部1は、例えば、入力データDinにおいて、肌色を多く含む領域を検出することにより、および/または、人の形状のパターンマッチング等により、入力データDinの画像上において人に相当する画像領域を検出する。そして、第1観測取得部1は、検出した結果画像を、第1観測データD1として取得する。このようにして、第1観測取得部1により、図3に示す第1観測データD1が取得される。図3から分かるように、第1観測データD1では、入力データDinに含まれる人である物体TG1、TG2、TG3にそれぞれ相当する画像領域TG1_D1、TG2_D1、TG3_D1が検出されている。なお、図3の第1観測データD1(画像D1)において、画像領域TG1_D1、TG2_D1、TG3_D1内の画素は、「0」以外の画素値を有しており、画像領域TG1_D1、TG2_D1、TG3_D1以外の画像領域の画素の画素値は「0」であるものとする。
第1観測取得部1により取得された第1観測データD1は、第1観測取得部1から、第1尤度取得部3に出力される。
第2観測取得部2は、入力データDinから、動く物体に相当する画像領域を抽出することで、第2観測データD2を取得する。第2観測取得部2は、例えば、入力データDinにおいて、1フレーム期間(前時刻t−1から現時刻tまでの時間)において、画像上において所定の距離以上移動した物体の画像領域を検出することにより、入力データDinの画像上において動く物体に相当する画像領域を検出する。そして、第2観測取得部2は、検出した結果画像を、第2観測データD2として取得する。このようにして、第2観測取得部2により、図4に示す第2観測データD2が取得される。なお、図4では、第2観測取得部2が、入力データDinにおいて、1フレーム期間(前時刻t−1から現時刻tまでの時間)において、画像上において所定の距離以上移動した物体の画像領域を、当該物体の時刻tにおける重心を中心とした所定の半径の円領域として検出する場合について、検出した画像領域TG1_D2およびTG2_D2を示している。図4から分かるように、第2観測データD2では、入力データDinに含まれる動く物体TG1、TG2にそれぞれ相当する画像領域TG1_D2、TG2_D2が検出されている。なお、図4の第2観測データD2(画像D2)において、画像領域TG1_D2、TG2_D2内の画素は、「0」以外の画素値を有しており、画像領域TG1_D2、TG2_D2以外の画像領域の画素の画素値は「0」であるものとする。
第2観測取得部2により取得された第2観測データD2は、第2観測取得部2から、第2尤度取得部4に出力される。
ここで、観測対象(追跡対象)である物体の時刻tの内部状態を示す状態ベクトルをxとし、時刻tにおいて観測された特徴を観測ベクトルyとし、予測確率分布p(x|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St|t−1
t|t−1={st|t−1 (1),st|t−1 (2),・・・,st|t−1 (M)
とし、事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t
t|t={st|t (1),st|t (2),・・・,st|t (M)
とする。
また、サンプル集合(パーティクルの集合)St|tのi番目のサンプル(パーティクル)st|t (i)は、i番目のサンプル(パーティクル)の画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする幅W、高さHの矩形状の画像領域を決定するための幅W、高さHと、を内部変数とするベクトルデータであるものとする。つまり、サンプル(パーティクル)st|t (i)は、
t|t (i)=(X (i),Y (i),W (i),H (i)
であるものとする。
なお、観測対象(追跡対象)が複数ある場合、観測対象ごとにオブジェクト番号を付与し、観測対象ごとに、上記と同様にして、予測確率分布に従って生成されたサンプル集合(パーティクルの集合)St|t−1や、事後確率分布に従って生成されたサンプル集合(パーティクルの集合)St|tを設定すればよい。
以下では、説明を簡単にするため、観測対象(追跡対象)を物体TG1とした場合について、説明する。
事前確率分布予測部7では、予測処理が実行される。
具体的には、事前確率分布予測部7は、事後確率分布取得部6により取得された時刻t−1における事後確率分布データを時刻tの事前確率分布データとして予測処理を行う。つまり、事前確率分布予測部7は、事前確率分布(事前確率分布データ)に従うパーティクルの集合St−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合St|t−1(予測確率分布データ)を取得する。
例えば、時刻t−1における物体TG1の状態を表すパラメータの事前確率分布(事前確率分布データ)に従うパーティクルの集合St−1|t−1(これを「事前確率分布データSt−1|t−1」と表記する。)に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合St|t−1(これを「予測確率分布データSt|t−1」と表記する。)を取得する。つまり、v (i)がガウス分布に従うシステムノイズとし、事前確率分布予測部7は、
t|t−1 (i)=f(st−1|t−1 (i),v (i)
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
(i):システムノイズ
により、予測処理後のパーティクルの集合St|t−1を取得する。
具体的には、時刻t−1における物体TG1の事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(Xt−1|t−1 (i),Yt−1|t−1 (i),Wt−1|t−1 (i),Ht−1|t−1 (i),wct−1|t−1 (i))であり、予測処理後のi番目のパーティクルの内部状態は、(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i),wct|t−1 (i))であるので、
t|t−1 (i)=Xt−1|t−1 (i)+ΔX(i)
t|t−1 (i)=Yt−1|t−1 (i)+ΔY(i)
t|t−1 (i)=Wt−1|t−1 (i)+W(i)
t|t−1 (i)=Ht−1|t−1 (i)+H(i)
により、事前確率分布予測部7は、物体TG1の予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
このようにして取得された、物体TG1の予測処理後のパーティクルの集合st|t−1は、予測確率分布データとして、事前確率分布予測部7から第1尤度取得部3、第2尤度取得部4、および、事後確率分布取得部6に出力される。
なお、初期状態では、事前確率分布予測部7により、初期状態設定部8から出力される初期状態の設定データに基づいて、事前確率分布データが生成され、生成された事前確率分布データは、予測確率分布データとして、事前確率分布予測部7から、第1尤度取得部3、第2尤度取得部4、および、事後確率分布取得部6に出力される。
第1尤度取得部3では、事前確率分布予測部7が取得した予測確率分布データおよび第1観測データD1に基づいて、第1尤度w1が取得される。
図5は、第1観測データD1(第1観測データによる画像データD1)と、第2観測データD2(第2観測データによる画像データD2)とを重畳させて、模式的に示した図である。
図6は、観測対象(追跡対象)を物体TG1とした場合における、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図である。なお、図6では、垂直方向(Y軸方向)のパーティクルのみを模式的に示している。具体的には、図6では、図5に示した垂直方向の直線A1−A2上において配置されるパーティクルのみを模式的に示している。また、図6では、直線A1−A2における第1観測データD1の値(画像D1の画素値)を示す曲線D1と、直線A1−A2における第2観測データD2の値(画像D2の画素値)を示す曲線D2とを示している。なお、図6において、曲線D1および曲線D2は、図6の左方向が画素値が大きくなる方向(正の方向)として描いている。
第1尤度取得部3は、事前確率分布予測部7から出力される予測確率分布データSt|t−1と、第1観測データD1(画像D1)とを用いて、第1尤度w1を算出する。
図6に示すように、時刻tの事前確率分布(時刻t−1の事後確率分布)に従うパーティクル集合St−1|t−1に対して、事前確率分布予測部7により予測処理が実行されることで、予測確率分布データSt|t−1が取得される。
第1尤度取得部3は、予測確率分布データSt|t−1に従って取得された各パーティクルが占める画像領域内の第1観測データD1(画像D1)の値(画像D1において、各パーティクルが占める画像領域内の画素の画素値)を積算し、その積算値を第1尤度w1とする。このようにして取得された第1尤度w1を、図6では、円で示しており、第1尤度w1が大きい値である程、大きな円として描いている。
なお、画像D1において、予測処理後のi番目のパーティクルが占める画像領域は、当該パーティクルの内部状態が(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i),wct|t−1 (i))であるので、座標(Xt|t−1 (i),Yt|t−1 (i))を中心とし、幅(水平方向の長さ)Wt|t−1 (i)、高さ(垂直方向の長さ)Ht|t−1 (i)である矩形領域である。
図6では、第1観測データD1(画像D1)の値は、正規化されたデータ(値)であり、0〜1の値をとるものとする。
図6に示すように、予測確率分布データSt|t−1に従って取得されたパーティクルの粒子番号をi1〜i9とし、i番目のパーティクルの第1尤度値をw1(i)とすると、w1(i1)、w1(i2)、w1(i7)、w1(i8)、w1(i9)は、第1尤度の値が「0」である。
そして、i3〜i6番目のパーティクルの第1尤度値は、以下の通りである。
w1(i3)=0.4
w1(i4)=0.95
w1(i5)=0.8
w1(i6)=0.25
上記のようにして取得された第1尤度(各パーティクルの第1尤度値を含むデータ)は、第1尤度取得部3から尤度合成部5に出力される。
第2尤度取得部4は、事前確率分布予測部7から出力される予測確率分布データSt|t−1と、第2観測データD2(画像D2)とを用いて、第2尤度w2を算出する。
図6に示すように、時刻tの事前確率分布(時刻t−1の事後確率分布)に従うパーティクル集合St−1|t−1に対して、事前確率分布予測部7により予測処理が実行されることで、予測確率分布データSt|t−1が取得される。
第2尤度取得部4は、予測確率分布データSt|t−1に従って取得された各パーティクルが占める画像領域内の第2観測データD2(画像D2)の値(画像D2において、各パーティクルが占める画像領域内の画素の画素値)を積算し、その積算値を第2尤度w2とする。
なお、画像D2において、予測処理後のi番目のパーティクルが占める画像領域は、当該パーティクルの内部状態が(Xt|t−1 (i),Yt|t−1 (i),Wt|t−1 (i),Ht|t−1 (i),wct|t−1 (i))であるので、座標(Xt|t−1 (i),Yt|t−1 (i))を中心とし、幅(水平方向の長さ)Wt|t−1 (i)、高さ(垂直方向の長さ)Ht|t−1 (i)である矩形領域である。
図6では、第2観測データD2(画像D2)の値は、正規化されたデータ(値)であり、0〜1の値をとる。
図6に示すように、予測確率分布データSt|t−1に従って取得されたパーティクルの粒子番号をi1〜i9とし、i番目のパーティクルの第2尤度値をw2(i)とすると、w2(i1)、w2(i2)、w2(i3)、w2(i6)、w2(i7)、w2(i8)、w2(i9)は、第2尤度の値が「0」である。
そして、i4〜i5番目のパーティクルの第2尤度値は、以下の通りである。
(i4)=0.6
(i5)=0.2
上記のようにして取得された第2尤度(各パーティクルの第2尤度値を含むデータ)は、第2尤度取得部4から尤度合成部5に出力される。
尤度合成部5では、第1観測取得部1の観測データの信頼度を示す信頼度データP(1)と、第2観測取得部2の観測データの信頼度を示す信頼度データP(2)とに基づいて、第1尤度w1と第2尤度w2とを合成し、合成尤度wcを取得する。
なお、説明便宜のため、第1観測データの信頼度データP(1)と、第2観測データの信頼度データP(2)とがともに、同じ値「1」であるものとして、説明する。つまり、第1観測取得部1で取得される観測データの信頼度と、第2観測取得部2で取得される観測データの信頼度とが同じであるものとして、説明する。
尤度合成部5は、予測確率分布データSt|t−1に従って取得されたパーティクルごとに、第1尤度w1と第2尤度w2とを合成し、合成尤度wcを取得する。具体的には、i番目のパーティクルの合成尤度値をwc(i)とすると、尤度合成部5は、
wc(i)=P(1)/{P(1)+P(2)}×w1(i)+P(2)/{P(1)+P(2)}×w2(i)
により、i番目のパーティクルの合成尤度値wc(i)を取得する。
図6において、上記により取得された合成尤度wcを結んだ曲線を曲線Dcで示している。
図6の場合、尤度合成部5は、i番目のパーティクルの合成尤度値wc(i)を以下のようにして取得する。
wc(i1)=wc(i2)=wc(i7)=wc(i8)=wc(i9)=0
wc(i3)=0.5×w1(i3)+0.5×w2(i3)
=0.5×0.4+0.5×0.0=0.2
wc(i4)=0.5×w1(i4)+0.5×w2(i4)
=0.5×0.95+0.5×0.6=0.775
wc(i5)=0.5×w1(i5)+0.5×w2(i5)
=0.5×0.8+0.5×0.2=0.5
wc(i6)=0.5×w1(i5)+0.5×w2(i5)
=0.5×0.25+0.5×0.0=0.125
上記のようにして取得された合成尤度(各パーティクルの合成尤度値を含むデータ)は、尤度合成部5から事後確率分布取得部6に出力される。
事後確率分布取得部6では、合成尤度wcと予測確率分布データとに基づいて、事後確率分布(事後確率分布データ)が取得(推定)される。
事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。例えば、図6の場合、画像領域TG1_D1に含まれる直線A1−A2上において、9個のパーティクルが復元抽出されている。
予測確率分布データSt|t−1に従って取得されたi3番目のパーティクルから合成尤度wc(i3)=0.2が取得されるので、予測確率分布データSt|t−1に従って取得されたi3番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi1番目のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルから合成尤度wc(i=0.775が取得されるので、予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルの位置において、比例配分により、4個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi2〜i5番目のパーティクル、すなわち、合計4個のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルから合成尤度wc(i=0.5が取得されるので、予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルの位置において、比例配分により、3個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi6〜i8番目のパーティクル、すなわち、合計3個のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi6番目のパーティクルから合成尤度wc(i6)=0.125が取得されるので、予測確率分布データSt|t−1に従って取得されたi6番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi9番目のパーティクルが復元される。
以上のように、事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。
このように、事後確率分布取得部6は、復元抽出されたM1個のパーティクルの分布から、時刻tの事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t(事後確率分布データSt|t)、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M1)
を取得する。
そして、事後確率分布取得部6は、推定(取得)した事後確率分布(事後確率分布データ)を、状態推定装置1000から出力するとともに、事前確率分布予測部7に出力する。
事前確率分布予測部7は、事後確率分布取得部6から入力された時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1の事前確率分布データとして、上記で説明したのと同様に、予測処理を実行する。
そして、以降、状態推定装置1000では、上記と同様の処理を繰り返される。
以上のように、状態推定装置1000では、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された尤度(複数の尤度)および観測データの信頼度(複数の観測データの信頼度)を用いて、合成尤度wcを取得する。そして、状態推定装置1000では、取得した合成尤度wcを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。
状態推定装置1000では、複数の観測データ(第1観測データD1および第2観測データD2)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度w1および第2尤度w2)を、観測データの信頼度(第1観測取得部1の観測データの信頼度を示す信頼度データP(1)と、第2観測取得部2の観測データの信頼度を示す信頼度データP(2))に基づいて、合成することで、合成尤度wcを取得する。つまり、状態推定装置1000では、観測データの信頼度のより高いデータに基づいて、合成尤度wcを取得することができるので、精度の高い事後確率分布データSt|tを取得することができる。その結果、状態推定装置1000では、精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
なお、信頼度データP(1)、P(2)は、例えば、観測データを取得するセンサー等の精度が予め分かっている場合は、当該センサー等の精度に基づいて、固定値に設定されるものであってもよい。
また、信頼度データP(1)、P(2)は、2値データ(例えば、「0」または「1」をとるデータ)であってもよいし、「0」から「1」の間の連続値をとるものであってもよい。
≪第1変形例≫
次に、第1実施形態の第1変形例について、説明する。
本変形例において、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
図7は、第1実施形態の第1変形例に係る状態推定装置1000Aの概略構成図である。
第1変形例の状態推定装置1000Aでは、第1観測取得部1に、第1入力データDin1が入力され、第2観測取得部2に、第2入力データDin2が入力される。つまり、第1実施形態の状態推定装置1000では、1つの入力データDinが、第1観測取得部1および第2観測取得部2に入力されていたが、本変形例の状態推定装置1000Aでは、第1観測取得部1および第2観測取得部2には、別のデータが入力される。この点において、本変形例の状態推定装置1000Aは、第1実施形態の状態推定装置1000と相違する。
本変形例の状態推定装置1000Aでは、第1観測取得部1および第2観測取得部2に別のデータを入力することができるので、例えば、第1のセンサー(例えば、可視光用イメージセンサー等)(不図示)により取得した信号(データ)Din1を第1観測取得部1に入力し、第2のセンサー(例えば、赤外光用イメージセンサー等)(不図示)により取得した信号(データ)Din2を第2観測取得部2に入力することができる。
本変形例の状態推定装置1000Aでは、複数の観測データを取得し、取得した複数の観測データのそれぞれから導出された尤度(複数の尤度)および観測データの信頼度(複数の観測データの信頼度)を用いて、合成尤度wcを取得する。そして、状態推定装置1000Aでは、取得した合成尤度wcを反映させた事後確率分布(事後確率分布データ)St|tを取得することができる。
状態推定装置1000Aでは、複数の観測データ(第1観測データD1および第2観測データD2)を取得し、取得した複数の観測データのそれぞれから導出された複数の尤度(第1尤度w1および第2尤度w2)を、観測データの信頼度(第1観測取得部1の観測データの信頼度を示す信頼度データP(1)と、第2観測取得部2の観測データの信頼度を示す信頼度データP(2))に基づいて、合成することで、合成尤度wcを取得する。つまり、状態推定装置1000Aでは、観測データの信頼度のより高いデータに基づいて、合成尤度wcを取得することができるので、精度の高い事後確率分布データSt|tを取得することができる。その結果、状態推定装置1000Aでは、精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
[第2実施形態]
次に、第2実施形態について、説明する。
本実施形態において、上記実施形態および変形例と同様の部分については、同一符号を付し、詳細な説明を省略する。
<2.1:状態推定装置の構成>
図8は、第2実施形態に係る状態推定装置2000の概略構成図である。
第2実施形態の状態推定装置2000は、図8に示すように、第1実施形態の第1変形例の状態推定装置1000Aにおいて、第1観測取得部1を第1観測取得部1Aに置換し、第2観測取得部2を第2観測取得部2Aに置換し、さらに、第1信頼度取得部9と、第2信頼度取得部10とを追加した構成を有している。
第1観測取得部1Aは、第1観測データD1の検出精度に関するデータ(第1検出精度データ)を取得し、取得した第1検出精度データを第1信頼度取得部9に出力する。
第2観測取得部2Aは、第2観測データD2の検出精度に関するデータ(第2検出精度データ)を取得し、取得した第2検出精度データを第2信頼度取得部10に出力する。
第1信頼度取得部9は、第1観測取得部1Aから出力される第1検出精度データを入力する。第1信頼度取得部9は、第1検出精度データに基づいて、第1観測取得部1の観測データの信頼度を示す信頼度データP(1)を取得し、取得した信頼度データP(1)を尤度合成部5に出力する。
第2信頼度取得部10は、第2観測取得部2Aから出力される第2検出精度データを入力する。第2信頼度取得部10は、第2検出精度データに基づいて、第2観測取得部2の観測データの信頼度を示す信頼度データP(2)を取得し、取得した信頼度データP(2)を尤度合成部5に出力する。
<2.2:状態推定装置の動作>
以上のように構成された状態推定装置2000の動作について、以下、説明する。
以下では、状態推定装置2000において、第1観測取得部1Aには、可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1が入力され、第2観測取得部2Aには、赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2が入力される場合を、一例として、説明する。
なお、第1実施形態と同様の部分については、詳細な説明を省略する。
図9は、可視光用イメージセンサーを有する撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDin1を模式的に示す図である。
図10は、赤外光用イメージセンサーを有する撮像装置(不図示)により撮像された動画像(撮像動画像)である入力データDin2を模式的に示す図である。
図11は、第1観測取得部1Aにより取得された第1観測データD1を模式的に示す図である。なお、図11では、物体を検出(追跡)するために用いられるパーティクル(粒子)(一例)も模式的に描いている。
図12は、第2観測取得部2Aにより取得された第2観測データD2を模式的に示す図である。
第1観測取得部1Aには、可視光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin1が入力される。
第1観測取得部1Aは、入力データDin1から、人に相当する画像領域を抽出することで、第1観測データD1を取得する。第1観測取得部1Aは、例えば、入力データDin1において、肌色を多く含む領域を検出することにより、および/または、人の形状のパターンマッチング等により、入力データDin1の画像上において人に相当する画像領域を検出する。そして、第1観測取得部1Aは、検出した結果画像を、第1観測データD1として取得する。このようにして、第1観測取得部1Aにより、図11に示す第1観測データD1が取得される。図11から分かるように、第1観測データD1では、入力データDin1に含まれる人である物体TG1、TG2、TG3にそれぞれ相当する画像領域TG1_D1、TG2_D1、TG3_D1が検出されている。なお、図11の第1観測データD1(画像D1)において、画像領域TG1_D1、TG2_D1、TG3_D1内の画素は、「0」以外の画素値を有しており、画像領域TG1_D1、TG2_D1、TG3_D1以外の画像領域の画素の画素値は「0」であるものとする。
第1観測取得部1Aにより取得された第1観測データD1は、第1観測取得部1から、第1尤度取得部3に出力される。
第2観測取得部2Aには、赤外光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin2が入力される。
第2観測取得部2Aは、入力データDin2から、人に相当する画像領域を抽出することで、第2観測データD2を取得する。第2観測取得部2Aは、例えば、入力データDin2において、赤外光を多く発光している物体に相当する領域を検出することにより、および/または、人の形状のパターンマッチング等により、入力データDin2の画像上において人に相当する画像領域を検出する。そして、第2観測取得部2Aは、検出した結果画像を、第2観測データD2として取得する。このようにして、第2観測取得部2Aにより、図12に示す第2観測データD2が取得される。図12から分かるように、第2観測データD2では、入力データDin2に含まれる人である物体TG1、TG2、TG3にそれぞれ相当する画像領域TG1_D2、TG2_D2、TG3_D2が検出されている。なお、図12の第2観測データD2(画像D2)において、画像領域TG1_D2、TG2_D2、TG3_D2内の画素は、「0」以外の画素値を有しており、画像領域TG1_D2、TG2_D2、TG3_D2以外の画像領域の画素の画素値は「0」であるものとする。
第2観測取得部2Aにより取得された第2観測データD2は、第2観測取得部2から、第2尤度取得部4に出力される。
また、第1観測取得部1Aでは、第1観測データD1の検出精度に関するデータ(第1検出精度データ)が取得される。そして、取得された第1検出精度データは、第1観測取得部1Aから第1信頼度取得部9に出力される。
第2観測取得部2Aでは、第2観測データD2の検出精度に関するデータ(第2検出精度データ)が取得される。そして、取得された第2検出精度データは、第2観測取得部2Aから、第2信頼度取得部10に出力される。
第1信頼度取得部9では、第1観測取得部1Aから出力される第1検出精度データに基づいて、第1観測取得部1の観測データの信頼度を示す信頼度データP(1)が取得される。そして、取得された信頼度データP(1)は、第1信頼度取得部9から尤度合成部5に出力される。
第2信頼度取得部10では、第2観測取得部2Aから出力される第2検出精度データに基づいて、第2観測取得部2の観測データの信頼度を示す信頼度データP(2)が取得される。そして、取得された信頼度データP(2)は、第2信頼度取得部10から尤度合成部5に出力される。
第1尤度取得部3および第2尤度取得部4での処理については、第1実施形態、第1実施形態の第1変形例と同様である。
尤度合成部5、事後確率分布取得部6での処理について、(1)状態推定装置2000が明るい環境下に置かれている場合と、(2)状態推定装置2000が暗い環境下に置かれている場合とに分けて、以下、説明する。
(2.2.1:状態推定装置2000が明るい環境下に置かれている場合)
まず、状態推定装置2000が明るい環境下に置かれている場合について、説明する。
この場合、可視光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin1の精度が高く、また、赤外光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin2の精度も高い。
したがって、第1観測取得部1Aで取得される第1観測データD1の精度も高く、また、第2観測取得部2Aで取得される第2観測データD2の精度も高い。
このような場合、第1観測取得部1Aは、第1観測データの検出精度が高いことを示す第1検出精度データを第1信頼度取得部9に出力する。そして、第2観測取得部2Aも、第2観測データの検出精度が高いことを示す第2検出精度データを第信頼度取得部10に出力する。
そして、第1信頼度取得部9は、第1観測データの検出精度が高いことを示す第1検出精度データに基づいて、信頼度データP(1)を、第1観測データの信頼度が高いことを示す値にして、信頼度データP(1)を尤度合成部5に出力する。
また、第2信頼度取得部10は、第2観測データの検出精度が高いことを示す第2検出精度データに基づいて、信頼度データP(2)を、第2観測データの信頼度が高いことを示す値にして、信頼度データP(2)を尤度合成部5に出力する。
なお、説明便宜のため、状態推定装置2000が明るい環境下に置かれている場合、第1信頼度取得部9は、第1観測データの信頼度データP(1)を「1」に設定し、第2信頼度取得部10は、第2観測データの信頼度データP(2)を「1」に設定するものとする。つまり、
P(1)=P(2)=1
とする。
図13は、第1観測データD1(第1観測データによる画像データD1)と、第2観測データD2(第2観測データによる画像データD2)とを重畳させて、模式的に示した図である。
図14は、状態推定装置2000が明るい環境下に置かれている場合において、観測対象(追跡対象)を物体TG1としたときの、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図である。なお、図14では、垂直方向(Y軸方向)のパーティクルのみを模式的に示している。具体的には、図14では、図13に示した垂直方向の直線A1−A2上において配置されるパーティクルのみを模式的に示している。また、図14では、直線A1−A2における第1観測データD1の値(画像D1の画素値)を示す曲線D1と、直線A1−A2における第2観測データD2の値(画像D2の画素値)を示す曲線D2とを示している。なお、図14において、曲線D1および曲線D2は、図14の左方向が画素値が大きくなる方向(正の方向)として描いている。
図14の場合、第1実施形態で説明した、図6の場合と同様になる。
つまり、以下のように、尤度合成部5は、予測確率分布データSt|t−1に従って取得されたパーティクルごとに、第1尤度w1と第2尤度w2とを合成し、合成尤度wcを取得する。具体的には、i番目のパーティクルの合成尤度値をwc(i)とすると、尤度合成部5は、
wc(i)=P(1)/{P(1)+P(2)}×w1(i)+P(2)/{P(1)+P(2)}×w2(i)
により、i番目のパーティクルの合成尤度値wc(i)を取得する。
図14において、上記により取得された合成尤度wcを結んだ曲線を曲線Dcで示している。
図14の場合、尤度合成部5は、i番目のパーティクルの合成尤度値wc(i)を以下のようにして取得する。
wc(i1)=wc(i2)=wc(i7)=wc(i8)=wc(i9)=0
wc(i3)=0.5×w1(i3)+0.5×w2(i3)
=0.5×0.4+0.5×0.0=0.2
wc(i4)=0.5×w1(i4)+0.5×w2(i4)
=0.5×0.95+0.5×0.6=0.775
wc(i5)=0.5×w1(i5)+0.5×w2(i5)
=0.5×0.8+0.5×0.2=0.5
wc(i6)=0.5×w1(i5)+0.5×w2(i5)
=0.5×0.25+0.5×0.0=0.125
上記のようにして取得された合成尤度(各パーティクルの合成尤度値を含むデータ)は、尤度合成部5から事後確率分布取得部6に出力される。
事後確率分布取得部6では、合成尤度wcと予測確率分布データとに基づいて、事後確率分布(事後確率分布データ)が取得(推定)される。
事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。
図14の場合、画像領域TG1_D1に含まれる直線A1−A2上において、9個のパーティクルが復元抽出されている。
予測確率分布データSt|t−1に従って取得されたi3番目のパーティクルから合成尤度wc(i3)=0.2が取得されるので、予測確率分布データSt|t−1に従って取得されたi3番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi1番目のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルから合成尤度wc(i=0.775が取得されるので、予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルの位置において、比例配分により、4個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi2〜i5番目のパーティクル、すなわち、合計4個のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルから合成尤度wc(i=0.5が取得されるので、予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルの位置において、比例配分により、3個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi6〜i8番目のパーティクル、すなわち、合計3個のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi6番目のパーティクルから合成尤度wc(i6)=0.125が取得されるので、予測確率分布データSt|t−1に従って取得されたi6番目のパーティクルの位置において、比例配分により、1個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi9番目のパーティクルが復元される。
以上のようにして、状態推定装置2000が明るい環境下に置かれている場合、事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。
なお、第1信頼度取得部9は、第1観測取得部1Aから出力される第1検出精度データを、時系列で連続的に取得(監視)し、第1検出精度データの値が、所定の範囲外になった場合、信頼度データP(1)の値を小さく(信頼度が低いことを示す値に)するようにしてもよい。また、第2信頼度取得部10は、第2観測取得部2Aから出力される第2検出精度データを、時系列で連続的に取得(監視)し、第2検出精度データの値が、所定の範囲外になった場合、信頼度データP()の値を小さく(信頼度が低いことを示す値に)するようにしてもよい。
(2.2.2:状態推定装置2000が暗い環境下に置かれている場合)
次に、状態推定装置2000が暗い環境下に置かれている場合について、説明する。
この場合、可視光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin1の精度が低く、また、赤外光用イメージセンサーを有する撮像装置により取得された動画像(撮像動画像)である入力データDin2の精度が高い。
したがって、第1観測取得部1Aで取得される第1観測データD1の精度は低く、第2観測取得部2Aで取得される第2観測データD2の精度は高い。
このような場合、第1観測取得部1Aは、第1観測データの検出精度が低いことを示す第1検出精度データを第1信頼度取得部9に出力する。第2観測取得部2Aは、第2観測データの検出精度が高いことを示す第2検出精度データを第信頼度取得部10に出力する。
そして、第1信頼度取得部9は、第1観測データの検出精度が低いことを示す第1検出精度データに基づいて、信頼度データP(1)を、第1観測データの信頼度が低いことを示す値にして、信頼度データP(1)を尤度合成部5に出力する。ここでは、第1信頼度取得部9は、
P(1)=0
に設定するものとする。
第2信頼度取得部10は、第2観測データの検出精度が高いことを示す第2検出精度データに基づいて、信頼度データP(2)を、第2観測データの信頼度が高いことを示す値にして、信頼度データP(2)を尤度合成部5に出力する。ここでは、第2信頼度取得部10は、
P(2)=1
に設定するものとする。
図15は、状態推定装置2000が暗い環境下に置かれている場合において、観測対象(追跡対象)を物体TG1としたときの、予測処理、尤度取得処理(尤度計算)、リサンプリング処理を説明するための図である。なお、図15では、垂直方向(Y軸方向)のパーティクルのみを模式的に示している。具体的には、図15では、図13に示した垂直方向の直線A1−A2上において配置されるパーティクルのみを模式的に示している。また、図15では、直線A1−A2における第1観測データD1の値(画像D1の画素値)を示す曲線D1と、直線A1−A2における第2観測データD2の値(画像D2の画素値)を示す曲線D2とを示している。なお、図15において、曲線D1および曲線D2は、図15の左方向が画素値が大きくなる方向(正の方向)として描いている。
図15の場合、尤度合成部5は、予測確率分布データSt|t−1に従って取得されたパーティクルごとに、第1尤度w1と第2尤度w2とを合成し、合成尤度wcを取得する。具体的には、i番目のパーティクルの合成尤度値をwc(i)とすると、P(1)=0、P(2)=1であるので、尤度合成部5は、
wc(i)=P(1)/{P(1)+P(2)}×w1(i)+P(2)/{P(1)+P(2)}×w2(i)
=w2(i)
により、i番目のパーティクルの合成尤度値wc(i)を取得する。
図15において、上記により取得された合成尤度wcを結んだ曲線を曲線Dcで示している。図15から分かるように、曲線Dcは、曲線D2(第2尤度値を結んだ曲線)と一致する。
図15の場合、尤度合成部5は、i番目のパーティクルの合成尤度値wc(i)を以下のようにして取得する。
wc(i1)=wc(i2)=wc(i3)=wc(i6)=wc(i7)=wc(i8)=wc(i9)=0
wc(i4)=w2(i4)=0.6
wc(i5)=w2(i5)=0.2
上記のようにして取得された合成尤度(各パーティクルの合成尤度値を含むデータ)は、尤度合成部5から事後確率分布取得部6に出力される。
事後確率分布取得部6では、合成尤度wcと予測確率分布データとに基づいて、事後確率分布(事後確率分布データ)が取得(推定)される。
事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。
図15の場合、画像領域TG1_D1に含まれる直線A1−A2上において、9個のパーティクルが復元抽出されている。
予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルから合成尤度wc(i4)=0.6が取得されるので、予測確率分布データSt|t−1に従って取得されたi4番目のパーティクルの位置において、比例配分により、7個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi1番目〜i7番目のパーティクルが復元される。
予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルから合成尤度wc(i5)=0.2が取得されるので、予測確率分布データSt|t−1に従って取得されたi5番目のパーティクルの位置において、比例配分により、2個のパーティクルが復元される。つまり、事後確率分布データSt|tに従って取得されたi8〜i9番目のパーティクル、すなわち、合計2個のパーティクルが復元される。
以上のようにして、状態推定装置2000が暗い環境下に置かれている場合、事後確率分布取得部6は、時刻tにおける物体TG1の合成尤度wc(i)に比例する割合でM1個のパーティクル(粒子)を復元抽出する(パーティクルxa (i)(物体TG1のi番目の粒子)を抽出する)。
このように、事後確率分布取得部6は、復元抽出されたM1個のパーティクルの分布から、時刻tの事後確率分布p(x|y)に従って生成されたサンプル集合(パーティクルの集合)St|t(事後確率分布データSt|t)、すなわち、
t|t={st|t (1),st|t (2),・・・,st|t (M1)
を取得する。
そして、事後確率分布取得部6は、推定(取得)した事後確率分布(事後確率分布データ)を、状態推定装置000から出力するとともに、事前確率分布予測部7に出力する。
事前確率分布予測部7は、事後確率分布取得部6から入力された時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1の事前確率分布データとして、上記で説明したのと同様に、予測処理を実行する。
そして、以降、状態推定装置000では、上記と同様の処理を繰り返される。
図14と図15とを比較して分かるように、図15の場合、復元されるパーティクルが、図14の場合よりも、画像領域TG1_D2に集中している。
これは、状態推定装置2000が暗い環境下に置かれている場合、状態推定装置2000では、信頼度の高いデータである第2観測データD2を用いて、合成尤度wcを算出し、リサンプリング処理を実行するためである。つまり、状態推定装置2000では、第1観測取得部1Aにより取得される観測データの信頼度データP(1)と、第2観測取得部2Aにより取得される観測データの信頼度データP(2)とに基づいて、合成尤度wcを算出し、算出した合成尤度wcにより、事後確率分布データを取得する。
このように、状態推定装置2000では、観測データの信頼度のより高いデータに基づいて、合成尤度wcを取得することができるので、精度の高い事後確率分布データSt|tを取得することができる。その結果、状態推定装置2000では、精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
≪第1変形例≫
次に、第2実施形態の第1変形例について、説明する。
なお、本変形例において、上記実施形態と同様の部分については、詳細な説明を省略する。
本変形例の状態推定装置2000Aにおいて、第1観測取得部1Aには、可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1が入力され、第2観測取得部2Aには、赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2が入力される場合を、一例として、説明する。
図16は、第2実施形態の第1変形例に係る状態推定装置2000Aの概略構成図である。
図16に示すように、本変形例の状態推定装置2000Aは、第2実施形態の状態推定装置2000において、センサー部S1を追加し、尤度合成部5を尤度合成部5Aに置換した構成を有している。
センサー部S1は、1または複数のセンサー(不図示)により検出される検出信号(センサーが検出した所定の物理量を示す検出信号)に基づいて、センサー検出値を取得する。
センサー部S1は、k個(k:自然数)のセンサーにより取得される検出信号(センサー検出信号)に基づいて、k個のセンサー検出値S_det(i)(i:自然数、1≦i≦k)を取得するものであってもよい。
例えば、センサー部S1は、温度センサーにより取得された温度を示すセンサー検出値と、照度センサーにより取得された照度を示すセンサー検出値等を取得する。以下では、説明便宜のため、センサー部S1が、照度センサーにより、状態推定装置2000Aが置かれている環境光の照度(明るさ)を示すセンサー検出値S_detを取得するものとして、説明する。
センサー部S1は、取得したセンサー検出値S_detを、尤度合成部5Aに出力する。
尤度合成部5Aは、第1尤度取得部3から出力される第1尤度w1と、第2尤度取得部4から出力される第2尤度w2と、センサー部S1から出力されるセンサー検出値S_detと、を入力する。また、尤度合成部5は、第1観測取得部1の観測データの信頼度を示す信頼度データP(1)と、第2観測取得部2の観測データの信頼度を示す信頼度データP(2)と、を入力する。尤度合成部5は、第1尤度w1、第2尤度w2、信頼度データP(1)、P(2)、センサー検出値S_detに基づいて、合成尤度wcを取得する。
例えば、尤度合成部5Aは、センサー検出値S_detと、信頼度データP(1)とに基づいて、修正信頼度データP’(1)を取得し、センサー検出値S_detと、信頼度データP(2)とに基づいて、修正信頼度データP’(2)を取得する。
ここで、センサー検出値S_detの最大値(照度の最大値)をLmaxとし、センサー検出値S_detの最小値(照度の最小値)をLminとし、関数f1(x)を、
f1(x)=(x−Lmin)/(Lmax−Lmin)
Lmin≦S_det≦Lmax
とする。
尤度合成部5Aは、
P’(1)=f1(S_det)×P(1)
P’(2)={1−f1(S_det)}×P(2)
により、修正信頼度データP’(1)とP’(2)とを取得する。
さらに、尤度合成部5Aは、
P’’(1)=P’(1)/(P’(1)+P’(2))
P’’(2)=P’(2)/(P’(1)+P’(2))
により、正規化した修正信頼度データP’’(1)とP’’(2)とを取得する。
そして、尤度合成部5Aは、
wc=P’’(1)×w1+P’’(2)×w2
により、合成尤度wcを取得する。
尤度合成部5Aは、例えば、以下の(A)、(B)の場合、下記のようにして、合成尤度wcを取得する。
(A)P(1)=P(2)=1であり、S_det=Lmaxの場合(照度が最大値である場合)、尤度合成部5Aは、
wc=w1
として、合成尤度wcを取得する。つまり、この場合、尤度合成部5Aは、可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1に基づいて、取得された尤度w1を合成尤度wcとする。
(B)P(1)=P(2)=1であり、S_det=Lminの場合(照度が最小値である場合)、尤度合成部5Aは、
wc=w2
として、合成尤度wcを取得する。つまり、この場合、尤度合成部5Aは、赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2に基づいて、取得された第2尤度w2を合成尤度wcとする。
このように、尤度合成部5Aは、状態推定装置2000Aが置かれている環境光の照度(明るさ)を示すセンサー検出値S_detに基づいて、取得された修正信頼度データP’(1)、P’(2)(あるいは、正規化された修正信頼度データP’’(1)、P’’(2))を用いて、合成尤度wcを取得することができる。
例えば、
(1)環境光の照度が高い場合(明るい環境下の場合)、尤度合成部5Aは、明るい環境下でより精度の高いデータを取得できる可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1に基づいて、合成尤度wcを取得し、
(2)環境光の照度が低い場合(暗い環境下の場合)、尤度合成部5Aは、暗い環境下でより精度の高いデータを取得できる赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2に基づいて、合成尤度wcを取得し、
(3)環境光の照度が中間である場合(上記(1)、(2)の中間の明るさの環境下の場合)、尤度合成部5Aは、可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1による第1尤度w1と、赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2による第2尤度w2とを、例えば、照度に基づいて算出された内分比で合成した値を、合成尤度wcとして取得する。
このように、尤度合成部5Aは、センサー部S1により取得されたセンサー検出値を考慮して、より精度の高い合成尤度wcを取得することができる。
なお、上記では、センサー部S1が、照度センサーにより、状態推定装置2000Aが置かれている環境光の照度(明るさ)を示すセンサー検出値S_detを取得するものとして、説明したがこれに限定されることはない。センサー部S1は、複数のセンサーにより、状態推定装置2000Aが置かれている状態を示すセンサー検出値S_detを複数のデータとして取得するものであってもよい。そして、尤度合成部5Aは、センサー部S1により取得された複数のデータに基づいて、修正信頼度データP’(1)、P’(2)(あるいは、正規化された修正信頼度データP’’(1)、P’’(2))を取得し、合成尤度wcを取得するものであってもよい。
以上のように、本変形例の状態推定装置2000Aでは、多様なセンサーを搭載し、センサー部S1により取得されたセンサー検出値に基づいて、適切に信頼度データP(1)、P(2)を修正した、修正信頼度データP’(1)、P’(2)(あるいは、正規化された修正信頼度データP’’(1)、P’’(2))を取得する。そして、状態推定装置2000Aでは、取得した修正信頼度データP’(1)、P’(2)(あるいは、正規化された修正信頼度データP’’(1)、P’’(2))に基づいて、合成尤度wcを取得する。
つまり、本変形例の状態推定装置2000Aでは、センサー検出値に基づいてより適切な値として取得された合成尤度wcを用いて、より精度の高い事後確率分布データSt|tを取得することができる。
したがって、本変形例の状態推定装置2000Aでは、より精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
≪第2変形例≫
次に、第2実施形態の第2変形例について、説明する。
なお、本変形例において、上記実施形態と同様の部分については、詳細な説明を省略する。
本変形例の状態推定装置2000Bにおいて、第1観測取得部1Aには、可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1が入力され、第2観測取得部2Aには、赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2が入力される場合を、一例として、説明する。
図17は、第2実施形態の第2変形例に係る状態推定装置2000Bの概略構成図である。
図17に示すように、本変形例の状態推定装置2000Bは、第2実施形態の状態推定装置2000において、センサー部S2を追加し、第1信頼度取得部9を第1信頼度取得部9Aに置換し、第2信頼度取得部10を第2信頼度取得部10Aに置換した構成を有している。
センサー部S2は、1または複数のセンサー(不図示)により検出される検出信号(センサーが検出した所定の物理量を示す検出信号)に基づいて、センサー検出値を取得する。
センサー部S2は、k個(k:自然数)のセンサーにより取得される検出信号(センサー検出信号)に基づいて、k個のセンサー検出値S_det(i)(i:自然数、1≦i≦k)を取得するものであってもよい。
例えば、センサー部S2は、温度センサーにより取得された温度を示すセンサー検出値と、照度センサーにより取得された照度を示すセンサー検出値等を取得する。以下では、説明便宜のため、センサー部S2が、照度センサーにより、状態推定装置2000Bが置かれている環境光の照度(明るさ)を示すセンサー検出値S_detを取得するものとして、説明する。
センサー部S2は、取得したセンサー検出値S_detを、センサー検出値S_det(1)として、第1信頼度取得部9Aに出力する。また、センサー部S2は、取得したセンサー検出値S_detを、センサー検出値S_det(2)として、第2信頼度取得部10Aに出力する。なお、本変形例においては、センサー検出値S_det(1)とセンサー検出値S_det(2)とは、同じ値(照度センサーにより取得された物理量に相当するセンサー検出値S_det(=S_det(1)=S_det(2)))である。
第1信頼度取得部9Aは、第1観測取得部1Aから出力される第1検出精度データと、センサー部S2から出力されるセンサー検出値S_det(1)(=S_det)とを入力する。第1信頼度取得部9Aは、第1検出精度データとセンサー検出値S_det(1)(=S_det)とに基づいて、第1観測取得部1Aの観測データの信頼度を示す信頼度データP(1)を取得し、取得した信頼度データP(1)を尤度合成部5に出力する。
第2信頼度取得部10Aは、第2観測取得部2Aから出力される第2検出精度データと、センサー部S2から出力されるセンサー検出値S_det(2)(=S_det)とを入力する。第2信頼度取得部10Aは、第2検出精度データとセンサー検出値S_det(2)(=S_det)とに基づいて、第2観測取得部2Aの観測データの信頼度を示す信頼度データP(2)を取得し、取得した信頼度データP(2)を尤度合成部5に出力する。
ここで、図18を用いて、第1信頼度取得部9A、第2信頼度取得部10A、および、尤度合成部5の処理(一例)について説明する。
図18は、第1信頼度取得部9A、第2信頼度取得部10A、および、尤度合成部5の処理を説明するためのタイミングチャートである。具体的には、図18は、状態推定装置2000Bが置かれている環境光の状態と、センサー検出値S_det(=S_det(1)=S_det(2))と、信頼度データP(1)、P(2)と、合成尤度wcとを時系列に示した図である。
なお、図18に示す時刻t0〜t1の期間において、照度センサーは作動しておらず、センサー部S2は、センサー検出値S_detを取得していないものとし、時刻t1以降において、照度センサーは作動しており、センサー部S2は、センサー検出値S_detを取得しているものとする。
以下、図18のタイミングチャートを用いて、第1信頼度取得部9A、第2信頼度取得部10A、および、尤度合成部5の処理について説明する。
(時刻t0〜t1):
時刻t0〜t1の期間において、第1検出精度データおよび第2検出精度データの精度が十分高いものとする。この場合、時刻t0〜t1の期間において、第1信頼度取得部9Aは、第1検出精度データに基づいて、信頼度データP(1)を、信頼度が高いことを示す値「1」に設定し、設定した信頼度データP(1)を、尤度合成部5に出力する。また、第2信頼度取得部10Aは、第2検出精度データに基づいて、信頼度データP(2)を、信頼度が高いことを示す値「」に設定し、設定した信頼度データP(2)を、尤度合成部5に出力する。

尤度合成部5は、第1尤度w1および第2尤度w2を、信頼度データP(1)、P(2)に基づいて重み付けして合成することで、合成尤度wcを取得する。例えば、尤度合成部5は、
wc=(P(1)×w1+P(2)×w2)/(P(1)+P(2))
=0.5×w1+0.5×w2
に相当する処理により、合成尤度wcを取得する。
(時刻t1〜t2):
時刻t1〜t2の期間において、状態推定装置2000Bは、明るい環境下に置かれているものとする。この場合、センサー部S2は、照度センサーにより取得された検出信号に基づいて、センサー検出値S_detを、照度が高いことを示す値「1」に設定する。そして、センサー部S2は、センサー検出値S_det(=1)を、第1信頼度取得部9Aおよび第2信頼度取得部10Aに出力する。なお、センサー検出値S_detは、0≦S_det≦1であり、照度が高い程「1」に近い値をとるものとする。
第1信頼度取得部9Aは、第1検出精度データおよびセンサー検出値S_det(=1)に基づいて、信頼度データP(1)を取得する。例えば、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(1)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第1観測データD1の信頼度は高く、f2(D1)=1であるものとする。なお、関数f2(Dx)は、0≦f2(Dx)≦1であり、データDxの信頼度が高い程、「1」に近い値となるものとする(以下、同様)。
したがって、f2(D1)=1であるので、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
=S_det
により、信頼度データP(1)を取得する。
そして、第1信頼度取得部9Aは、取得した信頼度データP(1)を、尤度合成部5に出力する。
第2信頼度取得部10Aは、第2検出精度データおよびセンサー検出値S_det(=1)に基づいて、信頼度データP(2)を取得する。例えば、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D2)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(2)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第2観測データD2の信頼度は高く、f2(D2)=1であるものとする。
したがって、f2(D2)=1であるので、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D1)
=1−S_det
により、信頼度データP(2)を取得する。
そして、第2信頼度取得部10Aは、取得した信頼度データP(2)を、尤度合成部5に出力する。
尤度合成部5は、第1尤度w1および第2尤度w2を、信頼度データP(1)、P(2)に基づいて重み付けして合成することで、合成尤度wcを取得する。例えば、尤度合成部5は、
wc=(P(1)×w1+P(2)×w2)/(P(1)+P(2))
=S_det×w1+(1−S_det)×w2
に相当する処理により、合成尤度wcを取得する。S_det=1であるので、尤度合成部5は、wc=w1として、合成尤度wcを取得する。
これにより、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度に応じて、適切な合成尤度wcを取得することができる。
つまり、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度が十分高い場合、明るい環境下でより精度の高いデータを取得することができる可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1から取得された第1尤度w1を合成尤度wcとして取得することができる。
(時刻t2〜t3):
時刻t2〜t3の期間において、状態推定装置2000Bは、環境光が明るい状態から暗い状態に徐々に移行する環境下に置かれているものとする。そして、センサー部S2により取得されるセンサー検出値S_detは、図18に示すように、時刻t2において、S_det=1であり、時刻t2から時刻t3において、線形的に減少して、時刻t3において、S=0となるものとする。
第1信頼度取得部9Aは、第1検出精度データおよびセンサー検出値S_detに基づいて、信頼度データP(1)を取得する。例えば、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(1)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第1観測データD1の信頼度は高く、f2(D1)=1であるものとする。
したがって、f2(D1)=1であるので、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
=S_det
により、信頼度データP(1)を取得する。
そして、第1信頼度取得部9Aは、取得した信頼度データP(1)を、尤度合成部5に出力する。
第2信頼度取得部10Aは、第2検出精度データおよびセンサー検出値S_detに基づいて、信頼度データP(2)を取得する。例えば、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D2)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(2)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第2観測データD2の信頼度は高く、f2(D2)=1であるものとする。
したがって、f2(D2)=1であるので、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D1)
=1−S_det
により、信頼度データP(2)を取得する。
そして、第2信頼度取得部10Aは、取得した信頼度データP(2)を、尤度合成部5に出力する。
尤度合成部5は、第1尤度w1および第2尤度w2を、信頼度データP(1)、P(2)に基づいて重み付けして合成することで、合成尤度wcを取得する。例えば、尤度合成部5は、
wc=(P(1)×w1+P(2)×w2)/(P(1)+P(2))
=S_det×w1+(1−S_det)×w2
に相当する処理により、合成尤度wcを取得する。
これにより、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度に応じて、適切な合成尤度wcを取得することができる。
つまり、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度が高い程、明るい環境下でより精度の高いデータを取得することができる可視光用イメージセンサーを有する撮像装置により取得された信号(データ)Din1から取得された第1尤度w1の重み付けを大きくした合成尤度wcを取得することができる。
一方、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度が低い程、暗い環境下でより精度の高いデータを取得することができる赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2から取得された第2尤度w2の重み付けを大きくした合成尤度wcを取得することができる。
(時刻t3〜t4):
時刻t3〜t4の期間において、状態推定装置2000Bは、暗い環境下に置かれているものとする。この場合、センサー部S2は、照度センサーにより取得された検出信号に基づいて、センサー検出値S_detを、照度が低いことを示す値「0」に設定する。そして、センサー部S2は、センサー検出値S_det(=0)を、第1信頼度取得部9Aおよび第2信頼度取得部10Aに出力する。なお、センサー検出値S_detは、0≦S_det≦1であり、照度が高い程「1」に近い値をとるものとする。
第1信頼度取得部9Aは、第1検出精度データおよびセンサー検出値S_det(=0)に基づいて、信頼度データP(1)を取得する。例えば、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(1)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第1観測データD1の信頼度は高く、f2(D1)=1であるものとする。
したがって、f2(D1)=1であるので、第1信頼度取得部9Aは、
P(1)=S_det×f2(D1)
=S_det
により、信頼度データP(1)を取得する。
そして、第1信頼度取得部9Aは、取得した信頼度データP(1)を、尤度合成部5に出力する。
第2信頼度取得部10Aは、第2検出精度データおよびセンサー検出値S_det(=0)に基づいて、信頼度データP(2)を取得する。例えば、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D2)
f2(Dx):データDxの信頼度を取得する関数
に相当する処理により、信頼度データP(2)を取得する。本変形例において、(センサー検出値を考慮しない場合の)第2観測データD2の信頼度は高く、f2(D2)=1であるものとする。
したがって、f2(D2)=1であるので、第2信頼度取得部10Aは、
P(2)=(1−S_det)×f2(D1)
=1−S_det
により、信頼度データP(2)を取得する。
そして、第2信頼度取得部10Aは、取得した信頼度データP(2)を、尤度合成部5に出力する。
尤度合成部5は、第1尤度w1および第2尤度w2を、信頼度データP(1)、P(2)に基づいて重み付けして合成することで、合成尤度wcを取得する。例えば、尤度合成部5は、
wc=(P(1)×w1+P(2)×w2)/(P(1)+P(2))
=S_det×w1+(1−S_det)×w2
に相当する処理により、合成尤度wcを取得する。S_det=0であるので、尤度合成部5は、wc=w2として、合成尤度wcを取得する。
これにより、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度に応じて、適切な合成尤度wcを取得することができる。
つまり、尤度合成部5は、状態推定装置2000Bが置かれている環境光の照度が十分低い場合、暗い環境下でより精度の高いデータを取得することができる赤外光用イメージセンサーを有する撮像装置により取得された信号(データ)Din2から取得された第2尤度w2を合成尤度wcとして取得することができる。
なお、上記では、センサー部S2が、照度センサーにより、状態推定装置2000Bが置かれている環境光の照度(明るさ)を示すセンサー検出値S_detを取得するものとして、説明したがこれに限定されることはない。センサー部S2は、複数のセンサーにより、状態推定装置2000Bが置かれている状態を示すセンサー検出値S_detを複数のデータとして取得するものであってもよい。そして、尤度合成部5は、センサー部S2により取得された複数のデータに基づいて、修正信頼度データP’(1)、P’(2)(あるいは、正規化された修正信頼度データP’’(1)、P’’(2))を取得し、合成尤度wcを取得するものであってもよい。
また、上記において、センサー部S2から第1信頼度取得部9Aに出力されるセンサー検出値S_det(1)と、センサー部S2から第2信頼度取得部10Aに出力されるセンサー検出値S_det(2)とは、同じであるとして説明したが、これに限定されることはない。センサー部S2から第1信頼度取得部9Aに出力されるセンサー検出値S_det(1)と、センサー部S2から第2信頼度取得部10Aに出力されるセンサー検出値S_det(2)とは、異なるデータであってもよい。
以上のように、本変形例の状態推定装置2000Bでは、多様なセンサーを搭載し、センサー部S1により取得されたセンサー検出値に基づいて、信頼度データP(1)、P(2)を取得し、取得した信頼度データP(1)、P(2)に基づいて、合成尤度wcを取得することができる。そして、本変形例の状態推定装置2000Bでは、センサー検出値に基づいてより適切な値として取得された合成尤度wcを用いて、より精度の高い事後確率分布データSt|tを取得することができる。
したがって、本変形例の状態推定装置2000Bでは、より精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
≪第3変形例≫
次に、第2実施形態の第3変形例について、説明する。
第2実施形態の状態推定装置2000では、観測取得部(第1観測取得部1A、第2観測取得部2A)が2つであり、信頼度取得部が2つであり、尤度取得部が2つ(第1尤度取得部3、第2尤度取得部4)であったが、第2実施形態の第1変形例の状態推定装置では、観測取得部がn個であり、信頼度取得部がn個であり、尤度取得部がn個である。また、第2実施形態の第1変形例の状態推定装置では、n個の尤度を用いて処理を行う。
図19に、本変形例の状態推定装置のn個の観測取得部と、n個の尤度取得部と、n個の信頼度取得部と、尤度合成部5Bとの概略構成図を示す。
尤度合成部5Bは、n個の信頼度データP(1)〜P(n)に基づいて、n個の尤度w1〜wnを合成し、合成尤度wcを取得する。尤度合成部5Bは、例えば、以下のようにして、合成尤度wcを取得する。
尤度合成部5Bは、

となるように、n個の信頼度を正規化する。
そして、尤度合成部5Bは、

により、合成尤度wcを取得する。
また、尤度合成部に、センサーの検出信号を入力するようにしてもよい。
例えば、状態推定装置を、図20に示すように、図19の尤度合成部5Bを尤度合成部5Cに置換し、センサー部S1を追加した構成としてもよい。このように構成された状態推定装置において、センサー部S1は、温度センサー、照度センサー、湿度センサー、圧力センサー等により検出された信号(センサー検出信号)に基づいてセンサー検出値S_detを取得し、尤度合成部5Cは、センサー部S1により取得されたセンサー検出値S_detに基づいて、信頼度データP(i)の値を変更するようにしてもよい。
例えば、第1観測取得部11が可視光用イメージセンサーを有する撮像装置により取得した画像データから第1観測データD1を取得し、第2観測取得部12が赤外光用イメージセンサーを有する撮像装置により取得した画像データから第2観測データD2を取得する場合において、照度センサーにより、状態推定装置が置かれている環境が暗いと判定された場合、尤度合成部5Cは、第1観測データD1の信頼度データP(1)の値を小さい値に修正し、第2観測データD2の信頼度データP(2)の値を大きな値に修正し、修正後の信頼度データP(1)、P(2)を用いて、合成尤度wcを取得するようにしてもよい。
また、尤度合成部5Cは、各センサーのセンサー検出信号の信号値(例えば、k個のセンサー検出値S_det(i)(i:自然数、1≦i≦k))と、所定の信頼度データP(i)(i:自然数、1≦i≦n)とを対応付けたルックアップテーブル(LUT)を有するものであってもよい。
このようなルックアップテーブルを用いて、尤度合成部5Cは、例えば、特定センサーのセンサー検出信号の信号値が、所定の値を超えた場合、それに応じて、対応する信頼度データP(i)の値を修正するようにしてもよい。
また、第k信頼度取得部(k:自然数、1≦k≦n)に、センサーの検出信号を入力するようにしてもよい。
例えば、状態推定装置を、図21に示すように、図19の第1信頼度取得部91を第1信頼度取得部91Aに置換し、第2信頼度取得部92を第2信頼度取得部92Aに置換し、第n信頼度取得部93を第n信頼度取得部93Aに置換した構成としてもよい。
このように構成された状態推定装置において、センサー部(図21において不図示)は、温度センサー、照度センサー、湿度センサー、圧力センサー等により検出された信号(センサー検出信号)に基づいてセンサー検出値S_detを取得し、取得したセンサー検出値S_detを第1信頼度取得部91A、第2信頼度取得部92A、・・・、第n信頼度取得部93Aに出力する。
第1信頼度取得部91Aは、センサー部から入力されるセンサー検出値S_det(S_det(1))と、第1観測データD1とに基づいて、信頼度データP(1)を取得し、取得した信頼度データP(1)を尤度合成部5Bに出力する。
第2信頼度取得部92Aは、センサー部から入力されるセンサー検出値S_det(S_det(2))と、第2観測データD2とに基づいて、信頼度データP(2)を取得し、取得した信頼度データP(2)を尤度合成部5Bに出力する。
第n信頼度取得部93Aは、センサー部から入力されるセンサー検出値S_det(S_det(n))と、第n観測データDnとに基づいて、信頼度データP(n)を取得し、取得した信頼度データP(n)を尤度合成部5Bに出力する。
なお、第k信頼度取得部(k:自然数、1≦k≦n)における処理は、第2実施形態と第2変形例における第1信頼度取得部9A、第2信頼度取得部10Aの処理と同様の処理であってもよい。
このようにすることで、本変形例の状態推定装置では、多様なセンサーを搭載し、センサー検出信号の信号値に基づいて、適切に信頼度データP(i)を修正することができる。その結果、本変形例の状態推定装置では、より適切な合成尤度wcを取得することができ、より精度の高い事後確率分布データSt|tを取得することができる。
したがって、本変形例の状態推定装置では、より精度の高い事後確率分布データSt|tを用いて、より正確かつロバストに、物体の検出処理や追跡処理を行うことができる。
なお、上記では、本変形例の状態推定装置に入力される入力データがn個である場合について、説明したが、これに限定されることはない。本変形例の状態推定装置を、例えば、図22に示すように、1つの入力データDinが、共通して、n個の観測取得部に入力されるように構成してもよい。
また、状態推定装置を図23に示す構成としてもよい。つまり、状態推定装置は、図22に示した状態推定装置において、尤度合成部5Bを、尤度合成部5Cに置換し、センサー部S1を追加した構成を有するものであってもよい。
また、状態推定装置を図24に示す構成としてもよい。つまり、状態推定装置は、図22に示した状態推定装置において、第1信頼度取得部91を、センサー部(不図示)からセンサー検出値S_det(S_det(1))を入力する第1信頼度取得部91Aに置換し、第2信頼度取得部92を、センサー部(不図示)からセンサー検出値S_det(S_det(2))を入力する第2信頼度取得部92Aに置換し、第n信頼度取得部93を、センサー部(不図示)からセンサー検出値S_det(S_det(n))を入力する第n信頼度取得部93Aに置換した構成を有するものであってもよい。
また、本変形例の状態推定装置において、k個の観測取得部には、k個の入力データが個別に入力されるようにし、m個の観測取得部には、共通して1つの入力データが入力されるようにしてもよい。
また、信頼度データP(i)は、2値データ(例えば、「0」または「1」をとるデータ)であってもよいし、「0」から「1」の間の連続値(0≦P(i)≦1)をとるものであってもよい。
[他の実施形態]
上記実施形態および変形例を組み合わせて状態推定装置を構成するようにしてもよい。
また、上記実施形態(変形例を含む。)では、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする幅W、高さHの矩形状の画像領域を決定するための幅W、高さHとし、矩形領域を設定するパラメータとしたが、これに限定されることはない。
例えば、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする半径Rの円状の画像領域を決定するための半径Rとし、円領域を設定するパラメータとしてもよい。
また、尤度を取得するときのパラメータを、i番目のパーティクルの画像上の座標位置(X (i),Y (i))と、当該座標位置を中心とする長軸2A、短軸2Bの楕円状の画像領域を決定するための値A(長軸の長さの半分の値)、値B(短軸の長さの半分の値)とし、楕円領域を設定するパラメータとしてもよい。さらに、長軸と短軸とのなす角度θを楕円領域を設定するパラメータとして追加してもよい。
また、上記実施形態で説明した状態推定装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
1000、1000A、2000 状態推定装置
1、1A 第1観測取得部
2、2A 第2観測取得部
3 第1尤度取得部
4 第2尤度取得部
5、5A 尤度合成部
6 事後確率分布取得部
7 事前確率分布予測部
8 初期状態設定部
9 第1信頼度取得部
10 第2信頼度取得部

Claims (9)

  1. 観測対象の内部状態を推定する状態推定装置であって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測部と、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得部と、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得部と、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する尤度合成部と、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得部と、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部と、
    前記第1信頼度データを取得する第1信頼度取得部と、
    前記第2信頼度データを取得する第2信頼度取得部と、
    を備え、
    前記第1観測取得部は、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得部は、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得部は、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記尤度合成部は、
    前記センサー部により取得された前記センサー検出値に基づいて、前記第1信頼度データを修正することで修正第1信頼度データを取得し、
    前記センサー部により取得された前記センサー検出値に基づいて、前記第2信頼度データを修正することで修正第2信頼度データを取得し、
    前記修正第1信頼度データおよび前記修正第2信頼度データに基づいて、前記合成尤度を取得する、
    状態推定装置。
  2. 観測対象の内部状態を推定する状態推定装置であって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測部と、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得部と、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得部と、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する尤度合成部と、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得部と、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部と、
    前記第1信頼度データを取得する第1信頼度取得部と、
    前記第2信頼度データを取得する第2信頼度取得部と、
    を備え、
    前記第1観測取得部は、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得部は、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得部は、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記第1信頼度取得部は、前記センサー部により取得された前記センサー検出値と、前記第1検出精度データとに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記センサー部により取得された前記センサー検出値と、前記第2検出精度データとに基づいて、前記第2信頼度データを取得する、
    状態推定装置。
  3. 前記第1信頼度データは、固定値であり、
    前記第2信頼度データは、固定値である、
    請求項1または2に記載の状態推定装置。
  4. 前記第1信頼度データは、2値データであり、
    前記第2信頼度データは、2値データである、
    請求項1または2に記載の状態推定装置。
  5. 前記第1信頼度データは、連続値であり、
    前記第2信頼度データは、連続値である、
    請求項1または2に記載の状態推定装置。
  6. 観測対象の内部状態を推定する状態推定方法をコンピュータに実行させるプログラムであって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得ステップと、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得ステップと、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測ステップと、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得ステップと、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得ステップと、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する合成尤度取得ステップと、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得ステップと、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサーステップと、
    前記第1信頼度データを取得する第1信頼度取得ステップと、
    前記第2信頼度データを取得する第2信頼度取得ステップと、
    を備え、
    前記第1観測取得ステップでは、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得ステップでは、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得ステップでは、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得ステップでは、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記合成尤度取得ステップでは、
    前記センサーステップにより取得された前記センサー検出値に基づいて、前記第1信頼度データを修正することで修正第1信頼度データを取得し、
    前記センサーステップにより取得された前記センサー検出値に基づいて、前記第2信頼度データを修正することで修正第2信頼度データを取得し、
    前記修正第1信頼度データおよび前記修正第2信頼度データに基づいて、前記合成尤度を取得する、
    状態推定方法をコンピュータに実行させるプログラム。
  7. 観測対象の内部状態を推定する状態推定方法をコンピュータに実行させるプログラムであって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得ステップと、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得ステップと、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測ステップと、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得ステップと、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得ステップと、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する合成尤度取得ステップと、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得ステップと、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサーステップと、
    前記第1信頼度データを取得する第1信頼度取得ステップと、
    前記第2信頼度データを取得する第2信頼度取得ステップと、
    を備え、
    前記第1観測取得ステップでは、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得ステップでは、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得ステップでは、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得ステップでは、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記第1信頼度取得ステップでは、前記センサーステップにより取得された前記センサー検出値と、前記第1検出精度データとに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得ステップでは、前記センサーステップにより取得された前記センサー検出値と、前記第2検出精度データとに基づいて、前記第2信頼度データを取得する、
    状態推定方法をコンピュータに実行させるプログラム。
  8. 観測対象の内部状態を推定する集積回路であって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測部と、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得部と、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得部と、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する尤度合成部と、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得部と、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部と、
    前記第1信頼度データを取得する第1信頼度取得部と、
    前記第2信頼度データを取得する第2信頼度取得部と、
    を備え、
    前記第1観測取得部は、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得部は、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得部は、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記尤度合成部は、
    前記センサー部により取得された前記センサー検出値に基づいて、前記第1信頼度データを修正することで修正第1信頼度データを取得し、
    前記センサー部により取得された前記センサー検出値に基づいて、前記第2信頼度データを修正することで修正第2信頼度データを取得し、
    前記修正第1信頼度データおよび前記修正第2信頼度データに基づいて、前記合成尤度を取得する、
    集積回路。
  9. 観測対象の内部状態を推定する集積回路であって、
    観測可能な事象から得られる第1観測データを、任意の時間間隔で取得する第1観測取得部と、
    観測可能な事象から得られる第2観測データを、任意の時間間隔で取得する第2観測取得部と、
    前時刻t−1に取得された観測対象の内部状態の確率分布である事後確率分布データを現時刻tにおける事前確率分布データとし、当該時刻tにおける事前確率分布データに対して予測処理を行い、現時刻tにおける観測対象の内部状態の確率分布である予測確率分布データを取得する事前確率分布予測部と、
    前記第1観測データに基づいて、第1尤度を取得する第1尤度取得部と、
    前記第2観測データに基づいて、第2尤度を取得する第2尤度取得部と、
    前記第1尤度と、前記第2尤度と、前記第1観測データの信頼度を示す第1信頼度データと、前記第2観測データの信頼度を示す第2信頼度データと、に基づいて、合成尤度を取得する尤度合成部と、
    前記合成尤度と前記予測確率分布データとから、現時刻tにおける観測対象の内部状態の確率分布である事後確率分布データを取得する事後確率分布取得部と、
    1または複数のセンサーにより検出された所定の物理量に基づいて、1または複数のセンサー検出値を取得するセンサー部と、
    前記第1信頼度データを取得する第1信頼度取得部と、
    前記第2信頼度データを取得する第2信頼度取得部と、
    を備え、
    前記第1観測取得部は、第1観測データの検出精度に関するデータである第1検出精度データを取得し、
    前記第2観測取得部は、第2観測データの検出精度に関するデータである第2検出精度データを取得し、
    前記第1信頼度取得部は、前記第1検出精度データに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記第2検出精度データに基づいて、前記第2信頼度データを取得し、
    前記第1信頼度取得部は、前記センサー部により取得された前記センサー検出値と、前記第1検出精度データとに基づいて、前記第1信頼度データを取得し、
    前記第2信頼度取得部は、前記センサー部により取得された前記センサー検出値と、前記第2検出精度データとに基づいて、前記第2信頼度データを取得する、
    集積回路。
JP2014250985A 2014-12-11 2014-12-11 状態推定装置、プログラムおよび集積回路 Active JP6482844B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014250985A JP6482844B2 (ja) 2014-12-11 2014-12-11 状態推定装置、プログラムおよび集積回路
EP15195370.0A EP3032496B1 (en) 2014-12-11 2015-11-19 State estimation apparatus, program, and integrated circuit
US14/950,302 US10375360B2 (en) 2014-12-11 2015-11-24 State estimation apparatus, state estimation method, integrated circuit, and non-transitory computer-readable storage medium
CN201510820272.0A CN105701839B (zh) 2014-12-11 2015-11-24 状态估计装置、状态估计方法以及集成电路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014250985A JP6482844B2 (ja) 2014-12-11 2014-12-11 状態推定装置、プログラムおよび集積回路

Publications (3)

Publication Number Publication Date
JP2016114988A JP2016114988A (ja) 2016-06-23
JP2016114988A5 JP2016114988A5 (ja) 2018-01-11
JP6482844B2 true JP6482844B2 (ja) 2019-03-13

Family

ID=54780057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014250985A Active JP6482844B2 (ja) 2014-12-11 2014-12-11 状態推定装置、プログラムおよび集積回路

Country Status (4)

Country Link
US (1) US10375360B2 (ja)
EP (1) EP3032496B1 (ja)
JP (1) JP6482844B2 (ja)
CN (1) CN105701839B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6820204B2 (ja) * 2017-01-18 2021-01-27 日本放送協会 状態推定器、及びプログラム
US11468275B1 (en) * 2019-03-05 2022-10-11 Apple Inc. Computer vision using a prior probability distribution selected based on an image capture condition
JP7355115B2 (ja) * 2019-04-23 2023-10-03 日本電気株式会社 操作結果を予測する方法、電子機器、及びコンピュータプログラム製品
JP7322622B2 (ja) * 2019-09-17 2023-08-08 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7249919B2 (ja) * 2019-09-17 2023-03-31 株式会社東芝 推定装置、推定方法及びプログラム
JP2022175094A (ja) * 2021-05-12 2022-11-25 株式会社Soken 追跡装置
JP7357659B2 (ja) * 2021-06-30 2023-10-06 本田技研工業株式会社 データ異常判定装置及び内部状態予測システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6882959B2 (en) * 2003-05-02 2005-04-19 Microsoft Corporation System and process for tracking an object state using a particle filter sensor fusion technique
JP4568223B2 (ja) * 2005-12-21 2010-10-27 株式会社デンソー 推定装置
JP4991595B2 (ja) * 2008-02-21 2012-08-01 株式会社東芝 パーティクルフィルタを使用する追跡システム
JP4582174B2 (ja) * 2008-03-28 2010-11-17 ソニー株式会社 追跡処理装置、追跡処理方法、プログラム
CN102105811B (zh) * 2009-02-19 2013-10-16 松下电器产业株式会社 物体位置推定系统、物体位置推定装置、物体位置推定方法及物体位置推定程序
EP2416132B1 (de) * 2010-08-05 2013-03-27 Mettler-Toledo (Albstadt) GmbH Waage mit Anzeige- und Bedieneinheit
JP5674550B2 (ja) 2011-05-09 2015-02-25 日本電信電話株式会社 状態追跡装置、方法、及びプログラム
US8594982B2 (en) * 2011-06-09 2013-11-26 Pulsar Informatics, Inc. Systems and methods for distributed calculation of fatigue-risk prediction and optimization
JP2013196294A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 人物画像処理装置、及び人物画像処理方法
US20140275886A1 (en) * 2013-03-14 2014-09-18 Streamline Automation, Llc Sensor fusion and probabilistic parameter estimation method and apparatus
JP6194450B2 (ja) * 2013-04-15 2017-09-13 株式会社メガチップス 状態推定装置、プログラムおよび集積回路

Also Published As

Publication number Publication date
EP3032496B1 (en) 2019-04-17
EP3032496A1 (en) 2016-06-15
CN105701839A (zh) 2016-06-22
US20160171717A1 (en) 2016-06-16
JP2016114988A (ja) 2016-06-23
US10375360B2 (en) 2019-08-06
CN105701839B (zh) 2019-04-12

Similar Documents

Publication Publication Date Title
JP6482844B2 (ja) 状態推定装置、プログラムおよび集積回路
KR101411639B1 (ko) 영상 정합 방법 및 장치
JP6194450B2 (ja) 状態推定装置、プログラムおよび集積回路
US10679363B2 (en) Image noise reduction
JP6366999B2 (ja) 状態推定装置、プログラムおよび集積回路
CN114556268B (zh) 一种姿势识别方法及装置、存储介质
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
JP2010009375A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
AU2010209473B2 (en) Detecting potential changed objects in images
US20170263005A1 (en) Method for moving object detection by a kalman filter-based approach
JP2009265732A (ja) 画像処理装置及びその方法
JP2016114988A5 (ja)
US20120051662A1 (en) Image processing apparatus and storage medium
JP6371515B2 (ja) X線画像処理装置、x線画像処理方法、及びプログラム
JP5431501B2 (ja) 画像処理装置、及びその方法
JP2021089493A (ja) 情報処理装置およびその学習方法
CN113269812B (zh) 图像预测模型的训练及应用方法、装置、设备、存储介质
JP6291763B2 (ja) 追尾装置、追尾方法及び追尾プログラム
WO2020044866A1 (ja) 変位計測装置及び変位計測方法
JPWO2017109997A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2012198877A (ja) 動き検出装置、動き検出方法及び動き検出プログラム
JP2011081613A (ja) 画像処理装置
CN117647263A (zh) 基于非线性优化的单光子相机视觉惯性里程计方法及系统
TWI478554B (zh) 影像雜訊消除方法及其產生移動向量資料結構之方法
JP2004213572A (ja) 物体抽出装置、物体抽出方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6482844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250