JP2014206907A - 状態推定装置、プログラムおよび集積回路 - Google Patents
状態推定装置、プログラムおよび集積回路 Download PDFInfo
- Publication number
- JP2014206907A JP2014206907A JP2013085014A JP2013085014A JP2014206907A JP 2014206907 A JP2014206907 A JP 2014206907A JP 2013085014 A JP2013085014 A JP 2013085014A JP 2013085014 A JP2013085014 A JP 2013085014A JP 2014206907 A JP2014206907 A JP 2014206907A
- Authority
- JP
- Japan
- Prior art keywords
- probability distribution
- likelihood
- data
- observation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】状態推定システム1000の観測取得部1は、観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する。観測選択部2は、前時刻t−1に取得した事後確率分布データに基づき、観測取得部1が取得した複数の観測データの中から、1つの観測データを選択する。尤度取得部3は、観測選択部2が選択した1つの観測データと、事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づき、尤度データを取得する。事後確率分布推定部4は、尤度取得部3が取得した予測後確率分布データと、尤度データとから、事象の状態の事後確率分布データを推定する。事前確率分布出力部5は、事後確率分布推定部4が推定した事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する。
【選択図】図1
Description
システムモデル:xt〜f(xt|xt−1)
観測モデル:yt〜h(yt|xt)
から、観測系列(時刻tまでの観測ベクトルの集合)y1:t={y1,y2,・・・,yt}が与えられたとき、状態系列x0:t={x0,x1,・・・,xt}の条件付確率分布p(xt|y1:t)を求める手法である。
対象を観測した時の観測モデル:yt=h(xt,wt)
f(xt−1,vt):時刻t−1と時刻tとの状態変化を表す状態遷移関数
h(xt,wt):状態xtのときに得られる観測ベクトルを表す関数
このとき、1期先予測は、
(1)粒子生成(1期先予測)
以下の数式に相当する処理により、各サンプル(各パーティクル)について、時刻tにおける予測サンプルを生成する。つまり、時刻t−1の事後確率分布(時刻t−1の観測対象の内部状態の確率分布)から、システムモデル(状態遷移関数)により予測した確率分布を取得する。具体的には、システムモデルfに従って、時刻t−1の各サンプル(各パーティクル)を遷移させて予測サンプルを生成する。
xat={xat (1),xat (2),xat (3),・・・,xat (M)}
xat:状態遷移関数f()による状態ベクトルxtの予測(推定)ベクトル
(2)重みの計算(尤度計算)
以下の数式に相当する処理により、処理(1)で生成された各予測サンプルについて、重み(尤度)を算出する。つまり、観測モデルhに従って、観測ベクトルytを得る確率(尤度)を推定する。
wat={wat (1),wat (2),wat (3),・・・,wat (M)}
wat:関数h()による重み(尤度)wtの予測(推定)ベクトル(尤度の予測値の集合)
(3)リサンプリング
重み(尤度)wat (i)に比例する割合でM個の粒子を復元抽出する(粒子xat (i)を抽出する)。このようにして復元抽出されたM個の粒子の分布から、時刻tの事後確率分布(時刻tの観測対象の内部状態の確率分布)を取得する。
(4)時刻tを進めて(1)に戻る。このとき、処理(3)で取得した事後確率分布(時刻tでの事後確率分布)を、次の時刻(時刻t+1)の事前確率分布とする。
第1実施形態について、図面を参照しながら、以下、説明する。
図1は、第1実施形態に係る状態推定システム1000の概略構成図である。
以上のように構成された状態推定システム1000の動作について、以下、説明する。
≪時刻t1≫ 物体:B1、中心位置:(X1,Y1)、幅:W1、高さ:H1
≪時刻t2≫ 物体:B2、中心位置:(X2,Y2)、幅:W2、高さ:H2
≪時刻t3≫ 物体:B3、中心位置:(X3,Y3)、幅:W3、高さ:H3
また、以下の関係が成り立つものとする。
H0<H1<H2<H3
W3=2×W0
H3=2×H0
また、観測対象(追跡対象)の時刻tの内部状態を示す状態ベクトルをxtとし、時刻tにおいて観測された特徴を観測ベクトルytとし、事前確率分布p(xt|yt−1)に従って生成されたサンプル集合(パーティクルの集合)St|t−1を
St|t−1={st|t−1 (1),st|t−1 (2),・・・,st|t−1 (M)}
とし、事後確率分布p(xt|yt)に従って生成されたサンプル集合(パーティクルの集合)St|tを
St|t={st|t (1),st|t (2),・・・,st|t (M)}
とする。
st|t (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるものとする。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wat (i)とする。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=1.4×W0
Ht|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
Wt−1|t−1_ave=Wt|t_ave=1.4×W0
Ht−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、観測選択部2は、第1の観測データを選択する。
st|t−1 (i)=f(st−1|t−1 (i),vt (i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
vt (i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
Xt−1|t (i)=Xt−1|t−1 (i)+ΔX(i)
Yt−1|t (i)=Yt−1|t−1 (i)+ΔY(i)
Wt−1|t (i)=Wt−1|t−1 (i)+ΔW(i)
Ht−1|t (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wat (i)とする。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=1.6×W0
Ht|t_ave=1.4×H0
として取得されたものとする。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
Wt−1|t−1_ave=Wt|t_ave=1.6×W0
Ht−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
st|t−1 (i)=f(st−1|t−1 (i),vt (i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
vt (i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
Xt−1|t (i)=Xt−1|t−1 (i)+ΔX(i)
Yt−1|t (i)=Yt−1|t−1 (i)+ΔY(i)
Wt−1|t (i)=Wt−1|t−1 (i)+ΔW(i)
Ht−1|t (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wat (i)とする。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=2.3×W0
Ht|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
Wt−1|t−1_ave=Wt|t_ave=2.3×W0
Ht−1|t−1_ave=Ht|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
st|t−1 (i)=f(st−1|t−1 (i),vt (i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
vt (i):システムノイズ
により、予測処理後のパーティクルの集合st|t−1を取得する。
Xt−1|t (i)=Xt−1|t−1 (i)+ΔX(i)
Yt−1|t (i)=Yt−1|t−1 (i)+ΔY(i)
Wt−1|t (i)=Wt−1|t−1 (i)+ΔW(i)
Ht−1|t (i)=Ht−1|t−1 (i)+ΔH(i)
により、尤度取得部3は、予測処理後のパーティクルの集合st|t−1を取得する。なお、ΔX(i)、ΔY(i)、ΔW(i)、ΔH(i)は、それぞれ、ガウス分布に従う。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wat (i)とする。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
次に、第2実施形態について、説明する。
図9は、第2実施形態に係る状態推定システム2000の概略構成図である。
以上のように構成された状態推定システム2000の動作について、以下、説明する。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1at (i)とする。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2at (i)とする。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=1.4×W0
Ht|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1at (i)とする。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2at (i)とする。
Wt−1|t−1_ave=Wt|t_ave=1.4×W0
Ht−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、尤度取得部3Aは、第1尤度を選択する。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=1.6×W0
Ht|t_ave=1.4×H0
として取得されたものとする。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1at (i)とする。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2at (i)とする。
Wt−1|t−1_ave=Wt|t_ave=1.6×W0
Ht−1|t−1_ave=Ht|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
Wt|t_ave=2.3×W0
Ht|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1at (i)とする。
st|t−1 (i)=(Xt(i),Yt(i),Wt(i),Ht(i))
であるので、画像上の位置(Xt(i),Yt(i))を中心とする、幅Wt(i)、高さHt(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2at (i)とする。
Wt−1|t−1_ave=Wt|t_ave=2.3×W0
Ht−1|t−1_ave=Ht|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
St|t={st|t (1),st|t (2),・・・,st|t (M)}
を取得する。
次に、第2実施形態の変形例について、説明する。
α=(A1―D1)/(D2−D1)
0≦α≦1
により、内分比αを取得する。そして、尤度取得部3Aは、
(合成尤度)=(第1尤度)×(1−α)+(第2尤度)×α
により、合成尤度を算出し、算出した合成尤度を事後確率分布推定部4に出力する。
上記実施形態(変形例を含む)では、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理において、画像領域の面積に基づいて、閾値Thを設定する場合について、説明したがこれに限定されることはない。例えば、追跡対象の物体の高さHと幅Wのアスペクト比が固定値である場合、閾値を幅または高さに基づいて、閾値を設定し、パーティクルの集合St−1|t−1の平均値(Xt−1|t−1_ave,Yt−1|t−1_ave,Wt−1|t−1_ave,Ht−1|t−1_ave)が示す画像領域の幅または高さを比較対象として、閾値処理することで、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
(1)W≦24のとき、第1観測データを選択し、
(2)W>24のとき、第2観測データを選択する
ことで、第1の観測データおよび第2観測データの選択処理を実行し、
(1)W≦24のとき、第1尤度を選択し、
(2)W>24のとき、第2尤度を選択する
ことで、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
Ye=(255−B)×R×G/(1+R+G+B)
により黄色度合いを検出し、検出した結果を物体検出画像とすればよい。
とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
1 観測取得部
11 第1観測取得部
12 第2観測取得部
2 観測選択部
3、3A 尤度取得部
4 事後確率分布推定部
5 事前確率分布出力部
6 初期状態設定部
7 尤度算出部
71 第1尤度算出部
72 第2尤度算出部
Claims (11)
- 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部と、
前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得部により取得された前記複数の観測データの中から、1つの観測データを選択する観測選択部と、
前記観測選択部により選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得部と、
前記尤度取得部により取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
を備える状態推定装置。 - 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部と、
前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する尤度算出部と、
前記尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得部と、
前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
を備える状態推定装置。 - 前記尤度取得部は、前記複数の尤度データから選択した1つの尤度データを前記決定尤度データとして取得する、
請求項2に記載の状態推定装置。 - 前記尤度取得部は、前記複数の尤度データの重み付け和により導出した尤度データを、前記決定尤度データとして取得する、
請求項2に記載の状態推定装置。 - 前記尤度算出部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行し、
前記尤度データの重み付け係数は、パーティクルの内部状態を表す関数である、
請求項4に記載の状態推定装置。 - 前記尤度算出部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行する、
請求項2から5のいずれかに記載の状態推定装置。 - 前記観測選択部、前記尤度取得部、前記事後確率分布推定部、および、前記事前確率分布出力部は、パーティクルフィルタによる処理を実行する、
請求項1に記載の状態推定装置。 - 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得ステップと、
前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得ステップにより取得された前記複数の観測データの中から、1つの観測データを選択する観測選択ステップと、
前記観測選択ステップにより選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得ステップと、
前記尤度取得ステップにより取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定ステップと、
前記事後確率分布推定ステップにより推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出ステップと、
を備える状態推定方法をコンピュータに実行させるためのプログラム。 - 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得ステップと、
前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得ステップにより取得された複数の観測データごとに、尤度データを算出する尤度算出ステップと、
前記尤度算出ステップにより取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得ステップと、
前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定ステップと、
前記事後確率分布推定ステップにより推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出ステップと、
を備える状態推定方法をコンピュータに実行させるためのプログラム。 - 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、
前時刻t−1に取得された事後確率分布データに基づいて、前記観測取得部により取得された前記複数の観測データの中から、1つの観測データを選択する観測選択部と、
前記観測選択部により選択された1つの観測データと、前記事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データとに基づいて、尤度データを取得する尤度取得部と、
前記尤度取得部により取得された前記予測後確率分布データと、前記尤度データとから、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
を備える集積回路。 - 観測可能な事象から得られる複数の観測データを、任意の時間間隔で取得する観測取得部を備える状態推定装置に用いられる集積回路であって、
前時刻t−1に取得された事後確率分布データに対して予測処理を行うことで取得した予測後確率分布データに基づいて、観測取得部により取得された複数の観測データごとに、尤度データを算出する尤度算出部と、
前記尤度算出部により取得された、複数の観測データごとに算出された複数の尤度データに基づいて、1つの尤度データを導出し、導出した前記1つの尤度データを決定尤度データとして取得する尤度取得部と、
前記予測後確率分布データと前記決定尤度データとに基づいて、前記事象の状態の事後確率分布データを推定する事後確率分布推定部と、
前記事後確率分布推定部により推定された前記事後確率分布データに基づく事前確率分布データを、次時刻t+1において、事前確率分布データとして出力する事前確率分布出部と、
を備える集積回路。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013085014A JP6194450B2 (ja) | 2013-04-15 | 2013-04-15 | 状態推定装置、プログラムおよび集積回路 |
PCT/JP2014/055571 WO2014171212A1 (ja) | 2013-04-15 | 2014-03-05 | 状態推定装置、プログラムおよび集積回路 |
EP14785984.7A EP2975577A4 (en) | 2013-04-15 | 2014-03-05 | DEVICE, PROGRAM, AND INTEGRATED STATE ESTIMATING CIRCUIT |
US14/881,652 US9911191B2 (en) | 2013-04-15 | 2015-10-13 | State estimation apparatus, state estimation method, and integrated circuit with calculation of likelihood data and estimation of posterior probability distribution data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013085014A JP6194450B2 (ja) | 2013-04-15 | 2013-04-15 | 状態推定装置、プログラムおよび集積回路 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014206907A true JP2014206907A (ja) | 2014-10-30 |
JP2014206907A5 JP2014206907A5 (ja) | 2016-06-02 |
JP6194450B2 JP6194450B2 (ja) | 2017-09-13 |
Family
ID=51731171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013085014A Active JP6194450B2 (ja) | 2013-04-15 | 2013-04-15 | 状態推定装置、プログラムおよび集積回路 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9911191B2 (ja) |
EP (1) | EP2975577A4 (ja) |
JP (1) | JP6194450B2 (ja) |
WO (1) | WO2014171212A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138217A (ja) * | 2016-02-04 | 2017-08-10 | 日本電信電話株式会社 | 予測装置および予測方法 |
US10375360B2 (en) | 2014-12-11 | 2019-08-06 | Megachips Corporation | State estimation apparatus, state estimation method, integrated circuit, and non-transitory computer-readable storage medium |
JP2021103349A (ja) * | 2019-12-24 | 2021-07-15 | 京セラ株式会社 | 情報処理システム、情報処理装置及び情報処理方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6295122B2 (ja) * | 2014-03-27 | 2018-03-14 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
JP6366999B2 (ja) * | 2014-05-22 | 2018-08-01 | 株式会社メガチップス | 状態推定装置、プログラムおよび集積回路 |
WO2016025507A1 (en) * | 2014-08-12 | 2016-02-18 | Joseph Cole Harper | System and method for accurately analyzing sensed data |
US11222438B2 (en) * | 2016-05-27 | 2022-01-11 | Kabushiki Kaisha Toshiba | Information processing apparatus, vehicle, and information processing method for presence probability of object |
US11132611B2 (en) * | 2016-05-27 | 2021-09-28 | Kabushiki Kaisha Toshiba | Information processing apparatus and information processing method for determining presence probability of object |
US10481379B1 (en) * | 2018-10-19 | 2019-11-19 | Nanotronics Imaging, Inc. | Method and system for automatically mapping fluid objects on a substrate |
JP7107246B2 (ja) * | 2019-02-21 | 2022-07-27 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328746A (ja) * | 2006-06-09 | 2007-12-20 | Sony Computer Entertainment Inc | 対象物追跡装置および対象物追跡方法 |
JP2009199363A (ja) * | 2008-02-21 | 2009-09-03 | Toshiba Corp | パーティクルフィルタを使用する追跡システム |
JP4686663B2 (ja) * | 2006-07-10 | 2011-05-25 | 国立大学法人京都大学 | 歩行者トラッキング方法及び歩行者トラッキング装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020198681A1 (en) * | 2001-06-13 | 2002-12-26 | Kouritzin Michael A. | Flexible efficient branching particle tracking algorithms |
WO2006105094A2 (en) * | 2005-03-29 | 2006-10-05 | Duke University | Sensor system for identifying and tracking movements of multiple sources |
US8463461B2 (en) * | 2005-03-30 | 2013-06-11 | The Boeing Company | Trajectory prediction based on state transitions and lantencies |
CN101975575B (zh) * | 2010-10-15 | 2012-03-28 | 西安电子科技大学 | 基于粒子滤波的被动传感器多目标跟踪方法 |
US8452535B2 (en) * | 2010-12-13 | 2013-05-28 | GM Global Technology Operations LLC | Systems and methods for precise sub-lane vehicle positioning |
JP5674550B2 (ja) | 2011-05-09 | 2015-02-25 | 日本電信電話株式会社 | 状態追跡装置、方法、及びプログラム |
-
2013
- 2013-04-15 JP JP2013085014A patent/JP6194450B2/ja active Active
-
2014
- 2014-03-05 EP EP14785984.7A patent/EP2975577A4/en not_active Ceased
- 2014-03-05 WO PCT/JP2014/055571 patent/WO2014171212A1/ja active Application Filing
-
2015
- 2015-10-13 US US14/881,652 patent/US9911191B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328746A (ja) * | 2006-06-09 | 2007-12-20 | Sony Computer Entertainment Inc | 対象物追跡装置および対象物追跡方法 |
JP4686663B2 (ja) * | 2006-07-10 | 2011-05-25 | 国立大学法人京都大学 | 歩行者トラッキング方法及び歩行者トラッキング装置 |
JP2009199363A (ja) * | 2008-02-21 | 2009-09-03 | Toshiba Corp | パーティクルフィルタを使用する追跡システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10375360B2 (en) | 2014-12-11 | 2019-08-06 | Megachips Corporation | State estimation apparatus, state estimation method, integrated circuit, and non-transitory computer-readable storage medium |
JP2017138217A (ja) * | 2016-02-04 | 2017-08-10 | 日本電信電話株式会社 | 予測装置および予測方法 |
JP2021103349A (ja) * | 2019-12-24 | 2021-07-15 | 京セラ株式会社 | 情報処理システム、情報処理装置及び情報処理方法 |
JP7381330B2 (ja) | 2019-12-24 | 2023-11-15 | 京セラ株式会社 | 情報処理システム、情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2975577A4 (en) | 2016-06-15 |
JP6194450B2 (ja) | 2017-09-13 |
WO2014171212A1 (ja) | 2014-10-23 |
US20160035098A1 (en) | 2016-02-04 |
EP2975577A1 (en) | 2016-01-20 |
US9911191B2 (en) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6194450B2 (ja) | 状態推定装置、プログラムおよび集積回路 | |
US20180253629A1 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
JP6482844B2 (ja) | 状態推定装置、プログラムおよび集積回路 | |
CN111480169B (zh) | 用于模式识别的方法、系统和装置 | |
JP2010009375A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
EP2352128B1 (en) | Mobile body detection method and mobile body detection apparatus | |
CN108140291A (zh) | 烟雾检测装置、方法以及图像处理设备 | |
JP6366999B2 (ja) | 状態推定装置、プログラムおよび集積回路 | |
Lee et al. | Gaussianmask: Uncertainty-aware instance segmentation based on gaussian modeling | |
JP2014206907A5 (ja) | ||
CN102129695A (zh) | 基于遮挡物建模的有遮挡情况下的目标跟踪方法 | |
Mahmoudi et al. | Multi-gpu based event detection and localization using high definition videos | |
CN116740126A (zh) | 目标跟踪方法、高速相机及存储介质 | |
Wang et al. | Object counting in video surveillance using multi-scale density map regression | |
WO2010023982A1 (ja) | 動きベクトル検出装置および画像処理装置 | |
JP2012181710A (ja) | オブジェクト追跡装置、方法、及びプログラム | |
JP6452324B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
Bhattacharyya et al. | Long-term image boundary prediction | |
Han et al. | Progressive Feature Interleaved Fusion Network for Remote-Sensing Image Salient Object Detection | |
CN109492755B (zh) | 图像处理方法、图像处理装置和计算机可读存储介质 | |
JP2011191972A (ja) | 動きベクトル計測装置および方法 | |
CN110751672A (zh) | 利用稀释卷积实现多尺度光流像素变换的方法和装置 | |
WO2020044866A1 (ja) | 変位計測装置及び変位計測方法 | |
JP2007156954A (ja) | 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム | |
JPWO2016142965A1 (ja) | 映像処理装置、映像処理方法及び映像処理プログラムを記憶する記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6194450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |