JP6879894B2 - 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 - Google Patents
物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 Download PDFInfo
- Publication number
- JP6879894B2 JP6879894B2 JP2017240590A JP2017240590A JP6879894B2 JP 6879894 B2 JP6879894 B2 JP 6879894B2 JP 2017240590 A JP2017240590 A JP 2017240590A JP 2017240590 A JP2017240590 A JP 2017240590A JP 6879894 B2 JP6879894 B2 JP 6879894B2
- Authority
- JP
- Japan
- Prior art keywords
- sample points
- scene
- flow
- state
- subset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000012549 training Methods 0.000 claims description 69
- 238000005259 measurement Methods 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 41
- 239000011159 matrix material Substances 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 25
- 238000000354 decomposition reaction Methods 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 12
- 239000012530 fluid Substances 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 241001465754 Metazoa Species 0.000 claims description 4
- 230000000087 stabilizing effect Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 238000005183 dynamical system Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002620 method output Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241001420287 Strobilanthes maculata Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000000859 sublimation Methods 0.000 description 1
- 230000008022 sublimation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
群集流動の巨視的モデルは、群集を流動する連続体とみなし、歩行者の平均的挙動を記述する。モデルパラメーターは、グリッドΩ内の各点における群集の密度ρと、グリッドΩ内の各点における水平速度及び垂直速度(u,v)とである。群集流動の巨視的モデルは、流体ダイナミクス(fluid dynamics:流体力学)のモデルに類似しており、次の仮定、すなわち、(1)各点における歩行者の速度は、その点の周囲の群集の密度によってのみ決まる;(2)歩行者は共通の目的地(見込み)を有する;(3)歩行者は、推定される移動時間を最小化したいと同時に、密度の高いエリアを回避したい、という、複数の仮定によって律則される。
コープマン演算子
離散時間ダイナミカルシステムを(M,n,F)とする。ここで、M⊆RNは状態空間であり、n∈Zは時間パラメーターであり、F:M→Mはシステム発展演算子である。コープマン演算子Kは、以下のように関数Fの空間上で定義される。ここで、F={φ|φ:M→C}である。
Williams他は、コープマン演算子を近似する低複雑度の方法としてカーネルDMD(KDMD)アルゴリズムを提案している。カーネル関数をf:M×M→Rとし、以下のデータ行列を定義することにする。
本開示の実施形態は、シーンの領域Γにおける限られた空間観測値から大きなシーンΩ内の物体の流動を予測し完成させるシステム及び方法を提供する。これらの物体は、動物、機械、流体、物質又は電流のうちの1つ又はそれらの組み合わせを含むことができる。
既定の境界条件を有する空間シーンΩが与えられると、異なる初期条件を有する複数の流動様式をシミュレーションすることによってトレーニングデータを生成することができる。空間シーンΩの全てをカバーする実際のビデオ監視データが利用可能であるとき、ビデオモーションベクトルを計算することによって、流動情報を抽出することができる。単一のビデオフレームのモーションベクトルは、流動内の或る時刻における粒子の速度の観測値に対応する。モーションベクトルは、ビデオテクスチャに適用されるオプティカルフロー推定を用いて計算することもできるし、符号化ビデオビットストリーム圧縮領域から直接パースすることもできる。
流動完成300に関して、領域Γ上で新たな流動X*={x* 1,...,x* T’}∈RDの速度が観測されるものと仮定する。T個の時間スナップショットにわたって観測された速度のシーケンスを、O={o1,...,oT’}⊂Rd,d<Dによって示す。また、ΩからΓにマッピングするマスク演算子をM:RD→Rdによって示す。このマスク演算子を、同じ名称Mを有するd×D行列によって表す。その場合、∀1≦t≦T’,ot=Mx* tである。本発明者らの目標は、部分的な観測値otから、(7)に示すような近似されたコープマンモード、コープマン固有値及びコープマン固有関数を用いて、x* tを推定することである。
係数行列Aは、本質的に、カーネル関数評価値f(x* t,xj),∀j∈{1,...,(T+1)L}を近似し、これによって、完全な流動パラメーター225を求めることが可能になる。Aを計算するために、利用しなければ一意の解を見つけることができない追加の構造体を利用する必要がある。そのために、本発明者らは、o1,o2,...,oTが連続した時間的観測値であるときに、これらのカーネル評価値が或る期間にわたって概ね平滑である、すなわち、||at−at+1||が小さいことを観測によって確かめた。これは、KDMD演算子の固有値が単位円に近接しているときに特に当てはまる。この観測が動機となって、本発明者らは、(8)を用いて、流動回復問題を以下のように割り当てる。
KDMD演算子の固有値が単位円に近接していないとき、方法1の時間的平滑正則化(temporal smoothness regularization)はもはや正しくない。一時的な挙動を正しく捕捉するとともに、Aの時間的平滑への依拠を少なくするために、本発明者らは、代わりに、コープマン予測に関して係数の時間的整合性を検討する。より正確には、(8)から、以下の式であることに留意されたい。
完全な流動パラメーターを求める別の方法が、図3Bのフロー図に示されている。この方法は、完全な流動パラメーターを求める(310)線形オブザーバー設計350を記述している。この手法の利点は、この手法が、データを記述する元のPDEにかかわらず、コープマンベースの座標変換に起因したダイナミクスの線形表現を提供するということである。
Claims (18)
- シーン内の物体の流動の状態を求めるシステムであって、前記物体は、動物、機械、流体、物質又は電流のうちの1つ又はそれらの組み合わせを含み、前記システムは、
前記シーンの観測サンプル点における前記流動の前記状態を測定する少なくとも1つのセンサーであって、前記シーンは、前記観測サンプル点のサブセット及び未観測サンプル点のサブセットを有するサンプル点のセットを含む、少なくとも1つのセンサーと、
前記シーン内の物体の流動を含むトレーニング履歴データと前記シーン内の前記物体の前記流動のトレーニング状態の時変ダイナミクスを指定する非パラメトリックな演算子を記憶するメモリであって、該非パラメトリックな演算子は、演算子固有値のセットと、前記シーンの前記サンプル点のセット内のすべてのサンプル点における前記物体の前記流動の前記状態の完全モードのセットを求める演算子モードのセットとを含み、該非パラメトリックな演算子は、前記シーン内のサンプル点における前記物体の前記流動の前記状態の推定される将来の状態を、前記シーン内の前記サンプル点のセットにおける前記物体の前記流動の前記状態の現在の測定状態の関数として求めるためにトレーニングされる、メモリと、
前記少なくとも1つのセンサーと通信し、前記シーンの前記観測サンプル点における前記物体の前記流動の前記現在の測定状態を入手する入力インターフェースと、
前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態とともに、前記非パラメトリックな演算子と、前記観測サンプル点のサブセットにおける前記現在の測定状態を用いて、前記観測サンプル点のサブセットと前記未観測サンプル点のサブセットにおける前記推定される将来の状態を推定し、前記観測サンプル点のサブセットにおける前記推定される将来の状態が前記観測サンプル点のサブセットにおける前記測定状態と整合することを確認するように構成された、前記メモリおよび前記入力インターフェースと通信するプロセッサと、
前記シーン内の前記物体の前記流動の前記状態を管理するマネージメントを援助するために、前記シーンの前記未観測サンプル点のセットにおける前記流動の前記状態を出力するように構成された、前記プロセッサと通信する出力インターフェースと、
を備える、システム。 - 前記非パラメトリックな演算子の前記トレーニングは、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動のトレーニング状態の履歴データを取得すること、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動の前記トレーニング状態をモデルに従ってシミュレーションすること、又は、
前記シーン内のサンプル点の一連のサブセットにおいて前記物体の前記流動の前記トレーニング状態を取得すること、
のうちの1つ又はそれらの組み合わせを含み、
前記シーン内の前記サンプル点の一連の前記サンプル点の全ての前記サブセットが、前記シーン内の前記サンプル点のセットにおける全ての前記サンプル点を含むように、前記サンプル点の一連のサブセットにおける前記サンプル点の少なくとも1つのサブセットは、前記シーン内の前記サンプル点の一連のサブセットにおける前記サンプル点の残りの前記サブセットの可観測サンプル点の時刻と異なる時刻における観測サンプル点である、請求項1に記載のシステム。 - 前記物体の前記流動の前記状態は、密度、速度、温度又は流量のうちの1つ又はそれらの組み合わせを含む、請求項1に記載のシステム。
- 前記物体の前記流動の前記状態は、電流、電圧、電力又は負荷のうちの1つ又はそれらの組み合わせを含む、請求項1に記載のシステム。
- 前記非パラメトリックな演算子は、物理量や空間のような、動きを表現するパラメータを必要とすることなく、前記流動の前記状態を直接推定するデータ依存演算子である、請求項1に記載のシステム。
- 前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を前記推定することは、
前記センサーによる前記シーンの前記観測サンプル点のセットと、前記非パラメトリックな演算子の前記観測サンプル点のサブセットにおける前記推定される将来の状態との間の誤差を最小化することによって、基底行列のセットの係数のセットを求めることと、
前記基底行列のセットの前記係数のセットが、前記非パラメトリックな演算子の前記演算子固有値のセットに従って時間的予測条件に適合していることを確認することと、
を含む、請求項1に記載のシステム。 - 前記センサーによる前記シーンの前記観測サンプル点のセットを相関させることに関連付けられた前記基底行列のセットの前記係数のセットの係数のサブセットと、前記非パラメトリックな演算子の前記観測サンプル点のサブセットにおける前記推定される状態との間の誤差を最小化すること、
を更に含む、請求項6に記載のシステム。 - 前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を前記推定することは、ダイナミカルシステムを求めることを含み、
前記ダイナミカルシステムはオブザーバーを含み、該オブザーバーは、オブザーバーモデルを含む、請求項1に記載のシステム。 - 前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を前記推定することは、前記オブザーバーモデルに従うとともに、
前記非パラメトリックな演算子の前記演算子モードのセットに基づいて、前記シーンの前記サンプル点のセット内の全てのサンプル点における前記物体の前記流動の前記状態の完全モードのセットを求めることと、
前記シーンの前記観測サンプル点の前記サブセットにおける前記物体の前記流動の前記状態の前記演算子モードのセットの可観測モードのサブセットを求めることと、
安定化フィードバック利得の固有値極を複素単位円内に割り当てることによって、前記シーンの前記観測サンプル点の前記サブセットにおける前記物体の前記流動の前記オブザーバーモデルの前記安定化フィードバック利得を求めることと、
基底関数のセットと前記可観測モードの前記セットとの乗算が前記非パラメトリックな演算子の前記演算子固有値のセットに従って時間的予測条件に適合していることを確認することによって、前記基底関数のセットを推定することと、
前記完全モードのセットに前記基底関数のセットを乗算することによって、前記未観測サンプル点の前記サブセットにおける前記物体の前記流動の前記状態を生成することと、
前記シーンの前記未観測サンプル点のセットにおける前記流動の前記状態を出力することと、
を含む、請求項8に記載のシステム。 - 前記少なくとも1つのセンサーは、前記物体の前記流動のビデオを取り込むカメラであり、前記物体の前記流動は、前記シーン内の歩行者であり、前記ビデオはフレームのセットを含むようになっており、前記流動は、前記シーンの前記観測サンプル点の前記サブセットにおける前記フレームのセット内の各フレームから取得された独立した歩行者流動であるようになっており、前記シーンの前記観測サンプル点の前記サブセットは、速度ベクトルのセット、群集密度のセット、オプティカルフローベクトルのセット又はモーションベクトルのセットからなる群から選択される、請求項1に記載のシステム。
- 前記シーン内の前記サンプル点のセットにおける前記物体の前記流動のトレーニング状態の時変ダイナミクスを指定する前記非パラメトリックな演算子は、コープマン演算子、動的モード分解演算子、拡張動的モード分解演算子及びカーネル動的モード分解演算子からなる群から選択される、請求項1に記載のシステム。
- 前記観測サンプル点のサブセットにおける前記測定状態は、雑音観測値を含み、そのため、前記観測サンプル点のサブセットにおける前記推定される将来の状態は、前記観測サンプル点のサブセットにおける前記測定状態から前記雑音観測値を引いたものに整合するか又は等しくなるようになっている、請求項1に記載のシステム。
- シーン内の物体の流動の状態を求める方法であって、前記物体は、動物、機械、流体、物質又は電流のうちの1つ又はそれらの組み合わせを含み、前記方法は、
少なくとも1つのセンサーによって生成された前記シーンの観測サンプル点における前記流動の測定状態を入手することであって、前記シーンは、前記観測サンプル点のサブセット及び未観測サンプル点のサブセットを有するサンプル点のセットを含むことと、
前記シーン内の物体の流動を含むトレーニング履歴データと前記シーン内の前記物体の前記流動のトレーニング状態の時変ダイナミクスを指定する非パラメトリックな演算子を記憶しているメモリを用いることであって、該非パラメトリックな演算子は、演算子固有値のセットと、前記シーンの前記サンプル点のセット内のすべてのサンプル点における前記物体の前記流動の前記状態の完全モードのセットを求める演算子モードのセットとを含み、該非パラメトリックな演算子は、前記シーン内のサンプル点における前記物体の前記流動の前記状態の推定される将来の状態を、前記シーン内の前記サンプル点のセットにおける前記物体の前記流動の前記状態の現在の測定状態の関数として求めるようにトレーニングされる、ことと、
前記少なくとも1つのセンサーと通信する入力インターフェースを介して、前記シーンの前記観測サンプル点における前記物体の前記流動の前記現在の測定状態を入手する、ことと、
前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態とともに、前記メモリおよび前記入力インターフェースと通信するプロセッサによって、前記非パラメトリックな演算子と、前記観測サンプル点のサブセットにおける前記現在の測定状態とを用いて、前記観測サンプル点のサブセットと前記未観測サンプル点のサブセットにおける前記推定される将来の状態を推定し、前記観測サンプル点のサブセットにおける前記推定される将来の状態が前記観測サンプル点のサブセットにおける前記測定状態と整合することを確認することと、
前記シーン内の前記物体の前記流動の前記状態を管理するマネージメントを援助するために、前記シーンの前記未観測サンプル点のセットにおける前記流動の前記状態を、前記プロセッサと通信する出力インターフェースを介して出力することと、
を含む、方法。 - 前記非パラメトリックな演算子の前記トレーニングは、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動のトレーニング状態の履歴データを取得すること、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動の前記トレーニング状態をモデルに従ってシミュレーションすること、又は、
前記シーン内のサンプル点の一連のサブセットにおいて前記物体の前記流動の前記トレーニング状態を取得すること、
のうちの1つ又はそれらの組み合わせを含み、
前記シーン内の前記一連の前記サンプル点における前記サンプル点の全ての前記サブセットが、前記シーン内の前記サンプル点のセットにおける全ての前記サンプル点を含むように、前記サンプル点の一連のサブセットにおける前記サンプル点の少なくとも1つのサブセットは、前記シーン内の前記サンプル点の一連のサブセットにおける前記サンプル点の残りの前記サブセットの可観測サンプル点の時刻と異なる時刻における観測サンプル点である、請求項13に記載の方法。 - 前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を前記推定することは、
前記センサーによる前記シーンの前記観測サンプル点のセットと、前記非パラメトリックな演算子の前記観測サンプル点のサブセットにおける前記推定される将来の状態との間の誤差を最小化することによって、基底行列のセットの係数のセットを求めることと、
前記基底行列のセットの前記係数のセットが、前記非パラメトリックな演算子の前記演算子固有値のセットに従って時間的予測条件に適合していることを確認することと、
前記センサーによる前記シーンの前記観測サンプル点のセットを相関させることに関連付けられた前記基底行列のセットの前記係数のセットの係数のサブセットと、前記非パラメトリックな演算子の前記観測サンプル点のサブセットにおける前記推定される状態との間の誤差を最小化することと、
を含む、請求項13に記載の方法。 - 方法を実行するコンピューターによって実行可能なプログラムが具現化された非一時的コンピューター可読記憶媒体であって、前記方法は、シーン内の物体の流動の状態を求めるものであり、前記物体は、動物、機械、流体、物質又は電流のうちの1つ又はそれらの組み合わせを含み、前記方法は、
少なくとも1つのセンサーによって生成された前記シーンの観測サンプル点における前記流動の測定状態を入手することであって、前記シーンは、前記観測サンプル点のサブセット及び未観測サンプル点のサブセットを有するサンプル点のセットを含むことと、
前記シーン内の物体の流動を含むトレーニング履歴データと前記シーン内の前記物体の前記流動のトレーニング状態の時変ダイナミクスを指定する非パラメトリックな演算子を記憶しているメモリを用いることであって、該非パラメトリックな演算子は、演算子固有値のセットと、前記シーンの前記サンプル点のセット内のすべてのサンプル点における前記物体の前記流動の前記状態の完全モードのセットを求める演算子モードのセットとを含み、該非パラメトリックな演算子は、前記シーン内のサンプル点における前記物体の前記流動の前記状態の推定される将来の状態を、前記シーン内の前記サンプル点のセットにおける前記物体の前記流動の前記状態の現在の測定状態の関数として求めるようにトレーニングされ、前記非パラメトリックな演算子は、動きを表現するパラメータを必要とすることなく、前記流動の前記状態を直接推定するデータ依存演算子である、ことと、
前記少なくとも1つのセンサーと通信する入力インターフェースを介して、前記シーンの前記観測サンプル点における前記物体の前記流動の前記現在の測定状態を入手する、ことと、
前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態とともに、前記メモリおよび前記入力インターフェースと通信するプロセッサによって、前記非パラメトリックな演算子と、前記観測サンプル点のサブセットにおける前記現在の測定状態とを用いて、前記観測サンプル点のサブセットと前記未観測サンプル点のサブセットにおける前記推定される将来の状態を推定し、前記観測サンプル点のサブセットにおける前記推定される将来の状態が前記観測サンプル点のサブセットにおける前記測定状態と整合することを確認することと、
前記シーン内の前記物体の前記流動の前記状態を管理するマネージメントを援助するために、前記シーンの前記未観測サンプル点のサブセットにおける前記流動の前記状態を、前記プロセッサと通信する出力インターフェースを介して出力することと、
を含む、非一時的コンピューター可読記憶媒体。 - 前記非パラメトリックな演算子の前記トレーニングは、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動のトレーニング状態の履歴データを取得すること、
前記シーン内の前記サンプル点のセットにおいて前記物体の前記流動の前記トレーニング状態をモデルに従ってシミュレーションすること、又は、
前記シーン内のサンプル点の一連のサブセットにおいて前記物体の前記流動の前記トレーニング状態を取得すること、
のうちの1つ又はそれらの組み合わせを含み、
前記シーン内の前記一連の前記サンプル点における前記サンプル点の全ての前記サブセットが、前記シーン内の前記サンプル点のセットにおける全ての前記サンプル点を含むように、前記サンプル点の一連のサブセットにおける前記サンプル点の少なくとも1つのサブセットは、前記シーン内の前記サンプル点の一連のサブセットにおける前記サンプル点の残りの前記サブセットの可観測サンプル点の時刻と異なる時刻における観測サンプル点である、請求項16に記載の記憶媒体。 - 前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を推定することは、
ダイナミカルシステムを求めることを含み、該ダイナミカルシステムは、オブザーバーを含み、該オブザーバーは、前記非パラメトリックな演算子が前記演算子モードのセットと前記演算子固有値のセットとを含むようなオブザーバーモデルを含み、
前記シーンの前記未観測サンプル点のサブセットにおける前記物体の前記流動の前記状態を前記推定することは、前記オブザーバーモデルに従うとともに、
前記非パラメトリックな演算子の前記演算子モードのセットに基づいて、前記シーンの前記サンプル点のセット内の全てのサンプル点における前記物体の前記流動の前記状態の完全モードのセットを求めることと、
前記シーンの前記観測サンプル点の前記サブセットにおける前記物体の前記流動の前記状態の前記演算子モードのセットの可観測モードのサブセットを求めることと、
安定化フィードバック利得の固有値極を複素単位円内に割り当てることによって、前記シーンの前記観測サンプル点の前記サブセットにおける前記物体の前記流動のオブザーバーモデルの前記安定化フィードバック利得を求めることと、
基底関数のセットと前記可観測モードの前記セットとの乗算が前記非パラメトリックな演算子の前記演算子固有値のセットに従って時間的予測条件に適合していることを確認することによって、前記基底関数のセットを推定することと、
前記完全モードのセットに前記基底関数のセットを乗算することによって、前記未観測サンプル点の前記サブセットにおける前記物体の前記流動の前記状態を生成することと、
前記シーンの前記未観測サンプル点のセットにおける前記流動の前記状態を出力することと、
を含む、請求項16に記載の記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/404,296 | 2017-01-12 | ||
US15/404,296 US10210398B2 (en) | 2017-01-12 | 2017-01-12 | Methods and systems for predicting flow of crowds from limited observations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018113026A JP2018113026A (ja) | 2018-07-19 |
JP2018113026A5 JP2018113026A5 (ja) | 2020-10-22 |
JP6879894B2 true JP6879894B2 (ja) | 2021-06-02 |
Family
ID=62781954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017240590A Active JP6879894B2 (ja) | 2017-01-12 | 2017-12-15 | 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10210398B2 (ja) |
JP (1) | JP6879894B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10251090B2 (en) * | 2017-03-14 | 2019-04-02 | Cubic Corporation | System and method for modifying a wireless communication object |
US10579788B2 (en) | 2017-08-17 | 2020-03-03 | Waymo Llc | Recognizing assigned passengers for autonomous vehicles |
JP6966395B2 (ja) * | 2018-08-23 | 2021-11-17 | 株式会社日立製作所 | 最適化システム及び最適化方法 |
US10705408B2 (en) * | 2018-10-17 | 2020-07-07 | Sony Corporation | Electronic device to autofocus on objects of interest within field-of-view of electronic device |
US10909387B2 (en) * | 2019-03-28 | 2021-02-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for predicting dynamical flows from control inputs and limited observations |
US11106904B2 (en) * | 2019-11-20 | 2021-08-31 | Omron Corporation | Methods and systems for forecasting crowd dynamics |
CN114626302A (zh) * | 2022-03-18 | 2022-06-14 | 杭州勒贝格智能系统有限责任公司 | 基于Koopman算子和机器学习的信道预测方法、系统、终端及介质 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835008A (en) * | 1995-11-28 | 1998-11-10 | Colemere, Jr.; Dale M. | Driver, vehicle and traffic information system |
US20030014379A1 (en) * | 1999-07-01 | 2003-01-16 | Isaac Saias | Adaptive and reliable system and method for operations management |
US20030053658A1 (en) * | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Surveillance system and methods regarding same |
US20030115030A1 (en) * | 2001-12-19 | 2003-06-19 | Camitro Corporation | Non-linear modelling of biological activity of chemical compounds |
US7595817B1 (en) | 2003-02-12 | 2009-09-29 | The Research Foundation Of State University Of New York | Linear system based, qualitative independent motion detection from compressed MPEG surveillance video |
US20050254546A1 (en) | 2004-05-12 | 2005-11-17 | General Electric Company | System and method for segmenting crowded environments into individual objects |
US7418113B2 (en) * | 2005-04-01 | 2008-08-26 | Porikli Fatih M | Tracking objects in low frame rate videos |
JP2007257148A (ja) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | 画像処理装置及び方法 |
JP4429298B2 (ja) * | 2006-08-17 | 2010-03-10 | 独立行政法人産業技術総合研究所 | 対象個数検出装置および対象個数検出方法 |
JP2008203992A (ja) * | 2007-02-16 | 2008-09-04 | Omron Corp | 検出装置および方法、並びに、プログラム |
CN101325690A (zh) | 2007-06-12 | 2008-12-17 | 上海正电科技发展有限公司 | 监控视频流中人流分析与人群聚集过程的检测方法及系统 |
US8358806B2 (en) | 2007-08-02 | 2013-01-22 | Siemens Corporation | Fast crowd segmentation using shape indexing |
EP2368216B1 (de) * | 2008-10-10 | 2012-12-26 | ADC Automotive Distance Control Systems GmbH | Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung |
US20110205359A1 (en) * | 2010-02-19 | 2011-08-25 | Panasonic Corporation | Video surveillance system |
US9472097B2 (en) * | 2010-11-15 | 2016-10-18 | Image Sensing Systems, Inc. | Roadway sensing systems |
US9275472B2 (en) * | 2011-11-18 | 2016-03-01 | Disney Enterprises, Inc. | Real-time player detection from a single calibrated camera |
WO2013081985A1 (en) * | 2011-11-28 | 2013-06-06 | Magna Electronics, Inc. | Vision system for vehicle |
TWI448977B (zh) * | 2011-12-08 | 2014-08-11 | Ind Tech Res Inst | 基於視訊分析的物件計數方法與裝置 |
KR101346773B1 (ko) | 2012-03-09 | 2013-12-31 | 고려대학교 산학협력단 | H.264 압축영역에서의 비정상 군중행동 탐지 및 분석 방법 |
CN103235944A (zh) | 2013-05-15 | 2013-08-07 | 青岛科技大学 | 人群流分割及人群流异常行为识别方法 |
US9342982B2 (en) * | 2013-09-09 | 2016-05-17 | International Business Machines Corporation | Traffic control agency deployment and signal optimization for event planning |
US9794525B2 (en) * | 2014-03-25 | 2017-10-17 | Ecole Polytechnique Federale De Lausanne (Epfl) | Systems and methods for tracking interacting objects |
US9600896B1 (en) * | 2015-11-04 | 2017-03-21 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting pedestrian flows in videos |
-
2017
- 2017-01-12 US US15/404,296 patent/US10210398B2/en active Active
- 2017-12-15 JP JP2017240590A patent/JP6879894B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20180197017A1 (en) | 2018-07-12 |
US10210398B2 (en) | 2019-02-19 |
JP2018113026A (ja) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6879894B2 (ja) | 物体の流動の状態を求めるシステム及び方法、並びに非一時的コンピューター可読記憶媒体 | |
JP5054206B2 (ja) | 画像処理方法及び画像処理装置 | |
JP6534664B2 (ja) | カメラ動き予測及び修正のための方法 | |
JP4633841B2 (ja) | 歩行者の追跡による、ビデオ系列からの3次元道路配置の推定 | |
JP7146122B2 (ja) | 制御入力および限られた観測から動的流動を予測するための方法およびシステム | |
JP2018101406A5 (ja) | ||
JP6385601B2 (ja) | 歩行者の流動を求める方法及びシステム | |
JP2006260527A (ja) | 画像マッチング方法およびこれを用いた画像補間方法 | |
CN111090688B (zh) | 一种时序数据的平滑处理方法和装置 | |
US11449975B2 (en) | Object count estimation apparatus, object count estimation method, and computer program product | |
JP2018113026A5 (ja) | ||
US20220156957A1 (en) | Image Depth Estimation Method and Device, Readable Storage Medium and Electronic Equipment | |
CN114937125B (zh) | 可重建度量信息预测方法、装置、计算机设备和存储介质 | |
CN111028346B (zh) | 一种视频对象的重建方法和装置 | |
CN110136185B (zh) | 一种单目深度估计方法及系统 | |
JP2020166315A (ja) | 学習データの生成方法、トレーニング方法、予測モデル、コンピュータプログラム | |
KR102020941B1 (ko) | 움직임 추정 장치 및 추정 방법 | |
Kopanas et al. | Improving nerf quality by progressive camera placement for unrestricted navigation in complex environments | |
EP3745313A1 (en) | A predictive maintenance system for equipment with sparse sensor measurements | |
CN110753239B (zh) | 视频预测方法、视频预测装置、电子设备和车辆 | |
Sarkar et al. | Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human Motion Dataset for Autonomous Robots | |
JP5874996B2 (ja) | 物体運動推定装置、物体運動推定方法及びプログラム | |
Sarkar et al. | Action-conditioned video data improves predictability | |
KR20110134086A (ko) | 물체 추적 장치 | |
JP2015018452A (ja) | 比較的低品質な時系列観測画像から、画像内の移動オブジェクトの速度を推定する方法、コンピュータ・プログラム、コンピュータ。 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200910 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210430 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6879894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |