JP6972434B1 - 行動特定装置、行動特定方法及び行動特定プログラム - Google Patents
行動特定装置、行動特定方法及び行動特定プログラム Download PDFInfo
- Publication number
- JP6972434B1 JP6972434B1 JP2021524033A JP2021524033A JP6972434B1 JP 6972434 B1 JP6972434 B1 JP 6972434B1 JP 2021524033 A JP2021524033 A JP 2021524033A JP 2021524033 A JP2021524033 A JP 2021524033A JP 6972434 B1 JP6972434 B1 JP 6972434B1
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- behavior
- subject
- action
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
本開示は、適切に行動を特定可能にすることを目的とする。
映像データに映った人である被写体について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得部と、
前記骨格情報取得部によって取得された、対象期間における前記被写体者についての前記骨格情報を時系列に並べた時系列データを用いて、前記被写体者の特徴量を計算する特徴量計算部と、
前記特徴量計算部によって計算された前記特徴量を入力として、前記被写体者の行動を特定する行動特定部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る行動特定装置10の構成を説明する。
行動特定装置10は、コンピュータである。
行動特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、行動特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、行動特定装置10の各機能構成要素の機能が実現される。
ストレージ13は、骨格情報データベース131と、特徴量データベース132との機能を実現する。
図2及び図3を参照して、実施の形態1に係る行動特定装置10の動作を説明する。
実施の形態1に係る行動特定装置10の動作手順は、実施の形態1に係る行動特定方法に相当する。また、実施の形態1に係る行動特定装置10の動作を実現するプログラムは、実施の形態1に係る行動特定プログラムに相当する。
(ステップS11:映像取得処理)
映像取得部21は、カメラ31によって取得された映像データを取得する。映像取得部21は、映像データをメモリ12に書き込む。
骨格情報取得部22は、ステップS11で取得された映像データに映った1人以上の人である被写体者それぞれを対象の被写体者として設定する。骨格情報取得部22は、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する。骨格情報取得部22は、取得した骨格情報は骨格情報データベース131に書き込む。
具体的には、骨格情報取得部22は、メモリ12から映像データを読み出す。骨格情報取得部22は、映像データに映った1人以上の被写体者それぞれを対象の被写体者に設定する。骨格情報取得部22は、対象の被写体者の骨格の関節の位置を特定し、被写体者と映像の撮影時刻とを判別可能なインデックスを付与して骨格情報を生成する。関節の位置は、座標値等によって表される。骨格情報取得部22は、生成した骨格情報を骨格情報データベース131に書き込む。
映像データに映る人の関節の位置の抽出方法としては、深層学習を用いる方法と、対象者の関節の位置に物理的にマーカを付け、マーカを識別することで関節を特定する方法等がある。
特徴量計算部23は、ステップS11で取得された映像データに映った1人以上の人である被写体者それぞれを対象の被写体者として設定する。特徴量計算部23は、ストレージ13に含まれる骨格情報データベース131から対象の被写体者についての骨格情報を取得し、取得された骨格情報を時系列に並べた時系列データから特徴量を計算する。特徴量計算部23は、特徴量を特徴量データベース132に書き込む。
ここで、時系列データは、例えば数秒といったある程度の長さをもった対象期間分の骨格情報を時系列に並べたデータであり、2つ以上の時刻における骨格情報を時系列に並べたデータである。
具体的な、骨格情報から特徴量を計算する処理については、後述する。
行動特定部24は、ステップS11で取得された映像データに映った1人以上の人である被写体者それぞれを対象の被写体者として設定する。行動特定部24は、ストレージ13に含まれる特徴量データベース132から、対象の被写体者の特徴量を取得し、取得した特徴量をもとに対象の被写体者の行動を特定する。
具体的には、行動特定部24は、特徴量データベース132から、対象の被写体者の特徴量を取得する。そして、行動特定部24は、特徴量からその人の行動を示す行動ラベルを出力する行動ルールを利用して、取得された特徴量から対象の被写体者の行動を特定する。行動ルールは、人の骨格情報から計算される特徴量と人の行動を示す行動ラベルとを対応付けたルールであり、事前にストレージ13に記憶されている。つまり、行動特定部24は、行動ルールに対して、人の骨格情報から計算された特徴量を入力することにより、行動ラベルが出力として得られる。行動特定部24は、行動ラベルをメモリ12に書き込む。
行動ラベルが示す行動は、例えば、「歩く」、「握手する」、「殴る」、「暴れる」といった行動である。
(ステップS21:時系列データ取得処理)
特徴量計算部23は、現在時刻tからN時刻前までの対象の被写体者についての骨格情報を骨格情報データベース131から取得する。特徴量計算部23は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
特徴量計算部23は、ステップS21で設定された骨格情報の時系列データにおいて、時系列に連続する2つの時刻の骨格情報間における対象の被写体者の骨格の各関節の移動距離を計算する。具体的には、特徴量計算部23は、各関節を対象として、2つの時刻の骨格情報間における対象の関節の位置の差分を計算することによって、対象の関節の移動距離を計算する。特徴量計算部23は、各関節の移動距離を要素とするベクトルあるいは行列を生成する。以下では、各関節の移動距離を要素とするベクトルが生成されたとして説明する。
特徴量計算部23は、ステップS22で生成された、各関節の移動距離を要素とするベクトルを時間方向に合計する。つまり、特徴量計算部23は、各関節を対象として、対象の関節について計算された2つの時刻の間における移動距離を合計する。このようにして計算された値は、現在時刻tから過去時刻t−Nまでの時間幅Nにおける各関節の移動距離の総和である。そのため、この値は、時間幅Nにおける各関節の運動量とみなすことができる。
特徴量計算部23は、全関節の運動量を合計する、あるいは、平均値を取る等してスカラーとし、このスカラーを時間幅Nにおける被写体者の骨格全体の運動量とみなす。そして、特徴量計算部23は、この運動量を特徴量とする。なお、時間幅Nで運動量を除算した値は速度とみなすことができるが、この速度を特徴量としてもよい。
特徴量計算部23は、計算された特徴量に、現在時刻tをインデックスとして付与して、特徴量データベース132に書き込む。
補完の方法としては、関節の位置が取得できなかった時刻の特徴量を1時刻前の特徴量とする、又は、関節の位置が取得できなかった時刻の特徴量を過去数時刻分の特徴量の変位から線形補完して計算することが考えられる。あるいは、特徴量計算部23は、関節の位置が取得できた関節群全体の運動量から1関節当たりの運動量の平均値を計算し、関節の位置が取得できなかった関節の運動量としても、関節の位置が取得できなかった関節の周囲の関節から成り、関節の位置が取得できた関節群の運動量から1関節当たりの運動量の平均値を計算し、関節の位置が取得できなかった関節の運動量としてもよい。また、特徴量計算部23は、取得できなかった右膝の位置を左膝の位置で補完するというように、取得できなかった関節と左右で対になっている関節、あるいは連結する関節の位置で補完してもよい。
以上のように、実施の形態1に係る行動特定装置10は、瞬間的な骨格の変位量を求める場合よりもある程度長い時間幅における骨格情報の時系列データから計算される骨格の運動量又は速度を用いて、被写体者の行動を特定する。これにより、人の向き又はオクルージョンによる一部身体の隠蔽等による被写体者の骨格の関節の誤抽出が発生した場合でも、正しく行動を判別できる可能性が高くなる。その結果、適切に行動を特定可能である。
<変形例1>
実施の形態1では、人の骨格情報から計算される特徴量と人の行動を示す行動ラベルとを対応付けた行動ルールを用いて、行動を特定した。しかし、行動ルールに代えて、ニューラルネットワーク等を用いて生成された学習済みのモデルである行動モデルが用いられてもよい。
行動ルールの代わりに用いられる行動モデルは、人の骨格情報と人の行動を示す行動ラベルとを組にして学習データとし、深層学習などによって構築される。つまり、行動モデルは、人の骨格情報から計算される特徴量を入力として与えると、行動ラベルが出力として得られるモデルである。
行動ルールの代わりに行動モデルが用いられる場合には、図2のステップS14で行動特定部24は、骨格情報の時系列データから計算される特徴量を行動モデルに入力して、対象の被写体者の行動を示す情報として、行動ラベルを取得する。
実施の形態1では、行動ルールは、ストレージ13に記憶されると説明した。しかし、行動ルールは、行動特定装置10の外部の記憶装置に記憶されていてもよい。この場合には、行動特定装置10は、通信インタフェース14を介して、行動ルールにアクセスすればよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、行動特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2では、変形例1で説明した行動モデルの生成処理について説明する。
図5を参照して、実施の形態2に係る学習装置50の構成を説明する。
学習装置50は、コンピュータである。
学習装置50は、プロセッサ51と、メモリ52と、ストレージ53と、通信インタフェース54とのハードウェアを備える。プロセッサ51は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
学習装置50は、通信インタフェース54を介して行動特定装置10と接続されている。
ストレージ13には、学習装置50の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ51によりメモリ52に読み込まれ、プロセッサ51によって実行される。これにより、学習装置50の各機能構成要素の機能が実現される。
図6を参照して、実施の形態2に係る学習装置50の動作を説明する。
実施の形態2に係る学習装置50の動作手順は、実施の形態2に係る学習方法に相当する。また、実施の形態2に係る学習装置50の動作を実現するプログラムは、実施の形態2に係る学習プログラムに相当する。
(ステップS31:学習データ取得処理)
学習データ取得部61は、複数の時刻における人の骨格の関節の位置を示す骨格情報を時系列に並べた時系列データから計算された特徴量と、その人の行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された行動を実際に行った人を撮像して得られた映像データから骨格情報を抽出し、抽出した骨格情報の時系列データから特徴量を計算することによって生成される。つまり、抽出された骨格情報の時系列データから計算された特徴量と、指定された行動とが関連付けられて学習データとされる。
モデル生成部62は、ステップS31で取得された学習データを入力として、学習を行い、行動モデルを生成する。モデル生成部62は、行動モデルを行動特定装置10のストレージ13に書き込む。
実施の形態2では、モデル生成部62は、学習データを入力として、骨格情報の時系列データから計算される特徴量と行動との関係をニューラルネットワークに学習させる。例えば、モデル生成部62は、歩行時と走行時それぞれの骨格情報の時系列データから計算される一定時間幅における運動量を計算し、歩行時の運動量と走行時の運動量とを区別するための決定境界を学習させる。なお、特徴量として、運動量ではなく、速度が用いられる場合には、モデル生成部62は、歩行時と走行時それぞれの骨格情報から計算される一定時間幅における速度を計算し、歩行時の速度と走行時の速度とを区別するための決定境界を学習させればよい。
用いられるニューラルネットワークの構成はDNN(深層ニューラルネットワーク)と、CNN(畳み込みニューラルネットワーク)と、RNN(再帰型ニューラルネットワーク)といった周知のものでよい。
以上のように、実施の形態2に係る学習装置50は、学習データに基づき、行動特定装置10が用いる行動モデルを生成する。これにより、適切な学習データを与えることで、行動特定装置10が用いる行動モデルの認識精度を高くすることができる。
<変形例5>
行動特定装置10は、行動モデルに代えて実施の形態1で説明した行動ルールを用いてもよい。
行動モデルに代えて行動ルールが用いられる場合には、図5のステップS32でモデル生成部62は、行動モデルに代えて行動ルールを生成する。具体的には、モデル生成部62は、ステップS31で取得された各学習データが示す、人の骨格の関節の位置を示す骨格情報の時系列データから計算される特徴量と、その人の行動を示す行動ラベルと対応付けたデータベースを行動ルールとして生成する。
実施の形態2では、各機能構成要素がソフトウェアで実現された。しかし、変形例6として、各機能構成要素はハードウェアで実現されてもよい。この変形例6について、実施の形態2と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、学習装置50は、プロセッサ51とメモリ52とストレージ53とに代えて、電子回路55を備える。電子回路55は、各機能構成要素と、メモリ52と、ストレージ53との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路55で実現してもよいし、各機能構成要素を複数の電子回路55に分散させて実現してもよい。
変形例7として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態3は、実施の形態1に係る特徴量計算部23で計算される特徴量が動作の軌跡である点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
図8を参照して、実施の形態3に係る行動特定装置10の動作を説明する。
実施の形態3に係る行動特定装置10の動作手順は、実施の形態3に係る行動特定方法に相当する。また、実施の形態3に係る行動特定装置10の動作を実現するプログラムは、実施の形態3に係る行動特定プログラムに相当する。
(ステップS41:時系列データ取得処理)
特徴量計算部23は、現在時刻tからN時刻前までの対象の被写体者についての骨格情報を骨格情報データベース131から取得する。特徴量計算部23は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
特徴量計算部23は、ステップS41で生成された対象の被写体者の骨格情報の時系列データが表す、現在時刻tから過去時刻t−N間の各時刻における被写体者の骨格の関節の位置の情報を時系列に並べたベクトルあるいは行列を特徴量として生成する。以下では、関節の位置の情報を時系列に並べたベクトルが生成されたとして説明する。このようにして生成されたベクトルは、時系列に並んだ骨格の関節の位置の情報を要素として持つ。そのため、時刻tから時刻t−Nにおける関節の移動経路、つまり動作の軌跡を表す。
このとき、関節の位置の情報は、2次元画像内から抽出された骨格情報を対象としていれば、水平方向の位置を表す座標値xと垂直方向の位置を表す座標値yとを用いて(x,y)といった具合に表される。
特徴量計算部23は、特徴量を計算するにあたって、抽出された被写体者の骨格の関節のうち、任意の数の関節に対して特徴量を計算してもよい。また、特徴量計算部23は、正の整数M,mに関して、骨格情報がM次元の関節の位置情報を持っていた場合、m≦Mとなるようなm個の座標値を利用して特徴量を計算してもよい。
以上のように、実施の形態3に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、瞬間的な骨格の変位量を求める場合よりも比較的長い時間幅における骨格情報の時系列から計算される動作の軌跡を用いて、被写体者の行動を特定する。これにより、骨格情報の誤抽出が一時的に発生した場合でも、正しく行動を判別できる可能性が高くなる。その結果、その結果、適切に行動を特定可能である。
Claims (7)
- 映像データに映った1人以上の人それぞれを被写体者として、前記被写体者について、骨格の複数の関節の位置を示す骨格情報を取得する骨格情報取得部と、
前記骨格情報取得部によって取得された、対象期間における前記被写体者についての前記骨格情報を時系列に並べた時系列データを用いて、前記複数の関節についての移動距離を合計又は平均して、前記被写体者の特徴量を計算する特徴量計算部と、
前記特徴量計算部によって計算された前記特徴量を入力として、前記被写体者の行動を特定する行動特定部と
を備える行動特定装置。 - 前記行動特定部は、前記特徴量の変遷に基づいて前記被写体者の行動を特定する
請求項1に記載の行動特定装置。 - 前記特徴量計算部は、前記複数の関節それぞれを対象の関節として、前記時系列データにおける連続する2つの時刻の間の前記対象の関節の移動距離を合計して、前記対象の関節についての前記対象期間における移動距離を計算し、前記複数の関節それぞれについての前記対象期間における移動距離を合計又は平均して、前記特徴量を計算する
請求項1又は2に記載の行動特定装置。 - 前記行動特定部は、特徴量と人の行動を示す行動ラベルとを対応付けた行動ルールを参照して、前記特徴量計算部によって計算された前記特徴量に対応する行動ラベルを前記被写体者の行動を示す情報として取得する
請求項1から3までのいずれか1項に記載の行動特定装置。 - 前記行動特定部は、特徴量を入力として、人の行動を示す行動ラベルを出力する行動モデルに対して、前記特徴量計算部によって計算された前記特徴量を入力することにより、前記被写体者の行動を示す行動ラベルを取得する
請求項1から4までのいずれか1項に記載の行動特定装置。 - 骨格情報取得部が、映像データに映った1人以上の人それぞれを被写体者として、前記被写体者について、骨格の複数の関節の位置を示す骨格情報を取得し、
特徴量計算部が、対象期間における前記被写体者についての前記骨格情報を時系列に並べた時系列データを用いて、前記複数の関節の移動距離を合計又は平均して、前記被写体者の特徴量を計算し、
行動特定部が、前記特徴量を入力として、前記被写体者の行動を特定する行動特定方法。 - 映像データに映った1人以上の人それぞれを被写体者として、前記被写体者について、骨格の複数の関節の位置を示す骨格情報を取得する骨格情報取得処理と、
前記骨格情報取得処理によって取得された、対象期間における前記被写体者についての前記骨格情報を時系列に並べた時系列データを用いて、前記複数の関節の移動距離を合計又は平均して、前記被写体者の特徴量を計算する特徴量計算処理と、
前記特徴量計算処理によって計算された前記特徴量を入力として、前記被写体者の行動を特定する行動特定処理と
を行う行動特定装置としてコンピュータを機能させる行動特定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/029238 WO2022024294A1 (ja) | 2020-07-30 | 2020-07-30 | 行動特定装置、行動特定方法及び行動特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6972434B1 true JP6972434B1 (ja) | 2021-11-24 |
JPWO2022024294A1 JPWO2022024294A1 (ja) | 2022-02-03 |
Family
ID=78605660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021524033A Active JP6972434B1 (ja) | 2020-07-30 | 2020-07-30 | 行動特定装置、行動特定方法及び行動特定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6972434B1 (ja) |
WO (1) | WO2022024294A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023195305A1 (ja) * | 2022-04-08 | 2023-10-12 | コニカミノルタ株式会社 | 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
JP2016099982A (ja) * | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
JP2019016268A (ja) * | 2017-07-10 | 2019-01-31 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20190294871A1 (en) * | 2018-03-23 | 2019-09-26 | Microsoft Technology Licensing, Llc | Human action data set generation in a machine learning system |
JP2020021421A (ja) * | 2018-08-03 | 2020-02-06 | 株式会社東芝 | データ分割装置、データ分割方法およびプログラム |
-
2020
- 2020-07-30 WO PCT/JP2020/029238 patent/WO2022024294A1/ja active Application Filing
- 2020-07-30 JP JP2021524033A patent/JP6972434B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
JP2016099982A (ja) * | 2014-11-26 | 2016-05-30 | 日本電信電話株式会社 | 行動認識装置、行動学習装置、方法、及びプログラム |
JP2019016268A (ja) * | 2017-07-10 | 2019-01-31 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20190294871A1 (en) * | 2018-03-23 | 2019-09-26 | Microsoft Technology Licensing, Llc | Human action data set generation in a machine learning system |
JP2020021421A (ja) * | 2018-08-03 | 2020-02-06 | 株式会社東芝 | データ分割装置、データ分割方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2022024294A1 (ja) | 2022-02-03 |
JPWO2022024294A1 (ja) | 2022-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ullah et al. | Activity recognition using temporal optical flow convolutional features and multilayer LSTM | |
JP6887586B1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
Rao et al. | Crowd event detection on optical flow manifolds | |
JP7213916B2 (ja) | 全身ポーズを生成するためのシステム | |
CN109685797B (zh) | 骨骼点检测方法、装置、处理设备及存储介质 | |
Drumond et al. | An LSTM recurrent network for motion classification from sparse data | |
CN111104925B (zh) | 图像处理方法、装置、存储介质和电子设备 | |
US10417487B2 (en) | Pattern recognition apparatus, pattern recognition method, and storage medium | |
US20230095568A1 (en) | Object tracking device, object tracking method, and program | |
Hachaj et al. | Dependence of Kinect sensors number and position on gestures recognition with Gesture Description Language semantic classifier | |
EP2899706B1 (en) | Method and system for analyzing human behavior in an intelligent surveillance system | |
CN104794446A (zh) | 基于合成描述子的人体动作识别方法及系统 | |
JP6972434B1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
Kim et al. | Interactive crowd content generation and analysis using trajectory-level behavior learning | |
KR20160087740A (ko) | 동영상에 포함된 객체의 운동 유형을 결정하기 위한 방법 및 장치 | |
Nguyen et al. | A survey of top-down approaches for human pose estimation | |
CN112861808B (zh) | 动态手势识别方法、装置、计算机设备及可读存储介质 | |
JP7080285B2 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
US11875441B2 (en) | Data-driven extraction and composition of secondary dynamics in facial performance capture | |
US10636153B2 (en) | Image processing system, image processing apparatus, and image processing method for object tracking | |
WO2022003989A1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
US20220392099A1 (en) | Stable pose estimation with analysis by synthesis | |
Chong et al. | Modeling video-based anomaly detection using deep architectures: Challenges and possibilities | |
Malek-Podjaski et al. | Adversarial Attention for Human Motion Synthesis | |
Barsoum et al. | 3d human motion anticipation and classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210506 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210506 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6972434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |