JP6887586B1 - 行動特定装置、行動特定方法及び行動特定プログラム - Google Patents
行動特定装置、行動特定方法及び行動特定プログラム Download PDFInfo
- Publication number
- JP6887586B1 JP6887586B1 JP2021503612A JP2021503612A JP6887586B1 JP 6887586 B1 JP6887586 B1 JP 6887586B1 JP 2021503612 A JP2021503612 A JP 2021503612A JP 2021503612 A JP2021503612 A JP 2021503612A JP 6887586 B1 JP6887586 B1 JP 6887586B1
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- mutual
- subject
- subjects
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 230000006399 behavior Effects 0.000 claims abstract description 237
- 230000009471 action Effects 0.000 claims abstract description 128
- 238000004364 calculation method Methods 0.000 claims description 72
- 230000008569 process Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 230000004048 modification Effects 0.000 description 33
- 238000012986 modification Methods 0.000 description 33
- 239000013598 vector Substances 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000036544 posture Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000010009 beating Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、行動認識の精度を向上させることを目的とする。
映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得部と、
前記骨格情報取得部によって取得された前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者が相互に影響を与える行動である相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る行動特定装置10の構成を説明する。
行動特定装置10は、コンピュータである。
行動特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、行動特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、行動特定装置10の各機能構成要素の機能が実現される。
図2及び図3を参照して、実施の形態1に係る行動特定装置10の動作を説明する。
実施の形態1に係る行動特定装置10の動作手順は、実施の形態1に係る行動特定方法に相当する。また、実施の形態1に係る行動特定装置10の動作を実現するプログラムは、実施の形態1に係る行動特定プログラムに相当する。
(ステップS11:映像取得処理)
映像取得部21は、カメラ31によって取得された映像データを取得する。映像取得部21は、映像データをメモリ12に書き込む。
骨格情報取得部22は、ステップS11で取得された映像データに映った1人以上の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する。
具体的には、骨格情報取得部22は、メモリ12から映像データを読み出す。骨格情報取得部22は、映像データに映った1人以上の被写体者それぞれを対象の被写体者に設定する。骨格情報取得部22は、対象の被写体者の骨格の関節の位置を特定し、被写体者を判別可能なインデックスを付与して骨格情報を生成する。関節の位置は、座標値等によって表される。骨格情報取得部22は、骨格情報をメモリ12に書き込む。
映像データに映る人の関節の位置の抽出方法としては、深層学習を用いる方法と、対象者の関節の位置に物理的にマーカを付け、マーカを識別することで関節を特定する方法等がある。
相関判定部23は、ステップS12で2人以上の骨格情報が取得されたか否かを判定する。つまり、相関判定部23は、映像データに2人以上の人が映っていたか否かを判定する。
相関判定部23は、2人以上の骨格情報が抽出された場合には、2人以上の骨格情報が取得されたと判定し、処理をステップS14に進める。一方、相関判定部23は、そうでない場合には、処理をステップS11に戻す。
相関判定部23は、ステップS12で骨格情報が取得された複数の被写体者が互いに影響を与える行動である相互行動を行っているか否かを判定する。相互行動とは、複数の人の間で互いに影響を与えるような行動のことである。具体例としては、2人が手を伸ばして握り合う握手と、2人のうち1人がもう一方を殴る暴力行為といった行動である。
具体的には、相関判定部23は、2つ以上の骨格情報の組を対象として、対象の組に含まれる骨格情報が示す骨格間の距離が設定した閾値よりも小さければ、その組の骨格情報が示す骨格は相互行動行っている組であると判定する。また、相関判定部23は、2つ以上の骨格情報の組を対象として、対象の組の骨格情報が示す骨格のある関節の位置の変化量又は変化の時刻が相互に相関していれば、その組の骨格情報が示す骨格は相互行動行っている組であると判定してもよい。
相関判定部23は、相互行動を行っていると判定された組があった場合には、相互行動行っている組であると判定された各組について、その組に含まれる骨格情報のインデックスをメモリ12に書き込む。そして、相関判定部23は、処理をステップS15に進める。一方、相関判定部23は、相互行動を行っていると判定された組がなかった場合には、処理をステップS11に戻す。
行動特定部24は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。行動特定部24は、ステップS12で取得された対象の組に含まれる複数の被写体者それぞれについての骨格情報から、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者それぞれの行動を特定する。
(ステップS21:個別特定処理)
個別特定部25は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。個別特定部25は、対象の組に含まれる複数の被写体者それぞれを対象として、対象の被写体者の骨格情報から、対象の被写体者についての行動を個別行動として特定する。
具体的には、個別特定部25は、人の骨格情報を入力として、その人の行動を示す個別ラベルを出力する個別モデルを利用して、個別行動を特定する。個別モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、個別特定部25は、個別モデルに対して、対象の被写体者の骨格情報を入力することにより、対象の被写体者の個別行動を示す個別ラベルを取得する。個別特定部25は、個別ラベルをメモリ12に書き込む。
個別ラベルが示す個別行動は、1人の人としての行動である。したがって、個別行動は、例えば、「腕を前に伸ばす」、「倒れる」、「仰け反る」といった行動である。
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS21で特定された対象の組に含まれる複数の被写体者それぞれについての個別行動から、相互行動を考慮して、対象の組に含まれる複数の被写体者全体としての行動を特定する。相互行動を考慮するとは、ある被写体者の行動を特定する場合に、他の被写体者の行動を考慮するという意味である。つまり、相互行動を考慮するとは、他の被写体者の行動に基づき、ある被写体者の行動を特定するという意味である。
具体的には、相互特定部26は、複数の人それぞれの個別行動を示す個別ラベルの組を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS21で特定された対象の組に含まれる複数の被写体者それぞれについての個別ラベルの組を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
相互ラベルが示す行動は、複数の人としての行動である。したがって、相互ラベルが示す行動は、例えば、「握手をする」、「一方の人が殴り、他方の人が殴られる」といった行動である。具体例としては、対象の組に含まれる被写体者が2人であり、両方の被写体者の個別行動が「腕を前に伸ばす」である場合には、相互ラベルが示す行動は、「握手」になる。また、対象の組に含まれる被写体者が2人であり、一方の被写体者の個別行動が「腕を前に伸ばす」であり、他方の被写体者の個別行動が「仰け反る」である場合には、相互ラベルが示す行動は「暴力」になる。また、対象の組に含まれる被写体者が3人以上の場合であっても、同様にそれぞれの動作の組合せで行動を特定することができる。
以上のように、実施の形態1に係る行動特定装置10は、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
<変形例1>
実施の形態1では、ニューラルネットワーク等を用いて生成された学習済みのモデルである個別モデル及び相互モデルを用いて行動を特定した。しかし、個別モデル及び相互モデルの少なくとも一方に代えて、入力と出力とを対応付けたルールが用いられてもよい。
個別モデルの代わりに個別ルールが用いられる場合には、図3のステップS21で個別特定部25は、個別ルールを参照して、対象の被写体者の骨格情報に対応する個別ラベルを対象の被写体者の個別行動を示す情報として取得する。この際、個別特定部25は、対象の被写体者の骨格情報と最も類似度が高い骨格情報と対応付けられた個別ラベルを対象の被写体者の個別行動を示す情報として取得する。
相互モデルの代わりに相互ルールが用いられる場合には、図3のステップS22で相互特定部26は、相互ルールを参照して、複数の被写体者それぞれについての個別ラベルの組に対応する相互ラベルを複数の被写体者全体としての行動を示す情報として取得する。
実施の形態1では、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、さらに各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の個別ラベルとから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態1では、2人の組である場合に、一方の被写体者の個別行動が「腕を前に伸ばす」であり、他方の被写体者の個別行動が「仰け反る」である場合には、相互ラベルが示す行動は「殴る」になるという例を説明した。この例では、個別行動が「腕を前に伸ばす」である被写体者の行動は「相手を殴る」になり、個別行動が「仰け反る」である被写体者の行動は、「相手から殴られる」になる。
実施の形態1では、個別モデル及び相互モデルは、ストレージ13に記憶されると説明した。しかし、個別モデル及び相互モデルは、行動特定装置10の外部の記憶装置に記憶されていてもよい。この場合には、行動特定装置10は、通信インタフェース14を介して、個別モデル及び相互モデルにアクセスすればよい。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例4として、各機能構成要素はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、行動特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例5として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2では、個別モデル及び相互モデルの生成処理について説明する。
図5を参照して、実施の形態2に係る学習装置50の構成を説明する。
学習装置50は、コンピュータである。
学習装置50は、プロセッサ51と、メモリ52と、ストレージ53と、通信インタフェース54とのハードウェアを備える。プロセッサ51は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
学習装置50は、通信インタフェース54を介して行動特定装置10と接続されている。
ストレージ13には、学習装置50の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ51によりメモリ52に読み込まれ、プロセッサ51によって実行される。これにより、学習装置50の各機能構成要素の機能が実現される。
図6及び図7を参照して、実施の形態2に係る学習装置50の動作を説明する。
実施の形態2に係る学習装置50の動作手順は、実施の形態2に係る学習方法に相当する。また、実施の形態2に係る学習装置50の動作を実現するプログラムは、実施の形態2に係る学習プログラムに相当する。
(ステップS31:学習データ取得処理)
学習データ取得部61は、人の骨格の関節の位置を示す骨格情報と、その人の行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された行動を実際に行った人を撮像して得られた映像データから骨格情報を特定することによって生成される。つまり、抽出された骨格情報と、指定された行動とが関連付けられて学習データとされる。骨格情報は、映像データの1つのフレームから特定された関節の位置だけを含むベクトルデータであってもよいし、複数のフレームから特定された関節の位置を含む行列データであってもよい。
モデル生成部62は、ステップS31で取得された学習データを入力として、学習を行い、個別モデルを生成する。モデル生成部62は、個別モデルを行動特定装置10のストレージ13に書き込む。
実施の形態2では、モデル生成部62は、学習データを入力として、骨格の関節の位置と行動との関係をニューラルネットワークに学習させる。例えば、モデル生成部62は、骨格情報が肩と肘と手首との位置が一直線に並び、かつ、それぞれの垂直方向の位置が同等であることを示していれば、それは「腕を前に伸ばす」動作を表していることを学習させる。用いられるニューラルネットワークの構成はDNN(深層ニューラルネットワーク)と、CNN(畳み込みニューラルネットワーク)と、RNN(再帰型ニューラルネットワーク)といった周知のものでよい。
(ステップS41:学習データ取得処理)
学習データ取得部61は、複数の個別ラベルの組と、相互行動が考慮された複数の人それぞれの行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された相互行動を実際に行った場合における、複数の人それぞれの個別行動を示す個別ラベルと、相互行動における複数の人としての行動とが関連付けられて生成される。
モデル生成部62は、ステップS41で取得された学習データを入力として、学習を行い、相互モデルを生成する。モデル生成部62は、相互モデルを行動特定装置10のストレージ13に書き込む。
実施の形態2では、モデル生成部62は、学習データを入力として、複数の個別ラベルの組と、相互行動が考慮された複数の人としての行動との関係をニューラルネットワークに学習させる。例えば、モデル生成部62は、2人の組である場合に、両方の被写体者の個別行動が「腕を前に伸ばす」である場合には、両方の被写体者について相互ラベルが示す行動は、「握手」であることを学習させる。用いられるニューラルネットワークの構成はDNN(深層ニューラルネットワーク)と、CNN(畳み込みニューラルネットワーク)と、RNN(再帰型ニューラルネットワーク)といった周知のものでよい。
以上のように、実施の形態2に係る学習装置50は、学習データに基づき、行動特定装置10が用いる個別モデル及び相互モデルを生成する。これにより、適切な学習データを与えることで、行動特定装置10が用いる個別モデル及び相互モデルの認識精度を高くすることができる。
<変形例6>
変形例1で説明したように、行動特定装置10は、個別モデルに代えて個別ルールを用いてもよいし、相互モデルに代えて相互ルールを用いてもよい。
実施の形態2では、各機能構成要素がソフトウェアで実現された。しかし、変形例7として、各機能構成要素はハードウェアで実現されてもよい。この変形例7について、実施の形態2と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、学習装置50は、プロセッサ51とメモリ52とストレージ53とに代えて、電子回路55を備える。電子回路55は、各機能構成要素と、メモリ52と、ストレージ53との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路55で実現してもよいし、各機能構成要素を複数の電子回路55に分散させて実現してもよい。
変形例8として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態3は、複数の骨格情報から計算された特徴量から、相互行動を考慮して複数の被写体者全体としての行動が特定される点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
図9を参照して、実施の形態3に係る行動特定装置10の構成を説明する。
行動特定装置10は、行動特定部24が、個別特定部25に代えて、特徴量計算部27を備える点が図1に示す行動特定装置10と異なる。特徴量計算部27の機能は、他の機能と同様に、ソフトウェア又はハードウェアによって実現される。
図10を参照して、実施の形態3に係る行動特定装置10の動作を説明する。
実施の形態3に係る行動特定装置10の動作手順は、実施の形態3に係る行動特定方法に相当する。また、実施の形態3に係る行動特定装置10の動作を実現するプログラムは、実施の形態3に係る行動特定プログラムに相当する。
(ステップS51:特徴量計算処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報に基づき特徴量を計算する。
具体的には、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報を統合して特徴量を計算する。あるいは、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報から特徴量を抽出してもよい。
ここで、特徴量の計算は、複数の骨格間の関節の位置関係について情報が保持されるよう処理される。例えば、骨格情報は、骨格の関節位置を示す座標が1人の骨格情報あたりm個あり、その骨格がm次元ベクトルで表現されているとする。n人分の骨格情報を総合する場合には、m次元ベクトルをn個連結させた(m×n)次元ベクトル、又は、m行n列の行列が特徴量となる。あるいは、複数の骨格間における任意の関節の間の距離についての時間変化を要素として持つベクトル又は行列が特徴量となる。複数の骨格間における任意の関節の間の距離とは、例えば、骨格Aの首と、骨格Bの手首との間の距離である。
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS51で特定された対象の組に含まれる複数の被写体者の骨格情報の特徴量を入力として、相互行動を考慮して、複数の被写体者全体としての行動を特定する。
具体的には、相互特定部26は、複数の人の骨格情報の特徴量を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS51で計算された特徴量を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
以上のように、実施の形態3に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
<変形例9>
実施の形態3では、ニューラルネットワーク等を用いて生成された学習済みのモデルである相互モデルを用いて行動を特定した。しかし、変形例1と同様に、相互モデルに代えて相互ルールが用いられてもよい。
相互ルールは、複数の人の骨格情報の特徴量と複数の人としての行動を示す相互ラベルとを対応付けたルールである。相互モデルの代わりに相互ルールが用いられる場合には、図10のステップS52で相互特定部26は、相互ルールを参照して、特徴量に対応する相互ラベルを複数の被写体者全体としての被写体者の行動を示す情報として取得する。
実施の形態3では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態4は、実施の形態3に係る相互モデルを生成する点が実施の形態2と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3では、個別モデルは用いられないため、実施の形態4では、個別モデルは生成されない。
図7を参照して、実施の形態4に係る学習装置50の動作を説明する。
実施の形態4に係る学習装置50の動作手順は、実施の形態4に係る学習方法に相当する。また、実施の形態4に係る学習装置50の動作を実現するプログラムは、実施の形態4に係る学習プログラムに相当する。
(ステップS41:学習データ取得処理)
学習データ取得部61は、複数の人の骨格情報の特徴量と、複数の人としての行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された相互行動を実際に行った複数の人を撮像して得られた映像データから特徴量を計算することによって生成される。つまり、計算された特徴量と、指定された相互行動における各人の行動とが関連付けられて学習データとされる。
モデル生成部62は、ステップS31で取得された学習データを入力として、学習を行い、相互モデルを生成する。モデル生成部62は、相互モデルを行動特定装置10のストレージ13に書き込む。
以上のように、実施の形態4に係る学習装置50は、学習データに基づき、行動特定装置10が用いる相互モデルを生成する。これにより、適切な学習データを与えることで、行動特定装置10が用いる個別モデル及び相互モデルの認識精度を高くすることができる。
<変形例11>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
実施の形態5は、骨格情報から特徴量を計算する方法が実施の形態3と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
(ステップS51:特徴量計算処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報に基づき特徴量を計算する。特徴量計算部27は、特徴量を、ストレージ13によって実現される特徴量データベースに書き込む。
具体的には、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報から特徴量を計算する。そして、特徴量計算部27は、計算した特徴量に、現在時刻tをインデックスとして付与して、特徴量データベースに書き込む。
算出される特徴量及びその算出方法については後述する。
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS51で特定された対象の組に含まれる複数の被写体者の骨格情報の特徴量を入力として、相互行動を考慮して、複数の被写体者全体としての行動を特定する。
具体的には、相互特定部26は、対象の組に含まれる複数の被写体者についての特徴量を特徴量データベースから取得する。そして、相互特定部26は、複数の人の特徴量を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS51で計算された特徴量を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
(ステップS61:骨格情報取得処理)
特徴量計算部27は、相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻の骨格情報と1時刻前の骨格情報とを骨格情報データベースから取得する。
特徴量計算部27は、ステップS61で取得された複数の被写体者それぞれの現在時刻の骨格情報と1時刻前の骨格情報とを用いて特徴量を算出する。
具体的には、特徴量計算部27は、ステップS61で取得された、時系列的に連続する2フレームの画像間における被写体者についての骨格の各関節の移動距離を要素に持つベクトル又は行列を計算する。このようにして計算される各関節の移動距離は、2フレームの画像間で生じる時間幅に対する各関節の移動距離であるため、各関節の速度とみなすことができる。そして、特徴量計算部27は、各関節の速度の合計又は平均を取って得られるスカラーを被写体者の骨格全体の速度とし、この速度を特徴量とする。
また、特徴量計算部27は、被写体者の数だけ計算された特徴量を合計する又は平均を取る等して1つの特徴量としてもよい。
補完の方法としては、関節の位置が取得できなかった時刻の特徴量を1時刻前の特徴量とする、又は、関節の位置が取得できなかった時刻の特徴量を過去数時刻分の特徴量の変位から線形補完して計算することが考えられる。あるいは、特徴量計算部27は、関節の位置が取得できた関節群全体の速度から1関節当たりの速度の平均値を算出し、関節の位置が取得できなかった関節の速度としても、関節の位置が取得できなかった関節の周囲の関節から成り、関節の位置が取得できた関節群の速度から1関節当たりの速度の平均値を計算し、関節の位置が取得できなかった関節の速度としてもよい。また、特徴量計算部27は、取得できなかった右膝の位置を左膝の位置で補完するというように、取得できなかった関節と左右で対になっている関節、あるいは連結する関節の位置で補完してもよい。
以上のように、実施の形態5に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
<変形例12>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
実施の形態5では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態6は、骨格情報から特徴量を計算する方法が実施の形態3,5と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態6では、実施の形態5と異なる点を説明する。
(ステップS71:骨格情報取得処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻tからN時刻前までの骨格情報を骨格情報データベースから取得する。特徴量計算部27は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
時系列データは、例えば数秒といったある程度の長さをもった対象期間分の骨格情報を時系列に並べたデータであり、2つ以上の時刻における骨格情報を時系列に並べたデータであることが望ましく、さらに3つ以上の時刻における骨格情報を時系列に並べたデータであることが望ましい。
特徴量計算部27は、ステップS71で生成された骨格情報の時系列データにおいて、時系列に連続する2つの時刻の骨格情報間における対象の被写体者の骨格の各関節の移動距離を計算する。具体的には、特徴量計算部27は、各関節を対象として、2つの時刻の骨格情報間における対象の関節の位置の差分を計算することによって、対象の関節の移動距離を計算する。特徴量計算部27は、各関節の移動距離を要素とするベクトルあるいは行列を生成する。以下では、各関節の移動距離を要素とするベクトルが生成されたとして説明する。
特徴量計算部27は、ステップS22で生成された、各関節の移動距離を要素とするベクトルを時間方向に合計する。つまり、特徴量計算部27は、各関節を対象として、対象の関節について計算された2つの時刻の間における移動距離を合計する。このようにして計算された値は、現在時刻tから過去時刻t−Nまでの時間幅Nにおける各関節の移動距離の総和である。そのため、この値は、時間幅Nにおける各関節の運動量とみなすことができる。
特徴量計算部27は、全関節の運動量を合計する、あるいは、平均値を取る等してスカラーとし、このスカラーを時間幅Nにおける被写体者の骨格全体の運動量とみなす。そして、特徴量計算部27は、この運動量を特徴量とする。
以上のように、実施の形態6に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
<変形例14>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
実施の形態6では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態7は、骨格情報から算出される特徴量が異なるという点で実施の形態3,5,6と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態7では、実施の形態6と異なる点を説明する。
(ステップS81:骨格情報取得処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻tからN時刻前までの骨格情報を骨格情報データベースから取得する。特徴量計算部27は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
特徴量計算部27は、ステップS81で生成された対象の被写体者の骨格情報の時系列データが表す、現在時刻tから過去時刻t−N間の各時刻における被写体者の骨格の関節の位置の情報を時系列に並べたベクトルあるいは行列を特徴量として生成する。以下では、関節の位置の情報を時系列に並べたベクトルが生成されたとして説明する。このようにして生成されたベクトルは、時系列に並んだ骨格の関節の位置の情報を要素として持つ。そのため、時刻tから時刻t−Nにおける関節の移動経路、つまり動作の軌跡を表す。
このとき、関節の位置の情報は、2次元画像内から抽出された骨格情報を対象としていれば、水平方向の位置を表す座標値xと垂直方向の位置を表す座標値yとを用いて(x,y)といった具合に表される。
以上のように、実施の形態7に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
<変形例16>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
<変形例17>
実施の形態7では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
Claims (16)
- 映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得部と、
前記骨格情報取得部によって取得された複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定する相関判定部と、
前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定する行動特定部であって、前記相関判定部によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定部と
を備える行動特定装置。 - 前記行動特定部は、
前記複数の被写体者それぞれを対象として、対象の被写体者の前記骨格情報から、前記対象の被写体者についての行動を個別行動として特定する個別特定部と、
前記個別特定部によって特定された前記複数の被写体者それぞれについての前記個別行動から、前記相互行動を考慮して、前記複数の被写体者としての行動を特定する相互特定部と
を備える請求項1に記載の行動特定装置。 - 前記個別特定部は、人の骨格情報を入力として、その人の行動を示す個別ラベルを出力する個別モデルに対して、前記対象の被写体者の前記骨格情報を入力することにより、前記対象の被写体者の前記個別行動を示す個別ラベルを取得する
請求項2に記載の行動特定装置。 - 前記個別特定部は、人の骨格情報と人の行動を示す個別ラベルとを対応付けた個別ルールを参照して、前記対象の被写体者の前記骨格情報に対応する個別ラベルを前記対象の被写体者の前記個別行動を示す情報として取得する
請求項2に記載の行動特定装置。 - 前記相互特定部は、複数の人それぞれの個別行動を示す個別ラベルの組を入力として、前記相互行動を考慮して前記複数の人としての行動を示す相互ラベルを出力する相互モデルに対して、前記個別特定部によって特定された前記複数の被写体者それぞれについての個別ラベルの組を入力することにより、前記複数の被写体者としての行動を示す相互ラベルを取得する
請求項2から4までのいずれか1項に記載の行動特定装置。 - 前記相互特定部は、複数の人それぞれの個別行動を示す個別ラベルの組と前記複数の人としての行動を示す相互ラベルとを対応付けた相互ルールを参照して、前記個別特定部によって特定された前記複数の被写体者それぞれについての個別ラベルの組に対応する相互ラベルを前記複数の被写体者としての行動を示す情報として取得する
請求項2から4までのいずれか1項に記載の行動特定装置。 - 前記相互特定部は、前記複数の被写体者それぞれを対象として、前記複数の被写体者としての行動と、対象の被写体者についての個別行動とから、前記複数の被写体者としての行動における前記対象の被写体者についての行動を特定する
請求項2から6までのいずれか1項に記載の行動特定装置。 - 前記行動特定部は、
前記複数の被写体者それぞれについての前記骨格情報に基づき特徴量を計算する特徴量計算部と、
前記特徴量計算部によって計算された前記特徴量を入力として、前記相互行動を考慮して、前記複数の被写体者としての行動を特定する相互特定部と
を備える請求項1に記載の行動特定装置。 - 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の速度を前記特徴量として計算する
請求項8に記載の行動特定装置。 - 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の運動量を前記特徴量として計算する
請求項8に記載の行動特定装置。 - 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の動作の軌跡を前記特徴量として計算する
請求項8に記載の行動特定装置。 - 前記相互特定部は、複数の人の骨格情報の特徴量を入力として、前記相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルに対して、前記特徴量計算部によって計算された前記特徴量を入力することにより、前記複数の被写体者としての行動を示す相互ラベルを取得する
請求項8から11までのいずれか1項に記載の行動特定装置。 - 前記相互特定部は、複数の人の骨格情報の特徴量と前記複数の人としての行動を示す相互ラベルとを対応付けた相互ルールを参照して、前記特徴量計算部によって計算された前記特徴量に対応する相互ラベルを前記複数の被写体者としての被写体者の行動を示す情報として取得する
請求項8から11までのいずれか1項に記載の行動特定装置。 - 前記相互特定部は、前記複数の被写体者それぞれを対象として、前記複数の被写体者としての行動と、対象の被写体者についての骨格情報とから、前記複数の被写体者としての行動における前記対象の被写体者についての行動を特定する
請求項8から13までのいずれか1項に記載の行動特定装置。 - 行動特定装置の骨格情報取得部が、映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得し、
前記行動特定装置の相関判定部が、複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定し、
前記行動特定装置の行動特定部が、前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定し、前記相関判定部によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定方法。 - 映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得処理と、
前記骨格情報取得処理によって取得された複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定する相関判定処理と、
前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定する行動特定処理であって、前記相関判定処理によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定処理と
を行う行動特定装置としてコンピュータを機能させる行動特定プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPPCT/JP2020/026277 | 2020-07-03 | ||
PCT/JP2020/026277 WO2022003981A1 (ja) | 2020-07-03 | 2020-07-03 | 行動特定装置、行動特定方法及び行動特定プログラム |
PCT/JP2020/029244 WO2022003989A1 (ja) | 2020-07-03 | 2020-07-30 | 行動特定装置、行動特定方法及び行動特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6887586B1 true JP6887586B1 (ja) | 2021-06-16 |
JPWO2022003989A1 JPWO2022003989A1 (ja) | 2022-01-06 |
Family
ID=76310242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503612A Active JP6887586B1 (ja) | 2020-07-03 | 2020-07-30 | 行動特定装置、行動特定方法及び行動特定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6887586B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7042956B1 (ja) * | 2021-09-10 | 2022-03-28 | 株式会社エクサウィザーズ | 情報処理方法、情報処理装置、及びプログラム |
WO2022269708A1 (ja) * | 2021-06-21 | 2022-12-29 | 日本電信電話株式会社 | 情報処理装置及び情報処理方法 |
WO2023152983A1 (ja) * | 2022-02-14 | 2023-08-17 | 三菱電機株式会社 | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム |
JP7491462B2 (ja) | 2020-08-19 | 2024-05-28 | 日本電気株式会社 | 因果相互作用検出装置、制御方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018089221A1 (en) * | 2016-11-09 | 2018-05-17 | Microsoft Technology Licensing, Llc | Neural network-based action detection |
JP2019046481A (ja) * | 2013-01-18 | 2019-03-22 | キヤノンメディカルシステムズ株式会社 | 動作情報処理装置 |
JP2020027496A (ja) * | 2018-08-14 | 2020-02-20 | 富士ゼロックス株式会社 | 監視装置、監視システム、及びプログラム |
JP6692086B1 (ja) * | 2019-12-16 | 2020-05-13 | 株式会社アジラ | 異常行動検出装置 |
-
2020
- 2020-07-30 JP JP2021503612A patent/JP6887586B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046481A (ja) * | 2013-01-18 | 2019-03-22 | キヤノンメディカルシステムズ株式会社 | 動作情報処理装置 |
WO2018089221A1 (en) * | 2016-11-09 | 2018-05-17 | Microsoft Technology Licensing, Llc | Neural network-based action detection |
JP2020027496A (ja) * | 2018-08-14 | 2020-02-20 | 富士ゼロックス株式会社 | 監視装置、監視システム、及びプログラム |
JP6692086B1 (ja) * | 2019-12-16 | 2020-05-13 | 株式会社アジラ | 異常行動検出装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7491462B2 (ja) | 2020-08-19 | 2024-05-28 | 日本電気株式会社 | 因果相互作用検出装置、制御方法、及びプログラム |
WO2022269708A1 (ja) * | 2021-06-21 | 2022-12-29 | 日本電信電話株式会社 | 情報処理装置及び情報処理方法 |
JP7042956B1 (ja) * | 2021-09-10 | 2022-03-28 | 株式会社エクサウィザーズ | 情報処理方法、情報処理装置、及びプログラム |
WO2023152983A1 (ja) * | 2022-02-14 | 2023-08-17 | 三菱電機株式会社 | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム |
JP7374401B1 (ja) | 2022-02-14 | 2023-11-06 | 三菱電機株式会社 | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022003989A1 (ja) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6887586B1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
Ullah et al. | Activity recognition using temporal optical flow convolutional features and multilayer LSTM | |
Zhang et al. | Fusing geometric features for skeleton-based action recognition using multilayer LSTM networks | |
Song et al. | Richly activated graph convolutional network for robust skeleton-based action recognition | |
Nunez et al. | Convolutional neural networks and long short-term memory for skeleton-based human activity and hand gesture recognition | |
Zhang et al. | On geometric features for skeleton-based action recognition using multilayer lstm networks | |
Ge et al. | Robust 3D hand pose estimation from single depth images using multi-view CNNs | |
Liao et al. | Natural language guided visual relationship detection | |
Zhu et al. | A cuboid CNN model with an attention mechanism for skeleton-based action recognition | |
Shi et al. | Multiscale multitask deep NetVLAD for crowd counting | |
Xu et al. | Spatiotemporal decouple-and-squeeze contrastive learning for semisupervised skeleton-based action recognition | |
Elmadany et al. | Information fusion for human action recognition via biset/multiset globality locality preserving canonical correlation analysis | |
Liu et al. | Human pose estimation in video via structured space learning and halfway temporal evaluation | |
Li et al. | Time3d: End-to-end joint monocular 3d object detection and tracking for autonomous driving | |
Drumond et al. | An LSTM recurrent network for motion classification from sparse data | |
Wang et al. | Contrast-reconstruction representation learning for self-supervised skeleton-based action recognition | |
Das et al. | MMHAR-EnsemNet: A multi-modal human activity recognition model | |
Liu et al. | Orientation Cues-Aware Facial Relationship Representation for Head Pose Estimation via Transformer | |
Hachaj et al. | Dependence of Kinect sensors number and position on gestures recognition with Gesture Description Language semantic classifier | |
Ben Tamou et al. | Automatic learning of articulated skeletons based on mean of 3D joints for efficient action recognition | |
Baumann et al. | Action graph a versatile data structure for action recognition | |
Wang et al. | 3D Skeleton-based Few-shot Action Recognition with JEANIE is not so Na\" ive | |
JP6972434B1 (ja) | 行動特定装置、行動特定方法及び行動特定プログラム | |
Pham et al. | An efficient feature fusion of graph convolutional networks and its application for real-time traffic control gestures recognition | |
Tian et al. | Joints kinetic and relational features for action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210121 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210121 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210518 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6887586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |