JP6887586B1 - 行動特定装置、行動特定方法及び行動特定プログラム - Google Patents

行動特定装置、行動特定方法及び行動特定プログラム Download PDF

Info

Publication number
JP6887586B1
JP6887586B1 JP2021503612A JP2021503612A JP6887586B1 JP 6887586 B1 JP6887586 B1 JP 6887586B1 JP 2021503612 A JP2021503612 A JP 2021503612A JP 2021503612 A JP2021503612 A JP 2021503612A JP 6887586 B1 JP6887586 B1 JP 6887586B1
Authority
JP
Japan
Prior art keywords
behavior
mutual
subject
subjects
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503612A
Other languages
English (en)
Other versions
JPWO2022003989A1 (ja
Inventor
浩平 望月
浩平 望月
勝大 草野
勝大 草野
奥村 誠司
誠司 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP2020/026277 external-priority patent/WO2022003981A1/ja
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6887586B1 publication Critical patent/JP6887586B1/ja
Publication of JPWO2022003989A1 publication Critical patent/JPWO2022003989A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

骨格情報取得部(22)は、映像取得部(21)によって取得された映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する。行動特定部(24)は、骨格情報取得部(22)によって取得された複数の被写体者それぞれについての骨格情報から、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者としての行動を特定する。

Description

本開示は、人の骨格の関節の位置を示す骨格情報に基づき、人の行動を特定する技術に関する。
特許文献1には、骨格情報を用いた人の行動認識技術が記載されている。特許文献1に記載された技術では、映像に映った人それぞれを対象として、対象の人の周辺の画像情報が取得され、対象の人の骨格情報が抽出され、骨格情報から対象の人の動作を確認可能な画像情報が生成される。そして、生成された画像情報と予め記憶されている判定人物属性の画像情報とに基づき、対象の人の属性が判定人物属性であるかが判定される。
特開2019−046481号公報
特許文献1に記載された技術では、対象の人についての1人分の骨格情報を基にして行動認識している。そのため、「握手する」と「殴る」とのように「腕を前に伸ばす」という点でその姿勢及び動作が類似している行動については、正しく判別できない可能性がある。
本開示は、行動認識の精度を向上させることを目的とする。
本開示に係る行動特定装置は、
映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得部と、
前記骨格情報取得部によって取得された前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者が相互に影響を与える行動である相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定部と
を備える。
本開示では、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
実施の形態1に係る行動特定装置10の構成図。 実施の形態1に係る行動特定装置10の全体的な動作を示すフローチャート。 実施の形態1に係る行動特定処理のフローチャート。 変形例3に係る行動特定装置10の構成図。 実施の形態2に係る学習装置50の構成図。 実施の形態2に係る学習装置50が個別モデルを生成する動作を示すフローチャート。 実施の形態2に係る学習装置50が相互モデルを生成する動作を示すフローチャート。 変形例6に係る学習装置50の構成図。 実施の形態3に係る行動特定装置10の構成図。 実施の形態3に係る行動特定装置10の動作を示すフローチャート。 実施の形態5に係る特徴量計算処理のフローチャート。 実施の形態6に係る特徴量計算処理のフローチャート。 実施の形態7に係る特徴量計算処理のフローチャート。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る行動特定装置10の構成を説明する。
行動特定装置10は、コンピュータである。
行動特定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
行動特定装置10は、通信インタフェース14を介して、カメラ31と接続されている。カメラ31は、一般的な2D(Dimension)カメラであってもよいが、3Dカメラであってもよい。カメラ31として3Dカメラを用いることにより、奥行に関する情報も得られる。そのため、後述する処理において、人の関節の位置を適切に特定可能になる。
行動特定装置10は、機能構成要素として、映像取得部21と、骨格情報取得部22と、相関判定部23と、行動特定部24とを備える。行動特定部24は、個別特定部25と、相互特定部26とを備える。行動特定装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、行動特定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、行動特定装置10の各機能構成要素の機能が実現される。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図2及び図3を参照して、実施の形態1に係る行動特定装置10の動作を説明する。
実施の形態1に係る行動特定装置10の動作手順は、実施の形態1に係る行動特定方法に相当する。また、実施の形態1に係る行動特定装置10の動作を実現するプログラムは、実施の形態1に係る行動特定プログラムに相当する。
図2を参照して、実施の形態1に係る行動特定装置10の全体的な動作を説明する。
(ステップS11:映像取得処理)
映像取得部21は、カメラ31によって取得された映像データを取得する。映像取得部21は、映像データをメモリ12に書き込む。
(ステップS12:骨格情報取得処理)
骨格情報取得部22は、ステップS11で取得された映像データに映った1人以上の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する。
具体的には、骨格情報取得部22は、メモリ12から映像データを読み出す。骨格情報取得部22は、映像データに映った1人以上の被写体者それぞれを対象の被写体者に設定する。骨格情報取得部22は、対象の被写体者の骨格の関節の位置を特定し、被写体者を判別可能なインデックスを付与して骨格情報を生成する。関節の位置は、座標値等によって表される。骨格情報取得部22は、骨格情報をメモリ12に書き込む。
骨格情報取得部22は、映像データを構成するある1つのフレームから特定された関節の位置を骨格情報に含めてもよいし、映像データを構成する複数のフレームから特定された関節の位置を骨格情報に含めてもよい。
映像データに映る人の関節の位置の抽出方法としては、深層学習を用いる方法と、対象者の関節の位置に物理的にマーカを付け、マーカを識別することで関節を特定する方法等がある。
(ステップS13:人数判定処理)
相関判定部23は、ステップS12で2人以上の骨格情報が取得されたか否かを判定する。つまり、相関判定部23は、映像データに2人以上の人が映っていたか否かを判定する。
相関判定部23は、2人以上の骨格情報が抽出された場合には、2人以上の骨格情報が取得されたと判定し、処理をステップS14に進める。一方、相関判定部23は、そうでない場合には、処理をステップS11に戻す。
(ステップS14:相関判定処理)
相関判定部23は、ステップS12で骨格情報が取得された複数の被写体者が互いに影響を与える行動である相互行動を行っているか否かを判定する。相互行動とは、複数の人の間で互いに影響を与えるような行動のことである。具体例としては、2人が手を伸ばして握り合う握手と、2人のうち1人がもう一方を殴る暴力行為といった行動である。
具体的には、相関判定部23は、2つ以上の骨格情報の組を対象として、対象の組に含まれる骨格情報が示す骨格間の距離が設定した閾値よりも小さければ、その組の骨格情報が示す骨格は相互行動行っている組であると判定する。また、相関判定部23は、2つ以上の骨格情報の組を対象として、対象の組の骨格情報が示す骨格のある関節の位置の変化量又は変化の時刻が相互に相関していれば、その組の骨格情報が示す骨格は相互行動行っている組であると判定してもよい。
相関判定部23は、相互行動を行っていると判定された組があった場合には、相互行動行っている組であると判定された各組について、その組に含まれる骨格情報のインデックスをメモリ12に書き込む。そして、相関判定部23は、処理をステップS15に進める。一方、相関判定部23は、相互行動を行っていると判定された組がなかった場合には、処理をステップS11に戻す。
(ステップS15:行動特定処理)
行動特定部24は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。行動特定部24は、ステップS12で取得された対象の組に含まれる複数の被写体者それぞれについての骨格情報から、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者それぞれの行動を特定する。
図3を参照して、実施の形態1に係る行動特定処理(図2のステップS15)を説明する。
(ステップS21:個別特定処理)
個別特定部25は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。個別特定部25は、対象の組に含まれる複数の被写体者それぞれを対象として、対象の被写体者の骨格情報から、対象の被写体者についての行動を個別行動として特定する。
具体的には、個別特定部25は、人の骨格情報を入力として、その人の行動を示す個別ラベルを出力する個別モデルを利用して、個別行動を特定する。個別モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、個別特定部25は、個別モデルに対して、対象の被写体者の骨格情報を入力することにより、対象の被写体者の個別行動を示す個別ラベルを取得する。個別特定部25は、個別ラベルをメモリ12に書き込む。
個別ラベルが示す個別行動は、1人の人としての行動である。したがって、個別行動は、例えば、「腕を前に伸ばす」、「倒れる」、「仰け反る」といった行動である。
(ステップS22:相互特定処理)
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS21で特定された対象の組に含まれる複数の被写体者それぞれについての個別行動から、相互行動を考慮して、対象の組に含まれる複数の被写体者全体としての行動を特定する。相互行動を考慮するとは、ある被写体者の行動を特定する場合に、他の被写体者の行動を考慮するという意味である。つまり、相互行動を考慮するとは、他の被写体者の行動に基づき、ある被写体者の行動を特定するという意味である。
具体的には、相互特定部26は、複数の人それぞれの個別行動を示す個別ラベルの組を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS21で特定された対象の組に含まれる複数の被写体者それぞれについての個別ラベルの組を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
相互ラベルが示す行動は、複数の人としての行動である。したがって、相互ラベルが示す行動は、例えば、「握手をする」、「一方の人が殴り、他方の人が殴られる」といった行動である。具体例としては、対象の組に含まれる被写体者が2人であり、両方の被写体者の個別行動が「腕を前に伸ばす」である場合には、相互ラベルが示す行動は、「握手」になる。また、対象の組に含まれる被写体者が2人であり、一方の被写体者の個別行動が「腕を前に伸ばす」であり、他方の被写体者の個別行動が「仰け反る」である場合には、相互ラベルが示す行動は「暴力」になる。また、対象の組に含まれる被写体者が3人以上の場合であっても、同様にそれぞれの動作の組合せで行動を特定することができる。
***実施の形態1の効果***
以上のように、実施の形態1に係る行動特定装置10は、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
***他の構成***
<変形例1>
実施の形態1では、ニューラルネットワーク等を用いて生成された学習済みのモデルである個別モデル及び相互モデルを用いて行動を特定した。しかし、個別モデル及び相互モデルの少なくとも一方に代えて、入力と出力とを対応付けたルールが用いられてもよい。
個別モデルの代わりに用いられるルールは、人の骨格情報と人の行動を示す個別ラベルとを対応付けた個別ルールである。つまり、個別ルールは、人の骨格情報を入力として与えると、個別ラベルが出力として得られるルールである。
個別モデルの代わりに個別ルールが用いられる場合には、図3のステップS21で個別特定部25は、個別ルールを参照して、対象の被写体者の骨格情報に対応する個別ラベルを対象の被写体者の個別行動を示す情報として取得する。この際、個別特定部25は、対象の被写体者の骨格情報と最も類似度が高い骨格情報と対応付けられた個別ラベルを対象の被写体者の個別行動を示す情報として取得する。
相互モデルの代わりに用いられるルールは、複数の人それぞれの個別行動を示す個別ラベルの組と複数の人としての行動を示す相互ラベルとを対応付けた相互ルールである。つまり、相互ルールは、個別ラベルの組を入力として与えると、複数の人としての行動を示す相互ラベルが出力として得られるルールである。
相互モデルの代わりに相互ルールが用いられる場合には、図3のステップS22で相互特定部26は、相互ルールを参照して、複数の被写体者それぞれについての個別ラベルの組に対応する相互ラベルを複数の被写体者全体としての行動を示す情報として取得する。
<変形例2>
実施の形態1では、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、さらに各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の個別ラベルとから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態1では、2人の組である場合に、一方の被写体者の個別行動が「腕を前に伸ばす」であり、他方の被写体者の個別行動が「仰け反る」である場合には、相互ラベルが示す行動は「殴る」になるという例を説明した。この例では、個別行動が「腕を前に伸ばす」である被写体者の行動は「相手を殴る」になり、個別行動が「仰け反る」である被写体者の行動は、「相手から殴られる」になる。
<変形例3>
実施の形態1では、個別モデル及び相互モデルは、ストレージ13に記憶されると説明した。しかし、個別モデル及び相互モデルは、行動特定装置10の外部の記憶装置に記憶されていてもよい。この場合には、行動特定装置10は、通信インタフェース14を介して、個別モデル及び相互モデルにアクセスすればよい。
<変形例4>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例4として、各機能構成要素はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
図4を参照して、変形例4に係る行動特定装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、行動特定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例5>
変形例5として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2では、個別モデル及び相互モデルの生成処理について説明する。
***構成の説明***
図5を参照して、実施の形態2に係る学習装置50の構成を説明する。
学習装置50は、コンピュータである。
学習装置50は、プロセッサ51と、メモリ52と、ストレージ53と、通信インタフェース54とのハードウェアを備える。プロセッサ51は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ51は、プロセッサ11と同様に、プロセッシングを行うICである。メモリ52は、メモリ12と同様に、データを一時的に記憶する記憶装置である。ストレージ53は、ストレージ13と同様に、データを保管する記憶装置である。ストレージ53は、ストレージ13と同様に、可搬記録媒体であってもよい。通信インタフェース54は、通信インタフェース14と同様に、外部の装置と通信するためのインタフェースである。
学習装置50は、通信インタフェース54を介して行動特定装置10と接続されている。
学習装置50は、機能構成要素として、学習データ取得部61と、モデル生成部62とを備える。学習装置50の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、学習装置50の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ51によりメモリ52に読み込まれ、プロセッサ51によって実行される。これにより、学習装置50の各機能構成要素の機能が実現される。
図5では、プロセッサ51は、1つだけ示されていた。しかし、プロセッサ51は、複数であってもよく、複数のプロセッサ51が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図6及び図7を参照して、実施の形態2に係る学習装置50の動作を説明する。
実施の形態2に係る学習装置50の動作手順は、実施の形態2に係る学習方法に相当する。また、実施の形態2に係る学習装置50の動作を実現するプログラムは、実施の形態2に係る学習プログラムに相当する。
図6を参照して、実施の形態2に係る学習装置50が個別モデルを生成する動作を説明する。
(ステップS31:学習データ取得処理)
学習データ取得部61は、人の骨格の関節の位置を示す骨格情報と、その人の行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された行動を実際に行った人を撮像して得られた映像データから骨格情報を特定することによって生成される。つまり、抽出された骨格情報と、指定された行動とが関連付けられて学習データとされる。骨格情報は、映像データの1つのフレームから特定された関節の位置だけを含むベクトルデータであってもよいし、複数のフレームから特定された関節の位置を含む行列データであってもよい。
(ステップS32:モデル生成処理)
モデル生成部62は、ステップS31で取得された学習データを入力として、学習を行い、個別モデルを生成する。モデル生成部62は、個別モデルを行動特定装置10のストレージ13に書き込む。
実施の形態2では、モデル生成部62は、学習データを入力として、骨格の関節の位置と行動との関係をニューラルネットワークに学習させる。例えば、モデル生成部62は、骨格情報が肩と肘と手首との位置が一直線に並び、かつ、それぞれの垂直方向の位置が同等であることを示していれば、それは「腕を前に伸ばす」動作を表していることを学習させる。用いられるニューラルネットワークの構成はDNN(深層ニューラルネットワーク)と、CNN(畳み込みニューラルネットワーク)と、RNN(再帰型ニューラルネットワーク)といった周知のものでよい。
図7を参照して、実施の形態2に係る学習装置50が相互モデルを生成する動作を説明する。
(ステップS41:学習データ取得処理)
学習データ取得部61は、複数の個別ラベルの組と、相互行動が考慮された複数の人それぞれの行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された相互行動を実際に行った場合における、複数の人それぞれの個別行動を示す個別ラベルと、相互行動における複数の人としての行動とが関連付けられて生成される。
(ステップS42:モデル生成処理)
モデル生成部62は、ステップS41で取得された学習データを入力として、学習を行い、相互モデルを生成する。モデル生成部62は、相互モデルを行動特定装置10のストレージ13に書き込む。
実施の形態2では、モデル生成部62は、学習データを入力として、複数の個別ラベルの組と、相互行動が考慮された複数の人としての行動との関係をニューラルネットワークに学習させる。例えば、モデル生成部62は、2人の組である場合に、両方の被写体者の個別行動が「腕を前に伸ばす」である場合には、両方の被写体者について相互ラベルが示す行動は、「握手」であることを学習させる。用いられるニューラルネットワークの構成はDNN(深層ニューラルネットワーク)と、CNN(畳み込みニューラルネットワーク)と、RNN(再帰型ニューラルネットワーク)といった周知のものでよい。
***実施の形態2の効果***
以上のように、実施の形態2に係る学習装置50は、学習データに基づき、行動特定装置10が用いる個別モデル及び相互モデルを生成する。これにより、適切な学習データを与えることで、行動特定装置10が用いる個別モデル及び相互モデルの認識精度を高くすることができる。
***他の構成***
<変形例6>
変形例1で説明したように、行動特定装置10は、個別モデルに代えて個別ルールを用いてもよいし、相互モデルに代えて相互ルールを用いてもよい。
個別モデルに代えて個別ルールが用いられる場合には、図6のステップS32でモデル生成部62は、個別モデルに代えて個別ルールを生成する。具体的には、モデル生成部62は、ステップS31で取得された各学習データが示す、人の骨格の関節の位置を示す骨格情報と、その人の行動を示す個別ラベルと対応付けたデータベースを個別ルールとして生成する。
相互モデルに代えて相互ルールが用いられる場合には、図7のステップS42でモデル生成部62は、相互モデルに代えて相互ルールを生成する。具体的には、モデル生成部62は、ステップS41で取得された各学習データが示す、複数の個別ラベルの組と、相互行動が考慮された複数の人としての行動とを対応付けたデータベースを相互ルールとして生成する。
<変形例7>
実施の形態2では、各機能構成要素がソフトウェアで実現された。しかし、変形例7として、各機能構成要素はハードウェアで実現されてもよい。この変形例7について、実施の形態2と異なる点を説明する。
図8を参照して、変形例7に係る学習装置50の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、学習装置50は、プロセッサ51とメモリ52とストレージ53とに代えて、電子回路55を備える。電子回路55は、各機能構成要素と、メモリ52と、ストレージ53との機能とを実現する専用の回路である。
電子回路55としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路55で実現してもよいし、各機能構成要素を複数の電子回路55に分散させて実現してもよい。
<変形例8>
変形例8として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ51とメモリ52とストレージ53と電子回路55とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態3.
実施の形態3は、複数の骨格情報から計算された特徴量から、相互行動を考慮して複数の被写体者全体としての行動が特定される点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
***構成の説明***
図9を参照して、実施の形態3に係る行動特定装置10の構成を説明する。
行動特定装置10は、行動特定部24が、個別特定部25に代えて、特徴量計算部27を備える点が図1に示す行動特定装置10と異なる。特徴量計算部27の機能は、他の機能と同様に、ソフトウェア又はハードウェアによって実現される。
***動作の説明***
図10を参照して、実施の形態3に係る行動特定装置10の動作を説明する。
実施の形態3に係る行動特定装置10の動作手順は、実施の形態3に係る行動特定方法に相当する。また、実施の形態3に係る行動特定装置10の動作を実現するプログラムは、実施の形態3に係る行動特定プログラムに相当する。
図10を参照して、実施の形態3に係る行動特定処理(図2のステップS15)を説明する。
(ステップS51:特徴量計算処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報に基づき特徴量を計算する。
具体的には、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報を統合して特徴量を計算する。あるいは、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報から特徴量を抽出してもよい。
ここで、特徴量の計算は、複数の骨格間の関節の位置関係について情報が保持されるよう処理される。例えば、骨格情報は、骨格の関節位置を示す座標が1人の骨格情報あたりm個あり、その骨格がm次元ベクトルで表現されているとする。n人分の骨格情報を総合する場合には、m次元ベクトルをn個連結させた(m×n)次元ベクトル、又は、m行n列の行列が特徴量となる。あるいは、複数の骨格間における任意の関節の間の距離についての時間変化を要素として持つベクトル又は行列が特徴量となる。複数の骨格間における任意の関節の間の距離とは、例えば、骨格Aの首と、骨格Bの手首との間の距離である。
(ステップS52:相互特定処理)
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS51で特定された対象の組に含まれる複数の被写体者の骨格情報の特徴量を入力として、相互行動を考慮して、複数の被写体者全体としての行動を特定する。
具体的には、相互特定部26は、複数の人の骨格情報の特徴量を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS51で計算された特徴量を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
***実施の形態3の効果***
以上のように、実施の形態3に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
***他の構成***
<変形例9>
実施の形態3では、ニューラルネットワーク等を用いて生成された学習済みのモデルである相互モデルを用いて行動を特定した。しかし、変形例1と同様に、相互モデルに代えて相互ルールが用いられてもよい。
相互ルールは、複数の人の骨格情報の特徴量と複数の人としての行動を示す相互ラベルとを対応付けたルールである。相互モデルの代わりに相互ルールが用いられる場合には、図10のステップS52で相互特定部26は、相互ルールを参照して、特徴量に対応する相互ラベルを複数の被写体者全体としての被写体者の行動を示す情報として取得する。
<変形例10>
実施の形態3では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態4.
実施の形態4は、実施の形態3に係る相互モデルを生成する点が実施の形態2と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3では、個別モデルは用いられないため、実施の形態4では、個別モデルは生成されない。
***動作の説明***
図7を参照して、実施の形態4に係る学習装置50の動作を説明する。
実施の形態4に係る学習装置50の動作手順は、実施の形態4に係る学習方法に相当する。また、実施の形態4に係る学習装置50の動作を実現するプログラムは、実施の形態4に係る学習プログラムに相当する。
図7を参照して、実施の形態4に係る学習装置50が相互モデルを生成する動作を説明する。
(ステップS41:学習データ取得処理)
学習データ取得部61は、複数の人の骨格情報の特徴量と、複数の人としての行動とを関連付けた学習データを取得する。
例えば、学習データは、指定された相互行動を実際に行った複数の人を撮像して得られた映像データから特徴量を計算することによって生成される。つまり、計算された特徴量と、指定された相互行動における各人の行動とが関連付けられて学習データとされる。
(ステップS42:モデル生成処理)
モデル生成部62は、ステップS31で取得された学習データを入力として、学習を行い、相互モデルを生成する。モデル生成部62は、相互モデルを行動特定装置10のストレージ13に書き込む。
***実施の形態4の効果***
以上のように、実施の形態4に係る学習装置50は、学習データに基づき、行動特定装置10が用いる相互モデルを生成する。これにより、適切な学習データを与えることで、行動特定装置10が用いる個別モデル及び相互モデルの認識精度を高くすることができる。
***他の構成***
<変形例11>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
相互モデルに代えて相互ルールが用いられる場合には、図7のステップS42でモデル生成部62は、相互モデルに代えて相互ルールを生成する。具体的には、モデル生成部62は、ステップS41で取得された各学習データが示す、特徴量と、相互行動が考慮された複数の人としての行動とを対応付けたデータベースを相互ルールとして生成する。
実施の形態5.
実施の形態5は、骨格情報から特徴量を計算する方法が実施の形態3と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態5は、骨格情報から特徴量を計算する際に、少なくとも1時刻前の骨格情報が必要となる。そこで、実施の形態5では、図2のステップ12において、骨格情報を取得後、ストレージ13によって実現される骨格情報データベースに骨格情報が保存されるものとする。
図10を参照して、実施の形態5に係る行動特定処理(図2のステップS15)を説明する。
(ステップS51:特徴量計算処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報に基づき特徴量を計算する。特徴量計算部27は、特徴量を、ストレージ13によって実現される特徴量データベースに書き込む。
具体的には、特徴量計算部27は、対象の組に含まれる複数の被写体者それぞれについての骨格情報から特徴量を計算する。そして、特徴量計算部27は、計算した特徴量に、現在時刻tをインデックスとして付与して、特徴量データベースに書き込む。
算出される特徴量及びその算出方法については後述する。
(ステップS52:相互特定処理)
相互特定部26は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。相互特定部26は、ステップS51で特定された対象の組に含まれる複数の被写体者の骨格情報の特徴量を入力として、相互行動を考慮して、複数の被写体者全体としての行動を特定する。
具体的には、相互特定部26は、対象の組に含まれる複数の被写体者についての特徴量を特徴量データベースから取得する。そして、相互特定部26は、複数の人の特徴量を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルを利用して、被写体者の行動を特定する。相互モデルは、ニューラルネットワーク等を用いて生成された学習済みのモデルであり、予めストレージ13に記憶されているものとする。つまり、相互特定部26は、相互モデルに対して、ステップS51で計算された特徴量を入力することにより、対象の組に含まれる複数の被写体者全体としての行動を示す相互ラベルを取得する。相互特定部26は、相互ラベルをメモリ12に書き込む。
相互特定部26が、特徴量データベースから取得する特徴量は、ある1時刻に計算された1個ではなく、時系列に連続する複数の特徴量であってもよい。時系列に連続する複数の特徴量を取得した場合には、相互特定部26は、特徴量の変遷をもとに、対象の組に含まれる複数の被写体者としての行動を特定し、相互ラベルを取得する。つまり、この場合には、相互モデルは、複数の人の特徴量の変遷を入力として、相互行動を考慮して複数の人としての行動を示す相互ラベルを出力するモデルである。
図11を参照して、実施の形態5に係る特徴量計算処理(図10のステップS51)を説明する。
(ステップS61:骨格情報取得処理)
特徴量計算部27は、相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻の骨格情報と1時刻前の骨格情報とを骨格情報データベースから取得する。
(ステップS62:速度計算処理)
特徴量計算部27は、ステップS61で取得された複数の被写体者それぞれの現在時刻の骨格情報と1時刻前の骨格情報とを用いて特徴量を算出する。
具体的には、特徴量計算部27は、ステップS61で取得された、時系列的に連続する2フレームの画像間における被写体者についての骨格の各関節の移動距離を要素に持つベクトル又は行列を計算する。このようにして計算される各関節の移動距離は、2フレームの画像間で生じる時間幅に対する各関節の移動距離であるため、各関節の速度とみなすことができる。そして、特徴量計算部27は、各関節の速度の合計又は平均を取って得られるスカラーを被写体者の骨格全体の速度とし、この速度を特徴量とする。
ステップS61で特徴量計算部27は、現在時刻tから過去時刻t−Nまでの時間幅N分の骨格情報を取得してもよい。この場合には、ステップS62で特徴量計算部27は、時系列に連続する2時刻間の骨格の各関節の移動距離を要素に持つベクトル又は行列を生成する。特徴量計算部27は、各関節の移動距離について時間方向に総和を取り、時間幅Nで除算して、現在時刻tから過去時刻t−Nにおける平均移動距離を各関節の速度として計算する。つまり、特徴量計算部27は、各関節を対象として、対象の関節について計算された2つの時刻の間における移動距離を合計し、時間幅Nで除算して、対象の関節の平均移動距離を計算する。そして、特徴量計算部27は、この平均移動距離を、対象の関節の速度として扱う。そして、特徴量計算部27は、各関節の速度の合計又は平均を取って得られるスカラーを被写体者の骨格全体の速度とし、この速度を特徴量とする。
上記説明では、特徴量はスカラーであった。しかし、特徴量計算部27は、全関節について速度の合計又は平均値を取らずに、各関節の速度を要素に持つベクトルデータを特徴量としてもよい。
特徴量計算部27は、抽出された被写体者の骨格の関節のうち、任意の数の関節から特徴量を計算してもよい。あるいは、特徴量計算部27は、任意の数の関節分だけ計算された特徴量どうしを加算する又は平均を取る等して、特徴量を抽出した関節数よりも少ない数の特徴量を計算してもよい。
また、特徴量計算部27は、被写体者の数だけ計算された特徴量を合計する又は平均を取る等して1つの特徴量としてもよい。
特徴量を算出するにあたって、骨格情報のうちの一部の関節の位置が取得できない場合も起こり得る。この場合には、特徴量計算部27は、特徴量データベースに記憶されている過去の特徴量をもとにする、又は、関節の位置が取得できた関節をもとにする等して、取得できなかった関節の位置又は取得できなかった関節に関する特徴量を補完してもよい。
補完の方法としては、関節の位置が取得できなかった時刻の特徴量を1時刻前の特徴量とする、又は、関節の位置が取得できなかった時刻の特徴量を過去数時刻分の特徴量の変位から線形補完して計算することが考えられる。あるいは、特徴量計算部27は、関節の位置が取得できた関節群全体の速度から1関節当たりの速度の平均値を算出し、関節の位置が取得できなかった関節の速度としても、関節の位置が取得できなかった関節の周囲の関節から成り、関節の位置が取得できた関節群の速度から1関節当たりの速度の平均値を計算し、関節の位置が取得できなかった関節の速度としてもよい。また、特徴量計算部27は、取得できなかった右膝の位置を左膝の位置で補完するというように、取得できなかった関節と左右で対になっている関節、あるいは連結する関節の位置で補完してもよい。
***実施の形態5の効果***
以上のように、実施の形態5に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
特に、実施の形態5に係る行動特定装置10は、2つ以上のフレームから取得された骨格情報を用いて計算された速度を特徴量として用いる。例えば数秒といったある程度長い時間幅における骨格情報の時系列データから計算される骨格の速度を特徴量として用いれば、人の向き又はオクルージョンによる一部身体の隠蔽等による被写体者の骨格の関節の誤抽出が発生した場合でも、正しく行動を判別できる可能性が高くなる。
***他の構成***
<変形例12>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
<変形例13>
実施の形態5では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態6.
実施の形態6は、骨格情報から特徴量を計算する方法が実施の形態3,5と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態6では、実施の形態5と異なる点を説明する。
図12を参照して、実施の形態6に係る特徴量計算処理(図10のステップS51)を説明する。
(ステップS71:骨格情報取得処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻tからN時刻前までの骨格情報を骨格情報データベースから取得する。特徴量計算部27は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
時系列データは、例えば数秒といったある程度の長さをもった対象期間分の骨格情報を時系列に並べたデータであり、2つ以上の時刻における骨格情報を時系列に並べたデータであることが望ましく、さらに3つ以上の時刻における骨格情報を時系列に並べたデータであることが望ましい。
(ステップS72:移動距離計算処理)
特徴量計算部27は、ステップS71で生成された骨格情報の時系列データにおいて、時系列に連続する2つの時刻の骨格情報間における対象の被写体者の骨格の各関節の移動距離を計算する。具体的には、特徴量計算部27は、各関節を対象として、2つの時刻の骨格情報間における対象の関節の位置の差分を計算することによって、対象の関節の移動距離を計算する。特徴量計算部27は、各関節の移動距離を要素とするベクトルあるいは行列を生成する。以下では、各関節の移動距離を要素とするベクトルが生成されたとして説明する。
(ステップS73:運動量計算処理)
特徴量計算部27は、ステップS22で生成された、各関節の移動距離を要素とするベクトルを時間方向に合計する。つまり、特徴量計算部27は、各関節を対象として、対象の関節について計算された2つの時刻の間における移動距離を合計する。このようにして計算された値は、現在時刻tから過去時刻t−Nまでの時間幅Nにおける各関節の移動距離の総和である。そのため、この値は、時間幅Nにおける各関節の運動量とみなすことができる。
特徴量計算部27は、全関節の運動量を合計する、あるいは、平均値を取る等してスカラーとし、このスカラーを時間幅Nにおける被写体者の骨格全体の運動量とみなす。そして、特徴量計算部27は、この運動量を特徴量とする。
上記説明では、運動量はスカラーであった。しかし、特徴量計算部27は、全関節について運動量の合計又は平均値を取らずに、各関節の運動量を要素に持つベクトルデータを特徴量としてもよい。
特徴量計算部27は、抽出された被写体者の骨格の関節のうち、任意の数の関節から特徴量を計算してもよい。あるいは、特徴量計算部27は、任意の数の関節分だけ計算された特徴量どうしを加算する又は平均を取る等して、特徴量を抽出した関節数よりも少ない数の特徴量を計算してもよい。
特徴量を計算するにあたって、骨格情報のうちの一部の関節の位置が取得できない場合も起こり得る。この場合には、実施の形態5と同様に、特徴量計算部27は、取得できなかった関節の位置又は取得できなかった関節に関する特徴量を補完してもよい。
***実施の形態6の効果***
以上のように、実施の形態6に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
特に、実施の形態6に係る行動特定装置10は、過去のフレームから取得された骨格情報を用いて計算された運動量を特徴量として用いる。例えば数秒といったある程度長い時間幅における骨格情報の時系列データから計算される骨格の運動量を特徴量として用いることにより、人の向き又はオクルージョンによる一部身体の隠蔽等による被写体者の骨格の関節の誤抽出が発生した場合でも、正しく行動を判別できる可能性が高くなる。
***他の構成***
<変形例14>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
<変形例15>
実施の形態6では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
実施の形態7.
実施の形態7は、骨格情報から算出される特徴量が異なるという点で実施の形態3,5,6と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態7では、実施の形態6と異なる点を説明する。
図13を参照して、実施の形態7に係る特徴量計算処理(図10のステップS51)を説明する。
(ステップS81:骨格情報取得処理)
特徴量計算部27は、ステップS14で相互行動を行っている組であると判定された各組を対象の組に設定する。特徴量計算部27は、対象の組に設定された組に含まれる複数の被写体者それぞれについての現在時刻tからN時刻前までの骨格情報を骨格情報データベースから取得する。特徴量計算部27は、取得された骨格情報を時系列に並べたデータを時系列データとして設定する。
(ステップS82:軌跡計算処理)
特徴量計算部27は、ステップS81で生成された対象の被写体者の骨格情報の時系列データが表す、現在時刻tから過去時刻t−N間の各時刻における被写体者の骨格の関節の位置の情報を時系列に並べたベクトルあるいは行列を特徴量として生成する。以下では、関節の位置の情報を時系列に並べたベクトルが生成されたとして説明する。このようにして生成されたベクトルは、時系列に並んだ骨格の関節の位置の情報を要素として持つ。そのため、時刻tから時刻t−Nにおける関節の移動経路、つまり動作の軌跡を表す。
このとき、関節の位置の情報は、2次元画像内から抽出された骨格情報を対象としていれば、水平方向の位置を表す座標値xと垂直方向の位置を表す座標値yとを用いて(x,y)といった具合に表される。
特徴量計算部27は、特徴量を計算するにあたって、抽出された被写体者の骨格の関節のうち、任意の数の関節に対して特徴量を計算してもよい。また、特徴量計算部27は、正の整数M,mに関して、骨格情報がM次元の関節の位置情報を持っていた場合、m≦Mとなるようなm個の座標値を利用して特徴量を計算してもよい。
特徴量を計算するにあたって、骨格情報のうちの一部の関節の位置が取得できない場合も起こり得る。この場合には、実施の形態6と同様に、特徴量計算部27は、取得できなかった関節の位置又は取得できなかった関節に関する特徴量を補完してもよい。
***実施の形態7の効果***
以上のように、実施の形態7に係る行動特定装置10は、実施の形態1に係る行動特定装置10と同様に、複数の被写体者が相互に影響を与える行動である相互行動を考慮して、複数の被写体者全体としての行動を特定する。これにより、姿勢及び動作が類似している行動についても、正しく判別できる可能性が高くなる。その結果、行動認識の精度を向上させることが可能である。
特に、実施の形態7に係る行動特定装置10は、過去のフレームから取得された骨格情報を用いて計算された軌跡を特徴量として用いる。例えば数秒といったある程度長い時間幅における骨格情報の時系列データから計算される骨格の軌跡を特徴量として用いることにより、人の向き又はオクルージョンによる一部身体の隠蔽等による被写体者の骨格の関節の誤抽出が発生した場合でも、正しく行動を判別できる可能性が高くなる。
***他の構成***
<変形例16>
変形例9で説明したように、行動特定装置10は、相互モデルに代えて相互ルールを用いてもよい。
<変形例17>
実施の形態7では、実施の形態1と同様に、複数の被写体者全体としての行動が特定された。しかし、行動特定装置10は、変形例2と同様に、各被写体者が全体としての行動におけるどの行動をしているかまで特定してもよい。この場合には、行動特定装置10の相互特定部26は、各被写体者を対象として、全体としての行動と、対象の被写体者の骨格情報とから、全体としての行動における対象の被写体者の行動を特定する。具体的には、相互特定部26は、対象の被写体者の骨格情報から対象の被写体者の個別行動を特定し、全体としての行動と、対象の被写体者の個別行動とから、全体としての行動における対象の被写体者の行動を特定する。
以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
10 行動特定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 映像取得部、22 骨格情報取得部、23 相関判定部、24 行動特定部、25 個別特定部、26 相互特定部、27 特徴量計算部、31 カメラ、50 学習装置、51 プロセッサ、52 メモリ、53 ストレージ、54 通信インタフェース、55 電子回路、61 学習データ取得部、62 モデル生成部。

Claims (16)

  1. 映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得部と、
    前記骨格情報取得部によって取得された複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定する相関判定部と、
    前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定する行動特定部であって、前記相関判定部によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定部と
    を備える行動特定装置。
  2. 前記行動特定部は、
    前記複数の被写体者それぞれを対象として、対象の被写体者の前記骨格情報から、前記対象の被写体者についての行動を個別行動として特定する個別特定部と、
    前記個別特定部によって特定された前記複数の被写体者それぞれについての前記個別行動から、前記相互行動を考慮して、前記複数の被写体者としての行動を特定する相互特定部と
    を備える請求項1に記載の行動特定装置。
  3. 前記個別特定部は、人の骨格情報を入力として、その人の行動を示す個別ラベルを出力する個別モデルに対して、前記対象の被写体者の前記骨格情報を入力することにより、前記対象の被写体者の前記個別行動を示す個別ラベルを取得する
    請求項2に記載の行動特定装置。
  4. 前記個別特定部は、人の骨格情報と人の行動を示す個別ラベルとを対応付けた個別ルールを参照して、前記対象の被写体者の前記骨格情報に対応する個別ラベルを前記対象の被写体者の前記個別行動を示す情報として取得する
    請求項2に記載の行動特定装置。
  5. 前記相互特定部は、複数の人それぞれの個別行動を示す個別ラベルの組を入力として、前記相互行動を考慮して前記複数の人としての行動を示す相互ラベルを出力する相互モデルに対して、前記個別特定部によって特定された前記複数の被写体者それぞれについての個別ラベルの組を入力することにより、前記複数の被写体者としての行動を示す相互ラベルを取得する
    請求項2から4までのいずれか1項に記載の行動特定装置。
  6. 前記相互特定部は、複数の人それぞれの個別行動を示す個別ラベルの組と前記複数の人としての行動を示す相互ラベルとを対応付けた相互ルールを参照して、前記個別特定部によって特定された前記複数の被写体者それぞれについての個別ラベルの組に対応する相互ラベルを前記複数の被写体者としての行動を示す情報として取得する
    請求項2から4までのいずれか1項に記載の行動特定装置。
  7. 前記相互特定部は、前記複数の被写体者それぞれを対象として、前記複数の被写体者としての行動と、対象の被写体者についての個別行動とから、前記複数の被写体者としての行動における前記対象の被写体者についての行動を特定する
    請求項2から6までのいずれか1項に記載の行動特定装置。
  8. 前記行動特定部は、
    前記複数の被写体者それぞれについての前記骨格情報に基づき特徴量を計算する特徴量計算部と、
    前記特徴量計算部によって計算された前記特徴量を入力として、前記相互行動を考慮して、前記複数の被写体者としての行動を特定する相互特定部と
    を備える請求項1に記載の行動特定装置。
  9. 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の速度を前記特徴量として計算する
    請求項8に記載の行動特定装置。
  10. 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の運動量を前記特徴量として計算する
    請求項8に記載の行動特定装置。
  11. 前記特徴量計算部は、前記複数の被写体者それぞれを対象として、対象の被写体者についての時系列に連続する骨格情報から前記対象の被写体者の動作の軌跡を前記特徴量として計算する
    請求項8に記載の行動特定装置。
  12. 前記相互特定部は、複数の人の骨格情報の特徴量を入力として、前記相互行動を考慮して複数の人としての行動を示す相互ラベルを出力する相互モデルに対して、前記特徴量計算部によって計算された前記特徴量を入力することにより、前記複数の被写体者としての行動を示す相互ラベルを取得する
    請求項8から11までのいずれか1項に記載の行動特定装置。
  13. 前記相互特定部は、複数の人の骨格情報の特徴量と前記複数の人としての行動を示す相互ラベルとを対応付けた相互ルールを参照して、前記特徴量計算部によって計算された前記特徴量に対応する相互ラベルを前記複数の被写体者としての被写体者の行動を示す情報として取得する
    請求項8から11までのいずれか1項に記載の行動特定装置。
  14. 前記相互特定部は、前記複数の被写体者それぞれを対象として、前記複数の被写体者としての行動と、対象の被写体者についての骨格情報とから、前記複数の被写体者としての行動における前記対象の被写体者についての行動を特定する
    請求項8から13までのいずれか1項に記載の行動特定装置。
  15. 行動特定装置の骨格情報取得部が、映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得し、
    前記行動特定装置の相関判定部が、複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定し、
    前記行動特定装置の行動特定部が、前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定し、前記相関判定部によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定方法。
  16. 映像データに映った複数の人である被写体者それぞれを対象として、対象の被写体者について、骨格の関節の位置を示す骨格情報を取得する骨格情報取得処理と、
    前記骨格情報取得処理によって取得された複数の被写体者における各被写体者の関節の位置の変化量と変化の時刻との少なくともいずれかが相互に連動する場合に、前記複数の被写体者が互いに影響を与える行動である相互行動を行っていると判定する相関判定処理と、
    前記複数の被写体者それぞれについての前記骨格情報から、前記複数の被写体者としての行動を特定する行動特定処理であって、前記相関判定処理によって前記相互行動を行っていると判定された場合には前記相互行動を考慮して、前記複数の被写体者としての行動を特定する行動特定処理と
    を行う行動特定装置としてコンピュータを機能させる行動特定プログラム。
JP2021503612A 2020-07-03 2020-07-30 行動特定装置、行動特定方法及び行動特定プログラム Active JP6887586B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPPCT/JP2020/026277 2020-07-03
PCT/JP2020/026277 WO2022003981A1 (ja) 2020-07-03 2020-07-03 行動特定装置、行動特定方法及び行動特定プログラム
PCT/JP2020/029244 WO2022003989A1 (ja) 2020-07-03 2020-07-30 行動特定装置、行動特定方法及び行動特定プログラム

Publications (2)

Publication Number Publication Date
JP6887586B1 true JP6887586B1 (ja) 2021-06-16
JPWO2022003989A1 JPWO2022003989A1 (ja) 2022-01-06

Family

ID=76310242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503612A Active JP6887586B1 (ja) 2020-07-03 2020-07-30 行動特定装置、行動特定方法及び行動特定プログラム

Country Status (1)

Country Link
JP (1) JP6887586B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7042956B1 (ja) * 2021-09-10 2022-03-28 株式会社エクサウィザーズ 情報処理方法、情報処理装置、及びプログラム
WO2022269708A1 (ja) * 2021-06-21 2022-12-29 日本電信電話株式会社 情報処理装置及び情報処理方法
WO2023152983A1 (ja) * 2022-02-14 2023-08-17 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム
JP7491462B2 (ja) 2020-08-19 2024-05-28 日本電気株式会社 因果相互作用検出装置、制御方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018089221A1 (en) * 2016-11-09 2018-05-17 Microsoft Technology Licensing, Llc Neural network-based action detection
JP2019046481A (ja) * 2013-01-18 2019-03-22 キヤノンメディカルシステムズ株式会社 動作情報処理装置
JP2020027496A (ja) * 2018-08-14 2020-02-20 富士ゼロックス株式会社 監視装置、監視システム、及びプログラム
JP6692086B1 (ja) * 2019-12-16 2020-05-13 株式会社アジラ 異常行動検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046481A (ja) * 2013-01-18 2019-03-22 キヤノンメディカルシステムズ株式会社 動作情報処理装置
WO2018089221A1 (en) * 2016-11-09 2018-05-17 Microsoft Technology Licensing, Llc Neural network-based action detection
JP2020027496A (ja) * 2018-08-14 2020-02-20 富士ゼロックス株式会社 監視装置、監視システム、及びプログラム
JP6692086B1 (ja) * 2019-12-16 2020-05-13 株式会社アジラ 異常行動検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7491462B2 (ja) 2020-08-19 2024-05-28 日本電気株式会社 因果相互作用検出装置、制御方法、及びプログラム
WO2022269708A1 (ja) * 2021-06-21 2022-12-29 日本電信電話株式会社 情報処理装置及び情報処理方法
JP7042956B1 (ja) * 2021-09-10 2022-03-28 株式会社エクサウィザーズ 情報処理方法、情報処理装置、及びプログラム
WO2023152983A1 (ja) * 2022-02-14 2023-08-17 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム
JP7374401B1 (ja) 2022-02-14 2023-11-06 三菱電機株式会社 人物相関判定装置、人物相関判定方法および人物相関判定プログラム

Also Published As

Publication number Publication date
JPWO2022003989A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
JP6887586B1 (ja) 行動特定装置、行動特定方法及び行動特定プログラム
Ullah et al. Activity recognition using temporal optical flow convolutional features and multilayer LSTM
Zhang et al. Fusing geometric features for skeleton-based action recognition using multilayer LSTM networks
Song et al. Richly activated graph convolutional network for robust skeleton-based action recognition
Nunez et al. Convolutional neural networks and long short-term memory for skeleton-based human activity and hand gesture recognition
Zhang et al. On geometric features for skeleton-based action recognition using multilayer lstm networks
Ge et al. Robust 3D hand pose estimation from single depth images using multi-view CNNs
Liao et al. Natural language guided visual relationship detection
Zhu et al. A cuboid CNN model with an attention mechanism for skeleton-based action recognition
Shi et al. Multiscale multitask deep NetVLAD for crowd counting
Xu et al. Spatiotemporal decouple-and-squeeze contrastive learning for semisupervised skeleton-based action recognition
Elmadany et al. Information fusion for human action recognition via biset/multiset globality locality preserving canonical correlation analysis
Liu et al. Human pose estimation in video via structured space learning and halfway temporal evaluation
Li et al. Time3d: End-to-end joint monocular 3d object detection and tracking for autonomous driving
Drumond et al. An LSTM recurrent network for motion classification from sparse data
Wang et al. Contrast-reconstruction representation learning for self-supervised skeleton-based action recognition
Das et al. MMHAR-EnsemNet: A multi-modal human activity recognition model
Liu et al. Orientation Cues-Aware Facial Relationship Representation for Head Pose Estimation via Transformer
Hachaj et al. Dependence of Kinect sensors number and position on gestures recognition with Gesture Description Language semantic classifier
Ben Tamou et al. Automatic learning of articulated skeletons based on mean of 3D joints for efficient action recognition
Baumann et al. Action graph a versatile data structure for action recognition
Wang et al. 3D Skeleton-based Few-shot Action Recognition with JEANIE is not so Na\" ive
JP6972434B1 (ja) 行動特定装置、行動特定方法及び行動特定プログラム
Pham et al. An efficient feature fusion of graph convolutional networks and its application for real-time traffic control gestures recognition
Tian et al. Joints kinetic and relational features for action recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210518

R150 Certificate of patent or registration of utility model

Ref document number: 6887586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250