JP7158534B1 - 行動解析装置、行動解析方法及び行動解析プログラム - Google Patents
行動解析装置、行動解析方法及び行動解析プログラム Download PDFInfo
- Publication number
- JP7158534B1 JP7158534B1 JP2021100042A JP2021100042A JP7158534B1 JP 7158534 B1 JP7158534 B1 JP 7158534B1 JP 2021100042 A JP2021100042 A JP 2021100042A JP 2021100042 A JP2021100042 A JP 2021100042A JP 7158534 B1 JP7158534 B1 JP 7158534B1
- Authority
- JP
- Japan
- Prior art keywords
- analysis
- content
- behavior
- target
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 263
- 230000009471 action Effects 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 57
- 210000000707 wrist Anatomy 0.000 description 37
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
特許文献1には、人体の部位を複数の特徴点に分割し、それぞれの特徴点の形状特徴量を複数の姿勢モデルと比較して、最も類似する姿勢モデルを人体の姿勢と推定することが記載されている。形状特徴量は、関節の角度と方向と位置と等から計算される。
本開示は、事前に必要な設定作業の負荷を軽減しつつ、画像データから人の行動内容を特定できるようにすることを目的とする。
画像データに映った被写体について、骨格の関節の位置を示す骨格情報を抽出する骨格情報抽出部と、
関節の位置に基づく解析項目を示す対象部品を用いて構成された解析条件を行動内容に対応付けた行動解析ルールを記憶装置から読み出して、前記骨格情報取得部によって取得された前記骨格情報が前記行動解析ルールにおける前記解析条件を満たす場合に、前記解析条件に対応付けられた前記行動内容が示す行動を前記被写体が行っていると特定する行動特定部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る行動解析装置10の構成を説明する。
行動解析装置10は、画像データから画像データに映った被写体の行動を特定するためのコンピュータである。実施の形態1では、被写体は人である。しかし、被写体は、人に限らず、犬、猫といった動物であってもよい。また、被写体は、駆動するロボットであってもよい。
行動解析装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、行動解析装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、行動解析装置10の各機能構成要素の機能が実現される。
図2から図11を参照して、実施の形態1に係る行動解析装置10の動作を説明する。
実施の形態1に係る行動解析装置10の動作手順は、実施の形態1に係る行動解析方法に相当する。また、実施の形態1に係る行動解析装置10の動作を実現するプログラムは、実施の形態1に係る行動解析プログラムに相当する。
行動解析ルール31は、解析条件が行動内容に対応付けられて構成される。
解析条件は、対象部品32と内容部品33とが組み合わされて構成される。対象部品32は、処理対象とする関節の位置に基づく解析項目を示す部品である。対象部品32は、解析項目毎に用意される。内容部品33は、対象部品32が示す解析項目と、他の内容部品33による解析結果との少なくともいずれかに対する解析内容を示す部品である。内容部品33は、解析内容毎に用意される。
解析項目としては、X座標と、Y座標と、関節角度と、ベクトル角度と、距離(X座標)と、距離(Y座標)と、距離(ユークリッド)と、速度と、運動量と、動作といった項目がある。X座標と、Y座標と、関節角度と、ベクトル角度と、距離(X座標)と、距離(Y座標)と、距離(ユークリッド)とは、解析内容の分類を表す解析種別が姿勢である。速度と運動量と動作とは、それぞれ解析種別が速度と運動量と動作とである。
解析項目“関節角度”は、処理対象とする関節の角度が解析する対象であることを意味する。解析項目“関節角度”は、処理対象とする関節として3つの関節a,b,cが指定され、関節aの位置と関節bの位置とを結んだ直線と、関節bの位置と関節cの位置とを結んだ直線との成す角度が解析する対象であることを意味する。例えば、処理対象とする関節として、右肩、右肘、右手首が指定された場合には、右肩の位置と右肘の位置とを結んだ直線と、右肘の位置と右手首の位置とを結んだ直線との成す角度、つまり右肘の角度が解析項目となる。
解析項目“ベクトル角度”は、処理対象とする4つの関節のうち2つの関節の位置から特定されるベクトルと、残り2つの関節の位置から特定されるベクトルとの成す角度が解析する対象であることを意味する。解析項目“ベクトル角度”は、処理対象とする関節として4つの関節a,b,c,dが指定され、関節aの位置から関節bの位置へのベクトルと、関節cの位置から関節dの位置へのベクトルとの成す角度が解析する対象であることを意味する。
解析項目“距離(X座標)”は、処理対象とする2つの関節の間のX座標の距離(X軸方向の距離)が解析する対象であることを意味する。解析項目“距離(Y座標)”は、処理対象とする2つの関節の間のY座標の距離(Y軸方向の距離)が解析する対象であることを意味する。解析項目“距離(ユークリッド)”は、処理対象とする2つの関節の間のユークリッド距離が解析する対象であることを意味する。つまり、解析項目“距離(X座標)”,“距離(Y座標)”,“距離(ユークリッド)”は、処理対象とする複数の関節についての相対的な位置関係が解析する対象であることを意味する。
解析項目“速度”は、映像を構成する2つのフレームの画像データ間における、処理対象とする関節の移動量が解析する対象であることを意味する。解析項目“運動量”は、映像を構成する指定されたフレームの画像データ間における、処理対象とする関節の移動量が解析する対象であることを意味する。解析項目“速度”及び解析項目“運動量”は、処理対象とする関節として1つ以上の関節が指定される。処理対象とする関節が1つだけ指定された場合には、関節の移動量が解析項目であり、処理対象とする関節が2つ以上指定された場合には、指定された各関節の移動量の合計が解析する対象である。
解析項目“動作”は、処理対象とする関節の移動方向が解析する対象であることを意味する。具体的には、解析項目“動作”は、処理対象とする関節が指定方向に移動しているか否かが解析する対象であることを意味する。つまり、解析項目“速度”,“動作”は、処理対象とする関節の位置の動きが解析する対象であることを意味する。
対象部品32は、対象部品32を識別するための識別子が設定されるパラメータと、処理対象とする関節を示す設定値が設定されるパラメータとを用いて構成される。
例えば、解析項目“Y座標”についての対象部品32は、識別子が設定されるパラメータt1と、処理対象とする関節を示す設定値が設定されるパラメータt2とを用いて構成される。同様に、解析項目“速度”についての対象部品32は、識別子が設定されるパラメータt3と、処理対象とする関節を示す設定値が設定されるパラメータt4とを用いて構成される。また、解析項目“距離(X座標)”についての対象部品32は、識別子が設定されるパラメータt5と、処理対象とする関節を示す設定値が設定される2つのパラメータt6,t7とを用いて構成される。
解析内容としては、論理積と、論理和と、否定と、比較と、継続判定と、履歴判定と、繰返判定といったものがある。論理積と論理和と否定とは、解析内容の分類を表すルール種別が論理ルールである。比較は、ルール種別が比較である。継続判定と履歴判定とは、ルール種別が時間判定ルールである。繰返判定は、ルール種別が回数判定ルールである。
解析内容“比較”は、処理対象とする2つの値を比較して、比較が正しい場合には真(1)を、比較が誤りである場合には偽(0)を解析結果として返すこと意味する。比較には、GT:“値1”>“値2”と、LT:“値1”<“値2”と、EQ“値1”=“値2”とがある。
解析内容“継続判定”は、処理対象とする1つの値が下限時間以上上限時間未満の間継続して真(1)である場合には真(1)を、継続していない場合には偽(0)を解析結果として返すこと意味する。
解析内容“履歴判定”は、処理対象とする1つの値が第1時刻から第2時刻の間の1つ以上のフレームの画像データについて真(1)であった場合には真(1)を、得られていない場合には偽(0)を解析結果として返すこと意味する。
解析内容“繰返判定”は、処理対象とする1つの値が第1時刻から第2時刻の間の指定数以上のフレームの画像データについて真(1)であった場合には真(1)を、得られていない場合には偽(0)を解析結果として返すこと意味する。
ルール種別が、論理ルールと時間判定ルールと回数判定ルールとである解析内容については、処理対象とする値として、内容部品33による解析結果をとる。つまり、上述した解析内容のうち比較以外の論理積と論理和と否定と継続判定と履歴判定と繰返判定とは、処理対象とする値として、内容部品33による解析結果をとる。
一方、ルール種別が比較ルールである解析内容は、処理対象とする値として、対象部品32が示す解析項目と、数値とをとる。つまり、上述した解析内容のうち比較は、処理対象とする値として、対象部品32が示す解析項目と、数値とをとる。
内容部品33は、内容部品33を識別するための識別子が設定されるパラメータと、処理対象とする値を示す設定値が設定されるパラメータとを用いて構成される。処理対象とする値は、上述した通り、解析内容に応じて、内容部品33による解析結果と、対象部品32が示す解析項目と、数値とのいずれかになる。
例えば、解析内容“論理和”についての内容部品33は、識別子が設定されるパラメータc1と、処理対象とする値を示す設定値である内容部品33の識別子が設定される2つのパラメータc2,c3とを用いて構成される。また、解析内容“比較”についての内容部品33は、識別子が設定されるパラメータc4と、処理対象とする値を示す設定値である対象部品32の識別子又は数値が設定される2つのパラメータc5,c6と、比較演算であるGT,LT,EQが設定されるパラメータc7とを用いて構成される。
なお、図7では、解析内容“比較”についての内容部品33は、比較演算であるGT,LT,EQのいずれかが評価タイプとしてパラメータc7に設定される構成になっている。しかし、比較演算であるGT,LT,EQそれぞれについて別々に内容部品33を用意しておいてもよい。この場合には、比較演算であるGT,LT,EQが設定されるパラメータc7は必要ない。
図8及び図9では、行動解析ルール31は、XML(Extensible Markup Language)のプログラムコードにより構成されている。図8及び図9の左端の数値は、行動解析ルール31の行数を表している。この行数から分かるように、図9に記載されたプログラムコードは、図8に記載されたプログラムコードの続きになっている。
2行目から44行目のプログラムコードは、2行目に記載されたように、“手を振る”という行動内容についての行動解析ルール31である。3行目から43行目のプログラムコードが解析条件を表している。
解析条件のうち、3行目から19行目のプログラムコードは、解析項目に関するプログラムコードであり、対象部品32に対応している。解析条件のうち、20行目から43行目のプログラムコードは、解析内容に関するプログラムコードであり、内容部品33に対応している。
4行目から6行目のプログラムコードは、識別子として“C1”がパラメータに設定され、処理対象とする関節を示す設定値として“右手首”がパラメータに設定されている。つまり、4行目から6行目のプログラムコードは、識別子が“C1”であり、“右手首”のY座標を解析項目とする対象部品32である。4行目から6行目のプログラムコードが実行されると、“右手首”のY座標の値が取得される。
同様に、7行目から9行目のプログラムコードは、識別子が“C2”であり、“首”のY座標を解析項目とする対象部品32である。7行目から9行目のプログラムコードが実行されると、“首”のY座標の値が取得される。また、同様に、10行目から12行目のプログラムコードは、識別子が“C3”であり、“左手首”のY座標を解析項目とする対象部品32である。10行目から12行目のプログラムコードが実行されると、“左首”のY座標の値が取得される。
13行目から15行目のプログラムコードは、識別子として“C4”がパラメータに設定され、処理対象とする関節を示す設定値として“右手首”がパラメータに設定されている。つまり、13行目から15行目のプログラムコードは、識別子が“C4”であり、“右手首”の速度を解析項目とする対象部品32である。13行目から15行目のプログラムコードが実行されると、“右手首”の速度が取得される。
同様に、16行目から18行目のプログラムコードは、識別子が“C5”であり、“左手首”の速度を解析項目とする対象部品32である。16行目から18行目のプログラムコードが実行されると、“左手首”の速度が取得される。
23行目から26行目のプログラムコードは、識別子として“R3”がパラメータに設定され、処理対象とする値として識別子“C1”及び識別子“C2”がパラメータに設定され、比較演算として“GT”がパラメータに設定されている。つまり、23行目から26行目のプログラムコードは、識別子が“R3”であり、識別子“C1”の対象部品32で取得された値が、識別子“C2”の対象部品32で取得された値よりも大きいか否かを判定する内容部品33である。23行目から26行目のプログラムコードが実行されると、識別子“C1”の対象部品32で取得された値が、識別子“C2”の対象部品32で取得された値よりも大きい場合には真(1)が返され、そうでない場合には偽(0)が返される。識別子“C1”の対象部品32で取得された値は、右手首のY座標の値であり、識別子“C2”の対象部品32で取得された値は、首のY座標の値である。したがって、右手首が首よりも高い位置にある場合には真(1)が返され、そうでない場合には偽(0)が返される。
同様に、27行目から30行目のプログラムコードは、識別子が“R4”であり、識別子“C4”の対象部品32で取得された値が、数値“30”よりも大きいか否かを判定する内容部品33である。識別子“C4”の対象部品32で取得された値は、右手首の速度である。したがって、右手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。また、同様に、33行目から36行目のプログラムコードは、識別子が“R6”であり、識別子“C3”の対象部品32で取得された値が、識別子“C2”の対象部品32で取得された値よりも大きいか否かを判定する内容部品33である。識別子“C3”の対象部品32で取得された値は、左手首のY座標の値であり、識別子“C2”の対象部品32で取得された値は、首のY座標の値である。したがって、左手首が首よりも高い位置にある場合には真(1)が返され、そうでない場合には偽(0)が返される。また、同様に、37行目から40行目のプログラムコードは、識別子が“R7”であり、識別子“C5”の対象部品32で取得された値が、数値“30”よりも大きいか否かを判定する内容部品33である。識別子“C4”の対象部品32で取得された値は、左手首の速度である。したがって、左手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。
22行目及び31行目のプログラムコードは、識別子として“R2”がパラメータに設定され、処理対象とする値として識別子“R3”及び識別子“R4”がパラメータに設定されている。なお、22行目及び31行目のプログラムコードは、識別子“R2”の内容部品33に、識別子“R3”の内容部品33と、識別子“R4”の内容部品33とが入れ子の状態で記述されることにより、識別子“R2”の内容部品33で処理対象とする値として識別子“R3”及び識別子“R4”が設定されている。つまり、22行目及び31行目のプログラムコードは、識別子が“R2”であり、識別子“R3”の内容部品33で返された値と、識別子“R4”の内容部品33で返された値との論理積を返す内容部品33である。識別子“R3”の内容部品33では、右手首が首よりも高い位置にある場合には真(1)が返され、そうでない場合には偽(0)が返される。識別子“R4”の内容部品33では、右手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。したがって、右手首が首よりも高い位置にあり、かつ、右手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。
同様に、32行目及び41行目のプログラムコードは、識別子が“R5”であり、識別子“R6”の内容部品33で返された値と、識別子“R7”の内容部品33で返された値との論理積を返す内容部品33である。識別子“R6”の内容部品33では、左手首が首よりも高い位置にある場合には真(1)が返され、そうでない場合には偽(0)が返される。識別子“R7”の内容部品33では、左手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。したがって、左手首が首よりも高い位置にあり、かつ、左手首の速度が30よりも速い場合には真(1)が返され、そうでない場合には偽(0)が返される。
(ステップS11:条件指定処理)
条件指定部21は、関節の位置に基づく解析項目を示す対象部品32と、対象部品32が示す解析項目に対する解析内容を示す内容部品33とを組み合わせた解析条件をユーザに指定させる。ユーザはSE(System Engineer)もしくは顧客であり、顧客が直接解析条件を入力することもできる。
上述したように、解析項目毎に対象部品32が用意され、解析内容毎に内容部品33が用意されている。条件指定部21は、これらの対象部品32及び内容部品33を提供して、図8及び図9を参照して説明したように、対象部品32及び内容部品33を組み合わせて解析条件を指定させる。具体的には、条件指定部21は、図4に示す対象部品32と、図7に示す内容部品33とのように、プログラムコードで記述された対象部品32及び内容部品33を表示して、図8及び図9を参照して説明したように、対象部品32及び内容部品33をユーザに組み合わさせ、パラメータを設定させて、図8及び図9の3行目から43行目のような解析条件をユーザに作成させる。なお、条件指定部21は、プログラムコードで記述された対象部品32と内容部品33とを直接表示するのではなく、対象部品32及び内容部品33の組合せ方法と、設定するパラメータとを指定させるGUI画面を表示してもよい。そして、ユーザにGUI画面を操作させて、対象部品32及び内容部品33の組合せ方法と、設定するパラメータとを指定させることにより、解析条件を作成させてもよい。
ルール生成部22は、ステップS11で指定された解析条件に対応する行動内容の名称を指定させて、解析条件と行動内容とを対応付けた行動解析ルール31を生成する。
具体的には、ルール生成部22は、ユーザによって指定された行動内容の名称を図8の2行目のように解析条件と行動内容とを対応づけて設定することにより、行動解析ルール31を生成する。ルール生成部22は、行動解析ルール31をストレージ13に書き込む。
(ステップS21:ルール取得処理)
行動特定部25は、事前処理で生成された行動解析ルール31をストレージ13から読み出す。図8及び図9では、“手を振る”という行動内容についての行動解析ルール31だけが示されていた。しかし、“立ち上がる”、“歩く”といった複数の行動内容についての行動解析ルール31が生成されていてもよい。この場合には、図9の45行目以降に、“立ち上がる”、“歩く”といった他の行動内容についての行動解析ルール31が記述される。
フレーム抽出部23は、カメラ41によって得られた新しいフレームの画像データを読み込む。フレーム抽出部23は、読み込まれた画像データをメモリ12に書き込む。フレーム抽出部23は、一定時間以上前のフレームの画像データについては、メモリ12から削除する。例えば、必要になる過去一定数のフレーム(例えば、150フレーム)の画像データだけをメモリ12に記憶しておくようにしてもよい。
なお、新しいフレームの画像データがない場合には、フレーム抽出部23は処理を終了する。
骨格情報抽出部24は、ステップS22で取得された新しい画像データに映った人である被写体について、骨格の関節の位置を示す骨格情報を抽出する。骨格情報の抽出方法は、既存の技術を用いればよい。なお、骨格情報は、関節の位置だけでなく、目、口、鼻、耳といった体の部位の位置も示していてもよい。骨格情報抽出部24は、抽出された骨格情報を、画像データと対応付けてメモリ12に書き込む。
行動特定部25は、ステップS23で取得された骨格情報が行動解析ルール31における解析条件を満たす場合に、解析条件に対応付けられた行動内容が示す行動を被写体が行っていると特定する。
具体的には、行動特定部25は、各行動内容についての行動解析ルール31を実行する。つまり、行動特定部25は、図8及び図9に示すような各行動内容についての行動解析ルール31を実行する。図8及び図9に示す行動解析ルール31が実行された場合には、3行目から19行目のプログラムコードにより各解析項目が特定され、20行目から43行目のプログラムコードによって解析条件を満たすか否かが判定される。ここでは、行動特定部25は、ある行動内容についての行動解析ルール31で真(1)が返された場合には、その行動内容が示す行動を被写体が行っていると特定する。
なお、2つ以上の行動を被写体が行っていると特定される場合もある。例えば、立ち上がりながら手を振っている場合には、“立ち上がる”という行動と、“手を振る”という行動との両方を行っていると特定される。
また、解析項目の設定によっては、複数の被写体の間に相関関係があるか否かを判定する必要がある場合がある。相関関係があるかないかを判定する処理についても、必要に応じて対象部品32に実装されているものとする。
行動特定部25は、ステップS24で行動内容が特定されたか否かを判定する。
行動特定部25は、行動内容が特定された場合には、処理をステップS26に進める。一方、行動特定部25は、行動内容が特定されなかった場合には、処理をステップS22に戻す。
通知部26は、特定された行動内容を通知する。具体例としては、通知部26は、特定された行動内容を示す情報を表示装置に表示する、特定された行動内容に応じた態様で警告灯を点灯させる、管理者の端末に特定された行動を示すメッセージを送信するといった方法により、特定された行動内容を通知する。
以上のように、実施の形態1に係る行動解析装置10は、対象部品32と内容部品33とを組み合わせて構成された解析条件を用いて行動を特定するため、事前に必要な設定作業として、特定する行動を行っている人の画像データを取得する必要がない。したがって、事前に必要な設定作業の負荷を軽減しつつ、画像データから人の行動内容を特定可能である。
<変形例1>
実施の形態1では、行動解析装置10は、事前処理と特定処理との両方を行った。しかし、事前処理を行う装置と、特定処理を行う装置とを分けてもよい。この場合には、事前処理を行う装置は、行動解析ルール31を外部の記憶装置に記憶する。そして、特定処理を行う装置は、外部の記憶装置から行動解析ルール31を読み出して使用する。なお、外部の記憶装置に代えて、事前処理を行う装置又は特定処理を行う装置のストレージが用いられてもよい。
実施の形態1では、手を振るという行動を特定する例を説明した。行動特定装置10は、人に加えて背景に映った物体を考慮して行動を特定することも可能である。具体的には、行動特定装置10は、画像データに映った、位置が固定された什器又は壁等の物体と、骨格情報が示す関節の位置との関係を考慮して、行動を特定することができる。例えば、レジやレジカウンタの位置に対して、いずれか一方の手首がレジの現金トレー近辺にあるのに対して、その人物の足首の位置(人物の立っている位置)がレジカウンタの外側にあるという状態を特定することができる。
この場合には、行動特定装置10は、固定された物体の位置と、処理対象とする1つ以上の関節の位置との位置関係を解析する対象とする解析項目を用いて行動を特定すればよい。
これにより、例えば、店舗のカウンタ越しにレジに手を入れるといった行動を特定することが考えられる。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、行動解析装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
Claims (12)
- 骨格の関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を行動内容に対応付けた行動解析ルールを記憶装置から読み出して、画像データに映った被写体についての骨格の関節の位置を示す骨格情報が前記行動解析ルールにおける前記解析条件を満たす場合に、前記解析条件に対応付けられた前記行動内容が示す行動を前記被写体が行っていると特定する行動特定部
を備える行動解析装置。 - 関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を指定させる条件指定部と、
前記条件指定部によって指定された前記解析条件に対応する行動内容を指定させて、前記解析条件と前記行動内容とを対応付けた行動解析ルールを生成するルール生成部と
を備える行動解析装置。 - 前記対象部品は、解析項目毎に用意された
請求項1又は2に記載の行動解析装置。 - 前記内容部品は、解析内容毎に用意された
請求項1から3までのいずれか1項に記載の行動解析装置。 - 前記解析条件は、さらに、他の内容部品による解析結果に対する解析内容を示す内容部品を用いて構成された
請求項1から4までのいずれか1項に記載の行動解析装置。 - 前記内容部品は、解析内容毎に用意されており、処理対象とする対象部品と、処理対象とする解析結果の判定元の内容部品との少なくともいずれかを示す設定値が設定されるパラメータを用いて構成された
請求項5に記載の行動解析装置。 - 前記解析項目は、処理対象とする複数の関節についての相対的な位置関係と、処理対象とする関節の位置の動きとの少なくともいずれかを含む
請求項1から6までのいずれか1項に記載の行動解析装置。 - 前記解析項目は、固定された物体の位置と、処理対象とする1つ以上の関節の位置との位置関係を含む
請求項1から7までのいずれか1項に記載の行動解析装置。 - コンピュータが、骨格の関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を行動内容に対応付けた行動解析ルールを記憶装置から読み出して、画像データに映った被写体についての骨格の関節の位置を示す骨格情報が前記行動解析ルールにおける前記解析条件を満たす場合に、前記解析条件に対応付けられた前記行動内容が示す行動を前記被写体が行っていると特定する行動解析方法。
- 骨格の関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を行動内容に対応付けた行動解析ルールを記憶装置から読み出して、画像データに映った被写体についての骨格の関節の位置を示す骨格情報が前記行動解析ルールにおける前記解析条件を満たす場合に、前記解析条件に対応付けられた前記行動内容が示す行動を前記被写体が行っていると特定する行動特定処理
を行う行動解析装置としてコンピュータを機能させる行動解析プログラム。 - コンピュータが、関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を指定させ、
コンピュータが、指定された前記解析条件に対応する行動内容を指定させて、前記解析条件と前記行動内容とを対応付けた行動解析ルールを生成する行動解析方法。 - 関節の位置に基づく解析項目を示す対象部品であって、処理対象とする関節を示す設定値が設定されるパラメータを用いて構成される複数の対象部品のうちのいずれかの対象部品と、前記対象部品が示す前記解析項目に対する解析内容を示す内容部品であって、対象部品を示す設定値が設定されるパラメータを用いて構成される複数の内容部品のうちのいずれかの内容部品と、が選択され組み合わせて生成された解析条件に対して、前記対象部品のパラメータに処理対象とする関節を示す設定値が設定され、前記内容部品のパラメータに対象部品を示す設定値が設定された解析条件を指定させる条件指定処理と、
前記条件指定処理によって指定された前記解析条件に対応する行動内容を指定させて、前記解析条件と前記行動内容とを対応付けた行動解析ルールを生成するルール生成処理とを行う行動解析装置としてコンピュータを機能させる行動解析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021100042A JP7158534B1 (ja) | 2021-06-16 | 2021-06-16 | 行動解析装置、行動解析方法及び行動解析プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021100042A JP7158534B1 (ja) | 2021-06-16 | 2021-06-16 | 行動解析装置、行動解析方法及び行動解析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7158534B1 true JP7158534B1 (ja) | 2022-10-21 |
JP2022191674A JP2022191674A (ja) | 2022-12-28 |
Family
ID=83691944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021100042A Active JP7158534B1 (ja) | 2021-06-16 | 2021-06-16 | 行動解析装置、行動解析方法及び行動解析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7158534B1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018131630A1 (ja) | 2017-01-13 | 2018-07-19 | 三菱電機株式会社 | 作業分析装置および作業分析方法 |
WO2019049216A1 (ja) | 2017-09-05 | 2019-03-14 | 富士通株式会社 | 採点方法、採点プログラムおよび採点装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7241004B2 (ja) * | 2019-11-19 | 2023-03-16 | 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ | 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム |
-
2021
- 2021-06-16 JP JP2021100042A patent/JP7158534B1/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018131630A1 (ja) | 2017-01-13 | 2018-07-19 | 三菱電機株式会社 | 作業分析装置および作業分析方法 |
WO2019049216A1 (ja) | 2017-09-05 | 2019-03-14 | 富士通株式会社 | 採点方法、採点プログラムおよび採点装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2022191674A (ja) | 2022-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shriram et al. | Deep learning-based real-time AI virtual mouse system using computer vision to avoid COVID-19 spread | |
JP4686595B2 (ja) | クリティカルポイント解析に基づくポーズ推定 | |
Adeli et al. | Socially and contextually aware human motion and pose forecasting | |
JP6950692B2 (ja) | 人流推定装置、人流推定方法およびプログラム | |
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
US20130335318A1 (en) | Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers | |
Ding et al. | STFC: Spatio-temporal feature chain for skeleton-based human action recognition | |
KR20160129000A (ko) | 모바일 디바이스를 위한 실시간 3d 제스처 인식 및 트랙킹 시스템 | |
KR102358543B1 (ko) | 증강 현실 및 가상 현실을 사용한 증강 현실 경험들의 저작 | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Trivedi et al. | Psumnet: Unified modality part streams are all you need for efficient pose-based action recognition | |
Nan et al. | Learning to infer human attention in daily activities | |
US11069086B2 (en) | Non-transitory computer-readable storage medium for storing position detection program, position detection method, and position detection apparatus | |
Li et al. | Global co-occurrence feature learning and active coordinate system conversion for skeleton-based action recognition | |
JP7080285B2 (ja) | 動作特定装置、動作特定方法及び動作特定プログラム | |
WO2021248857A1 (zh) | 一种障碍物属性判别方法、系统及智能机器人 | |
JP7158534B1 (ja) | 行動解析装置、行動解析方法及び行動解析プログラム | |
Raman et al. | Emotion and Gesture detection | |
Ueng et al. | Vision based multi-user human computer interaction | |
JP2021128476A (ja) | 画像処理方法、画像処理プログラム、および画像処理装置 | |
CN108629824B (zh) | 图像生成方法、装置、电子设备及计算机可读介质 | |
JP2007048232A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Desai | Segmentation and recognition of fingers using Microsoft Kinect | |
Shah et al. | Gesture recognition technique: a review | |
CN113807280A (zh) | 一种基于Kinect的虚拟船舶机舱系统与方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7158534 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |