JP2022043974A - Behavior recognition apparatus, learning apparatus, and behavior recognition method - Google Patents
Behavior recognition apparatus, learning apparatus, and behavior recognition method Download PDFInfo
- Publication number
- JP2022043974A JP2022043974A JP2021037260A JP2021037260A JP2022043974A JP 2022043974 A JP2022043974 A JP 2022043974A JP 2021037260 A JP2021037260 A JP 2021037260A JP 2021037260 A JP2021037260 A JP 2021037260A JP 2022043974 A JP2022043974 A JP 2022043974A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- learning
- shape
- target
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006399 behavior Effects 0.000 title claims abstract description 416
- 238000000034 method Methods 0.000 title claims description 266
- 238000013145 classification model Methods 0.000 claims abstract description 138
- 238000004458 analytical method Methods 0.000 claims abstract description 59
- 230000001186 cumulative effect Effects 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims description 200
- 230000009467 reduction Effects 0.000 claims description 125
- 238000004364 calculation method Methods 0.000 claims description 90
- 230000009471 action Effects 0.000 claims description 84
- 238000010606 normalization Methods 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 57
- 230000007547 defect Effects 0.000 claims description 56
- 230000001174 ascending effect Effects 0.000 claims description 25
- 238000011946 reduction process Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 21
- 238000000491 multivariate analysis Methods 0.000 claims description 13
- 230000002950 deficient Effects 0.000 claims description 9
- 230000003542 behavioural effect Effects 0.000 claims description 2
- 238000010202 multivariate logistic regression analysis Methods 0.000 abstract 1
- 238000000513 principal component analysis Methods 0.000 description 47
- 230000010365 information processing Effects 0.000 description 40
- 230000006870 function Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 38
- 238000003066 decision tree Methods 0.000 description 23
- 238000012880 independent component analysis Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000009792 diffusion process Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000006185 dispersion Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003183 myoelectrical effect Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、行動認識装置、学習装置、および行動認識方法に関する。 The present invention relates to a behavior recognition device, a learning device, and a behavior recognition method.
本技術分野の背景技術として、特許文献1は、人の動作において、表面筋電位等の生体信号に頼らずにそれが意図したものであるか否かを識別する意図推定装置を開示する。この意図推定装置は、人の動作している位置、および角度の計測方法を用いて動作情報を取得し人の動作を人が実現可能な範囲に制限し、その動作中における人の関節角度と動作している部位の先端位置の位置情報を抽出し多変量解析手法を用い、さらに人の動作が意図するものであるか否かを識別する閾値を用いて、人の動作がその人が意図するものであるか否かを識別することで、表面筋電位等の生体信号に頼らずに、動作が意図したものであるか否かを識別する。
As a background technique in the present technical field,
人の動作における意図を推定するために上記特許文献1に記載された技術では、行動を意図するものか否かの2値化判断するため、複数種類の複雑な動作の意図を分類することはできず、動作の意図推定の精度を著しく低下させる可能性が生じる。
In the technique described in
本発明は、認識対象の複数種類の行動を高精度に認識することを目的とする。 An object of the present invention is to recognize a plurality of types of actions to be recognized with high accuracy.
本願において開示される発明の一側面となる行動認識装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有する行動認識装置であって、多変量解析で統計的な成分を生成する成分分析により学習対象の形状から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、前記プロセッサは、解析対象データから認識対象の形状を検出する検出処理と、前記成分分析により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する成分分析処理と、前記各々の寄与率から得られる累積寄与率に基づいて、前記1以上の各々の次元を示す序数を決定する決定処理と、前記決定処理によって決定された次元を示す序数の成分を1以上含む特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、を実行することを特徴とする。 The behavior recognition device according to one aspect of the invention disclosed in the present application is a behavior recognition device having a processor for executing a program and a storage device for storing the program, and a statistical component is obtained by multivariate analysis. The behavior classification model group learned for each component group can be accessed by using the component group obtained from the shape of the learning target by the generated component analysis and the behavior of the learning target, and the processor is the analysis target. A detection process for detecting the shape of the recognition target from the data, and one or more components and the contribution ratio of each of the components based on the shape of the recognition target detected by the detection process by the component analysis. A determination process for determining a sequence indicating each of the above 1 or more dimensions based on a component analysis process to be generated and a cumulative contribution rate obtained from each of the contribution rates, and a decision process indicating a dimension determined by the determination process. A specific behavior classification model learned in the same component group as a specific component group containing one or more components of is selected from the behavior classification model group and a specific behavior classification model selected by the selection process. By inputting the specific component group, an action recognition process for outputting a recognition result indicating the action of the recognition target is executed.
本願において開示される発明の他の側面となる行動認識装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有する行動認識装置であって、多変量解析で統計的な成分を生成する次元削減により学習対象の形状から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、前記プロセッサは、解析対象データから認識対象の形状を検出する検出処理と、前記次元削減により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する次元削減処理と、前記各々の寄与率に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数を決定する決定処理と、前記第1変数から前記決定処理によって決定された次元を示す序数の成分までの特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、を実行することを特徴とする。 The behavior recognition device according to another aspect of the invention disclosed in the present application is a behavior recognition device having a processor for executing a program and a storage device for storing the program, and is a statistical component in multivariate analysis. It is possible to access the behavior classification model group learned for each component group by using the component group in ascending order from the first variable obtained from the shape of the learning target by the dimension reduction to generate and the behavior of the learning target. The processor has one or more components and the component based on the shape of the recognition target detected by the detection process by the detection process of detecting the shape of the recognition target from the analysis target data and the dimension reduction. And the dimension reduction process to generate each contribution rate, and the decision process to determine the order indicating the dimension of the ascending component from the first variable among the one or more components based on each contribution rate. , A selection process for selecting from the behavior classification model group a specific behavior classification model learned in the same component group as the specific component group from the first variable to the component of the order indicating the dimension determined by the determination process. And, by inputting the specific component group into the specific action classification model selected by the selection process, the action recognition process that outputs the recognition result indicating the action of the recognition target is executed. do.
本願において開示される発明の一側面となる学習装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有する学習装置であって、前記プロセッサは、学習対象の形状および行動を含む教師データを取得する取得処理と、多変量解析で統計的な成分を生成する成分分析により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する成分分析処理と、許容計算量に基づいて、前記1以上の各々の次元を示す序数を制御する制御処理と、前記制御処理によって制御された次元を示す序数の成分を1以上含む成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、を実行することを特徴とする。 The learning device according to one aspect of the invention disclosed in the present application is a learning device having a processor for executing a program and a storage device for storing the program, and the processor determines the shape and behavior of a learning target. Component analysis that generates one or more components based on the shape of the learning target acquired by the acquisition process by the acquisition process that acquires the teacher data including and the component analysis that generates statistical components by multivariate analysis. The learning, a control process for controlling the order indicating each dimension of 1 or more based on the processing, an allowable calculation amount, a component group containing 1 or more components of the order indicating the dimension controlled by the control process, and the learning. It is characterized by executing a behavior learning process of learning the behavior of the learning target and generating a behavior classification model for classifying the behavior of the learning target based on the behavior of the target.
本願において開示される発明の他の側面となる学習装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有する学習装置であって、前記プロセッサは、学習対象の形状および行動を含む教師データを取得する取得処理と、多変量解析で統計的な成分を生成する次元削減により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する次元削減処理と、許容計算量に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数を制御する制御処理と、前記第1変数から前記制御処理によって制御された次元を示す序数の成分までの成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、を実行することを特徴とする。 A learning device according to another aspect of the invention disclosed in the present application is a learning device having a processor for executing a program and a storage device for storing the program, wherein the processor has a shape and behavior of a learning object. A dimension that generates one or more components based on the shape of the learning target acquired by the acquisition process by the acquisition process that acquires teacher data including the above and the dimension reduction that generates statistical components by multivariate analysis. It was controlled by the reduction process, the control process that controls the order indicating the dimension of the ascending component from the first variable among the one or more components based on the allowable calculation amount, and the control process from the first variable. A behavior learning process that learns the behavior of the learning target based on the component group up to the component of the order indicating the dimension and the behavior of the learning target, and generates a behavior classification model that classifies the behavior of the learning target. And, it is characterized by executing.
本発明の代表的な実施の形態によれば、認識対象の複数種類の行動を高精度に認識することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。 According to a typical embodiment of the present invention, it is possible to recognize a plurality of types of actions to be recognized with high accuracy. Issues, configurations and effects other than those described above will be clarified by the description of the following examples.
以下、本発明に係る実施の形態を図面に基づいて説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aよりなる」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in all the drawings for explaining the embodiment, the same members are designated by the same reference numerals in principle, and the repeated description thereof will be omitted. Further, in the following embodiments, the constituent elements (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say. In addition, when saying "consisting of A", "consisting of A", "having A", and "including A", other elements are excluded unless it is clearly stated that it is only that element. It goes without saying that it is not something to do. Similarly, in the following embodiments, when the shape, positional relationship, etc. of the components or the like are referred to, the shape is substantially the same, except when it is clearly stated or when it is considered that it is not clearly the case in principle. Etc., etc. shall be included.
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as "first", "second", and "third" in the present specification and the like are attached to identify components, and do not necessarily limit the number, order, or contents thereof. is not it. Further, the numbers for identifying the components are used for each context, and the numbers used in one context do not always indicate the same composition in the other contexts. Further, it does not prevent the component identified by a certain number from functioning as the component identified by another number.
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each configuration shown in the drawings and the like may not represent the actual position, size, shape, range, etc. in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the position, size, shape, range and the like disclosed in the drawings and the like.
<行動認識システム>
図1は、実施例1にかかる行動認識システムのシステム構成例を示す説明図である。行動認識システム100は、サーバ101と、1台以上のクライアント102と、を有する。サーバとクライアントとは、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などのネットワーク105を介して通信可能に接続される。サーバ101は、クライアント102を管理するコンピュータである。クライアント102は、センサ103に接続され、センサ103からのデータを取得するコンピュータである。
<Behavior recognition system>
FIG. 1 is an explanatory diagram showing a system configuration example of the behavior recognition system according to the first embodiment. The
センサ103は、解析環境から解析対象データを検出する。センサ103は、たとえば、静止画または動画を撮像するカメラである。また、センサ103は、音声や匂いを検出してもよい。教師信号DB104は、学習データ(人の骨格情報および関節角度)と行動情報(たとえば、「立つ」、「倒れる」といった人の姿勢や動作)との組み合わせを教師信号として保持するデータベースである。教師信号DB104は、サーバ101に記憶されていてもよく、サーバ101またはクライアント102とネットワーク105を介して通信可能なコンピュータに接続されていてもよい。
The
行動認識システム100は、教師信号DB104を用いた学習機能と、学習機能により得られた行動分類モデルを用いた行動認識機能と、を有する。行動分類モデルとは、人や動物などの認識対象の行動を分類するための学習モデルである。学習機能および行動認識機能は、行動認識システム100に実装されていれば、サーバ101およびクライアント102のいずれに実装されていてもよい。たとえば、サーバ101が学習機能を実装し、クライアント102が行動認識機能を実装してもよい。また、サーバ101が学習機能および行動認識機能を実装し、クライアント102は、センサ103からのデータをサーバ101に送信したり、サーバ101からの行動認識機能による行動認識結果を受け付けたりしてもよい。
The
また、クライアント102が学習機能および行動認識機能を実装し、サーバ101は、クライアント102からの行動分類モデルや行動認識結果を管理してもよい。なお、学習機能を実装するコンピュータを学習装置と称し、学習機能および行動認識機能のうち少なくとも行動認識機能を実装するコンピュータを行動認識装置と称す。また、図1では、クライアントサーバ型の行動認識システム100を例に挙げたが、スタンドアロン型の行動認識装置でもよい。実施例1では、説明の便宜上、サーバ101が学習機能を実装し(学習装置)、クライアント102が行動認識機能を実装した(行動認識装置)行動認識システム100を例に挙げて説明する。
Further, the
<コンピュータのハードウェア構成例>
図2は、コンピュータ(サーバ101、クライアント102)のハードウェア構成例を示すブロック図である。コンピュータ200は、プロセッサ201と、記憶デバイス202と、入力デバイス203と、出力デバイス204と、通信インターフェース(通信IF)205と、を有する。プロセッサ201、記憶デバイス202、入力デバイス203、出力デバイス204、および通信IF205は、バス206により接続される。プロセッサ201は、コンピュータ200を制御する。記憶デバイス202は、プロセッサ201の作業エリアとなる。また、記憶デバイス202は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス202としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。入力デバイス203は、データを入力する。入力デバイス203としては、たとえば、キーボード、マウス、タッチパネル、テンキー、スキャナがある。出力デバイス204は、データを出力する。出力デバイス204としては、たとえば、ディスプレイ、プリンタ、スピーカがある。通信IF205は、ネットワーク105と接続し、データを送受信する。
<Computer hardware configuration example>
FIG. 2 is a block diagram showing a hardware configuration example of a computer (
<学習データ>
図3は、学習データの一例を示す説明図である。学習データ380は、対象者ごとに骨格情報320と、関節角度370と、により構成される。骨格情報320は、センサ103から取得した解析対象データを基に検出される。関節角度370は、骨格情報320を基に算出される。対象者一人分の学習データ380は、たとえば、その対象者が被写体となる複数の時系列なフレームの各々から得られる骨格情報320および関節角度370の組み合わせにより構成される。
<Learning data>
FIG. 3 is an explanatory diagram showing an example of learning data. The learning
骨格情報320は、複数(本例では18個)の骨格点300~317の各々について、名前321と、X軸におけるx座標値322と、X軸に直交するy軸におけるy座標値323と、を有する。関節角度370も、複数(本例では18個)の骨格点300~317の各々について、名前371を有する。なお、名前371において、∠a-b-c(a,b,cは骨格点の名前321)は、線分abと線分bcとのなす骨格点bの関節角度370である。なお、骨格情報320は、たとえば、指の関節を含んでもよい。また、関節角度370も、これら以外の関節角度370を含んでもよい。
The
なお、図3では、骨格点300~317の座標値を2次元の位置情報(x座標値およびy座標値の組み合わせ)としたが、3次元の位置情報としてもよい。具体的には、たとえば、X軸およびy軸に直交するz軸(たとえば、奥行き方向)におけるz座標値が追加されてもよい。 In FIG. 3, the coordinate values of the skeleton points 300 to 317 are used as two-dimensional position information (combination of x-coordinate value and y-coordinate value), but may be used as three-dimensional position information. Specifically, for example, a z-coordinate value on the z-axis (for example, in the depth direction) orthogonal to the X-axis and the y-axis may be added.
<行動認識システム100の機能的構成例>
図4は、実施例1にかかる行動認識システム100の機能的構成例を示すブロック図である。サーバ101は、教師信号取得部401と、欠損情報制御部402と、骨格情報処理部403と、主成分分析部404と、次元数制御部405と、行動学習部406と、を有する。クライアント102は、骨格検出部451と、欠損情報判断部452と、骨格情報処理部453と、主成分分析部454と、次元数決定部455と、行動分類モデル選択部456と、行動認識部457と、を有する。
<Example of functional configuration of
FIG. 4 is a block diagram showing a functional configuration example of the
これらは、具体的には、たとえば、図2に示した記憶デバイス202に記憶されたプログラムをプロセッサ201に実行させることにより実現される。まず、サーバ101側の機能的構成例について説明する。
Specifically, these are realized, for example, by causing the
教師信号取得部401は、教師信号DB104から取得した教師信号について学習に用いる教師信号を単数、または複数取得して、選択した教師信号を欠損情報制御部402に出力する。
The teacher
欠損情報制御部402は、教師信号取得部401から取得した教師信号の内、骨格情報320に対して任意の骨格点を欠損させる。欠損させる骨格点は単数でも複数でも0でもよい。欠損情報制御部402は、欠損後(欠損させる骨格点が0個の場合も含む)の骨格情報320を教師信号内の骨格情報320として更新する。またノイズ耐性を強くするため、情報を欠損させる際に骨格情報320に対して骨格点位置をずらすようなノイズを加えて、骨格情報320を更新してもよい。
The missing
そして、欠損情報制御部402は、欠損させた骨格点の名前321および位置情報(x座標値322、y座標値323)である欠損情報を含む教師信号を、骨格情報処理部120に出力する。また、欠損情報制御部402は、欠損情報を骨格情報処理部403と主成分分析部404と次元数制御部405を介して行動学習部406に出力する。
Then, the defect
骨格情報処理部403は、更新後の骨格情報320を処理する。具体的には、たとえば、骨格情報処理部403は、取得した更新後の教師信号の内、骨格情報320から関節角度370とフレーム間の移動量とを算出する。また、骨格情報処理部403は、骨格情報320に対して絶対的な位置情報を除外し、骨格情報320の大きさが一定となる正規化を実行する。そして、骨格情報処理部403は、関節角度370と、フレーム間の移動量と、正規化した骨格情報320と、を主成分分析部404に出力する。
The skeleton
図5は、骨格情報処理部403,453の詳細な機能的構成例を示すブロック図である。骨格情報処理部403,453は、関節角度算出部501と、移動量算出部502と、正規化部503と、を有する。
FIG. 5 is a block diagram showing a detailed functional configuration example of the skeleton
関節角度算出部501は、取得した教師信号の内、骨格情報320から関節角度370を算出し、移動量算出部502と正規化部503を介して主成分分析部404に出力する。
The joint
移動量算出部502は、取得した教師信号の内、骨格情報320からフレーム間の移動量を算出し、正規化部503を介して主成分分析部404に出力する。
The movement
正規化部503は、取得した教師信号の内、骨格情報320に対して絶対的な位置情報を除外し、骨格情報320の大きさが一定となる正規化を実行して主成分分析部404に出力する。
The
図4に戻り、主成分分析部404は、骨格情報処理部403から取得した教師信号の内、正規化した骨格情報320と、関節角度370と、フレーム間の移動量と、を入力データとして、主成分分析を実行して単数または複数の主成分を生成し、次元数制御部405に出力する。なお、骨格情報320、関節角度370、およびフレーム間の移動量のうち、少なくとも骨格情報320が入力データであればよい。
Returning to FIG. 4, the principal
主成分分析では下記式(1)に示す通り、入力データxiに係数wijを各々乗算し、加算することで主成分yiを生成する。主成分分析の一般式を下記式(2)に示す。係数wijは、下記式(3)に示す通り、yiの分散をV(yi)として定義した場合、分散V(yi)が最大となるように定める。 In the principal component analysis, as shown in the following equation (1), the principal component y i is generated by multiplying the input data x i by the coefficient wij and adding them. The general formula for principal component analysis is shown in the following formula (2). As shown in the following equation (3), the coefficient wij is determined so that the variance V (y i ) becomes the maximum when the variance of y i is defined as V (y i ).
ただし、係数wijに制約を持たせない場合、分散V(yi)の絶対量は無限に大きく取ることができ、係数wijは一意に決定することができないため、下記式(4)の制約を付すことが望ましい。また、情報の重複を無くすため、新たに生成する主成分ykとこれまでに生成した主成分ykの共分散は0となる下記式(5)の制約を付すことが望ましい。 However, if the coefficient wij is not constrained, the absolute amount of the variance V (y i ) can be infinitely large, and the coefficient wij cannot be uniquely determined. Therefore, the constraint of the following equation (4) It is desirable to add. Further, in order to eliminate duplication of information, it is desirable to impose the constraint of the following equation (5) that the covariance between the newly generated principal component y k and the previously generated principal component y k is 0.
ただし、制約として付す上記式(4)と上記式(5)は、これに限らず別の制約条件を付したり、または制約を外したりして係数wijを算出しても問題ない。こうして生成した新たな主成分yjの分散V(yj)について下記式(6)に示す通りλjとして別途定義した場合、下記式(7)に示す通り入力データxjの分散V(xj)の合計とλjの合計は等しい。 However, the above equation (4) and the above equation (5) attached as constraints are not limited to this, and there is no problem in calculating the coefficient wij by adding another constraint condition or removing the constraint. When the variance V (yj) of the new principal component y j thus generated is separately defined as λ j as shown in the following equation (6), the variance V (x j ) of the input data x j is shown in the following equation (7). ) And the sum of λ j are equal.
ここでpは入力データxjの数とする。新たに生成した主成分yjの分散V(yj)は高い方が元の情報をより多く反映しており、分散値が高い主成分から順に第1、第2、…、第m主成分という。新たに生成した変数yjの分散と元のデータの分散の比を寄与率といい、下記式(8)で示される。また、第1主成分の寄与率から分散値の降順(主成分の序数mの昇順)に寄与率を加算した結果を累積寄与率といい、下記式(9)で示される。 Here, p is the number of input data x j . The higher the variance V (y j ) of the newly generated principal component y j , the more the original information is reflected. That is. The ratio of the variance of the newly generated variable y j to the variance of the original data is called the contribution ratio and is expressed by the following equation (8). Further, the result of adding the contribution rate from the contribution rate of the first principal component to the descending order of the dispersion values (the ascending order of the ordinal number m of the principal component) is called the cumulative contribution rate and is represented by the following equation (9).
寄与率と累積寄与率は、新たに生成した主成分yjや生成した複数の主成分が元のデータの情報量をどの程度表しているかといった尺度となり、主成分と共に生成される。なお、多変量解析で統計的な成分を生成する成分分析の一例として、主成分分析を適用したが、主成分分析の替わりに、同じく成分分析の一例である独立成分分析を実行してもよい。 The contribution rate and the cumulative contribution rate are measures such as how much the newly generated main component y j and the generated plurality of main components represent the amount of information in the original data, and are generated together with the main components. Although principal component analysis was applied as an example of component analysis that produces statistical components in multivariate analysis, independent component analysis, which is also an example of component analysis, may be performed instead of principal component analysis. ..
独立成分分析の場合、主成分は独立成分となる。この独立成分が入力データxiにどのくらい影響を与えているのかを示す指標として、寄与率を用いてもよい。独立成分分析では、独立成分ごとの独立成分分析における混合係数行列の2乗和が、各独立成分の強度となる。 In the case of independent component analysis, the principal component is an independent component. The contribution rate may be used as an index showing how much this independent component affects the input data xi. In the independent component analysis, the sum of squares of the mixing coefficient matrix in the independent component analysis for each independent component is the intensity of each independent component.
独立成分の強度は独立成分の入力データxiにおける分散を示す。すなわち、独立成分分析によって得られた独立成分はいずれも分散が1に統一されるため、混合係数の2乗和をとれば入力データxiの分散になる。そして、独立成分の強度を、全独立成分の強度の総和で割った値を、その独立変数の寄与率とすればよい。 The intensity of the independent component indicates the variance of the independent component in the input data x i . That is, since the variances of all the independent components obtained by the independent component analysis are unified to 1, the variance of the input data x i can be obtained by taking the sum of squares of the mixing coefficients. Then, the value obtained by dividing the intensity of the independent component by the sum of the intensities of all the independent components may be used as the contribution rate of the independent variable.
次元数制御部405は、1以上の成分の各々の次元を示す序数kを制御する。具体的には、たとえば、次元数制御部405は、取得した主成分の内、行動学習部406で学習に用いる主成分を分散値の高い順に何次元まで使用するかを決定し、第1主成分から、決定した次元k(kは1以上の整数)を序数とする第k主成分までの主成分を、分散値の高い順に行動学習部406に出力する。
The dimension
行動学習部406は、次元数制御部405から取得した主成分と、教師信号DB104から取得した教師信号内の行動情報とを、関連付けて学習する。具体的には、たとえば、行動学習部406は、次元数制御部405から取得した第1主成分から第k主成分までの主成分群を入力データとし、教師信号DB104から取得した教師信号内の行動情報を出力データとして、機械学習により、行動分類モデルを生成する。行動学習部406は、学習の結果生成した行動分類モデルを、欠損情報制御部402から取得した欠損情報と関連付けて、行動分類モデル選択部456に出力する。
The
つぎに、クライアント102側の機能的構成例について説明する。骨格検出部451は、センサ103から取得した解析対象データに映る人の骨格情報320を検出し、欠損情報判断部452に出力する。骨格情報320の検出には機械学習により生成した人の骨格情報320を推定可能なNN(neural network)を用いてもよいし、検出したい人の骨格点にマーカーを付与して、画像に映るマーカー位置から骨格情報320を検出してもよく、骨格情報320を検出する方法は限定されない。
Next, an example of a functional configuration on the
欠損情報判断部452は、骨格検出部451で検出した骨格情報320の内、オクルージョンなどにより取得できない骨格点があるか否かを判断し、取得できなかった骨格点があれば、その位置情報を欠損情報とし、骨格検出部451で検出した骨格情報320を骨格情報処理部453に出力する。また、欠損情報判断部452は、欠損情報を骨格情報処理部453と主成分分析部454と次元数決定部455を介して行動分類モデル選択部456に出力する。
The defect
骨格情報処理部453は、骨格情報処理部403と同様の機能を有する。骨格情報処理部453は、骨格検出部451で検出した骨格情報320に対して骨格情報処理部403と同様の処理を実行して、関節角度370と、フレーム間の移動量と、正規化した骨格情報320と、を主成分分析部454に出力する。
The skeletal
主成分分析部454は、主成分分析部404と同様の機能を有する。主成分分析部454は、骨格情報処理部453からの出力データに対して主成分分析部404と同様の処理を実行して、単数または複数の主成分を生成する。また、主成分分析部454は、主成分と共に生成した寄与率と累積寄与率とを次元数決定部455に出力する。
The principal
次元数決定部455は、各々の寄与率から得られる累積寄与率に基づいて、1以上の成分の各々の次元を示す序数kを決定する。具体的には、たとえば、次元数決定部455は、取得した寄与率および累積寄与率から、取得した主成分の内、分散の高い順に何次元までの主成分を行動分類モデル選択部456に出力するかを示す次元数kを決定する。次元数kとは、主成分の次元を示す序数kである。たとえば、第1主成分であれば、次元数(序数)k=1であり、第2主成分であれば、次元数(序数)k=2である。次元数決定部455は、分散の高い順に第1主成分から第k主成分までの主成分群を行動分類モデル選択部456に出力する。
The dimension
行動分類モデル選択部456は、欠損情報制御部402が生成する欠損情報に関連付けられた行動分類モデルの内、欠損情報判断部452から取得した欠損情報と同じ欠損情報が関連付けられ、かつ、次元数決定部455が決定した第k次元までの主成分群(第1主成分~第k主成分)で行動学習を行った行動分類モデルを選択する。行動分類モデル選択部456は、第1主成分から第k主成分までの主成分群と共に選択した行動分類モデルを行動認識部457に出力する。
The behavior classification
特に2次元画像においては、定義したすべての骨格点をオクルージョンなどにより取得できない可能性があり、取得できなかった一部の骨格点が欠損した骨格情報320が骨格検出部451で生成される可能性がある。この一部の骨格点が欠損した骨格情報320について行動認識を行う場合、クライアント102は、骨格検出部451で検出された欠損した骨格情報320の欠損情報に関連付けられた行動学習モデルを用いて行動認識を行う。これにより、一部の骨格点が欠損した骨格情報320についても高精度な行動認識が実現される。
Especially in a two-dimensional image, there is a possibility that all the defined skeleton points cannot be acquired due to occlusion or the like, and the
なお、行動学習部406から取得した欠損情報制御部402が生成する欠損情報に関連付けられた行動分類モデルの内、欠損情報判断部452から取得した欠損情報と同じ欠損情報が関連付けられ、且つ次元数決定部455が決定した主成分の次元を示す序数kと同一の主成分(第1主成分~第k主成分)で行動学習を行った行動分類モデルが生成されていない場合も想定される。
Of the behavior classification models associated with the defect information generated by the defect
この場合、行動分類モデル選択部456は、この条件に最も近い行動分類モデル(たとえば、欠損した骨格点の位置情報と所定距離以内の欠損情報が関連付けられた行動分類モデル、第1主成分~第(k-1)主成分で行動学習を行った行動分類モデルなど)を選択してもよい。
In this case, the behavior classification
行動認識部457は、選択した行動分類モデルと第1主成分から第k主成分までの主成分群とに基づいて、センサ103から取得した解析対象データに映る人の行動を認識する。具体的には、たとえば、行動認識部457は、解析対象データから得らえた主成分群(第1主成分~第k主成分)を、選択した行動分類モデルに入力することにより、解析対象データに映る人の行動を示す予測値を認識結果として出力する。
The
<関節角度算出の例>
図6は、関節角度算出部501が実行する関節角度370の詳細な算出方法を示す説明図である。関節角度算出部501は、連結する3点の骨格点600~602において関節角度θを算出する。骨格点600~602の骨格情報620について、原点630を基準とする位置ベクトルO、A、Bのように各々定義する。関節角度算出部501は、骨格点600を原点とする相対ベクトルを下記式(10),(11)に示す通り算出し、算出したベクトルから下記式(12)が成立し、下記式(13)に示す通り逆余弦を算出することで関節角度θを算出する。
<Example of joint angle calculation>
FIG. 6 is an explanatory diagram showing a detailed calculation method of the
<フレーム間の移動量算出の例>
図7は、移動量算出部502が実行するフレーム間の移動量の詳細な算出方法の例を示す説明図である。移動量算出部502は、フレーム間の移動量の算出において、同一被写体についての第Nフレーム目の骨格情報701と第N-Mフレーム目の骨格情報702とを用いる。N、Mは1以上の整数であり、N>Mである。Mの値は任意に設定可能である。下記式(14)~(16)に示す通り、移動量算出部502は、各フレーム間で示される同一人物の同一骨格点300~317の距離を各々算出する。18個の骨格点300~317のフレーム間の移動量が、当該人物についてのフレーム間の移動量となる。
<Example of calculation of movement amount between frames>
FIG. 7 is an explanatory diagram showing an example of a detailed calculation method of the movement amount between frames executed by the movement
ただ、移動量算出部502が実行するフレーム間の移動量はこれに限定されるものではなく、下記式(17)に示す通り、移動量算出部502は、各フレーム間で示される同一人物の同一骨格点300~317の距離を各々算出し、全18個の骨格点300~317のフレーム間の移動量を合算した値を、当該人物についてのフレーム間の移動量としてもよい。
また、移動量算出部502は、第nフレームの骨格情報701と第n-mフレームの骨格情報702の内、重心となる重心骨格情報711と重心骨格情報712を用いてもよい。具体的には、たとえば、移動量算出部502は、下記式(18)~(19)に示す通り、人物ごとに重心を算出し、下記式(20)に示す通り、算出した重心に対して、当該人物についてのフレーム間の移動量を算出してもよい。
Further, the movement
<正規化の例>
図8は、正規化部503が実行する骨格情報320の正規化の詳細な手法を示す説明図である。まず、正規化部503は、(a)すべてまたは一部の骨格情報320から重心を算出し、(b)重心を原点とする相対座標に変換する。その後、正規化部503は、(c)18個の骨格点300~317を囲う最小の長方形の対角線の長さLで、(d)骨格情報320の各骨格点の位置情報を割る。(d)で得られた骨格情報320を教師信号とした場合、割り算後の骨格点300~317の位置情報も組み込まれることとなる。
<Example of normalization>
FIG. 8 is an explanatory diagram showing a detailed method of normalizing the
たとえば、正規化部503が実行されないと「180cmの人が地点Aで座る」といった行動について骨格検出および行動分類のための学習が実行されると、「地点A以外では座らない」、「180cm以外の人は座らない」といった判定が下される可能性がある。こうした限定を除外し、行動分類に汎用性を持たせるため、画像内の絶対的な位置情報と、骨格の大きさに関する情報について除去するため、正規化部503が骨格情報320の正規化を実行する。
For example, if the
<教師信号DB104が保持する教師信号>
図9は、教師信号DB104が保持する教師信号の詳細な例を示す説明図である。解析対象データとなる(a)画像900に映る人において、(b)骨格情報320Aと、関節角度370(不図示)と、骨格情報320Aに関連付けられる(c)行動情報901(「立つ」)と、の組み合わせが、教師信号となる。同様に、解析対象データとなる(a)画像910に映る人において、(b)骨格情報320Bと、関節角度370(不図示)と、骨格情報320Bに関連付けられる(c)行動情報911(「倒れる」)と、の組み合わせが、教師信号となる。
<Teacher signal held by the
FIG. 9 is an explanatory diagram showing a detailed example of the teacher signal held by the
<次元数制御部405による次元数制御と行動学習部406による行動学習>
図10は、教師信号を入力データとして主成分分析部404が生成した主成分を、主成分空間上にプロットした例を示す説明図である。凡例は教師信号に含まれる行動情報1000~1004を示す。
<Dimension control by
FIG. 10 is an explanatory diagram showing an example in which the principal component generated by the principal
図10において、(a)はX軸に第1主成分を、Y軸に第2主成分をとり、第2主成分までの情報を2次元平面上にプロットした例を示す。(b)はX軸に第1主成分を、Y軸に第2主成分をとり、Z軸に第3主成分をとり、第3主成分までの情報を3次元空間上にプロットした例を示す。 In FIG. 10, (a) shows an example in which the first principal component is taken on the X-axis and the second principal component is taken on the Y-axis, and the information up to the second principal component is plotted on a two-dimensional plane. (B) is an example in which the X-axis has the first principal component, the Y-axis has the second principal component, the Z-axis has the third principal component, and the information up to the third principal component is plotted in a three-dimensional space. show.
(a)において、立つ1000と、座る1001と、倒れる1004は、第2主成分までの2次元平面上でも分離可能な様子が伺えるが、歩く1002と、しゃがむ1003は第2主成分までの2次元平面上では分離困難な様子が伺える。ここで、(b)において、第3主成分までを含めた3次元空間上で、歩く1002としゃがむ1003をプロットした場合、分離の可能性が拡大する場合がある。
In (a), it can be seen that the standing 1000, the sitting 1001, and the falling 1004 can be separated even on the two-dimensional plane up to the second main component, but the
このため、主成分分析部404が生成した主成分を多く用いれば高精度な行動分類の可能性がある。ただし、主成分の次元を示す序数kを多くすると計算量は増加するため、精度と計算量からどこまでの主成分を考慮し、どのくらいの次元の空間で行動を表すかを判断する必要がある。
Therefore, if a large number of principal components generated by the principal
したがって、次元数制御部405は、行動学習部406で学習に用いる主成分の最大序数を変化させ、第1主成分~最大序数の主成分までの主成分群を行動学習部406に出力する。具体的には、たとえば、上述した行動分類の要求精度(たとえば、最低限必要な主成分の次元を示す序数)または/および許容計算量をあらかじめ設定しておき、次元数制御部405が、行動学習部406で学習に用いる主成分の最大序数を変化させ、要求精度または/および許容計算量を最大限充足する序数を決定する。
Therefore, the dimension
たとえば、要求精度が次元を示す序数「3」(第3主成分)という条件の場合、次元数制御部405は、最大序数を「3」に決定し、第1主成分~第3主成分までの主成分群を行動学習部406に出力する。
For example, in the case of the condition that the required accuracy is the ordinal number "3" (third principal component) indicating the dimension, the dimension
また、許容計算量が条件に設定されている場合、次元数制御部405は、第1主成分から昇順に計算量を順次取得し、最大序数を、許容計算量をはじめて超えたときの序数(たとえば、「5」)より1つ少ない序数(たとえば、「4」)に決定し、第1主成分から最大序数k=4の第4主成分までの主成分群を行動学習部406に出力する。
Further, when the permissible calculation amount is set as a condition, the dimension
また、要求精度が次元を示す序数「3」(第3主成分)以上という条件で、かつ、許容計算量が条件に設定されている場合、第3主成分までの累積計算量が許容計算量以下であれば、次元数制御部405は、最大序数を「3」から「4」に変化させる。そして、第4主成分までの累積計算量が許容計算量を超えれば、次元数制御部405は、最大序数kを「3」に決定し、第1主成分~第3主成分までの主成分群を行動学習部406に出力する。
Further, if the required accuracy is the ordinal number "3" (third principal component) or more indicating the dimension and the allowable calculation amount is set as the condition, the cumulative calculation amount up to the third principal component is the allowable calculation amount. If the following, the dimension
一方、第3主成分までの累積計算量が許容計算量を超えれば、次元数制御部405は、最大序数を「3」から「2」に変化させる。そして、第2主成分までの累積計算量が許容計算量以下であれば、次元数制御部405は、最大序数kを「2」に決定し、第1主成分~第2主成分までの主成分群を行動学習部406に出力する。
On the other hand, if the cumulative calculation amount up to the third principal component exceeds the allowable calculation amount, the dimension
なお、行動学習部406に出力する主成分群は、第1主成分から昇順に限定する必要はない。たとえば、次元数制御部405は、予め定めた主成分群を特定の数だけ取り出してもよい。また、次元数制御部405は、特定の主成分群を除外した上で行動学習部406に出力する主成分群を決定してもよい。このように、行動学習部406に出力する主成分群は第1主成分から昇順の主成分群に限定されない。
The principal component group output to the
また、この場合においても、許容計算量が条件に設定されている場合、次元数制御部405は、上述した第1主成分からの昇順に限定していない主成分群について、序数の昇順に計算量を順次取得し、許容計算量をはじめて超えたときの序数より1つ前の序数までの主成分群を行動学習部406に出力する。たとえば、主成分群が第2主成分、第3主成分、第5主成分からなる場合、第2主成分では許容計算量を超えず、第2主成分および第3主成分でも許容計算量を超えず、第2主成分、第3主成分、および第5主成分ではじめて許容計算量を超えた場合、次元数制御部405は、第2主成分から第5主成分の1つ前の第3主成分までを、行動学習部406に出力する主成分群に決定してもよい。
Further, also in this case, when the permissible calculation amount is set as a condition, the dimension
行動学習部406は、予め複数の条件での行動学習を行い、行動分類モデルを生成し、行動分類モデル選択部456に出力する。こうして生成した複数の行動分類モデルから状況に合わせて行動分類モデルを選択することで、汎用的で高精度な行動認識を実現する。
The
図11は、行動学習部406が行動を学習し、行動認識部457が行動を分類するための詳細な手法を示す説明図である。主成分空間上での各行動について、行動学習部406は、(a)境界線1101や(b)境界平面1102を用いて、各行動を領域毎に分類する。行動を学習し分類する際の手法は、k平均法や、サポートベクトルマシン、決定木や、ランダムフォレストなどいずれを採用してもよく、行動学習方法は限定されない。
FIG. 11 is an explanatory diagram showing a detailed method for the
行動学習部406が学習して生成した行動分類モデルを用いて、行動認識部457は行動を認識する。具体的には、たとえば、クライアント102は、新たに入力された骨格情報320について主成分分析を適用し、新たに生成された主成分を行動分類モデルが設定する境界線1101や境界平面1102に従って、どの領域に属するかを判定し、判定された領域に従って行動を認識する。
The
図12は、次元数決定部455が次元数決定の際に用いる累積寄与率の推移を示すグラフである。累積寄与率は、新たに生成した複数の主成分が元のデータの情報量をどの程度表しているかといったことを示す尺度となる。このため、主成分の数を増やして、行動分類の際の次元数を増やしても、累積寄与率に大きな変化が見られない場合は、大きな精度向上は見込めない。
FIG. 12 is a graph showing the transition of the cumulative contribution rate used by the dimension
そこで、次元数決定部455は、予め定めた累積寄与率の閾値を超えるのに必要な数だけ主成分を使用することとし、次元数を決定する。たとえば、予め定めた累積寄与率の閾値を「0.8」とする場合、第2主成分まであれば条件を満たすため、ここでの次元数kは「2」として、第1主成分と第2主成分とを行動分類モデル選択部456に出力する。
Therefore, the dimension
なお、行動分類モデル選択部456に出力する主成分群は、第1主成分から昇順に限定する必要はない。たとえば、次元数決定部455は、予め定めた累積寄与率の閾値を超えずかつ累積寄与率が最大となる主成分の序数kの組み合わせを決定してもよい。また、次元数決定部455は、このような主成分の序数kの組み合わせを、行動分類モデルに適用さされる主成分群から選択してもよい。このように、行動分類モデル選択部456に出力する主成分群は第1主成分から昇順の主成分群に限定されない。
The principal component group output to the behavior classification
<学習処理>
図13は、実施例1にかかるサーバ101(学習装置)による学習処理の詳細な処理手順例を示すフローチャートである。サーバ101は、教師信号取得部401により、教師信号DB104から取得した教師信号について学習に用いる教師信号を単数、または複数取得する(ステップS1300)。
<Learning process>
FIG. 13 is a flowchart showing a detailed processing procedure example of the learning process by the server 101 (learning device) according to the first embodiment. The
サーバ101は、欠損情報制御部402により、取得した教師信号内の骨格情報320に対して情報を欠損させ、欠損させた骨格情報320を教師信号内の骨格情報320として更新し、欠損させた骨格点の名前321および位置情報(x座標値322,y座標値323)を欠損情報とする(ステップS1301)。欠損情報制御部が実行された教師信号を、更新教師信号と称す。
The
サーバ101は、骨格情報処理部403により、更新教師信号ごとに骨格情報処理を実行する(ステップS1302)。具体的には、たとえば、サーバ101は、関節角度算出部501、移動量算出部502、および正規化部503による処理を実行する。
The
図14は、実施例1にかかる骨格情報処理の詳細な処理手順例を示すフローチャートである。サーバ101は、関節角度算出部501により、更新教師信号ごとに、更新教師信号内の骨格情報320から関節角度370を算出する(ステップS1401)。つぎに、サーバ101は、移動量算出部502により、更新教師信号ごとに、更新教師信号内の骨格情報320からフレーム間の移動量を算出する(ステップS1401)。
FIG. 14 is a flowchart showing a detailed processing procedure example of the skeleton information processing according to the first embodiment. The
そして、サーバ101は、正規化部により、更新教師信号ごとに、骨格情報320に対して絶対的な位置情報を除外し、骨格情報320の大きさが一定となる正規化を実行する(ステップS1303)。これにより、更新教師信号について、関節角度370と、フレーム間の移動量と、正規化した骨格情報320と、が得られる。そして、図13のステップS1303に移行する。
Then, the
図13に戻り、サーバ101は、主成分分析部404により、正規化した骨格情報320と、関節角度370と、フレーム間の移動量と、を入力データとして、主成分分析を実行して、単数または複数の主成分を生成する(ステップS1303)。
Returning to FIG. 13, the
つぎに、サーバ101は、次元数制御部405により、生成した主成分の内、学習に用いる主成分を分散値の高い順に何次元使用するか決定し、決定したk次元までの主成分(第1主成分~第k主成分)を分散値の高い順に選択する(ステップS1304)。
Next, the
そして、サーバ101は、行動学習部により、選択した主成分と、更新教師信号内の行動情報と、に基づいて学習を行い、学習の結果、行動分類モデルを生成し、欠損情報と関連付ける(ステップS1305)。
Then, the
主成分分析(ステップS1303)では、主成分分析を実行する前の情報と同じ次元数kの主成分を生成することが可能である。このため、ステップS1306では、サーバ101は、次元数制御部405により、ステップS1304で決定した学習に用いる主成分の次元数kについて、これまでに決定していない主成分の次元がある場合は(ステップS1306:No)、ステップS1304に戻り、これまでに決定していない主成分の次元を決定する(ステップS1304)。
In the principal component analysis (step S1303), it is possible to generate a principal component having the same number of dimensions k as the information before executing the principal component analysis. Therefore, in step S1306, if the
一方、決定可能な学習に用いるすべての主成分の次元をこれまでに決定している場合は(ステップS1306:Yes)、ステップS1307に進む。ただ、ステップS1306の処理の判断は、決定可能な学習に用いるすべての主成分の次元の決定の是非で次の処理を判断のみに限定されない。たとえば、繰返し回数を予め定めておき、予め定めた繰返し回数だけステップS1304を繰返していれば、ステップS1307の処理に進むなどの処理としてもよい。 On the other hand, if the dimensions of all the principal components used for decidable learning have been determined so far (step S1306: Yes), the process proceeds to step S1307. However, the determination of the process in step S1306 is not limited to the determination of the next process depending on the pros and cons of determining the dimensions of all the principal components used for decidable learning. For example, if the number of repetitions is set in advance and step S1304 is repeated a predetermined number of times, the process may proceed to step S1307.
ステップS1307では、ステップS1301で欠損させた骨格情報320について、まだ欠損させていない骨格情報320があれば(ステップS1307:No)、ステップS1301の処理に戻り、サーバ101は、これまでに欠損させていない骨格について欠損させる(ステップS1301)。
In step S1307, if there is
一方、すべての骨格情報320について欠損させた場合(ステップS1307:Yes)、ステップS1308の処理に進む。ただステップS1307の処理の判断はこれに限らず、サーバ101は、予め定めた繰返し回数に従ってステップS1301に戻るか、ステップS1308に進むかを判断してもよい。また、欠損させる骨格を予め定めておき、サーバ101は、予め定めた骨格をすべて欠損させたか否かでステップS1301に戻るか、ステップS1308に進むか判断してもよい。
On the other hand, when all the
ステップS1308では、ステップS1300で選択した教師信号について、まだ選択していない教師信号があれば(ステップS1308:No)、サーバ101は、これまでに選択していない教師信号を選択する(ステップS1300)。一方、すべての教師信号について選択した場合は(ステップS1308:Yes)、サーバ101は、行動学習の処理を終了する。ただステップS1308の処理の判断はこれに限らず、サーバ101は、予め定めた繰返し回数に従ってステップS1300に戻るか、行動学習の処理を終了するかを判断してもよい。
In step S1308, if there is a teacher signal that has not yet been selected for the teacher signal selected in step S1300 (step S1308: No), the
<行動認識処理>
図15は、実施例1にかかるクライアント102(行動認識装置)による行動認識処理手順例を示すフローチャートである。クライアント102は、骨格検出部451により、センサ103から取得した解析対象データに映る人の骨格情報320を検出する(ステップS1500)。つぎに、クライアント102は、欠損情報判断部452により、検出した骨格情報320の内、オクルージョンなどにより検出できなかった骨格点の位置情報を欠損情報であると判断する(ステップS1501)
<Action recognition processing>
FIG. 15 is a flowchart showing an example of an action recognition processing procedure by the client 102 (behavior recognition device) according to the first embodiment. The
つぎに、クライアント102は、骨格情報処理部453により、ステップS1500で検出した骨格情報320について、ステップS1302の処理と同様に、骨格情報処理を実行する(ステップS1502)。具体的には、たとえば、サーバ101は、図14に示したように、関節角度算出部501、移動量算出部502、および正規化部503による処理を実行する。
Next, the
つぎに、クライアント102は、主成分分析部454により、ステップS1502で正規化した骨格情報320と関節角度370とフレーム間の移動量とを入力データとして、主成分分析を実行して、単数または複数の主成分を生成し、主成分と共に寄与率と累積寄与率も算出する(ステップS1503)。
Next, the
つぎに、クライアント102は、次元数決定部455により、算出した寄与率および累積寄与率から、生成した主成分の内、分散の高い順にいくつの主成分を使用するかを決定する(ステップS1504)。
Next, the
つぎに、クライアント102は、行動分類モデル選択部456により、行動学習により生成した行動分類モデルの内、ステップS1501で検出した欠損情報と同じ欠損情報が関連付けられ、且つステップS1504で決定した主成分の次元数と同じ次元数の主成分で行動学習を行った行動分類モデルを選択する(ステップS1505)。
Next, the
つぎに、クライアント102は、行動認識部457により、ステップS1505で選択した行動分類モデルと主成分とに基づいて、センサ103から取得した解析対象データに映る人の行動を認識する(ステップS1506)。クライアント102は、認識結果をサーバ101に送信してもよく、また、認識結果を用いて、クライアント102に接続されている機器を制御してもよい。
Next, the
たとえば、センサ103が配備されている解析環境が工場である場合、行動認識システム100は、認識結果を用いて、工場内での作業員の作業監視や、製品の欠陥検査などに適用可能である。解析環境が電車である場合、行動認識システム100は、認識結果を用いて、電車内での乗客の監視や車内設備の監視、火災などの災害検知などに適用可能である。
For example, when the analysis environment in which the
このように、実施例1によれば、認識対象の複数種類の行動を高精度に認識することができる。特に、オクルージョンになどにより骨格点300~317が一部欠損した場合においても、欠損した骨格点に応じた複数種類の行動を高精度に認識することができる。
As described above, according to the first embodiment, it is possible to recognize a plurality of types of actions to be recognized with high accuracy. In particular, even when the
実施例2を、実施例1との相違点を中心に説明する。なお、実施例1と共通する点については、同一符号を付し、その説明を省略する。 The second embodiment will be described with a focus on the differences from the first embodiment. The points common to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
図16は、実施例2にかかる行動認識システム100の機能的構成例を示すブロック図である。実施例2では、欠損情報制御部402が削除され、欠損情報判断部452が欠損情報補間部1652に変更される。これにより、人の動作している位置の計測について、オクルージョンなどにより一部骨格が計測できずに欠損情報が含まれる場合に、欠損情報補間部1652は、計測可能であった骨格情報320から欠損情報を補間する。
FIG. 16 is a block diagram showing a functional configuration example of the
具体的には、たとえば、欠損情報補間部1652は、骨格検出部451から取得した骨格情報320の内、オクルージョンなどにより取得できなかった骨格点の位置情報を欠損情報とし、欠損情報を補間して骨格情報処理部453に出力する。欠損情報補間部1652は、たとえば、取得できた骨格情報320の内、連結される骨格点または欠損情報に近い位置にある骨格点から、欠損情報を補間してもよい。
Specifically, for example, the missing
また、欠損情報補間部1652は、欠損情報に対して予め定めた位置情報を代入してもよい。また、欠損情報補間部1652は、これまでに取得した別のフレームの骨格情報320について欠損情報を含むと判断された骨格情報320の欠損情報を用いて補間してもよい。このように、欠損情報の補間手法は限定されない。
Further, the missing
<学習処理>
図17は、実施例2にかかるサーバ101(学習装置)による学習処理の詳細な処理手順例を示すフローチャートである。実施例2では、欠損情報制御(ステップS1301)が実行されず、ステップS1300で選択された教師信号について骨格情報処理(ステップS1302)が実行される。すなわち、実施例2では、骨格点の欠損の有無にかかわらず、骨格情報320を区別することなく、行動学習部406が1つの行動分類モデルを生成する。
<Learning process>
FIG. 17 is a flowchart showing a detailed processing procedure example of the learning process by the server 101 (learning device) according to the second embodiment. In the second embodiment, the missing information control (step S1301) is not executed, and the skeletal information processing (step S1302) is executed for the teacher signal selected in step S1300. That is, in Example 2, the
<行動認識処理>
図18は、実施例2にかかるクライアント102(行動認識装置)による行動認識処理手順例を示すフローチャートである。実施例2では、欠損情報判断(ステップS1501)が欠損情報補間(ステップS1801)に変更される。クライアント102は、骨格検出(ステップS1500)で検出した骨格情報320の内、オクルージョンなどにより取得できなかった骨格点の位置情報を欠損情報で補間し、補間後の骨格情報320に更新する(ステップS1801)。骨格情報処理(ステップS1502)では、補間後の骨格情報320を含む教師信号が用いられる。
<Action recognition processing>
FIG. 18 is a flowchart showing an example of an action recognition processing procedure by the client 102 (behavior recognition device) according to the second embodiment. In the second embodiment, the missing information determination (step S1501) is changed to the missing information interpolation (step S1801). The
このように、実施例2によれば、オクルージョンなどにより欠損のある骨格情報320を補間することにより、欠損情報ごとに行動分類モデルを生成する必要がない。これにより、学習機能の処理負荷の低減と、行動認識機能の高速化と、を図ることができる。
As described above, according to the second embodiment, it is not necessary to generate a behavior classification model for each defect information by interpolating the
実施例3は、実施例1と実施例2とを組み合わせた実施例である。具体的には、たとえば、実施例3の行動認識システム100では、ユーザ操作により、実施例1にかかる学習処理および行動認識処理を実行する第1モードと、実施例2にかかる学習処理および行動認識処理を実行する第2モードと、に切替可能である。
Example 3 is an example in which Example 1 and Example 2 are combined. Specifically, for example, in the
このように、実施例3によれば、欠損情報を考慮したければ第1モードを選択することにより、高精度な行動認識結果を得ることができ、欠損を補間したければ第2モードを選択することにより、効率的に行動認識結果を得ることができる。 As described above, according to the third embodiment, a highly accurate action recognition result can be obtained by selecting the first mode if the defect information is to be considered, and the second mode is selected if the defect is to be interpolated. By doing so, the behavior recognition result can be obtained efficiently.
実施例4を、実施例1~実施例3との相違点を中心に説明する。なお、実施例1~実施例3と共通する点については、同一符号を付し、その説明を省略する。 Example 4 will be described focusing on the differences from Examples 1 to 3. The points common to Examples 1 to 3 are designated by the same reference numerals, and the description thereof will be omitted.
図19は、実施例4にかかる骨格情報処理部の機能的構成例を示すブロック図である。実施例4では、骨格情報処理部403,453は、相互情報正規化部1904を有する。相互情報正規化部1904は、主成分分析部404に出力する骨格情報320、関節角度370、およびフレーム間の移動量について、値域を一定の範囲内に正規化する。
FIG. 19 is a block diagram showing a functional configuration example of the skeleton information processing unit according to the fourth embodiment. In Example 4, the skeletal
骨格情報320およびフレーム間の移動量の値域は、解析対象データの解像度に依存する。一方、関節角度370の値域は、0から2π、または0度から360度の範囲となる。主成分分析の実行対象となるデータについて、値域に大きな違いがある場合、元のデータの主成分に対する影響にデータ種毎の偏りが生じる場合がある。
The range of the
この偏りを無くすため、相互情報正規化部1904は、主成分にかけるデータの値域を一定の範囲内にする正規化を実行する。たとえば、相互情報正規化部1904は、骨格情報320を下記式(21)~(22)に従い、フレーム間移動量を下記式(23)に従って、元のデータの値域を0から2πに統一する。
In order to eliminate this bias, the mutual
ただし、相互情報正規化部1904が実行する正規化の手法はこれに限らず、相互情報正規化部1904は、たとえば、主成分分析の実行対象となるデータの解像度の大きさに従って、関節角度370の値域を一定に正規化してもよい。
However, the normalization method executed by the mutual
図20は、実施例4にかかる骨格情報処理部の詳細な処理手順例を示すフローチャートである。実施例4では、骨格情報処理(ステップS1302,S1502)において、クライアント102は、正規化(ステップS1403)のあと、相互情報正規化(ステップS2004)を実行する。相互情報正規化(ステップS2004)では、正規化部で正規化された骨格情報320と、関節角度370と、フレーム間の移動量と、について、取りえる値域を一定に正規化する。
FIG. 20 is a flowchart showing a detailed processing procedure example of the skeleton information processing unit according to the fourth embodiment. In the fourth embodiment, in the skeletal information processing (steps S1302 and S1502), the
このように、実施例4によれば、主成分分析を実行する元のデータ(骨格情報320、関節角度370、フレーム間の移動量)の取り得る値域を一定に統一することで、広い値域を持つ特定のデータによる主成分への影響の偏りを無くし、複数種類の行動を高精度に判別することができる。
As described above, according to the fourth embodiment, a wide range can be obtained by uniformly unifying the possible range of the original data (
実施例5を、実施例1~実施例4との相違点を中心に説明する。なお、実施例1~実施例4と共通する点については、同一符号を付し、その説明を省略する。 Example 5 will be described focusing on the differences from Examples 1 to 4. The points common to Examples 1 to 4 are designated by the same reference numerals, and the description thereof will be omitted.
図21は、実施例5にかかる行動認識システム100の機能的構成例を示すブロック図である。実施例5では、主成分分析部404と主成分分析部445が、次元削減部2100と次元削減部2101に変更される。次元削減は、元の情報量を可能な限り維持した上で元の変数の数または元の次元の数を削減する処理であり、実施例1~実施例4の主成分分析や独立成分分析といった成分分析を包含する概念である。
FIG. 21 is a block diagram showing a functional configuration example of the
次元削減部2100は、骨格情報処理部403から取得した教師信号の内、正規化した骨格情報320と、関節角度370と、フレーム間の移動量と、を入力データとして、次元削減を実行して単数または複数の変数を生成し、次元数制御部405に出力する。
The
次元削減部2100が行う次元削減の手法としては、SNE(Stochastic Neighbor Embedding)、t-SNE(t-Distributed Stochastic Neighbor Embedding)、UMAP(Uniform Manifold Approximation and Projection)、Isomap、LLE(Locally Linear Embedding)、ラプラシアン固有マップ(Laplacian Eignmap)、LargeVis、および拡散マップのような手法がある。次元削減部2100は、t-SNEやUMAPに主成分分析や独立成分分析を組み合わせて次元削減してもよい。以下、各次元削減の手法と、各手法を組み合わせて行う次元削減の手法を説明する。
As the dimension reduction method performed by the
SNEの処理を、下記式(24)~(28)を用いて説明する。 The processing of SNE will be described using the following equations (24) to (28).
xiとxjの2つのx座標値322(入力データ)の類似度をxiが与えられたときに近傍としてxjを選択する条件付確率pj|iとする。条件付確率pj|iを上記式(24)に示す。この時、xjはxiを中心とした正規分布に基づいて選択されると仮定する。次に、次元削減後のyiとyjの2つのy座標値323(主成分)の類似度も、次元削減前のxiとxjの類似度と同様に、上記式(25)に示す条件付き確率qj|iとする。但し、次元削減後の座標値の分散は、式を簡略化するため1/√2で固定される。 Let the conditional probability p j | i select x j as the neighborhood when x i is given, the similarity between the two x coordinate values 322 (input data) of x i and x j . The conditional probability p j | i is shown in the above equation (24). At this time, it is assumed that x j is selected based on a normal distribution centered on x i . Next, the similarity between the two y-coordinate values 323 (principal component ) after the dimension reduction is also the same as the similarity between x i and x j before the dimension reduction, according to the above equation (25). Let the conditional probability q j | i shown. However, the variance of the coordinate values after the dimension reduction is fixed at 1 / √2 to simplify the equation.
次元削減前後での距離関係を維持するように次元削減のyを生成すれば、情報量も可能な限り維持した上で、次元削減することが可能である。情報量の低減を抑制した上で次元削減を行うため、次元削減部2100は、pj|i=qj|iとなるように処理を行う。次元削減には2つの確率分布がどの程度似ているかを表す尺度であるKLダイバージェンスが用いられる。
If y of the dimension reduction is generated so as to maintain the distance relationship before and after the dimension reduction, it is possible to reduce the dimension while maintaining the amount of information as much as possible. In order to reduce the dimension while suppressing the reduction of the amount of information, the
KLダイバージェンスを損失関数として次元削減前後の確率分布を適応した式を上記式(26)に示す。次元削減部2100は、損失関数である上記式(26)を確率的勾配降下法により最小化する。この勾配は損失関数をyiで微分した上記式(27)を用いて、yiを変動させる。この変動の際の更新式は上記式(28)で示される。
The above equation (26) shows an equation to which the probability distribution before and after the dimension reduction is applied with the KL divergence as the loss function. The
以上、yiを変動させながら上記式(28)を更新させ、上記式(27)が最小となるyiを得ることで次元削減を行ない、新たな変数を得る。ただし、SNEの場合、主成分分析と異なり処理の特性上縮約後の次元数(変数)は2または,3種類になる。このため、SNEによる次元削減を実施の際は、予め定めた次元数(変数)を次元数制御部405に出力し、次元数制御部405は前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
As described above, the above equation (28) is updated while changing y i , and the dimension is reduced by obtaining y i that minimizes the above equation (27), and a new variable is obtained. However, in the case of SNE, unlike principal component analysis, the number of dimensions (variables) after reduction is 2 or 3 types due to the characteristics of processing. Therefore, when the dimension reduction by SNE is carried out, a predetermined number of dimensions (variables) is output to the dimension
ただSNEでは損失関数の最小化が難しく、また次元削減の際に等距離性を保とうとして、x座標値322およびy座標値323で特定される骨格点が密になってしまう問題がある。この問題の解決手法としてt-SNEがある。
However, in SNE, it is difficult to minimize the loss function, and there is a problem that the skeleton points specified by the
t-SNEの処理を下記式(29)~(33)を用いて説明する。 The processing of t-SNE will be described using the following equations (29) to (33).
損失関数最小化を簡単にするため、損失関数を対称化する。損失関数の対称化処理では、上記式(29)に示す通り、xiとxjの距離を同時確率分布pijで表す。pj|iは上記式(24)同様で上記式(30)で示せる。また次元削減後のyiとyjの距離を上記式(31)に示す同時確率分布qijで表す。 Symmetrize the loss function to simplify the loss function minimization. In the loss function symmetrization process, as shown in the above equation (29), the distance between x i and x j is represented by the joint probability distribution p ij . p j | i is the same as the above formula (24) and can be represented by the above formula (30). Further, the distance between y i and y j after the dimension reduction is expressed by the joint probability distribution q i j shown in the above equation (31).
次元削減後の点の距離はスチューデントのt分布を仮定している。スチューデントのt分布は、正規分布に比較して、平均値からずれた値の存在確率が高いことが特徴であり、この特徴が次元削減後のデータ間の距離について長い距離の分布も許容することが可能となる。 The distance of points after dimensionality reduction assumes a Student's t distribution. Student's t distribution is characterized by a higher probability of existence of values deviating from the mean value compared to the normal distribution, and this feature also allows distribution of long distances with respect to the distance between data after dimension reduction. Is possible.
t-SNEでは、次元削減部2100は、上記式(29)~(31)で求めたpijとqijを用いて、上記式(32)に示す損失関数を最小化することで次元削減を行う。次元削減部2100は、損失関数の最小化にはSNEと同様に上記式(33)に示す確率的勾配降下法を用いる。
In t-SNE, the
以上、上記式(33)が最小となるyiを得ることで、次元削減部2100は、次元削減を行ない、新たな変数を得る。t-SNEもSNE同様に処理の特性上縮約後の次元数(変数)は2または3種類になる。このため、t-SNEによる次元削減を実施の際は、予め定めた次元数(変数)を次元数制御部405に出力し、次元数制御部405は前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
As described above, by obtaining y i that minimizes the above equation (33), the
t-SNEは、次元削減前の高次元の局所的な構造を保った上で、大局的な構造も可能な限り捉えることから精度よく次元削減可能であるが、次元削減前の次元数に応じて計算時間が増加するといった問題がある。この次元削減の計算時間の問題を解決する手法としてUMAPがある。UMAPの処理を下記式(34)~(36)を用いて説明する。 t-SNE can accurately reduce dimensions because it captures the global structure as much as possible while maintaining the high-dimensional local structure before dimension reduction, but it depends on the number of dimensions before dimension reduction. There is a problem that the calculation time increases. There is UMAP as a method for solving the problem of calculation time of this dimension reduction. The processing of UMAP will be described using the following equations (34) to (36).
とり得る値の全体Aの中で、高次元の集合X(上記式(34))がある。Aの中から任意のデータを取り出した際に、それが集合Xに含まれる度合いを0から1の範囲で出力するメンバーシップ関数をμとする。上記式(1)に示す入力Xに対して、上記式(2)に示すYを用意する。YはXに比較して低い次元の空間に存在するm(<p)個の点の集合であり、次元削減後のデータの集合である。そしてYのメンバーシップ関数をνとして、次元削減部2100は、上記式(36)が最小となるようなYを定めることで次元削減を行ない、新たな変数を得る。
Among the total A of possible values, there is a high-dimensional set X (the above equation (34)). Let μ be a membership function that outputs the degree to which arbitrary data is included in the set X in the range of 0 to 1 when arbitrary data is taken out from A. For the input X shown in the above formula (1), the Y shown in the above formula (2) is prepared. Y is a set of m (<p) points existing in a space having a lower dimension than X, and is a set of data after dimension reduction. Then, with the membership function of Y as ν, the
UMAPによる次元削減を実施の際には、次元削減部2100は、SNEやt-SNE同様に予め定めた次元数(変数)を次元数制御部405に出力してもよいし、または、次元削減後のメンバーシップ関数νが予め定めた値域以上となるような次元数(変数)を必要な次元数として次元制御部405に出力してもよい。この際、次元数制御部405は、次元削減部2100が出力する次元数(変数)に従って、使用する次元数(変数の数)を決定すればよい。
When implementing dimension reduction by UMAP, the
Isomapの処理を説明する。次元削減部2100は、任意のデータにおいて、近傍にあるデータの最短距離を算出し、算出した距離を多次元尺度構成法(MDS)により測地線距離行列で表すことで次元削減を行ない、新たな変数を得る。Isomapによる次元削減の実施の際には、次元削減部2100は、予め定めた次元数(変数)を次元数制御部405に出力し、前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
The processing of Isomap will be described. The
LLEについて下記式(35)~(41)を用いて説明する。 LLE will be described using the following equations (35) to (41).
xiの近傍にある点を線形結合で近似的に上記式(35)で表す。ここで、上記式(36)の制約下で上記式(37)を最小化することで次元削減前のxiの近似値が定まる。次に、次元削減後のyiについて、次元削減後にも可能な限りxiの線形の隣接関係を保つため、次元削減部2100は、上記式(38)を最小化する。この解は上記式(39)の固有ベクトルを固有値の2番目に小さいものviから(d+1)番目のvdまで抽出することで上記式(40)の通り得られ、次元削減部2100は、上記式(41)の通り、次元削減後のyiを取得する。
The points in the vicinity of xi are approximately represented by the above equation (35) by a linear combination. Here, by minimizing the above equation (37) under the constraint of the above equation (36), the approximate value of xi before the dimension reduction is determined. Next, with respect to y i after dimension reduction, the
LLEによる次元削減を実施の際には、次元削減部2100は、予め定めた次元数(変数)を次元数制御部405に出力し、次元数制御部405は前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
When implementing dimension reduction by LLE, the
ラプラシアン固有マップの処理を下記式(42)~(47)を用いて説明する。 The processing of the Laplacian eigenmap will be described using the following equations (42) to (47).
次元削減前のデータが生成する近傍グラフの各辺xixjを上記式(42)または上記式(43)に割り当てる。割り当てた重みに対して上記式(44)のグラフラプラシアンを導入し、グラフラプラシアンの固有ベクトル(上記式(45))を固有値の2番目に小さいviから(d+1)番目のvdまで抽出することで上記式(46)の通り得られ、次元削減部2100は、上記式(47)の通り次元削減後の値yiを取得する。
Each side x i x j of the neighborhood graph generated by the data before the dimension reduction is assigned to the above equation (42) or the above equation (43). Introduce the graph Laplacian of the above equation (44) to the assigned weight, and extract the eigenvector of the graph Laplacian (the above equation (45)) from the second smallest vi of the eigenvalue to the (d + 1) th v d . Is obtained according to the above equation (46), and the
ラプラシアン固有マップによる次元削減を実施の際には、次元削減部2100は、予め定めた次元数(変数)を次元数制御部405に出力し、次元数制御部405は前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
When the dimension reduction by the Laplacian eigenmap is carried out, the
LargeVisの処理について説明する。LargeVisはt-SNEの計算時間を改善した手法である。t-SNEではデータ点同士の距離を求めるため、データ数に応じて計算時間が増大していた。LargeVisでは、次元削減部2100は、近傍のデータからK-NNグラフを用いてデータを領域ごとに分け、領域ごとに分けられたデータモデル毎にt-SNEと同様の手法で次元削減を行う。
The processing of LargeVis will be described. LargeVis is a method that improves the calculation time of t-SNE. In t-SNE, since the distance between data points is obtained, the calculation time increases according to the number of data. In LargeVis, the
LargeVisによる次元削減を実施の際には、次元数制御部405は、予め定めた次元数(変数)を次元数制御部405に出力し、前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
When implementing dimension reduction by LargeVis, the dimension
拡散マップについて下記式(48)~(53)を用いて説明する。 The diffusion map will be described using the following equations (48) to (53).
次元削減前のxiと近傍にあるxjから構成される近傍グラフの各辺xixjに重みWijを割当て、これを正規化して上記式(48)に示すN×Nの推移確率行列Pを作る。pt(xixj)はPで表現されるグラフ上のランダムウォークによってxiを出発してtステップ後にxjに到達する確率を表すとする。推移行列の性質からpt(xixj)はt→∞で定常分布φ0(xj)に収束する。この時、点xixjの拡散距離を上記式(49)で定義する。推移確率行列Pの固有値を上記式(50)、固有ベクトルを上記式(51)とする。この時、上記式(52)が成り立つ。λiの絶対値は1以下であるから、次元削減部2100は、Nより小さい適当な次元d(t)までの固有ベクトルをとって、上記式(53)の通り次元削減を行ない、新たな変数を得る。
A weight W ij is assigned to each side x i x j of a neighborhood graph composed of x i before dimension reduction and x j in the neighborhood, and this is normalized to the transition probability of N × N shown in the above equation (48). Make a matrix P. It is assumed that pt (x i x j ) represents the probability of starting x i and reaching x j after t steps by a random walk on the graph represented by P. Due to the nature of the transition matrix, pt (x i x j ) converges to the steady distribution φ 0 (x j ) at t → ∞. At this time, the diffusion distance of the point x i x j is defined by the above equation (49). The eigenvalue of the transition probability matrix P is the above equation (50), and the eigenvector is the above equation (51). At this time, the above equation (52) holds. Since the absolute value of λ i is 1 or less, the
拡散マップによる次元削減を実施の際には、予め定めた次元数(変数)を次元数制御部405に出力し、次元数制御部405は前記予め定めた次元数に従って、使用する変数の数を決定すればよい。
When the dimension reduction by the diffusion map is carried out, a predetermined number of dimensions (variables) is output to the dimension
次元削減部2100は、これまでに説明した主成分分析、独立成分分析、t-SNE、UMAP、Isomap、LLE、ラプラシアン固有マップ、LargeVis、拡散マップなどを組み合わせて実施してもよい。たとえば、次元削減部2100は、36次元、または36変数ある高次元なデータに対して、10次元までの次元削減を主成分分析を用いて行い、その後2次元までの次元削減をUMAPを用いるなど、次元削減に用いる手法の組合せは限定されない。このように次元削減の際に各種手法を組み合わせることで性能や計算時間に複合的な効果が期待できる。
The
また、これら次元削減の手法は、実施例5に記載の範囲で限定されるものではなく、たとえば、単に高次元の情報を可算、減算、乗算または除算したり、予め定めた係数に従って畳み込んだりしてもよく、実施例5記載の手法のように高次元のデータまたは多変数を、より低い次元のデータや、少ない数の変数を生成する手法であれば、次元削減の手法は限定されない。 Further, these dimension reduction methods are not limited to the scope described in the fifth embodiment, and for example, high-dimensional information may be simply calculated, subtracted, multiplied or divided, or convoluted according to a predetermined coefficient. However, the dimension reduction method is not limited as long as it is a method for generating high-dimensional data or multiple variables, lower-dimensional data, or a small number of variables as in the method described in Example 5.
次元削減部2101は、次元削減部2100と同様の機能を有する。次元削減部2101は、骨格情報処理部453からの出力データに対して次元削減部2100と同様の処理を実行して、次元削減前に比較して、少ない単数または複数の新たな変数を生成する。また、主成分分析部454は、主成分と共に生成した寄与率と累積寄与率とを次元数決定部455に出力する。
The
次元削減部2101は、次元削減部2100と同様の機能を有する。次元削減部2101は、骨格情報処理部453からの出力データに対して次元削減部2100と同様の処理を実行して、単数または複数の新たな変数を生成する。また、次元削減部2101は、次元削減部2100同様の手法で、新たな変数と共に次元数決定部455で必要な次元数(変数)の情報を次元数決定部455に出力する。
The
次元数決定部455は、取得した次元数(変数)をもとに、取得した変数をいくつまで行動分類モデル選択部456に出力するかを示す次元数kを決定し、決定した数だけ新たに生成した変数を行動分類モデル選択部456に出力する。
The dimension
このように、実施例5によれば、次元削減の手法を変えることで、骨格情報処理部403から取得するデータに合わせて、効果的に、または計算時間を短縮して次元削減可能となり、複雑な行動を高精度に判別することができる。
As described above, according to the fifth embodiment, by changing the dimension reduction method, the dimension can be reduced effectively or by shortening the calculation time according to the data acquired from the skeleton
実施例6を、実施例1~実施例5との相違点を中心に説明する。なお、実施例1~実施例5と共通する点については、同一符号を付し、その説明を省略する。 Example 6 will be described focusing on the differences from Examples 1 to 5. The points common to Examples 1 to 5 are designated by the same reference numerals, and the description thereof will be omitted.
図22は、実施例6にかかる行動認識システム100の機能的構成例を示すブロック図である。実施例6では、行動学習部406と行動認識部457が、行動学習部2200と行動認識部2201に変更される。行動学習部2200および行動認識部2201が行動を分類するための詳細な手法を図23~図25を用いて説明する。
FIG. 22 is a block diagram showing a functional configuration example of the
図23は、行動学習部2200および行動認識部2201が行動を分類するための基礎となる手法である決定木を示す説明図である。決定木を用いた行動分類手法を説明する。決定木では、次元削減後に新たに生成された変数空間での各行動について、予め行動の種類を与えられた変数2300から変数2303を用いて、(a)境界線2310が生成される。
FIG. 23 is an explanatory diagram showing a decision tree, which is a basic method for the
(a)境界線2310を生成する手法を説明する。決定木は、入力された変数群2321の不純度が最小になるように段階的に行動を分類しいく。1段階目では第2変数軸上で、行動を変数群2322と変数群2323とに分類し、2段階目では第1変数軸上で、変数群2322および変数群2323を変数群2324~2327に分類する。こうして不純度が最小となるよう分類していく過程で得られる判別式を用いて(a)境界線2310が生成される。尚、各段階でどの軸で行動を分類するかは限定されず、また各軸での行動分類について1回などの規定された回数で分類するなどの限定もされない。
(A) A method for generating the boundary line 2310 will be described. The decision tree classifies the behavior step by step so that the impureness of the
図24は、決定木による分類の詳細な展開方法を示す説明図である。決定木には、レベル(深さ)ごとに決定木を成長させるレベルワイズ2400と、リーフ(分岐後のデータ群)ごとに決定木を成長させるリーフワイズ2401と、がある。決定木のような分類器を重ねて学習することをアンサンブル学習という。
FIG. 24 is an explanatory diagram showing a detailed development method of classification by a decision tree. The decision tree includes a
図25は、アンサンブル学習と、行動学習部2200と行動認識部2201が行動を分類するために用いる手法を示す説明図である。アンサンブル学習には、決定木のような分類木を並列に用いるバギング2401と、前の結果を引き継ぎ学習結果を更新していくブースティング2402と、がある。実施例1のランダムフォレストは、決定木についてバギング2401を採用した手法で、実施例6の行動学習部2200および行動認識部2201は、ブースティング2402を使用した分類手法である。
FIG. 25 is an explanatory diagram showing ensemble learning and a method used by the
行動学習部2200が行動を学習し、行動認識部2201が行動を分類するにあたっては、各決定木をレベルワイズにより成長させ、複数の決定木を重ねるブースティングにより入力された変数を分類してもよいし、各決定木をリーフワイズにより成長させ、複数の決定木を重ねるブースティングにより入力された変数を分類してもよい。
When the
尚、各決定木をレベルワイズにより成長させ、複数の決定木を重ねるブースティングを行動分類手法として採用する際にはソフトウェアライブラリxgboostを用いて実装してもよい。また一方で、各決定木をリーフワイズにより成長させ、複数の決定木を重ねるブースティングを行動分類手法として採用する際にはソフトウェアライブラリLightGBMを用いて実装してもよい。ただし、実装手法はこれらに限定されない。 When each decision tree is grown by levelwise and boosting in which a plurality of decision trees are overlapped is adopted as an action classification method, it may be implemented by using the software library xgboost. On the other hand, when each decision tree is grown by leafwise and boosting in which a plurality of decision trees are overlapped is adopted as an action classification method, it may be implemented using the software library LightGBM. However, the implementation method is not limited to these.
このように、実施例6によれば、行動分類手法にブースティングを用いて、複数の決定木を重ねることにより、複雑な行動を高精度に判別することができる。 As described above, according to the sixth embodiment, by using boosting as the behavior classification method and superimposing a plurality of decision trees, it is possible to discriminate complex behaviors with high accuracy.
実施例7を、実施例1~実施例6との相違点を中心に説明する。なお、実施例1~実施例6と共通する点については、同一符号を付し、その説明を省略する。 Example 7 will be described focusing on the differences from Examples 1 to 6. The points common to Examples 1 to 6 are designated by the same reference numerals, and the description thereof will be omitted.
図26は、実施例7にかかる行動認識システム100の機能的構成例を示すブロック図である。実施例7では、次元削減部2100と次元数制御部405と行動学習部406と次元数決定部455が、次元削減部2600と次元数制御部2601と行動学習部2602と次元削減部2603に変更される。
FIG. 26 is a block diagram showing a functional configuration example of the
次元削減部2600は、予め定めた次元数に従って、実施例1~実施例6のいずれかの手法で次元削減を行い、次元削減後に生成した新たな変数を次元数制御部2601に出力する。次元数制御部2601は取得した次元数に従って、次元削減後の変数を行動学習部2602に出力する。
The
行動学習部2602は、取得した次元削減後の変数と共に、与えられた行動の種類から機械学習により、行動分類のための境界線を生成し、行動分類モデルを生成する。この際、生成した行動分類モデルに対して、どのくらいの精度で行動を予測できるかという行動分類精度を算出する。
The
行動学習部2602は、行動分類モデル生成に用いた変数を用いて行動分類精度を算出してもよい。行動学習部2602は、次元制御部2600から取得した変数の内、一部を行動分類モデル生成には用いず、行動分類生成に用いなかった変数を用いて行動分類精度を算出してもよい。ただし、行動分類精度算出の方法は、これらに限定されない。算出した行動分類精度が予め定めた精度より高ければ、行動学習部2602は、生成した行動分類モデルを行動分類モデル選択部456に出力する。またこの際、行動学習部2602は、取得した次元数と行動分類精度が合格であったことを次元制御部2601に出力する。
The
一方で、行動学習部2602は、算出した行動分類精度が予め定めた精度より低ければ、行動分類精度が不合格であったことを次元制御部2601に出力する。ただし、設定可能な次元数(変数)すべてで行動分類モデルを生成した上で、そのすべてで行動分類精度が不合格であった場合には、行動学習部2602は、これまでに生成した行動分類モデルの中で最も行動分類精度が高かった行動分類モデルを行動分類モデル選択部456に出力し、出力した際に用いた次元数(変数)を全学習完了情報と共に次元数制御部2601に出力する。
On the other hand, if the calculated behavior classification accuracy is lower than the predetermined accuracy, the
次元制御部2601は、行動学習部2602から取得した合否情報と全学習完了情報に従って、合格または全学習完了情報を取得した場合には、取得した次元数情報を次元削減部2603に出力し、不合格であった場合には次元削減に用いる次元数を変更して再度次元削減を実施するよう次元削減命令を次元削減部2600に出力する。
When the
次元削減部2600は、取得した次元削減命令に従って、これまでに設定していない次元数を設定して再度次元削減を実施し、生成した変数を次元数制御部2601に出力する。
The
次元削減部2603は、次元数制御部2601から取得した次元数(変数)に従って、骨格情報処理部452から取得したデータに、実施例1~実施例6の次元削減手法を用いて次元削減を行い、生成した変数を行動分類モデル選択部456に出力する。尚、合否を判断する行動分類精度を定めず、次元削減部2603は、設定可能な次元数全てで学習を行い、行動分類精度を算出した上で、算出した行動分類精度に従って、行動分類モデルと次元数を決定してもよい。
The
行動学習部2602が算出する行動分類精度は実施例1に記載の寄与率に見立ててもよい。例えば、取得した次元削減後の変数とそれを用いて算出した行動分類精度とを関連付けておき、算出された行動分類精度が、算出に用いた次元削減後の変数の元の情報に対する寄与率とする。次元制御部2601は、こうして見立てた寄与率に応じて、次元削減後の変数についてどれを用いて制御を行うか決定する。
The behavior classification accuracy calculated by the
<学習処理>
図27は、実施例7にかかるサーバ101(学習装置)による学習処理の詳細な処理手順例を示すフローチャートである。サーバ101は、次元数制御部2601により、次元数を決定する。この際、初めて次元削減を実施する場合には予め定めた次元数を決定し、2回目以降の次元削減の場合は、これまでに決定してない次元数を決定する(ステップS2700)。
<Learning process>
FIG. 27 is a flowchart showing a detailed processing procedure example of the learning process by the server 101 (learning device) according to the seventh embodiment. The
つぎに、サーバ101は決定した次元数に従って、次元削減部2601で次元削減を行い、新たな変数を生成する(S2701)。ステップS2702では、サーバ101は行動学習部2602から取得した行動分類精度に対して、合否判断を行い、合格であればステップS1307に進み、不合格であればステップS2700に戻る。
Next, the
このように、実施例7によれば、目標の行動分類精度に合わせて次元数を変更し、次元削減を繰り返すことで、複雑な行動を高精度に判別することができる。 As described above, according to the seventh embodiment, the complicated behavior can be discriminated with high accuracy by changing the number of dimensions according to the behavior classification accuracy of the target and repeating the dimension reduction.
また、上述した実施例1~実施例7の行動認識装置および学習装置は、下記(1)~(14)のように構成することもできる。 Further, the behavior recognition device and the learning device of Examples 1 to 7 described above can be configured as described in (1) to (14) below.
(1)プログラムを実行するプロセッサ201と、前記プログラムを記憶する記憶デバイス202と、を有する行動認識装置(クライアント102)は、多変量解析で統計的な成分を生成する成分分析(主成分分析または独立成分分析)により学習対象の形状(骨格情報320)から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、前記プロセッサ201は、センサ103から得られた解析対象データから認識対象の形状(骨格情報320)を検出する検出処理と、前記成分分析により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する成分分析処理と、前記各々の寄与率から得られる累積寄与率に基づいて、前記1以上の各々の次元を示す序数kを決定する決定処理と、前記決定処理によって決定された次元を示す序数kの成分を1以上含む特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、を実行する。
(1) An action recognition device (client 102) having a
これにより、学習対象の形状に応じた行動分類モデルが用意されているため、認識対象の複数種類の行動を高精度に認識することができる。 As a result, since the behavior classification model according to the shape of the learning target is prepared, it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy.
(2)上記(1)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記形状を構成する複数の頂点の角度(関節角度370)から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、前記プロセッサ201は、前記認識対象の形状に基づいて、前記認識対象の形状を構成する複数の頂点の角度(関節角度370)を算出する算出処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の頂点の角度と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(2) In the behavior recognition device of the above (1), each behavior classification model of the behavior classification model group is obtained from the shape of the learning target and the angles (joint angles 370) of a plurality of apex constituting the shape. Learning is performed for each component group using the component group and the behavior of the learning target, and the
これにより、頂点の角度に起因する形状の変化に応じて、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to recognize a plurality of types of actions to be recognized with high accuracy according to the change in shape caused by the angle of the apex.
(3)上記(1)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記学習対象の移動量から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、前記プロセッサ201は、前記認識対象の異なる時点の複数の形状に基づいて、前記認識対象の移動量を算出する算出処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の移動量と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(3) In the behavior recognition device of the above (1), each behavior classification model of the behavior classification model group has a component group obtained from the shape of the learning target and the movement amount of the learning target, and the behavior of the learning target. The
これにより、移動に起因する形状の経時的な変化に応じて、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy according to changes in shape over time due to movement.
(4)上記(1)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状の大きさを正規化する第1正規化処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記第1正規化処理による第1正規化後の前記認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(4) In the behavior recognition device of the above (1), the
これにより、行動分類の汎用性の向上により、誤認識の抑制を図ることができる。 As a result, it is possible to suppress misrecognition by improving the versatility of behavior classification.
(5)上記(2)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記第2正規化処理による第2正規化後の前記認識対象の形状および頂点の角度(関節角度370)に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(5) In the behavior recognition device of the above (2), the
これにより、形状と角度という異なるデータ種における値域の偏りを抑制することができ、行動認識の高精度化を図ることができる。 As a result, it is possible to suppress the bias of the range in different data types such as shape and angle, and it is possible to improve the accuracy of action recognition.
(6)上記(1)の行動認識装置において、前記決定処理では、前記プロセッサ201は、前記累積寄与率がしきい値を超えるのに必要な前記成分の次元を示す序数kを決定する。
(6) In the action recognition device of (1) above, in the determination process, the
累積寄与率は、新たに生成した複数の成分が元のデータの情報量をどの程度表しているかといったことを示す尺度となるため、累積寄与率を参照することにより、次元数増加の抑制を図ることができる。 Since the cumulative contribution rate is a measure of how much the newly generated components represent the amount of information in the original data, the increase in the number of dimensions is suppressed by referring to the cumulative contribution rate. be able to.
(7)上記(1)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、学習対象の一部欠損した形状から得られる成分群と、前記学習対象の行動と、を用いて、前記一部欠損した形状および成分群の組み合わせごとに学習されており、前記プロセッサ201は、前記認識対象の一部欠損した形状を判断する判断処理と、前記成分分析処理では、前記プロセッサ201は、前記判断処理によって判断された前記認識対象の一部欠損した形状に基づいて、前記1以上の成分と、前記1以上の成分の各々の寄与率と、を生成し、前記選択処理では、前記プロセッサ201は、前記認識対象の一部欠損した形状と同一欠損形状および前記特定の成分群と同じ成分群の組み合わせで学習された特定の行動分類モデルを、前記行動分類モデル群から選択する。
(7) In the behavior recognition device of the above (1), each behavior classification model of the behavior classification model group uses a component group obtained from a partially missing shape of the learning target and the behavior of the learning target. The
認識対象の形状が一部欠損していても、当該一部欠損に対応した行動分類モデルを用いて、高精度な行動認識をおこなうことができる。 Even if the shape of the recognition target is partially defective, highly accurate behavior recognition can be performed by using the behavior classification model corresponding to the partial defect.
(8)上記(1)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状に一部欠損があれば補間する補間処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記補間処理による補間後の認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(8) In the behavior recognition device of the above (1), the
これにより、形状に欠損がない学習対象によって生成された行動分類モデルに適切な入力を与えることができ、行動認識精度の低下を抑制することができる。 As a result, it is possible to give an appropriate input to the behavior classification model generated by the learning target having no defect in the shape, and it is possible to suppress the deterioration of the behavior recognition accuracy.
(9)プログラムを実行するプロセッサ201と、前記プログラムを記憶する記憶デバイス202と、を有する行動認識装置(クライアント102)は、多変量解析で統計的な成分を生成する次元削減(主成分分析または独立成分分析またはSNE(Stochastic Neighbor Embedding)またはt-SNE(t-Distributed Stochastic Neighbor Embedding)またはUMAP(Uniform Manifold Approximation and Projection)またはIsomapまたはLLE(Locally Linear Embedding)またはラプラシアン固有マップ(Laplacian Eignmap)またはLargeVisまたは拡散マップ)により学習対象の形状(骨格情報320)から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、前記プロセッサ201は、センサ103から得られた解析対象データから認識対象の形状(骨格情報320)を検出する検出処理と、前記次元削減により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する次元削減処理と、前記各々の寄与率から得られる累積寄与率に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数kを決定する決定処理と、前記第1変数から前記決定処理によって決定された次元を示す序数kの成分までの特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、を実行する。
(9) A behavior recognition device (client 102) having a
これにより、学習対象の形状に応じた行動分類モデルが用意されているため、認識対象の複数種類の行動を高精度に認識することができる。 As a result, since the behavior classification model according to the shape of the learning target is prepared, it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy.
(10)上記(9)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記形状を構成する複数の頂点の角度(関節角度370)から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、前記プロセッサ201は、前記認識対象の形状に基づいて、前記認識対象の形状を構成する複数の頂点の角度(関節角度370)を算出する算出処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の頂点の角度と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(10) In the behavior recognition device of the above (9), each behavior classification model of the behavior classification model group is obtained from the shape of the learning target and the angles (joint angles 370) of a plurality of apex constituting the shape. The learning is performed for each component group using the component group in ascending order from the first variable and the behavior of the learning target, and the
これにより、頂点の角度に起因する形状の変化に応じて、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to recognize a plurality of types of actions to be recognized with high accuracy according to the change in shape caused by the angle of the apex.
(11)上記(9)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記学習対象の移動量から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、前記プロセッサ201は、前記認識対象の異なる時点の複数の形状に基づいて、前記認識対象の移動量を算出する算出処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の移動量と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(11) In the behavior recognition device of the above (9), each behavior classification model of the behavior classification model group is a component group in ascending order from the first variable obtained from the shape of the learning target and the movement amount of the learning target. And the behavior of the learning target are learned for each component group, and the
これにより、移動に起因する形状の経時的な変化に応じて、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy according to changes in shape over time due to movement.
(12)上記(9)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状の大きさを正規化する第1正規化処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記第1正規化処理による第1正規化後の前記認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(12) In the behavior recognition device of the above (9), the
これにより、行動分類の汎用性の向上により、誤認識の抑制を図ることができる。 As a result, it is possible to suppress misrecognition by improving the versatility of behavior classification.
(13)上記(10)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記第2正規化処理による第2正規化後の前記認識対象の形状および頂点の角度(関節角度370)に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(13) In the behavior recognition device of the above (10), the
これにより、形状と角度という異なるデータ種における値域の偏りを抑制することができ、行動認識の高精度化を図ることができる。 As a result, it is possible to suppress the bias of the range in different data types such as shape and angle, and it is possible to improve the accuracy of action recognition.
(14)上記(9)の行動認識装置において、前記決定処理では、前記プロセッサ201は、前記第1変数からの累積寄与率がしきい値を超えるのに必要な前記第1変数からの昇順の成分の次元を示す序数kを決定する。
(14) In the behavior recognition device of the above (9), in the determination process, the
累積寄与率は、新たに生成した複数の成分が元のデータの情報量をどの程度表しているかといったことを示す尺度となるため、累積寄与率を参照することにより、次元数増加の抑制を図ることができる。 Since the cumulative contribution rate is a measure of how much the newly generated components represent the amount of information in the original data, the increase in the number of dimensions is suppressed by referring to the cumulative contribution rate. be able to.
(15)上記(9)の行動認識装置において、前記行動分類モデル群の各々の行動分類モデルは、学習対象の一部欠損した形状から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、前記一部欠損した形状および成分群の組み合わせごとに学習されており、前記プロセッサ201は、前記認識対象の一部欠損した形状を判断する判断処理と、前記次元削減処理では、前記プロセッサ201は、前記判断処理によって判断された前記認識対象の一部欠損した形状に基づいて、前記1以上の成分と、前記1以上の成分の各々の寄与率と、を生成し、前記選択処理では、前記プロセッサ201は、前記認識対象の一部欠損した形状と同一欠損形状および前記特定の成分群と同じ成分群の組み合わせで学習された特定の行動分類モデルを、前記行動分類モデル群から選択する。
(15) In the behavior recognition device of the above (9), each behavior classification model of the behavior classification model group has a component group in ascending order from the first variable obtained from a partially missing shape of the learning target and the learning. The behavior of the target is learned for each combination of the partially missing shape and the component group, and the
認識対象の形状が一部欠損していても、当該一部欠損に対応した行動分類モデルを用いて、高精度な行動認識をおこなうことができる。 Even if the shape of the recognition target is partially defective, highly accurate behavior recognition can be performed by using the behavior classification model corresponding to the partial defect.
(16)上記(9)の行動認識装置において、前記プロセッサ201は、前記認識対象の形状に一部欠損があれば補間する補間処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記補間処理による補間後の認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する。
(16) In the behavior recognition device of the above (9), the
これにより、形状に欠損がない学習対象によって生成された行動分類モデルに適切な入力を与えることができ、行動認識精度の低下を抑制することができる。 As a result, it is possible to give an appropriate input to the behavior classification model generated by the learning target having no defect in the shape, and it is possible to suppress the deterioration of the behavior recognition accuracy.
(17)プログラムを実行するプロセッサ201と、前記プログラムを記憶する記憶デバイス202と、を有する学習装置において、前記プロセッサ201は、学習対象の形状および行動を含む教師データを取得する取得処理と、多変量解析で統計的な成分を生成する成分分析(主成分分析または独立成分分析)により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する成分分析処理と、許容計算量に基づいて、前記1以上の成分の各々の次元を示す序数を制御する制御処理と、前記制御処理によって制御された次元を示す序数の成分を1以上含む成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、を実行する。
(17) In a learning device having a
これにより、学習対象の形状に応じた行動分類モデルを複数種類用意することができるため、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to prepare a plurality of types of behavior classification models according to the shape of the learning target, so that it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy.
(18)上記(17)の学習装置において、前記プロセッサ201は、前記学習対象の形状に基づいて、前記学習対象の形状を構成する複数の頂点の角度(関節角度370)を算出する算出処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の頂点の角度と、に基づいて、前記1以上の成分を生成する。
(18) In the learning device of the above (17), the
これにより、頂点の角度に起因する形状の変化に応じて、行動分類モデルを複数種類用意することができるため、認識対象の頂点の角度に起因する形状の変化に応じた複数種類の行動を、高精度に認識することができる。 As a result, multiple types of behavior classification models can be prepared according to the change in shape due to the angle of the apex, so that multiple types of behavior according to the change in shape due to the angle of the apex to be recognized can be prepared. It can be recognized with high accuracy.
(19)上記(17)の学習装置において、前記プロセッサ201は、前記学習対象の異なる時点の複数の形状に基づいて、前記学習対象の移動量を算出する算出処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の移動量と、に基づいて、前記1以上の成分を生成する。
(19) In the learning device of the above (17), the
これにより、移動に起因する形状の経時的な変化に応じて、行動分類モデルを複数種類用意することができるため、移動に起因する形状の経時的な変化に応じた複数種類の行動を、高精度に認識することができる。 As a result, it is possible to prepare multiple types of behavior classification models according to the change in shape caused by movement over time. It can be recognized with accuracy.
(20)上記(17)の学習装置において、前記プロセッサ201は、前記学習対象の形状の大きさを正規化する第1正規化処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記第1正規化処理による第1正規化後の前記学習対象の形状に基づいて、前記1以上の成分を生成する。
(20) In the learning device of the above (17), the
これにより、行動分類学習の汎用性の向上により、誤学習の抑制を図ることができる。 As a result, it is possible to suppress erroneous learning by improving the versatility of behavior classification learning.
(21)上記(18)の学習装置において、前記プロセッサ201は、前記学習対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記第2正規化処理による第2正規化後の前記学習対象の形状および頂点の角度に基づいて、前記1以上の成分を生成する。
(21) In the learning apparatus of (18), the
これにより、形状と角度という異なるデータ種における値域の偏りを抑制することができ、行動分類学習の高精度化を図ることができる。 As a result, it is possible to suppress the bias of the range in different data types such as shape and angle, and it is possible to improve the accuracy of behavior classification learning.
(22)上記(17)の学習装置において、前記プロセッサ201は、前記学習対象の形状を一部欠損させる欠損制御処理を実行し、前記成分分析処理では、前記プロセッサ201は、前記欠損制御処理によって得られた前記学習対象の一部欠損した形状に基づいて、前記1以上の成分を生成し、前記行動学習処理では、前記プロセッサ201は、前記成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記行動分類モデルを生成し、前記一部欠損させた形状に関する欠損情報と関連付ける。
(22) In the learning device of the above (17), the
意図的に一部欠損した形状を生成することにより、行動分類モデルの種類数の増加を図ることができる。これにより、認識対象の様々な形状に対応した高精度な行動認識が可能になる。 By intentionally generating a partially missing shape, it is possible to increase the number of types of behavior classification models. This enables highly accurate action recognition corresponding to various shapes of recognition targets.
(23)プログラムを実行するプロセッサ201と、前記プログラムを記憶する記憶デバイス202と、を有する学習装置において、前記プロセッサ201は、学習対象の形状および行動を含む教師データを取得する取得処理と、多変量解析で統計的な成分を生成する次元削減(主成分分析または独立成分分析またはSNE(Stochastic Neighbor Embedding)またはt-SNE(t-Distributed Stochastic Neighbor Embedding)またはUMAP(Uniform Manifold Approximation and Projection)またはIsomapまたはLLE(Locally Linear Embedding)またはラプラシアン固有マップ(Laplacian Eignmap)またはLargeVisまたは拡散マップ)により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する次元削減処理と、許容計算量に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数を制御する制御処理と、前記第1変数から前記制御処理によって制御された次元を示す序数の成分までの成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、を実行する。
(23) In a learning device having a
これにより、学習対象の形状に応じた行動分類モデルを複数種類用意することができるため、認識対象の複数種類の行動を高精度に認識することができる。 As a result, it is possible to prepare a plurality of types of behavior classification models according to the shape of the learning target, so that it is possible to recognize a plurality of types of behaviors to be recognized with high accuracy.
(24)上記(23)の学習装置において、前記プロセッサ201は、前記学習対象の形状に基づいて、前記学習対象の形状を構成する複数の頂点の角度(関節角度370)を算出する算出処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の頂点の角度と、に基づいて、前記1以上の成分を生成する。
(24) In the learning device of the above (23), the
これにより、頂点の角度に起因する形状の変化に応じて、行動分類モデルを複数種類用意することができるため、認識対象の頂点の角度に起因する形状の変化に応じた複数種類の行動を、高精度に認識することができる。 As a result, multiple types of behavior classification models can be prepared according to the change in shape due to the angle of the apex, so that multiple types of behavior according to the change in shape due to the angle of the apex to be recognized can be prepared. It can be recognized with high accuracy.
(25)上記(23)の学習装置において、前記プロセッサ201は、前記学習対象の異なる時点の複数の形状に基づいて、前記学習対象の移動量を算出する算出処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の移動量と、に基づいて、前記1以上の成分を生成する。
(25) In the learning device of the above (23), the
これにより、移動に起因する形状の経時的な変化に応じて、行動分類モデルを複数種類用意することができるため、移動に起因する形状の経時的な変化に応じた複数種類の行動を、高精度に認識することができる。 As a result, it is possible to prepare multiple types of behavior classification models according to the change in shape caused by movement over time. It can be recognized with accuracy.
(26)上記(23)の学習装置において、前記プロセッサ201は、前記学習対象の形状の大きさを正規化する第1正規化処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記第1正規化処理による第1正規化後の前記学習対象の形状に基づいて、前記1以上の成分を生成する。
(26) In the learning device of the above (23), the
これにより、行動分類学習の汎用性の向上により、誤学習の抑制を図ることができる。 As a result, it is possible to suppress erroneous learning by improving the versatility of behavior classification learning.
(27)上記(24)の学習装置において、前記プロセッサ201は、前記学習対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記第2正規化処理による第2正規化後の前記学習対象の形状および頂点の角度に基づいて、前記1以上の成分を生成する。
(27) In the learning apparatus of (24), the
これにより、形状と角度という異なるデータ種における値域の偏りを抑制することができ、行動分類学習の高精度化を図ることができる。 As a result, it is possible to suppress the bias of the range in different data types such as shape and angle, and it is possible to improve the accuracy of behavior classification learning.
(28)上記(23)の学習装置において、前記プロセッサ201は、前記学習対象の形状を一部欠損させる欠損制御処理を実行し、前記次元削減処理では、前記プロセッサ201は、前記欠損制御処理によって得られた前記学習対象の一部欠損した形状に基づいて、前記1以上の成分を生成し、前記行動学習処理では、前記プロセッサ201は、前記第1変数から前記次元を示す序数の成分までの成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記行動分類モデルを生成し、前記一部欠損させた形状に関する欠損情報と関連付ける。
(28) In the learning device of the above (23), the
意図的に一部欠損した形状を生成することにより、行動分類モデルの種類数の増加を図ることができる。これにより、認識対象の様々な形状に対応した高精度な行動認識が可能になる。 By intentionally generating a partially missing shape, it is possible to increase the number of types of behavior classification models. This enables highly accurate action recognition corresponding to various shapes of recognition targets.
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。たとえば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。 It should be noted that the present invention is not limited to the above-mentioned examples, but includes various modifications and equivalent configurations within the scope of the attached claims. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations. Further, a part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Further, the configuration of another embodiment may be added to the configuration of one embodiment. In addition, other configurations may be added, deleted, or replaced with respect to a part of the configurations of each embodiment.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、たとえば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサ201がそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
Further, each configuration, function, processing unit, processing means, etc. described above may be realized by hardware by designing a part or all of them by, for example, an integrated circuit, and the
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。 Information such as programs, tables, and files that realize each function is recorded in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or an IC (Integrated Circuit) card, an SD card, or a DVD (Digital Versail Disc). It can be stored in a medium.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要なすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。 In addition, the control lines and information lines show what is considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for implementation. In practice, you can think of almost all configurations as interconnected.
100 行動認識システム
101 サーバ
102 クライアント
103 センサ
104 教師信号DB
201 プロセッサ
202 記憶デバイス
320 骨格情報
401 教師信号取得部
402 欠損情報制御部
403,453 骨格情報処理部
404,454 主成分分析部
405,2601 次元数制御部
406,2200,2602 行動学習部
451 骨格検出部
452 欠損情報判断部
455 次元数決定部
456 行動分類モデル選択部
457,2201 行動認識部
501 関節角度算出部
502 移動量算出部
503 正規化部
1652 欠損情報補間部
1904 相互情報正規化部
2100,2101,2600,2603 次元削減部
100
Claims (20)
多変量解析で統計的な成分を生成する成分分析により学習対象の形状から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、
前記プロセッサは、
解析対象データから認識対象の形状を検出する検出処理と、
前記成分分析により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する成分分析処理と、
前記各々の寄与率から得られる累積寄与率に基づいて、前記1以上の成分の各々の次元を示す序数を決定する決定処理と、
前記決定処理によって決定された次元を示す序数の成分を1以上含む特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、
前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、
を実行することを特徴とする行動認識装置。 An action recognition device having a processor for executing a program and a storage device for storing the program.
Generate statistical components by multivariate analysis Using the component group obtained from the shape of the learning target by component analysis and the behavior of the learning target, it is possible to access the behavior classification model group learned for each component group. And
The processor
Detection processing to detect the shape of the recognition target from the analysis target data,
A component analysis process that produces one or more components and the contribution rate of each of the components based on the shape of the recognition target detected by the component analysis.
A determination process for determining an ordinal number indicating each dimension of the one or more components based on the cumulative contribution rate obtained from each of the contribution rates.
A selection process for selecting a specific behavior classification model learned in the same component group as a specific component group containing one or more components of an ordinal number indicating a dimension determined by the determination process from the behavior classification model group.
Behavior recognition processing that outputs a recognition result indicating the behavior of the recognition target by inputting the specific component group into the specific behavior classification model selected by the selection processing.
An action recognition device characterized by performing.
前記行動分類モデル群の各々の行動分類モデルは、学習対象の一部欠損した形状から得られる成分群と、前記学習対象の行動と、を用いて、前記一部欠損した形状および成分群の組み合わせごとに学習されており、
前記プロセッサは、
前記認識対象の一部欠損した形状を判断する判断処理と、
前記成分分析処理では、前記プロセッサは、前記判断処理によって判断された前記認識対象の一部欠損した形状に基づいて、前記1以上の成分と、前記1以上の成分の各々の寄与率と、を生成し、
前記選択処理では、前記プロセッサは、前記認識対象の一部欠損した形状と同一欠損形状および前記特定の成分群と同じ成分群の組み合わせで学習された特定の行動分類モデルを、前記行動分類モデル群から選択する、
ことを特徴とする行動認識装置。 The behavior recognition device according to claim 1.
Each behavior classification model of the behavior classification model group is a combination of the partially defective shape and the component group using the component group obtained from the partially defective shape of the learning target and the behavior of the learning target. It is learned for each
The processor
Judgment processing for determining the partially missing shape of the recognition target, and
In the component analysis process, the processor determines the contribution rate of each of the one or more components and the one or more components based on the partially missing shape of the recognition target determined by the determination process. Generate and
In the selection process, the processor uses the behavior classification model group to obtain a specific behavior classification model learned by combining the same defect shape as the partially missing shape of the recognition target and the same component group as the specific component group. Choose from,
An action recognition device characterized by this.
前記プロセッサは、
前記認識対象の形状に一部欠損があれば補間する補間処理を実行し、
前記成分分析処理では、前記プロセッサは、前記補間処理による補間後の認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The behavior recognition device according to claim 1.
The processor
If there is a partial defect in the shape to be recognized, interpolation processing is executed to interpolate.
In the component analysis process, the processor generates the one or more components and the contribution rate based on the shape of the recognition target after interpolation by the interpolation process.
An action recognition device characterized by this.
多変量解析で統計的な成分を生成する次元削減により学習対象の形状から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、
前記プロセッサは、
解析対象データから認識対象の形状を検出する検出処理と、
前記次元削減により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する次元削減処理と、
前記各々の寄与率に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数を決定する決定処理と、
前記第1変数から前記決定処理によって決定された次元を示す序数の成分までの特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、
前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、
を実行することを特徴とする行動認識装置。 An action recognition device having a processor for executing a program and a storage device for storing the program.
It was learned for each component group using the ascending component group from the first variable obtained from the shape of the learning target by the dimension reduction to generate statistical components by multivariate analysis and the behavior of the learning target. Access to behavioral classification models,
The processor
Detection processing to detect the shape of the recognition target from the analysis target data,
A dimension reduction process that generates one or more components and the contribution ratio of each of the components based on the shape of the recognition target detected by the detection process by the dimension reduction process.
A determination process for determining the ordinal number indicating the dimension of the ascending component from the first variable among the one or more components based on each of the contribution rates.
A selection process for selecting from the behavior classification model group a specific behavior classification model learned in the same component group as the specific component group from the first variable to the component of the ordinal number indicating the dimension determined by the determination process. ,
Behavior recognition processing that outputs a recognition result indicating the behavior of the recognition target by inputting the specific component group into the specific behavior classification model selected by the selection processing.
An action recognition device characterized by performing.
前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記形状を構成する複数の頂点の角度から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、
前記プロセッサは、
前記認識対象の形状に基づいて、前記認識対象の形状を構成する複数の頂点の角度を算出する算出処理を実行し、
前記次元削減処理では、前記プロセッサは、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の頂点の角度と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
Each behavior classification model of the behavior classification model group includes an ascending component group from the first variable obtained from the shape of the learning target and the angles of a plurality of vertices constituting the shape, and the behavior of the learning target. Is learned for each component group using
The processor
Based on the shape of the recognition target, a calculation process for calculating the angles of a plurality of vertices constituting the shape of the recognition target is executed.
In the dimension reduction process, the processor obtains the one or more components and the contribution rate based on the shape of the recognition target and the angle of the apex of the recognition target calculated by the calculation process. Generate,
An action recognition device characterized by this.
前記行動分類モデル群の各々の行動分類モデルは、前記学習対象の形状および前記学習対象の移動量から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習されており、
前記プロセッサは、
前記認識対象の異なる時点の複数の形状に基づいて、前記認識対象の移動量を算出する算出処理を実行し、
前記次元削減処理では、前記プロセッサは、前記認識対象の形状と、前記算出処理によって算出された前記認識対象の移動量と、に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
Each behavior classification model of the behavior classification model group uses an ascending component group from the first variable obtained from the shape of the learning target and the movement amount of the learning target, and the behavior of the learning target. It is learned for each component group,
The processor
A calculation process for calculating the movement amount of the recognition target is executed based on a plurality of shapes of the recognition target at different time points.
In the dimension reduction process, the processor generates the one or more components and the contribution rate based on the shape of the recognition target and the movement amount of the recognition target calculated by the calculation process. do,
An action recognition device characterized by this.
前記プロセッサは、
前記認識対象の形状の大きさを正規化する第1正規化処理を実行し、
前記次元削減処理では、前記プロセッサは、前記第1正規化処理による第1正規化後の前記認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
The processor
The first normalization process for normalizing the size of the shape to be recognized is executed.
In the dimension reduction process, the processor generates the one or more components and the contribution rate based on the shape of the recognition target after the first normalization by the first normalization process.
An action recognition device characterized by this.
前記プロセッサは、
前記認識対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、
前記次元削減処理では、前記プロセッサは、前記第2正規化処理による第2正規化後の前記認識対象の形状および頂点の角度に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The behavior recognition device according to claim 5.
The processor
The second normalization process for normalizing the range that the shape of the recognition target and the angle of the apex can take is executed.
In the dimension reduction process, the processor generates the one or more components and the contribution rate based on the shape of the recognition target and the angle of the apex after the second normalization by the second normalization process. do,
An action recognition device characterized by this.
前記決定処理では、前記プロセッサは、前記寄与率がしきい値を超えるのに必要な前記第1変数からの昇順の成分の次元を示す序数を決定する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
In the determination process, the processor determines an ordinal number indicating the dimension of the ascending component from the first variable required for the contribution to exceed the threshold.
An action recognition device characterized by this.
前記行動分類モデル群の各々の行動分類モデルは、学習対象の一部欠損した形状から得られる第1変数からの昇順の成分群と、前記学習対象の行動と、を用いて、前記一部欠損した形状および成分群の組み合わせごとに学習されており、
前記プロセッサは、
前記認識対象の一部欠損した形状を判断する判断処理と、
前記次元削減処理では、前記プロセッサは、前記判断処理によって判断された前記認識対象の一部欠損した形状に基づいて、前記1以上の成分と、前記1以上の成分の各々の寄与率と、を生成し、
前記選択処理では、前記プロセッサは、前記認識対象の一部欠損した形状と同一欠損形状および前記特定の成分群と同じ成分群の組み合わせで学習された特定の行動分類モデルを、前記行動分類モデル群から選択する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
Each behavior classification model of the behavior classification model group uses the component group in ascending order from the first variable obtained from the partially defective shape of the learning target and the behavior of the learning target, and the partial defect. It is learned for each combination of shape and component group,
The processor
Judgment processing for determining the partially missing shape of the recognition target, and
In the dimension reduction processing, the processor determines the contribution rate of each of the one or more components and the one or more components based on the partially missing shape of the recognition target determined by the determination process. Generate and
In the selection process, the processor uses the behavior classification model group to obtain a specific behavior classification model learned by combining the same defect shape as the partially missing shape of the recognition target and the same component group as the specific component group. Choose from,
An action recognition device characterized by this.
前記プロセッサは、
前記認識対象の形状に一部欠損があれば補間する補間処理を実行し、
前記次元削減処理では、前記プロセッサは、前記補間処理による補間後の認識対象の形状に基づいて、前記1以上の成分と、前記寄与率と、を生成する、
ことを特徴とする行動認識装置。 The action recognition device according to claim 4.
The processor
If there is a partial defect in the shape to be recognized, interpolation processing is executed to interpolate.
In the dimension reduction processing, the processor generates the one or more components and the contribution ratio based on the shape of the recognition target after interpolation by the interpolation processing.
An action recognition device characterized by this.
前記プロセッサは、
学習対象の形状および行動を含む教師データを取得する取得処理と、
多変量解析で統計的な成分を生成する成分分析により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する成分分析処理と、
許容計算量に基づいて、前記1以上の成分の各々の次元を示す序数を制御する制御処理と、
前記制御処理によって制御された次元を示す序数の成分を1以上含む成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、
を実行することを特徴とする学習装置。 A learning device having a processor for executing a program and a storage device for storing the program.
The processor
Acquisition process to acquire teacher data including the shape and behavior of the learning target,
A component analysis process that generates one or more components based on the shape of the learning target acquired by the acquisition process by component analysis that generates statistical components by multivariate analysis.
Control processing that controls the ordinal number indicating each dimension of the one or more components based on the allowable calculation amount, and
The behavior of the learning target is learned and the behavior of the learning target is classified based on the component group containing one or more components of the order indicating the dimension controlled by the control process and the behavior of the learning target. Behavior learning process to generate behavior classification model,
A learning device characterized by performing.
前記プロセッサは、
前記学習対象の形状を一部欠損させる欠損制御処理を実行し、
前記成分分析処理では、前記プロセッサは、前記欠損制御処理によって得られた前記学習対象の一部欠損した形状に基づいて、前記1以上の成分を生成し、
前記行動学習処理では、前記プロセッサは、
前記成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記行動分類モデルを生成し、前記一部欠損させた形状に関する欠損情報と関連付ける、
ことを特徴とする学習装置。 The learning device according to claim 12.
The processor
The defect control process for partially deleting the shape of the learning target is executed, and the defect control process is executed.
In the component analysis process, the processor generates the one or more components based on the partially defective shape of the learning target obtained by the defect control process.
In the behavior learning process, the processor
Based on the component group and the behavior of the learning target, the behavior of the learning target is learned to generate the behavior classification model, which is associated with the defect information regarding the partially deleted shape.
A learning device characterized by that.
前記プロセッサは、
学習対象の形状および行動を含む教師データを取得する取得処理と、
多変量解析で統計的な成分を生成する次元削減により、前記取得処理によって取得された前記学習対象の形状に基づいて、1以上の成分を生成する次元削減処理と、
許容計算量に基づいて、前記1以上の成分のうち第1変数からの昇順の成分の次元を示す序数を制御する制御処理と、
前記第1変数から前記制御処理によって制御された次元を示す序数の成分までの成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記学習対象の行動を分類する行動分類モデルを生成する行動学習処理と、
を実行することを特徴とする学習装置。 A learning device having a processor for executing a program and a storage device for storing the program.
The processor
Acquisition process to acquire teacher data including the shape and behavior of the learning target,
Dimension reduction processing that generates one or more components based on the shape of the learning target acquired by the acquisition process by dimension reduction that generates statistical components in multivariate analysis.
A control process that controls the ordinal number indicating the dimension of the ascending component from the first variable among the one or more components based on the allowable calculation amount.
The behavior of the learning target is learned based on the component group from the first variable to the component of the order indicating the dimension controlled by the control process and the behavior of the learning target, and the behavior of the learning target is learned. Behavior learning process that generates behavior classification model to classify
A learning device characterized by performing.
前記プロセッサは、
前記学習対象の形状に基づいて、前記学習対象の形状を構成する複数の頂点の角度を算出する算出処理を実行し、
前記次元削減処理では、前記プロセッサは、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の頂点の角度と、に基づいて、前記1以上の成分を生成する、
ことを特徴とする学習装置。 The learning device according to claim 14.
The processor
Based on the shape of the learning target, a calculation process for calculating the angles of a plurality of vertices constituting the shape of the learning target is executed.
In the dimension reduction process, the processor generates the one or more components based on the shape of the learning target and the angle of the apex of the learning target calculated by the calculation process.
A learning device characterized by that.
前記プロセッサは、
前記学習対象の異なる時点の複数の形状に基づいて、前記学習対象の移動量を算出する算出処理を実行し、
前記次元削減処理では、前記プロセッサは、前記学習対象の形状と、前記算出処理によって算出された前記学習対象の移動量と、に基づいて、前記1以上の成分を生成する、
ことを特徴とする学習装置。 The learning device according to claim 14.
The processor
A calculation process for calculating the amount of movement of the learning target is executed based on a plurality of shapes of the learning target at different time points.
In the dimension reduction process, the processor generates one or more components based on the shape of the learning target and the movement amount of the learning target calculated by the calculation process.
A learning device characterized by that.
前記プロセッサは、
前記学習対象の形状の大きさを正規化する第1正規化処理を実行し、
前記次元削減処理では、前記プロセッサは、前記第1正規化処理による第1正規化後の前記学習対象の形状に基づいて、前記1以上の成分を生成する、
ことを特徴とする学習装置。 The learning device according to claim 14.
The processor
The first normalization process for normalizing the size of the shape of the learning target is executed.
In the dimension reduction process, the processor generates the one or more components based on the shape of the learning target after the first normalization by the first normalization process.
A learning device characterized by that.
前記プロセッサは、
前記学習対象の形状および頂点の角度が取りうる値域を正規化する第2正規化処理を実行し、
前記次元削減処理では、前記プロセッサは、前記第2正規化処理による第2正規化後の前記学習対象の形状および頂点の角度に基づいて、前記1以上の成分を生成する、
ことを特徴とする学習装置。 The learning device according to claim 15.
The processor
The second normalization process for normalizing the range that the shape of the learning target and the angle of the apex can take is executed.
In the dimension reduction process, the processor generates the one or more components based on the shape and the angle of the apex of the learning target after the second normalization by the second normalization process.
A learning device characterized by that.
前記プロセッサは、
前記学習対象の形状を一部欠損させる欠損制御処理を実行し、
前記次元削減処理では、前記プロセッサは、前記欠損制御処理によって得られた前記学習対象の一部欠損した形状に基づいて、前記1以上の成分を生成し、
前記行動学習処理では、前記プロセッサは、
前記第1変数から前記次元を示す序数の成分までの成分群と、前記学習対象の行動と、に基づいて、前記学習対象の行動を学習して、前記行動分類モデルを生成し、前記一部欠損させた形状に関する欠損情報と関連付ける、
ことを特徴とする学習装置。 The learning device according to claim 14.
The processor
The defect control process for partially deleting the shape of the learning target is executed, and the defect control process is executed.
In the dimension reduction processing, the processor generates the one or more components based on the partially defective shape of the learning target obtained by the defect control processing.
In the behavior learning process, the processor
Based on the component group from the first variable to the component of the ordinal number indicating the dimension and the behavior of the learning target, the behavior of the learning target is learned to generate the behavior classification model, and the part thereof. Associate with missing information about the missing shape,
A learning device characterized by that.
多変量解析で統計的な成分を生成する成分分析により学習対象の形状から得られる成分群と、前記学習対象の行動と、を用いて、成分群ごとに学習された行動分類モデル群にアクセス可能であり、
前記行動認識方法は、
前記プロセッサが、
解析対象データから認識対象の形状を検出する検出処理と、
前記成分分析により、前記検出処理によって検出された前記認識対象の形状に基づいて、1以上の成分と、前記成分の各々の寄与率と、を生成する成分分析処理と、
前記各々の寄与率から得られる累積寄与率に基づいて、前記1以上の成分の各々の次元を示す序数を決定する決定処理と、
前記決定処理によって決定された次元を示す序数の成分を1以上含む特定の成分群と同じ成分群で学習された特定の行動分類モデルを、前記行動分類モデル群から選択する選択処理と、
前記選択処理によって選択された特定の行動分類モデルに前記特定の成分群を入力することにより、前記認識対象の行動を示す認識結果を出力する行動認識処理と、
を実行することを特徴とする行動認識方法。 A behavior recognition method executed by an behavior recognition device having a processor that executes a program and a storage device that stores the program.
Generate statistical components by multivariate analysis Using the component group obtained from the shape of the learning target by component analysis and the behavior of the learning target, it is possible to access the behavior classification model group learned for each component group. And
The behavior recognition method is
The processor
Detection processing to detect the shape of the recognition target from the analysis target data,
A component analysis process that produces one or more components and the contribution rate of each of the components based on the shape of the recognition target detected by the component analysis.
A determination process for determining an ordinal number indicating each dimension of the one or more components based on the cumulative contribution rate obtained from each of the contribution rates.
A selection process for selecting a specific behavior classification model learned in the same component group as a specific component group containing one or more components of an ordinal number indicating a dimension determined by the determination process from the behavior classification model group.
Behavior recognition processing that outputs a recognition result indicating the behavior of the recognition target by inputting the specific component group into the specific behavior classification model selected by the selection processing.
A behavior recognition method characterized by performing.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21183349.6A EP3965007A1 (en) | 2020-09-04 | 2021-07-02 | Action recognition apparatus, learning apparatus, and action recognition method |
US17/369,123 US20220076003A1 (en) | 2020-09-04 | 2021-07-07 | Action recognition apparatus, learning apparatus, and action recognition method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020148759 | 2020-09-04 | ||
JP2020148759 | 2020-09-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022043974A true JP2022043974A (en) | 2022-03-16 |
JP7439004B2 JP7439004B2 (en) | 2024-02-27 |
Family
ID=80668771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021037260A Active JP7439004B2 (en) | 2020-09-04 | 2021-03-09 | Behavior recognition device, learning device, and behavior recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7439004B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102501576B1 (en) * | 2022-11-22 | 2023-02-21 | 주식회사 아무랩스 | Method and apparatus for transmitting information about diagram to a user terminal using a neural network |
WO2023243130A1 (en) * | 2022-06-14 | 2023-12-21 | 株式会社日立製作所 | Behavior recognition device, training device, and behavior recognition method |
JP2024004972A (en) * | 2022-06-29 | 2024-01-17 | アースアイズ株式会社 | Monitoring system, monitoring method, and method for training image recognition device for monitoring system |
CN117876972A (en) * | 2024-03-12 | 2024-04-12 | 厦门锋联信息技术有限公司 | Workshop safety supervision method and system based on internet of things perception |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4930854B2 (en) | 2005-07-19 | 2012-05-16 | 日本電気株式会社 | Joint object position / posture estimation apparatus, method and program thereof |
KR101563297B1 (en) | 2014-04-23 | 2015-10-26 | 한양대학교 산학협력단 | Method and apparatus for recognizing action in video |
-
2021
- 2021-03-09 JP JP2021037260A patent/JP7439004B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023243130A1 (en) * | 2022-06-14 | 2023-12-21 | 株式会社日立製作所 | Behavior recognition device, training device, and behavior recognition method |
JP2024004972A (en) * | 2022-06-29 | 2024-01-17 | アースアイズ株式会社 | Monitoring system, monitoring method, and method for training image recognition device for monitoring system |
KR102501576B1 (en) * | 2022-11-22 | 2023-02-21 | 주식회사 아무랩스 | Method and apparatus for transmitting information about diagram to a user terminal using a neural network |
CN117876972A (en) * | 2024-03-12 | 2024-04-12 | 厦门锋联信息技术有限公司 | Workshop safety supervision method and system based on internet of things perception |
CN117876972B (en) * | 2024-03-12 | 2024-05-07 | 厦门锋联信息技术有限公司 | Workshop safety supervision method and system based on internet of things perception |
Also Published As
Publication number | Publication date |
---|---|
JP7439004B2 (en) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022043974A (en) | Behavior recognition apparatus, learning apparatus, and behavior recognition method | |
KR101507662B1 (en) | Semantic parsing of objects in video | |
US8180161B2 (en) | Image classification device and image classification program | |
CN104700087B (en) | The method for mutually conversing of visible ray and near-infrared facial image | |
JPWO2018105028A1 (en) | Inspection apparatus and inspection method | |
JP2011238204A (en) | Method for recognition and position attitude determination of three-dimensional object at three-dimensional scene | |
EP3965007A1 (en) | Action recognition apparatus, learning apparatus, and action recognition method | |
JPWO2018154709A1 (en) | Motion learning device, skill discrimination device and skill discrimination system | |
JPWO2018207334A1 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
KR102188732B1 (en) | System and Method for Data Processing using Sphere Generative Adversarial Network Based on Geometric Moment Matching | |
JP2018055199A (en) | Image processing program, image processing device, and image processing method | |
Nugroho et al. | Effective predictive modelling for coronary artery diseases using support vector machine | |
CN116958584A (en) | Key point detection method, regression model training method and device and electronic equipment | |
JP7180283B2 (en) | Image processing device and image processing method | |
JP2018124990A (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and program | |
US20230368409A1 (en) | Storage medium, model training method, and model training device | |
Morell et al. | 3d maps representation using gng | |
WO2023243130A1 (en) | Behavior recognition device, training device, and behavior recognition method | |
Hernández et al. | Adding uncertainty to an object detection system for mobile robots | |
US20070223818A1 (en) | Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video | |
JP2023167320A (en) | Learning model generation device, joint point detection device, learning model generation method, joint point detection method, and program | |
KR20230111010A (en) | Method and apparatus for generating training data for joint prediction | |
Bergner et al. | Deformable structural models | |
JP7364077B2 (en) | Image processing device, image processing method, and program | |
JP7358269B2 (en) | Object detection device, object detection system, and object detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7439004 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |