JP2015111332A - Attitude detection device, attitude detection method, and attitude detection program - Google Patents
Attitude detection device, attitude detection method, and attitude detection program Download PDFInfo
- Publication number
- JP2015111332A JP2015111332A JP2013252962A JP2013252962A JP2015111332A JP 2015111332 A JP2015111332 A JP 2015111332A JP 2013252962 A JP2013252962 A JP 2013252962A JP 2013252962 A JP2013252962 A JP 2013252962A JP 2015111332 A JP2015111332 A JP 2015111332A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- similarity
- posture
- teacher data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、姿勢検出装置、姿勢検出方法および姿勢検出プログラムに関するものである。 The present invention relates to an attitude detection device, an attitude detection method, and an attitude detection program.
様々な分野でユーザにサービスを提供するにあたり,ユーザに応じて,またはユーザ状況に応じて適切なサービス内容を選択して提供することが求められている.これに伴い、ユーザの状態を知るためのセンシング技術の重要性がこれまで以上に大きくなってきている。 In providing services to users in various fields, it is required to select and provide appropriate service contents according to the user or the user situation. Along with this, the importance of sensing technology for knowing the state of a user is increasing more than ever.
一方、ユーザの姿勢を検出するためのデバイスとしては、モーションキャプチャにかわり、人の代表的な位置の座標をセンシングすることのできるデバイス(たとえば、Kinect(登録商標))も登場している。 On the other hand, devices (for example, Kinect (registered trademark)) that can sense the coordinates of representative positions of people have appeared as a device for detecting the posture of a user, instead of motion capture.
このようなデバイスを用いることにより、容易にユーザの骨格モデルの三次元座標(以後、単に姿勢と呼ぶこともある)を観測できるようになった。これらのデバイスを用いることにより、ユーザの状態を得るために有効な情報として姿勢のデータを手軽に得ることができるようになった。 By using such a device, it has become possible to easily observe the three-dimensional coordinates (hereinafter sometimes simply referred to as posture) of the user's skeleton model. By using these devices, posture data can be easily obtained as effective information for obtaining the user's state.
デバイスによって取得された姿勢のデータ(測定データ、観測データと呼ぶことがある)が、どのような姿勢であると同定する手法については、観測データを予め取得された教師データと比較し、観測データが、どの姿勢に対応する教師データと一致するかを判定する手法が一般的である。このような手法として、たとえば、相互部分空間法を用いた競合学習により姿勢の判定を含むパターン認識手法が知られている(たとえば、非特許文献1、特許文献1)。この手法では、観測データの基底ベクトルの張る部分空間と、教師データの基底ベクトルの張る部分空間の正準角をもとに、類似度を判定する。
For the method of identifying the posture data acquired by the device (sometimes called measurement data or observation data), the observation data is compared with the teacher data acquired in advance. Is generally a method for determining which posture corresponds to the teacher data. As such a method, for example, a pattern recognition method including posture determination by competitive learning using a mutual subspace method is known (for example, Non-Patent
また、部分空間法において、辞書生成用特徴パターン群から、多項式ニューラルネットワークにより二次関数を学習し、二次関数の主要成分を保存する部分空間を選択することによって、特徴空間の次元を削減する方法が知られている(たとえば、特許文献2)。 Also, in the subspace method, learning the quadratic function from the feature pattern group for dictionary generation using a polynomial neural network, and selecting the subspace that stores the main component of the quadratic function, thereby reducing the dimension of the feature space A method is known (for example, Patent Document 2).
しかしながら、一般的に、観測データと教師データとを比較することによって、観測データが示すカテゴリ(たとえば、それらのデータが示す姿勢)と教師データが示すカテゴリが同一かどうかを判定する方法は反復計算を伴うため、処理時間が大きいという問題がある。 However, in general, the method of determining whether the category indicated by the observation data (for example, the posture indicated by the data) and the category indicated by the teacher data are the same by comparing the observation data with the teacher data is an iterative calculation. Therefore, there is a problem that the processing time is long.
よって、一つの側面として、本発明は、観測データと教師データとを比較することによって、観測データが示すカテゴリが、教師データが示すカテゴリと同一かどうかを高速に判定する姿勢検出装置、姿勢検出方法および姿勢検出プログラムを提供することを目的とする。 Therefore, as one aspect, the present invention provides a posture detection apparatus and posture detection that quickly determines whether the category indicated by the observation data is the same as the category indicated by the teacher data by comparing the observation data with the teacher data. It is an object to provide a method and an attitude detection program.
姿勢検出装置が開示される。姿勢検出装置は、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求める類似度算出部と、前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部とを含むことを特徴とする。 An attitude detection device is disclosed. The posture detection device obtains a first rotational moment matrix that is a variance-covariance matrix from a matrix obtained from observation data representing the posture of an object, and a variance-covariance matrix for each of a plurality of teacher data is distributed over the plurality of teacher data. From the matrix obtained using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix obtained by addition, and the first rotational moment matrix, the plurality of teacher data, A plurality of similarity calculation units for obtaining a first similarity between the observation data and a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix; Whether the posture belongs to the posture category represented by the plurality of teacher data by comparing the second similarity between the teacher data and the first similarity Characterized in that it comprises a determining similarity posture determining unit.
観測データと教師データとを比較することによって、観測データが示すカテゴリが、教師データが示すカテゴリと同一かどうかを高速に判定することができる。 By comparing the observation data with the teacher data, it can be determined at high speed whether the category indicated by the observation data is the same as the category indicated by the teacher data.
以下では、人物の各部位の座標を観測し、その観測の結果に基づいて、人物がどのような姿勢(ポーズ)にあるのかを判定する姿勢検出装置、姿勢検出方法および姿勢検出プログラムについて説明するが、人物の姿勢の検出以外の判定にも適用可能である。たとえば、人物以外の動物の他、静物、ロボット、ロケット、自動車、飛行機、船などの機械など任意の物体にも適用可能である。ここで、人物の姿勢は、複数のカテゴリに分類されていても良い。また、実施例として、姿勢検出装置で用いられるアルゴリズムが、人の行動予測にも適用できる例を説明する。実施例についても、行動予測は人のものには限定されない。人物以外の動物であってもよい。 In the following, a posture detection device, a posture detection method, and a posture detection program for observing the coordinates of each part of a person and determining what kind of posture (pose) the person is based on the result of the observation will be described. However, it can also be applied to determinations other than the detection of the posture of a person. For example, the present invention can be applied to any object other than animals other than humans, such as still life, robots, rockets, automobiles, airplanes, ships, and other machines. Here, the posture of the person may be classified into a plurality of categories. As an embodiment, an example in which an algorithm used in the posture detection apparatus can be applied to human behavior prediction will be described. Also about an Example, action prediction is not limited to a human thing. It may be an animal other than a person.
まず、ユーザの複数の部位の座標をカメラ等のセンサで観測し、その観測結果を教師データと比較することによって、ユーザの姿勢を検出する姿勢検出装置を説明する。 First, a posture detection apparatus that detects the posture of a user by observing the coordinates of a plurality of parts of the user with a sensor such as a camera and comparing the observation results with teacher data will be described.
<姿勢検出の比較例>
まずは、姿勢検出の比較例について説明する。
<Comparison example of posture detection>
First, a comparative example of posture detection will be described.
ユーザのn個の部位の座標(xi、yi、zi)(i=1〜n)を観測する。nは10程度の整数でも良いし、それ以上でも以下でも良い。各部位は3次元空間中の座標として表される。n個の座標(xi、yi、zi)から次のようなパラメータ行列Xを生成する。 The coordinates (x i , y i , z i ) (i = 1 to n) of the n parts of the user are observed. n may be an integer of about 10, more or less. Each part is represented as coordinates in a three-dimensional space. The following parameter matrix X is generated from n coordinates (x i , y i , z i ).
つまり、パラメータ行列Xは、i番目の部位の座標(xi、yi、zi)を縦ベクトルで表し、n個の縦ベクトルを横に並べて得られる行列である。パラメータ行列Xは、ランク3の3×n行列である。
That is, the parameter matrix X is a matrix obtained by expressing the coordinates (x i , y i , z i ) of the i-th part as vertical vectors and horizontally arranging n vertical vectors. The parameter matrix X is a
ただし、このパラメータ行列Xは、センサの位置による回転、並進、拡大等の影響を受けている。そこで、パラメータ行列Xから、分散共分散行列Mを求める。分散共分散行列Mは、回転、並進の下で不変である。 However, this parameter matrix X is affected by rotation, translation, enlargement, etc. depending on the position of the sensor. Therefore, a variance covariance matrix M is obtained from the parameter matrix X. The variance-covariance matrix M is invariant under rotation and translation.
座標xav、yav、zavをそれぞれ、座標xi、yi、zi(i=1〜n)の平均とする。すなわち、(xav、yav、zav)は、n個の座標(xi、yi、zi)の重心である。行列X’を、
この分散共分散行列Mを固有値分解(または特異値分解)し、固有ベクトル(特異ベクトル)の張る部分空間を求める。上の例では、パラメータ行列Xのランクが3であるため、分散共分散行列Mのランクも3である。そして、分散共分散行列Mを固有値分解(または特異値分解)することによって3つの固有ベクトル(特異ベクトル)の張る部分空間が得られる。つまり、ユーザのn個の部位の座標(xi、yi、zi)(i=1〜n)に対して、部分空間が一意に決まる。 The variance-covariance matrix M is subjected to eigenvalue decomposition (or singular value decomposition) to obtain a subspace spanned by eigenvectors (singular vectors). In the above example, since the rank of the parameter matrix X is 3, the rank of the variance-covariance matrix M is also 3. Then, by performing eigenvalue decomposition (or singular value decomposition) on the variance-covariance matrix M, a subspace spanned by three eigenvectors (singular vectors) is obtained. That is, the partial space is uniquely determined with respect to the coordinates (x i , y i , z i ) (i = 1 to n) of the n parts of the user.
この部分空間は、ユーザのn個の部位の座標(xi、yi、zi)に関する情報を含んでいる。3つの固有ベクトルの張る部分空間と、ユーザの姿勢の関係について説明する。 This subspace includes information regarding the coordinates (x i , y i , z i ) of n parts of the user. The relationship between the subspace spanned by the three eigenvectors and the user's posture will be described.
分散共分散行列Mの3つの固有ベクトルをa1=(a11、a12、・・・、a1n)、a2=(a21、a22、・・・、a2n)、a3=(a31、a32、・・・、a3n)とする。これらの3つの固有ベクトルを並べて得られる行列をAとする。すなわち、
によって行列A’を導入すると、分散共分散行列Mは、
したがって、たとえば2つのn個の部位の座標に対して得られる2つの部分空間がどれだけ類似しているかを数値化することは、その2つのn個の部位の座標で表される2つの姿勢がどれだけ類似しているかを表す類似度を得ることと同義である。 Therefore, for example, quantifying how similar two subspaces obtained with respect to the coordinates of two n parts is two postures represented by the coordinates of the two n parts. Is synonymous with obtaining the degree of similarity that expresses how similar.
これまでにも類似度の定義はいくつか提案されている。
たとえば、2つのn個の部位の座標を観測データと教師データと呼ぶことにする。そして、観測データと教師データを加算し、得られた行列の「ランク3らしさ」を類似度とすることが提案されている。
Some definitions of similarity have been proposed so far.
For example, the coordinates of two n parts are called observation data and teacher data. Then, it has been proposed that the observation data and the teacher data are added and the “
観測データから得られる分散共分散行列をPとし、教師データから得られる分散共分散行列をP’とする。両者を加算して行列Q=P+P’を得る。この行列Qのランクを求める。行列Pも行列P’もランク3の行列である。もし、行列Pと行列P’になんら関係性がなければ、行列Qのランクは6となる。また、回転と拡大の自由度を除いて、行列Pと行列P’が同一であれば、行列Qのランクは3である。よって、行列Rのランクが3にどれだけ近いかを数値化できれば、それは類似度となり得る。
Let P be a variance-covariance matrix obtained from observation data, and P ′ be a variance-covariance matrix obtained from teacher data. Both are added to obtain a matrix Q = P + P ′. The rank of this matrix Q is obtained. Both the matrix P and the matrix P ′ are
しかし、実際には、量子化誤差や計算誤差のため、行列Rのランクを厳密に求めると6となってしまう。 However, in reality, because of the quantization error and the calculation error, if the rank of the matrix R is strictly determined, it becomes 6.
また、行列Qの固有値(特異値)の値を用いて「ランク3らしさ」とすることが提案されている。
In addition, it has been proposed to use the value of the eigenvalue (singular value) of the matrix Q to make it “
また、観測データから得られる分散共分散行列をPと、教師データら得られる分散共分散行列をP’とし、それらから得られる2つの部分空間A、A’の第1正準角を類似度とすることも提案されている。第1正準角とは、次のように定義される。一方の部分空間A上の単位ベクトルのうち、他方の部分空間A’への射影長が最大となるベクトルv1を選び、それを他方の部分空間A’に射影したベクトルをv2とする。ベクトルv1とベクトルv2のなす角が第1正準角である。第1正準角は、2つの部分空間A、A’が最も近くなる角度である。この場合、第1正準角をθとして、類似度Rを、
上記のように定義された類似度Rを計算するには、固有値分解(特異値分解)のような反復計算を伴うため、処理時間が大きいという問題がある。 The calculation of the similarity R defined as described above involves an iterative calculation such as eigenvalue decomposition (singular value decomposition), and there is a problem that the processing time is long.
<姿勢検出装置>
以下で図面を参照して、実施形態に係る姿勢検出装置について説明する。
<Attitude detection device>
Hereinafter, an attitude detection device according to an embodiment will be described with reference to the drawings.
姿勢検出システム10は、ユーザの複数の部位の座標を検出するセンサ21と、姿勢検出装置20と、ディスプレイ、プリンタ等の出力装置30を含んでいる。
The
また、姿勢検出装置20には、予め用意された教師データ22が入力される。
以下で説明する姿勢検出装置20は、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、第1の回転モーメント行列とを用いて得られる行列から、複数の教師データと観測データとの間の第1の類似度を求め、第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、複数の教師データ間の第2の類似度と、第1の類似度とを比較することによって、第1の姿勢が複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することができる。
In addition,
The
姿勢検出装置20は、教師データ入力部202、教師データ特徴量算出部204、教師データ特徴量記憶部206、類似度閾値判定部208、姿勢データ入力部210、差分類似度算出部212、類似度算出部214、類似度記憶部216、類似姿勢判定部218、および出力部210を含む。
The
しかしながら、事前処理を行う教師データ入力部202、教師データ特徴量算出部204、教師データ特徴量記憶部206を含む装置は、外部デバイスとして設けられていても良い。この場合、姿勢検出装置20は、類似度閾値判定部208、姿勢データ入力部210、差分類似度算出部212、類似度算出部214、類似度記憶部216、類似姿勢判定部218、および出力部210を含む。
However, an apparatus including the teacher
教師データ特徴量算出部204は教師データ特徴量を算出し、教師データ特徴量は教師データ特徴量記憶部206に格納され得る。類似度算出部214は類似度を算出し、類似度は類似度記憶部216に格納され得る。
The teacher data feature
姿勢検出装置20の出力部220は、類似姿勢判定部218での判定結果を出力装置30に出力する。
The
姿勢のあるカテゴリに関する教師データ22が姿勢検出装置20の教師データ入力部202に入力される。教師データ入力部202、教師データ特徴量算出部204、および類似度閾値判定部208は、センサ21からユーザの複数の部位の座標に関するデータが姿勢データ入力部210に入力される以前に、教師データ22を処理することが好ましい。
教師データ22は、センサ21で観測されたユーザの複数の部位の座標から、ユーザがどの姿勢であるかを判定する際に参照するデータ(類似度)を生成するために姿勢検出装置20に入力される。
The
教師データ22は、姿勢の所定のカテゴリpに対応する座標xpk(k=1、2、3、・・・)であり得る。たとえば、座標xpkは10個の座標(xpi、ypi、zpi)(i=1〜10)を含んでも良い。姿勢の所定のカテゴリpとしては、たとえば、右手を挙げている姿勢、正座、起立などが含まれる。
The
姿勢検出装置20の教師データ特徴量算出部204では、以下のような処理を行う。
まず姿勢検出装置20の教師データ特徴量算出部204は、姿勢の所定のカテゴリpに属する教師データに含まれる座標xpk(k=1、2、3、・・・)と、複数個の座標(xpi、ypi、zpi)(i=1〜n)の重心を(xpm、ypm、zpm)として、各座標(xpi、ypi、zpi)(i=1〜n)の重心(xpm、ypm、zpm)からの相対ベクトルを横に並べた行列Xpを定義する。たとえば、座標(xpi、ypi、zpi)の数が10個である場合、Xpは、
First, the teacher data feature
次に姿勢検出装置20の教師データ特徴量算出部204は、行列Xpを用いて分散共分散行列Mpを求める。行列Mpを回転モーメント行列と呼ぶことがある。行列Mpは、
一般に、姿勢の所定のカテゴリpにカテゴライズされる姿勢の教師データは、複数のサンプルを含んでいる。そこで、それらのサンプルについて平均を取ったものを姿勢pの回転モーメント行列Msum(p)とする。 In general, posture teacher data categorized into a predetermined category p of posture includes a plurality of samples. Therefore, an average of these samples is set as a rotational moment matrix Msum (p) of posture p.
姿勢検出装置20の教師データ特徴量算出部204は、この姿勢の所定のカテゴリpの回転モーメント行列Msum(p)を特異値分解する。すなわち、回転モーメント行列Msum(p)を、
上記のように姿勢の所定のカテゴリpに対する回転モーメント行列Msum(p)を、複数のサンプルから計算するとき、姿勢の所定のカテゴリpに対するサンプル間の差異、座標の観測誤差、途中の計算や通信、入力の際の量子化誤差などの誤差が生じ、蓄積され得る。 When the rotational moment matrix Msum (p) for the predetermined category p of the posture is calculated from a plurality of samples as described above, the difference between samples for the predetermined category p of the posture, coordinate observation error, intermediate calculation and communication Errors such as quantization errors at the time of input may occur and be accumulated.
そこで姿勢検出装置20の類似度閾値判定部208では、複数のサンプルの各教師データの回転モーメント行列Mpについて類似度Rpを計算する。
Therefore, the similarity
固有値(特異値)の大きさは、分解前の行列Qに対する、観測データと教師データに関する固有ベクトルの寄与率である。そこで、固有値(特異値)を大きい順に並べた上位3つを加えた値と、それ以外の固有値の和の比を「ランク3らしさ」としても良い。つまり、i番目の固有値をsiiとすると、
類似度Rpは、特異値行列をS={sij}(1≦l<≦k)として、
センサ21は、ユーザの複数の部位の座標を観測する。もし、10箇所の部位の座標を観測するなら、センサ21は姿勢データとして、10個の3次元座標(xi、yi、zi)(i=1〜10)を得る。そして、センサ21は観測データに関する情報を姿勢検出装置20の姿勢データ入力部210に送る。姿勢データとはセンサ21で得られる観測データ(測定データ)である。
The
姿勢検出装置20の姿勢データ入力部210は、センサ21から送られた姿勢データに関する情報を差分類似度算出部212に送る。
The posture
差分類似度計算部212は、センサ21からの姿勢データが時々刻々変化するとき、またはセンサ21からの姿勢データの差分が疎行列である場合に、逐次処理を行うことによって高速化する処理を行う。したがって、このような処理を行わない場合には、差分類似度計算部212は姿勢データを類似度計算部214に送るだけであっても良い。
The difference
姿勢検出装置20の類似度計算部214では、教師データと同様に姿勢データについても、10個の座標(xi、yi、zi)(i=1〜10)の重心を(xm、ym、zm)として、行列Yを
次に姿勢検出装置20の類似度計算部214は、行列Yを用いて分散共分散行列M’を求める。行列M’も回転モーメント行列と呼ぶことがある。行列M’は、
姿勢検出装置20の類似度計算部214では、姿勢のカテゴリpに対応する教師データ特徴量に含まれる左特異ベクトルUpと、右特異ベクトルVpを用いて、回転モーメント行列M’から特異値行列Sを計算する。特異値行列Spは、
類似度計算部214では、上記の行列Spの要素から、姿勢データと姿勢のカテゴリpに対する教師データの類似度Rを、
類似姿勢判定部218では、観測データから求められた類似度Rと類似度閾値判定部208で得られた類似度Rpが比較される。たとえば、観測データから求められた類似度Rが、カテゴリpに属する複数のサンプルの各教師データの回転モーメント行列Mpの類似度Rpの最小値以下の場合、観測データに対する姿勢は、姿勢のカテゴリpに属すると判定しても良い。
The similarity
類似姿勢判定部218での判定結果は、出力部220に送られる。
出力部220では、判定結果を出力装置30に送る。
The determination result in the similar
The
出力装置30では、ディスプレイに表示する、紙に印刷するなどの方法で、判定結果をユーザ等に示す。
The
差分類似度算出部212では、逐次処理を行うことによって、処理の高速化を図る。
ここでは、姿勢データが時々刻々と変化する場合について説明する。
The difference
Here, a case where posture data changes every moment will be described.
t番目の観測時刻における姿勢データから得られる回転モーメント行列をM(t)とする。すると、
このように、姿勢検出装置20は、複数の座標を含む観測データで表される物体の姿勢が、各々が複数の座標を含む複数の教師データで表される姿勢のカテゴリに属するかどうかを、複数の教師データの各々に対して分散共分散行列を求め、分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して、左特異ベクトル、右特異ベクトル、および特異値行列を得て、特異値行列の行列要素を用いて得られる前記複数の教師データ間の類似度を表す第2の類似度を、複数の教師データと観測データの類似を表す第1の類似度と比較することによって判定する。
As described above, the
たとえば、姿勢検出装置20の教師データ特徴量算出部204は、姿勢のあるカテゴリpに属する複数の教師データの各々に対して分散共分散行列M=X’TX’を求め、分散共分散行列M=X’TX’を複数の教師データにわたって加算して得られる第2の回転モーメント行列Mnを特異値分解Mn=USVTして、左特異ベクトルV、右特異ベクトルU、および特異値行列S={sij}を求め、特異値行列Sの行列要素を用いて複数の教師データ間の第2の類似度Rpを求める。
For example, the teacher data feature
姿勢検出装置20の類似度算出部214は、観測データから得られる行列Y’から分散共分散行列である第1の回転モーメント行列M’=Y’TY’を求め、第1の回転モーメント行列M’=X’TX’、左特異ベクトルV、右特異ベクトルUを用いて得られる行列
姿勢検出装置20の類似姿勢判定部218は、第1の類似度と第2の類似度を比較することによって、物体の姿勢が教師データが定めるカテゴリに属するかどうかを判定する。
The similar
たとえば、類似姿勢判定部218は、姿勢のカテゴリpに対する教師データから得られた第2の類似度と、姿勢のカテゴリpに対する教師データから得られた左特異ベクトルと右特異ベクトルを姿勢データ(観測データ)から得られる分散共分散行列(回転モーメント行列)に作用させて得られる行列から算出される第1の類似度を、姿勢のカテゴリpに対する教師データから得られる第2の類似度と比較する。第1の類似度が、姿勢のカテゴリpに対する教師データから得られる第2の類似度より小さければ、姿勢データが対応する姿勢は、姿勢のカテゴリpに属すると判定しても良い。
For example, the similar
また姿勢検出装置20は、差分類似度算出部212を含む。
観測データが第1の観測データと第2の観測データを含むとき、第1の観測データから得られる第1の回転モーメント行列を第1観測行列、第2の観測データから得られる第1の回転モーメント行列を第2観測行列とすると、差分類似度算出部212は、第2観測行列と第1観測行列との差分を計算する。また、類似度算出部214は、差分、左特異ベクトル、右特異ベクトルを用いて得られる行列から第1の類似度を求め得る。
The
When the observation data includes the first observation data and the second observation data, the first rotation moment matrix obtained from the first observation data is the first rotation matrix obtained from the first observation matrix and the second observation data. If the moment matrix is the second observation matrix, the difference
このように姿勢検出装置20は、類似度算出部214において、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、第1の回転モーメント行列とを用いて得られる行列から、複数の教師データと観測データとの間の第1の類似度を求め、類似姿勢判定部218において、第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、複数の教師データ間の第2の類似度と、第1の類似度とを比較することによって、姿勢が複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する。
In this way, the
姿勢検出装置20は、観測データと教師データとを比較する際に、特異値分解のように、計算時間およびコストが掛かる反復計算は含まれていないので、観測データが示すカテゴリが教師データが示すカテゴリと同一かどうかを高速に判定することができる。
The
図2は実施形態の姿勢検出装置の構成の例を示す図である。
このコンピュータ100は、Central Processing Unit(CPU)102、Read Only Memory(ROM)104、及びRandom Access Memory(RAM)106を備えている。コンピュータ500は、さらに、ハードディスク装置108、入力装置110、表示装置112、インタフェース装置114、及び記録媒体駆動装置116を備えている。なお、これらの構成要素はバスライン120を介して接続されており、CPU102の管理の下で各種のデータを相互に授受することができる。
FIG. 2 is a diagram illustrating an example of the configuration of the posture detection apparatus according to the embodiment.
The
Central Processing Unit(CPU)102は、このコンピュータ100全体の動作を制御する演算処理装置であり、コンピュータ100の制御処理部として機能する。
A central processing unit (CPU) 102 is an arithmetic processing unit that controls the operation of the
Read Only Memory(ROM)104は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。CPU102は、この基本制御プログラムをコンピュータ100の起動時に読み出して実行することにより、このコンピュータ100の各構成要素の動作制御が可能になる。
The Read Only Memory (ROM) 104 is a read-only semiconductor memory in which a predetermined basic control program is recorded in advance. The
Random Access Memory(RAM)106は、CPU102が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。
A random access memory (RAM) 106 is a semiconductor memory that can be written and read at any time and used as a working storage area as necessary when the
ハードディスク装置108は、CPU102によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU502は、ハードディスク装置108に記憶されている所定の制御プログラムを読み出して実行することにより、後述する各種の制御処理を行えるようになる。
The hard disk device 108 is a storage device that stores various control programs executed by the
入力装置110は、例えばマウス装置やキーボード装置であり、情報処理装置のユーザにより操作されると、その操作内容に対応付けられている各種情報の入力を取得し、取得した入力情報をCPU102に送付する。
The
表示装置512は例えば液晶ディスプレイであり、MPU502から送付される表示データに応じて各種のテキストや画像を表示する。 The display device 512 is, for example, a liquid crystal display, and displays various texts and images according to display data sent from the MPU 502.
インタフェース装置114は、このコンピュータ100に接続される各種機器との間での各種情報の授受の管理を行う。
The
記録媒体駆動装置116は、可搬型記録媒体118に記録されている各種の制御プログラムやデータの読み出しを行う装置である。CPU102は、可搬型記録媒体118に記録されている所定の制御プログラムを、記録媒体駆動装置116を介して読み出して実行することによって、後述する各種の制御処理を行うようにすることもできる。なお、可搬型記録媒体118としては、例えばUSB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリ、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)などがある。
The recording
このようなコンピュータ100を用いて姿勢検出装置を構成するには、例えば、上述の各処理部における処理をCPU102に行わせるための制御プログラムを作成する。作成された制御プログラムはハードディスク装置108若しくは可搬型記録媒体118に予め格納しておく。そして、CPU102に所定の指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、姿勢検出装置が備えている機能がCPU102により提供される。
In order to configure the posture detection apparatus using such a
<姿勢検出処理>
図3、4を参照して、姿勢検出装置10における処理について説明する。
<Attitude detection processing>
Processing in the
また、姿勢検出装置10が図2に示されているような汎用コンピュータ100である場合には、下記の説明は、そのような処理を行う制御プログラムを定義する。すなわち、以下では、下記に説明する処理を汎用コンピュータに行わせる制御プログラムの説明でもある。
When the
図3は、事前処理の流れの例を示す図である。事前処理は、センサ21からユーザの複数の部位の座標に関するデータが姿勢データ入力部210に入力される以前に、処理されることが好ましい。
FIG. 3 is a diagram illustrating an example of the flow of pre-processing. The pre-processing is preferably performed before data relating to the coordinates of a plurality of parts of the user is input from the
処理が開始されるとS100で姿勢検出装置20の教師データ特徴量算出部204は、姿勢の所定のカテゴリpに対応するユーザの部位の座標をxpk(k=1、2、3、・・・)とする。たとえば姿勢の所定のカテゴリpに対応する教師データが10個あり、それらの座標(xpi、ypi、zpi)(i=1〜10)の重心を(xpm、ypm、zpm)とすると、教師データ特徴量算出部204は行列Xpを
S100で姿勢検出装置20の教師データ特徴量算出部204は、行列Xpを用いて回転モーメント行列Mpを求める。行列Mpは、
一般に、所定の姿勢のカテゴリpとカテゴライズされる姿勢の学習データは、複数のサンプルを含んでいる。そこで、それらのサンプルについて平均を取ったものを姿勢のカテゴリpの回転モーメント行列Msum(p)とする。 In general, the learning data of the posture that is categorized with the category p of the predetermined posture includes a plurality of samples. Therefore, the average of these samples is set as the rotational moment matrix Msum (p) of the posture category p.
次のS102で姿勢検出装置20の教師データ特徴量算出部204は、この姿勢のカテゴリpの回転モーメント行列Msum(p)を特異値分解する。すなわち、回転モーメント行列Msum(p)を
次のS104で姿勢検出装置20の類似度閾値判定部208は、複数のサンプルの各教師データの回転モーメント行列Mpから、姿勢のカテゴリpに対する類似度Rpを算出する。
In next step S104, the similarity
S104では、算出された姿勢のカテゴリpに対する類似度Rpを教師データ特徴量記憶部206に格納しても良い。
In S104, the similarity Rp for the calculated posture category p may be stored in the teacher data feature
以上が事前処理の流れの例である。
図4は、実施形態の姿勢検出方法の処理の流れの例を示す図である。
The above is an example of the flow of pre-processing.
FIG. 4 is a diagram illustrating an example of a processing flow of the posture detection method of the embodiment.
図4に示されている処理は、時々刻々、ユーザの姿勢が変化する場合の処理に関するものであるが、ユーザの姿勢が変化しない場合の処理は、逐次処理を省略すればよい。また、図4に示されている処理の前提として、図3に示されている事前処理が終了しているものとする。 The processing shown in FIG. 4 relates to processing when the user's posture changes from moment to moment, but the processing when the user's posture does not change may be omitted sequentially. Further, it is assumed that the pre-process shown in FIG. 3 has been completed as a premise of the process shown in FIG.
S200で姿勢検出装置20の類似度計算部214では、教師データと同様に姿勢データについても、10個の座標(xi、yi、zi)(i=1〜10)の重心を(xm、ym、zm)として、行列Yを
また、S200で姿勢検出装置20の類似度計算部214は、行列Yを用いて回転モーメント行列Mを求める。行列Mは、
次のS202で姿勢検出装置20の類似度計算部214は、姿勢のカテゴリpに対する教師データ特徴量に含まれる左特異ベクトルUpと、右特異ベクトルVpを用いて、回転モーメント行列M’から特異値行列Sを計算する。特異値行列Spは、
また、S202で類似度計算部214は、上記の行列Spの要素から、姿勢データ(観測データ)と姿勢のカテゴリpに対応する教師データの類似度Rを、
S204で差分類似度算出部212は、t番目の観測時刻における姿勢データから得られる回転モーメント行列をM(t)とすると、dM=M(t+1)−M(t)を計算する。
In S204, the difference
次のS206で差分類似度算出部212は、
そして、S206で類似度計算部214は、行列Sp(t)+UpTdMVpの要素から、姿勢データ(観測データ)と姿勢のカテゴリpに対応する教師データの類似度Rを計算する。
In S206, the
また、S206で類似姿勢判定部218は、類似度RとS104で類似度閾値判定部208によって得られた類似度Rpを比較して、姿勢データで表される姿勢が、姿勢のどのカテゴリに対応するかどうかを判定する。たとえば、類似度が複数のサンプルの各教師データの回転モーメント行列Mpの類似度Rpの最小値以下の場合、同一の姿勢のカテゴリに属すると判定しても良い。本ステップの処理が終了すると、S208に進む。
In S206, the similar
S208で類似姿勢判定部218は、姿勢検出処理を終了するか否かを判定する。この判定はたとえば、観測回数が所定の値に達したか否か、つまり計測をはじめてから所定の時間が経過したか否かに基づいて判定しても良い。また、dM=M(t+1)−M(t)が所定の値より小さいか否かに基づいて判定しても良い。この判定の結果が“Yes”、すなわち姿勢検出処理を終了すると判断する場合には、処理を終了する。またこの判定の結果が“No”、すなわち姿勢検出処理を終了しないと判断する場合には、S204に戻る。
In S208, the similar
このような処理を行うことによって、観測データと教師データとを比較することによって、それらのデータが示すカテゴリが同一かどうかを高速に判定することができる。 By performing such processing, it is possible to quickly determine whether or not the categories indicated by the data are the same by comparing the observation data and the teacher data.
<実施例>
上記のような姿勢検出装置、姿勢検出方法は、ユーザの行動予測にも応用することができる。
<Example>
The posture detection apparatus and the posture detection method as described above can also be applied to user behavior prediction.
ユーザとのインタラクションを行うシステムが知られている。そのようなシステムでは、ユーザの余計な手間を省くことで使い勝手を良くしたいという要望が存在する。インターネット上のショッピングサイトでの、商品のリコメンドなどもこの例に含まれ得る。インターネット上のショッピングサイトでは、購入履歴からユーザの欲しがっていそうなものをお薦めするが、ここでは過去のユーザの行動パターンから、次何をしそうか、という予測をすることで、多数ある機能へのアクセス手順の簡略化(例えば、予測した機能へのショートカットを動的に提示するなど)を行うことができる。 Systems that interact with users are known. In such a system, there is a desire to improve usability by eliminating extra user effort. Recommendations for products at shopping sites on the Internet can also be included in this example. In the shopping site on the Internet, we recommend what the user wants from the purchase history, but here there are many functions by predicting what to do next from the past user behavior pattern The access procedure can be simplified (for example, a shortcut to the predicted function can be dynamically presented).
以下では、どこも様々なセンサから得られる入力情報(イベントとも呼ぶ)からユーザの状態、たとえば何をしようとしている途中なのか、の推測を行う例について説明する。 In the following, an example in which a user's state, for example, what he is trying to do is estimated from input information (also called an event) obtained from various sensors anywhere.
「イベント」とは、センサから得られたユーザ(や、その周辺機器)に関する情報を指しても良い。例えば、人の顔検出、視線や正面顔検出、視線やジェスチャ検出、姿勢検出(ポーズなど)、タッチセンサ反応、音声反応などが挙げられる。これらのイベントは、多くは時系列で蓄積されていき、また情報の重要性や(人間の認識する)意味合い等の分類等がされていないことが多い。 An “event” may refer to information about a user (or its peripheral device) obtained from a sensor. Examples include human face detection, gaze and front face detection, gaze and gesture detection, posture detection (such as a pose), touch sensor reaction, and voice reaction. Many of these events are accumulated in time series, and the importance of information and the meaning (recognition by human beings) are often not classified.
「ユーザの行動」とは、実際にユーザの行った行動ではなく、インタラクションのゴールになるようなイベント情報(情報にアクセスした、ログアウトした、何か要求を行った等)を指しても良い。何らかのセンサやインタラクション対象の機器からの情報が入力される事象を「ユーザの行動」と呼ぶことがある。 The “user action” may refer to event information (accessed information, logged out, made a request, etc.) that is a goal of interaction, not an action actually performed by the user. An event in which information from any sensor or interaction target device is input may be referred to as “user behavior”.
また、行動パターンとして処理するデータは、ユーザの行動を最後の要素として持つような、イベントの時系列情報を指す。たとえば、ユーザの行動としてA1、A2、A3があり、それ以外のイベントとして、B1、B2、B3、B4が存在するシステムを考える。行動パターンとしては、たとえば、「B1−B3−B4−B2−B3−A1」、「B1−B2−B3−B2−B4−A2」、「B1−B2−B3−B2−B3−A3」、「B1−B3−B2−B3−A3」などが考えられる。上記の例では行動パターン内にユーザの行動が一つずつしか含まれていないが、この限りではない。また、人の行動は一定期間を記録すれば良いというものではないため、行動パターン自体は可変長をとるものとする。 The data to be processed as the behavior pattern indicates time series information of the event having the user's behavior as the last element. For example, consider a system in which there are A1, A2, and A3 as user actions, and B1, B2, B3, and B4 exist as other events. Examples of behavior patterns include “B1-B3-B4-B2-B3-A1”, “B1-B2-B3-B2-B4-A2”, “B1-B2-B3-B2-B3-A3”, “ B1-B3-B2-B3-A3 "etc. can be considered. In the above example, only one user action is included in the action pattern, but this is not the case. Further, since it is not necessary to record a certain period of human behavior, it is assumed that the behavior pattern itself takes a variable length.
可変長の行動パターンの定型化の例に、リカレンスプロットがある。これは、カオス時系列の統計的解析等に用いられる可視化技法で、変数uを現在の状態、変数vを=一つ前の状態と定義してuv平面上へプロットする。 A recurrence plot is an example of stylizing a variable-length behavior pattern. This is a visualization technique used for statistical analysis of chaotic time series and plots on the uv plane, defining the variable u as the current state and the variable v as the previous state.
ここで、リカレンスプロットの技法を用いて行動パターンをu、v軸ともにA1、A2、A3,B1、B2、B3、B4の7状態を持つ二次元平面へプロットすると、どんな長さのデータであっても、7×7の行列データへと変換できる。例として一つ定型化を行うと、行動パターン「B1−B2−B3−B4−B2−A2」は、図5に示されているような行列Xとなる。 Here, using the recurrence plot technique, the action pattern is plotted on a two-dimensional plane having 7 states of A1, A2, A3, B1, B2, B3, and B4 on both the u and v axes. Even if it exists, it can be converted into 7 × 7 matrix data. When one standardization is performed as an example, the behavior pattern “B1-B2-B3-B4-B2-A2” becomes a matrix X as shown in FIG.
あるユーザの行動がどのパターンに分類されるのかを判定するためには、教師データによって、行動パターンを予めカテゴライズしておく必要がある。例えば、上のようにA2で終わる行動パターンを収集した場合でも、人の行動には気まぐれが混入するため、全く同じデータが取れるとは限らない。例えば、100件のデータを取った際に、Xの累計は図6に示されているXtotalのようになるとする。 In order to determine which pattern a user's action is classified into, it is necessary to categorize the action pattern beforehand based on the teacher data. For example, even when behavior patterns ending with A2 are collected as described above, whimsical behavior is mixed in human behavior, and the same data is not necessarily obtained. For example, when 100 pieces of data are taken, the total of X is assumed to be Xtotal shown in FIG.
ある時のユーザの行動パターンと、教師データの記述形式(行列の大きさ、要素の順序)が同じとなり、本質的に「行列の類似度算出」と同様の方法で、行動パターンの分析を行うことができる。 The behavior pattern of the user at a certain time and the description format of the teacher data (the size of the matrix, the order of the elements) are the same, and the behavior pattern is analyzed by a method essentially the same as the “calculation of matrix similarity” be able to.
上では、人の行動予測を説明したが、人以外の任意の物体でも良い。 In the above, human behavior prediction has been described, but any object other than a human may be used.
以上の実施形態および実施例に関し、さらに以下の付記を開示する。
(付記1)
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求める類似度算出部と、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部と
を含む姿勢検出装置。
(付記2)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算する差分類似度算出部を含み、
前記類似度算出部は、前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から前記第1の類似度を求める、付記1に記載の姿勢検出装置。
(付記3)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
(付記4)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
(付記5)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
(付記6)
コンピュータによって実行される姿勢検出方法であって、
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求めるとと、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することと
を含む姿勢検出方法。
(付記7)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算することと、
前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第1の類似度を求めることと
を含む、付記6に記載の姿勢検出方法。
(付記8)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
(付記9)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
(付記10)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
(付記11)
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求め、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する
処理をコンピュータに実行させることを特徴とする姿勢検出プログラム。
(付記12)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算することと、
前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第1の類似度を求める
処理をコンピュータに実行させることを特徴とする付記11に記載の姿勢検出プログラム。
(付記13)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
(付記14)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
(付記15)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
(Appendix 1)
A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data A similarity calculation unit for obtaining a first similarity between,
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. And a similar posture determination unit that determines whether or not the posture belongs to a posture category represented by the plurality of teacher data.
(Appendix 2)
When the observation data includes first observation data and second observation data, the first rotational moment matrix obtained from the first observation data is obtained from the first observation matrix and the second observation data. When the first rotational moment matrix is a second observation matrix,
further,
A difference similarity calculation unit for calculating a difference between the second observation matrix and the first observation matrix;
The posture detection apparatus according to
(Appendix 3)
The second similarity Rp is obtained by setting the singular value matrix as S = {s ij } (1 ≦ l <≦ k).
(Appendix 4)
The first similarity is represented by M ′ as the first rotational moment matrix, V as the left singular vector, and U as the right singular vector.
(Appendix 5)
The first similarity R is calculated using an element t ij (1 ≦ l ≦≦ k) of the matrix T,
(Appendix 6)
A posture detection method executed by a computer,
A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data When the first similarity between them is obtained,
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. And determining whether or not the posture belongs to a posture category represented by the plurality of teacher data.
(Appendix 7)
When the observation data includes first observation data and second observation data, the first rotational moment matrix obtained from the first observation data is obtained from the first observation matrix and the second observation data. When the first rotational moment matrix is a second observation matrix,
further,
Calculating a difference between the second observation matrix and the first observation matrix;
The posture detection method according to
(Appendix 8)
The second similarity Rp is obtained by setting the singular value matrix as S = {s ij } (1 ≦ l <≦ k).
(Appendix 9)
The first similarity is represented by M ′ as the first rotational moment matrix, V as the left singular vector, and U as the right singular vector.
(Appendix 10)
The first similarity R is calculated using an element t ij (1 ≦ l ≦≦ k) of the matrix T,
(Appendix 11)
A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data Find the first similarity between
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. By doing so, the computer executes a process of determining whether or not the posture belongs to the posture category represented by the plurality of teacher data.
(Appendix 12)
When the observation data includes first observation data and second observation data, the first rotational moment matrix obtained from the first observation data is obtained from the first observation matrix and the second observation data. When the first rotational moment matrix is a second observation matrix,
further,
Calculating a difference between the second observation matrix and the first observation matrix;
The attitude detection program according to
(Appendix 13)
The second similarity Rp is obtained by setting the singular value matrix as S = {s ij } (1 ≦ l <≦ k).
(Appendix 14)
The first similarity is represented by M ′ as the first rotational moment matrix, V as the left singular vector, and U as the right singular vector.
(Appendix 15)
The first similarity R is calculated using an element t ij (1 ≦ l ≦≦ k) of the matrix T,
20 姿勢検出装置
21 センサ
22 教師データ
202 教師データ入力部
204 教師データ特徴量算出部
206 教師データ特徴量記憶部
208 類似度閾値判定部
210 姿勢データ入力部
212 差分類似度算出部
214 類似度算出部
216 類似度記憶部
218 類似姿勢判定部
220 出力部
30出力装置
DESCRIPTION OF
Claims (7)
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部と
を含む姿勢検出装置。 A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data A similarity calculation unit for obtaining a first similarity between,
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. And a similar posture determination unit that determines whether or not the posture belongs to a posture category represented by the plurality of teacher data.
さらに、
前記第2観測行列と前記第1観測行列との差分を計算する差分類似度算出部を含み、
前記類似度算出部は、前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第2の類似度を求める、請求項1に記載の姿勢検出装置。 When the observation data includes first observation data and second observation data, the first rotational moment matrix obtained from the first observation data is obtained from the first observation matrix and the second observation data. When the first rotational moment matrix is the second observation matrix,
A difference similarity calculation unit for calculating a difference between the second observation matrix and the first observation matrix;
The posture detection apparatus according to claim 1, wherein the similarity calculation unit calculates a second similarity from a matrix obtained using the difference, the left singular vector, and the right singular vector.
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求めるとと、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することと
を含む姿勢検出方法。 A posture detection method executed by a computer,
A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data When the first similarity between them is obtained,
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. And determining whether or not the posture belongs to a posture category represented by the plurality of teacher data.
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する
処理をコンピュータに実行させることを特徴とする姿勢検出プログラム。 A first rotational moment matrix that is a variance-covariance matrix is obtained from a matrix obtained from observation data representing the posture of an object, and obtained by adding a variance-covariance matrix for each of a plurality of teacher data over the plurality of teacher data. From the matrix obtained by using the left singular vector and the right singular vector obtained by singular value decomposition of the second rotational moment matrix and the first rotational moment matrix, the plurality of teacher data and the observation data Find the first similarity between
A second similarity between the plurality of teacher data obtained by using a matrix element of a singular value matrix obtained by singular value decomposition of the second rotational moment matrix is compared with the first similarity. By doing so, the computer executes a process of determining whether or not the posture belongs to the posture category represented by the plurality of teacher data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013252962A JP6248593B2 (en) | 2013-12-06 | 2013-12-06 | Posture detection apparatus, posture detection method, and posture detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013252962A JP6248593B2 (en) | 2013-12-06 | 2013-12-06 | Posture detection apparatus, posture detection method, and posture detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015111332A true JP2015111332A (en) | 2015-06-18 |
JP6248593B2 JP6248593B2 (en) | 2017-12-20 |
Family
ID=53526109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013252962A Expired - Fee Related JP6248593B2 (en) | 2013-12-06 | 2013-12-06 | Posture detection apparatus, posture detection method, and posture detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248593B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110836983A (en) * | 2018-08-16 | 2020-02-25 | Aptiv技术有限公司 | Method for determining an uncertainty estimate of an estimated velocity |
KR102244696B1 (en) * | 2019-12-24 | 2021-04-26 | 동국대학교 산학협력단 | Exercise posture evaluation device and operating method thereof |
JP2021096511A (en) * | 2019-12-13 | 2021-06-24 | 富士通株式会社 | Learning data generation method, learning data generation program, and information processing device |
US11125872B2 (en) | 2018-06-01 | 2021-09-21 | Aptiv Technologies Limited | Method for robust estimation of the velocity of a target using a host vehicle |
US11448746B2 (en) | 2018-05-23 | 2022-09-20 | Aptiv Technologies Limited | Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system |
JP7164060B1 (en) | 2022-02-22 | 2022-11-01 | 富士電機株式会社 | Information processing device, information processing method and information processing program |
US11592545B2 (en) | 2017-06-12 | 2023-02-28 | Aptiv Technologies Limited | Method of determining the yaw rate of a target vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134615A (en) * | 1999-09-08 | 2001-05-18 | Hyundai Electronics Ind Co Ltd | Method and device for retrieving three-dimensional human body posture |
JP2005115654A (en) * | 2003-10-08 | 2005-04-28 | Sony Corp | Information processor and information processing method, program storage medium, and program |
JP2008148237A (en) * | 2006-12-13 | 2008-06-26 | Sanyo Electric Co Ltd | Posture detecting device |
JP2009039466A (en) * | 2007-08-13 | 2009-02-26 | Advanced Telecommunication Research Institute International | Action identification device, action identification system, and action identification method |
US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
-
2013
- 2013-12-06 JP JP2013252962A patent/JP6248593B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134615A (en) * | 1999-09-08 | 2001-05-18 | Hyundai Electronics Ind Co Ltd | Method and device for retrieving three-dimensional human body posture |
JP2005115654A (en) * | 2003-10-08 | 2005-04-28 | Sony Corp | Information processor and information processing method, program storage medium, and program |
JP2008148237A (en) * | 2006-12-13 | 2008-06-26 | Sanyo Electric Co Ltd | Posture detecting device |
JP2009039466A (en) * | 2007-08-13 | 2009-02-26 | Advanced Telecommunication Research Institute International | Action identification device, action identification system, and action identification method |
US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
Non-Patent Citations (1)
Title |
---|
黒澤 典義ほか: "部分空間分離法とモデル選択による運動物体の分離", 情報処理学会研究報告, vol. 2000, no. 106, JPN6017040211, 21 November 2000 (2000-11-21), JP, pages 25 - 32, ISSN: 0003666129 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11592545B2 (en) | 2017-06-12 | 2023-02-28 | Aptiv Technologies Limited | Method of determining the yaw rate of a target vehicle |
US11768286B2 (en) | 2017-06-12 | 2023-09-26 | Aptiv Technologies Limited | Method of determining the yaw rate of a target vehicle |
US11448746B2 (en) | 2018-05-23 | 2022-09-20 | Aptiv Technologies Limited | Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system |
US11125872B2 (en) | 2018-06-01 | 2021-09-21 | Aptiv Technologies Limited | Method for robust estimation of the velocity of a target using a host vehicle |
CN110836983A (en) * | 2018-08-16 | 2020-02-25 | Aptiv技术有限公司 | Method for determining an uncertainty estimate of an estimated velocity |
CN110836983B (en) * | 2018-08-16 | 2022-05-17 | Aptiv技术有限公司 | Method for determining an uncertainty estimate of an estimated velocity |
US11435375B2 (en) | 2018-08-16 | 2022-09-06 | Aptiv Technologies Limited | Method of determining an uncertainty estimate of an estimated velocity |
US11994531B2 (en) | 2018-08-16 | 2024-05-28 | Aptiv Technologies AG | Method of determining an uncertainty estimate of an estimated velocity |
JP2021096511A (en) * | 2019-12-13 | 2021-06-24 | 富士通株式会社 | Learning data generation method, learning data generation program, and information processing device |
KR102244696B1 (en) * | 2019-12-24 | 2021-04-26 | 동국대학교 산학협력단 | Exercise posture evaluation device and operating method thereof |
JP7164060B1 (en) | 2022-02-22 | 2022-11-01 | 富士電機株式会社 | Information processing device, information processing method and information processing program |
JP2023122124A (en) * | 2022-02-22 | 2023-09-01 | 富士電機株式会社 | Information processing device, information processing method and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6248593B2 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6248593B2 (en) | Posture detection apparatus, posture detection method, and posture detection program | |
JP6983937B2 (en) | Structural learning in convolutional neural networks | |
Xiong et al. | Transferable two-stream convolutional neural network for human action recognition | |
US20220392234A1 (en) | Training neural networks for vehicle re-identification | |
Moon et al. | Multiple kinect sensor fusion for human skeleton tracking using Kalman filtering | |
Wu et al. | Simultaneous facial landmark detection, pose and deformation estimation under facial occlusion | |
JP4321350B2 (en) | Parameter estimation method, parameter estimation device, and verification method | |
CN110069129B (en) | Determination system and determination method | |
Yu et al. | Sparse 3D directional vertices vs continuous 3D curves: efficient 3D surface matching and its application for single model face recognition | |
JP6645441B2 (en) | Information processing system, information processing method, and program | |
CN111444802B (en) | Face recognition method and device and intelligent terminal | |
US11468270B2 (en) | Electronic device and feedback information acquisition method therefor | |
CN111476144B (en) | Pedestrian attribute identification model determining method and device and computer readable storage medium | |
Sarwar Murshed et al. | Efficient deployment of deep learning models on autonomous robots in the ROS environment | |
WO2020240672A1 (en) | Movement status learning device, movement status recognition device, model learning method, movement status recognition method, and program | |
CN108596068B (en) | Method and device for recognizing actions | |
CN108229552B (en) | Model processing method and device and storage medium | |
Badi et al. | RETRACTED ARTICLE: Feature extraction and ML techniques for static gesture recognition | |
Kong et al. | Collaborative multimodal feature learning for RGB-D action recognition | |
JP2019086473A (en) | Learning program, detection program, learning method, detection method, learning device, and detection device | |
Liu et al. | A view-invariant action recognition based on multi-view space hidden markov models | |
Zhao et al. | Octree segmentation based calling gesture recognition for elderly care robot | |
WO2022190435A1 (en) | Command script assistance system, command script assistance method, and command script assistance program | |
WO2022190434A1 (en) | Instruction description support system, instruction description support method, and instruction description support program | |
Zeng et al. | MARS: Multimodal Active Robotic Sensing for Articulated Characterization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6248593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |