JP6248593B2 - 姿勢検出装置、姿勢検出方法および姿勢検出プログラム - Google Patents

姿勢検出装置、姿勢検出方法および姿勢検出プログラム Download PDF

Info

Publication number
JP6248593B2
JP6248593B2 JP2013252962A JP2013252962A JP6248593B2 JP 6248593 B2 JP6248593 B2 JP 6248593B2 JP 2013252962 A JP2013252962 A JP 2013252962A JP 2013252962 A JP2013252962 A JP 2013252962A JP 6248593 B2 JP6248593 B2 JP 6248593B2
Authority
JP
Japan
Prior art keywords
matrix
posture
similarity
teacher data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013252962A
Other languages
English (en)
Other versions
JP2015111332A (ja
Inventor
隼人 立田
隼人 立田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013252962A priority Critical patent/JP6248593B2/ja
Publication of JP2015111332A publication Critical patent/JP2015111332A/ja
Application granted granted Critical
Publication of JP6248593B2 publication Critical patent/JP6248593B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、姿勢検出装置、姿勢検出方法および姿勢検出プログラムに関するものである。
様々な分野でユーザにサービスを提供するにあたり,ユーザに応じて,またはユーザ状況に応じて適切なサービス内容を選択して提供することが求められている.これに伴い、ユーザの状態を知るためのセンシング技術の重要性がこれまで以上に大きくなってきている。
一方、ユーザの姿勢を検出するためのデバイスとしては、モーションキャプチャにかわり、人の代表的な位置の座標をセンシングすることのできるデバイス(たとえば、Kinect(登録商標))も登場している。
このようなデバイスを用いることにより、容易にユーザの骨格モデルの三次元座標(以後、単に姿勢と呼ぶこともある)を観測できるようになった。これらのデバイスを用いることにより、ユーザの状態を得るために有効な情報として姿勢のデータを手軽に得ることができるようになった。
デバイスによって取得された姿勢のデータ(測定データ、観測データと呼ぶことがある)が、どのような姿勢であると同定する手法については、観測データを予め取得された教師データと比較し、観測データが、どの姿勢に対応する教師データと一致するかを判定する手法が一般的である。このような手法として、たとえば、相互部分空間法を用いた競合学習により姿勢の判定を含むパターン認識手法が知られている(たとえば、非特許文献1、特許文献1)。この手法では、観測データの基底ベクトルの張る部分空間と、教師データの基底ベクトルの張る部分空間の正準角をもとに、類似度を判定する。
また、部分空間法において、辞書生成用特徴パターン群から、多項式ニューラルネットワークにより二次関数を学習し、二次関数の主要成分を保存する部分空間を選択することによって、特徴空間の次元を削減する方法が知られている(たとえば、特許文献2)。
特開2012−181568号公報 特開2010−39778号公報
黒澤典義、金谷健一、「部分空間分離法とモデル選択による運動物体の分離」情報処理学会研究報告CVIM[コンピュータビジョンとイメージメディア]124−4(2000年11月21日)2000(106)、pp.25−32
しかしながら、一般的に、観測データと教師データとを比較することによって、観測データが示すカテゴリ(たとえば、それらのデータが示す姿勢)と教師データが示すカテゴリが同一かどうかを判定する方法は反復計算を伴うため、処理時間が大きいという問題がある。
よって、一つの側面として、本発明は、観測データと教師データとを比較することによって、観測データが示すカテゴリが、教師データが示すカテゴリと同一かどうかを高速に判定する姿勢検出装置、姿勢検出方法および姿勢検出プログラムを提供することを目的とする。
姿勢検出装置が開示される。姿勢検出装置は、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求める類似度算出部と、前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部とを含むことを特徴とする。
観測データと教師データとを比較することによって、観測データが示すカテゴリが、教師データが示すカテゴリと同一かどうかを高速に判定することができる。
実施形態の姿勢検出装置の機能ブロックの例を示す図である。 実施形態の姿勢検出装置の構成の例を示す図である。 事前処理の流れの例を示す図である。 実施形態の姿勢検出方法の処理の流れの例を示す図である。 行動パターン分析への適用例での定式化の例を説明する図である。 行動パターン分析への適用例での定式化の例を説明する図である。
以下では、人物の各部位の座標を観測し、その観測の結果に基づいて、人物がどのような姿勢(ポーズ)にあるのかを判定する姿勢検出装置、姿勢検出方法および姿勢検出プログラムについて説明するが、人物の姿勢の検出以外の判定にも適用可能である。たとえば、人物以外の動物の他、静物、ロボット、ロケット、自動車、飛行機、船などの機械など任意の物体にも適用可能である。ここで、人物の姿勢は、複数のカテゴリに分類されていても良い。また、実施例として、姿勢検出装置で用いられるアルゴリズムが、人の行動予測にも適用できる例を説明する。実施例についても、行動予測は人のものには限定されない。人物以外の動物であってもよい。
まず、ユーザの複数の部位の座標をカメラ等のセンサで観測し、その観測結果を教師データと比較することによって、ユーザの姿勢を検出する姿勢検出装置を説明する。
<姿勢検出の比較例>
まずは、姿勢検出の比較例について説明する。
ユーザのn個の部位の座標(x、y、z)(i=1〜n)を観測する。nは10程度の整数でも良いし、それ以上でも以下でも良い。各部位は3次元空間中の座標として表される。n個の座標(x、y、z)から次のようなパラメータ行列Xを生成する。
Figure 0006248593
つまり、パラメータ行列Xは、i番目の部位の座標(x、y、z)を縦ベクトルで表し、n個の縦ベクトルを横に並べて得られる行列である。パラメータ行列Xは、ランク3の3×n行列である。
ただし、このパラメータ行列Xは、センサの位置による回転、並進、拡大等の影響を受けている。そこで、パラメータ行列Xから、分散共分散行列Mを求める。分散共分散行列Mは、回転、並進の下で不変である。
座標xav、yav、zavをそれぞれ、座標x、y、z(i=1〜n)の平均とする。すなわち、(xav、yav、zav)は、n個の座標(x、y、z)の重心である。行列X’を、
Figure 0006248593
によって定義すると、分散共分散行列Mは、
Figure 0006248593
である。分散共分散行列Mは、ランク3のn×n行列である。以下でTは行列の転置を表すことがある。
この分散共分散行列Mを固有値分解(または特異値分解)し、固有ベクトル(特異ベクトル)の張る部分空間を求める。上の例では、パラメータ行列Xのランクが3であるため、分散共分散行列Mのランクも3である。そして、分散共分散行列Mを固有値分解(または特異値分解)することによって3つの固有ベクトル(特異ベクトル)の張る部分空間が得られる。つまり、ユーザのn個の部位の座標(x、y、z)(i=1〜n)に対して、部分空間が一意に決まる。
この部分空間は、ユーザのn個の部位の座標(x、y、z)に関する情報を含んでいる。3つの固有ベクトルの張る部分空間と、ユーザの姿勢の関係について説明する。
分散共分散行列Mの3つの固有ベクトルをa=(a11、a12、・・・、a1n)、a=(a21、a22、・・・、a2n)、a=(a31、a32、・・・、a3n)とする。これらの3つの固有ベクトルを並べて得られる行列をAとする。すなわち、
Figure 0006248593
とする。定義より、行列Λを特異値行列(固有値行列)として、
Figure 0006248593
である。さらに、
Figure 0006248593
によって行列A’を導入すると、分散共分散行列Mは、
Figure 0006248593
と書くことができる。つまり、行列A’は回転、並進の自由度を除いて行列X’に相当する。実際には、行列A’は行列X’に3次元の回転を作用させることによって得られることがある。このように、行列A’は、回転の自由度を除き、ユーザのn個の部位の座標(x、y、z)を一意に表現する行列である。
したがって、たとえば2つのn個の部位の座標に対して得られる2つの部分空間がどれだけ類似しているかを数値化することは、その2つのn個の部位の座標で表される2つの姿勢がどれだけ類似しているかを表す類似度を得ることと同義である。
これまでにも類似度の定義はいくつか提案されている。
たとえば、2つのn個の部位の座標を観測データと教師データと呼ぶことにする。そして、観測データと教師データを加算し、得られた行列の「ランク3らしさ」を類似度とすることが提案されている。
観測データから得られる分散共分散行列をPとし、教師データから得られる分散共分散行列をP’とする。両者を加算して行列Q=P+P’を得る。この行列Qのランクを求める。行列Pも行列P’もランク3の行列である。もし、行列Pと行列P’になんら関係性がなければ、行列Qのランクは6となる。また、回転と拡大の自由度を除いて、行列Pと行列P’が同一であれば、行列Qのランクは3である。よって、行列Rのランクが3にどれだけ近いかを数値化できれば、それは類似度となり得る。
しかし、実際には、量子化誤差や計算誤差のため、行列Rのランクを厳密に求めると6となってしまう。
また、行列Qの固有値(特異値)の値を用いて「ランク3らしさ」とすることが提案されている。
また、観測データから得られる分散共分散行列をPと、教師データら得られる分散共分散行列をP’とし、それらから得られる2つの部分空間A、A’の第1正準角を類似度とすることも提案されている。第1正準角とは、次のように定義される。一方の部分空間A上の単位ベクトルのうち、他方の部分空間A’への射影長が最大となるベクトルv1を選び、それを他方の部分空間A’に射影したベクトルをv2とする。ベクトルv1とベクトルv2のなす角が第1正準角である。第1正準角は、2つの部分空間A、A’が最も近くなる角度である。この場合、第1正準角をθとして、類似度Rを、
Figure 0006248593
と定義する。
上記のように定義された類似度Rを計算するには、固有値分解(特異値分解)のような反復計算を伴うため、処理時間が大きいという問題がある。
<姿勢検出装置>
以下で図面を参照して、実施形態に係る姿勢検出装置について説明する。
姿勢検出システム10は、ユーザの複数の部位の座標を検出するセンサ21と、姿勢検出装置20と、ディスプレイ、プリンタ等の出力装置30を含んでいる。
また、姿勢検出装置20には、予め用意された教師データ22が入力される。
以下で説明する姿勢検出装置20は、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、第1の回転モーメント行列とを用いて得られる行列から、複数の教師データと観測データとの間の第1の類似度を求め、第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、複数の教師データ間の第2の類似度と、第1の類似度とを比較することによって、第1の姿勢が複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することができる。
姿勢検出装置20は、教師データ入力部202、教師データ特徴量算出部204、教師データ特徴量記憶部206、類似度閾値判定部208、姿勢データ入力部210、差分類似度算出部212、類似度算出部214、類似度記憶部216、類似姿勢判定部218、および出力部210を含む。
しかしながら、事前処理を行う教師データ入力部202、教師データ特徴量算出部204、教師データ特徴量記憶部206を含む装置は、外部デバイスとして設けられていても良い。この場合、姿勢検出装置20は、類似度閾値判定部208、姿勢データ入力部210、差分類似度算出部212、類似度算出部214、類似度記憶部216、類似姿勢判定部218、および出力部210を含む。
教師データ特徴量算出部204は教師データ特徴量を算出し、教師データ特徴量は教師データ特徴量記憶部206に格納され得る。類似度算出部214は類似度を算出し、類似度は類似度記憶部216に格納され得る。
姿勢検出装置20の出力部220は、類似姿勢判定部218での判定結果を出力装置30に出力する。
姿勢のあるカテゴリに関する教師データ22が姿勢検出装置20の教師データ入力部202に入力される。教師データ入力部202、教師データ特徴量算出部204、および類似度閾値判定部208は、センサ21からユーザの複数の部位の座標に関するデータが姿勢データ入力部210に入力される以前に、教師データ22を処理することが好ましい。
教師データ22は、センサ21で観測されたユーザの複数の部位の座標から、ユーザがどの姿勢であるかを判定する際に参照するデータ(類似度)を生成するために姿勢検出装置20に入力される。
教師データ22は、姿勢の所定のカテゴリpに対応する座標xpk(k=1、2、3、・・・)であり得る。たとえば、座標xpkは10個の座標(xpi、ypi、zpi)(i=1〜10)を含んでも良い。姿勢の所定のカテゴリpとしては、たとえば、右手を挙げている姿勢、正座、起立などが含まれる。
姿勢検出装置20の教師データ特徴量算出部204では、以下のような処理を行う。
まず姿勢検出装置20の教師データ特徴量算出部204は、姿勢の所定のカテゴリpに属する教師データに含まれる座標xpk(k=1、2、3、・・・)と、複数個の座標(xpi、ypi、zpi)(i=1〜n)の重心を(xpm、ypm、zpm)として、各座標(xpi、ypi、zpi)(i=1〜n)の重心(xpm、ypm、zpm)からの相対ベクトルを横に並べた行列Xpを定義する。たとえば、座標(xpi、ypi、zpi)の数が10個である場合、Xpは、
Figure 0006248593
となる。
次に姿勢検出装置20の教師データ特徴量算出部204は、行列Xpを用いて分散共分散行列Mpを求める。行列Mpを回転モーメント行列と呼ぶことがある。行列Mpは、
Figure 0006248593
で定義される。行列Xpが10個の座標(xpi、ypi、zpi)(i=1〜10)を含むとき、行列Mpは、10×10行列である。
一般に、姿勢の所定のカテゴリpにカテゴライズされる姿勢の教師データは、複数のサンプルを含んでいる。そこで、それらのサンプルについて平均を取ったものを姿勢pの回転モーメント行列Msum(p)とする。
Figure 0006248593
ここで、|#sample|はサンプル数であり、和は全てのサンプルについて取るものとする。
姿勢検出装置20の教師データ特徴量算出部204は、この姿勢の所定のカテゴリpの回転モーメント行列Msum(p)を特異値分解する。すなわち、回転モーメント行列Msum(p)を、
Figure 0006248593
のように分解し、左特異ベクトルUpと、右特異ベクトルVp、特異値行列Sを得る。これら左特異ベクトルUpと、右特異ベクトルVp、特異値行列Sの全てまたは一部は、教師データ特徴量206に含まれ得る。
上記のように姿勢の所定のカテゴリpに対する回転モーメント行列Msum(p)を、複数のサンプルから計算するとき、姿勢の所定のカテゴリpに対するサンプル間の差異、座標の観測誤差、途中の計算や通信、入力の際の量子化誤差などの誤差が生じ、蓄積され得る。
そこで姿勢検出装置20の類似度閾値判定部208では、複数のサンプルの各教師データの回転モーメント行列Mpについて類似度Rpを計算する。
固有値(特異値)の大きさは、分解前の行列Qに対する、観測データと教師データに関する固有ベクトルの寄与率である。そこで、固有値(特異値)を大きい順に並べた上位3つを加えた値と、それ以外の固有値の和の比を「ランク3らしさ」としても良い。つまり、i番目の固有値をsiiとすると、
Figure 0006248593
と類似度Rpを定義する。
類似度Rpは、特異値行列をS={sij}(1≦l<≦k)として、
Figure 0006248593
によって定義しても良い。この類似度Rpは、姿勢検出の際、観測データから得られた類似度Rと比較される。たとえば類似度Rが、複数のサンプルの各教師データの回転モーメント行列Mpの類似度Rpの最小値以下の場合、観測データに対応する姿勢は、教師データに対応する姿勢のカテゴリに属すると判定しても良い。
センサ21は、ユーザの複数の部位の座標を観測する。もし、10箇所の部位の座標を観測するなら、センサ21は姿勢データとして、10個の3次元座標(xi、yi、zi)(i=1〜10)を得る。そして、センサ21は観測データに関する情報を姿勢検出装置20の姿勢データ入力部210に送る。姿勢データとはセンサ21で得られる観測データ(測定データ)である。
姿勢検出装置20の姿勢データ入力部210は、センサ21から送られた姿勢データに関する情報を差分類似度算出部212に送る。
差分類似度計算部212は、センサ21からの姿勢データが時々刻々変化するとき、またはセンサ21からの姿勢データの差分が疎行列である場合に、逐次処理を行うことによって高速化する処理を行う。したがって、このような処理を行わない場合には、差分類似度計算部212は姿勢データを類似度計算部214に送るだけであっても良い。
姿勢検出装置20の類似度計算部214では、教師データと同様に姿勢データについても、10個の座標(x、y、z)(i=1〜10)の重心を(x、y、z)として、行列Yを
Figure 0006248593
とする。
次に姿勢検出装置20の類似度計算部214は、行列Yを用いて分散共分散行列M’を求める。行列M’も回転モーメント行列と呼ぶことがある。行列M’は、
Figure 0006248593
で定義される。行列Yが10個の座標(x、y、z)(i=1〜10)を含むとき、行列Mは、10×10行列である。
姿勢検出装置20の類似度計算部214では、姿勢のカテゴリpに対応する教師データ特徴量に含まれる左特異ベクトルUpと、右特異ベクトルVpを用いて、回転モーメント行列M’から特異値行列Sを計算する。特異値行列Spは、
Figure 0006248593
と定義される。これは、姿勢のカテゴリpに対する左特異ベクトルUpと、右特異ベクトルVpを用いて計算された特異値行列である。もし、姿勢がn種類、つまり姿勢にはn個のカテゴリがあるとすると、特異値行列もn個計算される。上記の計算には、特異値分解のように、計算時間およびコストが掛かる反復計算は含まれていない。
類似度計算部214では、上記の行列Spの要素から、姿勢データと姿勢のカテゴリpに対する教師データの類似度Rを、
Figure 0006248593
によって計算する。ここで|sij|は、行列Spのi行j列要素のノルムである。類似度計算部214は、カテゴリpに対応する右特異ベクトルUpと左特異ベクトルVpを用いて特異値行列Spを得て、その特異値行列Spから類似度Rを求める。つまり、カテゴリpの種類の数だけ類似度が求められる。これらの類似度のうち最大のものを類似度Rとして出力しても良い。類似度は類似度記憶部216に格納され得る。
類似姿勢判定部218では、観測データから求められた類似度Rと類似度閾値判定部208で得られた類似度Rpが比較される。たとえば、観測データから求められた類似度Rが、カテゴリpに属する複数のサンプルの各教師データの回転モーメント行列Mpの類似度Rpの最小値以下の場合、観測データに対する姿勢は、姿勢のカテゴリpに属すると判定しても良い。
類似姿勢判定部218での判定結果は、出力部220に送られる。
出力部220では、判定結果を出力装置30に送る。
出力装置30では、ディスプレイに表示する、紙に印刷するなどの方法で、判定結果をユーザ等に示す。
差分類似度算出部212では、逐次処理を行うことによって、処理の高速化を図る。
ここでは、姿勢データが時々刻々と変化する場合について説明する。
t番目の観測時刻における姿勢データから得られる回転モーメント行列をM(t)とする。すると、
Figure 0006248593
となる。ここで、dM=M(t+1)−M(t)である。このように差分類似度算出部212は、類似度記憶部216に格納されている前回観測された姿勢データとの差分のみを計算することによって、処理の逐次化を行う。そして、処理を逐次化することによって、観測ごとの差分が小さい(たとえば、dMが疎行列である)場合、逐次化を行うことによって、姿勢データが時々刻々と変化する場合に、計算の高速化を図ることができる。
このように、姿勢検出装置20は、複数の座標を含む観測データで表される物体の姿勢が、各々が複数の座標を含む複数の教師データで表される姿勢のカテゴリに属するかどうかを、複数の教師データの各々に対して分散共分散行列を求め、分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して、左特異ベクトル、右特異ベクトル、および特異値行列を得て、特異値行列の行列要素を用いて得られる前記複数の教師データ間の類似度を表す第2の類似度を、複数の教師データと観測データの類似を表す第1の類似度と比較することによって判定する。
たとえば、姿勢検出装置20の教師データ特徴量算出部204は、姿勢のあるカテゴリpに属する複数の教師データの各々に対して分散共分散行列M=X’X’を求め、分散共分散行列M=X’X’を複数の教師データにわたって加算して得られる第2の回転モーメント行列Mnを特異値分解Mn=USVして、左特異ベクトルV、右特異ベクトルU、および特異値行列S={sij}を求め、特異値行列Sの行列要素を用いて複数の教師データ間の第2の類似度Rpを求める。
姿勢検出装置20の類似度算出部214は、観測データから得られる行列Y’から分散共分散行列である第1の回転モーメント行列M’=Y’Y’を求め、第1の回転モーメント行列M’=X’X’、左特異ベクトルV、右特異ベクトルUを用いて得られる行列
Figure 0006248593
から複数の教師データと観測データの類似を表す第1の類似度を求める。
姿勢検出装置20の類似姿勢判定部218は、第1の類似度と第2の類似度を比較することによって、物体の姿勢が教師データが定めるカテゴリに属するかどうかを判定する。
たとえば、類似姿勢判定部218は、姿勢のカテゴリpに対する教師データから得られた第2の類似度と、姿勢のカテゴリpに対する教師データから得られた左特異ベクトルと右特異ベクトルを姿勢データ(観測データ)から得られる分散共分散行列(回転モーメント行列)に作用させて得られる行列から算出される第1の類似度を、姿勢のカテゴリpに対する教師データから得られる第2の類似度と比較する。第1の類似度が、姿勢のカテゴリpに対する教師データから得られる第2の類似度より小さければ、姿勢データが対応する姿勢は、姿勢のカテゴリpに属すると判定しても良い。
また姿勢検出装置20は、差分類似度算出部212を含む。
観測データが第1の観測データと第2の観測データを含むとき、第1の観測データから得られる第1の回転モーメント行列を第1観測行列、第2の観測データから得られる第1の回転モーメント行列を第2観測行列とすると、差分類似度算出部212は、第2観測行列と第1観測行列との差分を計算する。また、類似度算出部214は、差分、左特異ベクトル、右特異ベクトルを用いて得られる行列から第1の類似度を求め得る。
このように姿勢検出装置20は、類似度算出部214において、物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、第1の回転モーメント行列とを用いて得られる行列から、複数の教師データと観測データとの間の第1の類似度を求め、類似姿勢判定部218において、第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、複数の教師データ間の第2の類似度と、第1の類似度とを比較することによって、姿勢が複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する。
姿勢検出装置20は、観測データと教師データとを比較する際に、特異値分解のように、計算時間およびコストが掛かる反復計算は含まれていないので、観測データが示すカテゴリが教師データが示すカテゴリと同一かどうかを高速に判定することができる。
図2は実施形態の姿勢検出装置の構成の例を示す図である。
このコンピュータ100は、Central Processing Unit(CPU)102、Read Only Memory(ROM)104、及びRandom Access Memory(RAM)106を備えている。コンピュータ500は、さらに、ハードディスク装置108、入力装置110、表示装置112、インタフェース装置114、及び記録媒体駆動装置116を備えている。なお、これらの構成要素はバスライン120を介して接続されており、CPU102の管理の下で各種のデータを相互に授受することができる。
Central Processing Unit(CPU)102は、このコンピュータ100全体の動作を制御する演算処理装置であり、コンピュータ100の制御処理部として機能する。
Read Only Memory(ROM)104は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。CPU102は、この基本制御プログラムをコンピュータ100の起動時に読み出して実行することにより、このコンピュータ100の各構成要素の動作制御が可能になる。
Random Access Memory(RAM)106は、CPU102が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。
ハードディスク装置108は、CPU102によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU502は、ハードディスク装置108に記憶されている所定の制御プログラムを読み出して実行することにより、後述する各種の制御処理を行えるようになる。
入力装置110は、例えばマウス装置やキーボード装置であり、情報処理装置のユーザにより操作されると、その操作内容に対応付けられている各種情報の入力を取得し、取得した入力情報をCPU102に送付する。
表示装置512は例えば液晶ディスプレイであり、MPU502から送付される表示データに応じて各種のテキストや画像を表示する。
インタフェース装置114は、このコンピュータ100に接続される各種機器との間での各種情報の授受の管理を行う。
記録媒体駆動装置116は、可搬型記録媒体118に記録されている各種の制御プログラムやデータの読み出しを行う装置である。CPU102は、可搬型記録媒体118に記録されている所定の制御プログラムを、記録媒体駆動装置116を介して読み出して実行することによって、後述する各種の制御処理を行うようにすることもできる。なお、可搬型記録媒体118としては、例えばUSB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリ、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)などがある。
このようなコンピュータ100を用いて姿勢検出装置を構成するには、例えば、上述の各処理部における処理をCPU102に行わせるための制御プログラムを作成する。作成された制御プログラムはハードディスク装置108若しくは可搬型記録媒体118に予め格納しておく。そして、CPU102に所定の指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、姿勢検出装置が備えている機能がCPU102により提供される。
<姿勢検出処理>
図3、4を参照して、姿勢検出装置10における処理について説明する。
また、姿勢検出装置10が図2に示されているような汎用コンピュータ100である場合には、下記の説明は、そのような処理を行う制御プログラムを定義する。すなわち、以下では、下記に説明する処理を汎用コンピュータに行わせる制御プログラムの説明でもある。
図3は、事前処理の流れの例を示す図である。事前処理は、センサ21からユーザの複数の部位の座標に関するデータが姿勢データ入力部210に入力される以前に、処理されることが好ましい。
処理が開始されるとS100で姿勢検出装置20の教師データ特徴量算出部204は、姿勢の所定のカテゴリpに対応するユーザの部位の座標をxpk(k=1、2、3、・・・)とする。たとえば姿勢の所定のカテゴリpに対応する教師データが10個あり、それらの座標(xpi、ypi、zpi)(i=1〜10)の重心を(xpm、ypm、zpm)とすると、教師データ特徴量算出部204は行列Xpを
Figure 0006248593
のように定義する。
S100で姿勢検出装置20の教師データ特徴量算出部204は、行列Xpを用いて回転モーメント行列Mpを求める。行列Mpは、
Figure 0006248593
で定義される。たとえば行列Xpが10個の座標(xpi、ypi、zpi)(i=1〜10)を含むとき、行列Mpは、10×10行列である。
一般に、所定の姿勢のカテゴリpとカテゴライズされる姿勢の学習データは、複数のサンプルを含んでいる。そこで、それらのサンプルについて平均を取ったものを姿勢のカテゴリpの回転モーメント行列Msum(p)とする。
Figure 0006248593
ここで、|#sample|はサンプル数であり、和は全てのサンプルについて取るものとする。
次のS102で姿勢検出装置20の教師データ特徴量算出部204は、この姿勢のカテゴリpの回転モーメント行列Msum(p)を特異値分解する。すなわち、回転モーメント行列Msum(p)を
Figure 0006248593
のように左特異ベクトルUpと、右特異ベクトルVp、特異値行列Sを用いて分解する。S102で姿勢検出装置20の教師データ特徴量算出部204は、算出された左特異ベクトルUpと、右特異ベクトルVp、特異値行列Sを教師データ特徴量記憶部206に格納しても良い。またS102で姿勢検出装置20の教師データ特徴量算出部204は、算出された左特異ベクトルUpと、右特異ベクトルVpのみを教師データ特徴量記憶部206に格納しても良い。
次のS104で姿勢検出装置20の類似度閾値判定部208は、複数のサンプルの各教師データの回転モーメント行列Mpから、姿勢のカテゴリpに対する類似度Rpを算出する。
S104では、算出された姿勢のカテゴリpに対する類似度Rpを教師データ特徴量記憶部206に格納しても良い。
以上が事前処理の流れの例である。
図4は、実施形態の姿勢検出方法の処理の流れの例を示す図である。
図4に示されている処理は、時々刻々、ユーザの姿勢が変化する場合の処理に関するものであるが、ユーザの姿勢が変化しない場合の処理は、逐次処理を省略すればよい。また、図4に示されている処理の前提として、図3に示されている事前処理が終了しているものとする。
S200で姿勢検出装置20の類似度計算部214では、教師データと同様に姿勢データについても、10個の座標(x、y、z)(i=1〜10)の重心を(x、y、z)として、行列Yを
Figure 0006248593
とする。
また、S200で姿勢検出装置20の類似度計算部214は、行列Yを用いて回転モーメント行列Mを求める。行列Mは、
Figure 0006248593
で定義される。行列Xが10個の座標(x、y、z)(i=1〜10)を含むとき、行列Mは、10×10行列である。
次のS202で姿勢検出装置20の類似度計算部214は、姿勢のカテゴリpに対する教師データ特徴量に含まれる左特異ベクトルUpと、右特異ベクトルVpを用いて、回転モーメント行列M’から特異値行列Sを計算する。特異値行列Spは、
Figure 0006248593
と定義される。これは、姿勢のカテゴリpに対する左特異ベクトルUpと、右特異ベクトルVpを用いて計算された特異値行列である。もし、姿勢がn種類あるとすると、特異値行列もn個計算される。上記の計算には、特異値分解のように、計算時間およびコストが掛かる反復計算は含まれていない。
また、S202で類似度計算部214は、上記の行列Spの要素から、姿勢データ(観測データ)と姿勢のカテゴリpに対応する教師データの類似度Rを、
Figure 0006248593
によって計算する。ここで|sij|は、行列Spのi行j列要素のノルムである。類似度Rは、姿勢のカテゴリがk種類あるとすると、k個算出され得る。類似度計算部214は、このようなk個の類似度Rの最小のものを類似度として出力しても良い。得られた類似度は類似度記憶部216に格納され得る。
S204で差分類似度算出部212は、t番目の観測時刻における姿勢データから得られる回転モーメント行列をM(t)とすると、dM=M(t+1)−M(t)を計算する。
次のS206で差分類似度算出部212は、
Figure 0006248593
を計算する。
そして、S206で類似度計算部214は、行列Sp(t)+UpdMVpの要素から、姿勢データ(観測データ)と姿勢のカテゴリpに対応する教師データの類似度Rを計算する。
また、S206で類似姿勢判定部218は、類似度RとS104で類似度閾値判定部208によって得られた類似度Rpを比較して、姿勢データで表される姿勢が、姿勢のどのカテゴリに対応するかどうかを判定する。たとえば、類似度が複数のサンプルの各教師データの回転モーメント行列Mpの類似度Rpの最小値以下の場合、同一の姿勢のカテゴリに属すると判定しても良い。本ステップの処理が終了すると、S208に進む。
S208で類似姿勢判定部218は、姿勢検出処理を終了するか否かを判定する。この判定はたとえば、観測回数が所定の値に達したか否か、つまり計測をはじめてから所定の時間が経過したか否かに基づいて判定しても良い。また、dM=M(t+1)−M(t)が所定の値より小さいか否かに基づいて判定しても良い。この判定の結果が“Yes”、すなわち姿勢検出処理を終了すると判断する場合には、処理を終了する。またこの判定の結果が“No”、すなわち姿勢検出処理を終了しないと判断する場合には、S204に戻る。
このような処理を行うことによって、観測データと教師データとを比較することによって、それらのデータが示すカテゴリが同一かどうかを高速に判定することができる。
<実施例>
上記のような姿勢検出装置、姿勢検出方法は、ユーザの行動予測にも応用することができる。
ユーザとのインタラクションを行うシステムが知られている。そのようなシステムでは、ユーザの余計な手間を省くことで使い勝手を良くしたいという要望が存在する。インターネット上のショッピングサイトでの、商品のリコメンドなどもこの例に含まれ得る。インターネット上のショッピングサイトでは、購入履歴からユーザの欲しがっていそうなものをお薦めするが、ここでは過去のユーザの行動パターンから、次何をしそうか、という予測をすることで、多数ある機能へのアクセス手順の簡略化(例えば、予測した機能へのショートカットを動的に提示するなど)を行うことができる。
以下では、どこも様々なセンサから得られる入力情報(イベントとも呼ぶ)からユーザの状態、たとえば何をしようとしている途中なのか、の推測を行う例について説明する。
「イベント」とは、センサから得られたユーザ(や、その周辺機器)に関する情報を指しても良い。例えば、人の顔検出、視線や正面顔検出、視線やジェスチャ検出、姿勢検出(ポーズなど)、タッチセンサ反応、音声反応などが挙げられる。これらのイベントは、多くは時系列で蓄積されていき、また情報の重要性や(人間の認識する)意味合い等の分類等がされていないことが多い。
「ユーザの行動」とは、実際にユーザの行った行動ではなく、インタラクションのゴールになるようなイベント情報(情報にアクセスした、ログアウトした、何か要求を行った等)を指しても良い。何らかのセンサやインタラクション対象の機器からの情報が入力される事象を「ユーザの行動」と呼ぶことがある。
また、行動パターンとして処理するデータは、ユーザの行動を最後の要素として持つような、イベントの時系列情報を指す。たとえば、ユーザの行動としてA1、A2、A3があり、それ以外のイベントとして、B1、B2、B3、B4が存在するシステムを考える。行動パターンとしては、たとえば、「B1−B3−B4−B2−B3−A1」、「B1−B2−B3−B2−B4−A2」、「B1−B2−B3−B2−B3−A3」、「B1−B3−B2−B3−A3」などが考えられる。上記の例では行動パターン内にユーザの行動が一つずつしか含まれていないが、この限りではない。また、人の行動は一定期間を記録すれば良いというものではないため、行動パターン自体は可変長をとるものとする。
可変長の行動パターンの定型化の例に、リカレンスプロットがある。これは、カオス時系列の統計的解析等に用いられる可視化技法で、変数uを現在の状態、変数vを=一つ前の状態と定義してuv平面上へプロットする。
ここで、リカレンスプロットの技法を用いて行動パターンをu、v軸ともにA1、A2、A3,B1、B2、B3、B4の7状態を持つ二次元平面へプロットすると、どんな長さのデータであっても、7×7の行列データへと変換できる。例として一つ定型化を行うと、行動パターン「B1−B2−B3−B4−B2−A2」は、図5に示されているような行列Xとなる。
あるユーザの行動がどのパターンに分類されるのかを判定するためには、教師データによって、行動パターンを予めカテゴライズしておく必要がある。例えば、上のようにA2で終わる行動パターンを収集した場合でも、人の行動には気まぐれが混入するため、全く同じデータが取れるとは限らない。例えば、100件のデータを取った際に、Xの累計は図6に示されているXtotalのようになるとする。
ある時のユーザの行動パターンと、教師データの記述形式(行列の大きさ、要素の順序)が同じとなり、本質的に「行列の類似度算出」と同様の方法で、行動パターンの分析を行うことができる。
上では、人の行動予測を説明したが、人以外の任意の物体でも良い。
以上の実施形態および実施例に関し、さらに以下の付記を開示する。
(付記1)
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求める類似度算出部と、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部と
を含む姿勢検出装置。
(付記2)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算する差分類似度算出部を含み、
前記類似度算出部は、前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から前記第1の類似度を求める、付記1に記載の姿勢検出装置。
(付記3)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
Figure 0006248593
である付記1または2に記載の姿勢検出装置。
(付記4)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
Figure 0006248593
で表される行列Tの要素を用いて定義される付記1乃至3のいずれか一項に記載の姿勢検出装置。
(付記5)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
Figure 0006248593
である付記4に記載の姿勢検出装置。
(付記6)
コンピュータによって実行される姿勢検出方法であって、
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求めるとと、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することと
を含む姿勢検出方法。
(付記7)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算することと、
前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第1の類似度を求めることと
を含む、付記6に記載の姿勢検出方法。
(付記8)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
Figure 0006248593
である付記6または7に記載の姿勢検出方法。
(付記9)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
Figure 0006248593
で表される行列Tの要素を用いて定義される付記6乃至8のいずれか一項に記載の姿勢検出方法。
(付記10)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
Figure 0006248593
である付記9に記載の姿勢検出方法。
(付記11)
物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求め、
前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する
処理をコンピュータに実行させることを特徴とする姿勢検出プログラム。
(付記12)
前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると、
さらに、
前記第2観測行列と前記第1観測行列との差分を計算することと、
前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第1の類似度を求める
処理をコンピュータに実行させることを特徴とする付記11に記載の姿勢検出プログラム。
(付記13)
前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
Figure 0006248593
である付記11または12に記載の姿勢検出プログラム。
(付記14)
前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
Figure 0006248593
で表される行列Tの要素を用いて定義される付記11乃至13のいずれか一項に記載の姿勢検出プログラム。
(付記15)
前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
Figure 0006248593
である付記14に記載の姿勢検出プログラム。
20 姿勢検出装置
21 センサ
22 教師データ
202 教師データ入力部
204 教師データ特徴量算出部
206 教師データ特徴量記憶部
208 類似度閾値判定部
210 姿勢データ入力部
212 差分類似度算出部
214 類似度算出部
216 類似度記憶部
218 類似姿勢判定部
220 出力部
30出力装置

Claims (7)

  1. 物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求める類似度算出部と、
    前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する類似姿勢判定部と
    を含む姿勢検出装置。
  2. 前記観測データが第1の観測データと第2の観測データを含むとき、前記第1の観測データから得られる前記第1の回転モーメント行列を第1観測行列、前記第2の観測データから得られる前記第1の回転モーメント行列を第2観測行列とすると
    さらに、
    前記第2観測行列と前記第1観測行列との差分を計算する差分類似度算出部を含み、
    前記類似度算出部は、前記差分、前記左特異ベクトル、前記右特異ベクトルを用いて得られる行列から第2の類似度を求める、請求項1に記載の姿勢検出装置。
  3. 前記第2の類似度Rpは、前記特異値行列をS={sij}(1≦l<≦k)として、
    Figure 0006248593
    である請求項1または2に記載の姿勢検出装置。
  4. 前記第1の類似度は、前記第1の回転モーメント行列をM’、前記左特異ベクトルをV、右特異ベクトルをUとして、
    Figure 0006248593
    で表される行列Tの要素を用いて定義される請求項1乃至3のいずれか一項に記載の姿勢検出装置。
  5. 前記第1の類似度Rは、前記行列Tの要素tij(1≦l<≦k)を用いて、
    Figure 0006248593
    である請求項4に記載の姿勢検出装置。
  6. コンピュータによって実行される姿勢検出方法であって、
    物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求めるとと、
    前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定することと
    を含む姿勢検出方法。
  7. 物体の姿勢を表す観測データから得られる行列から分散共分散行列である第1の回転モーメント行列を求め、複数の教師データの各々に対する分散共分散行列を前記複数の教師データにわたって加算して得られる第2の回転モーメント行列を特異値分解して得られる左特異ベクトルと右特異ベクトルと、前記第1の回転モーメント行列とを用いて得られる行列から、前記複数の教師データと前記観測データとの間の第1の類似度を求め、
    前記第2の回転モーメント行列を特異値分解して得られる特異値行列の行列要素を用いて得られる、前記複数の教師データ間の第2の類似度と、前記第1の類似度とを比較することによって、前記姿勢が前記複数の教師データで表される姿勢のカテゴリに属するかどうかを判定する
    処理をコンピュータに実行させることを特徴とする姿勢検出プログラム。
JP2013252962A 2013-12-06 2013-12-06 姿勢検出装置、姿勢検出方法および姿勢検出プログラム Expired - Fee Related JP6248593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013252962A JP6248593B2 (ja) 2013-12-06 2013-12-06 姿勢検出装置、姿勢検出方法および姿勢検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013252962A JP6248593B2 (ja) 2013-12-06 2013-12-06 姿勢検出装置、姿勢検出方法および姿勢検出プログラム

Publications (2)

Publication Number Publication Date
JP2015111332A JP2015111332A (ja) 2015-06-18
JP6248593B2 true JP6248593B2 (ja) 2017-12-20

Family

ID=53526109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013252962A Expired - Fee Related JP6248593B2 (ja) 2013-12-06 2013-12-06 姿勢検出装置、姿勢検出方法および姿勢検出プログラム

Country Status (1)

Country Link
JP (1) JP6248593B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3415945B1 (en) 2017-06-12 2024-01-10 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle
EP3572839A1 (en) 2018-05-23 2019-11-27 Aptiv Technologies Limited Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system
EP3575827A1 (en) 2018-06-01 2019-12-04 Aptiv Technologies Limited Method for robust estimation of the velocity of a target using a host vehicle
EP3611541A1 (en) * 2018-08-16 2020-02-19 Aptiv Technologies Limited Method of determining an uncertainty estimate of an estimated velocity
JP2021096511A (ja) * 2019-12-13 2021-06-24 富士通株式会社 学習データ生成方法、学習データ生成プログラムおよび情報処理装置
KR102244696B1 (ko) * 2019-12-24 2021-04-26 동국대학교 산학협력단 운동 자세 평가 장치 및 그 동작 방법
JP7164060B1 (ja) 2022-02-22 2022-11-01 富士電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100605050B1 (ko) * 1999-09-08 2006-07-26 주식회사 팬택앤큐리텔 인간의 3차원 자세 검색방법 및 장치
JP2005115654A (ja) * 2003-10-08 2005-04-28 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2008148237A (ja) * 2006-12-13 2008-06-26 Sanyo Electric Co Ltd 姿勢検知装置
JP4992043B2 (ja) * 2007-08-13 2012-08-08 株式会社国際電気通信基礎技術研究所 行動識別装置、行動識別システムおよび行動識別方法
US8553989B1 (en) * 2010-04-27 2013-10-08 Hrl Laboratories, Llc Three-dimensional (3D) object recognition system using region of interest geometric features

Also Published As

Publication number Publication date
JP2015111332A (ja) 2015-06-18

Similar Documents

Publication Publication Date Title
JP6248593B2 (ja) 姿勢検出装置、姿勢検出方法および姿勢検出プログラム
JP6983937B2 (ja) 畳み込みニューラルネットワークにおける構造学習
Xiong et al. Transferable two-stream convolutional neural network for human action recognition
Moon et al. Multiple kinect sensor fusion for human skeleton tracking using Kalman filtering
Wu et al. Simultaneous facial landmark detection, pose and deformation estimation under facial occlusion
CN108986801B (zh) 一种人机交互方法、装置及人机交互终端
US20220414911A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
JP4321350B2 (ja) パラメタ推定方法、パラメタ推定装置および照合方法
JP5406705B2 (ja) データ補正装置及び方法
WO2020061489A1 (en) Training neural networks for vehicle re-identification
CN110069129B (zh) 确定系统和确定方法
JP2018041319A (ja) 移動状況学習装置、移動状況認識装置、方法、及びプログラム
US20220019900A1 (en) Method and system for learning perturbation sets in machine learning
Gou et al. Shape augmented regression for 3D face alignment
KR20190061538A (ko) 멀티 인식모델의 결합에 의한 행동패턴 인식방법 및 장치
CN111444802B (zh) 一种人脸识别方法、装置及智能终端
Yu et al. Sparse 3D directional vertices vs continuous 3D curves: efficient 3D surface matching and its application for single model face recognition
WO2016084326A1 (ja) 情報処理システム、情報処理方法、及び、記録媒体
CN111476144B (zh) 行人属性识别模型确定方法、装置及计算机可读存储介质
US20240013357A1 (en) Recognition system, recognition method, program, learning method, trained model, distillation model and training data set generation method
Badi et al. RETRACTED ARTICLE: Feature extraction and ML techniques for static gesture recognition
CN115424346A (zh) 一种人体坐姿检测方法、装置、计算机设备及系统
Sarwar Murshed et al. Efficient deployment of deep learning models on autonomous robots in the ROS environment
Liu et al. A view-invariant action recognition based on multi-view space hidden markov models
WO2020240672A1 (ja) 移動状況学習装置、移動状況認識装置、モデル学習方法、移動状況認識方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171106

R150 Certificate of patent or registration of utility model

Ref document number: 6248593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees