JP2011177300A - 特徴量変換装置、および特徴量変換方法 - Google Patents

特徴量変換装置、および特徴量変換方法 Download PDF

Info

Publication number
JP2011177300A
JP2011177300A JP2010043430A JP2010043430A JP2011177300A JP 2011177300 A JP2011177300 A JP 2011177300A JP 2010043430 A JP2010043430 A JP 2010043430A JP 2010043430 A JP2010043430 A JP 2010043430A JP 2011177300 A JP2011177300 A JP 2011177300A
Authority
JP
Japan
Prior art keywords
subject
feature
identification target
data
prescribed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010043430A
Other languages
English (en)
Other versions
JP4590018B1 (ja
Inventor
Futoshi Naya
太 納谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Emprie Tech Dev LLC
Original Assignee
Empire Technology Development LLC
Emprie Tech Dev LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC, Emprie Tech Dev LLC filed Critical Empire Technology Development LLC
Priority to JP2010043430A priority Critical patent/JP4590018B1/ja
Priority to US12/855,908 priority patent/US8538722B2/en
Application granted granted Critical
Publication of JP4590018B1 publication Critical patent/JP4590018B1/ja
Publication of JP2011177300A publication Critical patent/JP2011177300A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被験者の動作を個人ごとに適応して識別でき、識別精度を向上した新しい特徴量変換装置を提供する。
【解決手段】少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する部と、少なくとも1以上の基準者の基準者特徴量、および被験者の被験者特徴量を抽出する部と、少なくとも1以上の基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する算出部と、前記標準特徴量と被験者特徴量との間の変換行列を算出する部と、被験者の識別対象動作をした場合の識別対象動作データを取得する部と、被験者の識別対象動作データから、被験者の識別対象特徴量を抽出する抽出部と、識別対象動作データの識別対象特徴量を、変換行列を用いて変換する部と、を有する特徴量変換装置。
【選択図】図1

Description

本開示は、特徴量変換装置、および特徴量変換方法に関する。
加速度センサやジャイロセンサなどの運動計測装置を人体に装着させて、被験者の動作を計測して識別する動作識別技術が一般的に知られている(たとえば、非特許文献1参照)。
Ling Bao, Stephen S. Intille, "Activity Recognition from User-Annotated Acceleration Data", In Second International Conference on Pervasive Computing, pp.1-17, 2004
しかしながら、従来の動作識別技術では、運動計測装置から計測して得られたセンサデータ(動作データ)から、被験者の動作に応じた特徴量を抽出し、その被験者の動作を識別するものであるが、動作を個人ごとに適応して識別するものではなく、その識別精度が低くなってしまうという問題点があった。
すなわち、異なる2人が同じ動作をした場合であっても、性別・年齢などの体格差、利き手・利き足などの個人差、およびセンサ装着位置のズレなどの差異に起因して、両者の動作データは異なり、したがって、動作データから抽出した特徴量も異なるのが一般的である。学習段階においては、そのような異なる動作データ、特徴量に対して同一の動作であると識別するように識別器を作成しなければならないため、識別器の精度が低下する。また識別段階においては、学習時の被験者と異なる体格等の対象者に対して、識別ミスをする可能性が高まる。
そこで、識別器において被験者の動作を個人ごとに適応して識別でき、識別精度を向上した新しい特徴量変換装置や特徴量変換方法を提供することが望まれる。
本開示の特徴量変換装置は、少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得部と、前記各規定動作データから、前記少なくとも1以上の基準者の規定動作データの基準者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出する第1特徴量抽出部と、前記少なくとも1以上の前記基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する算出部と、前記算出された標準特徴量と前記被験者特徴量との間の変換行列を算出する変換行列算出部と、前記被験者の識別対象動作をした場合の識別対象動作データを取得する識別対象動作データ取得部と、前記被験者の識別対象動作データから、前記被験者の識別対象動作データの識別対象特徴量を抽出する第2特徴量抽出部と、前記識別対象動作データの識別対象特徴量を、前記変換行列を用いて変換する変換部と、を有する。
また、本開示の特徴量変換装置は、前記基準者は複数であり、前記標準特徴量算出部が、複数の前記標準特徴量を算出する場合、前記変換行列算出部は、前記各標準特徴量と前記被験者特徴量との差分値をそれぞれ算出し、該算出した差分値が最も小さい1の前記標準特徴量と前記被験者特徴量との間の変換行列を算出することができる。
さらに、本開示の特徴量変換装置は、前記変換部で前記変換された識別対象特徴量から前記被験者の識別対象動作を識別する識別部をさらに有することができる。
さらに、本開示の特徴量変換装置は、前記少なくとも1以上の基準者と前記被験者とのそれぞれの規定動作データを用いて、前記少なくとも1以上の基準者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出部をさらに有し、前記変換行列算出部は、前記抽出された対応する区間の情報に基づいて、前記標準特徴量と前記被験者特徴量との間の変換行列を算出することもできる。
本開示の特徴量変換方法は、制御ユニットと、記憶ユニットとを有する情報処理装置が実行する特徴量変換方法であって、前記制御ユニットが、少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得して前記記憶ユニットに記憶することと、前記制御ユニットが、前記記憶ユニットに記憶された前記各規定動作データを読み出し、該読み出した各規定動作データから、前記少なくとも1以上の基準者の規定動作データの基準者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出することと、前記制御ユニットが、前記少なくとも1以上の前記基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出することと、前記制御ユニットが、前記算出された標準特徴量と前記被験者特徴量との間の変換行列を算出して前記記憶ユニットに記憶することと、前記制御ユニットが、前記被験者の識別対象動作をした場合の識別対象動作データを取得して前記記憶ユニットに記憶することと、前記制御ユニットが、前記記憶ユニットに記憶された前記被験者の識別対象動作データを読み出し、該読み出した識別対象動作データから、前記被験者の識別対象動作データの識別対象特徴量を抽出することと、前記制御装置が、前記記憶ユニットに記憶された前記変換行列を読み出し、該読み出した変換行列を用いて前記識別対象動作データの識別対象特徴量を変換することと、を有する。
本実施形態の動作識別システム1の概略構成を示すブロック図である。 本実施形態の運動計測装置10を被験者等に装着させた一例を示す図である。 本実施形態の特徴量変換装置20のハードウェア構成を示す概略図である。 本実施形態の右手データを左手データに変換するための回転行列Rを説明するための図である。 本実施形態の基準者特徴量をクラスタリングした一例を示す図である。 本実施形態の特徴量変換装置20の特徴量変換方法におけるフローチャートの一例を示す。
以下、本開示を実施するための好適な実施形態を、図面を参照しながら説明する。
図1は、本実施形態の動作識別システム1の概略構成を示すブロック図である。
動作識別システム1は、図1に示すとおり、運動計測装置10a〜10eと、特徴量変換装置20とを含んで構成され、各運動計測装置10a〜10eと特徴量変換装置20とは無線または有線で通信可能に接続され、データの送受信を行うことができる。なお、各運動計測装置10a〜10eと特徴量変換装置20とは、無線または有線で通信可能に接続される場合に限られず、たとえば、USBメモリなどのメディアを介してデータの受け渡しを行うこともできる。
運動計測装置10a〜10eは、模範者や、基準者と被験者との身体に装着される装置であって、加速度センサ11と、ジャイロセンサ12と、各センサで計測されたセンサデータを特徴量変換装置20に送信する通信部13と、該通信部13および各センサ11,12を制御する制御部14を有する。複数の運動計測装置10a〜10eは、模範者、基準者および被験者の各部位、たとえば、図2に示すように、右手首(10a)、左手首(10b)、腰(10c)、右足(10d)、左足(10e)に装着される。なお、図2では、運動計測装置を装着させる部位の数を5つとした場合を例示しているが、これに限られず、少なくとも身体の1つ以上の部位に運動計測装置を装着させることができる。
ここで、本実施形態における被験者とは、特徴量変換装置20を用いて、動作を識別する対象者である。また、本実施形態における基準者とは、後述するように、特徴量変換装置20において、被験者の動作を識別する際に用いる変換行列の算出に必要な標準特徴量を生成するため、該標準特徴量の生成に必要な動作データの基となる動作をする者である。また、基準者とは、特徴量変換装置20の識別部が被験者の動作を識別する際に、識別部に予め学習しておく基準となる動作をする者でもある。さらに、模範者とは、後述するように、特徴量変換装置20において、基準者と被験者との各動作データの対応区間を推定するために用いる動作データの基となる動作をする者である。
本実施形態の運動計測装置10において、加速度センサ11は、3次元の軸方向(x軸方向、y軸方向、z軸方向)の加速度成分を計測する3軸加速度センサであり、また、ジャイロセンサ12は、3次元の軸回り(x軸回り、y軸回り、z軸回り)の角速度成分を計測する3軸ジャイロセンサである。
なお、運動計測装置10a〜10eの構成および機能や、該運動計測装置10a〜10eで用いられる加速度センサ11およびジャイロセンサ12の構成および機能は、一般的に知られている運動計測装置や、加速度センサおよびジャイロセンサのものと原則として共通とすることができるので、ここでの詳細な説明は省略する。また、加速度センサ11は、上記のように、3軸加速度センサに限られず、1軸加速度センサまたは2軸加速度センサを用いることもできる。ジャイロセンサ12の場合も同様である。
特徴量変換装置20は、被験者に装着された運動計測装置10a〜10eから、被験者の識別対象動作をした場合のセンサデータを取得し、該センサデータから算出した識別対象特徴量を変換する装置である。なお、本実施形態においては、特徴量変換装置20は、被験者の動作を識別する動作識別装置としての機能を併せもつ。
特徴量変換装置20は、ハードウェアとして、図3に示すように、たとえば、CPU、CPUにバス結合されたROM、RAM、記憶部、入力部、表示部、および入出力インタフェースなど、通常のコンピュータ装置と同様のハードウェアを備える。これら特徴量変換装置20は、物理的には、専用化したシステム、あるいは汎用の情報処理装置のいずれであってもよい。たとえば、一般的な構成の情報処理装置において、本開示の特徴量変換方法における各処理を規定したソフトウェアを起動することにより、特徴量変換装置20を実現することもできる。
特徴量変換装置20は、機能的には、図1に示すように、規定動作データ取得部21、対応区間抽出部22、左右データ変換部23、第1特徴量抽出部24、標準特徴量算出部25、変換行列算出部26、識別対象動作データ取得部27、第2特徴量抽出部28、変換部29、識別部30、およびデータベース31を有する。これら各部は、たとえば、主にCPU(制御ユニット)がROMやRAMに格納されるプログラムを実行し、各ハードウェアを制御することによって実現することができ、データベース31は、RAMや記憶部(記憶ユニット)を用いて実現することができる。
データベース31は、模範者、少なくとも1以上の基準者、および被験者がそれぞれ規定動作を計測・取得した動作データ(規定動作データ)を記憶する。なお、模範者の規定動作データは、規定動作を分節化し、各区間に行動の識別情報(行動ラベル)を予めラベリングされたデータであって、後述するように、基準者と被験者との各規定動作データの対応区間を推定するために用いる動作データである。
規定動作データ取得部21は、少なくとも1以上の基準者(たとえば、基準者A1〜A4の4人)と被験者Bとが規定動作をした場合のそれぞれの規定動作データを取得する。すなわち、規定動作データ取得部21は、基準者A1の身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された、各運動計測装置10a〜10eごとの規定動作データA1a〜A1eを受信して取得する。基準者A2,A3,A4、および被験者Bも同様に、それぞれ、規定動作データA2a〜A2e,A3a〜A3e,A4a〜A4e、およびBa〜Beを取得する。各規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4e、およびBa〜Beはそれぞれ、3次元の軸方向の加速度成分と3次元の軸回りの角速度成分とを含む6次元ベクトルν=(g,g,g,a,a,a)の時系列データとして表現することができる。
ここで、規定動作とは、模範者Cや、基準者A1〜A4と被験者Bとが運動計測装置10を装着させて行う予め規定された一連の姿勢・動作である。規定動作は、たとえば、「気をつけ」の姿勢から腕を真っ直ぐ前方に出して「前へならえ」の姿勢をし、次にそのまま腕を真っ直ぐ上方にもってきて「手先を天に向けた」姿勢をし、次に自分の身体の正面に平行に腕を下げて「両腕を横に広げた」姿勢をし、次にさらに自分の身体の正面に平行に腕を下げて「気をつけ」の姿勢をするといったいわゆる「深呼吸」の一連の姿勢・動作とすることができる。また、各姿勢では、一定時間、静止状態を保つように、たとえば、加速度センサで計測されたデータの場合、運動計測装置を装着した部位にかかる重力加速度成分が0、もしくは最大・最小値(±1G)の値を取るような姿勢を含むようにする。その結果、各姿勢における静止状態、および各姿勢から次の姿勢までの動作状態を一区間(検出区間)として分節化が可能となる。たとえば、上記の「深呼吸」の一連の姿勢・動作の例でいえば、「気をつけ」の姿勢、「気をつけ」の姿勢から「前へならえ」の姿勢までの動作、「前へならえ」の姿勢、「前へならえ」の姿勢から「手先を天に向けた」姿勢までの動作、「手先を天に向けた」姿勢、「手先を天に向けた」姿勢から「両腕を横に広げた」姿勢までの動作、「両腕を横に広げた」姿勢、「両腕を横に広げた」姿勢から「気をつけ」の姿勢までの動作、「気をつけ」の姿勢と、9個の規定姿勢・動作に分節化が可能となる。
なお、規定動作は、上記「深呼吸」の場合の他にも、上半身全体、下半身全体、または全身を用いる姿勢や動作を組み合わせて行う一連の規定姿勢・動作、たとえば、ラジオ体操等の全身運動を含んだ一連の動作からなるシナリオや、種々の業態での作業者が行う可能性のある動作(看護師が実施する衛生的手洗いや消毒、バイタル計測、点滴作成作業など)とすることができる。さらに、規定動作は、基準者A1〜A4や被験者Bの利き手や利き足を用いた特徴的な規定姿勢・動作、たとえば、右手でボールを投げる、右手で包丁を使う、および左足でボールを蹴るなどの一連の規定姿勢・動作を含むことができる。
規定動作データ取得部21は、基準者A1〜A4に装着された運動計測装置10a〜10eごとに計測され、上記規定動作を分節化した区間ごとの6次元ベクトルの時系列データからなる規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4eに対して、行動の識別情報(行動ラベル)をラベリングし、データベース31に記憶する。なお、基準者A1〜A4および被験者Bに規定動作をそれぞれ複数回させ、各規定動作データをそれぞれ複数回分取得することができる。
対応区間抽出部22は、基準者と被験者とのそれぞれの規定動作データを用いて、基準者と被験者との各規定動作データの対応する区間を抽出する。具体的には、対応区間抽出部22は、各規定動作データの対応する区間を抽出するために、予め計測・取得した模範者の規定動作データCa〜Ceをデータベース31から取得し、該取得した模範規定動作データCa〜Ceと、各規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4e,Ba〜Beとをそれぞれ対比し、DPマッチングなどの2つの時系列データ間の類似度を検知する手法を用いて基準者A1〜A4および被験者Bと模範者Cとのそれぞれ対応する区間を抽出することで、基準者と被験者との各規定動作データの対応する区間を抽出する。
すなわち、DPマッチングを用いて、模範者Cの規定動作データの上記分節化された区間・行動ラベルに対応する基準者A1〜A4および被験者Bの規定動作データの区間・行動ラベルを推定する。たとえば、模範者Cと基準者A1とが右手首の部位に運動計測装置10aを装着して計測された規定動作データCaと規定動作データA1aとの対応する区間を抽出する場合、模範者Cの「気をつけ」の姿勢の一区間の規定動作データと、該区間に対応する基準者A1の「気をつけ」の姿勢の一区間の規定動作データとを抽出する。なお、DPマッチングを用いる上記手法は、従来のDPマッチングと同様の手法を用いることができるので、ここでの詳細な説明は省略するが、DPマッチングの距離尺度は、たとえば、生データ間のユークリッド距離を用いる。
左右データ変換部(データ変換部)23は、被験者Bの利き手および利き足の少なくともいずれかの部位が基準者A1〜A4の利き手および利き足の部位と異なる場合に、該当する被験者Bの規定動作データと基準者A1〜A4の規定動作データとを対応させるようにデータ変換する。なお、基準者A1〜A4は、たとえば、予め利き手・利き足(たとえば、右手・右足)が同じ者とすることができる。
左右データ変換部23は、たとえば、基準者A1〜A4と被験者Bとの利き手および利き足情報が予め特徴量変換装置20に入力されるものとし、基準者A1〜A4が右利きで、被験者Bが左利きの場合には、被験者Bの左手首に装着された運動計測装置10aで計測された左手首の規定動作データ(左手データ)に対して、これを右手首の規定動作データ(右手データ)にデータ変換する。なお、利き手・利き足で無い他方の手・足も同様に変換することができる。この変換は、たとえば、図4に示すように、身体の対称性を利用して簡単な回転行列Rを用いて行うことができる。すなわち、図4のように計測時の座標系を設定している場合、左手首の動作を計測した規定動作データを、右手首の動作を計測した規定動作データとして鏡像に変換するには、加速度成分はx軸で計測した加速度データのみを反転するように数式(1)を用いて、角速度成分はx軸以外の要素が反転するように数式(2)を用いることができる。なお、回転行列Rは、計測時の座標系、具体的には、運動計測装置を各部位に付ける向きなどに合わせて設定することができる。
よって、図4に示す場合であれば、左手首の規定動作データ(左手データ)に対して、これを右手首の規定動作データ(右手データ)に変換する左右変換行列は、下記の数式(3)となる。
第1特徴量抽出部24は、規定動作データ取得部21で取得された基準者A1〜A4の規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4e、および被験者Bの規定動作データBa〜Beから、部位ごとに、基準者A1〜A4の各規定動作データの基準者特徴量(基準者特徴ベクトル)、および被験者Bの規定動作データの被験者特徴量(被験者特徴ベクトル)を抽出する。なお、規定動作データ取得部21において、基準者A1〜A4および被験者Bの各規定動作データをそれぞれ複数回取得した場合、それぞれ複数回分の基準者特徴量および被験者特徴量を抽出する。
ここで、特徴量の抽出方法について説明する。第1特徴量抽出部24は、各規定動作データ(加速度データおよび角速度データ)から各基準者特徴量および被験者特徴量を抽出する際に、各規定動作データの検出区間ごとに、たとえば、時系列のデータに一定時間のスライディングウィンドウ(一定の時間窓)を適用し、そのウィンドウ毎にウィンドウ内の各データの平均および標準偏差を平均特徴ベクトルおよび標準偏差ベクトルとして求める。そして、各規定動作データの検出区間ごとに、その区間に含まれる各ウィンドウの平均特徴ベクトルおよび標準偏差ベクトルについての平均値を求め、平均ベクトルμ(6次元ベクトル)と偏差ベクトルσ(6次元ベクトル)、すなわち12次元の特徴ベクトルを得る。平均ベクトルμおよび偏差ベクトルσを、規定動作を分割した検出区間ごとに抽出することにより、規定姿勢・動作の検出区間が全部でn個である場合、1つの運動計測装置10aで計測された規定動作データに対して12次元の特徴量(特徴ベクトル)をn区間分抽出することができる。そして、他の運動計測装置10b〜10eから計測された規定動作データに対しても同様に特徴量(特徴ベクトル)を抽出する。なお、このような特徴量を抽出する手法は、上記非特許文献1などに記載の技術を利用することができる。
標準特徴量算出部25は、基準者A1〜A4ごとに抽出された各基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する。1つの標準特徴量を算出する場合、たとえば、基準者A1〜A4ごとに抽出された各基準者特徴量の平均特徴量とする。また、複数の標準特徴量を算出する場合、たとえば、各基準者特徴量を複数のクラスタにクラスタリングし、クラスタごとに含まれる基準者特徴量の平均特徴量とする。クラスタリング手法としては、k−means法や、EM(Expectation Maximization)法などの手法を用いることができる。たとえば、図5に、基準者A1〜A4による同一動作の特徴量をクラスタリングした例を示す。クラスタリングされた特徴量(特徴クラスタ)は、一般に多変量正規分布で表現でき、ある規定動作a∈{a,a,・・・,a}について4個のクラスタに分割できたとすると、各平均ベクトルをμ(k=1,2,3,4)とし、標準特徴量モデルとする。これをn個の検出区間について全て求めておき、それぞれの検出区間について適切なクラスタ数を持つ標準特徴量モデルを構成する。
変換行列算出部26は、部位ごとに、標準特徴量と被験者特徴量との間の変換行列を、上記抽出された対応する区間の情報に基づいて算出する。複数の標準特徴量を算出する場合、変換行列算出部26は、各標準特徴量と被験者特徴量との差分値をそれぞれ算出し、該算出した差分値が最も小さい1の標準特徴量と被験者特徴量との間の変換行列を算出する。各標準特徴量と被験者特徴量との差分値は、被験者の被験者特徴量の平均ベクトルμと、標準特徴量の各平均ベクトルμ(k=1,2,3,4)との間のユークリッド距離で表すことができる。変換行列算出部26は、該ユークリッド距離が最短の特徴クラスタ、すなわち、差分値が最も小さい1の標準特徴量を選択し、該1の標準特徴量と被験者特徴量との間の変換行列を算出する。該算出した変換行列は、データベース31に記憶する。
ここで、上記変換行列の算出方法について説明する。1の基準者(たとえば、基準者A1)および被験者Bにおいて対応する部位aで計測された規定動作データA1a,Baから抽出した一検出区間iにおける各特徴ベクトル(12次元のベクトル)をそれぞれμi,A1,μi,Bとすると、これらの関係はアフィン変換として数式(4)で表現することができる。したがって、数式(4)より、一検出区間iにおける基準者の特徴ベクトルから被検者の特徴ベクトルへアフィン変換する変換行列Taiを算出することができる。本実施形態では、各区間について算出した変換行列Tai(i=1,・・・,n)の平均を求め、これを被検者の被検者特徴量から基準者の基準者特徴量へアフィン変換する変換行列(特徴標準化行列)Tとして用いる。なお、特徴標準化行列Tは、たとえば、音声認識の話者適応技術で広く用いられる最尤回帰(MLLR:Maximum Likelihood Linear Regression)法、最大事後確率推定(MAP:Maximum A Posteriori Probability)法、またはこれら両者を組み合わせたMLLR−MAP法(参考文献:Digalakis, V.V.; Neumeyer, L.G., “Speaker Adaptation using Combined Transformation and Bayesian methods”, IEEE Trans. On Speech and Audio Processing, Vol.4, Issue 4, pp.294-300, 1996)などの方法を用いることができる。
識別対象動作データ取得部27は、被験者Bが識別対象動作をした場合の識別対象動作データを取得する。すなわち、識別対象動作データ取得部27は、被験者Bの身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された識別対象動作データXa〜Xeを受信して取得する。該取得した識別対象動作データは、データベース31に記憶する。
第2特徴量抽出部28は、計測された被験者の識別対象動作データから、部位ごとに、被験者Bの識別対象動作データの識別対象特徴量(識別対象特徴ベクトル)xを抽出する。なお、第2特徴量抽出部は、第1特徴量抽出部と同様の手法で、識別対象特徴量xを抽出することができる。
変換部29は、識別対象動作データの識別対象特徴量xを、変換行列Tを用いて被験者用標準特徴量(標準特徴ベクトル)xに変換する。
識別部30は、被験者用標準特徴量から被験者の識別対象の動作を識別する識別器である。識別部30は、クラスタごとに、各クラスタに対応する基準者から識別対象動作データを取得し、該取得した識別対象動作データから抽出した特徴量を学習データとして識別器を作成する。たとえば、識別部30は、基準者A1〜A4の各基準者特徴量が4つのクラスタP1〜P4にクラスタリングされたとすると、クラスタP1に対応する基準者特徴量を学習データとして識別器を作成する。クラスタP2〜P4に対応する基準者特徴量に関しても同様である。よって、1のクラスタに対応する変換行列を用いて、被験者の識別対象動作データの識別対象特徴量から被験者用標準特徴量に変換することで、そのクラスタに対応する体格等を仮定した場合の被験者の特徴量を得ることができる。その結果、被験者の未知の行動に対して、被験者の体格等と、そのクラスタに対応する体格等との差を吸収し、被験者の識別対象動作を高精度で識別することができる。なお、本実施形態において、識別部として、サポートベクトルマシン(SVM)やk−NN、HMMなど種々の識別手法を適用することができる。
以下、図6に示すフローチャートを参照して、特徴量変換装置20を用いて実施される本実施形態の特徴量変換方法を説明する。図6のフローでは、基準者A1〜A4と被験者Bとの各規定動作データを計測し、変換行列を算出する変換行列算出段階と、変換行列を算出した後、実際の被験者の識別対象動作を識別する識別段階とを含む。なお、データベース31には、模範者の規定動作を予め計測・取得した模範者の規定動作データであって、規定動作を分節化し、各区間に行動の識別情報(行動ラベル)を予めラベリングした規定動作データが記憶されているものとする。また、各図のフローチャートで示される各処理は、処理内容に矛盾を生じない範囲で任意に順番を変更して又は並列に実行することができる。
まず、変換行列算出段階として、特徴量変換装置20は、基準者A1〜A4が規定動作をした場合のそれぞれの規定動作データを取得する(ステップS100)。すなわち、特徴量変換装置20は、基準者A1の身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された、各運動計測装置10a〜10eごとの規定動作データA1a〜A1eを受信して取得する。基準者A2,A3,A4も同様に、それぞれ、規定動作データA2a〜A2e,A3a〜A3e,A4a〜A4eを取得する。また、特徴量変換装置20は、基準者A1〜A4に装着された運動計測装置10a〜10eごとに計測された規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4eに対して、行動の識別情報(行動ラベル)をラベリングし、データベース31に記憶する。
次いで、特徴量変換装置20は、基準者A1〜A4と模範者Cとのそれぞれの規定動作データを用いて、基準者A1〜A4と模範者Cとの各規定動作データの対応する区間を抽出する(ステップS101)。すなわち、特徴量変換装置20は、各規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4eと、予め計測され、規定動作を分節化した区間に対してラベリングされた模範者の規定動作データCa〜Ceとをそれぞれ対比し、DPマッチングなどの2つの時系列データ間の類似度を検知する手法を用いて基準者A1〜A4と模範者Cとのそれぞれ対応する区間を抽出する。なお、基準者A1〜A4に規定動作をそれぞれ複数回させ、各規定動作データをそれぞれ複数回分取得することができる。
次いで、特徴量変換装置20は、基準者A1〜A4の規定動作データA1a〜A1e,A2a〜A2e,A3a〜A3e,A4a〜A4eから、部位ごとに、基準者A1〜A4の各規定動作データの基準者特徴量を抽出する(ステップS102)。上述の抽出方法を用いて抽出した結果、部位ごとに、各基準者特徴量としてそれぞれ12次元のベクトルを規定動作のn区間分得ることができる。
次いで、部位ごとに、基準者A1〜A4ごとに抽出された各基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する(ステップS103)。複数の標準特徴量を算出する場合、たとえば、各基準者特徴量を複数のクラスタにクラスタリングし、クラスタごとに含まれる基準者特徴量の平均特徴量とする。図5に、基準者A1〜A4による同一動作の特徴量をクラスタリングした例を示す。クラスタリングされた特徴量(特徴クラスタ)は、一般に多変量正規分布で表現でき、ある規定動作a∈{a,a,・・・,a}について4個のクラスタに分割できたとすると、各平均ベクトルをμ(k=1,2,3,4)とし、標準特徴量モデルとする。
次いで、特徴量変換装置20は、被験者Bが規定動作をした場合の規定動作データを取得する(ステップS104)。すなわち、特徴量変換装置20は、上述した基準者A1〜A4の場合と同様に、被験者Bの規定動作データBa〜Beを取得し、該取得した規定動作データBa〜Beに対して、行動の識別情報(行動ラベル)をラベリングし、データベース31に記憶する。
次いで、特徴量変換装置20は、被験者Bと模範者Cとのそれぞれの規定動作データを用いて、被験者Bと模範者Cとの各規定動作データの対応する区間を抽出する(ステップS105)。すなわち、特徴量変換装置20は、規定動作データBa〜Beと、模範者の規定動作データCa〜Ceとを対比し、DPマッチングなどの2つの時系列データ間の類似度を検知する手法を用いて被験者Bと模範者Cとのそれぞれ対応する区間を抽出する。なお、被験者Bに規定動作をそれぞれ複数回させ、各規定動作データをそれぞれ複数回分取得することができる。
次いで、特徴量変換装置20は、被験者Bの利き手および利き足の少なくともいずれかの部位が基準者A1〜A4の利き手および利き足の部位と異なる場合に、該当する被験者Bの規定動作データと基準者A1〜A4の規定動作データとを対応させるようにデータ変換する(ステップS106)。基準者A1〜A4と被験者Bとの利き手および利き足情報が予め特徴量変換装置20に入力されるものとし、基準者A1〜A4が右利きで、被験者Bが左利きの場合には、被験者Bの左手首に装着された運動計測装置10aで計測された左手首の規定動作データ(左手データ)に対して、これを右手首の規定動作データ(右手データ)にデータ変換する。
次いで、特徴量変換装置20は、被験者Bの規定動作データBa〜Beから、部位ごとに、被験者Bの規定動作データの被験者特徴量を抽出する(ステップS107)。上述の抽出方法を用いて抽出した結果、部位ごとに、被験者特徴量として12次元のベクトルを規定動作のn区間分得ることができる。
次いで、特徴量変換装置20は、部位ごとに、標準特徴量と被験者特徴量との間の変換行列を、上記抽出された対応する区間の情報に基づいて算出する(ステップS108)。複数の標準特徴量を算出する場合、各標準特徴量と被験者特徴量との差分値をそれぞれ算出し、該算出した差分値が最も小さい1の標準特徴量と被験者特徴量との間の変換行列を、上記抽出された対応する区間の情報に基づいて算出する。たとえば、クラスタP1の標準特徴量と被験者特徴量との差分値が最も小さい場合、上述の変換行列の算出方法を用いて、クラスタP1の標準特徴量と被験者特徴量との間の変換行列Tを求めることができる。該取得した変換行列Tは、データベース31に記憶する。
次に、識別段階として、まず、特徴量変換装置20は、被験者Bが識別対象動作をした場合の識別対象動作データを取得する(ステップS109)。すなわち、特徴量変換装置20は、被験者Bの身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された識別対象動作データXa〜Xeを受信して取得する。該取得した識別対象動作データXa〜Xeは、データベース31に記憶する。
次いで、特徴量変換装置20は、計測された被験者の識別対象動作データから、部位ごとに、被験者Bの識別対象動作データの識別対象特徴量を抽出する(ステップS110)。上述の抽出方法を用いて抽出した結果、部位ごとに、識別対象特徴量として、12次元のベクトルをn区間分得ることができる。
次いで、特徴量変換装置20は、識別対象動作データの識別対象特徴量xを、変換行列Tを用いて被験者用標準特徴量xに変換する(ステップS111)。たとえば、被験者Bの識別対象特徴量μ(t)を変換行列Tを用いて被験者用標準特徴量μB→A1(t)に変換する。
次いで、特徴量変換装置20は、被験者用標準特徴量xに基づいて被験者の識別対象動作を識別する(ステップS112)。なお、特徴量変換装置20において、被験者の識別対象動作を識別する前に、クラスタごとに、各クラスタに対応する基準者から識別対象動作データを取得し、該取得した識別対象動作データから抽出した特徴量を学習データとして識別器を予め作成しておく。
以上のように、本実施形態の特徴量変換装置および特徴量変換方法によれば、基準者A1〜A4と被験者Bとの各規定動作データを予め計測して各基準者特徴量および被験者特徴量を算出し、算出した各基準者特徴量から標準特徴量を算出し、被験者の被験者特徴量を標準特徴量に変換する変換行列を求めておき、被験者の識別対象動作の識別対象特徴量をかかる変換行列を用いて変換することで、性別・年齢などの体格差、利き手・利き足などの個人差、およびセンサ装着位置のズレなどの差異を考慮した被験者の識別対象動作を識別することができる。
また、本開示の特徴量変換装置および特徴量変換方法は、センサデータを用いた特徴量変換を必要とするあらゆるアプリケーションに適用することができる。具体的には、人の動作認識を用いたゲーム等のアミューズメント業界、俳優の動作をCGキャラクターの動作に変換するための映画・アニメーション業界、医師・看護師等の動作を認識し遠隔の患者への治療支援を行うなどの医療・介護・リハビリテーション業界、または原子力プラントや宇宙・深海など危険空間でのロボットオペレーションなど様々な業界で使用するアプリケーションに適用することができる。
<変形例>
以上のように本開示の好適な実施形態について説明したが、本開示は、以上の実施形態に限定されるべきものではなく、特許請求の範囲に表現された思想および範囲を逸脱することなく、種々の変形、追加、および省略が当業者によって可能である。
たとえば、上記実施形態では、加速度センサおよびジャイロセンサの両方が組み込まれた運動計測装置を例にとって説明したが、本開示はこれに限られず、たとえば、加速度センサのみ、またはジャイロセンサのみを用いることもできる。
また、上記実施形態では、対応区間抽出部22を有し、対応する分節化された区間を特定する場合を例にとって説明したが、本開示はこれに限られず、対応区間抽出部22を省略することもできる。この場合、たとえば、予め基準者A1の規定動作データを計測し、該規定動作データの対応区間を定めておき、特徴量変換装置20が、基準者A2〜A4および被験者Bに対応区間ごとの姿勢・動作を行うように促すように提示することで、基準者A1〜A4と被験者Bの規定動作データの共通する区間を対応づけることができる。
さらに、上記実施形態では、基準者A1〜A4と被験者Bとの利き手・利き足を考慮した例を説明したが、本開示はこれに限られず、利き手・利き足を限定して特徴量変換装置を用いることもできる。この場合、左右データ変換部23は省略することができる。
さらに、上記実施形態では、基準者を4人の場合を例にとって説明したが、本開示はこれに限られず、基準者は少なくとも1以上であればよく、たとえば、基準者を1人とし、該基準者と被験者との変換行列を算出するようにすることもできる。
さらに、上記実施形態では、特徴量変換装置20において、それぞれの処理機能を有する各部が備えられている構成を説明したが、本開示はこれに限られず、各部の一部または全部が特徴量変換装置20と通信可能に接続されたネットワークの他の装置に分散して配されていてもよい。たとえば、識別部30を特徴量変換装置20自体に設けるのではなく、他の装置として利用することができる。
さらに、特徴量変換装置20には、用途に応じた各部がそれぞれ備えられているが、特徴量変換装置20に備えられている各部は、そのいくつかを一纏めにして構成されていてもよいし、一つの部をさらに複数の部に分割して構成されていてもよい。
1 動作識別システム、
10a〜10e 運動計測装置、
11 加速度センサ、
12 ジャイロセンサ、
20 特徴量変換装置、
21 規定動作データ取得部、
22 対応区間抽出部、
23 左右データ変換部、
24 第1特徴量抽出部、
25 クラスタリング部、
26 変換行列算出部、
27 識別対象動作データ取得部、
28 第2特徴量抽出部、
29 変換部、
30 識別部、
31 データベース。

Claims (6)

  1. 少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得部と、
    前記少なくとも1以上の基準者と前記被験者とのそれぞれの規定動作データを用いて、前記少なくとも1以上の基準者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出部と、
    前記各規定動作データから、前記少なくとも1以上の基準者の規定動作データの基準者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出する第1特徴量抽出部と、
    前記少なくとも1以上の前記基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する標準特徴量算出部と、
    前記算出された標準特徴量と前記被験者特徴量との間の変換行列を算出する変換行列算出部と、
    前記被験者が識別対象動作をした場合の識別対象動作データを取得する識別対象動作データ取得部と、
    前記被験者の識別対象動作データから、前記被験者の識別対象動作データの識別対象特徴量を抽出する第2特徴量抽出部と、
    前記識別対象動作データの識別対象特徴量を、前記変換行列を用いて変換する変換部と、
    前記変換された標準特徴量から前記被験者の識別対象動作を識別する識別部と、
    を有する特徴量変換装置。
  2. 少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得部と、
    前記各規定動作データから、前記少なくとも1以上の基準者の規定動作データの基準者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出する第1特徴量抽出部と、
    前記少なくとも1以上の前記基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出する標準特徴量算出部と、
    前記算出された標準特徴量と前記被験者特徴量との間の変換行列を算出する変換行列算出部と、
    前記被験者の識別対象動作をした場合の識別対象動作データを取得する識別対象動作データ取得部と、
    前記被験者の識別対象動作データから、前記被験者の識別対象動作データの識別対象特徴量を抽出する第2特徴量抽出部と、
    前記識別対象動作データの識別対象特徴量を、前記変換行列を用いて変換する変換部と、
    を有する、特徴量変換装置。
  3. 前記基準者は複数であり、
    前記標準特徴量算出部が、複数の前記標準特徴量を算出する場合、
    前記変換行列算出部は、前記各標準特徴量と前記被験者特徴量との差分値をそれぞれ算出し、該算出した差分値が最も小さい1の前記標準特徴量と前記被験者特徴量との間の変換行列を算出する、請求項2に記載の特徴量変換装置。
  4. 前記変換部で前記変換された識別対象特徴量から前記被験者の識別対象動作を識別する識別部をさらに有する、請求項2に記載の特徴量変換装置。
  5. 前記少なくとも1以上の基準者と前記被験者とのそれぞれの規定動作データを用いて、前記少なくとも1以上の基準者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出部をさらに有し、
    前記変換行列算出部は、前記抽出された対応する区間の情報に基づいて、前記標準特徴量と前記被験者特徴量との間の変換行列を算出する、請求項2に記載の特徴量変換装置。
  6. 制御ユニットと、記憶ユニットとを有する情報処理装置が実行する特徴量変換方法であって、
    前記制御ユニットが、少なくとも1以上の基準者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得して前記記憶ユニットに記憶することと、
    前記制御ユニットが、前記記憶ユニットに記憶された前記各規定動作データを読み出し、該読み出した各規定動作データから前記少なくとも1以上の基準者の規定動作データの基準者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出することと、
    前記制御ユニットが、前記少なくとも1以上の前記基準者特徴量に基づいて、少なくとも1つの標準特徴量を算出することと、
    前記制御ユニットが、前記算出された標準特徴量と前記被験者特徴量との間の変換行列を算出して前記記憶ユニットに記憶することと、
    前記制御ユニットが、前記被験者の識別対象動作をした場合の識別対象動作データを取得して前記記憶ユニットに記憶することと、
    前記制御ユニットが、前記記憶ユニットに記憶された前記被験者の識別対象動作データを読み出し、該読み出した識別対象動作データから、前記被験者の識別対象動作データの識別対象特徴量を抽出することと、
    前記制御装置が、前記記憶ユニットに記憶された前記変換行列を読み出し、該読み出した変換行列を用いて、前記識別対象動作データの識別対象特徴量を変換することと、
    を有する、特徴量変換方法。
JP2010043430A 2010-02-26 2010-02-26 特徴量変換装置、および特徴量変換方法 Expired - Fee Related JP4590018B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010043430A JP4590018B1 (ja) 2010-02-26 2010-02-26 特徴量変換装置、および特徴量変換方法
US12/855,908 US8538722B2 (en) 2010-02-26 2010-08-13 Feature transformation apparatus and feature transformation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010043430A JP4590018B1 (ja) 2010-02-26 2010-02-26 特徴量変換装置、および特徴量変換方法

Publications (2)

Publication Number Publication Date
JP4590018B1 JP4590018B1 (ja) 2010-12-01
JP2011177300A true JP2011177300A (ja) 2011-09-15

Family

ID=43425679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010043430A Expired - Fee Related JP4590018B1 (ja) 2010-02-26 2010-02-26 特徴量変換装置、および特徴量変換方法

Country Status (2)

Country Link
US (1) US8538722B2 (ja)
JP (1) JP4590018B1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
WO2017179090A1 (ja) * 2016-04-11 2017-10-19 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
WO2018042525A1 (ja) 2016-08-30 2018-03-08 富士通株式会社 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
JP2019136493A (ja) * 2018-02-12 2019-08-22 龍飛 莊 運動の採点方法、システム及びプログラム
JP2020009034A (ja) * 2018-07-05 2020-01-16 富士通株式会社 業務推定方法、情報処理装置、及び業務推定プログラム
WO2020070928A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
WO2023188264A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 情報処理システム
JP7449838B2 (ja) 2020-10-14 2024-03-14 株式会社日立製作所 行動解析システム及びそれを用いた行動解析方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8386251B2 (en) * 2009-06-08 2013-02-26 Microsoft Corporation Progressive application of knowledge sources in multistage speech recognition
CN102184549B (zh) * 2011-04-29 2012-10-10 闫文闻 一种运动参数确定方法、装置和运动辅助设备
US10799154B2 (en) * 2015-03-11 2020-10-13 Vanderbilt University Walking aid and system and method of gait monitoring
US10768196B2 (en) * 2016-12-19 2020-09-08 Huami Inc. Determine wearing position of a wearable device
US11126897B2 (en) * 2016-12-30 2021-09-21 Intel Corporation Unification of classifier models across device platforms
CA3036836A1 (en) 2019-03-15 2020-09-15 Wrnch Inc. Method and system for symmetric recognition of handed activities
WO2021180566A1 (en) 2020-03-10 2021-09-16 Koninklijke Philips N.V. System and method for detecting wrist-device wearing location

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307207A (ja) * 2007-06-14 2008-12-25 Advanced Telecommunication Research Institute International 動作計測装置
JP2009032033A (ja) * 2007-07-27 2009-02-12 Omron Corp 動作境界検出方法および作業分析システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146636B2 (en) * 2000-07-24 2006-12-05 Bluesocket, Inc. Method and system for enabling centralized control of wireless local area networks
US7164885B2 (en) * 2000-12-18 2007-01-16 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for selective service access
US20070135225A1 (en) * 2005-12-12 2007-06-14 Nieminen Heikki V Sport movement analyzer and training device
US20100305480A1 (en) * 2009-06-01 2010-12-02 Guoyi Fu Human Motion Classification At Cycle Basis Of Repetitive Joint Movement
JP4590010B1 (ja) * 2009-12-14 2010-12-01 エンパイア テクノロジー ディベロップメント エルエルシー 動作解析装置、および動作解析方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307207A (ja) * 2007-06-14 2008-12-25 Advanced Telecommunication Research Institute International 動作計測装置
JP2009032033A (ja) * 2007-07-27 2009-02-12 Omron Corp 動作境界検出方法および作業分析システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
WO2017179090A1 (ja) * 2016-04-11 2017-10-19 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JPWO2017179090A1 (ja) * 2016-04-11 2019-01-24 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
WO2018042525A1 (ja) 2016-08-30 2018-03-08 富士通株式会社 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
JP2019136493A (ja) * 2018-02-12 2019-08-22 龍飛 莊 運動の採点方法、システム及びプログラム
JP2020009034A (ja) * 2018-07-05 2020-01-16 富士通株式会社 業務推定方法、情報処理装置、及び業務推定プログラム
JP7052604B2 (ja) 2018-07-05 2022-04-12 富士通株式会社 業務推定方法、情報処理装置、及び業務推定プログラム
WO2020070928A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
JPWO2020070928A1 (ja) * 2018-10-03 2021-09-02 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
JP7038847B2 (ja) 2018-10-03 2022-03-18 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム
US11605192B2 (en) 2018-10-03 2023-03-14 Sony Interactive Entertainment Inc. Skeleton model update apparatus, skeleton model update method, and program
JP7449838B2 (ja) 2020-10-14 2024-03-14 株式会社日立製作所 行動解析システム及びそれを用いた行動解析方法
WO2023188264A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 情報処理システム

Also Published As

Publication number Publication date
JP4590018B1 (ja) 2010-12-01
US20110213582A1 (en) 2011-09-01
US8538722B2 (en) 2013-09-17

Similar Documents

Publication Publication Date Title
JP4590018B1 (ja) 特徴量変換装置、および特徴量変換方法
Wannenburg et al. Physical activity recognition from smartphone accelerometer data for user context awareness sensing
Antar et al. Challenges in sensor-based human activity recognition and a comparative analysis of benchmark datasets: A review
Altun et al. Comparative study on classifying human activities with miniature inertial and magnetic sensors
Barshan et al. Recognizing daily and sports activities in two open source machine learning environments using body-worn sensor units
Liu et al. Real-time arm skeleton tracking and gesture inference tolerant to missing wearable sensors
Trabelsi et al. An unsupervised approach for automatic activity recognition based on hidden Markov model regression
JP4992043B2 (ja) 行動識別装置、行動識別システムおよび行動識別方法
JP4590010B1 (ja) 動作解析装置、および動作解析方法
Eskofier et al. Marker-based classification of young–elderly gait pattern differences via direct PCA feature extraction and SVMs
Akhund et al. IoT based low-cost robotic agent design for disabled and Covid-19 virus affected people
Garcia-Ceja et al. Long-term activity recognition from accelerometer data
Kadir et al. Can a simple approach identify complex nurse care activity?
Ameli et al. Objective clinical gait analysis using inertial sensors and six minute walking test
Cvetkovic et al. Semi-supervised learning for adaptation of human activity recognition classifier to the user
Pham et al. A wearable sensor based approach to real-time fall detection and fine-grained activity recognition
Calado et al. A geometric model-based approach to hand gesture recognition
Alrazzak et al. A survey on human activity recognition using accelerometer sensor
Liu et al. Automatic fall risk detection based on imbalanced data
Chin et al. Daily activities classification on human motion primitives detection dataset
Zhu et al. Smartphone-based human activity recognition in buildings using locality-constrained linear coding
Ghasemzadeh et al. A phonological expression for physical movement monitoring in body sensor networks
Razzaq et al. Unskem: unobtrusive skeletal-based emotion recognition for user experience
Trabelsi et al. Activity recognition using body mounted sensors: An unsupervised learning based approach
Ghobadi et al. Foot-mounted inertial measurement unit for activity classification

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100910

R150 Certificate of patent or registration of utility model

Ref document number: 4590018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees