JP2011123411A - 動作解析装置、および動作解析方法 - Google Patents

動作解析装置、および動作解析方法 Download PDF

Info

Publication number
JP2011123411A
JP2011123411A JP2009282772A JP2009282772A JP2011123411A JP 2011123411 A JP2011123411 A JP 2011123411A JP 2009282772 A JP2009282772 A JP 2009282772A JP 2009282772 A JP2009282772 A JP 2009282772A JP 2011123411 A JP2011123411 A JP 2011123411A
Authority
JP
Japan
Prior art keywords
subject
motion
prescribed
model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009282772A
Other languages
English (en)
Other versions
JP4590010B1 (ja
Inventor
Futoshi Naya
太 納谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Emprie Tech Dev LLC
Original Assignee
Empire Technology Development LLC
Emprie Tech Dev LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC, Emprie Tech Dev LLC filed Critical Empire Technology Development LLC
Priority to JP2009282772A priority Critical patent/JP4590010B1/ja
Priority to US12/642,265 priority patent/US8113843B2/en
Application granted granted Critical
Publication of JP4590010B1 publication Critical patent/JP4590010B1/ja
Publication of JP2011123411A publication Critical patent/JP2011123411A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】模範者と被験者との間の、体格差、個人差、およびセンサ装着位置のズレなどの差異に起因した動作データの相違を解消する動作解析装置を提供する。
【解決手段】模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得手段21と、取得された各規定動作データから模範者の規定動作データの模範者特徴量、および被験者の規定動作データの被験者特徴量を抽出する特徴量抽出手段24と、各規定動作データの模範者特徴量と被験者特徴量との間の変換行列を算出する変換行列算出手段25と、模範者の特定動作についての特定動作データを取得する特定動作データ取得手段26と、模範者の特定動作データの模範者特徴量を、変換行列を用いて被験者用の模範特定動作情報を生成する生成手段27と、被験者用の模範特定動作情報を提示する提示手段28と、を有する動作解析装置。
【選択図】図1

Description

本発明は、動作解析装置、および動作解析方法に関する。
加速度センサやジャイロセンサなどの運動計測装置を人体に装着させて、人の動作を計測して解析する動作解析方法が一般的に知られている(たとえば、非特許文献1参照)。
Ling Bao, Stephen S. Intille, "Activity Recognition from User-Annotated Acceleration Data", In Second International Conference on Pervasive Computing, pp.1-17, 2004
人の動作を計測することにより、歩行や食事などの一般的な動作に加えて、たとえば、ダンスやチェロ演奏などの専門的な動作を定量化し、異なる2人の動作の相違(たとえば、模範者と初心者の動作の相違)をデータ上把握することができると考えられる。
しかしながら、模範者と初心者とが同じ動作をした場合であっても、性別・年齢などの体格差、利き手・利き足などの個人差、およびセンサ装着位置のズレなどの差異に起因して、両者の動作データは相違する。そのため、たとえば、ある動作における模範者の動作データを初心者に提示してアドバイスしたとしても、この提示された動作データが初心者にとって必ずしも最適な動作データであるとは限らない状況が生じる。
そこで、上記問題点を解決し、上記体格差などの差異に起因した動作データの相違を解消することができる新しい動作解析装置や動作解析方法を提供することが望まれる。
本開示の動作解析装置は、模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得手段と、前記取得された各規定動作データから、前記模範者の規定動作データの模範者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出する特徴量抽出手段と、前記模範者の規定動作データの模範者特徴量と前記被験者の規定動作データの被験者特徴量との間の変換行列を算出する変換行列算出手段と、前記模範者の特定動作についての特定動作データを取得する特定動作データ取得手段と、前記模範者の特定動作データから、前記変換行列を用いて前記被験者用の模範特定動作情報を生成する生成手段と、前記被験者用の模範特定動作情報を提示する提示手段と、を有する。
また、本開示の動作解析装置は、前記特定動作データ取得手段が、前記被験者の前記特定動作をした場合の特定動作データをさらに取得し、前記提示手段は、前記取得された被験者の特定動作データに基づく被験者特定動作情報と、前記前記被験者用の模範特定動作情報とを関連付けて提示することができる。
さらに、本開示の動作解析装置は、前記規定動作データ取得手段が、前記模範者および前記被験者の身体の少なくとも1つの部位に装着された運動計測装置を用いて計測された前記規定動作データを取得し、前記特徴量抽出手段は、前記部位ごとに前記模範者特徴量、および前記被験者特徴量を抽出し、前記変換行列算出手段は、前記部位ごとに、前記模範者の規定動作の模範者特徴量と前記被験者の規定動作の被験者特徴量との間の変換行列を算出することもできる。
さらに、本開示の動作解析装置は、前記模範者と前記被験者とのそれぞれの規定動作データを用いて、前記模範者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出手段をさらに有し、前記変換行列算出手段は、前記抽出された対応する区間の情報に基づいて、前記模範者特徴量と前記被験者特徴量との間の変換行列を前記部位ごとに算出することもできる。
さらに、本開示の動作解析装置は、前記規定動作データ取得手段が、前記模範者および前記被験者の利き手および利き足の少なくともいずれかの部位に装着された運動計測装置を用いて計測された前記規定動作データを取得するものであって、前記部位に関して、前記模範者が右利きである一方で前記被験者が左利きである場合、または前記模範者が左利きである一方で前記被験者が右利きである場合に、該異なる部位における前記模範者の規定動作データと被験者の規定動作データとを対応させるようにデータ変換するデータ変換手段をさらに有することもできる。
さらに、本開示の動作解析装置は、前記模範者特徴量および前記被験者特徴量が、加速度成分および角速度成分を少なくとも含むこともできる。
本開示の動作解析方法は、模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得し、前記取得された各規定動作データから前記模範者の規定動作データの模範者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出し、前記模範者特徴量と前記被験者特徴量との間の変換行列を算出し、前記模範者の特定動作についての特定動作データを取得し、前記取得された模範者の特定動作データから前記変換行列を用いて前記被験者用の模範特定動作情報を生成し、前記被験者用の模範特定動作情報を提示する。
本実施形態の動作解析システム1の概略構成を示すブロック図である。 本実施形態の運動計測装置10を被験者等に装着させた一例を示す図である。 本実施形態の動作解析装置20のハードウェア構成を示す概略図である。 本実施形態の右手データを左手データに変換するための回転行列Rを説明するための図である。 本実施形態の模範者と被験者との特定動作データを提示内容の一例を示す図である。 本実施形態の動作解析装置20の動作解析方法におけるフローチャートの一例を示す。
以下、本開示を実施するための好適な実施形態を、図面を参照しながら説明する。
図1は、本実施形態の動作解析システム1の概略構成を示すブロック図である。
動作解析システム1は、図1に示すとおり、運動計測装置10a〜10eと、動作解析装置20とを含んで構成され、各運動計測装置10a〜10eと動作解析装置20とは無線または有線で通信可能に接続され、データの送受信を行うことができる。なお、各運動計測装置10a〜10eと動作解析装置20とは、無線または有線で通信可能に接続される場合に限られず、たとえば、USBメモリなどのメディアを介してデータの受け渡しを行うこともできる。
運動計測装置10a〜10eは、熟練者などの模範者Aと初心者などの被験者Bとの身体に装着される装置であって、加速度センサ11と、ジャイロセンサ12と、各センサで計測されたデータ(規定動作データ)を動作解析装置20に送信する通信手段13と、該通信手段13および各センサ11,12を制御する制御手段14を有する。複数の運動計測装置10a〜10eは、模範者および被験者の各部位、たとえば、図2に示すように、右手首(10a)、左手首(10b)、腰(10c)、右足(10d)、左足(10e)に装着される。なお、図2では、運動計測装置を装着させる部位の数を5つとした場合を例示しているが、これに限られず、少なくとも身体の1つ以上の部位に運動計測装置を装着させることができる。
本実施形態の運動計測装置10において、加速度センサ11は、3次元の軸方向(x軸方向、y軸方向、z軸方向)の加速度成分を計測する3軸加速度センサであり、また、ジャイロセンサ12は、3次元の軸回り(x軸回り、y軸回り、z軸回り)の角速度成分を計測する3軸ジャイロセンサである。
なお、運動計測装置10a〜10eの構成および機能や、該運動計測装置10a〜10eで用いられる加速度センサ11およびジャイロセンサ12の構成および機能は、一般的に知られている運動計測装置や、加速度センサおよびジャイロセンサのものと原則として共通とすることができるので、ここでの詳細な説明は省略する。また、加速度センサ11は、上記のように、3軸加速度センサに限られず、1軸加速度センサまたは2軸加速度センサを用いることもできる。ジャイロセンサ12の場合も同様である。
動作解析装置20は、模範者Aおよび被験者Bに装着された運動計測装置10a〜10eから動作データを取得し、該取得した動作データを変換等して被験者Bなどに提示する装置である。
動作解析装置20は、ハードウェアとして、図3に示すように、たとえば、CPU、CPUにバス結合されたROM、RAM、記憶部、入力部、表示部、および入出力インタフェースなど、通常のコンピュータ装置と同様のハードウェアを備える。これら動作解析装置20は、物理的には、専用化したシステム、あるいは汎用の情報処理装置のいずれであってもよい。たとえば、一般的な構成の情報処理装置において、本発明の動作解析方法における各処理を規定したソフトウェアを起動することにより、動作解析装置20を実現することもできる。
動作解析装置20は、図1に示すように、規定動作データ取得手段21、対応区間抽出手段22、左右データ変換手段23、特徴量抽出手段24、変換行列算出手段25、特定動作データ取得手段26、生成手段27、提示手段28、およびデータベース29を有する。これら各手段は、たとえば、主にCPUがROMやRAMに格納されるプログラムを実行し、各ハードウェアを制御することによって実現することができ、データベース29は、RAMや記憶部を用いて実現することができる。
データベース29は、後述するように、模範者に装着された運動計測装置10a〜10eごとに計測された規定動作データAa〜Aeに対して、行動の識別情報(行動ラベル)をラベリングしたものを記憶する。また、被験者の規定動作データBa〜Beも同様に記憶する。
規定動作データ取得手段21は、模範者Aと被験者Bとが規定動作をした場合のそれぞれの規定動作データを取得する。すなわち、規定動作データ取得手段21は、模範者Aの身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された、各運動計測装置10a〜10eごとの規定動作データAa〜Aeを受信して取得し、被験者Bの場合も同様に、各運動計測装置10a〜10eごとの規定動作データBa〜Beを受信して取得する。各規定動作データAa〜Ae,Ba〜Beはそれぞれ、3次元の軸方向の加速度成分と3次元の軸回りの角速度成分とを含む6次元ベクトルν=(g,g,g,a,a,a)の時系列データとして表現することができる。
ここで、規定動作とは、模範者Aと被験者Bとが運動計測装置10を装着させて行う予め規定された一連の姿勢・動作である。規定動作は、たとえば、「気をつけ」の姿勢から腕を真っ直ぐ前方に出して「前へならえ」の姿勢をし、次にそのまま腕を真っ直ぐ上方にもってきて「手先を天に向けた」姿勢をし、次に自分の身体の正面に平行に腕を下げて「両腕を横に広げた」姿勢をし、次にさらに自分の身体の正面に平行に腕を下げて「気をつけ」の姿勢をするといったいわゆる「深呼吸」の一連の姿勢・動作とすることができる。また、各姿勢では、一定時間、静止状態を保つように、たとえば、加速度センサで計測されたデータの場合、運動計測装置を装着した部位にかかる重力加速度成分が0、もしくは最大・最小値(±1G)の値を取るような姿勢を含むようにする。その結果、各姿勢における静止状態、および各姿勢から次の姿勢までの動作状態を一区間(検出区間)として分節化が可能となる。たとえば、上記の「深呼吸」の一連の姿勢・動作の例でいえば、「気をつけ」の姿勢、「気をつけ」の姿勢から「前へならえ」の姿勢までの動作、「前へならえ」の姿勢、「前へならえ」の姿勢から「手先を天に向けた」姿勢までの動作、「手先を天に向けた」姿勢、「手先を天に向けた」姿勢から「両腕を横に広げた」姿勢までの動作、「両腕を横に広げた」姿勢、「両腕を横に広げた」姿勢から「気をつけ」の姿勢までの動作、「気をつけ」の姿勢と、9個の規定姿勢・動作に分節化が可能となる。
なお、規定動作は、上記「深呼吸」の場合の他にも、上半身全体、下半身全体、または全身を用いる姿勢や動作を組み合わせて行う一連の規定姿勢・動作とすることができる。さらに、規定動作は、模範者Aや被験者Bの利き手や利き足を用いた特徴的な規定姿勢・動作、たとえば、右手でボールを投げる、右手で包丁を使う、および左足でボールを蹴るなどの一連の規定姿勢・動作を含むことができる。
規定動作データ取得手段21は、模範者Aに装着された運動計測装置10a〜10eごとに計測され、上記規定動作を分節化した区間ごとの6次元ベクトルの時系列データからなる規定動作データAa〜Aeに対して、行動の識別情報(行動ラベル)をラベリングし、データベース29に記憶する。
対応区間抽出手段22は、模範者Aと被験者Bとの各規定動作データAa〜Ae,Ba〜Beを用いて、DPマッチングなどの2つの時系列データ間の類似度を検知する手法を用いて模範者Aと被験者Bの各規定動作データの対応する区間を抽出する。すなわち、DPマッチングを用いて、模範者Aの規定動作データの上記分節化された区間・行動ラベルに対応する被験者の規定動作データの区間・行動ラベルを推定する。たとえば、模範者Aと被験者Bとが右手首の部位に運動計測装置10aを装着して計測された規定動作データAaと規定動作データBaとの対応する区間を抽出する場合、模範者Aの「気をつけ」の姿勢の一区間の規定動作データと、該区間に対応する被験者Bの「気をつけ」の姿勢の一区間の規定動作データとを抽出する。なお、DPマッチングを用いる上記手法は、従来のDPマッチングと同様の手法を用いることができるので、ここでの詳細な説明は省略するが、DPマッチングの距離尺度は、たとえば、生データ間のユークリッド距離を用いる。
左右データ変換手段(データ変換手段)23は、模範者Aの利き手および利き足の少なくともいずれかの部位が被験者Bの利き手および利き足の部位と異なる場合に、該当する模範者Aの規定動作データと被験者Bの規定動作データとを対応させるようにデータ変換する。たとえば、模範者Aと被験者Bとの利き手および利き足情報が予め動作解析装置20に入力されるものとし、模範者Aが右利きで、被験者Bが左利きの場合には、模範者Aの右手首に装着された運動計測装置10aで計測された右手首の規定動作データ(右手データ)に対して、これを左手首の規定動作データ(左手データ)にデータ変換する。なお、利き手・利き足で無い他方の手・足も同様に変換することができる。この変換は、たとえば、図4に示すように、身体の対称性を利用して簡単な回転行列Rを用いて行うことができる。すなわち、図4のように計測時の座標系を設定している場合、右手首の動作を計測した規定動作データを、左手首の動作を計測した規定動作データとして鏡像に変換するには、加速度成分はx軸で計測した加速度データのみを反転するように数式(1)を用いて、角速度成分はx軸以外の要素が反転するように数式(2)を用いることができる。なお、回転行列Rは、計測時の座標系、具体的には、運動計測装置を各部位に付ける向きなどに合わせて設定することができる。
Figure 2011123411
よって、図4に示す場合であれば、右手首の規定動作データ(右手データ)に対して、これを左手首の規定動作データ(左手データ)に変換する左右変換行列は、下記の数式(3)となる。
Figure 2011123411
特徴量抽出手段24は、規定動作データ取得手段21で取得された模範者Aの規定動作データAa〜Ae、および被験者Bの規定動作データBa〜Beから、部位ごとに、模範者Aの規定動作データの模範者特徴量、および被験者Bの規定動作データの被験者特徴量を抽出する。
ここで、特徴量の抽出方法について説明する。特徴量抽出手段24は、各規定動作データ(加速度データおよび角速度データ)から模範者特徴量および被験者特徴量を抽出する際に、各規定動作データの検出区間ごとに、たとえば、時系列のデータに一定時間のスライディングウィンドウ(一定の時間窓)を適用し、そのウィンドウ毎にウィンドウ内の各データの平均特徴ベクトルと標準偏差ベクトルを求める。そして、各規定動作データの検出区間ごとに、その区間に含まれる各ウィンドウの平均特徴ベクトルおよび標準偏差ベクトルについての平均値を求め、平均ベクトルμ(6次元ベクトル)と偏差ベクトルσ(6次元ベクトル)、すなわち12次元の特徴ベクトルを得る。平均ベクトルμおよび偏差ベクトルσを、規定動作を分割した検出区間ごとに抽出することにより、規定姿勢・動作の検出区間が全部でn個である場合、1つの運動計測装置10aで計測された規定動作データに対して12n次元の模範者特徴量(模範者特徴ベクトル)を抽出することができる。そして、模範者Aの身体に装着された他の運動計測装置10b〜10eから計測された規定動作データAb〜Aeに対しても同様に模範者特徴量(模範者特徴ベクトル)を抽出する。さらに、被験者Bの身体に装着された運動計測装置10a〜10eから計測された規定動作データBa〜Beに対して被験者特徴量(被験者特徴ベクトル)を抽出する。なお、このような特徴量を抽出する手法は、上記非特許文献1などに記載の技術を利用することができる。
変換行列算出手段25は、部位ごとに、模範者Aの規定動作データの模範者特徴量と被験者Bの規定動作データの被験者特徴量との間の変換行列を算出する。
ここで、上記変換行列の算出方法について説明する。模範者Aおよび被験者Bにおいて対応する部位pで計測された規定動作データA,Bから抽出した一検出区間における各特徴ベクトル(12次元のベクトル)をそれぞれμA p,μB pとすると、これらの関係はアフィン変換として数式(4)で表現することができる。したがって、数式(4)より、一検出区間における模範者の特徴ベクトルから被検者の特徴ベクトルへアフィン変換する変換行列Tを算出することができる。本実施形態では、各区間について算出した変換行列Tの平均を求め、これを模範者の模範者特徴量から被検者の被験者特徴量へアフィン変換する変換行列Tpとして用いる。
Figure 2011123411
特定動作データ取得手段26は、模範者Aの特定動作についての特定動作データを取得する。すなわち、規定動作データ取得手段21は、模範者Aの身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された各規定動作データAa〜Aeを受信して取得する。特定動作データ取得手段26は、模範者Aと共通の特定動作についての被験者の特定動作データBa〜Beも取得する。このように計測された特定動作データに対して、上述したように、特徴量抽出手段24が、模範者Aの特定動作データ、および被験者Bの規定動作データから、部位ごとに、模範者Aの特定動作の模範者特徴量、および被験者Bの特定動作の被験者特徴量を抽出する。なお、模範者A(被験者B)は、規定動作を計測する場合と特定動作を計測する場合とで運動計測装置の装着の位置のズレを防ぐために、規定動作を行って規定動作データを計測した後、各運動計測装置10a〜10eを装着したまま、特定動作を行って特定動作データを計測することができる。
生成手段27は、模範者Aの特定動作データから、変換行列Tpを用いて被験者用の模範特定動作情報を生成する。被験者用の模範特定動作情報は、具体的には、模範者Aの特定動作データについて抽出された模範者特徴量を変換行列Tpを用いて変換し、該変換して生成された模範者特徴量のうち1以上の要素を抽出したものである。すなわち、生成手段27は、模範者Aの特定動作のある部位pの特定動作データにおける平均ベクトルの時系列:V(t)=(g(t),g(t),g(t),a(t),a(t),agz(t))およびスライディングウィンドウでの時間窓をかけた規定動作データにおける偏差ベクトルの時系列:S(t)=(σgx(t),σgy(t),σgz(t),σax(t),σay(t),σaz(t))’を求め、ベクトルμ(t)=(V(t),S(t))’として模範者特徴量を求める。該模範者特徴量に対して、上記変換行列Tpの擬似逆行列Tp を掛けて、μA→B(t)=Tp μ(t)として模範者Aの特定動作データの模範者特徴量を変換して、該変換された模範者特徴量のうち1以上の要素を被験者用の模範特定動作情報として抽出する。なお、擬似逆行列Tp は、TpがM×Nの行列として、rankTp=Mの場合、Tp =Tp’(Tpp’)−1、rankTp=Nの場合、Tp = (Tpp’)−1p’として一意に求まる。そのため、Tpが正則でなく逆行列を持たない場合にも演算が可能である。部位p以外の各部位の動作データについても同様に模範者Aの特定動作データの模範者特徴量から、変換行列Tpを用いて被験者用の模範特定動作情報をそれぞれ生成する。なお、変換された模範者特徴量は、μA→B(t)=(VA→B(t),SA→B(t))’として得られる。
提示手段28は、被験者Bの実際の特定動作データと、生成手段27によって生成された被験者用の模範特定動作情報を提示する。提示手段28は、たとえば、動作解析装置20のディスプレイなどの表示部に、被験者用の模範特定動作情報、すなわち変換された模範者特徴量VA→B(t)の1以上の要素(たとえば、x軸、y軸、z軸の各軸の加速度成分)と、実際の被験者の特定動作データの被験者特徴量V(t)の上記被験者用の模範特定動作情報に対応する要素(被験者特定動作情報)とを、図5に示すように表示する。図5において、左上に示す波形は模範者特定動作情報(被験者用の模範特定動作情報を変換行列Tpで変換する前の元の情報)、右上に示す波形は、模範者特定情報を被験者の体型に変換した被験者用の模範特定動作情報、および右下に示す波形は被験者特定動作情報を例示する。なお、各波形は、横軸が時間(t)、縦軸が加速度(G)を表している。ここで、変換された模範者特徴量μA→B(t)=(VA→B(t),SA→B(t))’のうち被験者等に向けて表示するのは、VA→B(t)の1以上の要素とすることができる。なお、被験者等に向けて表示する際、SA→B(t)をVA→B(t)のブレ幅を示す情報として表示することもできる。
以下、図6に示すフローチャートを参照して、動作解析装置20を用いて実施される本実施形態の動作解析方法を説明する。図6のフローでは、模範者Aと被験者Bとの規定動作データを計測し、変換行列を算出する変換行列算出段階と、変換行列を算出した後、実際の模範者の特定動作データを被験者用の模範特定動作情報に変換し、該変換した特定動作データを提示する提示段階とを含む。また、本フローにおける規定動作として、上述の9つの規定姿勢・動作を含む「深呼吸」を例にとって説明する。なお、各図のフローチャートで示される各処理は、処理内容に矛盾を生じない範囲で任意に順番を変更して又は並列に実行することができる。
まず、変換行列算出段階として、動作解析装置20は、模範者Aと被験者Bとが規定動作をした場合のそれぞれの規定動作データを取得する(ステップS100)。すなわち、動作解析装置20は、模範者の身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された、各運動計測装置10a〜10eごとの規定動作データAa〜Aeを受信して取得し、被験者Bの場合も同様に、各運動計測装置10a〜10eごとの規定動作データBa〜Beを受信して取得する。また、動作解析装置20は、模範者Aに装着された運動計測装置10a〜10eごとに計測された規定動作データAa〜Aeに対して、行動の識別情報(行動ラベル)をラベリングし、データベース29に記憶する。同様に、被験者の規定動作データBa〜Beについてもデータベース29に記憶する。
次いで、動作解析装置20は、模範者Aと被験者Bとの各規定動作データAa〜Ae,Ba〜Beを用いて、DPマッチングなどの2つの時系列データ間の類似度を検知する手法を用いて模範者Aと被験者Bの規定動作データAa〜Ae,Ba〜Beの対応する区間を抽出する(ステップS101)。たとえば、模範者Aと被験者Bとが右手首の部位に運動計測装置10aを装着して計測された規定動作データAaと規定動作データBaとの対応する区間を抽出する場合、模範者Aの「気をつけ」の姿勢の一区間の規定動作データAaと、該区間に対応する被験者Bの「気をつけ」の姿勢の一区間の規定動作データBaとを抽出する。
次いで、動作解析装置20は、模範者Aと被験者Bとの利き手および利き足の少なくともいずれかが異なる場合、該当する模範者Aの規定動作データと被験者Bの規定動作データとを対応させるようにデータ変換する(ステップS102)。たとえば、模範者Aと被験者Bとの利き手および利き足情報が予め動作解析装置20に入力されるものとし、模範者Aが右利きで、被験者Bが左利きの場合には、模範者Aの右手首に装着された運動計測装置10aで計測された右手首の規定動作データ(右手データ)に対して、これを左手首の規定動作データ(左手データ)にデータ変換する。
次いで、動作解析装置20は、模範者Aの規定動作データAa〜Ae、および被験者Bの規定動作データBa〜Beから、部位ごとに、模範者Aの規定動作の模範者特徴量、および被験者Bの規定動作の被験者特徴量を抽出する(ステップS103)。上述の抽出方法を用いて抽出した結果、部位ごとに、模範者特徴量、および被験者特徴量それぞれ12×9次元のベクトルを得ることができる。
次いで、動作解析装置20は、部位ごとに、模範者Aの規定動作データの模範者特徴量と被験者Bの規定動作データの被験者特徴量との間の変換行列を算出する(ステップS104)。上述の変換行列の算出方法を用いて、模範者特徴量と被験者Bの規定動作データの被験者特徴量との間の変換行列Tpを求めることができる。
次に、提示段階として、まず、動作解析装置20は、模範者Aの特定動作についての特定動作データAa〜Aeを取得する(ステップS105)。すなわち、動作解析装置20は、模範者Aの身体の各部位に装着された各運動計測装置10a〜10eを用いて計測された各規定動作データμ(t)を受信して取得する。同様に、模範者Aと共通の特定動作についての被験者Bの特定動作データμ(t)も取得する。
次いで、動作解析装置20は、模範者Aの特定動作データから、変換行列Tpを用いて被験者用の模範特定動作情報を生成する(ステップS106)。たとえば、μA→B(t)=Tp μ(t)として模範者Aの特定動作データの模範者特徴量μ(t)を変換行列Tpを用いてμA→B(t)に変換し、該変換して生成された模範者特徴量のうち1以上の要素を被験者用の模範特定動作情報として抽出する。
次いで、動作解析装置20は、被験者Bの被験者特定動作情報と、生成手段27によって変換された被験者用の模範特定動作情報を提示する(ステップS107)。たとえば、動作解析装置20のディスプレイなどの表示部に、被験者用の模範特定動作情報、すなわち変換された模範者特徴量VA→B(t)の1以上の要素と、実際の被験者の特定動作データの被験者特徴量V(t)の上記被験者用の模範特定動作情報に対応する要素(被験者特定動作情報)とを、図5に示すように、表示する。
以上のように、本実施形態の動作解析装置および動作解析方法によれば、模範者と被験者との規定動作データを予め計測し、両データの変換行列を求めておき、特定動作のかかる変換行列を用いて模範者と被験者との特定動作データのうち一方を変換することで、性別・年齢などの体格差、利き手・利き足などの個人差、およびセンサ装着位置のズレなどの差異を解消して、両者間の特定動作データを対比させることができる。その結果、各身体の部位ごとの動作におけるタイミングや振れ幅、姿勢のずれを定量的に示すことができ、被験者に対して身体のどの部位をどのように動かせば良いかを的確にアドバイスすることができる。
また、本開示の動作解析装置および動作解析方法は、模範者や被験者のスキルが動作に現れるような場合に適用することができる。具体的には、模範者の特定動作データを抽出し、これを初心者に提示して教示するようなあらゆる用途、たとえば、車・飛行機・船舶等の運転や操縦スキル、スポーツ全般、楽器演奏、調理(包丁さばき、鍋操作など)、医療・看護・介護でのあらゆる手技など、動作の教育・習熟を必要とする分野や、熟練者(模範者)のスキル伝承を必要とする分野に適用可能である。すなわち、被験者が自分の動作と熟練者の動作との差分を比較しながら模範者の動きに近づけるような動作の学習に用いることができる。また、患者(被験者)に対して、健常者(模範者)の特定動作データを提示し、健常者の動作に近づけるようアドバイスすることで、リハビリテーションなどの用途に活用することもできる。
<変形例>
以上のように本発明の好適な実施形態について説明したが、本発明は、以上の実施形態に限定されるべきものではなく、特許請求の範囲に表現された思想および範囲を逸脱することなく、種々の変形、追加、および省略が当業者によって可能である。
たとえば、上記実施形態では、加速度センサおよびジャイロセンサの両方が組み込まれた運動計測装置を例にとって説明したが、本開示はこれに限られず、たとえば、加速度センサのみ、またはジャイロセンサのみを用いることもできる。
また、上記実施形態では、対応区間抽出手段22を有し、対応する分節化された区間を特定する場合を例にとって説明したが、本開示はこれに限られず、対応区間抽出手段22を省略することもできる。この場合、たとえば、予め模範者の規定動作データを計測し、該規定動作データの対応区間を定めておき、動作解析装置20が、被験者に対応区間ごとの姿勢・動作を行うように促すように提示することで、模範者Aと被験者Bの規定動作データの共通する区間を対応づけることができる。
さらに、上記実施形態では、模範者と被験者との利き手・利き足を考慮した例を説明したが、本開示はこれに限られず、特定動作データの種類に応じて、特定動作データが左右対称の動作など利き手・利き足の考慮を省略することもできる。
さらに、上記実施形態では、模範者と被験者との変換行列を1つの場合を例にとって説明したが、本開示はこれに限られず、たとえば、模範者と複数の被験者それぞれに応じた変換行列を算出し、データベース29に記憶させておくことができる。
さらに、上記実施形態では、特定動作データを模範者と被験者共に計測する場合を例にとって説明したが、本開示はこれに限られず、たとえば、模範者の特定動作データのみを計測することもできる。この場合、被験者用の模範特定動作情報を提示することで、被験者に模範者との体格等の相違を考慮して、どのように動作すべきかを予め把握することができる。
さらに、上記実施形態では、模範者Aの規定動作データから被検者Bの規定動作データへの変換行列を算出する場合を説明したが、たとえば、被験者Bの規定動作データから模範者Aの規定動作データへの変換行列を算出することもできる。この場合、上記実施形態のような擬似逆行列変換は不要となる。
さらに、上記各実施形態では、動作解析装置20において、それぞれの処理機能を有する各手段が備えられている構成を説明したが、本開示はこれに限られず、各手段の一部または全部が動作解析装置20と通信可能に接続されたネットワークの他の装置に分散して配されていてもよい。
さらに、動作解析装置20には、用途に応じた各手段がそれぞれ備えられているが、動作解析装置20に備えられている各手段は、そのいくつかを一纏めにして構成されていてもよいし、一つの手段をさらに複数の手段に分割して構成されていてもよい。
1 動作解析システム、
10a〜10e 運動計測装置、
11 加速度センサ、
12 ジャイロセンサ、
20 動作解析装置、
21 規定動作データ取得手段、
22 対応区間抽出手段、
23 左右データ変換手段、
24 特徴量抽出手段、
25 変換行列算出手段、
26 特定動作データ取得手段、
27 生成手段、
28 提示手段。

Claims (8)

  1. 模範者の身体の少なくとも1つの部位、および該部位に対応する被験者の身体の少なくとも1つの部位に装着された運動計測装置を用いて、模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得手段と、
    前記模範者と前記被験者とのそれぞれの規定動作データを用いて、前記模範者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出手段と、
    前記取得された各規定動作データから、前記模範者の規定動作データの模範者特徴量および前記被験者の規定動作データの被験者特徴量を前記部位ごとに抽出する特徴量抽出手段と、
    前記抽出された対応する区間の情報に基づいて、前記模範者の規定動作データの模範者特徴量と前記被験者の規定動作データの被験者特徴量との間の変換行列を前記部位ごとに算出する変換行列算出手段と、
    前記模範者と前記被験者とが特定動作をした場合のそれぞれの特定動作データを取得する特定動作データ取得手段と、
    前記取得された模範者の特定動作データから、前記変換行列を用いて前記被験者用の模範特定動作情報を生成する生成手段と、
    前記取得された被験者の特定動作データに基づく被験者特定動作情報と、前記生成された被験者用の模範特定動作情報を関連付けて提示する提示手段と、を有し、
    前記規定動作データ取得手段は、前記模範者および前記被験者の利き手および利き足の少なくともいずれかの部位に装着された運動計測装置を用いて計測された前記規定動作データを取得し、
    前記部位に関して、前記模範者が右利きである一方で前記被験者が左利きである場合、または前記模範者が左利きである一方で前記被験者が右利きである場合に、該当する部位における前記模範者の規定動作データと被験者の規定動作データとを対応させるようにデータ変換するデータ変換手段をさらに有する動作解析装置。
  2. 模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得する規定動作データ取得手段と、
    前記取得された各規定動作データから、前記模範者の規定動作データの模範者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出する特徴量抽出手段と、
    前記模範者の規定動作データの模範者特徴量と前記被験者の規定動作データの被験者特徴量との間の変換行列を算出する変換行列算出手段と、
    前記模範者の特定動作をした場合の特定動作データを取得する特定動作データ取得手段と、
    前記模範者の特定動作データから、前記変換行列を用いて前記被験者用の模範特定動作情報を生成する生成手段と、
    前記被験者用の模範特定動作情報を提示する提示手段と、
    を有する動作解析装置。
  3. 前記特定動作データ取得手段は、前記被験者の前記特定動作をした場合の特定動作データをさらに取得し、
    前記提示手段は、前記取得された被験者の特定動作データに基づく被験者特定動作情報と、前記被験者用の模範特定動作情報とを関連付けて提示する、請求項2に記載の動作解析装置。
  4. 前記規定動作データ取得手段は、前記模範者および前記被験者の身体の少なくとも1つの部位に装着された運動計測装置を用いて計測された前記規定動作データを取得し、
    前記特徴量抽出手段は、前記部位ごとに前記模範者特徴量、および前記被験者特徴量を抽出し、
    前記変換行列算出手段は、前記部位ごとに、前記模範者特徴量と前記被験者特徴量との間の変換行列を算出する、請求項2に記載の動作解析装置。
  5. 前記模範者と前記被験者とのそれぞれの規定動作データを用いて、前記模範者と前記被験者との各規定動作データの対応する区間を抽出する対応区間抽出手段をさらに有し、
    前記変換行列算出手段は、前記抽出された対応する区間の情報に基づいて、前記模範者特徴量と前記被験者特徴量との間の変換行列を前記部位ごとに算出する、請求項2に記載の動作解析装置。
  6. 前記規定動作データ取得手段は、前記模範者および前記被験者の利き手および利き足の少なくともいずれかの部位に装着された運動計測装置を用いて計測された前記規定動作データを取得し、
    前記部位に関して、前記模範者が右利きである一方で前記被験者が左利きである場合、または前記模範者が左利きである一方で前記被験者が右利きである場合に、該当する部位における前記模範者の規定動作データと被験者の規定動作データとを対応させるようにデータ変換するデータ変換手段をさらに有する、請求項2に記載の動作解析装置。
  7. 前記模範者特徴量および前記被験者特徴量は、加速度成分および角速度成分を少なくとも含む、請求項2に記載の動作解析装置。
  8. 模範者と被験者とが規定動作をした場合のそれぞれの規定動作データを取得し、
    前記取得された各規定動作データから前記模範者の規定動作データの模範者特徴量、および前記被験者の規定動作データの被験者特徴量を抽出し、
    前記模範者特徴量と前記被験者特徴量との間の変換行列を算出し、
    前記模範者の特定動作についての特定動作データを取得し、
    前記取得された模範者の特定動作データから、前記変換行列を用いて前記被験者用の模範特定動作情報を生成し、
    前記被験者用の模範特定動作情報を提示する、動作解析方法。
JP2009282772A 2009-12-14 2009-12-14 動作解析装置、および動作解析方法 Expired - Fee Related JP4590010B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009282772A JP4590010B1 (ja) 2009-12-14 2009-12-14 動作解析装置、および動作解析方法
US12/642,265 US8113843B2 (en) 2009-12-14 2009-12-18 Apparatus for analyzing operations and method for analyzing operations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009282772A JP4590010B1 (ja) 2009-12-14 2009-12-14 動作解析装置、および動作解析方法

Publications (2)

Publication Number Publication Date
JP4590010B1 JP4590010B1 (ja) 2010-12-01
JP2011123411A true JP2011123411A (ja) 2011-06-23

Family

ID=43425677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009282772A Expired - Fee Related JP4590010B1 (ja) 2009-12-14 2009-12-14 動作解析装置、および動作解析方法

Country Status (2)

Country Link
US (1) US8113843B2 (ja)
JP (1) JP4590010B1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509772A (ja) * 2012-02-14 2015-04-02 ピクスフォーマンス・スポーツ・ゲーエムベーハーPixformance Sports Gmbh フィットネス装置およびフィットネス運動の正確な実行を自動的に確認する方法
JP2015100478A (ja) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 運動解析方法、運動解析表示方法、運動解析装置および運動解析プログラム
JP2018117981A (ja) * 2017-01-27 2018-08-02 富山県 手指衛生管理装置、手指衛生管理システムおよび手指衛生管理方法
JP2019020670A (ja) * 2017-07-21 2019-02-07 前田建設工業株式会社 熟練動作教示システム
JP2019020913A (ja) * 2017-07-13 2019-02-07 株式会社東芝 情報処理装置、方法及びプログラム
JP2020013152A (ja) * 2019-09-20 2020-01-23 ソニー株式会社 プログラム、情報処理装置及び情報処理方法
JP2022031286A (ja) * 2017-07-13 2022-02-18 株式会社東芝 情報処理装置、方法及びプログラム
US11556811B2 (en) 2013-05-23 2023-01-17 Sony Corporation Information processing apparatus and storage medium
US11657281B2 (en) 2019-03-15 2023-05-23 Hinge Health, Inc. Method and system for symmetric recognition of handed activities

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590018B1 (ja) * 2010-02-26 2010-12-01 エンパイア テクノロジー ディベロップメント エルエルシー 特徴量変換装置、および特徴量変換方法
US8615136B2 (en) * 2010-10-08 2013-12-24 Industrial Technology Research Institute Computing device and method for motion detection
WO2016130890A1 (en) * 2015-02-13 2016-08-18 Ansarullah Ridwan Mohammed Positional analysis for prayer recognition
US20180049671A1 (en) 2016-08-18 2018-02-22 Timothy W. Markison Wireless in-shoe physical activity monitoring dongle

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63139574A (ja) * 1986-11-29 1988-06-11 ソニー株式会社 動作練習装置
JPH08182786A (ja) * 1994-12-27 1996-07-16 Shinkiyou Denshi Kk 運動体の画像解析装置
JP2794018B2 (ja) * 1989-06-23 1998-09-03 株式会社応用計測研究所 動作診断装置
JPH10274918A (ja) * 1997-03-31 1998-10-13 Uinetsuto:Kk 身体動作練習システムおよび身体動作練習用教材
JPH11308527A (ja) * 1998-04-22 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 画像列並列表示方法および装置並びに画像列並列表示プログラムを記録した記録媒体
JP2002248188A (ja) * 2000-11-29 2002-09-03 Acushnet Co マルチメディア分析システム及びその使用方法
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2004283607A (ja) * 1994-05-26 2004-10-14 Donald B Curchod 運動測定装置
JP2005111178A (ja) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd 動作トレーニング表示システム
JP2007334479A (ja) * 2006-06-13 2007-12-27 Advanced Telecommunication Research Institute International 運転動作解析装置および運転動作解析方法
JP2009282442A (ja) * 2008-05-26 2009-12-03 Hyogo College Of Medicine 手指衛生励行システム
JP2010079443A (ja) * 2008-09-24 2010-04-08 Nippon Hoso Kyokai <Nhk> 手話動画像データ送信装置およびそのプログラム、ならびに、手話動画像生成装置およびそのプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005011178A (ja) * 2003-06-20 2005-01-13 Konica Minolta Photo Imaging Inc プリントシステム及びプリント端末
US20070135225A1 (en) * 2005-12-12 2007-06-14 Nieminen Heikki V Sport movement analyzer and training device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63139574A (ja) * 1986-11-29 1988-06-11 ソニー株式会社 動作練習装置
JP2794018B2 (ja) * 1989-06-23 1998-09-03 株式会社応用計測研究所 動作診断装置
JP2004283607A (ja) * 1994-05-26 2004-10-14 Donald B Curchod 運動測定装置
JPH08182786A (ja) * 1994-12-27 1996-07-16 Shinkiyou Denshi Kk 運動体の画像解析装置
JPH10274918A (ja) * 1997-03-31 1998-10-13 Uinetsuto:Kk 身体動作練習システムおよび身体動作練習用教材
JPH11308527A (ja) * 1998-04-22 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 画像列並列表示方法および装置並びに画像列並列表示プログラムを記録した記録媒体
JP2002248188A (ja) * 2000-11-29 2002-09-03 Acushnet Co マルチメディア分析システム及びその使用方法
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2005111178A (ja) * 2003-10-10 2005-04-28 Matsushita Electric Works Ltd 動作トレーニング表示システム
JP2007334479A (ja) * 2006-06-13 2007-12-27 Advanced Telecommunication Research Institute International 運転動作解析装置および運転動作解析方法
JP2009282442A (ja) * 2008-05-26 2009-12-03 Hyogo College Of Medicine 手指衛生励行システム
JP2010079443A (ja) * 2008-09-24 2010-04-08 Nippon Hoso Kyokai <Nhk> 手話動画像データ送信装置およびそのプログラム、ならびに、手話動画像生成装置およびそのプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509772A (ja) * 2012-02-14 2015-04-02 ピクスフォーマンス・スポーツ・ゲーエムベーハーPixformance Sports Gmbh フィットネス装置およびフィットネス運動の正確な実行を自動的に確認する方法
US11556811B2 (en) 2013-05-23 2023-01-17 Sony Corporation Information processing apparatus and storage medium
JP2015100478A (ja) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 運動解析方法、運動解析表示方法、運動解析装置および運動解析プログラム
JP2018117981A (ja) * 2017-01-27 2018-08-02 富山県 手指衛生管理装置、手指衛生管理システムおよび手指衛生管理方法
JP2019020913A (ja) * 2017-07-13 2019-02-07 株式会社東芝 情報処理装置、方法及びプログラム
JP2022031286A (ja) * 2017-07-13 2022-02-18 株式会社東芝 情報処理装置、方法及びプログラム
JP7268121B2 (ja) 2017-07-13 2023-05-02 株式会社東芝 情報処理装置、方法及びプログラム
JP2019020670A (ja) * 2017-07-21 2019-02-07 前田建設工業株式会社 熟練動作教示システム
JP7122090B2 (ja) 2017-07-21 2022-08-19 前田建設工業株式会社 熟練動作教示システム
US11657281B2 (en) 2019-03-15 2023-05-23 Hinge Health, Inc. Method and system for symmetric recognition of handed activities
JP2020013152A (ja) * 2019-09-20 2020-01-23 ソニー株式会社 プログラム、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
US8113843B2 (en) 2012-02-14
US20110140929A1 (en) 2011-06-16
JP4590010B1 (ja) 2010-12-01

Similar Documents

Publication Publication Date Title
JP4590010B1 (ja) 動作解析装置、および動作解析方法
Slade et al. An open-source and wearable system for measuring 3D human motion in real-time
US20220335851A1 (en) Identification and analysis of movement using sensor devices
D’Antonio et al. A markerless system for gait analysis based on OpenPose library
CA2834833C (en) Running form diagnostic system and method for scoring running form
Wong et al. Clinical applications of sensors for human posture and movement analysis: a review
Barshan et al. Recognizing daily and sports activities in two open source machine learning environments using body-worn sensor units
Altun et al. Comparative study on classifying human activities with miniature inertial and magnetic sensors
JP4590018B1 (ja) 特徴量変換装置、および特徴量変換方法
JP5388473B2 (ja) 較正ユニットを使った動作追跡のためのシステムと方法
US20110246123A1 (en) Personal status monitoring
Byun et al. Walking-speed estimation using a single inertial measurement unit for the older adults
Lin et al. Novel assembled sensorized glove platform for comprehensive hand function assessment by using inertial sensors and force sensing resistors
Surer et al. Methods and technologies for gait analysis
Yahya et al. Accurate shoulder joint angle estimation using single RGB camera for rehabilitation
Spasojević et al. A vision-based system for movement analysis in medical applications: the example of Parkinson disease
Mohammadzadeh et al. Feasibility of a wearable, sensor-based motion tracking system
Reiss et al. Activity recognition using biomechanical model based pose estimation
Zebin et al. Inertial sensing for gait analysis and the scope for sensor fusion
Ricci et al. An experimental protocol for the definition of upper limb anatomical frames on children using magneto-inertial sensors
JP2019103609A (ja) 動作状態推定装置、動作状態推定方法及びプログラム
Bleser et al. Human motion capturing and activity recognition using wearable sensor networks
US10549426B2 (en) Method for estimating movement of a poly-articulated mass object
Maradani et al. The role of visualization in tele-rehabilitation: a case study
JP7465842B2 (ja) 作業支援システム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100910

R150 Certificate of patent or registration of utility model

Ref document number: 4590010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees