JP7107264B2 - 人等の身体動作推定システム - Google Patents
人等の身体動作推定システム Download PDFInfo
- Publication number
- JP7107264B2 JP7107264B2 JP2019053799A JP2019053799A JP7107264B2 JP 7107264 B2 JP7107264 B2 JP 7107264B2 JP 2019053799 A JP2019053799 A JP 2019053799A JP 2019053799 A JP2019053799 A JP 2019053799A JP 7107264 B2 JP7107264 B2 JP 7107264B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- time
- values
- motion
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0024—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system for multiple sensor units attached to the patient, e.g. using a body or personal area network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6823—Trunk, e.g., chest, back, abdomen, hip
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7285—Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
- A61B5/7292—Prospective gating, i.e. predicting the occurrence of a physiological event for use as a synchronisation signal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
人等の体幹に装着され、前記人等の動作に伴って変化する値をセンサ計測値として時系列に計測するセンサと、
基準時刻以前の第一の時間幅に亙って前記センサにより時系列に計測されたセンサ計測値を用いて、推定時刻に於いて推定される前記人等の動作として前記人等の身体に於ける複数の所定部位の前記推定時刻に於ける位置の各々を表す位置推定値を推定する動作推定手段とを
含み、
前記動作推定手段が、前記人等が所定の動作をしている間に前記センサにより時系列に計測された学習用センサ計測値とそれらの学習用センサ計測値が計測された際に取得された前記人等の身体に於ける前記複数の所定部位の位置を表す教師用位置参照値とを学習データとして用いて、前記学習データに於ける前記学習用センサ計測値の各々が計測された学習用センサ計測時刻以前の前記第一の時間幅に亙る前記学習用センサ計測値に基づいて、前記学習データに於ける前記学習用データ計測時刻に対する時間差が前記基準時刻に対する前記推定時刻の時間差と同一である正解参照時刻に於ける前記人等の身体に於ける前記複数の所定部位の前記教師用位置参照値を出力するように機械学習モデルのアルゴリズムに従って学習し、前記基準時刻以前の第一の時間幅に亙って前記センサにより時系列に計測されたセンサ計測値に基づいて、前記推定時刻に於いて推定される前記人等の身体に於ける前記複数の所定部位の位置推定値を出力するよう構成されているシステムによって達成される。
2…コンピュータ装置
3…モニター
4…キーボード、マウス(入力装置)
10…動作推定装置
12…機械学習装置
P…被検者
図1(A)を参照して、本発明による人等の動作推定システムの一つの実施形態に於いては、まず、人等である被検者Pの体幹、例えば、頭部、頸部、胸部、腹部、腰部、臀部に於いて、動作推定のために参照される、被検者Pの動作に伴って変化する値(センサ計測値)を計測するセンサが収容された筐体1が装着される。筐体1は、図示の如く、被検者Pの体の向きや運動に対してできるだけ影響を与えずに、被検者が普段通りに行動している状態でセンサの計測が可能な比較的コンパクトで携帯可能な寸法に形成されることが好ましい。かかる筐体1に収容されるセンサは、典型的には、加速度センサであり、センサ計測値として加速度値が採用される。その場合、加速度値は、少なくとも1軸方向の加速度値であってよく、好適には、互いに異なる3軸方向の加速度値であってよく、3軸の方向は、1軸が他の2軸を含む平面に交差するよう選択される。加速度センサには、典型的には、一つのデバイスにて3軸方向の加速度値の計測できる3軸加速度センサが有利に用いられるが、これに限定されず、3軸方向の加速度値が計測できれば、任意の形式のものであってよい。また、加速度センサには、被検者Pの体幹の向きの変化に伴う筐体1の向きの変化によって生ずる加速度値の計測軸に対する重力ベクトルの射影距離の変化(即ち、筐体1の向きの変化に伴う加速度計測軸方向の重力ベクトルの成分の変化)及び/又は被検者の動作に伴って筐体1に作用する加速度を計測できる感度を有するものが用いられる。なお、センサとして、ジャイロセンサ等が採用され、センサ計測値として角加速度値など、人等の動作に伴って変化するその他の値が採用されてもよい(センサ計測値は、複数の種類の計測値であってもよい。)。そして、本実施形態のシステムに於いて、典型的には、センサの人等の体幹に於ける装着数は、一つのみでよく、センサ計測値がセンサの装着部位に於いて計測される(ただし、人等の体幹に装着されるセンサ数は複数であってもよい。)。センサを収容する筐体1の形態は、採用されるセンサの形態に応じて種々のものであってよいことは理解されるべきである。
(1)動作推定の原理と概要
「発明の概要」の欄に於いても説明されている如く、人等の身体の各部位は互いに連結しているので、人等が種々の動作をする際に、人等の身体に於ける各部位の位置は、体幹の一部の動きと相関を有している。かかる人等の体幹の動きは、人等の体幹に加速度センサなどのセンサにより観測される状態(人等の動作に伴って変化する値)にて検知することが可能である。例えば、加速度センサの場合であれば、図2(A)~(C)に描かれている如く、加速度センサ1が装着された人等Pの姿勢が立位(A)から座位(B)に着座する動作に於いて、加速度センサの向きが変わり、加速度センサ1にて計測される重力ベクトルに対応する加速度値の大きさが変化するので、体幹の動きが加速度センサ1により計測される加速度値が検知されることとなる。また、人等が種々の動作をする際に於いて、極端に不自然な動作でない限り、人等の身体に於ける各部位の位置は、時間の経過と共に連続的に変化するので、或る時点に於ける人等の各部位の位置は、その時点の前及び/又は後の時点の人等の各部位の位置と相関を有している。従って、或る時点に於ける人等の動作の兆候は、その時点よりも前の時点に於いて人等の体幹の動きに現れていると考えられるので、人等の体幹の動きに於いて、人等の将来の、まだ、起きていない、動作の兆候(各部位が或る位置へ移動する兆候)を捉えることにより、人等の将来の動作を予測することが可能である。即ち、図2(D)に模式的に描かれている如く、推定時刻Tpに於ける人等の動作の結果の状態、即ち、人等の身体の各部位の位置は、推定時刻Tpよりも時間幅ΔT2だけ前の基準時刻Tr以前の時間幅ΔT1の区間に於いて計測された人等の体幹の動きに於ける「動作の兆候」を用いて予測することが可能である。また、同様に、或る時点に於ける人等の動作は、その時点の前及び/又は後の時点の人等の体幹の動きに反映されている(動作の影響が現れている)と考えられるので、人等の体幹の動きに於いて、人等の現在又は過去の動作の影響を捉えることにより、人等の現在又は過去の動作を推定することも可能である。即ち、図2(E)、(F)に模式的に描かれている如く、推定時刻Tpに於ける人等の動作、即ち、人等の身体の各部位の位置は、推定時刻Tpよりも時間幅ΔT2だけ後の基準時刻Tr以前の時間幅ΔT1の区間に於いて計測された人等の体幹の動きに於ける「動作の影響」を用いて推定することが可能である。
ところで、上記の本実施形態のシステムに於いて、推定器の入力となるセンサ計測値は、人等である被検者Pの体幹に装着されたセンサの計測値であるので、被検者Pの向いている方向又は方角についての情報を含んでいない(センサ計測値が加速度値である場合、重力方向のみが検知可能な方向である。)。即ち、被検者Pがいずれの方向又は方角を向いていても、(重力方向に対して)同じ動作が行われた場合には、センサ計測値は、通常、同じ値となる。一方、推定器の機械学習のための学習データとして使用される人等の身体の各部位の位置情報には、既に述べた如く、通常は、モーションキャプチャシステムなどの位置計測手段により計測された位置計測値が用いられるところ、かかる位置計測値は、位置計測手段の設置場所或いは観測対象となる人等が配置される場所に固定された位置計測空間に於ける三次元の座標値であるのが一般的であるので、観測される人等が同じ動作を行っていても、位置計測空間に対する向きが異なると、異なる値となる。そのような位置計測値にて表された人等の身体の各部位の位置情報をそのまま推定器のための学習データとして用いた場合、人等が或る同じ動作を行い、センサ計測値が同じ値となっても、人等の向いている方向が異なる場合には、人等の身体の各部位の位置情報が異なることとなり、推定器のための学習が適切に達成されないこととなり得る(或る一つの入力パターンに対して、複数の正解値が存在すると、推定器のパラメータが一義的に決定できなくなり、出力が不安定となり得る。)。従って、適切な学習が達成するためには、人等が或る同じ動作を行う場合には、人等の身体の各部位の位置情報も同様となっていることが好ましい。そのためには、人等の身体の各部位の位置情報は、人等の方向によらず、人等に固定された座標空間(人等固定空間)に於ける座標値にて表されていることが好ましい。
Sr=(Rx,Ry,Rz) …(1a)
Sl=(Lx,Ly,Lz) …(1b)
であるとき、中点Scの座標値は、
Sc=((Rx+Lx)/2,(Ry+Ly)/2,(Rz+Lz)/2) …(2)
により与えられる。ここで、人等固定空間(xr-yr-zr空間)を、図3(B)に描かれている如く、中点Scのxm-ym平面への射影点Sc’を原点とし、右肩部Srと左肩部Slとを結ぶ線Sr-Slのxm-ym平面への射影線Sr’-Sl’の延在方向がxr軸に一致するように定義する。そうすると、位置計測空間から人等固定空間への座標変換は、人等の身体の各部位の位置をSc’だけ平行移動し、更に、線Sr’-Sl’とxm軸との角度βだけz軸周りに回転することに相当する。かくして、人等の身体の各部位の位置計測値A
A=(ax,ay,az) …(3)
は、まず、Sc’だけ平行移動されて、
A+=A-Sc’ …(4)
に変換される。ここで、Sc’は、
Sc’=((Rx+Lx)/2,(Ry+Ly)/2,0) …(5)
である。また、このとき、右肩部Srは、
Sr+=(Rx+,Ry+,Rz+)=Sr-Sc’ …(6)
に変換される。そうすると、線Sr’-Sl’とxm軸との角度βは、
β=-arctan(Ry+/Rx+) …(7)
にて与えられる。そして、A+を下記の如くzm軸周りに角度βだけ回転すると、人等の身体の各部位の位置が人等固定空間(xr-yr-zr空間)に於ける座標値で表された変換後の各部位の座標値A++が得られることとなる。
A++=C・A+ …(8)
ここで、
本実施形態のシステムの人等の動作の推定に於いては、図4(A)に示されている如く、センサ計測値(加速度値)の取得(ステップ1~2)、特徴量の算出・記憶(ステップ3)、動作の推定(ステップ4~5)、推定結果の表示(ステップ6)が順々に実行され、推定結果が出力されてよい。以下、各処理について説明する。
動作の推定のために計測されるセンサ計測値(加速度値)は、上記の如く、被検者Pの体幹に装着された加速度センサ等のセンサにより、時系列に計測され記憶される(ステップ1)。後の処理に於いては、これらの計測値の時系列データから、図4(C)に模式的に示されている如きエポックという単位毎に算出される特徴量が推定器の入力データとして用いられてよく、その場合には、センサ計測値の計測が1エポック完了毎に、次の処理が実行されることとなる。なお、一つのエポックは、前後のエポックと重複していても(前後のエポックと重複する割合は任意に変更されてよい。)、重複していなくてもよい。図示の如く、例えば、0.5秒幅のエポックが、0.05秒間ずつ順々にシフトしていくようになってよく、各エポックの終了時Ct1、Ct2…に於いて各エポックに於ける時系列の計測データを用いて特徴量が抽出又は算出されることとなる。この場合、図4(A)に示されている如く、各エポックが完了するまで、センサ計測値の計測と記憶(ステップ1)が反復して実行され、エポックの完了毎(ステップ2)に次の処理が実行されることとなる(ステップ3)。なお、推定器に入力する特徴量として、任意に設定されてよい所定の時間間隔毎のセンサ計測値そのものが採用されてもよく、その場合には、1エポック毎にセンサ計測値の計測・記憶は実行されず、逐次的に、センサ計測値の計測・記憶が実行されてよい。
センサ計測値の取得が為されると、推定器への入力となるセンサ計測値の特徴量が抽出又は算出され、記憶される。かかる特徴量は、センサ計測値の各エポック内の時系列データから適宜選択されてよい。典型的は、特徴量として、時系列データの所定の時間毎の統計量が採用されよい。具体的には、特徴量としては、例えば、エポック毎のセンサ計測値の最大値、最小値、中央値、分散、自己相関値、ピリオドグラム(周波数特徴量)などが利用可能である。また、上記の如く、特徴量は、所定の時間間隔毎のセンサ計測値そのものであってよい。センサ計測値として、3軸方向の加速度値が用いられる場合には、3軸方向の加速度値の上記の特徴量が用いられる。その場合、各エポック又は各時点にて、3つの特徴量が算出又は抽出されることとなる。なお、上記の各特徴量は、それぞれ算出された後に正規化(Zスコア変換)されてもよい。正規化特徴量Xは、下記の如く与えられる。
X=(x-xa)/σx …(10)
ここで、x、xa、σxは、正規化前の特徴量、その全エポックの平均値又は中央値、標準偏差である(xa、σxは、それまでの計測された全エポックについての値であってよい。)。かかる正規化により、個人差、個人内差(体調、季節などによる違い)が取り除かれ、推定精度が向上することが可能となる。
かくして、センサ計測値の特徴量が取得されると、動作の推定が可能か否かが判定される(ステップ4)。既に述べた如く、本実施形態のシステムの被検者の動作の推定を行う推定器は、基準時刻以前の特徴量収集区間ΔT1に亙るセンサ計測値の特徴量を参照して、推定時刻に於ける被検者Pの動作状態を出力するよう構成されているので、特徴量収集区間ΔT1に亙る特徴量が蓄積されるまでは、動作の推定が可能でないと判定して、動作の推定をせずに、特徴量の蓄積が繰り返されてよい(ステップ1へ)。そして、特徴量が特徴量収集区間ΔT1に亙って蓄積されると(ステップ4)、動作の推定処理(ステップ5)が実行される。
上記の動作の推定処理に於いて出力された位置推定値を参照することにより、推定時刻Tpに於ける被検者Pの身体の各部位の位置が推定できることとなる。そこで、出力された位置推定値を用いて、被検者Pの身体の動作状態が、例えば、コンピュータ装置2のモニター3上に於いて、画像として可視化されてよい。その場合、被検者Pの動作を認識しやすいように、身体に於いて連結されている部位に相当するプロット点が線で結ばれていてもよい(図6参照)。また、被検者Pの身体が存在すると推定される領域が表示されてもよい。或いは、位置推定値の情報が外部の任意の機器やシステムへ供給され、種々の用途にて利用できるようになっていてよい。
既に述べた如く、上記の本実施形態のシステムの姿勢の推定に於いては、被検者の動作の推定のための推定器のパラメータが、予め機械学習の手法によって決定され、メモリに記憶される。
本実施形態のシステムに於いては、人等が種々の動作を行った際に計測されるセンサ計測値について予め学習しておくことにより、被検者にて計測されるセンサ計測値に基づいて被検者の種々の動作を推定することが可能となる。この点に関し、もし被検者の姿勢又は運動状態が、別の方法により、或る程度、絞り込まれている場合には、その絞り込まれた状態に於いて取得された学習データを用いた学習により構築された推定器を使用した方が推定精度の向上することが期待される。
上記に説明した本実施形態の有効性を検証するために、以下の如き実験を行った。なお、以下の実施例は、本実施形態の有効性を例示するものであって、本発明の範囲を限定するものではないことは理解されるべきである。
Claims (13)
- 人又は動物又は歩行型ロボット(以下、「人等」と称する。)の動作を推定するシステムであって、
人等の体幹に装着され、前記人等の動作に伴って変化する加速度値をセンサ計測値として時系列に計測する加速度センサであるセンサと、
基準時刻以前の第一の時間幅に亙って前記センサにより時系列に計測されたセンサ計測値を用いて、推定時刻に於いて推定される前記人等の動作として前記人等の身体に於ける複数の所定部位の前記推定時刻に於ける位置の各々を表す位置推定値を推定する動作推定手段とを
含み、
前記動作推定手段が、前記人等が所定の動作をしている間に前記センサにより時系列に計測された学習用センサ計測値とそれらの学習用センサ計測値が計測された際に取得された前記人等の身体に於ける前記複数の所定部位の位置を表す教師用位置参照値とを学習データとして用いて、前記学習データに於ける前記学習用センサ計測値の各々が計測された学習用センサ計測時刻以前の前記第一の時間幅に亙る前記学習用センサ計測値に基づいて、前記学習データに於ける前記学習用センサ計測時刻に対する時間差が前記基準時刻に対する前記推定時刻の時間差と同一である正解参照時刻に於ける前記人等の身体に於ける前記複数の所定部位の前記教師用位置参照値を出力するように機械学習モデルのアルゴリズムに従って学習し、前記基準時刻以前の第一の時間幅に亙って前記センサにより時系列に計測されたセンサ計測値に基づいて、前記推定時刻に於いて推定される前記人等の身体に於ける前記複数の所定部位の位置推定値を出力するよう構成され、
前記推定時刻が前記基準時刻から第二の時間幅の時間の経過後の時刻であるシステム。 - 請求項1のシステムであって、前記センサ計測値が互いに異なる3軸方向の加速度値であるシステム。
- 請求項1又は2のシステムであって、前記センサが前記人等の体幹の一箇所のみに装着され、前記センサ計測値が前記センサの装着部位に於いて計測されるシステム。
- 請求項1乃至3のいずれかのシステムであって、前記人等の身体に於ける複数の所定部位が前記人等の頭部、背骨部、右肩部、左肩部及び腰部を含むシステム。
- 請求項4のシステムであって、前記人等の身体に於ける複数の所定部位が更に前記人等の右脚部、左脚部、右足部、左足部を含むシステム。
- 請求項5のシステムであって、前記人等の身体に於ける複数の所定部位が更に前記人等の右腕部、左腕部、右手部、左手部を含むシステム。
- 請求項1乃至6のいずれかのシステムであって、前記教師用位置参照値及び前記位置推定値が前記人等に固定された座標空間に於ける座標値にて表されているシステム。
- 請求項7のシステムであって、前記人等に固定された座標空間が前記人等の左右方向が所定の方向に向くよう設定されている座標空間であるシステム。
- 請求項7又は8のシステムであって、前記教師用位置参照値が、位置計測空間に於いて前記人等の身体に於ける前記複数の所定部位の位置の座標値を計測する位置計測手段を用いて前記人等が前記所定の動作をしている間に前記人等の身体に於ける前記複数の所定部位の位置を表す位置計測空間に於ける座標値である教師用位置計測値を計測し、前記教師用位置計測値に対して前記位置計測空間から前記人等に固定された座標空間への座標変換演算を実行することによって得られた値であるシステム。
- 請求項9のシステムであって、前記座標変換演算に於いて、前記学習データの各時点に於ける前記人等に於いて左右対称な位置関係にある一対の部位の前記教師用位置計測値を選択し、前記選択された前記教師用位置計測値を結ぶ線の延在方向に前記人等に固定された座標空間に於ける所定の方向を一致させる座標変換演算を前記人等の身体に於ける前記複数の所定部位の前記教師用位置計測値に対して実行して前記人等の身体に於ける前記複数の所定部位の前記教師用位置参照値を算出するシステム。
- 請求項1乃至10のいずれかのシステムであって、前記学習データを用いた機械学習により、前記動作推定手段が前記学習データに於ける前記学習用センサ計測値の各々が計測された学習用センサ計測時刻以前の前記第一の時間幅に亙る前記学習用センサ計測値に基づいて、前記学習データに於ける前記正解参照時刻の前記人等の身体に於ける前記複数の所定部位の前記教師用位置参照値を出力するように前記動作推定手段に於ける機械学習モデルのパラメータを決定する機械学習モデルパラメータ決定手段を含み、前記動作推定手段が、前記パラメータを用いて前記位置推定値を決定するシステム。
- 請求項1乃至11のいずれかのシステムであって、前記機械学習モデルがニューラルネットワークであり、前記動作推定手段が、ニューラルネットワークの機械学習により、前記基準時刻以前の第一の時間幅に亙って計測された前記センサ計測値又はその特徴量を入力データとして受容すると前記推定時刻に於ける前記人等の前記位置推定値を出力するよう構成されているシステム。
- 請求項1乃至12のいずれかのシステムであって、前記動作推定手段の出力した前記推定時刻に於ける前記人等の身体に於ける複数の所定部位の位置推定値を表示する推定動作表示手段を含むシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019053799A JP7107264B2 (ja) | 2019-03-20 | 2019-03-20 | 人等の身体動作推定システム |
US16/806,382 US20200297243A1 (en) | 2019-03-20 | 2020-03-02 | System for estimating body motion of person or the like |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019053799A JP7107264B2 (ja) | 2019-03-20 | 2019-03-20 | 人等の身体動作推定システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020151267A JP2020151267A (ja) | 2020-09-24 |
JP7107264B2 true JP7107264B2 (ja) | 2022-07-27 |
Family
ID=72515174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019053799A Active JP7107264B2 (ja) | 2019-03-20 | 2019-03-20 | 人等の身体動作推定システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200297243A1 (ja) |
JP (1) | JP7107264B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082376A1 (ja) * | 2017-10-27 | 2019-05-02 | 株式会社アシックス | 動作状態評価システム、動作状態評価装置、動作状態評価サーバ、動作状態評価方法、および動作状態評価プログラム |
JP7020263B2 (ja) * | 2018-04-17 | 2022-02-16 | 富士通株式会社 | 体向き推定プログラム、体向き推定装置、及び体向き推定方法 |
US20200107750A1 (en) * | 2018-10-03 | 2020-04-09 | Surge Motion Inc. | Method and system for assessing human movements |
US20240241576A1 (en) * | 2021-05-28 | 2024-07-18 | Kyocera Corporation | Information processing apparatus, electronic device, information processing system, method for processing information, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012238072A (ja) | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
JP2018000229A (ja) | 2016-06-27 | 2018-01-11 | 日本電信電話株式会社 | 自動教師データ作成装置、自動教師データ作成方法および自動教師データ作成プログラム |
US20180070864A1 (en) | 2016-06-02 | 2018-03-15 | Matthew Schuster | Methods and devices for assessing a captured motion |
US20190033974A1 (en) | 2017-07-27 | 2019-01-31 | Facebook Technologies, Llc | Armband for tracking hand motion using electrical impedance measurement |
-
2019
- 2019-03-20 JP JP2019053799A patent/JP7107264B2/ja active Active
-
2020
- 2020-03-02 US US16/806,382 patent/US20200297243A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012238072A (ja) | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
US20180070864A1 (en) | 2016-06-02 | 2018-03-15 | Matthew Schuster | Methods and devices for assessing a captured motion |
JP2018000229A (ja) | 2016-06-27 | 2018-01-11 | 日本電信電話株式会社 | 自動教師データ作成装置、自動教師データ作成方法および自動教師データ作成プログラム |
US20190033974A1 (en) | 2017-07-27 | 2019-01-31 | Facebook Technologies, Llc | Armband for tracking hand motion using electrical impedance measurement |
Also Published As
Publication number | Publication date |
---|---|
US20200297243A1 (en) | 2020-09-24 |
JP2020151267A (ja) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7107264B2 (ja) | 人等の身体動作推定システム | |
Slade et al. | An open-source and wearable system for measuring 3D human motion in real-time | |
Bonnet et al. | Monitoring of hip and knee joint angles using a single inertial measurement unit during lower limb rehabilitation | |
CN102567638B (zh) | 一种基于微型传感器的交互式上肢康复系统 | |
Wang et al. | Using wearable sensors to capture posture of the human lumbar spine in competitive swimming | |
Baghdadi et al. | Hip and trunk kinematics estimation in gait through Kalman filter using IMU data at the ankle | |
WO2018196227A1 (zh) | 人体运动能力评价方法、装置及系统 | |
Wang et al. | Inertial sensor-based analysis of equestrian sports between beginner and professional riders under different horse gaits | |
US8868369B2 (en) | Gait monitor | |
CN115954081A (zh) | 膝关节置换术后远程智能康复方法及系统 | |
Bai et al. | Quantitative assessment of upper limb motion in neurorehabilitation utilizing inertial sensors | |
CN114224325A (zh) | 利用惯性传感器计算关节力矩和角度的步态分析系统及方法 | |
Palani et al. | Real-time joint angle estimation using mediapipe framework and inertial sensors | |
Chen et al. | IMU-based estimation of lower limb motion trajectory with graph convolution network | |
Barua et al. | Deep learning techniques in estimating ankle joint power using wearable IMUs | |
KR20230120341A (ko) | 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법 및 시스템 | |
Sun et al. | An artificial neural network framework for lower limb motion signal estimation with foot-mounted inertial sensors | |
Kumar et al. | Vision-based human joint angular velocity estimation during squat and walking on a treadmill actions | |
CN117109567A (zh) | 用于动感单车运动的骑行姿态监测方法、系统以及穿戴式骑行姿态监测设备 | |
El Fezazi et al. | A convenient approach for knee kinematics assessment using wearable inertial sensors during home-based rehabilitation: Validation with an optoelectronic system | |
Hendry et al. | Development of a machine learning model for the estimation of hip and lumbar angles in ballet dancers | |
Vartiainen et al. | Nonlinear state-space modeling of human motion using 2-D marker observations | |
Sprint et al. | Designing wearable sensor-based analytics for quantitative mobility assessment | |
Alemayoh et al. | LocoESIS: Deep-Learning-Based Leg-Joint Angle Estimation from a Single Pelvis Inertial Sensor | |
CN114053679A (zh) | 运动训练方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7107264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |