JP2016140591A - 動作解析評価装置、動作解析評価方法、及びプログラム - Google Patents

動作解析評価装置、動作解析評価方法、及びプログラム Download PDF

Info

Publication number
JP2016140591A
JP2016140591A JP2015019125A JP2015019125A JP2016140591A JP 2016140591 A JP2016140591 A JP 2016140591A JP 2015019125 A JP2015019125 A JP 2015019125A JP 2015019125 A JP2015019125 A JP 2015019125A JP 2016140591 A JP2016140591 A JP 2016140591A
Authority
JP
Japan
Prior art keywords
subject
walking
distance image
data
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015019125A
Other languages
English (en)
Inventor
佐藤 公則
Kiminori Sato
公則 佐藤
渡邊 睦
Mutsumi Watanabe
睦 渡邊
雅之 鹿嶋
Masayuki Kashima
雅之 鹿嶋
悠 宮脇
Yu Miyawaki
悠 宮脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Original Assignee
Kagoshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC filed Critical Kagoshima University NUC
Priority to JP2015019125A priority Critical patent/JP2016140591A/ja
Publication of JP2016140591A publication Critical patent/JP2016140591A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】身体動作の解析及び評価の対象者への負担が少なく、安価で容易に導入が可能で、身体動作に関して定量的な評価を可能にする装置を提供する。
【解決手段】データ取得部31は、被験者の後姿の撮影した距離画像のデータと横姿を撮影した距離画像のデータとを取得する。パラメータ算出部33は、距離画像のデータを解析して被験者の歩行動作に関する歩行パラメータを算出する。定量化演算部34は、歩行パラメータに基づいて、被験者の歩行動作の評価情報を演算する。
【選択図】図2

Description

本発明は、歩行等の動作解析と評価を行う動作解析評価装置、動作解析評価方法、及びプログラムに関するものである。
従来、歩行機能等の回復を目的としたリハビリテーションの効果を評価するための評価システムや運動計測システムでは、患者等の歩行動作を解析するための装置として、例えば床反力計測装置やモーションセンサ、モーションキャプチャなどが用いられている。
例えば、特許文献1には、ペダルへの荷重を検出して、ペダルに荷重が及ぼされるときに、その荷重に応じた負荷を及ぼすように形成されていることで、例えば高齢者や障害者が下肢の訓練を行う際に、自らの脚力に応じて脚の伸展及び屈曲を行い得る下肢筋力評価・訓練装置が開示されている。また例えば、特許文献2には、実際の歩行と同様に立位歩行時の床反力を受けることができ、訓練者の歩行の位相に応じて股・膝・足関節を協調動作したり、歩幅を拡大、縮小したり、歩行周期を延長、短縮したりする訓練を実施可能とした歩行訓練装置が開示されている。さらに例えば、特許文献3には、歩行周期に合わせて股・膝・足関節駆動部を駆動し、両下肢を協調させて動作させるとともに、生体情報計測手段により計測された生体情報を基に訓練者の訓練状況を評価し、訓練者の歩幅と歩行周期の一方あるいは両方を変更することができる歩行訓練装置が開示されている。
特開2008−99727号公報 特開2005−211086号公報 特開2005−74063号公報
ところで、前述のような従来の評価システムや運動計測システム、歩行訓練装置では、リハビリテーションが必要な患者に対して様々な装置を装着することによる負担が大きいという問題がある。また、リハビリテーションによる歩行機能等の改善度を正確且つ定量的に評価することは難しく、リハビリテーションを進める際に効果的なフィードバックを行うためには、正確な評価が可能な専用の評価装置や高度な知識を持った専門家が必要となる。しかしながら、専用の評価装置は高額であり、装置も大掛かりなものが必要となって、簡単に導入できるとは言い難い。
本発明はこのような問題点に鑑みてなされたものであり、身体動作の解析及び評価の対象者への負担が少なく、安価で容易に導入が可能で、身体動作に関して定量的な評価を可能とする動作解析評価装置、動作解析評価方法、及びプログラムを提供することを目的とする。
本発明の動作解析評価装置は、身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得手段と、前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出手段と、前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算手段とを有することを特徴とする。
本発明の動作解析評価方法は、動作解析評価装置が実行する動作解析評価方法であって、身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得ステップと、前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出ステップと、前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算ステップとを含むことを特徴とする。
本発明のプログラムは、コンピュータを、身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得手段と、前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出手段と、前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算手段として機能させる。
本発明によれば、身体動作の解析及び評価の対象者への負担が少なく、安価で容易に導入が可能で、身体動作に関して定量的な評価が可能となる。
本実施形態の動作解析評価装置の概略的なシステム構成例を示す図である。 本実施形態の情報処理装置の概略構成の説明に用いる図である。 情報処理装置の制御・演算部におけるデータ取得から評価情報の算出までの処理の流れを示すフローチャートである。 被験者(患者)の後姿と骨格認識、身体部位、重心等の説明に用いる図である。 被験者(健常者)の後姿と骨格認識、身体部位、重心等の説明に用いる図である。 身体の14部位の説明に用いる図である。 被験者(患者)の横姿と骨格認識、重心等の説明に用いる図である。 被験者(健常者)の横姿と骨格認識、重心等の説明に用いる図である。 被験者の脚角度と脚角度の説明に用いる図である。 被験者(患者)の歩行動作における足部のx座標と時間との関係を示す図である。 被験者(健常者)の歩行動作における足部のx座標と時間との関係を示す図である。 患者と健常者における歩行動作の立脚期間と遊脚期間の割合の一例を示す図である。 被験者(健常者)の歩行動作中の重心移動と時間との関係を示す図である。 被験者である健常者と患者の歩行動作中の重心移動の比較に用いる図である。 被験者である健常者と患者の歩行動作中の重心移動推移の比較に用いる図である。 被験者である健常者と患者の歩行動作中の重心座標のヒストグラムによる評価の説明に用いる図である。 被験者である健常者と患者の歩行動作中の重心位置を分散により数値化した一例を示す図である。 被験者である健常者と患者の歩行動作中の膝角度の比較による評価の説明に用いる図である。 被験者である健常者と患者の歩行動作中の足角度の比較による評価の説明に用いる図である。 被験者(患者)の過去と現在の、膝角度のフーリエ解析結果による評価の説明に用いる図である。 被験者(患者)の過去と現在の、歩行周期外に現われる不安定特徴量の説明に用いる図である。 被験者(患者)の過去と現在の、歩行周期外に現われる不安定特徴量の割合に基づく評価の説明に用いる図である。 被験者(患者)の過去と現在の、歩行周期外に現われる不安定特徴量と割合の数値の一例を示す図である。
図1には、本発明実施形態の動作解析評価装置の概略的なシステム構成の一例を示す。図1に示すように、本実施形態に係る動作解析評価装置は、例えば二つの距離画像センサ11,12と、情報処理装置20とを有して構成されている。なお、図1のシステム構成には、トレッドミル13も含まれている。トレッドミル13は、被験者1がコンベア上を歩行するために用意されている。
距離画像センサ11,12は、RGBのカラー画像を撮影するRGBカメラと、所定のパターンの赤外光を投影するIRプロジェクタと、赤外光を撮影するIRカメラとを有し、IRプロジェクタとIRカメラにより距離画像の撮影が可能となされ、またRGBカメラによりカラー動画像の撮影が可能となされた、RGB−Dカメラである。なお、距離画像とは、各画素値が色や濃淡の値からなる通常の画像ではなく、各画素値が距離画像センサから撮影対象物までの距離に応じた値となっている画像である。これら距離画像センサ11,12は、一例としてマイクロソフト社のKinect(商標)等を用いることができる。
また本実施形態において、距離画像センサ11は被験者1の横姿の距離画像とカラー画像を同時に撮影するために設置されており、距離画像センサ12は被験者1の後姿の距離画像とカラー画像を同時に撮影するために設置されている。なお、被験者1が歩行機能に関するリハビリテーションを行っている患者であり、例えば右脚側に障害があるような場合、横姿用の距離画像センサ11は、被験者1の右側横姿を撮影可能な場所に配置されることが望ましい。距離画像センサ11,12により撮影された距離画像とカラー画像のデータは、信号ケーブル若しくは無線を介して情報処理装置20へ送信される。
被験者1は、本実施形態の動作解析評価装置による身体動作の解析と評価の対象者である。本実施形態では、被験者1の身体動作の一例として歩行動作を挙げ、以下、その歩行動作の解析と評価に関して説明する。また本実施形態において、被験者1は、距離画像センサ11により横姿が撮影される側の膝と足首にそれぞれ所定色のマーカテープ8,9を装着している。図1の例の場合、テープ8,9は、被験者の右脚の膝と足首に装着されている。このため、距離画像センサ11は、被験者1の右側横姿を撮影するように設置されている。また、本実施形態の場合、動作解析評価装置は、テープ8,9の色を判別することにより、それらテープ8,9をマーカとして検出可能となされている。本実施形態の場合、テープ8,9の色は例えば赤色となされているが、本実施形態の動作解析評価装置が、被験者1の衣服等の色とテープ8,9の色を混同して誤検出してしまわない色であれば、赤色以外の他の色であってもよい。また本実施形態の場合、テープ8,9は、脚への巻き付けと取り外しが容易な例えば面ファスナーを備えたテープとなされている。その他にも、テープ8,9は、表面の色が前述の所定色となされているのであれば、例えばゴムバンドや他のベルトなどであってもよい。
情報処理装置20は、一例としてディスプレイ部を備えたパーソナルコンピュータ等である。情報処理装置20は、距離画像センサ11,12から供給されたデータを用いて、被験者1の歩行動作を解析する。具体的には、情報処理装置20は、距離画像センサ11,12から供給された距離画像とカラー画像のデータを解析することにより、被験者1の歩行動作を表すパラメータ(以下、歩行パラメータとする。)を算出する。詳細は後述するが、歩行パラメータは、例えば、歩行速度、歩行周期、立脚期間、遊脚期間などの時間的パラメータと、関節モーメントなどの力学的パラメータと、歩幅、重心移動、関節角度、脚角度などの空間的パラメータを含んでいる。
さらに、情報処理装置20は、被験者1の歩行動作に応じた歩行パラメータに基づいて、その被験者1の歩行動作に関する定量的な評価情報を生成して、例えばディスプレイ部への表示や印刷等による出力が可能となされている。また例えば、被験者1が歩行機能に障害を有した患者である場合、情報処理装置20は、現在の歩行パラメータと、その患者(被験者1)について過去に解析した歩行パラメータとの比較を行うことにより、リハビリテーションの経過による歩行能力の改善度を定量的に表す評価情報を生成して出力することも可能となされている。
図2には、本実施形態の情報処理装置20の概略的な構成例を示す。なお、図2には、本実施形態の情報処理装置20が実行する主要な処理及び演算に対応した構成要素のみを抜き出して示しているが、もちろん、情報処理装置20は一般的なパーソナルコンピュータが実行可能な各種様々な処理や演算も可能であり、それらの各構成要素についての図示は省略している。図2には、距離画像センサ11,12とディスプレイ部25も描かれている。
図2において、情報処理装置20は、ユーザにより操作されるキーボードやマウスなどの操作入力部22と、本実施形態における歩行動作の解析と評価を行うためのプログラムや各種設定データを記憶したメモリ部23と、距離画像やカラー画像のデータ、歩行パラメータや評価情報を記録するデータ記録部24と、歩行動作の解析と評価のための各種処理及び演算と制御を行う制御・演算部21とを有している。
制御・演算部21は、例えばCPUであり、メモリ部23に記憶されている本実施形態に係るプログラムを実行することにより、データ取得部31、パラメータ測定部32、パラメータ算出部33、定量化演算部34を形成する。
データ取得部31は、距離画像センサ11,12から距離画像データとカラー画像データを取得し、また、それら距離画像データとカラー画像データから被験者1の後述する関節点を検出する。パラメータ測定部32は、データ取得部31により取得された距離画像データとカラー画像データ、及び、被験者1の関節点のデータから歩行パラメータの算出に必要な値を測定する。パラメータ算出部33は、距離画像データ及びカラー画像データとパラメータ測定部32により測定されたデータとを用いて、歩行パラメータを算出する。定量化演算部34は、歩行パラメータに基づいて、被験者1の歩行能力を表す評価情報を算出する。そして、情報処理装置20は、評価情報をディスプレイ部25へ送って画面表示させる。
図3には、制御・演算部21が、距離画像センサ11,12から距離画像データとカラー画像データを取得し、それらデータを用いて歩行パラメータを算出し、さらにその歩行パラメータから評価情報を演算するまでのフローチャートを示す。
被験者1の歩行能力の解析及び評価を行う場合、先ず、図3のフローチャートのステップS1の処理として、制御・演算部21は、操作入力部22を介して入力された被験者データを取得する。なお、この際の被験者データは、一例として、被験者1の身長、頭の中央から腰の中央までの長さ、右腕の長さ、左腕の長さ、肩の中央から腰の中央までの長さ、腰の右端から右膝までの長さ、右膝から右足までの長さ、腰の左端から左膝までの長さ、左膝から左足までの長さなどを挙げることができる。これら被験者データはあくまでも一例であり、歩行パラメータとしてどのようなパラメータを算出するかにより、適宜変更や追加等することができる。ステップS1で被験者データの取得が完了すると、制御・演算部21は、ステップS2へ処理を進める。
ステップS2に進むと、制御・演算部21は、距離画像センサ11,12を起動させる。このステップS2の後、制御・演算部21は、ステップS3へ処理を進める。
ステップS3の処理は、制御・演算部21のデータ取得部31が行う。データ取得部31は、ステップS3の処理として、距離画像センサ11,12から規定フレーム数分の距離画像とカラー画像のデータを取得して、それら画像データを用いて被験者1の関節点を検出する。
ステップS3のデータ取得処理は、具体的にはステップS11〜S13の処理からなる。先ず、データ取得部31は、ステップS11の処理として、距離画像センサ11,12から距離画像とカラー画像のデータを取得する。次に、データ取得部31は、ステップS12の処理として、距離画像とカラー画像から被験者1の各関節点を検出する。
なお、データ取得部31がステップS12で取得する関節点は、人体の実際の各関節に対応した関節点でもよいが、本実施形態の場合は、頭、喉下(若しくは肩の中央)、左右の肩、左右の肘、左右の手首、左右の手、背骨の中央、腰の中央、腰の左端、腰の右端、左右の膝、左右の踵、左右の足などを、それぞれ関節点として検出する。データ取得部31は、これら各関節点のデータを、後姿用の距離画像センサ12の距離画像とカラー画像から取得している。さらに実施形態の場合、データ取得部31は、横姿用の距離画像センサ11の距離画像とカラー画像を用いて、例えば被験者1の頭、喉下、腰、膝(距離画像センサ11が撮影している側の膝)、足(距離画像センサ11が撮影している側の足)をも、関節点として検出する。
そして、データ取得部31は、ステップS13の処理として、予め決められた規定フレーム数分の距離画像とカラー画像についてステップS12で各関節点のデータを取得したか否か判定する。データ取得部31は、規定フレーム数分には達していないと判定した場合にはステップS11へ処理を戻す。一方、ステップS13において規定フレーム数分のデータを取得したと判定された場合、制御・演算部21は、処理をステップS4へ進める。
ステップS4の処理は、制御・演算部21のパラメータ測定部32が行う。パラメータ測定部32は、ステップS4の処理として、歩行パラメータの算出に必要な値を測定する。
ステップS4のパラメータ測定処理は、具体的にはステップS14とS15の処理からなる。パラメータ測定部32は、ステップS14の処理として、先ず、後姿用の距離画像センサ12から得られた距離画像データ及びカラー画像データと前述のステップS12で検出された各関節点のデータとを用い、被験者1の骨格を認識し、またそれら骨格と各関節点の位置合わせを行う。
なお、パラメータ測定部32が認識する骨格は、実際の人体に対応した骨格でもよいが、本実施形態の場合、パラメータ測定部32は、例えば頭部、喉下部(若しくは肩の中央部)、左右の上腕部、左右の前腕部、左右の手首部、左右の手部、左右の腰部、左右の膝部、左右の踵部、左右の足部などを、それぞれ骨格として認識する。
図4、図5には、本実施形態において認識される各骨格に対応したマークを、後姿用の距離画像センサ12から得られる被験者の画像上に描画した例を示している。図4、図5の例では、頭部マーク3h、喉下部マーク3u(若しくは肩の中央部)、左右の上腕部マーク3ua、左右の前腕部マーク3fa、左右の手首部マーク3wa、左右の手部マーク3ha、左右の腰部マーク3pj、左右の膝部マーク3k、左右の踵部マーク3a、左右の足部マーク3fなどが描画されている。なお、図4には、被験者が歩行機能に障害を持った患者である場合に、後姿用の距離画像センサ12による後姿の患者(後姿の被験者1r)の画像上に、各骨格に対応したマークとともに、後述する身体部位と重心に対応しマーク等を描画した例を示している。一方、図5には、被験者が健常者である場合に、後姿用の距離画像センサ12による後姿の健常者(後姿の被験者1r)の画像上に、各骨格に対応したマークとともに、後述する身体部位と重心に対応しマーク等を描画した例を示している。制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、これら被験者の画像と描画された各マークをディスプレイ部25の画面上に表示する。
またステップS14において、パラメータ測定部32は、認識した骨格の情報に基づいて、被験者1の身体部位を14部位に分ける。本実施形態の場合、パラメータ測定部32は、身体画像を、例えば、頭部位、体幹部位、左右の上腕部位、左右の前腕部位、左右の手部位、左右の上腿部位、左右の下腿部位、左右の足部位の合計14部位に分割する。
図4、図5、図6には、14部位の各部位に対応したマークを画像上に描画した例を示す。図4、図5、図6の例では、頭部位マーク4h、体幹部位マーク4bt、左右の上腕部位マーク4ua、左右の前腕部位マーク4fa、左右の手部位マーク4ha、左右の上腿部位マーク4lf、左右の下腿部位マーク4ls、左右の足部位マーク4fなどが描画されている。制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、それら被験者の画像と描画された各マークをディスプレイ部25の画面上に表示する。なお、ここでは身体部位を14部位に分けた例を挙げたが、16部位に分けるようにしてもよい。
ステップS14の処理後、パラメータ測定部32は、ステップS15へ処理を進める。ステップS15に進むと、パラメータ測定部32は、横姿用の距離画像センサ11から得られた距離画像データ及びカラー画像データと、前述のステップS12で検出された各関節点のデータとに基づいて、被験者1の横姿の骨格を認識し、またそれら骨格と関節点の位置合わせを行う。
さらに、パラメータ測定部32は、前述した所定色のテープ8,9をマーカとして検出し、それらテープ8,9によるマーカ検出データを用いて、被験者1の後姿についてステップS14で認識した骨格と関節点の位置を補正する。すなわち、ステップS15での位置補正は、歩行動作の際に特に動きが激しい脚について、距離画像とカラー画像だけでは、被験者1の脚の動きに対して各検出された関節点や認識された骨格の位置がずれてしまうことが多いために、そのようなずれを補正するために行われる。
図7、図8には、本実施形態において、横姿用の距離画像センサ11のデータを基に認識された各骨格に対応したマークを、被験者の横姿の画像上に描画した例を示している。図7、図8の例では、頭部マーク2h、喉下部マーク2u、腰部マーク2p、膝部マーク2k、踵部マーク2aなどが描画されている。なお、図7には、被験者が歩行機能に障害を持った患者である場合に、横姿用の距離画像センサ11による横姿の患者1bの画像上に、各骨格に対応したマークと、後述する重心に対応しマークを描画した例を示している。特に、図7の領域FPで囲うテープ9と踵部マーク2aは、それらの移動軌跡を解析することで、後述する足振り(AP)の周期を算出する際などに用いられる。一方、図8には、被験者が健常者である場合に、横姿用の距離画像センサ11による横姿の健常者1bの画像上に、各骨格に対応したマークと、後述する重心に対応しマーク等を描画した例を示している。制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、それら被験者の画像と描画された各マークをディスプレイ部25の画面上に表示する。
ステップS15の処理後、制御・演算部21は、ステップS5へ処理を進める。ステップS5の処理は、制御・演算部21のパラメータ算出部33が行う。パラメータ算出部33は、ステップS5の処理として、ステップS4にてパラメータ測定部32が測定した各データを用いて、歩行パラメータを算出する。歩行パラメータは、前述したように、歩行速度、歩行周期、立脚期間、遊脚期間などの時間的パラメータと、関節モーメントなどの力学的パラメータと、歩幅、重心の移動、関節角度などの空間的パラメータを含んでいる。
以下、パラメータ算出部33による各歩行パラメータの算出方法についてそれぞれ説明する。先ず、被験者1の重心のパラメータから説明する。パラメータ算出部33は、前述のステップS4で測定された身体の14部位ごとに予め設定された比重と、各部位の座標のモーメントとに基づいて、被験者1の重心を算出する。すなわち、14部位の各比重に応じた割合をそれぞれm1,m2,m3,・・・,m14とし、各部位の三次元座標それぞれ(x1,y1,z1),(x2,y2,z2),(x2,y2,z2),・・・,(x14,y14,z14)とした場合、パラメータ算出部33は、下記の式(1)により重心を算出する。
X=(m1・x1+m2・x2+…+m14・x14)/(m1+m2+…+m14) 式(1)
なお、式(1)は重心のX座標の算出式を示しており、パラメータ算出部33は、重心のY座標についても同様の式により算出する。但し、重心のZ座標については、距離画像センサ11,12から得られる距離画像の各画素間で相関を算出して座標値に変換した後に上述同様にして重心を算出する。関節モーメントは、重心算出の際に使用される各部位の座標のモーメントから算出される。また、各部位の割合としては、一例として、頭部位の割合が「7」、体幹部位の割合が「43」、左の上腕部位と前腕部位と手部位の合計の割合が「6.5」、同様に右の上腕部位と前腕部位と手部位の合計の割合が「6.5」、左の上腿部位と下腿部位と足部位マークの合計の割合が「18.5」、同様に右の上腿部位と下腿部位と足部位の合計の割合が「18.5」などに設定されている。各割合の数字はパーセントである。上腕部位と前腕部位と手部位の各割合、上腿部位と下腿部位と足部位の各割合についても予め設定されている。
図4、図5、図7、図8には、前述のようにして算出された重心を表す重心マーク4c,2cを、それぞれ後姿の被験者1r、横姿の被験者1bの画像上に描画した例を示している。制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、それら被験者の画像と描画された各マークをディスプレイ部25の画面上に表示する。
次に、関節角度に関するパラメータについて説明する。パラメータ算出部33は、横姿用の距離画像センサ11から得られたデータを用いて、関節角度を算出する。図9には、前述の図8の被験者1の横姿の画像のうち脚周辺部分を拡大して示す。この図9に示すように、パラメータ算出部33は、認識された骨格のうち、腰部(マーク2p)から膝部(マーク2k)までの線分と膝部(マーク2k)から踵部(マーク2a)までの線分とが成す角度θkを、膝の後ろ側角度(以下、膝角度θkとする。)として算出する。また、パラメータ算出部33は、膝部(マーク2k)から踵部(マーク2a)までの線分と図中一点差線で示す水平線分とが成す角度θaを、脚の後ろ側角度(以下、足角度θaとする。)として算出する。そして、本実施形態のパラメータ算出部33は、これら膝角度θkと足角度θaを、関節角度のパラメータとして算出する。
次に、遊脚期間と立脚期間に関するパラメータについて説明する。遊脚とは歩行動作において足が接地せずに浮いている状態であり、遊脚期間とは遊脚の状態となっている期間である。立脚とは歩行動作において足が接地している状態であり、立脚期間とは立脚の状態となっている期間である。パラメータ算出部33は、距離画像センサ11,12のデータを用いて前述のように認識された骨格のうち足部のx座標と時間との関係を図10、図11に示すような波形として算出する。なお、図10の例は、被験者が歩行機能に障害を持った患者である場合の足部のx座標と時間との関係を表している。一方、図11は、被験者が健常者である場合の足部のx座標と時間との関係を表している。そして、パラメータ算出部33は、図10、図11のような波形から、遊脚期間と立脚期間を求める。
さらにパラメータ算出部33は、遊脚期間と立脚期間についてそれぞれ平均を求め、それら遊脚期間の平均と立脚期間の平均から、被験者の歩行動作における遊脚期間と立脚期間のそれぞれの割合を算出する。図12には、被験者が健常者である場合の遊脚期間と立脚期間の割合の一例と、被験者が歩行機能に障害を持った患者である場合の遊脚期間と立脚期間の割合の一例を示している。本実施形態のパラメータ算出部33は、それら遊脚期間と立脚期間及びそれぞれの割合を、遊脚期間と立脚期間に関するパラメータとして算出する。
次に、歩行周期のパラメータについて説明する。パラメータ算出部33は、図10で示したような波形から、被験者が歩行している際の足振りの1周期の平均を歩行周期として算出する。特に被験者が例えば片方の脚が麻痺している障害を持った患者である場合には、麻痺側の脚における平均の歩行周期を算出する。
次に、歩幅のパラメータについて説明する。パラメータ算出部33は、図10で示したような波形から、被験者が歩行している際の足振りにおけるx座標の移動量の平均を歩幅として算出する。特に被験者が例えば片方の脚が麻痺している障害を持った患者である場合には、麻痺側の脚における平均の歩幅を算出する。
次に、歩行速度のパラメータについて説明する。パラメータ算出部33は、図10で説明した歩行周期と、歩行動作により進行方向へ足が移動する際の単位時間内でのx座標の移動量から、歩行速度を算出する。
図3のフローチャートの説明に戻り、ステップS5にて前述のようにして各歩行パラメータが算出されると、制御・演算部21は、ステップS6へ処理を進める。ステップS6の処理は、制御・演算部21の定量化演算部34が行う。定量化演算部34は、ステップS6の処理として、ステップS5でパラメータ算出部33により算出された各歩行パラメータに基づいて、被験者1の歩行能力を表す評価情報を算出する。そして、制御・演算部21は、次のステップS7において、評価情報を例えばディスプレイ部25へ送って画面表示等させる。
以下、定量化演算部34により算出される評価情報についてそれぞれ説明する。先ず、重心に関する評価情報から説明する。定量化演算部34は、ステップS5にてパラメータ算出部33が算出した重心のパラメータを用い、重心のX,Y座標と時間との関係を示した図13や図14のような波形データを、重心に関する評価情報の一つとして算出する。なお、図13(A)は被験者が健常者である場合における重心のX座標と時間との関係を示す波形であり、図13(B)は同じく被験者が健常者である場合における重心のY座標と時間との関係を示す波形である。また、図14は、被験者が健常者である場合(図14(A))と被験者が歩行機能に障害のある患者である場合(図14(B))の重心のX座標と時間との関係を比較するための図である。
また、定量化演算部34は、図15に示すように、重心の位置が被験者1の歩行動作に伴って移動する重心位置の時間推移を、重心に関する評価情報の一つとして算出する。なお、図15(A)は、被験者が健常者である場合における重心位置推移を示しており、図15(B)は被験者が歩行機能に障害のある患者である場合における重心位置推移を示している。
また、定量化演算部34は、重心位置の時間推移を基に、図16に示すような重心座標のヒストグラムを、重心に関する評価情報の一つとして算出する。さらに、定量化演算部34は、図17に示すように、重心位置の時間推移からデータの分散を求めて数値化することも可能である。
そして、制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、それら被験者の重心に関する各評価情報をディスプレイ部25の画面上に表示する。すなわち例えば、図13や図14に示したような重心のX,Y座標と時間との関係を表す波形データが画面上に表示された場合、例えば歩行機能に障害がある患者は、医師とともに、患者自身の波形データと健常者の波形データを比較しながら見ることにより、患者が歩行動作している際の重心移動の変化を客観的に評価することが可能となる。
同様に、例えば図15に示したような重心位置の時間推移を表すデータが画面上に表示された場合、歩行機能に障害がある患者は、医師とともに、患者自身のデータと健常者のデータを比較しならが見ることにより、患者が歩行動作している際の重心位置の時間推移を客観的に評価することが可能となる。
また、例えば図16に示したような重心座標のヒストグラムが画面上に表示された場合、歩行機能に障害がある患者は、医師とともに、患者自身の重心座標のヒストグラムと健常者のヒストグラムを比較しながら見ることにより、患者が歩行動作している際に体重がどちら側の脚に偏っているのかを客観的に評価することが可能となる。
さらに、図17に示したようにデータの分散を求めて数値化した場合、歩行機能に障害がある患者は、医師とともに、患者自身の重心座標のヒストグラムと健常者のヒストグラムを比較しながら見ることにより、例えば歩行動作中の重心の動きを表す数値が少ないほど、健常者に近い歩行動作であることを、客観的に評価することが可能となる。
また、定量化演算部34は、関節角度のパラメータである膝角度θkと足角度θaを用いて、図18に示すような膝角度の時間推移及び歩行周期内における膝角度の変化と、図19に示すような足角度の時間推移及び歩行周期内における足角度の変化を、関節角度に関する評価情報として算出する。具体的には、定量化演算部34は、歩行周期内における膝角度と足角度の変化については、例えばフーリエ解析により求めている。
また、定量化演算部34は、フーリエ解析にて歩行周期内における膝角度と足角度の変化を算出することにより、歩行動作とは無関係な動作を抽出して数値化している。なお、図18(A)は健常者における膝角度の時間推移を示し、図18(B)は健常者における歩行周期内の膝角度の変化を示し、図18(C)は歩行機能に障害のある患者における膝角度の時間推移を示し、図18(D)は歩行機能に障害のある患者における歩行周期内の膝角度の変化を示している。
また、図19(A)は健常者における足角度の時間推移を示し、図19(B)は健常者における歩行周期内の足角度の変化を示し、図19(C)は歩行機能に障害のある患者における足角度の時間推移を示し、図19(D)は歩行機能に障害のある患者における歩行周期内の足角度の変化を示している。
そして、制御・演算部21は、例えば操作入力部22を介した利用者からの要求に応じて、それら被験者の関節角度に関する各評価情報をディスプレイ部25の画面上に表示する。すなわち例えば、図18、図19に示したような膝角度、足角度の時間推移や歩行周期内の角度変化、数値化された情報が画面上に表示された場合、例えば歩行機能に障害がある患者は、医師とともに、患者自身のデータと健常者のデータを比較しながら見ることにより、患者が歩行動作している際の関節角度を客観的に評価することが可能となる。
また本実施形態において、制御・演算部21は、リハビリテーションの経過による歩行能力の改善度を定量的に表した評価情報を、ディスプレイ部25等へ出力することも可能となされている。すなわち、被験者1が歩行機能に障害を持つ患者であり、例えば数ヶ月前からリハビリテーションを続けているような場合において、制御・演算部21は、データ記録部24に記録されている、過去に解析した歩行パラメータに基づく評価情報と、定量化演算部34が算出した現在の歩行パラメータに基づく評価情報とを比較可能な状態で表示等させる。
例えば膝角度に関する改善度を例に挙げると、図20に示すように、例えば4ヶ月前にフーリエ解析により求めた膝角度の変化の値と、現在(4ヶ月後)のフーリエ解析による膝角度の変化の値を、例えばディスプレイ部25の画面上に表示する。これにより、患者や医師は、リハビリテーションの経過により歩行能力がどの程度改善しているのかを容易に知ることができることになる。
また、リハビリテーションの経過による歩行能力の改善度は、例えば図21〜図23に示すように、歩行周期外に現われる不安定な特徴量を算出することでも評価可能である。なお、図21、図22は、前述の図20に示した4ヶ月前に解析された膝角度の変化の値と現在(4ヶ月後)の膝角度の変化の値を拡大して示している。
ここで、図21、図22に示すように、フーリエ解析による膝角度の変化の値には、歩行周期外に現われる不安定な動き量が含まれている。歩行周期外に現われる不安定な動き量は、図22中のエリアEgの面積(積分値)を求めることにより算出できる。すなわち、図22に示すように、4ヶ月前に求めた膝角度の変化の値に含まれる不安定な動き量Egは、現在(4ヶ月後)の膝角度の変化の値に含まれる不安定な動き量Egと比較して大きいことがわかる。
そして、本実施形態の定量化演算部34は、図22中のエリアEgの面積(積分値)と、それ以外のエリアErの面積(積分値)の割合(Eg/(Er+Eg))を算出することで、歩行周期外に現われる不安定な特徴量に応じた改善度を、定量的に評価可能としている。
なお、図23には、4ヶ月前に解析された歩行周期外に現われる不安定な動き量の積分値及びエリアEgとエリアErの割合と、現在(4ヵ月後)に解析された歩行周期外に現われる不安定な動き量の積分値及びエリアEgとエリアErの割合の一例を示している。この図23の例の場合、不安定な動作の割合が、4ヶ月前の29.4%から現在(4ヶ月後)の10.6%へ減少している。したがって、患者や医師は、リハビリテーションの経過により歩行能力がどの程度改善しているのかを容易に知ることができることになる。
以上説明したように、本実施形態によれば、被験者は前述したテープ8,9を除き、何らかの専用器具やマーカ等を装着する必要がないため、被験者の負担は非常に少ない。
また、本実施形態においては、安価で入手が容易な距離画像センサとパーソナルコンピュータからなる動作解析評価システムにより、関節位置,角度,重心,遊脚期間,立脚期間などといった歩行パラメータを計測可能となされ、それら歩行パラメータに基づく定量的な評価が可能となされている。すなわち、本実施形態によれば、従来の高額で複雑な専用装置や高度な知識を有した専門家を必要としないため、小規模な医療施設などにおいても安価で手軽に、被験者の歩行能力の解析と評価が可能となる。
また、本実施形態によれば、例えば歩行機能に障害を持った患者の歩行能力の評価に適用した場合、患者の歩行動作を撮影したカラー動画像とともに歩行パラメータに基づく評価情報を提示可能であるため、患者に対して非常に分かりやすい日常生活における歩行能力と対応するような評価尺度を提示することができ、また、医師による主観的評価ではなく、動作解析評価システムによる客観的な歩行能力の定量評価が可能である。
さらに、本実施形態によれば、例えば過去に解析した歩行パラメータに基づく評価情報と現在の歩行パラメータに基づく評価情報とを比較することで、例えば患者のリハビリテーションの経過による歩行能力の改善度を定量的に評価することができ、そのため、患者のリハビリテーションの際に効果的なフィードバックや助言を行うことができるようになる。
<他の実施形態>
前述した実施形態では、後姿用の距離画像センサ12のデータから重心を算出し、横姿用の距離画像センサ11のデータから関節角度や歩行周期、歩行速度、歩幅等を算出しているが、他の実施形態として、さらにもう一台横姿用の距離画像センサを用意し、被験者の左右横姿を撮影する構成であってもよい。被験者の左右横姿用の二つの距離画像センサを配置した場合、例えば片脚麻痺の患者において麻痺側脚と健常側脚の両方のパラメータを測定可能となる。そして、左右両側の横姿用の距離画像センサにより、麻痺側脚と健常側脚の両方の脚の遊脚期間と立脚期間のパラメータを取得して比較すると、歩行動作中に例えば麻痺側脚にかかる負荷状況を評価することが可能となる。また、それら両脚の遊脚、立脚期間に差が少なければ、健常者の歩行動作に近いと評価することができる。
その他にも被験者の後姿を撮影する距離画像センサに代えて、被験者の前姿を撮影する距離画像センサを設けるようにしてもよいし、被験者の後姿用と前姿用の両方を撮影するように距離画像センサを配置して、被験者の前後姿を撮影した距離画像データを用いることにより、前述した骨格認識等の精度をさらに向上させることも可能である。また、被験者の頭上側から撮影する距離画像センサを設置してもよい。
また前述の実施形態では、歩行機能のリハビリテーションを行っている患者の歩行動作について解析と評価を行う例を挙げたが、解析と評価の対象は歩行動作や脚に限定されない。例えば、本発明は、腕に関する動作の解析と評価や、様々なスポーツ選手における身体動作の解析と評価にも適用可能である。
その他、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1:被験者、8,9:テープ、11:横姿用の距離画像センサ、12:後姿用の距離画像センサ、13:トレッドミル、20:情報処理装置、21:制御・演算部、22:操作入力部、23:メモリ部、24:データ記録部、25:ディスプレイ部、31:データ取得部、32:パラメータ測定部、33:パラメータ算出部、34:定量化演算部

Claims (8)

  1. 身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得手段と、
    前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出手段と、
    前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算手段と
    を有することを特徴とする動作解析評価装置。
  2. 前記パラメータ算出手段は、前記第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の関節と骨格に対応した情報を算出し、前記関節と骨格に対応した情報に基づいて、前記パラメータを算出することを特徴とする請求項1に記載の動作解析評価装置。
  3. 前記データ取得手段は、前記第1の距離画像又は前記第2の距離画像の撮影と同時に前記対象者の姿を撮影したカラー画像を取得し、
    前記パラメータ算出手段は、前記カラー画像に基づいて、前記対象者の関節と骨格に対応した情報を、補正することを特徴とする請求項2に記載の動作解析評価装置。
  4. 前記パラメータ算出手段は、前記カラー画像から検出した所定色の部分に基づいて、前記対象者の関節と骨格に対応した情報を補正することを特徴とする請求項3に記載の動作解析評価装置。
  5. 前記対象者の身体動作は歩行動作であり、
    前記パラメータ算出手段は、前記対象者の歩行動作に関する歩行パラメータを算出し、
    前記演算手段は、前記歩行パラメータに基づいて前記対象者の歩行動作の評価に関する情報を演算することを特徴とする請求項1乃至4の何れか1項に記載の動作解析評価装置。
  6. 前記パラメータ算出手段は、前記歩行パラメータとして、前記対象者の歩行動作の際の、身体の重心と、膝の角度と、足の角度と、遊脚期間及び立脚期間と、歩行周期と、歩幅と、歩行速度を算出し、
    前記演算手段は、前記重心と、膝の角度と、足の角度と、歩行周期との各評価に関する情報を演算することを特徴とする請求項5に記載の動作解析評価装置。
  7. 動作解析評価装置が実行する動作解析評価方法であって、
    身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得ステップと、
    前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出ステップと、
    前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算ステップと
    を含むことを特徴とする動作解析評価方法。
  8. コンピュータを、
    身体動作の解析及び評価の対象者の、前後姿の少なくとも何れか一方の姿を撮影した第1の距離画像のデータと、左右横姿の少なくとも何れか一方の姿を撮影した第2の距離画像のデータとを、取得するデータ取得手段と、
    前記取得された第1の距離画像のデータと第2の距離画像のデータを解析して、前記対象者の身体動作に関するパラメータを算出するパラメータ算出手段と、
    前記算出されたパラメータに基づいて前記対象者の身体動作の評価に関する情報を演算する演算手段として
    機能させるためのプログラム。
JP2015019125A 2015-02-03 2015-02-03 動作解析評価装置、動作解析評価方法、及びプログラム Pending JP2016140591A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015019125A JP2016140591A (ja) 2015-02-03 2015-02-03 動作解析評価装置、動作解析評価方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015019125A JP2016140591A (ja) 2015-02-03 2015-02-03 動作解析評価装置、動作解析評価方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016140591A true JP2016140591A (ja) 2016-08-08

Family

ID=56569361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015019125A Pending JP2016140591A (ja) 2015-02-03 2015-02-03 動作解析評価装置、動作解析評価方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2016140591A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018102855A (ja) * 2016-12-28 2018-07-05 株式会社リコー 動作計測システム、動作計測装置及び動作計測方法
JP2019025134A (ja) * 2017-08-01 2019-02-21 株式会社大武ルート工業 動作推定装置及び動作推定プログラム
JP2019092603A (ja) * 2017-11-17 2019-06-20 トヨタ自動車株式会社 歩行評価装置、歩行訓練システムおよび歩行評価方法
JP2019154489A (ja) * 2018-03-07 2019-09-19 社会福祉法人兵庫県社会福祉事業団 運動能力評価システム
JP2020086823A (ja) * 2018-11-22 2020-06-04 株式会社富士通アドバンストエンジニアリング 動作評価装置、方法、及びプログラム
CN111967407A (zh) * 2020-08-20 2020-11-20 咪咕互动娱乐有限公司 动作评价方法、电子设备和计算机可读存储介质
CN113288053A (zh) * 2021-05-13 2021-08-24 上海佑久健康科技有限公司 人体评估方法、系统及计算机可读存储介质
WO2021166294A1 (ja) * 2020-02-21 2021-08-26 株式会社日立ハイテク 情報処理装置、および判断結果出力方法
WO2021225249A1 (ko) * 2020-05-07 2021-11-11 광주과학기술원 보행 분석 시스템 및 방법
WO2022059782A1 (ja) 2020-09-18 2022-03-24 iMU株式会社 処理装置、プログラム、方法及び処理システム
CN115105062A (zh) * 2022-08-29 2022-09-27 中国科学院自动化研究所 髋膝关节协调性评估方法、装置、系统和存储介质
WO2022219905A1 (ja) * 2021-04-13 2022-10-20 日本電気株式会社 計測装置、計測システム、計測方法、および記録媒体
CN115245652A (zh) * 2021-04-28 2022-10-28 丰田自动车株式会社 步行训练系统及其控制方法和计算机可读存储介质
CN115999135A (zh) * 2022-12-15 2023-04-25 华中科技大学 一种基于体感控制的雪车雪橇模拟器控制方法及系统
WO2023139941A1 (ja) * 2022-01-18 2023-07-27 Cyberdyne株式会社 機能改善支援装置および機能改善支援方法
WO2023139940A1 (ja) * 2022-01-18 2023-07-27 Cyberdyne株式会社 歩行機能評価装置および歩行機能評価方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
JP2010017447A (ja) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体
WO2014115817A1 (ja) * 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
JP2010017447A (ja) * 2008-07-14 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 歩行動作分析装置、歩行動作分析方法、歩行動作分析プログラムおよびその記録媒体
WO2014115817A1 (ja) * 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018102855A (ja) * 2016-12-28 2018-07-05 株式会社リコー 動作計測システム、動作計測装置及び動作計測方法
JP2019025134A (ja) * 2017-08-01 2019-02-21 株式会社大武ルート工業 動作推定装置及び動作推定プログラム
JP2019092603A (ja) * 2017-11-17 2019-06-20 トヨタ自動車株式会社 歩行評価装置、歩行訓練システムおよび歩行評価方法
US11690534B2 (en) 2017-11-17 2023-07-04 Toyota Jidosha Kabushiki Kaisha Gait evaluation apparatus, gait training system, and gait evaluation method
JP2019154489A (ja) * 2018-03-07 2019-09-19 社会福祉法人兵庫県社会福祉事業団 運動能力評価システム
JP2020086823A (ja) * 2018-11-22 2020-06-04 株式会社富士通アドバンストエンジニアリング 動作評価装置、方法、及びプログラム
JP7216679B2 (ja) 2020-02-21 2023-02-01 株式会社日立ハイテク 情報処理装置、および判断結果出力方法
WO2021166294A1 (ja) * 2020-02-21 2021-08-26 株式会社日立ハイテク 情報処理装置、および判断結果出力方法
JP2021131787A (ja) * 2020-02-21 2021-09-09 株式会社日立ハイテク 情報処理装置、および判断結果出力方法
WO2021225249A1 (ko) * 2020-05-07 2021-11-11 광주과학기술원 보행 분석 시스템 및 방법
CN111967407A (zh) * 2020-08-20 2020-11-20 咪咕互动娱乐有限公司 动作评价方法、电子设备和计算机可读存储介质
CN111967407B (zh) * 2020-08-20 2023-10-20 咪咕互动娱乐有限公司 动作评价方法、电子设备和计算机可读存储介质
WO2022059782A1 (ja) 2020-09-18 2022-03-24 iMU株式会社 処理装置、プログラム、方法及び処理システム
WO2022219905A1 (ja) * 2021-04-13 2022-10-20 日本電気株式会社 計測装置、計測システム、計測方法、および記録媒体
CN115245652A (zh) * 2021-04-28 2022-10-28 丰田自动车株式会社 步行训练系统及其控制方法和计算机可读存储介质
CN113288053B (zh) * 2021-05-13 2023-08-11 上海佑久健康科技有限公司 人体评估方法、系统及计算机可读存储介质
CN113288053A (zh) * 2021-05-13 2021-08-24 上海佑久健康科技有限公司 人体评估方法、系统及计算机可读存储介质
WO2023139941A1 (ja) * 2022-01-18 2023-07-27 Cyberdyne株式会社 機能改善支援装置および機能改善支援方法
WO2023139940A1 (ja) * 2022-01-18 2023-07-27 Cyberdyne株式会社 歩行機能評価装置および歩行機能評価方法
CN115105062A (zh) * 2022-08-29 2022-09-27 中国科学院自动化研究所 髋膝关节协调性评估方法、装置、系统和存储介质
CN115999135A (zh) * 2022-12-15 2023-04-25 华中科技大学 一种基于体感控制的雪车雪橇模拟器控制方法及系统
CN115999135B (zh) * 2022-12-15 2024-05-14 华中科技大学 一种基于体感控制的雪车雪橇模拟器控制方法及系统

Similar Documents

Publication Publication Date Title
JP2016140591A (ja) 動作解析評価装置、動作解析評価方法、及びプログラム
CN107174255B (zh) 基于Kinect体感技术的三维步态信息采集与分析方法
Napoli et al. Performance analysis of a generalized motion capture system using microsoft kinect 2.0
JP6381918B2 (ja) 動作情報処理装置
JP6466139B2 (ja) 人間の動きを測定するロボット計測器
Matthew et al. Kinematic and kinetic validation of an improved depth camera motion assessment system using rigid bodies
WO2015162158A1 (en) Human motion tracking
JP6930995B2 (ja) 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
Harsted et al. Concurrent validity of lower extremity kinematics and jump characteristics captured in pre-school children by a markerless 3D motion capture system
JP2016080671A5 (ja)
JP2017086184A (ja) 筋活動可視化システムと筋活動可視化方法
Churchill et al. RIVCAM: a simple video-based kinematic analysis for clinical disorders of gait
Washabaugh et al. Comparing the accuracy of open-source pose estimation methods for measuring gait kinematics
CN107115102A (zh) 一种骨关节功能评估方法与装置
JP4390129B2 (ja) 足底圧を用いた下肢関節モーメント及び下肢筋張力の推定システム
Vafadar et al. Assessment of a novel deep learning-based marker-less motion capture system for gait study
Liu et al. Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures
Hu et al. An inertial sensor system for measurements of tibia angle with applications to knee valgus/varus detection
US20190125220A1 (en) Systems, devices, and methods for determining an overall motion and flexibility envelope
US20240049987A1 (en) Gait measurement system, gait measurement method, and program recording medium
KR20210063567A (ko) 척추 측만증 및 관절 손상 예측 방법
US10722149B2 (en) Real-time biofeedback rehabilitation tool guiding and illustrating foot placement for gait training
KR101398193B1 (ko) 캘리브레이션 장치 및 방법
WO2022018938A1 (ja) 運動支援装置、および、運動支援方法
Pavone et al. A Kinect-Based Portable Automatic Gait Analysis System-An Experimental Validation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190402