JP5016687B2 - 人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法 - Google Patents

人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法 Download PDF

Info

Publication number
JP5016687B2
JP5016687B2 JP2009552792A JP2009552792A JP5016687B2 JP 5016687 B2 JP5016687 B2 JP 5016687B2 JP 2009552792 A JP2009552792 A JP 2009552792A JP 2009552792 A JP2009552792 A JP 2009552792A JP 5016687 B2 JP5016687 B2 JP 5016687B2
Authority
JP
Japan
Prior art keywords
muscle
real
real time
motion capture
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009552792A
Other languages
English (en)
Other versions
JP2010520561A (ja
Inventor
イーブン−ゾハー・オーシュリー
デン ボガート・アントニー・ジェイ. バン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motek BV
Original Assignee
Motek BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motek BV filed Critical Motek BV
Publication of JP2010520561A publication Critical patent/JP2010520561A/ja
Application granted granted Critical
Publication of JP5016687B2 publication Critical patent/JP5016687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4519Muscles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes

Description

本発明は、一般的に言えば、モーション・キャプチャー(動き捕獲)技術と3D(3次元)計算筋骨格モデルとを組み合わせて、筋力と関節トルクとを表示するリアルタイムの表示環境を作成するシステムに関する。さらに詳しく言えば、本発明のさまざまな実施形態は、動いている人体における物理的筋力と関節トルクとをリアルタイムに視覚化するものである。
人体が生み出す筋力をリアルタイムで3D視覚表示可能なシステムや方法は現在のところ知られていない。多くのリハビリ病院や医学研究施設では、運動障害の原因別分類に基づき、専用の治療プログラムを用いている。しかし、人体内で作用する力をリアルタイムで表示する方法はなく、それに必要なパラメータを導く計算には何時間も、場合によっては、何日もかかるのが普通である。また、その計算結果は、数値あるいはグラフで表示されるものであり、直観的にわかりやすいものではなかった。
モーション・キャプチャー(動き捕獲)という用語は、長年にわたり、さまざまな分野で適用されてきた種々の技術の総称である。モーション・キャプチャーは、性能本位で、3次元(3D)アニメーションを作成し、自然なシミュレーションを行うことを目的とする。娯楽産業においては、オペレーターは、モーション・キャプチャー技術を利用することによって、(コンピュータで作った)CGキャラクターを用いることができる。また、モーション・キャプチャー技術を利用して、あらゆる種類の人の動きを用いた複雑な動きを作り出し、無生物であるオブジェクトにもリアルな動きをさせることができる。モーション・キャプチャーシステムが、リアルタイムのデータフィードバック機能を持つ場合には、オペレーターは、所定の動きが満足できるものであるか否かを瞬時に判定することができる。モーション・キャプチャー技術は、全身の動きに適用できるばかりでなく、手のアニメーションや顔のアニメーションおよびリアルタイムの口パクにも利用できる。また、モーション・キャプチャー技術は、医学分野、シミュレーション、工学や人間工学の分野、長編映画、広告、テレビ、3Dコンピュータゲームの分野でも利用できる。
運動学は、すべての関節の角度が既知である場合に、結合構造の端部の空間における位置を算出する処理である。逆運動学は、これとは逆方向の処理を行う。すなわち、構造の端点が既知である場合に、端点に到達するために必要とされる関節の角度を算出する。このような処理が、ロボット工学や3Dコンピュータアニメーション、その他の工学分野で利用されている。
動力学は、所定の結合構造に作用する内力と外力が既知である場合に、結合構造の空間における加速度を算出する処理である。逆動力学は、これとは逆方向の処理を行う。すなわち、構造の加速度と力の測定値が既知である場合に、その加速度を生み出すために必要な内力を算出する。その結果は、通常、関節トルクと関節力として与えられる。
上述したような処理をすべてリアルタイムで行う単一の計算パイプラインを作成する技術が必要とされている。特に、今までにない、筋力をリアルタイムで表示する機能が求められている。
本発明の一実施形態は、3D人体筋肉モデルの色空間アニメーションを用いて、人体における筋力と関節トルクをリアルタイムに表示する方法を提供する。専用アルゴリズムのパイプライン処理により、モーション・キャプチャー(動き捕獲)システムから取得されるデータストリームを解析する。専用アルゴリズムのパイプラインは、関節の方向と、加速度および速度と、順動力学および逆動力学を導き出し、筋力と関節トルクとをリアルタイムで測定する。得られた筋力と関節トルクのデータをリアルタイムで3D人体筋肉モデルに伝送して、ユーザーが力とトルクの発生時にリアルタイムで観察できるようにする。
本発明の別の実施形態は、ユーザーあるいはオペレーターによるランタイム相互作用を提供する。
本発明の他の実施形態は、モーション・キャプチャー(動き捕獲)技術とシミュレーション技術と専用のリアルタイム・データ処理アルゴリズムとの組み合わせを提供する。この実施形態では、ハードウェア要素並びにソフトウェア要素をオーサリング・制御ソフトウェアと組み合わせて用いることにより、人体が生み出す力とトルクのリアルタイムでの視覚化をカスタマイズする。
本発明のさらに別の実施形態は、さまざまな産業分野で利用可能な新しい測定および視覚化ツールを与えるものである。本発明の技術により、所定の状況範囲で人の機能的な能力を測定・記録・評価するために、人体内における筋力の移動を観察することが可能になる。
本発明のさらに他の実施形態は、さまざまな産業分野で利用可能な新しい測定および視覚化ツールを提供する。本発明の技術により、所定の状況範囲で人の機能的な能力を測定・記録・評価するために、人体内における筋力と関節力の移動を観察することが可能になる。他の用途として、整形外科分野および人間工学分野における研究と設計への応用が挙げられる。
本発明の別の実施形態は処理方法であり、モーション・キャプチャー(動き捕獲)システムから取得したリアルタイムの3Dマーカー・データストリームを、リアルタイム処理アルゴリズム群に組み込む。これらのアルゴリズムは、関節に取り付けた3Dマーカーに基づいて、回転中心、位置、並びに、方向を求める。この処理方法に従って、加速度と速度とを導き、さらに、導かれたこれらのデータを筋力値に変換する。変換された筋力値を、筋肉と関節トルクの3D色空間における視覚化に用いるデータストリームとして、3D人体筋肉モデルに伝送する。
本明細書で説明する特徴や利点は、何らこれらに限定される包括的なものではなく、当業者には自明のことであるが、図面、明細書、並びに特許請求の範囲内で、他に多くの特徴や利点が存在し得る。さらに、本明細書で用いた言葉や用語は、主に読みやすさや説明の目的に応じて選択されたものであり、何ら、本発明の要旨の範囲を限定するものではない。
これに限定されるものではないが、本発明の一実施例に従って構成された、(図示しない)ユーザー上に配置されたモーション・キャプチャー(動き捕獲)用ポイントを示すコンピュータ生成画像。 本発明の一実施例に従って構成された、運動学的骨格を示すCG(コンピュータで作った)画像。 本発明の一実施例に従って構成された、解剖学的に正確な骨格を示すCG画像。 本発明の一実施例に従って構成された、解剖学的に正確な3次元筋肉層を示すCG画像。 本発明の一実施例に従って構成された、解剖学的に正確な3次元骨格上に搭載された解剖学的に正確な3次元筋肉層を示すCG画像。 本発明の一実施例に従って構成された、パイプライン層の接続を示すCG画像。 本発明の一実施例に従って構成された、仮想歩行(V−Gait)を示すCG画像。 本発明の一実施例に従って構成された、モーション・キャプチャーシステムを示すブロック図。 本発明の一実施例に従って構成された、モーション・キャプチャー方法を示すフローチャート。
筋力そのものは、その性質上、通常は目に見えるものではなく、人が自分の周囲に筋力を加えた結果が見えるに過ぎない。本発明の一実施形態は、人の筋骨格系における力の移動が明らかになるように、人体における筋力シミュレーションをリアルタイムで観察可能にするものである。このような視覚化は、具体的には、関節の位置と方向とを含むIK(逆運動学)骨格層に対する高速で正確なリアルタイムのモーション・キャプチャーデータ処理と、加速度と速度とを導き出す処理と、リアルタイムで逆動力学を導き出す処理と、関節トルクから筋力を導き出す処理と、さらに、結果として得られたデータストリームを正確な3D(3次元)人体筋肉モデルにおける色変化と形状変化とに変換する3D視覚化処理とにより達成される。
出願人は、あらゆる目的で、米国特許第6,774,885号を本明細書に参照することにより組み込む。
本発明の一実施形態は、3D人体筋肉モデルの色空間アニメーションを用いて、人体における筋力と関節トルクをリアルタイムに表示する方法である。専用アルゴリズムのパイプライン処理により、モーション・キャプチャー(動き捕獲)システムから取得されるデータストリームを解析する。専用アルゴリズムのパイプラインは、関節の方向と、加速度および速度と、順動力学および逆動力学を導き出し、筋力と関節トルクとをリアルタイムで測定する。得られた筋力と関節トルクのデータをリアルタイムで3D人体筋肉モデルに伝送して、ユーザーが力とトルクの発生時にリアルタイムで観察できるようにする。
本発明の別の実施形態は、ユーザーあるいはオペレーターによるランタイム相互作用を可能にするものである。本発明のこの実施形態は、モーション・キャプチャー技術とシミュレーション技術と専用のリアルタイム・データ処理アルゴリズムとを組み合わせることにより実現される。この実施形態では、ハードウェア要素並びにソフトウェア要素をオーサリング・制御ソフトウェアと組み合わせて用いることにより、人体が生み出す力とトルクとをリアルタイムで視覚化する。
本発明の一実施形態は、さまざまな産業分野で利用可能な新しい測定および視覚化ツールを提供する。本発明の技術により、所定の状況範囲で人の機能的な能力を測定・記録・評価するために、人体内における筋力の移動を観察することが可能になる。本発明の少なくとも一つの実施形態は医学的用途を企図したものであるが、本発明の実施形態は、人間工学やスポーツを含む他の市場分野にも適用可能である。
本発明のさまざまな実施形態は、スポーツ産業やフィットネス産業など数多くの分野で有用なツールを提供する。このシステムにより、任意の運動時にリアルタイムで筋力を視覚化することができる。図3に示すこのようなシステムを用いて、所定の力とトルクとをリアルタイムでリアルに視覚化することにより、筋力を増強したり、最大限に活用したり、改善したりできる。このシステムにより、ユーザー30は、人体内のさまざまな筋肉への力の移動を観察して、所望の効果を得ることが可能になる。モーション・キャプチャーシステム32は、ユーザーの動きを瞬時に記録して、即時に筋力を視覚化した画像34を提供する。
本発明の一実施形態は、筋力とトルクのリアルタイムでの観察を可能にすることにより、医療分野で活用可能である。これにより、多くの患者のクオリティ・オブ・ライフ(QOL:生活の質)を支援・改善することができ、身体を自由に動かせない患者に、身体の動きや筋肉の挙動を知覚させることが可能になる。このシステムは、外傷性の脳損傷や脳障害並びに脊椎損傷の患者に有用である。身体動作を認識することにより、身体が所定の動きを記憶しているという概念が裏付けられ、シナプス経路が再生される場合もありえる。所望の筋力を視覚化することにより、その筋肉を動かすように身体を再訓練することができる。整形外科や人工装具の分野では、どこの筋力を失っているとか、損傷した機能を補償するためにどこに余分な力を出しすぎているとか、現在の状況を患者が理解するための役に立つ。整形外科患者、人工装具患者、肢切断患者に対して、筋肉の損傷状態を視覚化して、その追跡を可能にする一方で、動きの訓練や改善に役立つ。
本発明のさらに他の実施形態は、筋力と結果として生じる関節力とを組み合わせて、関節内部で働く力を算出し、視覚化する。これは、人間工学やスポーツの分野で、筋肉の使い過ぎによる損傷を防ぎ、治療するための訓練用ツールとして有用である。
本発明の一実施形態において、図2に示すデータ解析パイプラインの最初の工程では、モーション・キャプチャーシステムからデータストリームを取得し、人体各部に関して関節の角度を算出し、算出された各関節を球形状で図示する。人体各部の加速度と速度とを導き出す前に、逆運動学を利用して、モーション・キャプチャーデータから関節の方向を計算する。パイプラインの次の工程では、関節角度の計算結果を取得し、(人体各部を表す)各関節の加速度値と速度値とを導き出す。導き出された加速度値と速度値とを基礎値として用いて、逆動力学に基づく計算を行う。計算結果として得られた筋力と関節トルクとを、3D筋肉モデル上で色情報として表示・出力する。
本発明を医学分野に適用した実施例を説明する。リアルタイムで動作するシステムの一実施例として、「仮想歩行実験(Virtual Gait Lab)」と呼ばれる開発計画がある。この計画は、種々の再現可能な条件下で、人体の筋力と関節トルクのリアルタイムでの観察・評価を可能にする仮想現実システムの開発に関するものである。
このような実施形態の利点の一つとして、さまざまな医療分野における診断・治療行為を向上させることができる。制御されたリアルタイムの環境下で、筋力と関節トルクのパターンを観察・解析する機会を初めて医療専門家チームに提供することにより、診断・治療行為の向上につながる。
このシステムは、床反力の測定機能を有する機器を搭載したトレッドミルと、力を表示するための大型スクリーンあるいは投影システムと、リアルタイムのモーション・キャプチャー(動き捕獲)システムと、モーション・キャプチャーデータを筋力および関節トルクの表示に変換する専用の計算パイプラインと、を備える。
インタラクティブな(対話型)仮想リアルタイム筋肉モデルの開発に本発明を適用することも可能である。このインタラクティブな仮想リアルタイム筋肉モデルは、患者に対しては、あらゆる動きを調べる無限に近い探索手段としての役割を果たすと同時に、医療専門家に対しては、人体内において複雑に絡み合う力をモニターする正確な測定ツールとしての役割を果たす。
特に、平衡を保つという複雑な動作に対して、筋活動パターンに基づき、被験者が倒れるか否かを予測できる。このようなシミュレーションは、所定の平衡を保つ動作における正常な応答パターンと病的な応答パターンを理解する目的で行われる。
このような実施形態は、患者と医者の双方に試験および学習の機会を与えるのみでなく、運動制御に関する貴重な研究を可能にするものである。また、リアルタイムで筋力を視覚化する新しい形態の実験への道を開くものである。
たとえば、パーキンソン病の患者に見られるような筋肉(筋力)の振戦は、多くの臨床医や人の動きを研究する科学者たちから、不可解な謎であると考えられている。このような患者たちにおいては、何らかの視覚的刺激が(歩行時に用いられるような)ほぼ正常に見える筋力パターンの誘因となる一方で、視覚的刺激がない場合には、筋力パターンは始まりさえしない。健康な被験者の場合には、広範囲に及ぶ運動パターンの学習データへの多チャンネル感覚入力により、歩行している間の筋力移動を継続的に制御することができる。リアルタイムでの筋力パターン出現の観察が可能になれば、病気の基礎的な理解が進み、治療法を見つける助けになる。このような実施形態により、人の動きに関係するナチュラル・プロセスの複雑さを垣間見ることができる。
部分麻痺や手足の不全麻痺等の末梢障害の患者にも本発明を適用できる。このような患者においては、感覚入力の部分的な欠如や筋肉協調の異常により、歩行と平衡保持が難しくなる。通常、患者は、歩行と平衡保持を可能にするような補償行動をとり、この結果、人体の健常部位における運動パターンが正常パターンから逸脱する。リアルタイムでの筋力と関節トルクとの視覚化を利用することにより、補償行動に起因する異常と原発性疾患に起因する異常とを区別することができる。
本発明の一実施形態を適用した別の例は、正しい持ち上げ動作を学ぶことにより、腰痛を予防・治療するものである。椎間板上で働く力をリアルタイムで計算・視覚化することにより、自分の動きに不安感を持つ患者に即時にデータをフィードバックすることが可能になる。
多くの実施形態において、筋力を視覚化することが可能であるが、所定の訓練適用例では、計算パイプラインにより得られた筋力値に基づく音声信号を与えるようにしてもよい。他の訓練適用例では、仮想オブジェクトの位置を変化させたり、あるいは、被験者が立っている運動プラットフォームの位置を変化させたりする仮想環境の入力として、筋力値を用いるようにしてもよい。
リアルタイムでの筋力表示を実現する計算パイプラインは、融通が利き、システム・ランタイム中のいつでも、順動力学シミュレーションを実行することができる。動きを出力する一方で、1シーケンスの間、逆動力学シミュレーションに対する一連の動きの入力を停止し、関節の動きの計算値を入力として用いる。従って、順動力学シミュレーションでは、被験者の関節付近に発生する力のモーメントから動きと反力とを算出する。このような順動力学に基づくシミュレーション結果を、仮想環境の一部として視覚化することができ、仮想状況におかれた患者に起こり得る事態を予測することができる。
順動力学の計算及び逆動力学の計算には、通常、多くの方程式が用いられる。これらの方程式は、方程式作成のために採用された方法に応じて、それぞれニュートン‐オイラー(Newton−Euler)方程式、ラグランジュ(Lagrange)方程式、ケイン(Kane)方程式等と称される。これらの方程式は、運動方程式と呼ばれ、人体に加えられる一般化された力と一般化された動きとの関係を示す。ここでいう「一般化」とは、外界における3次元座標よりもむしろ、人体の動きの可能性(自由度)に応じて策定される。すなわち、一般化された力の大部分が、実際に、力のモーメント(トルク)であることを意味する。床との接触等、一種の周辺環境との相互作用を説明する方程式を加えるようにしてもよい。順動力学シミュレーションの際に同時に方程式を解くようにしてもよいし、逆動力学シミュレーションの際に代数的に方程式を解くようにしてもよいし、あるいは、順動力学と逆動力学の混合シミュレーションを実行するように方程式を整理しなおして、解くようにしてもよい。本発明の一実施形態において、このような計算は、すべてリアルタイムで実行される。
動力学シミュレーションから、質量中心の位置を算出し、仮想環境に必要な場合には、足の位置と共に、算出した質量中心の位置に基づいて、プラットフォームを駆動する。人体モデルは、被験者の力の関節モーメントを生成する。順動力学シミュレーションを開始し、運動パターンにおける弱い部分の位置を特定する。
リアルタイム計算パイプラインは、主に、モーション・キャプチャー(動き捕獲)センサーからの入力データを処理し、集められたデータを上述の人体モデル上にマッピングして、状況に応じて、さまざまな入力データおよび/あるいは算出データを処理する。リアルタイム計算パイプラインは、さらに、図3に示すように、筋力や関節トルクのリアルタイムでの3Dグラフィック表示28を行い、トレッドミル38や表示システム34等の出力装置を駆動する。
オペレーター用のユーザーインターフェースは、専用のソフトウェアプログラムを介して、図1Dに示すリアルタイム3D筋肉モデル26との通信手段として実現される。処理の一例として、実行するべき動きの種類を決めた後で、被験者の正面のスクリーンにリアルタイム3D筋肉モデルを投影する。ユーザーが立つプラットフォームあるいはトレッドミルは、システムの一部として、すなわち、被験者の動きに対する反作用として、制御される。図1Aおよび図2に示すように、モーション・キャプチャー(動き捕獲)マーカー20が、ユーザーに取り付けられ、その位置が記録される。モーション・キャプチャー・マーカーのデータは、アルゴリズムに入力され、人体モデルの自由度に換算される。人体モデルに質量セグメント22と被験者の慣性力とを加えて、図1Eに示すような3D筋肉モデルのリアルタイムでの色空間アニメーションとして表示する。
骨格の動き特性および質量特性から、質量中心の位置を算出する。算出した質量中心の位置と足の位置とに基づいて、周囲の状況に応じて必要な動きをするように、トレッドミルあるいはプラットフォームを駆動する。人体モデル26上に、必要に応じて、被験者の力の関節モーメントを生成する。被験者が利用可能なように、この情報を投影画像に加えることもできる。順動力学シミュレーションも同様に行い、運動パターンにおいて弱い部分の位置を特定することもできる。
図1Aないし図1Eは、本発明の一実施例に従うリアルタイム計算パイプラインの概要を示す。図1Aに示すように、ユーザー人体において処理上重要なさまざまな位置に、数多くのモーション・キャプチャー(動き捕獲)センサーあるいはマーカー20を取り付ける。センサーから送られるデータを、モーション・キャプチャーシステム32が受信する。好適な実施例において、モーション・キャプチャーデータセットは、ユーザー全身のX軸、Y軸、Z軸の位置を含み、100FPS(frames per second:1秒あたりのフレーム数)を超える速度でコンピュータ36に伝送される。コンピュータ36は、オペレータ用のユーザーインターフェース34とインタラクティブに(対話形式で)処理を進め、計算パイプラインの最初の工程を実行する。すなわち、計算パイプラインは、リアルタイムで位置データを図1Bに示すような逆運動学骨格22に変換する。このデータを逆運動学骨格22に適用することにより、ほぼリアルタイムで解剖学的に正確な3D骨格24が駆動される(図1C参照)。次に、図1Dに示す解剖学的に正確な3D筋肉層26を人体骨格24に加える。その後、図1Eに示すような3D筋肉モデルに、リアルタイムの計算パイプラインから得られた筋力と関節トルクを、各筋肉のリアルタイム色空間アニメーション28として加える。
図2に示すように、人体にマーカー20を装着して、初期位置すなわち平衡位置をとるようにテンプレート22を処理する。マーカー20を用いて、動きを記録する。この場合、ほぼ瞬時にマーカー20の動きを捕獲して、テンプレート22を完成させる。テンプレート22は、テンプレート照合アルゴリズムを用いて、欠損したあるいは不良のマーカーデータを補完する。テンプレート照合アルゴリズムの処理結果を、逆運動学計算骨格24に伝送する。ここで、マーカーの位置データをリアルタイムでプロットして、計算骨格24における関節の方向を求める。このように、制約ベースの処理を行うことによって、幾何学的な(解剖学的に正確な)骨格を駆動することができる。この骨格が、筋力視覚化層の基礎となる。
図3に示す本発明の一実施例において、機器を搭載したトレッドミル38上に立つ患者30は、自分自身のインタラクティブな(対話型)リアルタイム3D筋肉モデル34を見て、筋力を働かせる際に活動する筋肉を特定することができる。このようなインタラクティブな(対話型)筋力モデル34は、患者の身体30上に取り付けたモーション・キャプチャー(動き捕獲)光学センサー32と機器を搭載したトレッドミル38内に配置されたセンサーとから得られたデータに基づいて、上述した方法に従って、プロセッサ36により算出される。たとえば、機器を搭載したトレッドミル38内に重量センサーを配置する。加速度計、速度計、回転・位置センサー等の他のセンサーをさらに用いるようにしてもよい。
図4は、本発明の一実施形態において可能なハードウェアとソフトウェアとの相互接続を示すブロック図である。ハードウェア・プラットフォームは、高性能マルチコア多重プロセッサ型ワークステーションに基づくものである。
本発明の一実施例において、多重CPUハードウェア・プラットフォーム36は、コンピュータの処理手段、記憶手段、インターフェース手段として用いられる。専用ホストに対するイーサネット(Ethernet:登録商標)接続、直列接続、SCSI接続等の標準的な高速接続を利用して、さまざまな周辺機器および通信が実現される。たとえば、周辺機器と連動する別のパソコン(PC)や組込オンボード・コンピュータを専用ホストとして用いることができる。本実施例のモーション・キャプチャー(動き捕獲)光学システムは、六台のカメラを備え、光学式モーション・キャプチャーシステムのデータ取得部を用いて、カメラからの入力を所望のデータセットに変換する。
本発明の一実施例のデータセットは、人30からリアルタイムに取得されるセンサー20の3D(3次元)位置情報であり、CPU36との間でデータを高速に交換可能な専用ホストが利用しやすいものである。このようなデータは、専用のファイルフォーマットで配信されるものでもよい。これに限定されるものではないが、光学式モーション・キャプチャーシステムは、たとえば、さまざまなセットアップ用に容易に構成可能なリアルタイムの受動マーカーシステム32であってもよい。このシステムは、100Hzを超える速度で最大300個の光学マーカーの3D座標データを変換し、表示することができる。CPUに接続されて、データおよび制御情報を伝送する専用ホストに、機器を搭載したトレッドミル38を相互接続する。本発明の一実施例のトレッドミル38は、トレッドミルベルトの下に設置した力センサーを用いて、リアルタイムで床反力を測定する機能を有する。モーション・キャプチャーシステム32とトレッドミル38との間にフィードバック・ループが確立されるように、計算パイプラインにトレッドミル38の速度を相互接続する。その結果、歩行/走行速度が変化しても、人体をトレッドミルの中心位置に保持し続けることができる。プラズマスクリーンやビデオ・プロジェクタ/スクリーン等の投影装置34を用いて、リアルタイムの3D筋肉モデルをユーザーに表示する。
図5は、本発明の一実施形態に従い構成されたシステムの処理を示すフローチャートである。モーション・キャプチャーシステム1から入力されたマーカーの3D(3次元)座標を、運動学的ソルバ6に入力する。運動学的ソルバ6は、さらに、骨格定義とマーカーセットのテンプレート3のリソース・ファイルを用いて、リアルタイムで現在の骨格姿勢を出力する。リアルタイムの低域フィルタリング処理および微分処理により、骨格姿勢の変化を処理して、運動方程式7の入力として利用できる速度および加速度に変換する。運動学的ソルバ6の出力を用いて、それぞれの筋肉に対する筋肉経路5を生成し、視覚化処理9の際に用いられる概略骨格を出力する。力センサー群2から取得される床反力並びにその他の外力も、運動方程式7の入力として用いられる。さらに、それぞれの体重特性4を含むリソース・ファイルも、運動方程式7の入力として用いられる。運動方程式7の出力は、関節モーメントとして、最適化処理8に入力される。また、各筋肉経路5から取得される筋長とモーメントアームも、最適化処理8に入力される。最適化処理8から出力された筋力を用いて、リアルタイムの筋力視覚化処理9を実現する。
本発明の一実施形態において、レーベンバーグ‐マルカート非線形最小二乗法(Levenberg−Marquardt algorithm)を用いて、大域的最適化問題を解決することにより、(一般化された座標群で規定される)骨格姿勢をリアルタイムに算出する。解析的ヤコビ行列(Jacobian matrix)を用いることにより、高速計算が可能になる。
本発明の一実施形態において、順運動学方程式用のCコードを生成するソフトウェアを用いて、運動方程式を作成する。次に、作成された方程式に従って、骨格の一般化座標から、人体上に取り付けられたマーカーの座標を求める。記号的微分を行うことにより、ヤコビ行列を形成する順動力学方程式の導関数が得られる。最後に、得られた方程式を、ランタイムで計算を実行する計算パイプラインに組み込まれるコンピュータ・コードに変換する。
本発明の一実施形態において、静的最適化問題の解として、筋力が算出される。静的最適化問題では、一般的に、すべての筋力が負ではなく、かつ、それぞれのモーメントアームで乗算された筋力が逆動力学方程式の解である関節トルクに一致することを条件として、正規化筋力のN乗の和を最小化する。正規化筋力は、筋肉が有する力の最大能力に対する筋力として定義される。モーメントアームは、筋力ベクトルから所定関節の瞬間回転中心までの距離であり、関節の一般化座標に対する筋長の微分係数として数学的に算出される。従来の最適化法はリアルタイムで用いるためには時間がかかりすぎる。筋力の概算に通常用いられるN=2の場合、二次計画問題のニューラルネットワーク・アルゴリズムを用いることにより、リアルタイムに解が得られる。
モーション・キャプチャー(動き捕獲)という用語は、長年にわたり、さまざまな分野で適用されてきた、人体すなわちオブジェクトの動きを捕獲するための種々の技術の総称である。モーション・キャプチャーは、性能本位で、3次元(3D)アニメーションを作成し、自然なシミュレーションを行うことを目的とする。娯楽産業においては、オペレーターは、モーション・キャプチャー技術を利用することによって、(コンピュータで作った)CGキャラクターを用いることができる。また、モーション・キャプチャー技術を利用して、あらゆる種類の人の動きを用いた複雑で自然な動きを作り出し、無生物であるオブジェクトにもリアルな動きをさせることができる。モーション・キャプチャーシステムが、リアルタイムのデータフィードバック機能を持つ場合には、オペレーターは、所定の動きが満足できるものであるか否かを瞬時に判定することができる。モーション・キャプチャー技術は、全身の動きに適用できるばかりでなく、手のアニメーションや顔のアニメーションおよびリアルタイムの口パクにも利用できる。また、モーション・キャプチャー技術は、医学分野、シミュレーション、工学や人間工学の分野、長編映画、広告、テレビ、3Dコンピュータゲームの分野でも利用できる。本発明では、モーション・キャプチャー技術を用いて、各マーカーの3D(3次元)XYZ座標の位置を出力することができる。
自動車、ロボット工学、他のさまざまな工学分野を含む多くの産業で、力センサーが用いられている。力センサーは、通常、センサーにかかる鉛直力成分や水平力成分およびせん断力成分を含む合力を測定する。本発明において、力センサーを用いて、人がその上で立っている、歩いている、あるいは、走っているトレッドミルからの床反力を測定する。たとえば、本発明の一実施例のトレッドミルは、トレッドミルベルトの下に設置した力センサーを用いて、リアルタイムで床反力を測定する機能を有する。モーション・キャプチャーシステムとトレッドミルとの間にフィードバック・ループが確立されるように、計算パイプラインにトレッドミルの速度を相互接続する。その結果、歩行/走行速度が変化しても、人体をトレッドミルの中心位置に保持し続けることができる。
骨格定義とマーカーセットのテンプレート3は、本発明の計算パイプラインでリソース・ファイルとして用いられる。人の体格や体重はさまざまであり、それぞれの人に最も適合する骨格テンプレートを骨格テンプレート群の中から選択する。マーカーテンプレートを用いて、人体上に取り付けられた4つのマーカーの位置を特定する。通常、このようなマーカーは、人体の各関節に設置される。
体重特性4は、それぞれの人の身体各部の重量を示す。人の体重はさまざまであり、これが、所定の動きをするために働く筋力にも影響を与える。このような体重特性を、リアルタイムにおける正確な力を算出するためのリソースとして用いる。
筋肉経路5を用いて、ユーザー間の体格の相違を補償する。被験者間で筋肉の長さや幅が異なり、これが、力の計算にも影響を与える。長い筋肉と短い筋肉では同じ動きをするために働く力が異なる。また、靭帯の配置も人によって異なる。本発明の一実施例において、筋肉経路を利用して、筋力と関節トルクとを算出する。
運動学的ソルバ6は、逆運動学を用いて、関節の方向を算出する。運動学は、すべての関節の角度が既知である場合に、結合構造の端部の空間における位置を算出する処理である。逆運動学は、これとは逆方向の処理を行う。すなわち、構造の端点が既知である場合に、端点に到達するために必要とされる関節の角度は何度であるか?このような処理が、ロボット工学や3Dコンピュータアニメーション、その他の工学分野で利用されている。本発明の一実施例において、この処理は、データ解析パイプラインにおける単一の工程であり、モーション・キャプチャー(動き捕獲)システムからデータストリームを取得し、人体各部における関節の角度を算出する。また、本発明の一実施例において、逆運動学を用いることにより、モーション・キャプチャーデータから関節の方向を算出し、XYZ方向の位置の値を、度数単位あるいはラジアン単位の関節の回転角度に変換する。
運動と力の計算に用いられる方程式は、物理科学の分野で当業者に周知のものを用いてもよいし、あるいは、物理の分野で周知の方程式から簡単に導き出すようにしてもよい。運動方程式7は、数学的方程式群からなり、入力された運動学データストリームをマーカーテンプレート及び骨格テンプレートと組み合わせて、組み合わせたデータを順動力学データおよび逆動力学データに変換する。このような数学的方程式としては、ラグランジュ(Lagrange)方程式、ケーシー(Casey)方程式、あるいは、オイラー‐ニュートン(Euler−Newton)方程式が挙げられる。本発明の一実施例において、運動方程式7は、人体に加えられる一般化された力と一般化された動きとの関係を示す。ここでいう「一般化」とは、外界における3次元座標よりもむしろ、人体の動きの可能性(自由度)に応じて策定される。すなわち、一般化された力の大部分が、実際に、力のモーメント(トルク)であることを意味する。床との接触等、一種の周辺環境との相互作用を説明する方程式7を加えるようにしてもよい。順動力学シミュレーションの際に同時に方程式7を解くようにしてもよいし、逆動力学シミュレーションの際に代数的に方程式7を解くようにしてもよいし、あるいは、順動力学と逆動力学の混合シミュレーションを実行するように方程式7を整理しなおして、解くようにしてもよい。本発明の一実施例において、このような計算は、すべてリアルタイムで実行される。一実施例において、リアルタイムでの最小サンプリング速度が、テレビ・放送業界の当業者に周知の標準値である30Hzを超えるように、効率的アルゴリズムを用いて、実効遅れを除去する。当業者には容易に理解されるであろうが、所定の適用分野でも、同様に、このような高速化が容認される、あるいは、望ましい。
最適化処理8は、それぞれの筋肉経路から入力される筋長とモーメントアームとに基づいて、筋力と関節トルクとを出力する。データの最適化処理8では、データの正規化ルーチンおよび複数のリアルタイム・ソフトウェア・フィルターを用いる。
リアルタイムの筋力視覚化処理9は、筋力と関節トルクの入力に基づき、スクリーン上に3D人体モデルとして表示された各筋肉のカラーアニメーションを作成する。色の明度および色相は、筋力の振幅やゲイン並びに筋活動パターンに相関する。ユーザーおよびオペレーターは、いつでも、人体で活動している筋力のリアルタイム・アニメーションを見ることができる。
本発明は、他の市場分野でも適用可能である。スポーツおよびフィットネス分野は、このような市場分野の一つである。本発明の一実施例は、フィットネス産業を含む数多くの分野で有用なツールを提供する。このシステムは、リアルタイムで任意の運動に関係する筋力を視覚化することができる。このシステムを用いて、所定の力およびトルクをリアルに視覚化することにより、筋力を増強・向上することができる。本発明のシステムにより、ユーザーは、身体内のさまざまな筋肉に対する力の移動を観察し、所望の効果を得ることができる。モーション・キャプチャーシステムは、ユーザーの動きを瞬時に記録し、即時に筋力を視覚化することができる。
本発明の一実施例は、筋力とトルクのリアルタイムでの観察を可能にすることにより、医療分野に多大な影響を与える。これにより、多くの患者のクオリティ・オブ・ライフ(QOL:生活の質)を支援・改善することができ、身体を自由に動かせない患者に、身体の動きや筋肉の挙動を知覚させることが可能になる。このシステムは、外傷性の脳損傷や脳障害並びに脊椎損傷の患者に有用である。身体動作を認識することにより、身体が所定の動きを記憶しているという概念が裏付けられ、シナプス経路が再生される場合もありえる。所望の筋力を視覚化することにより、その筋肉を動かすように身体を再訓練することができる。整形外科や人工装具の分野では、どこの筋力を失っているとか、損傷した機能を補償するためにどこに余分な力を出しすぎているとか、現在の状況を患者が理解するための役に立つ。整形外科患者、人工装具患者、肢切断患者に対して、筋肉の損傷状態を視覚化して、その追跡を可能にする一方で、動きの訓練や改善に役立つ。本発明を医学分野に適用した実施例を説明する。リアルタイムで動作するシステムの一実施例として、「仮想歩行実験(Virtual Gait Lab)」と呼ばれる開発計画がある。この計画は、種々の再現可能な条件下で、人体の筋力と関節トルクとのリアルタイムでの観察・評価を可能にする仮想現実システムの開発に関するものである。この計画の主目的の一つは、さまざまな医療分野における診断・治療行為を向上させることである。制御されたリアルタイムの環境下で、筋力と関節トルクのパターンを観察・解析する機会を初めて医療専門家チームに提供することにより、診断・治療行為の向上につながる。
図3に示す実施例では、このシステムは、床反力の測定機能を有する機器を搭載したトレッドミル38と、力を表示するための大型スクリーンあるいは投影システム34と、リアルタイムのモーション・キャプチャー(動き捕獲)システム32と、モーション・キャプチャーデータを筋力および関節トルクの表示に変換する専用の計算パイプライン36と、を備える。
インタラクティブな(対話型)仮想リアルタイム筋肉モデルの開発に本発明を適用することも可能である。このインタラクティブな仮想リアルタイム筋肉モデルは、患者に対しては、あらゆる動きを調べる無限に近い探索手段としての役割を果たすと同時に、医療専門家に対しては、人体内において複雑に絡み合う力をモニターする正確な測定ツールとしての役割を果たす。特に、平衡を保つという複雑な動作に対して、筋活動パターンに基づき、被験者が倒れるか否かを予測できる。このようなシミュレーションは、所定の平衡を保つ動作における正常な応答パターンと病的な応答パターンを理解する目的で行われる。このような実施形態は、患者と医者の双方に試験および学習の機会を与えるのみでなく、運動制御に関する貴重な研究を可能にするものである。また、リアルタイムで筋力を視覚化する新しい形態の実験への道を開くものである。たとえば、パーキンソン病の患者に見られるような筋肉の振戦は、多くの臨床医や人の動きを研究する科学者たちから、不可解な謎であると考えられている。このような患者たちにおいては、何らかの視覚的刺激が(歩行時に用いられるような)ほぼ正常に見える筋力パターンの誘因となる一方で、視覚的刺激がない場合には、筋力パターンは始まりさえしない。健康な被験者の場合には、広範囲に及ぶ運動パターンの学習データへの多チャンネル感覚入力により、歩行している間の筋力移動を継続的に制御することができる。リアルタイムでの筋力パターン出現の観察が可能になれば、病気の基礎的な理解が進み、治療法を見つける助けになる。このような実施形態により、人の動きに関係するナチュラル・プロセスの複雑さを垣間見ることができる。部分麻痺や手足の不全麻痺等の末梢障害の患者にも本発明を適用できる。このような患者においては、感覚入力の部分的な欠如や筋肉協調の異常により、歩行と平衡保持が難しくなる。通常、患者は、歩行と平衡保持を可能にするような補償行動をとり、この結果、人体の健常部位における運動パターンが正常パターンから逸脱する。リアルタイムでの筋力と関節トルクとの視覚化を利用することにより、補償行動に起因する異常と原発性疾患に起因する異常とを区別することができる。
本発明は、まったく新しい方法で筋力の観察と評価をするという新しい原理をリアルタイムの視覚化に与えるものである。この原理により、人が現在使っている筋肉やその程度を即時に特定することが可能な視覚化機構が構築される。
本発明の一実施形態に従う筋力処理システムは、処理手段と、処理手段に連結されるモーション・キャプチャーシステムとを備える。複数の運動センサーからモーション・キャプチャーデータを取得し、リアルタイムで処理する。処理手段には、計算パイプラインが接続され、得られたデータをリアルタイムで処理し、リアルタイムで筋力と関節トルクとを示す3D筋肉モデルにおける色空間の変化として、リアルタイムで視覚化する。さらに、ランタイム制御入力と筋肉モデルを連動させる手段を備える。本発明の別の実施形態は、床反力の測定機能を有する機器を搭載したトレッドミルである。床反力の測定値を計算パイプラインで積分して、筋力と関節トルクとをリアルタイムで表示する。さらに別の実施形態は、逆運動学骨格層と、3D形状の解剖学的に正確な骨格層と、解剖学的に正確な筋肉モデル層と、を備えるインタラクティブな(対話型)3D筋肉モデルである。また別の実施形態は、モーション・キャプチャー(動き捕獲)データを記録する記憶手段と、リアルタイム処理パイプラインの各層を用いてデータをリアルタイムで処理する手段と、を備えるリアルタイム計算パイプラインである。さらに別の実施形態は、人体内における筋力と関節トルクをリアルタイムで視覚化したものをすべてリアルタイムで記録・評価・補正するための方法並びにシステムである。
上述の本発明の実施例の説明は、本発明を例示して、説明する目的でなされたものであり、なんら包括的なものではなく、開示された形態に厳密に本発明を限定するものではない。本発明の要旨の範囲内で、さまざまな変形や変更が可能である。本発明の要旨は、上述の詳細な説明に限定されるものではなく、以下に示す特許請求の範囲に従って規定するべきものである。例えば、本発明は、身体構造上の力を画像表示し、出力するシステムを提供する。本発明のシステムは、モーション・キャプチャーシステムと、前記モーション・キャプチャーシステムからデータを受信するコンピュータと、前記コンピュータ上に搭載される計算パイプラインと、を備え、前記計算パイプラインは、関節トルクと、筋力と、関節力とをリアルタイムで計算し、前記計算した力やトルクを視覚的に表示するように構成される。本発明のシステムはさらに、ランタイム制御部、表示装置、記憶装置、機器を搭載したトレッドミル、床反力センサーを個別または任意の組合せにて備えても良い。さらに、前記モーション・キャプチャーシステムは、光センサー、磁気センサー、慣性センサー、映像ベースのセンサーからなるセンサー群から選択されるセンサーを備えても良い。本発明のシステムにおいて、前記筋力と前記関節トルクとが人体画像上に表示されても良い。本発明はまた、身体構造上の力を画像表示する方法を提供する。本発明の方法は、ユーザーの身体に少なくとも一つのモーション・キャプチャー・マーカーを取り付け、前記少なくとも一つのマーカーからリアルタイムの位置データを集めて記録し、前記少なくとも一つのマーカーから得られた複数の位置データから回転データを導き出し、前記導き出された回転データからリアルタイムで加速度と速度とを算出し、前記算出された加速度と速度とを用いて、順動力学データと逆動力学データとを算出し、前記算出された順動力学データと逆動力学データとに基づいて、リアルタイムで筋力と関節トルクとを計算し、前記計算された筋力と関節トルクとを表示すること、を備える。本発明の方法において、前記計算された筋力と関節トルクとは3次元筋肉モデル上に表示されても良い。本発明の方法はさらに、ユーザーの体型を近似する身体テンプレートを選択する工程を備えても良く、前記計算された筋力と関節トルクとをカラーアニメーションで表示することを備えても良い。本発明の方法において、ヤコビ行列を用いて、前記加速度と速度の算出工程を容易にしても良く、前記筋力と関節トルクの計算工程はさらに、再帰型ニューラル・ネットワークを用いても良い。本発明はさらに、筋骨格障害の診断と治療を行うシステムを提供する。本発明のシステムは、運動プラットフォームと、前記プラットフォーム内に設置されるセンサーと、患者の動きを捕獲するモーション・キャプチャーセンサーと、関節トルクと筋力と関節力の位置及び強度を人体アニメーションモデル上でリアルタイムに表示する視覚表示部と、を備える。本発明のシステムにおいて、前記視覚表示部は、患肢の動きが改善されるように患者を訓練するために患者に提供されても良く、前記視覚表示部は、診断に必要な力とトルクのデータを臨床医に提供するように構成されても良い。本発明のシステムはさらに、臨床医の研究用に、前記視覚表示部による表示を再生可能な記録機能を備えても良く、前記視覚表示部用のデータベースを備えても良く、比較器を備え、これにより、前記データベースに、複数のユーザーから得られた視覚表示を格納しても良い。

Claims (10)

  1. 身体構造上の力を視覚表示し、出力するシステムを用いて、動いている身体の個々の筋力および関節モーメントをリアルタイムに算出・測定・記録・観察するための方法であって、
    前記システムは、
    リアルタイムの位置データを収集し、記録するためのモーション・キャプチャシステムと、
    前記モーション・キャプチャシステムからデータを受信し、受信したデータから回転データを導き出すコンピュータと、
    生体力学的身体骨格定義並びにマーカセットのテンプレートを備える第1のルックアップテーブルと、体重特性を備える第2のルックアップテーブルと、筋肉経路を備える第3のルックアップテーブルと、
    前記コンピュータに搭載されている計算パイプライン、およびカラーアニメーションを表示するためのコンピュータディスプレイ装置とを備え、
    前記方法は、
    動いている前記身体を前記モーション・キャプチャシステムの範囲内に置き、
    動いている前記身体の選択されたマーカポイントの3次元座標をリアルタイムで収集し、記録し、
    次元座標と、生体力学的身体骨格定義並びにマーカーセットのテンプレートを備える前記第1のルックアップテーブルとに基づいて、動いている身体の骨格姿勢をリアルタイムで計算し、
    前記動いている身体の骨格姿勢と、前記骨格姿勢の一次導関数速度と、前記骨格姿勢の二次導関数加速度と、動いている前記身体に影響を与える外力を表す力ベクトルと、前記第2のルックアップテーブルからの体重特性と、を用いて、前記身体の関節モーメントをリアルタイムで計算し、
    前記計算された骨格姿勢と前記第3のルックアップテーブルとに基づいて、筋長と筋肉モーメントアームとをリアルタイムで計算し、
    二次計画法および前記二次計画法用の神経ネットワーク最適化アルゴリズムを用いて、前記計算された関節モーメントと、前記計算された筋長および筋肉モーメントアームとに基づいて、筋力をリアルタイムで計算し、
    前記身体が動いている間に、前記計算された筋力から筋肉モデルのカラーアニメーションをリアルタイムで作成し、表示し、これにより、動いている前記身体の筋力の相対前記カラーアニメーションの各筋肉を相対的に色分けすることにより表されること、
    を備える方法。
  2. 請求項1記載の方法において、前記筋肉モデルのカラーアニメーションはさらに、3Dベクトルアニメーションの尺度及び色で関節トルクを表現する、方法。
  3. 請求項1記載の方法はさらに、
    少なくとも一つのモーション・キャプチャー・マーカーを、3次元座標により規定される前記身体上に設置し、
    前記少なくとも一つのマーカーからリアルタイムの位置データを集めて記録し、
    前記少なくとも一つのマーカーから得られた複数の位置データから回転データを導き出し、
    前記骨格姿勢の速度と、前記骨格姿勢の加速度と、身体に影響を与える外力を表す前記力ベクトルと、をリアルタイムで算出することを備える、方法。
  4. 請求項1記載の方法において、前記身体は人体である、方法。
  5. 請求項記載の方法において、前記モーション・キャプチャーシステムは、前記リアルタイムの位置データを検出するセンサーを備え、前記センサーは、光センサー、磁気センサー、慣性センサー、映像ベースのセンサーからなるセンサー群から選択される、方法。
  6. 請求項記載の方法において、身体構造上の力を視覚表示し、出力する前記システムは、前記動いている身体を支持する機器を搭載したプラットフォームを備える、方法。
  7. 請求項2記載の方法において、前記筋力と前記関節トルクとを人体表現物上に表示する、方法。
  8. 請求項4記載の方法はさらに、人体の体型を近似する生体力学的身体骨格定義とマーカーセットのテンプレートとを選択することを備える、方法。
  9. 請求項記載の方法において、前記計算パイプラインは、ヤコビ行列を用いて、前記リアルタイムでの計算を容易にする、方法。
  10. 請求項記載の方法において、前記計算パイプラインは、再帰型ニューラル・ネットワークを用いて、前記リアルタイムでの計算を容易にする、方法。
JP2009552792A 2007-03-07 2008-02-19 人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法 Active JP5016687B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US89339407P 2007-03-07 2007-03-07
US60/893,394 2007-03-07
US11/832,726 2007-08-02
US11/832,726 US20080221487A1 (en) 2007-03-07 2007-08-02 Method for real time interactive visualization of muscle forces and joint torques in the human body
PCT/US2008/054239 WO2008109248A2 (en) 2007-03-07 2008-02-19 Method for real time interactive visualization of muscle forces and joint torques in the human body

Publications (2)

Publication Number Publication Date
JP2010520561A JP2010520561A (ja) 2010-06-10
JP5016687B2 true JP5016687B2 (ja) 2012-09-05

Family

ID=39739017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009552792A Active JP5016687B2 (ja) 2007-03-07 2008-02-19 人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法

Country Status (6)

Country Link
US (2) US20080221487A1 (ja)
EP (1) EP2120710B1 (ja)
JP (1) JP5016687B2 (ja)
CA (1) CA2680462C (ja)
ES (1) ES2679125T3 (ja)
WO (1) WO2008109248A2 (ja)

Families Citing this family (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7782358B2 (en) * 2007-06-08 2010-08-24 Nokia Corporation Measuring human movements—method and apparatus
ATE512624T1 (de) * 2007-11-14 2011-07-15 Zebris Medical Gmbh Anordnung zur ganganalyse
AU2008252042B2 (en) * 2007-12-04 2014-05-29 Isotechnology Pty Ltd The Collection of Medical Data
SE0801267A0 (sv) 2008-05-29 2009-03-12 Cunctus Ab Metod för en användarenhet, en användarenhet och ett system innefattande nämnda användarenhet
US8620635B2 (en) 2008-06-27 2013-12-31 Microsoft Corporation Composition of analytics models
US8411085B2 (en) 2008-06-27 2013-04-02 Microsoft Corporation Constructing view compositions for domain-specific environments
US7980997B2 (en) * 2008-10-23 2011-07-19 University Of Southern California System for encouraging a user to perform substantial physical activity
US8314793B2 (en) 2008-12-24 2012-11-20 Microsoft Corporation Implied analytical reasoning and computation
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8444564B2 (en) * 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
WO2010099361A1 (en) * 2009-02-25 2010-09-02 Sherlock Nmd, Llc Devices, systems and methods for capturing biomechanical motion
TWI396110B (zh) * 2009-06-18 2013-05-11 Nat Univ Chin Yi Technology From the plane image of the establishment of three human space center of gravity and computer program products
US8531451B2 (en) 2009-06-19 2013-09-10 Microsoft Corporation Data-driven visualization transformation
US8692826B2 (en) 2009-06-19 2014-04-08 Brian C. Beckman Solver-based visualization framework
US9330503B2 (en) 2009-06-19 2016-05-03 Microsoft Technology Licensing, Llc Presaging and surfacing interactivity within data visualizations
US8493406B2 (en) 2009-06-19 2013-07-23 Microsoft Corporation Creating new charts and data visualizations
US8866818B2 (en) 2009-06-19 2014-10-21 Microsoft Corporation Composing shapes and data series in geometries
US8788574B2 (en) 2009-06-19 2014-07-22 Microsoft Corporation Data-driven visualization of pseudo-infinite scenes
US8412669B2 (en) * 2009-08-21 2013-04-02 Life Modeler, Inc. Systems and methods for determining muscle force through dynamic gain optimization of a muscle PID controller
US8139822B2 (en) * 2009-08-28 2012-03-20 Allen Joseph Selner Designation of a characteristic of a physical capability by motion analysis, systems and methods
US8527217B2 (en) * 2009-09-08 2013-09-03 Dynamic Athletic Research Institute, Llc Apparatus and method for physical evaluation
US8352397B2 (en) 2009-09-10 2013-01-08 Microsoft Corporation Dependency graph in data-driven model
WO2011034963A2 (en) * 2009-09-15 2011-03-24 Sony Corporation Combining multi-sensory inputs for digital animation
WO2011032541A1 (de) * 2009-09-16 2011-03-24 Otto-Von-Guericke-Universität Magdeburg Einrichtung zur bestimmung von wirbelabständen der wirbelsäule eines patienten
KR101616926B1 (ko) * 2009-09-22 2016-05-02 삼성전자주식회사 영상 처리 장치 및 방법
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US9043296B2 (en) 2010-07-30 2015-05-26 Microsoft Technology Licensing, Llc System of providing suggestions based on accessible and contextual information
US20120108909A1 (en) * 2010-11-03 2012-05-03 HeadRehab, LLC Assessment and Rehabilitation of Cognitive and Motor Functions Using Virtual Reality
US9283429B2 (en) 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
US9977874B2 (en) 2011-11-07 2018-05-22 Nike, Inc. User interface for remote joint workout session
US9457256B2 (en) 2010-11-05 2016-10-04 Nike, Inc. Method and system for automated personal training that includes training programs
WO2012061804A1 (en) 2010-11-05 2012-05-10 Nike International Ltd. Method and system for automated personal training
US10420982B2 (en) 2010-12-13 2019-09-24 Nike, Inc. Fitness training system with energy expenditure calculation that uses a form factor
US8963927B2 (en) * 2010-12-15 2015-02-24 Microsoft Technology Licensing, Llc Vertex-baked three-dimensional animation augmentation
US20120165703A1 (en) * 2010-12-22 2012-06-28 Paul William Bottum Preempt Muscle Map Screen
US8315823B2 (en) 2011-04-20 2012-11-20 Bertec Corporation Force and/or motion measurement system having inertial compensation and method thereof
US8315822B2 (en) 2011-04-20 2012-11-20 Bertec Corporation Force measurement system having inertial compensation
US8840527B2 (en) * 2011-04-26 2014-09-23 Rehabtek Llc Apparatus and method of controlling lower-limb joint moments through real-time feedback training
TWI534756B (zh) * 2011-04-29 2016-05-21 國立成功大學 運動編碼影像及生成模組、影像處理模組及運動展示模組
US9504909B2 (en) 2011-05-05 2016-11-29 Qualcomm Incorporated Method and apparatus of proximity and stunt recording for outdoor gaming
US8696450B2 (en) 2011-07-27 2014-04-15 The Board Of Trustees Of The Leland Stanford Junior University Methods for analyzing and providing feedback for improved power generation in a golf swing
US8771206B2 (en) 2011-08-19 2014-07-08 Accenture Global Services Limited Interactive virtual care
CN102426709B (zh) * 2011-08-19 2013-12-25 北京航空航天大学 一种基于快速逆向运动学的实时运动合成方法
WO2013036517A1 (en) * 2011-09-06 2013-03-14 Fenil Shah System and method for providing real-time guidance to a user
ITFI20110232A1 (it) * 2011-10-21 2013-04-22 Zionamento Sant Anna Metodo per il calcolo del centro di massa per una piattaforma umanoide
US9811639B2 (en) 2011-11-07 2017-11-07 Nike, Inc. User interface and fitness meters for remote joint workout session
US9526451B1 (en) 2012-01-11 2016-12-27 Bertec Corporation Force measurement system
US9168420B1 (en) 2012-01-11 2015-10-27 Bertec Corporation Force measurement system
US8363891B1 (en) 2012-03-26 2013-01-29 Southern Methodist University System and method for predicting a force applied to a surface by a body during a movement
CN104508669B (zh) 2012-06-04 2019-10-01 耐克创新有限合伙公司 一种综合健身-竞技分数的系统和方法
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US9235241B2 (en) * 2012-07-29 2016-01-12 Qualcomm Incorporated Anatomical gestures detection system using radio signals
US9478058B2 (en) * 2012-08-06 2016-10-25 CELSYS, Inc. Object correcting apparatus and method and computer-readable recording medium
US9275488B2 (en) 2012-10-11 2016-03-01 Sony Corporation System and method for animating a body
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US8764532B1 (en) 2012-11-07 2014-07-01 Bertec Corporation System and method for fall and/or concussion prediction
US11857331B1 (en) 2013-01-19 2024-01-02 Bertec Corporation Force measurement system
US8704855B1 (en) 2013-01-19 2014-04-22 Bertec Corporation Force measurement system having a displaceable force measurement assembly
US10231662B1 (en) * 2013-01-19 2019-03-19 Bertec Corporation Force measurement system
US10413230B1 (en) * 2013-01-19 2019-09-17 Bertec Corporation Force measurement system
US8847989B1 (en) 2013-01-19 2014-09-30 Bertec Corporation Force and/or motion measurement system and a method for training a subject using the same
US9770203B1 (en) 2013-01-19 2017-09-26 Bertec Corporation Force measurement system and a method of testing a subject
US11311209B1 (en) * 2013-01-19 2022-04-26 Bertec Corporation Force measurement system and a motion base used therein
US10646153B1 (en) 2013-01-19 2020-05-12 Bertec Corporation Force measurement system
US9526443B1 (en) 2013-01-19 2016-12-27 Bertec Corporation Force and/or motion measurement system and a method of testing a subject
US10010286B1 (en) 2013-01-19 2018-07-03 Bertec Corporation Force measurement system
US9081436B1 (en) 2013-01-19 2015-07-14 Bertec Corporation Force and/or motion measurement system and a method of testing a subject using the same
US11052288B1 (en) 2013-01-19 2021-07-06 Bertec Corporation Force measurement system
US10856796B1 (en) 2013-01-19 2020-12-08 Bertec Corporation Force measurement system
US11540744B1 (en) 2013-01-19 2023-01-03 Bertec Corporation Force measurement system
US9504336B2 (en) * 2013-02-13 2016-11-29 Jon Dodd Configurable bed
ES2432228B1 (es) * 2013-02-15 2014-11-18 Asociación Instituto De Biomecánica De Valencia Procedimiento e instalación para caracterizar el patrón de apoyo de un sujeto
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
US10402517B2 (en) 2013-06-26 2019-09-03 Dassault Systémes Simulia Corp. Musculo-skeletal modeling using finite element analysis, process integration, and design optimization
WO2014210344A1 (en) 2013-06-26 2014-12-31 The Cleveland Clinic Foundation Systems and methods to assess balance
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150097937A1 (en) * 2013-10-08 2015-04-09 Ali Kord Single-camera motion capture system
JP2017503225A (ja) * 2013-10-24 2017-01-26 アリ コードAli Kord モーションキャプチャシステム
WO2015073368A1 (en) 2013-11-12 2015-05-21 Highland Instruments, Inc. Analysis suite
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
WO2015135981A1 (en) * 2014-03-12 2015-09-17 Movotec A/S System, apparatus and method for measurement of muscle stiffness
US9858391B2 (en) * 2014-04-17 2018-01-02 The Boeing Company Method and system for tuning a musculoskeletal model
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10140745B2 (en) * 2015-01-09 2018-11-27 Vital Mechanics Research Inc. Methods and systems for computer-based animation of musculoskeletal systems
US9836118B2 (en) * 2015-06-16 2017-12-05 Wilson Steele Method and system for analyzing a movement of a person
US9916011B1 (en) * 2015-08-22 2018-03-13 Bertec Corporation Force measurement system that includes a force measurement assembly, a visual display device, and one or more data processing devices
US10860843B1 (en) * 2015-08-22 2020-12-08 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
US10555688B1 (en) 2015-08-22 2020-02-11 Bertec Corporation Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device
US10390736B1 (en) 2015-08-22 2019-08-27 Bertec Corporation Force measurement system that includes a force measurement assembly, at least one visual display device, and one or more data processing devices
US11301045B1 (en) * 2015-08-22 2022-04-12 Bertec Corporation Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device
US10216262B1 (en) * 2015-08-22 2019-02-26 Bertec Corporation Force management system that includes a force measurement assembly, a visual display device, and one or more data processing devices
KR102459677B1 (ko) 2015-11-05 2022-10-28 삼성전자주식회사 알고리즘 학습 방법 및 장치
US20170177833A1 (en) * 2015-12-22 2017-06-22 Intel Corporation Smart placement of devices for implicit triggering of feedbacks relating to users' physical activities
US11511156B2 (en) 2016-03-12 2022-11-29 Arie Shavit Training system and methods for designing, monitoring and providing feedback of training
US10625137B2 (en) * 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US11219575B2 (en) * 2016-03-23 2022-01-11 Zoll Medical Corporation Real-time kinematic analysis during cardio-pulmonary resuscitation
US20200073483A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
WO2018022597A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
US10687759B2 (en) 2018-05-29 2020-06-23 Facebook Technologies, Llc Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods
WO2018022658A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Adaptive system for deriving control signals from measurements of neuromuscular activity
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US11337652B2 (en) 2016-07-25 2022-05-24 Facebook Technologies, Llc System and method for measuring the movements of articulated rigid bodies
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US20190362853A1 (en) * 2017-02-10 2019-11-28 Apex Occupational Health Solutions Inc. Method and system for ergonomic augmentation of workspaces
CN108211308B (zh) * 2017-05-25 2019-08-16 深圳市前海未来无限投资管理有限公司 一种运动效果展示方法及装置
US11253173B1 (en) * 2017-05-30 2022-02-22 Verily Life Sciences Llc Digital characterization of movement to detect and monitor disorders
EP3618715A4 (en) * 2017-06-19 2021-02-17 Mohamed R. Mahfouz SURGICAL NAVIGATION OF THE HIP USING FLUOROSCOPY AND TRACKING SENSORS
US11544871B2 (en) * 2017-12-13 2023-01-03 Google Llc Hand skeleton learning, lifting, and denoising from 2D images
CN112005198A (zh) 2018-01-25 2020-11-27 脸谱科技有限责任公司 基于多个输入的手部状态重建
WO2019147996A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Calibration techniques for handstate representation modeling using neuromuscular signals
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
CN112074870A (zh) * 2018-01-25 2020-12-11 脸谱科技有限责任公司 重构的手部状态信息的可视化
WO2019148002A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
WO2019147949A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Real-time processing of handstate representation model estimates
WO2019147958A1 (en) * 2018-01-25 2019-08-01 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN112469469A (zh) 2018-05-25 2021-03-09 脸谱科技有限责任公司 用于提供肌肉下控制的方法和装置
CA3171798A1 (en) 2018-05-29 2019-12-05 Curiouser Products Inc. A reflective video display apparatus for interactive training and demonstration and methods of using same
CN110109532A (zh) * 2018-06-11 2019-08-09 成都思悟革科技有限公司 一种基于人体姿态获得系统的人体动作比对系统
US10970374B2 (en) 2018-06-14 2021-04-06 Facebook Technologies, Llc User identification and authentication with neuromuscular signatures
WO2020018892A1 (en) 2018-07-19 2020-01-23 Ctrl-Labs Corporation Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
EP3836836B1 (en) 2018-08-13 2024-03-20 Meta Platforms Technologies, LLC Real-time spike detection and identification
EP3853698A4 (en) 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
CN112771478A (zh) 2018-09-26 2021-05-07 脸谱科技有限责任公司 对环境中的物理对象的神经肌肉控制
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
KR102598426B1 (ko) * 2018-12-13 2023-11-06 현대자동차주식회사 합성곱 신경망법을 이용한 체결력 예측방법
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11497962B2 (en) 2019-03-05 2022-11-15 Physmodo, Inc. System and method for human motion detection and tracking
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
JP7133511B2 (ja) * 2019-06-11 2022-09-08 本田技研工業株式会社 情報処理装置、情報処理方法、およびプログラム
EP3984001A4 (en) * 2019-06-14 2023-06-14 The Regents of the University of California BIOMIMETIC SENSOR-MOTOR CONTROL DEEP LEARNING FOR BIOMECHANICAL MODEL ANIMATION
WO2020257777A1 (en) * 2019-06-21 2020-12-24 REHABILITATION INSTITUTE OF CHICAGO d/b/a Shirley Ryan AbilityLab Wearable joint tracking device with muscle activity and methods thereof
US11458362B1 (en) * 2019-10-11 2022-10-04 Bertec Corporation Swing analysis system
US11097154B1 (en) * 2019-10-11 2021-08-24 Bertec Corporation Swing analysis system
US11790536B1 (en) 2019-10-11 2023-10-17 Bertec Corporation Swing analysis system
CN114830183A (zh) * 2019-12-27 2022-07-29 索尼集团公司 信息处理装置、信息处理方法和信息处理程序
CN115485753A (zh) 2020-04-30 2022-12-16 库里欧瑟产品公司 用于交互式训练和演示的反射视频显示设备及其使用方法
US11167172B1 (en) 2020-09-04 2021-11-09 Curiouser Products Inc. Video rebroadcasting with multiplexed communications and display via smart mirrors
CN116507276A (zh) * 2020-09-11 2023-07-28 爱荷华大学研究基金会 用于机器学习以从图像分析肌肉骨骼康复的方法和设备
WO2022056271A1 (en) * 2020-09-11 2022-03-17 University Of Iowa Research Foundation Methods and apapratus for machine learning to analyze musculo-skeletal rehabilitation from images
CN112733301B (zh) * 2021-01-21 2023-08-08 佛山科学技术学院 一种基于神经网络的六维力矩传感器重力补偿方法及系统
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
WO2022221249A1 (en) * 2021-04-12 2022-10-20 Velocityehs Inc. Video-based hand and ground reaction force determination
CN113456060B (zh) * 2021-05-27 2023-01-17 中国科学院软件研究所 一种运动功能特征参数的提取装置
US11951357B1 (en) * 2022-11-30 2024-04-09 Roku, Inc. Platform for visual tracking of user fitness

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623428A (en) * 1990-12-25 1997-04-22 Shukyohoji, Kongo Zen Sohozan Shoriji Method for developing computer animation
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
JP2873338B2 (ja) * 1991-09-17 1999-03-24 富士通株式会社 動物体認識装置
WO1993006779A1 (en) 1991-10-10 1993-04-15 Neurocom International, Inc. Apparatus and method for characterizing gait
US5826578A (en) * 1994-05-26 1998-10-27 Curchod; Donald B. Motion measurement apparatus
US5930741A (en) * 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5937081A (en) * 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
JP3170638B2 (ja) * 1996-08-08 2001-05-28 谷 白糸 仮想現実体験装置
US5904484A (en) * 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
US6119516A (en) * 1997-05-23 2000-09-19 Advantedge Systems, Inc. Biofeedback system for monitoring the motion of body joint
JP3355113B2 (ja) * 1997-09-02 2002-12-09 株式会社モノリス 人体の動きのシミュレーション方法およびその方法を用いたアニメーション生成方法
AU6249899A (en) * 1998-09-22 2000-04-10 Motek Motion Technology, Inc. System for dynamic registration, evaluation, and correction of functional human behavior
US6774885B1 (en) * 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
US6738065B1 (en) * 1999-08-10 2004-05-18 Oshri Even-Zohar Customizable animation system
US6783482B2 (en) * 2000-08-30 2004-08-31 Brunswick Corporation Treadmill control system
US7774177B2 (en) * 2001-06-29 2010-08-10 Honda Motor Co., Ltd. Exoskeleton controller for a human-exoskeleton system
JP3790816B2 (ja) * 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
JP3860076B2 (ja) * 2002-06-06 2006-12-20 独立行政法人科学技術振興機構 身体モデル生成方法、身体モデル生成プログラム及びそれを記録した記録媒体、身体モデルデータを記録した記録媒体
JP3960536B2 (ja) * 2002-08-12 2007-08-15 株式会社国際電気通信基礎技術研究所 モーションキャプチャのためにパラメトリックな動力学モデルを人間の行為者のサイズに自動的に適応させるための、コンピュータで実現される方法およびコンピュータで実行可能なプログラム
EP1462266B1 (en) * 2003-02-26 2006-05-17 Fuji Photo Film Co., Ltd. Three-dimensional image forming method and apparatus
JP4358653B2 (ja) * 2003-02-26 2009-11-04 富士フイルム株式会社 立体イメージの形成方法および装置
US7308826B2 (en) * 2004-06-16 2007-12-18 The University Of Tokyo Muscular strength acquiring method and device based on musculoskeletal model
WO2006014810A2 (en) * 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US7554549B2 (en) * 2004-10-01 2009-06-30 Sony Corporation System and method for tracking facial muscle and eye motion for computer graphics animation
CA2863933C (en) 2004-12-22 2018-08-07 Ossur Hf Systems and methods for processing limb motion
EP2340789B1 (en) 2005-02-02 2013-05-01 Ossur HF Methods and systems for gathering information regarding a prosthetic foot
WO2006094817A2 (en) * 2005-03-11 2006-09-14 Rsscan International Method and appartus for displaying 3d images of a part of the skeleton
US7573477B2 (en) * 2005-06-17 2009-08-11 Honda Motor Co., Ltd. System and method for activation-driven muscle deformations for existing character motion
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP4826459B2 (ja) * 2006-01-12 2011-11-30 株式会社豊田中央研究所 筋骨格モデル作成方法、人体応力/ひずみ推定方法、プログラムおよび記録媒体
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
US8139067B2 (en) * 2006-07-25 2012-03-20 The Board Of Trustees Of The Leland Stanford Junior University Shape completion, animation and marker-less motion capture of people, animals or characters
KR100901274B1 (ko) * 2007-11-22 2009-06-09 한국전자통신연구원 캐릭터 애니메이션 시스템 및 그 방법

Also Published As

Publication number Publication date
US20080221487A1 (en) 2008-09-11
CA2680462C (en) 2016-08-16
WO2008109248A4 (en) 2008-12-31
WO2008109248A3 (en) 2008-11-20
EP2120710A2 (en) 2009-11-25
CA2680462A1 (en) 2008-09-12
US20090082701A1 (en) 2009-03-26
ES2679125T3 (es) 2018-08-22
WO2008109248A2 (en) 2008-09-12
EP2120710B1 (en) 2018-04-18
JP2010520561A (ja) 2010-06-10
EP2120710A4 (en) 2013-04-10
US7931604B2 (en) 2011-04-26

Similar Documents

Publication Publication Date Title
JP5016687B2 (ja) 人体における筋力と関節モーメントとをリアルタイムでインタラクティブに視覚化する方法
US11301045B1 (en) Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device
Slade et al. An open-source and wearable system for measuring 3D human motion in real-time
Zhao et al. A Kinect-based rehabilitation exercise monitoring and guidance system
González et al. Estimation of the center of mass with Kinect and Wii balance board
EP3986266A1 (en) Wearable joint tracking device with muscle activity and methods thereof
US20020009222A1 (en) Method and system for viewing kinematic and kinetic information
Monoli et al. Land and underwater gait analysis using wearable IMU
Habibnezhad et al. Comparison of ironworker's fall risk assessment systems using an immersive biofeedback simulator
Chèze Kinematic analysis of human movement
Wirth et al. The impact of avatar appearance, perspective and context on gait variability and user experience in virtual reality
US11179065B2 (en) Systems, devices, and methods for determining an overall motion and flexibility envelope
Żuk et al. Three-dimensional gait analysis using a virtual reality tracking system
Nasr et al. Scalable musculoskeletal model for dynamic simulations of upper body movement
JP2016035651A (ja) 在宅リハビリテーションシステム
Bauer et al. Interactive visualization of muscle activity during limb movements: Towards enhanced anatomy learning
US20190117129A1 (en) Systems, devices, and methods for determining an overall strength envelope
WO2023169465A1 (zh) 基于多源信息融合的人体运动监测方法、装置
Astudillo Vigoya et al. Smartphone-Based Wearable Gait Monitoring System Using Wireless Inertial Sensors
Calì et al. An effective methodology for movement evaluation in patients with Parkinson’s disease
Biçer On the implementation of opensim: Applications of marker-based and inertial measurement unit based systems
Kleiber et al. A modeling approach to compute modification of net joint forces caused by coping movements in obstetric brachial plexus palsy
Butnariu et al. Medical recovery system based on inertial sensors
Filipovic et al. SYDACK-system of diagnosis and control in kinesitherapy
Wang Computer-Vision-Based Observational Assessments in Biomechanics Study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5016687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250