JP4351808B2 - 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム - Google Patents
人間の機能的行動をダイナミックに登録・評価・修正するためのシステム Download PDFInfo
- Publication number
- JP4351808B2 JP4351808B2 JP2000571357A JP2000571357A JP4351808B2 JP 4351808 B2 JP4351808 B2 JP 4351808B2 JP 2000571357 A JP2000571357 A JP 2000571357A JP 2000571357 A JP2000571357 A JP 2000571357A JP 4351808 B2 JP4351808 B2 JP 4351808B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- data
- platform
- motion platform
- motion capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/1036—Measuring load distribution, e.g. podologic studies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1124—Determining motor skills
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4005—Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
- A61B5/4023—Evaluating sense of balance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4082—Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4519—Muscles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4528—Joints
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Description
【関連した用途についての相互参照】
本出願はベネルクス特許出願第1010150号(出願日1998年9月22日)、欧州特許出願第98204334.1号(出願日1998年12月21日)、米国仮特許出願第60/116,506号(出願日1999年1月20日)からの優先権を主張するもので、あらゆる目的のためにこれらの出願明細書を参考資料として本願に添付した。
【0002】
【発明の背景】
【発明の技術分野】
本発明は、最も一般的には、モーションキャプチャ、モーションプラットホーム、シミュレーションテクノロジを組み合わせて完全に反応性のある仮想環境および物理環境を創り出すシステムに関連するものである。より特定すれば、本発明により、ユーザーの環境を制御するためのリアルタイムフィードバックのある模擬環境が創り出される。さらに特定すれば、本発明はオペレータおよびユーザーのランタイム制御にリアルタイムフィードバックループを組み込むもので、これにより光学センサーおよび磁気センサーあるいはそのいずれかからのデータや、モーションプラットホームからのデータが処理され、ダイナミックなシステムに取り込まれる新しいデータセットが生成される。
【0003】
【発明の背景】
人間の動作機能および運動技能についての様々な研究が、動作技能を改善し、運動技能学習の効率を向上させるための方法やシステムに貢献してきた。動作技能の学習曲線が向上すれば大きな利益が期待できる数多くの用途があり、特にリハビリテーションを目的としたものがある。
【0004】
人間が動作技能を学習する方法は、誕生時から始まる連続的なバイオフィードバックによる複雑なプロセスである。乳児はその体格や強さに適した物理的な限界や境界を学習し、手を使う作業に必要な制御を開拓する。絶え間のない試行錯誤プロセスにより、乳児は、体格や強さの発達だけでなく、精神面での能力やバイオフィードバック制御の発育に伴い技能セットを次々に学習する。動作技能は認識パターンとして植え付けられ、希望の動作が必要となったときに再現される。歩行という単純な行為でも、実際にはバイオフィードバックメカニズムと組み合わされた一連の複雑な動作である。
【0005】
乳児の学習の速さは、新しい技能セットを適応させたり事故や医学的な事情により失われた技能セットを再学習する成人に比較すると極度に速い。たとえば、事故に遭って義足を装着することになった人は、歩行に関連のある運動技能を再学習する必要がある。バランス、調整、フィードバック制御ループは、補綴に適応するために変化するが、これは本人が歩行能力を再獲得するための長くて根気のいる学習プロセスのみによるものである。また、足取りは、一見して自然であったり不自然であったりする。
【0006】
新しく登場したテクノロジを利用してモーションキャプチャを含めたリハビリテーションプロセスを支援する様々な試みがなされた。「モーションキャプチャ」は、各種技法に関する用語であるが、このテクノロジは各種用途に何年も前からある。モーションキャプチャの目的は、性能を重視した方法で、三次元 (3D)アニメーションおよび自然なシミュレーションを作成することである。
【0007】
娯楽産業では、モーションキャプチャによって、オペレータはコンピュータにより生成されたキャラクタを使用できるようになる。そのキャラクタは実行不可能なシーンあるいは危険なシーンで使用される。モーションキャプチャは広範囲におよぶ人間の動きを使用した複雑で自然な動作を創り出すために使用されるほか、動かないオブジェクトを現実的に動かすことができる。
【0008】
一部のモーションキャプチャシステムでは、製作物のリアルタイム フィードバックが提供されるので、オペレータはその動作が十分であるかを即座に判断できる。モーションキャプチャは、体全体の動作だけでなく、手の動き、顔の動き、リアルタイムでの唇の同調などに適用することができる。モーションキャプチャは、医療、シミュレーション、エンジニアリング、エルゴノミクス (人間工学) などの用途のほか、映画、広告、テレビ、3D、コンピュータゲームなどでも使用される。
【0009】
また、モーションプラットホームも、多様な用途に使用されてきた。モーションプラットホームとは、コントローラに応じてプラットホームを操作するサーボ機構、ジャイロスコープ、およびアクチュエータ、あるいはそのいずれかによって制御される表面領域のことである。商用および軍用のどちらでも、モーションプラットホームの用途の大半は、シミュレーションに使用されるものである。娯楽産業では、モーションプラットホームをライドのシミュレーションに採り入れているが、ここでプラットホームはライド乗車客が列車に乗るなどの体験ができるように操作される。その他の商用の用途には、パイロットを訓練し試験するフライト シミュレーションなどがあり、機器や担当員にかかる費用が削減されリスクも低減される。コンピュータにより生成された一連のシーンは、体感を向上させるために、プラットホームと共に使用されてきた。
【0010】
仮想環境(VE)テクノロジにより、第一に患者が学習タスクに専念することができるようになった。手術シミュレータが早期に開発されたことで、訓練の目的でのVEテクノロジに高い潜在性があることが示されてきた。理論的に言えば、VEを使用すれば、運動応答を記録し、それを使用して同一環境との相互作用やその操作ができ、運動タスクの実行に関連のある変数の決定アプローチとしての理想的なツールとなる。VEを使用して感覚や運動応答性の検査、分析、再検査、訓練を同時進行的に行うこともできる。
【0011】
臨床リハビリテーションの分野では、VEコンピュータテクノロジには数多くの潜在性があるとともに、いくらかの限界もある。現時点では、知覚または運動の再訓練プログラムに導入した仮想現実システムの利点に関する論文等の文書化されたものはほとんどない。ただし、適切なコンピュータ テクニックを用いて、リハビリテーション プログラムにおいて患者の進展状況に応じた治療の様相を正確に計測することが提案される。予期されないような変化のある目標や外部からの力を生成する機能は、運動性リハビリテーションの分野では有用であり、ここで仮想現実テクニックによって既存の診断ループへの補足的な支援が提供されるが、これには療法や回復のあらゆる段階でのモニタリングや調節が必要となる。
【0012】
リハビリテーション プロセスの主要なゴールの一つに、身体障害者の日常的な活動を量的および質的に改善して、他に依存しない生活を可能にするというゴールがある。適切な訓練プログラムを完成するには、動作パターンの分析が必要である。最も優れた訓練はいわゆる機能的訓練であることが実証されている。つまり、機能を改善するためには、特にその機能を身体障害者が毎日の生活の中で使用する方法を用いて訓練する必要がある。直立や歩行などの基本的な能力は、分析するのに十分に複雑といえる動作であるが、着替え、料理、家事などの通常の日常生活活動(ADL)は、さらに複雑なものであるが、これらもリハビリテーションプログラムのゴールである。
【0013】
これまで、分析と訓練のフィードバックは、EMG(筋電図)フィードバックや基本平衡反応などの活動の要素にのみ可能であった。普通、これらのフィードバック センターは、身体障害者を取り巻いている通常の環境とは似つかない人工的な環境である研究室内にある。現時点では、より正確で現実的な訓練システムを提供する目的で、身体障害者の実際の環境をシミュレートするのに適切といえる人工的な環境は存在しない。
【0014】
上記の問題に取り組むための様々な試みがなされてきた。従来の技術システムは、適応性や動作の制御を訓練するもので、ユーザーは記録された動作を見てそれを真似ることで運動技能を獲得したり改善したりすることができる。一般にモーションキャプチャは、ビデオカメラで記録され、ビデオテープに保存され、その一方、その他のシステムによりビデオ画像や動作シーケンスがデジタル化される。ユーザーは自分の動作と記録された動作とを比較し、記録された動作を自分のものにしようとする。これら従来の技術の用途では、ユーザーは記録されたあるいは参照用のデータ セットを模倣しようとするのである。また、従来のシステムは、望ましい動作シーケンスをユーザーに実際に行わせるものではない。
【0015】
米国特許4,337,049では、一つのシステムが開示されているが、そこにおいて、カメラからの動作データが参照用のデータ セットと比較される。ユーザーが視覚的な基準を模倣しようとするとき、誤り補正公式が使用され、しきい値レベルを越えたらユーザーに信号が送られる。
【0016】
米国特許5,822,813('813)に記載されている申請書では、動作補正された装置が船舶用の寝具一式に組み込まれている。この'813の発明では、感知手段が使用されており、ある瞬間での基準面に対するデッキの位置が検出される。制御システムによって一連のサーボのコマンドが出され、船舶の縦揺れや横揺れにもかかわらず寝台プラットホームの安定が保たれる。
【0017】
米国特許5,768,122の発明には、オブジェクト指向型の方法により制御されるモーションプラットホームが説明されている。このシステムでは、高レベルの動作がより単純なタスクに分析され、編集や変換の手段が組み込まれプラットホームにコマンドが送られる。
【0018】
米国特許5,846,086には、一つの運動技能システムが説明されており、そこにおいて、訓練内容 (つまりモデル動作) を記録したものが仮想環境で再生される。学び手の動作がモデルの動作と比較され、学び手は基準の動作を模倣しようとする。リアルタイムでの視覚によるフィードバックによりユーザーの動作と基準の動作が表示され、動作の違いがどこにあるかが表示される。
【0019】
従来の技術によるシミュレーションテクノロジでは、シミュレートされた所定の状況に対する人の応答時間が計測される。シミュレーションにおける人の空間的な挙動に関するデータは全くない。
【0020】
さらに、シミュレーションの繰り返し可能性を確保できる方法がなかったため、医療分野での療法の基準は全くなかった。
【0021】
システムは非常に高価であるため、モーションキャプチャスタジオは本分野への参入に対する大きな障壁になっている。またそれに伴い、スタジオは非常に高い料金を請求する。
【0022】
ランタイム制御機能がないために、記録の製作には長い時間がかかる。従来の技術によるシミュレーション方法では、希望の体験が得られるようにアーチストが演出する必要がある。次にエンジニアがプログラミングにより、通常はアセンブリ言語によりこの体験を実現し、アーチストの希望する体験に従って演じさせる。たとえば、時間x秒で6インチ上昇し、時間x+5秒では10インチ上昇するようにライドをプログラムするという具合である。エンジニアとアーチストは、このような繰り返しを何回か通過することになり、希望の体験が記録されるまでには数ヶ月がかかる。
【0023】
モーションキャプチャによって製作された大半のアニメーションでも、人間の動作を処理に取り入れていないため、自然な人間の挙動らしい反応が不足している。
【0024】
従来の技術によるシステムでは、モーションキャプチャ プラットホームとシミュレーションテクノロジを導入して連動性の高いシステムが提供しているものはない。現時点ではリアルタイム フィードバックとユーザーの仮想環境および物理環境の制御を提供してくれる手段はない。
【0025】
必要となるのは、物理環境および仮想環境をシームレスに統合し、希望の効果をプログラマーがすぐに操作・記録できるようなシステムである。記録された効果によって、システムの各ユーザーがオリジナルのプログラマーと同一の物理環境および仮想環境を体験できるようになる。そのようなシステムは、運用経費が手頃であるとともに、利用のコスト効果は高くあるべきである。
【0026】
【発明の概要】
本発明は、リアルタイム プロセッシングよりも高速に動作するモーションプラットホームを組み合わせたモーションキャプチャシステムで、ユーザーまたはオペレータによるランタイム インタラクションが可能となる。本発明は、モーションキャプチャ テクノロジとシミュレーションテクノロジを組み合わせたシステムで、ハードウェアおよびソフトウェアの各要素の組み合わせと、オーサリング ソフトウェアおよび制御ソフトウェア環境の組み合わせでユーザー環境を変化させることができる。
【0027】
本発明により、新しい計測および修正ツールが実現され、各種産業での用途に活用できる。本発明により、人間の機能的動作を所定の状況範囲内で判断・登録・評価するために、ユーザーへの反応性が非常に高い仮想環境および物理環境に一人以上のユーザーを集中させることができる可能性が生まれる。
【0028】
医療用の用途が意図されているが、本発明は他の市場セグメント向けにも適用可能である。
【0029】
レジャー産業および娯楽産業 ― 本申請書により、娯楽産業を含めた数多くの用途で有用なツールが提供される。本システムにより、シミュレーションライドの記録がリアルタイムで可能になる。コスト効果が高いだけでなくより現実味のあるシミュレーションが提供されることにより、本システムを娯楽用シミュレーションの強化や向上に使用できる。本システムにより、アーチストやシミュレーション製作者は、システムを制御して希望のシミュレーション効果を記録することで希望の効果を創り出すことができる。本モーションキャプチャシステムでは、デザイナーのシミュレーションが即座に記録され、直ちに再生できる。これによって、シミュレーションを生成するためにかかる時間が人・月単位から人・分単位に短縮される。
【0030】
シミュレーションのコスト効果が高いだけでなく、システムではランタイム編集が採用されており、リアルタイムフィードバックよりも高速で、シミュレーションをさらに現実感のあるものにしてくれる。オペレータまたはユーザーはパラメータをその場で変更でき体験を向上させることができる。また、ユーザーの動きや動作をシミュレーションの数式に取り込むことができ、シミュレーションを現実感のあるものに仕立てることができる。
【0031】
シミュレーションライドは、本発明のもう一つの応用例である。現時点では、プログラムシミュレーションライドはアーチストやデザイナの指図によってエンジニアがアセンブリ言語で記述している。アーチストが希望のライドまたはシミュレーションを描写し、アーチストの記述の模写を試みながらエンジニアがコードを記述する。時間xでライドがある一つの位置にあり、時間x+1でライドが別の位置にあるという具合にコードは記述される。次に、アーチストは自分の希望の結果が得られるまで何回にもわたりエンジニアとやり取りを行う。このプロセスは通常数ヶ月かかる。
【0032】
本発明では、アーチストが自分の体にセンサーを取り付け、ライドの制御を行い、アーチストのまったく希望どおりにシミュレーションを記録する。アーチストの作業が終了するとすぐに、プログラムは再生可能である。アーチストは、長い時間がかかり高価な工学的インターフェイスなしに希望どおりの効果を得るようになる。アーチスト自身の体のモーションを記録することにより、どのユーザーにもそれとわかる身体の動作が即座に再生される。アーチストがプラットホームを制御するので、シミュレーションを生成するために必要な作業および時間が99%削減される。
【0033】
軍事用―軍隊の訓練は、非常に高価で危険性が潜んでいるため、シミュレーションが好ましい訓練方法となりつつある。仮想現実環境とモーションプラットホームを使用することで、訓練の効率を高め、軍隊の準備状態が向上される。
【0034】
航空宇宙研究―本発明により、パイロットや宇宙飛行士の空間的調整の応答時間および遅れ時間をリアルタイムで登録・試験したり、シミュレートした所定の一連の状況への応答が可能になる。たとえば、現実的な宇宙ミッションをシミュレートして、そこで宇宙飛行士、ツール、周囲の環境のモーションがプログラムされた環境に影響を及ぼすようにすることができる。宇宙での歩行やミッションのための訓練で、無重力の環境をシミュレートすることもできる。
【0035】
自動車―本システムにより、ドライバの動きの空間的な軌道がリアルタイムで記録および表示され、これらの動きの3Dデータベースが作成される。アプリケーションにより、人間工学的により優れた試作品や運転環境のデザインに関連するデータが生成される。
【0036】
ロボティクスおよびテレメトリ(遠隔測定法)―リモコンでの運転が完全な対話式の方法で可能な、遠隔測定をもとに反応する環境が本発明により達成される。オペレータは、遠隔地から動作フィードバックを受信する。
【0037】
建築―本発明により、地震に対して不安定な建物における力に対する地面の反応をモニタすることができる。本システムは大規模な導入が可能で、建物の重要な部分をサポートし、地震により発生した移動に関係なく平坦なプラットホームを維持できる。
【0038】
本発明は、患者のリハビリテーションの時間を短縮することで医療コミュニティで非常に大きな影響をもつ。高い医療費と規制のある医療ケアに対する大きな懸念のある中で、本発明により、コストを低減し治療期間を短縮する方法が提供される。また、多くの患者にとっての生活の質を支援し向上させ、他の方法ではそのような動作が不可能であるような物理的な動きの知覚が可能となる。安全性と信頼性のために、転倒する恐れのある人向けにシステムを補助にして、バランスや平衡感覚を向上させることができる。
【0039】
本システムは、脳への外傷、脳の損傷、脊髄の損傷などの患者にとって有用である。動作認識の研究により、一定の動きを身体が覚えるだけでなく、シナプス経路が再生されうるという考え方が指示されている。希望の動きをシミュレートすることにより、身体はその動きをするための再訓練ができる。また、システムにより、モーションプラットホームにフィードバックされた自分の動作の規模を加減することで、人が自分の平衡感覚のずれに対して反応することができるようになる。
【0040】
整形外科学および補綴学の分野では、本発明により、現在の状況を調整するにあたり患者の補助が可能である。整形外科、補綴、および手足を失った人にとって、システムでは進展状況をモニタ・追跡できる一方、動きの訓練および向上が図れる。たとえば、手足のどれか1つがない場合、運動量を移動させて不釣合いを修正でき、バランスをとるための訓練ができる。
【0041】
状態を複製して患者が動作を調節できるようにすることで、乗り物酔いやその他の動作障害の治療ができる。
【0042】
本発明により、正確に繰り返し可能な計測が得られるだけでなく、異なった時間間隔で記録された動作を比較することにより、患者の進展状態をモニタすることもできる。問題のエリアを強調表示するために使用できる標準または基準の動作のライブラリを提供することもできる。
【0043】
パーキンソン病などの安定化に問題のある疾患をもつ人は、直立不動の姿勢をとることができないが、本システムを使用することで、静止位置に留まらせることが可能となる。人体は様々な大観的なバランスについての入力を受け取り処理しているが、これは複雑かつ連続的なやり取りであり、ここでバイオフィードバックシステムの一環として脳では生存のために最適化された入力が選択される。ユーザーは直立不動の姿勢をとるという知覚を獲得するが、医学報告書には、状態の認識がきわめて重要であることが述べられている。恐怖感は回復において主要な要素であり、事故に遭ったり病気にかかったことのある人は、回復を妨げたり遅らせる恐怖感を表現することがある。
【0044】
システムがすべきことをすべて行っているとしても、本発明は人間の能力を示している。こうして、一定の恐怖感に打ち勝つための支援がシステムによってできる。たとえば、家の中にある階段で躓いたことがあるとしたら、将来における階段の昇り降りに影響を与えるかもしれない、その転倒に対する認識記憶が生まれるだろう。本発明では、階段とその転倒にいたった状況をシミュレートすることにより、本人が恐怖感に打ち勝てるように紛らすことができる。
【0045】
補綴のある人は、補綴には圧力をかけたがらないが、その理由に恐怖感とおそらく痛みがある。本システムでは、プラットホームを持ち上げて穂鉄に合わせるように補綴に故意に圧力をかける。圧力センサーにより補綴にかかる圧力をモニタし、プラットホームレベルを変化させることでどんなレベルにでも圧力を上昇させることができる。仮想の床はまっすぐなままで、物理的な床が、この場合トレッドミルを置くが、これが足に合わせて上昇する。
【0046】
医療向けの用途に関連した本発明の実施例のひとつを例として挙げることができる。コンピュータ支援リハビリテーション環境(CAREN)という開発プロジェクトは、リアルタイムドメインで運転される本システムの実施例である。CARENプロジェクトは、人間のバランス動作を再生可能な様々な条件でテストするような仮想現実システムの開発に適している。
【0047】
CARENプロジェクトでは、仮想現実環境がシミュレートされ、その環境内で健康な被験者と患者の敏捷性を再生可能な様々な条件でテストすることができる。CARENによって、コンピュータ駆動のモーションプラットホームからの動揺に対する応答としての被験者の動作の詳細な計測が可能になる。人体モデルのシミュレーションにデータを供給した後、関節部の力のモーメントおよび筋肉の活動性を計算することができる。これらの応答の時間的パターンをもとに、被験者が開始する運動性プログラムについて推測することができる。運動性プログラムに、機能上の不良や不十分性を招くような根本的な問題があれば、それがどの関節および筋肉群であるかを突き止めることができる。筋肉の力不足などの二次的な問題は、根本的な問題とは区別される。運動障害をもつ子供における完全な運動性プログラムの不十分性は、分類された上でトラックプログラムに記録できる。
【0048】
患者における補償戦略をよく理解することがより良い療法につながる。CARENでは、患者用の予備的な動作がほぼ無限に備わったテスト環境だけでなく、運動性制御研究のための強力なツールが提供されている。
【0049】
CARENプロジェクトの主な目的の一つに、広範囲な医療分野で、リハビリテーションプログラムを成功させるのに必要な時間を短縮することにより診断および治療活動を向上させることがある。この向上は、医療専門家チームがバランスおよび調整の動作パターンをその動作がなされたと同時に制御されたリアルタイム環境で目で見て分析する機会を与えられることで定義される。こうして、専門家構成員が直ちに患者の挙動に介入したりそれを修正することが可能となる。
【0050】
本システムは、コンピュータ制御で可動式のプラットホームと、三次元ビデオ投影、被験者のモーションキャプチャ、および被験者の運動のフォワードおよびインバースダイナミクスコンピュータシミュレーションの組み合わせで構成されている。バランス障害の診断および修正のための処置には、標準となるリハビリテーションや体操の方法はない。欧州にある大概のリハビリテーション診療所では、運動障害の原因別に分類された特殊化療法プログラムを使用しているが、使用されている装置や手続きに関する医療上の体験を交換するために、ネットワークでコミュニケーションできるプロトコルは使用できない。さらに、汎用ツールでは、患者の挙動を高い精度で計測することに欠けているので、進展の査定は主に目視により実施される。本発明は、インタラクティブで仮想的なリアルタイムコンピュータ駆動の応用ツール−プラットホームの開発を目標としており、これにより患者はほとんど制限のない予備的な挙動の手段を得ることができ、また同時に医療専門家はリハビリテーションプロセスの進展状態のモニタ用の精度の高い計測ツールを得ることができる。
【0051】
本発明により、医療セクター向けにターンキー型のカスタマイズされたビジュアリゼーションシステムが可能となる。シミュレーション業界では、リアルタイムの速度を保ちつつ三次元の物体の位置および向きを追跡し表示できるような表示環境が実現する。アニメーション産業では、仮想キャラクタおよび環境を創り出して操作するための三次元ツールキットが実現する。マルチスレッド型の並列アルゴリズムの適用においての発展により、モーションキャプチャデータとハイレベルの詳細ビジュアリゼーションとのリアルタイムでの統合が可能となる。本システムを用いれば、人体モデルを組み込むことにより、被験者の動作をコンピュータ駆動のプラットホームからの動揺に対する応答として詳細に計測することが可能となる。
【0052】
CARENプロジェクトの全般的な目的は、最善の効率と効果が得られるリハビリテーションおよび訓練の状況を創り出すために、リアルタイムバイオフィードバックによって患者が没頭できる仮想のインタラクティブシステムを開発することである、この向上は、医療専門家が制御された環境において発生と同時にバランス方法を分析する機会を得られることで定義される。
【0053】
CARENは、コンピュータ駆動のプラットホームから出される動揺への応答として被験者の動作を詳細に計測できるように、ハードウェアをカスタマイズしソフトウェアを開発することにより成り立っている。プラットホームの動きは、投影されたイメージと非常に接近した同時性をもって実施され、被験者の動きとは独立したものにすることもでき(大きな船の上に立っているときのように)、あるいは、被験者の動きにも依存するようにすることもできる(小さな船の上に立っているときのように)。
【0054】
特に複雑なバランスのタスクでは、筋肉の活動性のパターンにより、被験者が転倒するか否かが決定される。これらのシミュレーションは、ある一定のバランスのタスクでの正常および病的な応答パターンを把握することが目標とされている。
【0055】
CARENプロジェクトで創り出される実質的に正常で反応しやすい環境でのリアルタイムフィードバックによって、日常生活での活動のために身体障害者を分析し訓練することが可能となる。CARENにより、患者の環境をテストしたり学習することが提供されているだけでなく、運動制御のための貴重な研究環境が提供されている。科学雑誌に発表される実験は一般に自然な状況からかけ離れたものである。感覚の統合は、運動制御の把握にあたりキーとなるため、CARENによって、さまざまなチャンネルの感覚入力が提供できるような新しいタイプの実験への門が開かれる。
【0056】
たとえば、パーキンソン病患者でみられる動きの制御は、多くの臨床医や人間の動きを研究する科学者らは不可解なものであると考えている。これらの患者では、むしろ正常にみえる運動性パターン(たとえば歩行に使用されているような)を引き出すには、いくらかの視覚的な合図で十分である一方、そのような刺激がない場合には、パターンは開始されることもできない。健康な被験者では、学習済みの運動性パターンの莫大なライブラリへの複数チャンネルの感覚入力があれば、歩行中のバランスが連続的に制御されうる。この入力は、筋紡錘、ゴルジ腱器官、足裏の皮膚の受容器などの機械的受容体のほか、視覚系から来るものである。人間の歩行の直接の環境の本質を確立するにあたっては、聴覚の入力でさえも有用である。
【0057】
ただし、ここで視野の流れがさらに強い影響力をもつ。実験によれば、視野の流れを人工的に変化させると、被験者のバランス感覚を狂わせうることが分かっている。その一例が移動する部屋のパラダイムであり、被験者は部屋の中に立ち、その部屋の床は動かさずに壁を動かすことができるというものである。被験者は、バランスを相殺することで即座に反応する。時には転倒することもある。パーキンソン病患者では、感覚の入力は視野の流れの方向に影響を受ける一方、他の入力はそれほど重要ではなくなっている。
【0058】
CARENにより提供されている環境により、異なったタイプの入力を調節できるような実験をデザインすることが可能となる。可動式のプラットホームにより、脚を通した感覚の入力を視覚的な刺激とは独立して変化させたり、その逆が可能である。その速度が視野の流れの速度には対応していない踏み車の上をこれらの患者に歩いてもらうことができるが、これは統合されている入力の多様性、またどの測定数値においてであるかを調べるためである。CARENにより、人間の動作に関連した自然なプロセスの複雑さをさらによく見ることができる。
【0059】
その他の例は、部分的な麻痺や四肢の一つの麻痺などの末梢障害のある患者に見ることができる。これらの状況では、足取りおよびバランスは、感覚の入力の部分的な欠乏と筋肉の調節の欠乏の両方により弱まる。その通常の結果としては、機能的な足取りおよびバランスを獲得するために、患者はその埋め合わせを見つけ、体の健康な部分に異常な動きのパターンが生じることになる。さまざまな状態下でモーションキャプチャにより供給されるインバースダイナミクスシミュレーションを使用できるようにすることで、埋め合わせと原発性の障害との間の区別を解決できるようになる。それが歩行や直立のモードとして最善とは言えないことを意味していたとしても、人は苦痛の感覚を避けることを好む。最適化は、機能性と快適さの間の妥協として求めることができる。
【0060】
本発明は、シミュレーションにおける新しい原理であり、人間の挙動が基準の挙動または前の挙動のどちらかに対して評価または比較されるものである。この原理は、シミュレーション状態を実現するためのメカニズムを確立している。こうしてこれに関与する人がその挙動により、またその人を取り巻く物理的および視覚的な環境により影響をうける。
【0061】
リアルタイムの全身キャプチャの構造および制御された「地面」により、キャラクタと環境の間のインタラクションが含まれる複雑なアニメーション作成用のモーションキャプチャを使用する能力が得られる。
【0062】
また、モーションキャプチャソリューションにより、パフォーマンスアニメーション装置が可能となる。ターンキー型のキャプチャソリューションがキャプチャおよび制御ユーティリティ6DOFモーションプラットホーム出力チャンネルドライバーに追加されており、これにより動作ライドやシミュレーションシナリオの制御やプログラミングをシステムから直接できるようになる。
【0063】
本発明のその他の機能として、顔面のキャプチャがある。口の主な形状と比較用のライブラリ群の組み合わせを使用することで、現実感を作成したり、またはキャプチャとアニメーションとの組み合わせを作成することができる。FACE-MIXERはSOFTIMAGE用のチャンネルドライバで、LIVEキャプチャの状況で顔の表情のアニメーションを記録中にミキシングが可能である。これには放射形状作用が使用されているが、これはすべての主要形状は常時アクティブであることを意味する。アニメータは各種の表情、変化の速度、一つの表情から次の表情への軌道などを制御する。
【0064】
本発明の対象の一つは、処理手段、その処理手段に接続されたモーションキャプチャシステムから構成されるモーション処理システムである。モーションキャプチャデータは、多数のモーションセンサーから取られ、リアルタイムよりも高速に処理される。処理手段に接続されたモーションプラットホームシステムがあり、そこでもモーションプラットホームデータはリアルタイムよりも高速に処理され、また制御コマンドがモーションプラットホームに出力される。また、ランタイム制御入力ができるモーション処理システムへのインターフェイス手段がある。
【0065】
また対象をさらに付け加えると、多数のモーションセンサーが光学式なモーション処理システムである。さらに、モーション処理システムには、多数の磁気式モーションセンサーを持たせることもできる。光学式および磁気式センサーの組み合わせも本発明の範囲である。
【0066】
また対象をさらに付け加えれば、さらに仮想環境をユーザーに表示するためのディスプレイ手段により構成されているモーション処理システムで、ここでディスプレイ手段は処理手段に接続されているものである。ディスプレイ手段は、ステレオプロジェクションまたはヘッドマウントディスプレイが使用でき、操作された物理環境と並べて仮想環境が創り出される。
【0067】
対象をさらに付け加えると、さらにモーションキャプチャデータおよびモーションプラットホームデータを記録するための記憶手段から構成されるモーション処理システムがある。記録データは再生して、記録された全くそのままの環境をリアルタイムでシミュレートすることができる。また、仮想環境を動作データと共に記録して、トータルに没頭できる環境を完成することができる。
【0068】
本発明の対象の一つは、多数のマーカーをユーザーに配置するステップ、モーションプラットホーム上でユーザーの位置を決めるステップ、多数のマーカーからのモーションキャプチャデータセットを受信するステップ、モーションプラットホームからのモーションプラットホームデータセットを受信するステップ、制御信号をランタイムで入力するステップ、制御信号およびモーションキャプチャデータセットおよびモーションプラットホームデータセットをホストコンピュータシステム上でのリアルタイムフォーマットよりも高速に処理するステップ、新しいデータセットをモーションキャプチャシステムおよびモーションプラットホームシステムに出力するステップなどから構成される仮想環境および物理環境プロセスである。対象にさらに付け加えれば、仮想現実環境をユーザー向けに表示するステップをさらに追加した仮想環境および物理環境プロセスである。
【0069】
別の対象は、制御信号のランタイムでの入力ステップがユーザーにより実施される仮想環境および物理環境プロセス。オペレータまたはユーザー、あるいはその両者はダイナミックシステムへの変更を入力できる。
【0070】
本発明の対象の一つは、多数のモーションセンサーを装着しモーションプラットホーム上に配置されたユーザーから構成されるシミュレーション記録システムである。処理手段、および処理手段に接続されているモーションキャプチャシステムがあり、ここでモーションセンサーからのモーションキャプチャデータは、リアルタイムよりも高速に処理される。モーションプラットホームシステムが処理手段に接続されており、ここでモーションプラットホームデータはリアルタイムよりも高速に処理され、またここで制御コマンドがモーションプラットホームに出力される。また、システムには、ランタイム制御入力により処理手段とのインターフェイスをとる手段があり、またモーションプラットホームデータおよびモーションキャプチャデータの記録用の記憶手段がある。このシステムにより、オペレータ/アーチストはエンジニアやプログラミングに頼ることなく希望のシミュレーションをリアルタイムでデザインすることができる。さらに、別の対象は、さらに記憶手段からの記録されたモーションプラットホームデータおよびモーションキャプチャデータを再生する手段により構成されるシミュレーション記録システムである。
【0071】
さらに付け加えられる対象があり、これはさらに仮想現実環境を記録されたモーションプラットホームデータおよびモーションキャプチャデータに連続して記録するための手段から構成されるシミュレーション記録システムである。
【0072】
機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムで、記憶手段、およびモーションプラットホームシステムから構成され、ここで、ユーザーはプラットホーム上に配置される。モーションキャプチャシステムがあり、ここでユーザーにはモーションを検出するための多数のマーカーが装着され、またモーションプラットホームシステムおよび前述のモーションキャプチャシステムに接続された処理手段があり、ここでモーションプラットホームデータおよびモーションキャプチャデータは前述の処理手段によりリアルタイムよりも高速に処理され、またここで新しい制御データがモーションプラットホームシステムに出力される。最後に、記憶手段上にあるモーションキャプチャデータおよびモーションプラットホームデータを記録する手段、およびランタイム制御入力によりシステムとのインターフェイスをとるための手段がある。
【0073】
その他の対象には、記憶手段からの記録されたモーションキャプチャおよびモーションプラットホームデータを再生し、ユーザーに対して外的な力を生成することが含まれる。モーションプラットホームでは、逆方向の力が生成され、ユーザーが記録されたモーションを再現できるようにしている。
【0074】
最後に挙げる対象は、機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムで、ここで記憶手段に以前に記録データのライブラリが含まれるものである。データは、基準となるモーションおよび環境のライブラリ、または進展状況がモニタできるように個人ユーザー用に記録データのライブラリのどちらでもよい。
【0075】
なお、本発明のその他の対象や利点については、下記の詳細な説明によって、この技術分野に精通している者にとって、容易に明らかとなるが、ここには、単に本発明の遂行が意図される最適なモードを図示することによって本発明の望ましい実施例についてのみ記述している。
【0076】
【好ましい発明の実施の形態】
本発明分野に精通している者にとってみれば、本発明には数多くの変形の余地がある。下記は、望ましい実施例の説明であり、発明の実例を提供しているが、発明の範囲を限定するものではない。理解されるとおり、本発明は他の異なった実施例に適用可能で、そのいくつかの詳細は様々な面での明らかな変更が可能であり、それらすべては本発明から逸脱するものではない。
【0077】
図1に、本発明の概要を図示するが、ここでユーザー10には多数の光学センサー20および磁力センサー30が身体の様々な位置装着されている。光学センサー20からのデータは光学式モーションキャプチャシステム40により受信される。磁力センサー30からのデータは磁力的モーションキャプチャシステム50により受信される。
【0078】
望ましい実施例では、光学式データ セットには、全身についてのユーザー10のX軸、Y軸、Z軸の位置が含まれ、100FPSでコンピュータ70に送信される。ユーザー10のX軸、Y軸、Z軸の位置および回転が含まれる磁力的キャプチャデータセットは、60FPSでコンピュータ70に送信される。
【0079】
コンピュータ70は、オペレータインターフェイス80とインタラクティブに動作し、X軸、Y軸、Z軸の位置および回転が60FPSで6DOFプラットホーム60に送信される。
【0080】
磁力システムには、中央に位置した送信器と人物10の様々な部位に紐で取り付けた一式の受信器30の使用が関連している。これらの受信器30は、送信器との空間的な関係を計測する能力がある。各受信器30は、ケーブルを経由してインターフェイスに接続されており、データの食い違いが防止されるように同期をとることができる。結果としてのデータ ストリームは、各受信器30についての3D位置および向きから構成される。
【0081】
一般にこのデータがインバースキネマティクスプラットホームに適用され、アニメーション化されたスケルトンが駆動される。磁力システムは、キャプチャ領域付近にある程度の大きさの金属領域があればそれに影響を受けるので、適切な遮蔽を施すことが重要である。
【0082】
磁気式キャプチャプラットホームは、磁力センサー30とともに運転され、空間での物体の位置および向きが登録される。光学式キャプチャ40および磁気式キャプチャ50は、同時進行的に使用できるが、光学式キャプチャ40が困難な場合や複数のアクターを撮影するような状況では、磁気式キャプチャ50が最適である。
【0083】
図2では、人物10にマーカー20、30が装着され、また初期の位置またはバランス位置についてのテンプレートが処理されている。光学マーカー20および磁気マーカー30のどちらも、一般にモーションの記録に使用される。磁気式モーションキャプチャ(MMC)データセット100および光学式モーションキャプチャ(OMC)データセット110 は、瞬間的にキャプチャされ、完全なテンプレートを処理するために使用される。テンプレートでは、テンプレートマッチングアルゴリズムが利用され不足したあるいは不良のマーカーデータの補間がなされる。モーションプラットホーム60は、どんなDOFにもプログラム可能で、Δ=0である初期の点またはバランス点からの偏りの蓄積が補正されるようにできる。
【0084】
たとえば、人物10が前に身を乗り出した場合、システムはリアルタイムよりも高速に応答し、OMCデータセット110およびMMCデータセット100が同じ位置に留まるようにプラットホーム60が調節されるようになる。
【0085】
人間の視覚による認知速度は18〜30Hzの範囲である。バランスまたは平衡の速度はこれよりずっと遅く、約7〜8Hzである。この業界では、リアルタイムは、25Hzまたは25fps程として定義されている。本発明は、リアルタイムよりもずっと速い速度で運転され、望ましい実施例では100Hzである。さらに速い速度が可能であり、テクノロジやコンピュータ用のハードウェアの発達に伴い、現実的に期待できるであろう。
【0086】
この望ましい実施例では、プラットホーム60は、6自由度(DOF)である。それぞれのDOFは、プラットホーム60の各種サーボおよびコントローラによって独立して制御可能である。
【0087】
図3に、本発明の別のアプリケーションを示すが、ここで、オペレータ120により記録された MMCデータセット100により、オペレータ120の身体のモーションが含まれる仮想のカメラ軌道(シミュレーション ライドなど)をリアルタイムで記録することが可能となる。これらの感知された体のモーションが記録されたものは、次にオペレータ120により記録されたものと同一の身体のモーションを将来のすべてのユーザーが体験できるようにプログラムできる。オペレータ120は、コンピュータインターフェイス80を採用して、ランタイムコマンドをシステムへ入力する。これにより、アーチスト/オペレータは、長ったらしく高価なエンジニアリングが介在することなしに、シミュレーションの希望の体験を即座に記録することができるようになる。
【0088】
図4では、テンプレートが使用してプラットホームの逆方向の力を作り出し、プラットホーム60の人物10に外部からの力がかかるようになっている。人物は、実際にはタスクを実行することなしに、希望の動作を感知することになる。
【0089】
麻痺のある患者に対する訓練ツールとしての記憶認識を用いての多くの実験が実施されている。その一例は、脊髄または脳に損傷があり両脚が麻痺している患者用のものである。この患者はプラットホーム60上につり革でぶら下げられており、システムにより逆方向の力がかかり、両脚が動くようにされている。感知された歩行動作がその患者の記憶認識に植え付けられ、回復が促進される可能性がある。
【0090】
仮想のクローンを図5に例示しており、ここで人物10のデータセット100、110およびテンプレートを健康な人物のデータセット100、110およびテンプレート、あるいは同一人物の異なった時点での別のデータセット100、110およびテンプレートと比較することができる。この比較は進展状況を追跡し潜在的な問題を識別するのに有用である。比較された動作の値がリアルタイムで生成されるので、リアルタイムのX値、Y値、Z値のデータストリームとしてグラフ化することができる。
【0091】
被験者のモーションと比較したライブラリデータを表示するために、仮想キャラクタデータセットを投影することも可能である。モーションキャプチャ基準ライブラリを設定して、様々なタスクを実行する個人のデータセットが含まれるようにすることができる。次に、被験者のモーションのデータを取り出して、ライブラリの基準と比較しながらユーザーデータに重ねることが可能となる。また、ユーザーを保存されたデータセットと一致するようにすることも可能である。
【0092】
一例として、マーク・マクガイヤ選手がバットを振るときのモーションキャプチャデータセットをこのシステムで記録できる。すると、どんなユーザーでも自分のデータセットをこの基準と比較できる。さらに、システムの助けを借りてその人が基準となるデータセットと一致するようにさせることができる。言い換えれば、その人は、マーク・マクガイヤ選手であるかのようにバットを振らせられるのである。
【0093】
図6は、ソフトウェアアーキテクチャの基本的な線図であり、様々な相互接続が描かれている。データフローモジュール(D−FLOW)200は、システムに不可欠なコンポーネントの一つで、様々な代替方法がサポートされ、システムの新しい機能を短期間に開発し実現することができる。D−FLOW200は、そのモジュールにより特徴付けられ、よく定義された機能性を実現し、0個以上の入出力ポートおよび各種モジュール間の接続を通してデータを受信および/または送信し、方向性をもった非周期性グラフを形成する。D−FLOW200の主なタスクは様々な入力デバイスから入ってくる入力データを処理し、収集されたデータを人体モデルにマップし、様々な入力データおよび計算されたデータ(あるいはそのどちらか)をそれぞれ異なったケースに応じて処理することである。その他のタスクには、人間のモデルおよび環境のリアルタイムグラフィックアニメーションの表示や、モーションプラットホーム自体の駆動がある。
【0094】
D−FLOWモジュール200の機能性は、ランタイム評価装置210およびデータフローエディタ220で代表される構造ブロックによって定義される。データフローエディタ220により、ランタイムで実行中にD−FLOW200モジュールの編集、接続、接続の解除が可能となる。この編集は、システムプログラマーによって、あるいは記録モード時ならユーザーによっても行うことができる。たとえば、仮にシミュレーションが平均的な海の状態での中規模の船舶用であるとすれば、データフローエディタ220により、プログラマーまたはユーザーは、船の規模や海の状態を変更することができる。
【0095】
ランタイム評価装置210は、高速のフィードバックループの一部で、プラットホームでのユーザーの動作を連続的にモニタし、システムに取り込まれるユーザーのモーションとのやり取りをして現実味のあるダイナミックな環境を創り出すものである。船の例で、ユーザーが船の片方の側にもたれかかった場合、システムはその動きに対してリアルタイムよりも高速に応答し、プラットホーム出力コマンド240によって、実際の船で起こるのと同様に船がその方向に傾く。また、データフローエディタ220をランタイムで使用することで、ユーザーは船の規模を変更することができ、こうして船の不安定度合いを高めることができる。より小型の船では、同じもたれかかる動作でも船に対してより大きな影響があり、傾きがさらに上がることになる。
【0096】
モーションキャプチャシステムの一部として、別の記録の比較用ライブラリ230を開発して、ある一定のモーションや動きの再現、様々なモデルの比較、患者の進展状況の追跡などに使用される。
【0097】
D−FLOW220の各種出力には、ステレオ3D投影250のほか、それに対応する音声出力260があればそれも含まれている。リアルタイムよりも速いフィードバックにより、ユーザーの動きが仮想環境と相互に作用し、シミュレーション体験が向上される。仮想現実環境には、ヘッドマウント ディスプレイ ユニットが含まれることもある。
【0098】
各種入出力(I/O)が表示されており、矢印はデータの流れを示している。光学式モーションキャプチャシステムからの光学式データストリーム290、および磁気式キャプチャシステムからの磁気式データストリーム300は、D−FLOW200への入力である。また、プラットホームデータ310は、プラットホームの向きを追跡するためのD−FLOW200への入力である。
【0099】
仮想キャラクタデータベース280および仮想環境データベース270には、前のモーションキャプチャタスクで記録されたデータセットが含まれている。これらのライブラリは、将来の用途(アプリケーション)に使用して、プロジェクト開発のスピードアップを図ることができる。また、3Dデータベースローダー330もD−FLOWモジュール200に相互接続されている。
【0100】
テンプレートマッチングアルゴリズム320により、フォワードダイナミクスを使用して特定の標本で不足しているマーカーの位置が予測される。シミュレーションにより、被験者の関節の周りで生じた力のモーメントが再現され、これは次に筋肉の活性化に依存することになる。マーカーが不足している場合、モデル階層の高いレベルからトルクが計算され、不足のマーカー位置に適用される。
【0101】
確固としたキャプチャデータは、システムの性能にとって非常に重要であるため、ダイナミックなキャプチャテンプレートマッチングアルゴリズム320には、特別な配慮がなされる。このアルゴリズム320により、特定の標本で不足しているマーカーの位置が、15セグメントの3次元人体モデルで実施されるフォワードダイナミクスシミュレーションを使用して予測される。シミュレーションにより、被験者の関節の周りで生じた力のモーメントが再現され、これは次に筋肉の活性化に依存することになる。マーカーが不足している場合、モデル階層の高いレベルからトルクが計算され、不足のマーカー位置に適用される。
【0102】
図7のフローチャートは図1と共にD−FLOWの一実施例のプロセスを描写したものである。ユーザー設定400時に、ユーザー10はプラットホーム60に上がり、光学マーカー20または磁気マーカー30、あるいはそれら二つの組み合わせからなるカスタムのマーカーが装着される。マーカー20、30は、特定のアプリケーションにカスタマイズされる。
【0103】
光学式モーションキャプチャシステム40および磁気式モーションキャプチャデバイス50は、410がデータセットをキャプチャするよう連動する。3D位置(X、Y、Z軸)および回転の情報をリアルタイムで登録したものがコンピュータ70に送信され処理される。
【0104】
データセットは、テンプレート420に対して動的にマッチングが行われ、力およびトルクのストリーミングデータ430は連続的に計測される。ストリーミングデータ430は、D−FLOWインターフェイスおよびランタイムミックス440で分析され、ここで仮想環境アップデート450および物理環境アップデート460が、計測されたデータのほか、オペレータまたはユーザーコマンドがあればそれらによって、インタラクティブに制御される。
【0105】
D−FLOWインターフェイスにより作成された新しいデータセット470が、ステレオディスプレイ480およびヘッドマウントディスプレイなどのその他の仮想の表示手段のアップデートに使用される。プラットホームの位置および回転の情報がアップデートされ、モーションプラットホーム420に送信される。フィードバックループは、リアルタイムよりも速速度である100Hzで連続的につながっており、ユーザーの動きにだけでなく、ユーザー/オペレータのランタイムコマンドにも応答し反応する。
【0106】
図8には、全体的なシステムの相互接続を示している。ユーザー500には、マーカーおよびモーションキャプチャシステムが採用されており、光学式動作制御データ460および磁気式動作制御データ465の対応するデータセットが生成される。一般にユーザー500は、医療上の用途またはシミュレーションに関連した人間であるが、システムは、耐震構造の建物などの物体にも使用することができる。データセット510、520は、X軸、Y軸、Z軸の位置および回転のデータに関連した座標から構成され、リアルタイムよりも速い速度でデータ直列化および最適化セクション530に転送される。
【0107】
希望のシステム状態が発され、仮想環境540および反応する物理環境550を可能になる。仮想環境540としては、ヘッドマウントディスプレイまたはステレオ投影があり、一方、物理環境550としては、N度のモーションプラットホームがある。これらすべての情報は、D−FLOWカーネル600を通して供給され、ここで、ヒューマンサブミックス(human submix)560を使用してデータが処理され、現実感のあるモーションのダイナミックなリアルタイムシステムが生成される。D−FLOWカーネル600は、ユーザーデータおよびランタイムでの修正570があればそれとも相互に作用し、地面の位置または向き580に物理的な変更を加えるとともに、仮想環境590に視覚的な変更を加える。物理的なおよび仮想的な変更は、リアルタイムよりも高速なループを経由してユーザーにフィードバックされる。
【0108】
図9は、本発明の一実施例のハードウェア接続を描写したブロック線図である。ハードウェアプラットホームは、Silicon GraphicsワークステーションおよびIntergraphマルチプロセッサワークステーションをベースとしている。データキャプチャは、8CPUOnyxおよびOCTANE dual CPUにより処理される。
【0109】
マルチCPUハードウェアプラットホーム(SGI Dual CPU OCTANE MXE)700が処理、記憶、インターフェイス用のコンピュータ手段として使用されている。専用ホストへのEthernet、シリアル、SCSIによる接続が使用されている標準的高速接続によって、様々な周辺機器および通信が達成されている。専用ホストとしては、別個のパーソナルコンピュータ(PC)または周辺機器とのインターフェイスとなる統合型のオンボードコンピュータが利用できる。
【0110】
光学式モーションキャプチャシステム710には、6台のカメラ720があり、光学式モーションキャプチャシステムのデータ取得ユニットにより、カメラ入力が希望のデータセットに変換される。データセットは、光学マーカーセットから獲得されたOMCデータで、専用ホスト750にアクセス可能なもので、これにより、CPU700との高速なデータ交換ができるようになる。データは必要とされるどんなファイルフォーマットでも得られる。
【0111】
主要な光学式キャプチャシステムはPRIMASで、数多くのセットアップ用にすぐに構成できる状態になっている。PRIMASでは、最高80の光学マーカーの3Dデータ座標の変換および表示が100Hzで可能で、これは、複数のキャラクタの対話シーンの撮影には非常に有用である。PRIMASは、極端な状態(スタジオやロケでの直接の照明、煙、日光など)でも正常に動作する。PRIMASカメラにはレンズ一式が備わっているためキャプチャ容量が広く、また複数のシステムを並行して使用して複雑な構造に適用させることもできる。システムは、外部から始動させることができ、撮影カメラやその他のデバイスとの同調が簡単になる。校正にかかる時間は短く、後処理は KAYDARAのFiLMBOX光学式モジュールの横にあるカスタムのSOFTIMAGEを使用して行われる。
【0112】
磁気式キャプチャユニット730には、様々な磁力センサー740から収集されたデータを変換する磁気式キャプチャデータ取得ユニットが収容されている。データセットは、CPU700に相互接続されている専用ホスト760にアクセス可能である。本実施例の磁気式キャプチャプラットホームは、POLHEMUSのULTRA−TRAKである。
【0113】
モーションプラットホーム770は、データおよび制御情報の転送用に、CPU700に接続されている専用ホスト780に相互接続されている。望ましい実施例のプラットホームの自由度は6(6DOF)であり、そのすべての自由度はシステムにより制御可能である。
【0114】
ステレオ投影790は、独立して、またはプラットホームと共に使用でき、ユーザー向けの仮想環境を創り出すことができる。CPU700およびステレオ投影790間の連続したビデオ接続により、システムで仮想シナリオを実行できるようになっている。ユーザーは、ヘッドマウントディスプレイおよびワイドスクリーンステレオ投影などの様々な仮想環境ツールの中から選択できる。ヘッドマウントディスプレイでは、より広い周辺の仮想環境が提供されているため、ユーザーをさらに集中させる。
【0115】
望ましい環境でオペレータ用モニター800およびユーザー用モニター810により提供されているインターフェイスおよび制御手段がある。CPU700は、モニタに直接接続されており、実行可能なコードにランタイムによる変更が可能で、プラットホームまたは仮想環境内の状態を変化させることができる。
【0116】
音声スピーカー820は、CPU700に接続されており、ユーザーとの各種音声インターフェイスをとることができる。音声を使用して性能やシミュレーションを表示することができる。正弦波生成器を使用して校正のピッチが得らるようにしたり、システムで仮想の壁の境界を示すノイズを発生させたり、環境的な刺激を導入することができる。
【0117】
CPU700に実現・接続することのできる数多くのオプション周辺装置840があり、それらを用いればデータの操作や実演が可能となる。また、オプションのアプリケーション830があり、相互接続してアイトラッキングや心電図(ECG)などの機能を実行することができる。
【0118】
運転時には、人物はN度の動作ベース上に配置される。動作ベースとしては、電気式、油圧式、あるいはその組み合わせのシステムが使用できる。動作ベースの唯一の必要条件は、高いレートでコマンドに応答することである。人物には光学式、磁気式、あるいはその二つの組み合わせのマーカーが装着され、動きの追跡やモニタに使用される。人物の全身の位置および回転のデータが高速コンピュータに25フレーム/秒(FPS)を超える速度で転送される。人物の動作により生成されたデータは高速な処理ユニットに送信された後、混合され、一部が動作ベースに再送信される。これらのプロセスは25FPSを超える速度で実行される。システムは平衡感覚の相殺が蓄積された人物に対して、修正または増幅(正または負のベクトルの修正)のどちらかにより応答する。N−自由度(N−DOF)の動作ベースの応答は、アプリケーションに依存しランタイムのカーネルユーザーインターフェイスの使用により、ユーザーによる完全な構成が可能である。
【0119】
本発明の中核には、人物の動作により生成されたデータがシミュレーションに影響を与えるときに創り出されるフィードバックループがある。人物のモーションの空間的な挙動の完全なデータセットがリアルタイムで登録され、感知された最適な挙動と比較される。シミュレーション条件は人物の活動に依存する。インストラクタは所定のシミュレーションシナリオに対する応答時間についての情報だけでなく、その応答にそれだけの時間がかかる理由についての情報も得られる。これにより、人間工学的空間デザインについての直接的なアプリケーションが生み出される。
【0120】
D−FLOWという名称の高速なフィードバックアルゴリズムにより、入ってくるデータがリアルタイムの標準である25Hzよりも速い速度で処理される。入ってくるデータは、人物の全身または一部からのモーションキャプチャデータの形式である。動作データは、光学式および磁気式の主に2種類のマーカーを使用することにより得られる。標準的なアプリケーションでは、25個の光学マーカーおよび11個の磁気マーカーがあり、希望の目的に応じて異なるが冗長性をもたせるために60個のマーカーを使用することができる。例によっては、一部の身体データのみが関心のある領域となる場合もある。
【0121】
たとえば、パーキンソン病では、その目的は、患者の手を特に評価することであることもある。その場合には、手に関連した様々な位置にマーカーが配置され、モーションキャプチャデータが記録されることになる。パーキンソン病は、電子回路内のフィードバックループになぞらえられてきた。通常、脳と身体の調整は人がコップに手を伸ばすときに脳が様々な入力を処理し、手がコップを確実につかめるように連携してなされる。パーキンソン病では、入力のフィードバックは正常には処理されず、脳と手が同調していないので手が震える。手は補正の過度および不足状態が引き続き繰り返され、その結果震えることになる。
【0122】
運転時には、人物には、マーカーが装着される。モーションキャプチャデータがシステムにより記録される。モーションキャプチャプラットホームの製造業者はいくつかあり、本発明は、どれか個別の製造会社やモデルに特に適用されるというものではない。システムにより、使用されているモーションキャプチャシステムに関係なくデータがキャプチャされ処理される。データはデータであり、またデータはコンピュータシステムに入り、入ってくる時点―ストリームタイム―でデータは操作される。オペレータの選択、目的、制御などにも依るが、データの各部分は、モーションプラットホームを制御する制御ループセクションに直接接続される。プラットホームを制御する様々な方法は、キャプチャされたデータの働きである。誰かが前方に移動すれば、プラットホームをリアルタイムよりも高速に移動させ、その動きに対する補正をすることができる。インターフェイスは汎用で、ソフトウェアモジュールは互いに接続され、各種入力は各種出力に対応している。
【0123】
データの一部はヒューマンサブミックスを通して送信される。このサブミックスには制限がなく、人体からの約40の自由度のデータが受信される。システムではこれらの40の自由度は、プラットホーム、ステレオ投影、または患者を集中させる仮想環境の6DOFの任意の組み合わせのどのような出力に対しても、割り当て/リンク可能である。
【0124】
D−FLOWにより、ミキシング、操作、機能の割り当てなどの時、あるいはデータの周波数や時間を変更するなどの表出や変調の際に、ストリームタイムでのデータの出入りが可能となる。処理の出力または最終結果としては、プラットホーム、ステレオ投影、患者を集中させる仮想環境、あるいは同様なテクノロジデバイスが使用できる。出力テクノロジは柔軟であり、データは新しい任意のテクノロジによって使用することができる。プログラマーの視点で見れば、D−FLOWにより、ユーザーが実行可能ファイルをランタイムで修正することができる。通常はこれができないもので、たとえば、実行可能なワードプロセッシングプログラムであるMicrosoft Wordは、ソフトウェアの実行可能部分へのランタイムでの変更が許可されない。D−FLOWはモジュールを次々に接続したものであるため、どのモジュールでも接続や接続の解除が可能で、どのモジュールの機能でも、実行中に編集や変更が可能である。
【0125】
D−FLOWでは、様々な入力および出力がリアルタイムよりも速い速度で処理され、ヒューマンサブミックス―プログラムの実行中にパラメータを変更することが可能となるD−FLOWコードは、ラグランジュの方程式が元になっており、システムはダイナミックであり、リアルタイムで実行されているものを評価するために、リアルタイムよりも数倍速く運転される必要がある。
【0126】
ヒューマンサブミックスは例を用いてさらに説明することができる。船の環境では、ユーザーは、環境とのインタラクションができ、船を表すプラットホームを修正することができる。ある状況では、6度のうちの5度で波を船をプログラムすることができ、6番目の自由度は横揺れである。オペレータは、波の規模を加減することができ、または船の規模を加減することができる。人物が移動すると、実際の船とちょうど同じように船は人物の動作と相互作用し、それに応答する。横揺れの量は、船の規模と人によって発生した力のほか、適用されるその他のパラメータなどにも依存する。これは、単に応答してプログラムを設定し、いくらかのプログラム制御が可能ではあるが、リアルタイムでのフィードバックのないような普通の動作シミュレータとは異なる。人物に与えることのできる自由のチャンネル数は異なり、人物はその自由度の一部またはすべてを制御することができる。
【0127】
釣り合いに関連した別の例として、人をプラットホーム上に完全に静止して立たせるものがある。現実には、静止直立している平均的な人は、実際のところ1〜2mm移動しており、身体が内部のフィードバックループを使用して相対的に静止した位置を維持する際に連続的に移動する。パーキンソン病の患者は、4〜5mmの揺れがある場合がある。D−FLOWソフトウェアにより、ユーザーのモーションを4〜5倍に増幅することができ、曲線を記録することができる。これによって、モーションの分析および比較が簡単に実施できるようになる。この動作は、指で棒のバランスをとろうとすることで類推することができる。このとき、連続的に行動/反応して変更し補正して、棒がまっすぐに立つようにする。フィードバックメカニズムの一環として、記録可能な連続パターンがある。棒のバランスをとるときの動作の曲率は、人が静止直立をしようとするときの曲率と全く同じである。
【0128】
2〜3個のセンサーを人物の肩に配置することで、プラットホームを使用して、身体のフィードバックメカニズムよりも速い速度で応答し、センサーを0,0,0位置に保つように移動を続けるようにすることができる。モーションキャプチャシステムに人物が前方向にわずかに傾いたというデータが入力された場合には、プラットホームは、人物よりも速く応答し、前方向の自由度を上げてその人物を同じ0,0,0位置に保つようにする。
【0129】
フォワードダイナミクスシミュレーションは、インバースダイナミクスシミュレーション中にいつでも実施できる。その過程では、インバースダイナミクスシミュレーションへの入力としての動きの流れは停止し、計算された関節の動きが新たに入力として使用され、一方、動きが出力となる。こうしてフォワードシミュレーションでは、被験者の関節の周りで創りだされた力のモーメントから、動きおよび反応力が計算される。
【0130】
ダイナミックなシミュレーションの中核は、多数からなるラグランジュの数式の集合から構成されている。これらはモーションの数式と呼ばれ、これには身体にかかる一般化された力と一般化された動きの関係が含まれている。ここでの「一般化された」というのは、外界の力という見地からというよりはむしろ、人体の動きの可能性(つまり自由度)に従って公式化されたという意味である。これは、一般化された力のほとんどは、実際には力のモーメント(またはトルク)であることを暗示している。床との接触など環境とのインタラクションの種類を記述した方程式を追加することができる。数式は、フォワードシミュレーションで同時進行的に解いたり、インバースシミュレーションで代数学的に解いたり、または再整理してインバースおよびフォワードシミュレーションの組み合わせで解くことができる。
【0131】
ここから、重心の位置が計算され、脚の位置とともに使用して、仮想環境で必要とされる場合に、プラットホームの動作を駆動することができる。人体モデルにより、被験者の関節の力のモーメントが生成され、これを保存されたライブラリの関節のモーメントの共通パターンに対して評価することができる。必要に応じて、この情報を投影画像で得て、被験者によって使用できるようにすることができる。動きやバランスの機能性に問題が発生した時には、フォワードダイナミクスシミュレーションを始動させて、運動性パターンのどこに弱い部分があるかを示すことができる。これらのモデルにより、システムの拡張が簡単となり高性能が得られる。
【0132】
CARENシステムは、電磁気式トラッキングデバイス付きの光学式モーションキャプチャシステム、マルチCPUハードウェアプラットホーム(SGI Dual CPU OCTANE MXE)、6DOFのモーションプラットホーム、およびデュアルヘッドのオプションやビデオI/Oなどのハードウェア要素を組み合わせたものである。様々なシナリオをサポートし、システムの新しい機能を短期間に開発し実現できるようにするために、データフローモデルがシステムの中核に選ばれる。データフローシステムは、そのモジュールにより特徴付けられ、よく定義された機能性を実現し、0個以上の入出力ポートおよび各種モジュール間の接続を通してデータを受信および/または送信し、方向性をもった非周期性グラフを形成する。
【0133】
D−FLOWの主なタスクは様々な入力デバイスから入ってくる入力データを処理し、収集されたデータを上記の人体モデルにマップし、様々な入力データおよび計算されたデータ(あるいはそのどちらか)をそれぞれ異なったケースに応じて処理することである。その他のタスクには、人間のモデルおよび環境のリアルタイムグラフィックアニメーションの表示や、モーションプラットホーム自体の駆動がある。
【0134】
ソフトウェアは、リアルタイムな用途で性能が実証済みで、システムの並列オペレーションに対して低レベルの制御のあるソフトウェアプラットホームである SGI Performer 2.2を用いてCおよびC++で記述される。D−FLOWには、数個のモジュールがあり、様々なモジュール構造および相互接続されたモジュールにより、ソフトウェアプロセスを実行でき、ランタイムの接続、システムへの編集、接続の解除の実行ができる。
【0135】
SoftLoadモジュールにより、キャラクタおよび環境のジオメトリ、I/Oチャンネル接続、キャラクタのIKスケルトン、照明のセットアップやテクスチャーなどが収録されているSoftimage3Dからシーンがインポートされる。Camoモジュールにより、データフローがオンラインヒューマンサブミックスを通して各種出力に調整される。SGIベースのパフォーマディスプレー表示環境であるPerflyにより、ランタイムでの拡張デバックおよび最適化ができるようになる。システムは、一台のコンピュータに制約されることはなく、異種のコンピューティング環境を接続するための標準的なアーキテクチャであるCORBAを使用することで、CORBAに対応するものであればどんなコンピュータ言語またはシステムにでもモジュールを実現することができる。
【0136】
オペレータ向けのユーザーインターフェイスは、CORBAインターフェイスを通じてD−FLOWとの通信をする手段として、JavaでJava-Beansを使用して実現されている。オペレーションの例として、シミュレートする仮想環境のタイプを決定した後で、環境の視覚的な部分を、3Dシャッターガラスを装着した被験者の前のスクリーンに3Dで投影するものがある。ユーザーは、仮想環境の一部として、または被験者の動きに対する反応として制御できるプラットホームまたはトレッドミルの上に立つ。ユーザーは、光学式および磁気式なマーカー(あるいはそのどちらか)を装着し、それにより位置および向きが記録される。それらが人体モデルの自由度に変換されるアルゴリズムに供給されるが、この人体モデルは被験者の細分された質量および慣性で満たされている。
【0137】
ここから、重心の位置が計算され、脚の位置とともに使用して、仮想環境で必要とされる場合に、プラットホームの動作を駆動することができる。人体モデルにより、被験者の関節の力のモーメントが生成され、これを保存されたライブラリの関節のモーメントの共通パターンに対して評価することができる。必要に応じて、この情報を投影画像で得て、被験者によって使用できるようにすることができる。動きやバランスの機能性に問題が発生した時には、フォワードダイナミクスシミュレーションを始動させて、運動性パターンのどこに弱い部分があるかを示すことができる。これらのモデルにより、システムの拡張が簡単となり高性能が得られる。
【0138】
本発明の上述の望ましい実施例についての説明は、描写および記述の目的で提示したものである。全て網羅したり、本発明を開示したそのとおりの形に制限することは意図していない。上記の説明内容の見方をすれば、数多くの改造や変形が可能である。本発明の範囲は、この詳細な説明でななく、本発明に添付の請求の範囲によって制限されるものとする。
【図面の簡単な説明】
【図1】 モーションプラットホーム、モーションキャプチャシステム、コンピュータ間の基本的な相互関係を示している。
【図2】 釣り合いへの適用を図示したものである。
【図3】 瞬間的なシミュレーション記録への適用を図示している。
【図4】 逆方向の力への適用を図示している。
【図5】 仮想のクローンへの適用を図示している。
【図6】 D−FLOWアーキテクチャのブロック線図である。
【図7】 相互関係のある要素を示した適用のフローチャートである。
【図8】 相互関係のある要素を示したフローチャートである。
【図9】 一実施例のハードウェアコンポーネントを描写したものである。
Claims (20)
- 複数のモーションセンターからのモーションキャプチャデータを25Hzよりも高速に処理するモーションキャプチャシステムと、
モーションプラットホームデータを25Hzよりも高速に処理するモーションプラットホームシステムと、
前記モーションキャプチャシステムおよびモーションプラットホームシステムに接続され、フォワードダイナミックシミュレーションを用いて前記モーションキャプチャデータおよびモーションプラットホームデータを処理して力のモーメントを予測し、予測した力のモーメントに応じて制御コマンドを生成して物理環境およびリアルタイムな生体フィードバックを提供する処理手段、
モーション処理システムへのランタイム制御入力を有するインターフェイス手段とを備えるモーション処理システム。 - 請求項1に記載のモーション処理システムにおいて、前記の多数のモーションセンサーは光学式であるモーション処理システム。
- 請求項1に記載のモーション処理システムにおいて、前記の多数のモーションセンサーは磁気式であるモーション処理システム。
- 請求項1に記載のモーション処理システムにおいて、前記の多数のモーションセンサーは光学式および磁気式であるモーション処理システム。
- 請求項1に記載のモーション処理システムはさらに、前記処理手段に接続されていると共に、仮想環境をユーザー向けに表示するディスプレイ手段を備えるモーション処理システム。
- 請求項1に記載のモーション処理システムはさらに、前記モーションキャプチャデータおよび前記モーションプラットホームデータの記録用の記憶手段を備えるモーション処理システム。
- 多数のマーカーをユーザーに装着するステップ、
そのユーザーをモーションプラットホーム上に配置するステップ、
前記多数のマーカーからのモーションキャプチャデータセットを受信するステップ、
前記モーションプラットホームからのモーションプラットホームデータセットを受信するステップ、
制御信号をランタイムで入力するステップ、
力のモーメントを予測するためにフォワードダイナミックシミュレーションを用いて前記制御信号、前記モーションキャプチャデータセット、前記モーションプラットホームデータセットを25Hzより速い形式で、ホストコンピュータシステムにて処理するステップ、
物理環境およびリアルタイムな生体フィードバックを提供するために前記予測した力のモーメントに応じて、新しいデータ セットを前記モーションキャプチャシステムおよび前記モーションプラットホームシステムに出力するステップとを備える仮想環境および物理環境の生成方法。 - 請求項7に記載の仮想環境および物理環境プロセスはさらに、前記ユーザー向けに仮想現実環境を表示するステップを備える仮想環境および物理環境の生成方法。
- 請求項7に記載の仮想環境および物理環境プロセスにおいて、前記の制御信号をランタイムで入力するステップが前記ユーザーにより実施される仮想環境および物理環境の生成方法。
- 請求項7に記載の仮想環境および物理環境プロセスにおいて、前記の制御信号をランタイムで入力するステップがオペレータにより実施される仮想環境および物理環境の生成方法。
- 多数のモーションセンサーを装着したユーザーを配置するためのモーションプラットホーム、
前記モーションセンサーからのモーションキャプチャデータを25Hzよりも高速に処理するモーションキャプチャシステム、
モーションプラットホームデータを25Hzよりも高速に処理し、制御コマンドを前記モーションプラットホームに出力するモーションプラットホームシステム、
前記モーションキャプチャシステムおよびモーションプラットホームシステムに接続され、フォワードダイナミックシミュレーションを用いて前記モーションキャプチャデータおよびモーションプラットホームデータを処理して力のモーメントを予測し、予測した力のモーメントに応じて制御コマンドを生成して物理環境およびリアルタイムな生体フィードバックを提供する処理手段、
ランタイム制御入力のある前記処理手段へのインターフェイス手段、
前記モーションプラットホームデータおよび前記モーションキャプチャデータの記録用の記憶手段とを備えるシミュレーション記録システム。 - 請求項11に記載のシミュレーション記録システムにおいて、前記ユーザーがランタイム制御入力を操作するシミュレーション記録システム。
- 請求項11に記載のシミュレーション記録システムはさらに、前記記憶手段からの前記記録されたモーションプラットホームデータおよび前記モーションキャプチャデータを再生するための手段を備えるシミュレーション記録システム。
- 請求項11に記載のシミュレーション記録システムはさらに、仮想現実環境を前記記録されたモーションプラットホームデータおよび前記モーションキャプチャデータと連続して記録するための手段を備えるシミュレーション記録システム。
- 記憶手段、
モーションを検出するために多数のマーカーが装着されているユーザーが配置されるプラットホームを有するモーションプラットホームシステム、
モーションキャプチャシステム、
前記モーションプラットホームシステムおよび前記モーションキャプチャシステムに接続された処理手段であって、力のモーメントを予測するためにフォワードダイナミックシミュレーションを用いてモーションプラットホームデータおよびモーションキャプチャデータを高速に処理し、前記予測した力のモーメントに応じて前記モーションプラットホームシステムを制御する新しい制御データを前記モーションプラットホームシステムに出力する処理手段と、
前記モーションキャプチャデータおよび前記モーションプラットホームデータを前記記憶手段に記録する手段、
ランタイム制御入力を有する前記システムへのインターフェイス手段を備える、機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。 - 請求項15に記載の機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムはさらに、前記モーションプラットホームデータおよび前記モーションキャプチャデータを記録する手段を備える機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。
- 請求項15に記載の機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムはさらに、前記記憶手段からの前記モーションキャプチャデータおよび前記モーションプラットホームデータを再生する手段を備える機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。
- 請求項17に記載の機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムにおいて、前記記憶手段には、以前に記録されたデータのライブラリが含まれている機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。
- 記憶手段、
モーションを検出するために多数のマーカーが装着されているユーザーが配置されるプラットホームを有するモーションプラットホームシステム、
モーションキャプチャシステム、
前記モーションプラットホームシステムおよび前記モーションキャプチャシステムに接続された処理手段であって、モーションプラットホームデータおよびモーションキャプチャデータを25Hzよりも高速に処理し、新しい制御データを前記モーションプラットホームシステムに出力し、
前記モーションキャプチャデータおよび前記モーションプラットホームデータを前記記憶手段に記録する手段、
ランタイム制御入力を有する前記システムへのインターフェイス手段、
前記記憶手段からの前記モーションキャプチャデータおよび前記モーションプラットホームデータを再生する手段を備え、
前記記憶手段からの前記モーションプラットホームデータの前記再生により、外的な力が前記ユーザーにかかる機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。 - 請求項15に記載の機能面での人間の行動をダイナミックに登録・評価・修正するためのシステムはさらに、ユーザー向けに仮想現実環境を表示する手段を備える機能面での人間の行動をダイナミックに登録・評価・修正するためのシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NL1010150A NL1010150C1 (nl) | 1998-09-22 | 1998-09-22 | Een systeem voor dynamische evaluatie van de menselijke bewegingsleer. |
NL1010150 | 1998-09-22 | ||
EP19980204334 EP0995556A2 (en) | 1998-09-22 | 1998-12-21 | A system for dynamic evaluation of human behavior |
EP98204334.1 | 1998-12-21 | ||
US11650699P | 1999-01-20 | 1999-01-20 | |
US60/116,506 | 1999-01-20 | ||
PCT/US1999/021246 WO2000017767A1 (en) | 1998-09-22 | 1999-09-22 | System for dynamic registration, evaluation, and correction of functional human behavior |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003524219A JP2003524219A (ja) | 2003-08-12 |
JP2003524219A5 JP2003524219A5 (ja) | 2006-11-09 |
JP4351808B2 true JP4351808B2 (ja) | 2009-10-28 |
Family
ID=27239458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000571357A Expired - Lifetime JP4351808B2 (ja) | 1998-09-22 | 1999-09-22 | 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1131734B1 (ja) |
JP (1) | JP4351808B2 (ja) |
AU (1) | AU6249899A (ja) |
CA (1) | CA2345013C (ja) |
WO (1) | WO2000017767A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210244320A1 (en) * | 2020-02-11 | 2021-08-12 | Korea Institute Of Science And Technology | Apparatus and method for evaluating force control ability of upper limb and prosthesis |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1282850B1 (en) * | 2000-05-02 | 2013-07-10 | Vincent J. Macri | Processing system for interactive, personal and idiosyncratic control of images and devices |
ES2178946B1 (es) * | 2000-12-14 | 2004-03-16 | Univ Coruna | Sistema de estimulacion multi-sensorial (auditiva-visual-somestesica) ritmica miniaturizado portatil. |
US6665600B2 (en) | 2002-04-12 | 2003-12-16 | International Business Machines Corporation | System and method for acquiring normalized automotive positional settings |
CN1294510C (zh) * | 2003-01-28 | 2007-01-10 | 中国南方航空股份有限公司 | 一种航空模拟机训练的计算机辅助教学系统及其方法 |
CA2419962C (en) | 2003-02-26 | 2013-08-06 | Patrice Renaud | Method and apparatus for providing an environment to a patient |
ATE428154T1 (de) * | 2005-05-03 | 2009-04-15 | Seac02 S R L | Augmented-reality-system mit identifizierung der realen markierung des objekts |
US8333592B2 (en) | 2005-12-06 | 2012-12-18 | Andrew Warburton Swan | Video-captured model vehicle simulator |
ITPN20060011A1 (it) * | 2006-02-03 | 2007-08-04 | Maurizio Cardone | Sistema perfezionato per la determinazione diagnostica e la conseguente terapia di patologie varie mediante l'abbinamento di rilevazioni posturali, pressorie e fotografiche. |
JP4148281B2 (ja) | 2006-06-19 | 2008-09-10 | ソニー株式会社 | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
WO2008067607A1 (en) * | 2006-12-06 | 2008-06-12 | Physiolog Products Pty Ltd | Method and system of deriving measurements |
US20080221487A1 (en) * | 2007-03-07 | 2008-09-11 | Motek Bv | Method for real time interactive visualization of muscle forces and joint torques in the human body |
KR101091725B1 (ko) | 2008-10-30 | 2011-12-08 | 한국기계연구원 | 인체 균형기능 진단 시스템 및 진단 방법 |
US8315823B2 (en) | 2011-04-20 | 2012-11-20 | Bertec Corporation | Force and/or motion measurement system having inertial compensation and method thereof |
US8315822B2 (en) | 2011-04-20 | 2012-11-20 | Bertec Corporation | Force measurement system having inertial compensation |
ITGE20120011A1 (it) * | 2012-01-27 | 2013-07-28 | Paybay Networks S R L | Sistema per la riabilitazione di pazienti |
EP2630943A1 (de) * | 2012-02-21 | 2013-08-28 | Astrium GmbH | Therapiegerät |
PT106205B (pt) * | 2012-03-13 | 2014-03-12 | Univ Aveiro | Plataforma com detecção de rotação passiva nos 3 eixos em tempo real |
EP3068301A4 (en) * | 2013-11-12 | 2017-07-12 | Highland Instruments, Inc. | Analysis suite |
JP7004965B2 (ja) * | 2017-04-06 | 2022-01-21 | 公立大学法人名古屋市立大学 | 平衡機能訓練装置 |
FR3094547B1 (fr) * | 2019-03-26 | 2021-05-07 | Myreve | Procédé de contrôle d’une simulation en réalité virtuelle, dispositif, système et produit programme d’ordinateur correspondants. |
CN114403860B (zh) * | 2022-01-21 | 2023-07-07 | 福建师范大学 | 一种直道途中跑上肢的评价方法及终端 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5562572A (en) * | 1995-03-10 | 1996-10-08 | Carmein; David E. E. | Omni-directional treadmill |
US5554033A (en) * | 1994-07-01 | 1996-09-10 | Massachusetts Institute Of Technology | System for human trajectory learning in virtual environments |
-
1999
- 1999-09-22 AU AU62498/99A patent/AU6249899A/en not_active Abandoned
- 1999-09-22 EP EP99949671A patent/EP1131734B1/en not_active Expired - Lifetime
- 1999-09-22 JP JP2000571357A patent/JP4351808B2/ja not_active Expired - Lifetime
- 1999-09-22 CA CA002345013A patent/CA2345013C/en not_active Expired - Lifetime
- 1999-09-22 WO PCT/US1999/021246 patent/WO2000017767A1/en active Search and Examination
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210244320A1 (en) * | 2020-02-11 | 2021-08-12 | Korea Institute Of Science And Technology | Apparatus and method for evaluating force control ability of upper limb and prosthesis |
Also Published As
Publication number | Publication date |
---|---|
CA2345013C (en) | 2009-09-15 |
WO2000017767A1 (en) | 2000-03-30 |
JP2003524219A (ja) | 2003-08-12 |
CA2345013A1 (en) | 2000-03-30 |
EP1131734A4 (en) | 2004-08-04 |
EP1131734A1 (en) | 2001-09-12 |
AU6249899A (en) | 2000-04-10 |
EP1131734B1 (en) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6774885B1 (en) | System for dynamic registration, evaluation, and correction of functional human behavior | |
JP4351808B2 (ja) | 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム | |
US7931604B2 (en) | Method for real time interactive visualization of muscle forces and joint torques in the human body | |
Avola et al. | An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games | |
CN1168057C (zh) | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 | |
Caserman et al. | A survey of full-body motion reconstruction in immersive virtual reality applications | |
KR20210058958A (ko) | 시각 디스플레이를 위한 상보적 데이터를 생성하기 위한 시스템들 및 방법들 | |
RU2107328C1 (ru) | Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа | |
Davoodi et al. | Real-time animation software for customized training to use motor prosthetic systems | |
Debarba et al. | On the plausibility of virtual body animation features in virtual reality | |
CN112827153A (zh) | 一种用于人体机能训练的主动自适应系统及其控制方法 | |
US11112781B2 (en) | Training an autonomous robot using previously captured data | |
US11436806B1 (en) | Dual perspective rendering in virtual reality | |
RU2106695C1 (ru) | Способ представления виртуального пространства пользователю и система для осуществления способа | |
JPH08329272A (ja) | アニメーション作成方法 | |
Yeager | An Automated Physiotherapy Exercise Generator | |
Krukowski et al. | User Interfaces and 3D Environment Scanning for Game-Based Training in Mixed-Reality Spaces | |
Cardona et al. | Virtual platform technologies for evaluation of rehabilitation progress and for prosthetic control | |
Kelly et al. | The e-motion system: Motion capture and movement-based biofeedback game | |
Zafer | Research on Current Sectoral Uses of Motion Capture (MoCap) Systems | |
Liu et al. | Design of Lumbar Rehabilitation Training System Based on Virtual Reality | |
Liu | Analysis of complex movements | |
Ruvinskaya et al. | Cybernetic suit for interaction with virtual reality | |
Рувінська et al. | Cybernetic suit for interaction with virtual reality | |
Oore | DIGITAL MARIONETTE: augmenting kinematics with physics for multi-track desktop performance animation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20040409 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20040421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060920 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090313 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20090323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090707 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090727 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4351808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |