JP4886681B2 - 生物の動作のシミュレーションを行うためのコンピュータ化された方法 - Google Patents

生物の動作のシミュレーションを行うためのコンピュータ化された方法 Download PDF

Info

Publication number
JP4886681B2
JP4886681B2 JP2007516850A JP2007516850A JP4886681B2 JP 4886681 B2 JP4886681 B2 JP 4886681B2 JP 2007516850 A JP2007516850 A JP 2007516850A JP 2007516850 A JP2007516850 A JP 2007516850A JP 4886681 B2 JP4886681 B2 JP 4886681B2
Authority
JP
Japan
Prior art keywords
empirical
predetermined
organism
data
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007516850A
Other languages
English (en)
Other versions
JP2008503004A (ja
Inventor
ラシュク,ウルリッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Industry Software Inc
Original Assignee
Siemens Product Lifecycle Management Software Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Product Lifecycle Management Software Inc filed Critical Siemens Product Lifecycle Management Software Inc
Publication of JP2008503004A publication Critical patent/JP2008503004A/ja
Application granted granted Critical
Publication of JP4886681B2 publication Critical patent/JP4886681B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は一般的に、コンピュータ支援設計(CAD)産業に関連し、特にプロファイルパスを用いた人間動作のシミュレーションのためのシステムと方法に関連するものである。
人間動作のシミュレーションのためのツールは、職場、製品、トレーニング及びサービスオペレーションの人間工学的分析に、またエンターテイメント産業において使用されている。人間動作を正確に表すプロセスは単調で時間の掛かるものであり、また複雑な運動学的3Dシステムの関節レベルでの操作に長けた熟練したオペレータが必要になる。人が実際にタスクを実行する様子を経験的に観察し、それを用いて人間動作のモデルを作成する試みは、モーションキャプチャ技術と呼ばれている。これらの動作データの最終的な統計モデリングはデータの形式によって制限される。経時的な関節角度のデータと、経時的なランドマークデータのデータセットの両方が利用できる。しかし、関節角度は骨格構造に依存するため、関節角度のデータは任意の骨格構造に適用することはできない。ランドマークデータには、数学的最適化法を用いて運動学的な人間の「骨格」がランドマークデータに最良適合するようにする制約解決が必要となり、これには時間が掛かり一貫性に欠ける。
既存のアプローチの他の限界としては、これらの経験的データには、研究室でこれらのデータを実験的に観察した時の実験条件が反映される傾向にある、ということがある。例えば、常に「ニュートラルなスタート姿勢」から動作を開始する、といったことである。しかし殆どのシミュレーションにおいて、直前の動作の最後の姿勢が次の動作のスタート姿勢を決定づけるため、任意のスタート姿勢からの動作が要求される。無限に近い数のタスクのデータを収集し経験的モデルを作成し、また人間が動作可能な条件を読み込むことは困難である。
人間動作のモデリングの別の方法として、ロボット工学分野等における、キーフレームの位置を用いたものがある。この方法においては、単純な姿勢推移補間器が、全ての関節が同時に動作を開始し終了するように関節を動かす。その結果、ロボットのような動きとなり現実味に欠ける。
発明の一実施例によると、生物の動作のシミュレーションを行うためのコンピュータ化された方法複数の骨格部分からなる骨格を有する生物の動作のシミュレーションを行うための比較対象となる第一の生物の動作における開始姿勢から終了姿勢までの各骨格部分の推移を表す各経験的パスからなる経験的モデルを複数の動作についてそれぞれ記録した複数のデータセットを含むデータベースを記憶した記憶装置と、前記データセットを利用して生物の動作のシミュレーションを行うためのコンピュータプログラムを保存するメモリと、前記データセットと共に前記コンピュータプログラムを読み出して実行するためのプロセッサと、シミュレーションの実行対象となる第二の生物の動作における各骨格部分の開始ポイント及び終了ポイントを表すデータを含む任意のデータを入力、選択又は操作するための入力装置と、前記シミュレーションを認識可能にするための出力装置とを備えるコンピュータを用いる。
そして、当該方法は、
前記第二の生物の所定の動作に関して、各骨格部分の開始ポイント及び終了ポイントを表すデータを受け取るステップと、
前記第二の生物の前記所定の動作を前記複数のデータセットの前記複数の動作と比較するステップと、
該比較に基づいて、前記第二の生物の前記所定の動作に近似した動作についての前記データセットを選択するステップと、
前記開始ポイント、前記終了ポイント及び選択された前記データセットの動作の前記経験的モデルに基づき、前記第二の生物の前記所定の動作として望ましい動作をシミュレーションするステップと、
を含み、
前記シミュレーションするステップが、
選択された前記データセットの動作の前記経験的モデルにおける所定の骨格部分が経験的開始ポイントから経験的終了ポイントへと推移する動作期間中に、複数の時点のそれぞれにおける前記所定の骨格部分の位置及び方向を特定するステップと、
それぞれの時点における該位置及び該方向に基づいて、隣同士の経験的ポイント間での前記所定の骨格部分の位置及び方向の相対的変化を特定するステップと、
位置及び方向の該相対的変化を、前記第二の生物の前記所定の動作の前記開始ポイントと前記終了ポイントとの間の複数のポイントに適用するステップと、
を含む、
ことを特徴とする。
本発明の実施例には技術的な効果が数々ある。本発明の実施例には、これらの効果の全てまたは一部を含むものや、その一切を含まないものがある。一実施例においては、人間動作のシミュレーション法により人間動作の複雑なコレオグラフィをキャプチャし、人間動作をリアリスティックにシミュレーションする。骨格構造の特定のセグメントのプロファイルパスに基づいて、単純な姿勢推移法を改良して、人間動作の複雑なコレオグラフィをキャプチャすることができる。こうすることで、保存されたデータセットからのスタートポイントと終了ポイントとの関連が解消され、人間動作のシミュレーションが容易になる。この方法は、一貫性のある形で、数学的最適化法を用いる必要性も無く、どのような骨格構造にも適応できる。更に、人間もしくはその他の生物等、運動学的に妥当な骨格構造は全てシミュレーションすることができる。プロファイルパスを人間動作のシミュレーションに利用することは、年齢、性別及び体格等の要因を含む、人間の動作に影響を与え得る全てのパラメータを考慮した上で、様々な種類のタスク、(つまりは、片手を伸ばす、両手を伸ばす、持ち上げる等)に適応できる。本発明の実施例は、人間工学及び人間要因科学に熟練していないユーザが製品工学サイクルの全ての段階で人間要因面での懸念事項を評価する上での一助となり得る。
その他の技術的な効果は、本願の図、説明及び請求項より当業者には容易に理解されるであろう。
図1A乃至図4の図面を参考にすることで、本発明の実施例とその効果の理解が更に深まるであろう。ここで、同じ番号は同じ部分を示す。
図1Aは、本発明の一実施例による人間動作のシミュレーションシステム100を示すブロック図である。システム100は、コンピュータ106及び記録デバイス108にアクセスできる人間動作シミュレータ104を利用した人間動作シミュレーション事業体102を含む。人間動作シミュレーション事業体102は、CAD/CAM/CAEソフトウェア、アニメーション映画、ビデオゲーム及びその他の相応なソフトウェアアプリケーション等を用いて、人間動作をシミュレーションすることを望む企業もしくはその他の相応な事業体であれば如何なるものでも良い。人間動作シミュレーション事業体102は大抵、人間の動作を正確でまたコスト効率の高い方法で予測することを目的としている。人間動作のシミュレーションは比較的複雑で高コストなプロセスであるため、本発明の実施例の幾つかは、人間動作をリアリスティックにシミュレーションするために人間動作の複雑なコレオグラフィをキャプチャするコンピュータ化された方法とシステムを提供する。このコンピュータ化された方法は、数学的最適化法等を用いる必要性も無く、どのような姿勢にも一貫して適応できる。更に、この詳細な説明の全般で、「人間」の動作シミュレーションという言葉が使用されているが、動物、魚類もしくはその他の相応な生物の骨格構造等、妥当な運動学上の骨格構造であれば如何なるものでもシミュレーション可能である。このコンピュータ化された方法は人間動作シミュレータ104によって用いられ、このシミュレータは人間動作シミュレーション事業体102によって雇用された従業員個人、従業員のグループ、もしくはこの方法を開始する独立したコンピュータプログラムといったものである。
図1Bは、本発明の一実施例による人間動作のシミュレーションに使用されるコンピュータ106のブロック図である。ここで示される実施例において、コンピュータ106は、入力デバイス110、出力デバイス112、プロセッサ114、人間動作シミュレーションのアプリケーション118を保存するメモリ116及びデータベース120を含む。
入力デバイス110はコンピュータ106に繋がっており、これにより人間動作シミュレータ104が人間動作シミュレーションのアプリケーション118を用いることが可能となる。例えば、人間動作シミュレータ104は、人間動作シミュレーションのアプリケーション118の中に含まれる単一もしくは複数のユーザインタフェースを通して、人間動作シミュレーションのアプリケーション118を用いることができる。これにより、人間動作シミュレータ104は様々なデータ及び情報を入力、選択及び/もしくは操作することが可能となる。一実施例においては、入力デバイス110はキーボードであるが、入力デバイス110は独立したコンピュータプログラム、マウス、スタイラス、スキャナもしくはこれらの任意の組み合わせ等、別の如何なる形態を取っていても良い。
出力デバイス112は、液晶ディスプレイ(「LCD」)、ブラウン管(「CRT」)ディスプレイ等、人間動作シミュレータ104がシミュレーションを試みる人間動作をシミュレータに「見える」ようにする適切な視覚ディスプレイユニットであれば如何なるものでも良い。例えば、図1Aに再び言及すれば、シミュレーション例122は出力デバイス112上で見ることができる。ここで示される実施例においては、人間が前方に踏み出して箱を棚の上に載せている。出力デバイス112はまた、シミュレーションもしくはその他の適切な情報等望ましい情報を記録するために、記録デバイス108に繋げることができる。例えば、シミュレーションはDVD、CD−ROMもしくはその他の適切なメディアに記録できる。シミュレーションはまた、ファイルに送ることもできるし、もしくは別のコンピュータプログラムで使用することもできる。
プロセッサ114はロジックを実行する適切なタイプのプロセシングユニットから成る。プロセッサ114の役割の一つは、メモリ116から人間動作シミュレーションのアプリケーション118を読み出し、人間動作シミュレーションのアプリケーション118を実行して人間動作シミュレータ104による人間動作のシミュレーションを可能にすることである。人間動作シミュレーションのアプリケーション118のその他の役割は、図2乃至図4との関連で更なる詳細に亘り以下に説明する。プロセッサ114は、情報及び人間の計測された動作を示すデータ等その他の適切なデータのキャプチャ及び/もしくは保存をコントロールすることもできる。
人間動作シミュレーションのアプリケーション118は、適切なコンピュータ言語で書かれたコンピュータプログラムである。本発明の教示によると、人間動作シミュレーションのアプリケーション118は、人間の動作をシミュレーションする目的で、データベース120に保存されたデータ及び情報や、人間動作シミュレータ104からのインプットを使用するように作動する。人間動作シミュレーションのアプリケーション118は、人間の計測された動作を示すデータをキャプチャし、その他の適切な役割を果たすことができる。人間動作シミュレーションのアプリケーション118の役割の幾つかは図2乃至図4との関連で以下に説明されている。ここで示される実施例においては、人間動作シミュレーションのアプリケーション118はメモリ116にロジックとしてエンコードされる。しかし、代替の実施例においては、人間動作シミュレーションのアプリケーション118は特定用途向け集積回路(「ASIC」)、フィールドプログラマブルゲートアレイ(「FPGA」)、デジタル信号処理(「DSP」)もしくはその他の適切な特定目的プロセッサもしくは汎用プロセッサとして構築されている。
メモリ116及びデータベース120は、ファイル、スタック、データベース、もしくは揮発性または非揮発性メモリのその他の適切な構成から成ることができる。メモリ116及びデータベース120は、ランダムアクセスメモリ、読み取り専用メモリ、CD−ROM、取り外し可能なメモリデバイス、もしくはデータの保存及び/または読み出しを可能にするその他の適切なデバイスでも良い。メモリ116とデータベース120は互いに置き換え可能であり、同じ機能を果たすことができる。図示された実施例において、データベース120は様々なルール、式、表、及びその他人間動作シミュレーションのアプリケーション118人が間動作をシミュレーションする場合にその機能を果たせるようにする適切なロジックを保存する。データベース120はまた、モーションキャプチャ技術を用いてキャプチャされたデータ等、計測された人間動作をキャプチャすることに関連したデータを保存することもできる。
図2乃至図3Dは、本発明の一実施例が教示するものを図示している。図2の経験的モデル200に示されるように、この実施例の教示を示すために用いられた姿勢の推移は、人間が単に前方に踏み出し棚の上に箱を載せるというものである。
図2を見ると、経験的モデル200は、本発明の一実施例により、箱202を(図示されてはいない)棚の上に載せる人間を図示している。経験的モデル200は、複数のセグメント216で繋げられた複数の関節214と、単数もしくは複数のエンドエフェクタ218を含む。経験的モデル200はスタート姿勢204から開始し、終了姿勢206で終了する。経験的モデル200がスタート姿勢204から終了姿勢206へと推移する間、関節214、セグメント216及びエンドエフェクタ218のそれぞれは特定のプロファイルパスに沿って動く。例えば、図2に示されるように、ハンドパス208は、経験的モデル200において人間の手を表すエンドエフェクタ218aのプロファイルパスを示し、骨盤パス210は経験的モデル200において人間の骨盤関節がとるパスを表し、また足パス212は、経験的モデル200において人間の足を表すエンドエフェクタ218bがとるパスを表す。図2に示される経験的モデル200と様々なパスは二次元形式で表されているが、本発明は、経験的モデル200が三次元形式で表される場合を意図している。二次元形式での図示は簡略化のために過ぎない。
経験的モデル200がスタート姿勢204から終了姿勢206へと推移する間、関節214、セグメント216及びエンドエフェクタ218の位置情報及び方向情報は、経験的データ法、モーションキャプチャ技術及び発見的規則等、適切な方法を用いてキャプチャされる。それぞれのプロファイルパスの位置情報及び方向情報を表すデータは、データベース120(図1B)等、適切な場所に保存することができる。以下に更に詳しく説明されるように、これらの保存されたデータセットは、似通った姿勢推移を行なう人間の望ましい動作をシミュレーションするために使用することができる。経験的モデル200からキャプチャされたデータ例は図3B乃至図3Dに図示されており、これはデータベース120(図1B)に保存され得るタイプのデータである。
図3Aを見ると、エンドエフェクタ218a(つまりは、図2の人間モデルの手)の動作を示す経験的プロファイルパス300が、発明の一実施例により示されている。経験的パス300は経験的スタートポイント302と経験的終了ポイント304を含む。エンドエフェクタ218aの経験的スタートポイント302から経験的終了ポイント304へと移行する動作中の全ての時点におけるエンドエフェクタ218aの位置と方向が、上述のようにキャプチャされ保存される。位置情報及び方向情報は固定デカルト座標306対するものでも良く、もしくは適切な基準面に対するものでも良い。例えば、図示されてはいないが、人間の腕の一部の別のセグメントを関節219を通してエンドエフェクタ218aに繋げ、エンドエフェクタ218aの角度位置を、この特定のセグメントが位置する面に対するものとしても良い。
経験的パス300は位置データ、方向データ及びタイミングデータを含んでいるため、人間動作のシミュレーションに経験的プロファイルパスを使用することは、複雑なオペレーションの全体を通してモデルの手(もしくは複数の手)を一つの部分やツールに留めておく等、他の方法では困難なシミュレーション作業を行なうために大いに役立つ。
エンドエフェクタ218aの経験的スタートポイント302から経験的終了ポイント304までの位置データ及び方向データの例は、図3B乃至図3Dに示されている。本発明の一実施例において、図3Bはエンドエフェクタ218aの時間に対する水平位置を示すグラフ320であり、図3Cはエンドエフェクタ218aの時間に対する垂直位置を示すグラフ330であり、図3Dはエンドエフェクタ218aの時間に対する水平に対する方向を示すグラフ340である。図3B乃至図3Dには二次元データのみが示されているが、上述の通り本発明は三次元データを意図している。従って、どの関節214、セグメント216及び/もしくはエンドエフェクタ218も最大6つの自由度(x、y、z、θ、θ、θ)で定義できる。
図3Bを見ると、y軸321はエンドエフェクタ218aの水平位置を表し、x軸322は時間を表す。曲線324は、経験的スタートポイント302から経験的終了ポイント304へと移行する動作期間中のエンドエフェクタ218aの水平位置を表す。図示された実施例において、エンドエフェクタ218aの水平位置は最初の1.5秒間かなり安定的に上昇し、その後姿勢推移の終了に向け上昇が緩やかになる。
図3Cを見ると、y軸331はエンドエフェクタ218aの垂直位置を表し、x軸332は時間を表す。曲線334は、経験的スタートポイント302から経験的終了ポイント304へと移行する動作期間中のエンドエフェクタ218aの垂直位置を表す。図示された実施例において、エンドエフェクタ218aの垂直位置はこの期間中、およそ1.25秒後に最大垂直位置に達するまで急速に上昇する。その後、垂直位置は符号336が示す最終的な垂直位置に達するまで徐々に下降する。
図3Dを見ると、y軸341はエンドエフェクタ218aのx軸に対する角度を表し、x軸342は時間を表す。曲線344は、経験的スタートポイント302から経験的終了ポイント304へと移行する動作期間中のエンドエフェクタ218aのx軸に対する角度を表す。図示された実施例において、最初の約0.5秒間角度はかなり急速に増加し、その後約1秒間横ばいとなり、その後最後の0.5秒間に0度に戻るまで急速に減少する。
このように、図3B乃至図3Dに示されているように、経験的モデル200(図2)のエンドエフェクタ218aに関し、位置データ及び方向データをキャプチャし保存することにより、本発明の一実施例において、似通った動作(つまりは、棚の上に箱を載せること)を行なう実際の人間の手の望ましい動作を、リアルでコスト効率の高い方法でシミュレーションすることが可能になる。一実施例においては、隣同士の経験的終了ポイント間でのエンドエフェクタ218aの位置及び方向の相対的変化を、望ましい人間動作を正確にシミュレーションするに当り、その動作の実際のスタートポイントから実際の終了ポイントまでの間の複数のポイントに適用することができる。
望ましい人間動作に似た動作を表すデータを選択するために、人間動作シミュレータ104(図1A)は出力デバイス112を用いて経験的モデル200等の適切な経験的モデルを選択することができる。もしくは、人間動作シミュレーションのアップリケーション118が、適切な比較アルゴリズムによってこのステップを自動的に行なうこともできる。望ましい動作を表す経験的モデルが一度選択されると、その後経験的モデル200等その経験的モデルに関連するデータは、望ましい動作をシミュレーションするために使用できる。
図3B乃至図3Dのデータが人間動作のシミュレーションに使用される実施例においては、データは以下の形で使用できる。このデータから、経験的スタートポイント302から経験的終了ポイント304までの隣同士の経験ポイント間におけるエンドエフェクタ218aの位置及び方向の相対的変化が分かる。この相対的変化はその後、このエンドエフェクタのプロファイルパスを正確に予測するために、望ましい人間動作の実際のスタートポイントから実際の終了ポイント間の複数のポイントに適用できる。
図4は、本発明の一実施例によるコンピュータ化された人間動作のシミュレーション方法の一例を示すフローチャートである。例示されたこの方法は、複数のデータセットをデータベース120(図1B)に保存するステップ400から始まる。データセットのそれぞれは、第一の生物の第一のセグメントの経験的パス300(図3A)等の経験的パスを示す。例えば、第一のセグメントは人間の手を表すエンドエフェクタ218aである。ステップ402に示されるように、第二の生物の手の望ましい動作に関して、スタートポイントと終了ポイントが受け取られる。この例においては、望ましい動作とは人間が棚の上に箱を載せる動作である。ステップ404で、この望ましい動作を保存されたデータセットと比較する。棚の上に箱を載せる手の動作を正確にシミュレーションできるよう、保存されたデータセットで手の望ましい動作を表すものがステップ406で選択される。
この動作をシミュレーションするために、エンドエフェクタ218a等の第一のセグメントの位置と方向は、エンドエフェクタ218aが経験的スタートポイント302から経験的終了ポイント304へと移行する動作期間中、ステップ408で複数の時間のそれぞれに対して特定される。それぞれの時間におけるこれらの位置と方向に基づいて、隣同士の経験的ポイント間における位置及び方向の相対的変化がステップ410で特定される。位置及び方向の相対的変化は、棚の上に箱を載せるという手の動作をシミュレーションするために、ステップ412において手の望ましい動作のスタートポイントから終了ポイントまでの間の複数のポイントに適用される。これで図4に例示された方法は完了する。
2002年9月18日に出願された米国特許出願10/246,880は、参照することにより本願にその全体を含むものであるが、この出願は、関節角度の補間を用いて姿勢推移にリアリスティックな人間動作のコレオグラフィを付け加えるための関節角度プロファイルの新規な使用方法を開示している。本発明の幾つかの実施例が教示するものを、特許出願10/246,880の幾つかの実施例が教示するものと組み合わせ、人間動作のシミュレーションをより優れたものにすることができる。例えば、背骨や肩の推移には、特許出願10/246,880に記載の角度に基づくプロファイル補間を適用し、手足の推移には本願に記載のプロファイルパスを適用できる。この解決法全体は人の特定の運動学的定義から独立しているので、どのような人間モデルの定義にも使用可能な解決法となる。
発明の実施例及びその効果は詳細に亘って説明されているが、当業者は、本願の請求項が定義する本発明の精神と範囲から逸脱することなく、様々な代替、追加及び削除案を考案できる。
本発明の理解を更に深めるために、また更なる特徴や効果に関し、添付の図を参照しながら、以下に説明する。
本発明の一実施例による人間動作のシミュレーションシステムを示すブロ ック図である。 本発明の一実施例による人間動作のシミュレーションに使用される、図1 Aのシステムのコンピュータのブロック図である。 本発明の一実施例による、人間が棚に箱を載せる動作のシミュレーションを 示している。 本発明の一実施例による、図2の人間の手の動作の経験的データを示すプ ロファイルパスである。 本発明の一実施例による、人間の手のx軸に沿った距離を時間に対して示 すグラフである。 本発明の一実施例による、人間の手のy軸に沿った距離を時間に対して示 すグラフである。 本発明の一実施例による、人間の手のx軸に対する向きを時間に対して示 すグラフである。 本発明の一実施例による、人間動作のシミュレーションのコンピュータ化さ れた方法を示すフローチャートである。

Claims (5)

  1. 複数の骨格部分からなる骨格を有する生物の動作のシミュレーションを行うための比較対象となる第一の生物の動作における開始姿勢から終了姿勢までの各骨格部分の推移を表す各経験的パスからなる経験的モデルを複数の動作についてそれぞれ記録した複数のデータセットを含むデータベースを記憶した記憶装置と、前記データセットを利用して生物の動作のシミュレーションを行うためのコンピュータプログラムを保存するメモリと、前記データセットと共に前記コンピュータプログラムを読み出して実行するためのプロセッサと、シミュレーションの実行対象となる第二の生物の動作における各骨格部分の開始ポイント及び終了ポイントを表すデータを含む任意のデータを入力、選択又は操作するための入力装置と、前記シミュレーションを認識可能にするための出力装置とを備えるコンピュータを用いて、生物の動作のシミュレーションを行うためのコンピュータ化された方法であって、
    前記第二の生物の所定の動作に関して、各骨格部分の開始ポイント及び終了ポイントを表すデータを受け取るステップと、
    前記第二の生物の前記所定の動作を前記複数のデータセットの前記複数の動作と比較するステップと、
    該比較に基づいて、前記第二の生物の前記所定の動作に近似した動作についての前記データセットを選択するステップと、
    前記開始ポイント、前記終了ポイント及び選択された前記データセットの動作の前記経験的モデルに基づき、前記第二の生物の前記所定の動作として望ましい動作をシミュレーションするステップと、
    を含み、
    前記シミュレーションするステップが、
    選択された前記データセットの動作の前記経験的モデルにおける所定の骨格部分が経験的開始ポイントから経験的終了ポイントへと推移する動作期間中に、複数の時点のそれぞれにおける前記所定の骨格部分の位置及び方向を特定するステップと、
    それぞれの時点における該位置及び該方向に基づいて、隣同士の経験的ポイント間での前記所定の骨格部分の位置及び方向の相対的変化を特定するステップと、
    位置及び方向の該相対的変化を、前記第二の生物の前記所定の動作の前記開始ポイントと前記終了ポイントとの間の複数のポイントに適用するステップと、
    を含み、
    前記所定の骨格部分の位置及び方向の相対的変化を特定するステップにおいて、方向の前記相対的変化の特定は、前記所定の骨格部分が隣同士の経験的ポイント間での推移において、前記所定の骨格部分の角度の相対的変化を基準面に対して特定することによって行われ、
    更に前記基準面を固定デカルト座標系と関連させることを含む
    ことを特徴とする、生物の動作のシミュレーションを行うためのコンピュータ化された方法。
  2. 前記所定の骨格部分の位置及び方向を特定するステップは、前記動作期間を同等な長さに分割するステップを含むことを特徴とする請求項1に記載のコンピュータ化された方法。
  3. 前記所定の骨格部分の位置及び方向の相対的変化を特定するステップにおいて、位置の前記相対的変化の特定は、前記所定の骨格部分が隣同士の経験的ポイント間での推移において、前記所定の骨格部分の位置の相対的変化を固定デカルト座標系に対して特定することによって行われることを特徴とする請求項1に記載のコンピュータ化された方法。
  4. 更に前記基準面を隣接する骨格部分の軸に対応する面と関連させることを含むことを特徴とする請求項に記載のコンピュータ化された方法。
  5. 前記生物が人間であることを特徴とする請求項1に記載のコンピュータ化された方法。
JP2007516850A 2004-06-15 2005-06-15 生物の動作のシミュレーションを行うためのコンピュータ化された方法 Expired - Fee Related JP4886681B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/869,462 2004-06-15
US10/869,462 US20050278157A1 (en) 2004-06-15 2004-06-15 System and method for simulating human movement using profile paths
PCT/US2005/022499 WO2005124604A1 (en) 2004-06-15 2005-06-15 System and method for simulating human movement using profile paths

Publications (2)

Publication Number Publication Date
JP2008503004A JP2008503004A (ja) 2008-01-31
JP4886681B2 true JP4886681B2 (ja) 2012-02-29

Family

ID=35057160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007516850A Expired - Fee Related JP4886681B2 (ja) 2004-06-15 2005-06-15 生物の動作のシミュレーションを行うためのコンピュータ化された方法

Country Status (4)

Country Link
US (1) US20050278157A1 (ja)
EP (1) EP1774443A1 (ja)
JP (1) JP4886681B2 (ja)
WO (1) WO2005124604A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129077B2 (en) * 2004-09-03 2015-09-08 Siemen Product Lifecycle Management Software Inc. System and method for predicting human posture using a rules-based sequential approach
US7895899B2 (en) * 2005-12-03 2011-03-01 Kelly Brian P Multi-axis, programmable spine testing system
US8391786B2 (en) * 2007-01-25 2013-03-05 Stephen Hodges Motion triggered data transfer
US8489569B2 (en) 2008-12-08 2013-07-16 Microsoft Corporation Digital media retrieval and display
US20100228494A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US9024976B2 (en) * 2009-03-05 2015-05-05 The Invention Science Fund I, Llc Postural information system and method
US20100228154A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100228493A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including direction generation based on collection of subject advisory information
US20100228158A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including device level determining of subject advisory information based on subject status information and postural influencer status information
US20100271200A1 (en) * 2009-03-05 2010-10-28 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100228487A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100225473A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228488A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228495A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US20100225498A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Postural information system and method
US20100225490A1 (en) * 2009-03-05 2010-09-09 Leuthardt Eric C Postural information system and method including central determining of subject advisory information based on subject status information and postural influencer status information
US20100225474A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228490A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100225491A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228153A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
US10531968B2 (en) * 2014-05-23 2020-01-14 Joseph Coggins Prosthetic limb test apparatus and method
EP3324365A1 (en) * 2016-11-22 2018-05-23 Dassault Systèmes Computer-implemented method for simulating a body taking a posture, in particular to look at a target
EP3324366A1 (en) * 2016-11-22 2018-05-23 Dassault Systèmes Computer-implemented method for simulating a body taking a posture

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982389A (en) * 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
US20040054510A1 (en) * 2002-09-18 2004-03-18 Ulrich Raschke System and method for simulating human movement
US6738065B1 (en) * 1999-08-10 2004-05-18 Oshri Even-Zohar Customizable animation system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5253189A (en) * 1989-06-13 1993-10-12 Schlumberger Technologies, Inc. Qualitative kinematics
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
US5623428A (en) * 1990-12-25 1997-04-22 Shukyohoji, Kongo Zen Sohozan Shoriji Method for developing computer animation
US5835693A (en) * 1994-07-22 1998-11-10 Lynch; James D. Interactive system for simulation and display of multi-body systems in three dimensions
JP3331100B2 (ja) * 1995-08-10 2002-10-07 富士通株式会社 マニピュレータシミュレート装置
JPH09238963A (ja) * 1996-03-07 1997-09-16 Nikon Corp 顎運動のシミュレーション方法
WO1997036247A1 (en) * 1996-03-25 1997-10-02 Stoneman Martin L Autonomous decision systems
US5989157A (en) * 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) * 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
US6088042A (en) * 1997-03-31 2000-07-11 Katrix, Inc. Interactive motion data animation system
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
AU7161598A (en) * 1997-04-21 1998-11-13 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6161080A (en) * 1997-11-17 2000-12-12 The Trustees Of Columbia University In The City Of New York Three dimensional multibody modeling of anatomical joints
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
US6462742B1 (en) * 1999-08-05 2002-10-08 Microsoft Corporation System and method for multi-dimensional motion interpolation using verbs and adverbs
US6694044B1 (en) * 1999-09-16 2004-02-17 Hewlett-Packard Development Company, L.P. Method for motion classification using switching linear dynamic system models
JP3643867B2 (ja) * 2001-07-23 2005-04-27 独立行政法人情報通信研究機構 マニピュレータの制御方法
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US20040012593A1 (en) * 2002-07-17 2004-01-22 Robert Lanciault Generating animation data with constrained parameters
WO2004030870A1 (ja) * 2002-10-01 2004-04-15 Sony Corporation ロボット装置及びロボット装置の制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982389A (en) * 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
US6738065B1 (en) * 1999-08-10 2004-05-18 Oshri Even-Zohar Customizable animation system
US20040054510A1 (en) * 2002-09-18 2004-03-18 Ulrich Raschke System and method for simulating human movement

Also Published As

Publication number Publication date
WO2005124604A1 (en) 2005-12-29
JP2008503004A (ja) 2008-01-31
US20050278157A1 (en) 2005-12-15
EP1774443A1 (en) 2007-04-18

Similar Documents

Publication Publication Date Title
JP4886681B2 (ja) 生物の動作のシミュレーションを行うためのコンピュータ化された方法
de Klerk et al. Usability studies on building early stage architectural models in virtual reality
Christou et al. A versatile large-scale multimodal VR system for cultural heritage visualization
Marner et al. Augmented foam sculpting for capturing 3D models
KR101320753B1 (ko) 규칙에 기초한 순차적인 방법을 이용한 인간 자세 예측시스템 및 방법
JP4719155B2 (ja) リグ・ベーキング
US8260593B2 (en) System and method for simulating human movement
Bowman et al. Virtual-SAP: an immersive tool for visualizing the response of building structures to environmental conditions
US9542747B2 (en) Assembly simulation apparatus and method for wooden structure
Beever et al. Assisting Serious Games Level Design with an Augmented Reality Application and Workflow.
KR101197969B1 (ko) 프로파일 경로들을 이용하여 인간의 동작을 시뮬레이팅하는시스템 및 방법
Cannavò Interfaces for human-centered production and use of computer graphics assets.
Nurindiyani et al. Motion Modeling of Traditional Javanese Dance: Introduction of Javanese Dancer Gesture with 3D Models
Laycock et al. The haptic rendering of polygonal models involving deformable tools
JP4361878B2 (ja) 統計力学的モデリングの方法と装置
Alexopoulos et al. Multi-criteria upper-body human motion adaptation
Bayazit Solving motion planning problems by iterative relaxation of constraints
Romo et al. Modeling Deformable Objects for Medical Training with Haptic Devices
TWI301940B (ja)
Osti Direct modeling techniques in the conceptual design stage in immersive environments for DfA&D
Bourguignon Interactive Animation and Modeling by Drawing--Pedagogical Applications in Medicine
Hsiao et al. Combined digital & physical modeling with vision-based tangible user interfaces: Opportunities and challenges
Bigbee Interactive 3D Modeling in Virtual Reality
Liu et al. Surgical simulation with high-fidelity haptic feedback
Weiss Constraint-Based Approach to Crowd Simulation and Layout Synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080616

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4886681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees