JP2011511713A - Method and apparatus for designing animatronic units from articulated computer-generated characters - Google Patents

Method and apparatus for designing animatronic units from articulated computer-generated characters Download PDF

Info

Publication number
JP2011511713A
JP2011511713A JP2010538233A JP2010538233A JP2011511713A JP 2011511713 A JP2011511713 A JP 2011511713A JP 2010538233 A JP2010538233 A JP 2010538233A JP 2010538233 A JP2010538233 A JP 2010538233A JP 2011511713 A JP2011511713 A JP 2011511713A
Authority
JP
Japan
Prior art keywords
animatronic
unit
response
motion
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010538233A
Other languages
Japanese (ja)
Inventor
ジョン アンダーソン,
ロブ クック,
Original Assignee
ピクサー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/958,233 external-priority patent/US8390629B2/en
Priority claimed from US11/958,239 external-priority patent/US8232998B2/en
Application filed by ピクサー filed Critical ピクサー
Publication of JP2011511713A publication Critical patent/JP2011511713A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Abstract

アニマトロニクスユニットに対する設計を特定する方法は、芸術的に決定された動きを含む動きのデータを受信することと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することと、アニマトロニクスユニットの構成に対する設計を出力することとを包含する。一実施形態において、アニマトロニクスユニットの挙動を決定する方法は、複数の制御信号を用いてアニマトロニクスユニットの少なくとも一部分のソフトウェアシミュレーションを駆動することによって、複数の制御信号に応答してアニマトロニクスユニットの少なくとも一部分の該挙動を推定することを包含する。A method for identifying a design for an animatronic unit includes receiving motion data including an artistically determined motion and determining a design for a configuration of at least a portion of the animatronic unit in response to the motion data. And outputting a design for the configuration of the animatronic unit. In one embodiment, a method for determining the behavior of an animatronic unit includes driving a software simulation of at least a portion of the animatronic unit using the plurality of control signals, thereby responding to the plurality of control signals. Including estimating the behavior of at least a portion.

Description

(発明の背景)
本発明は、アニメーションに関する。より具体的には、本発明は、関節連結された(articulated)コンピューターにより生成されたキャラクターに基づいてアニマトロニクスユニットを設計するための方法および装置に関する。
(Background of the Invention)
The present invention relates to animation. More specifically, the present invention relates to a method and apparatus for designing an animatronic unit based on an articulated computer generated character.

長年にわたって、映画製作者たちは、しばしば、架空のクリーチャー(creature)、遠く離れた場所および空想の物事を含むストーリーを語ろうとしてきた。そうするために、彼らは、しばしば、架空のものに「生命」を与えるアニメーション技術に依存してきた。アニメーションにおける2つの主要な経路は、従来、描画ベースのアニメーション技術およびストップモーションのアニメーション技術を含んでいた。   Over the years, filmmakers have often tried to tell stories that include fictional creatures, distant places, and fantasy things. To do so, they have often relied on animation techniques that give "life" to fictional things. Two major paths in animation have traditionally included drawing-based animation techniques and stop-motion animation techniques.

描画ベースのアニメーション技術は、20世紀においてWalt Disneyのような映画製作者たちによって洗練され、“Snow White and the Seven Dwarfs”(1937)および“Fantasia”(1940)のような映画において用いられた。このアニメーション技術は、典型的には、画家たちに透明な媒体またはセル上にアニメ化された画像を手描きする(または絵の具で描く)ことを必要とした。次いで、絵の具で描いた後に、各セルは、映画における1つ以上のフレームとしてフィルムの上に収集されれるか、または記録された。   Drawing-based animation techniques were refined by filmmakers such as Walt Disney in the 20th century and used in movies such as “Snow White and the Seven Dwarfs” (1937) and “Fantasia” (1940). This animation technique typically required painters to hand-draw (or paint) an animated image on a transparent medium or cell. Then, after painting with paint, each cell was collected or recorded on the film as one or more frames in the movie.

ストップモーションベースのアニメーション技術は、典型的には、ミニチュアセットと小道具とキャラクターとの構成を必要とした。映画製作者たちは、セットを構成し、小道具を加え、ポーズをとるミニチュアキャラクターを位置決定した。アニメーターがどのようにすべてが配列されたかに満足した後に、その特定の配列でフィルムの1つ以上のフレームが撮影された。ストップモーションのアニメーション技術は、“King Kong”(1933)のような映画のWillis O’Brienのような映画製作者たちによって開発された。続いて、これらの技術は、“Mighty Joe Young”(1948)およびClash Of The Titans(1981)を含む映画のRay Harryhausenのようなアニメーターたちによって洗練された。   Stop-motion-based animation techniques typically required a mix of miniature sets, props and characters. Filmmakers made up sets, added props, and positioned miniature characters to pose. After the animator was satisfied with how everything was arranged, one or more frames of the film were taken with that particular arrangement. Stop-motion animation technology was developed by filmmakers such as Willis O'Brien for movies such as “King Kong” (1933). Subsequently, these techniques were refined by animators such as Ray Harryhausen of the movie, including “Mighty Joe Young” (1948) and Clash Of The Titans (1981).

20世紀後半においてコンピューターの利用可能性が広く普及したことによって、アニメーターたちは、アニメーションプロセスにおいて補助するためにコンピューターに依存し始めた。このことは、例えば、画像を絵の具で描くこと、間の画像を生成すること(“tweening”)などによって、描画ベースのアニメーションを容易にするためにコンピューターを用いることを含んだ。このことはまた、ストップモーションのアニメーション技術を増大するためにコンピューターを用いることを含んだ。例えば、物理モデルは、コンピューターメモリーにおいて仮想モデルによって表され得、操作され得る。   With the widespread availability of computers in the late 20th century, animators began to rely on computers to assist in the animation process. This included using a computer to facilitate drawing-based animation, such as by drawing an image with paint, generating an image in between ("tweening"), and the like. This also included using computers to augment stop-motion animation techniques. For example, a physical model can be represented and manipulated by a virtual model in computer memory.

コンピュータージェネレーテッドイメージリー(CGI)業界におけるパイオニア企業の1つが、Pixarであった。Pixarは、“Toy Story”(1995)および“Toy Story 2”(1999)、“A Bugs Life”(1998)、“Monsters,Inc.”(2001),“Finding Nemo”(2003)、“The Incredibles”(2004)、“Cars”(2006)、“Ratatouille”(2007)のようなアニメ化された主要作品の制作者であるPixar Animation Studiosとしてより広く公知である。アニメ化された主要作品を制作することに加えて、Pixarは、CGIのために特別に設計されたコンピューティングプラットフォームと、今はRenderMan(登録商標)として公知のCGIソフトウェアとを開発した。RenderMan(登録商標)ソフトウェアは、アニメ化されたオブジェクトまたはアニメ化されたキャラクターの幾何学的記述および/または数学的記述を二次元画像に「レンダリングする」あるいは変換する「レンダリングエンジン」を含んだ。RenderMan(登録商標)は、アニメーション業界において非常に良く受け入れられ、2つのAcademy Awards(登録商標)を受賞した。   One of the pioneers in the computer generated imagery (CGI) industry was Pixar. Pixar is described in “Toy Story” (1995) and “Toy Story 2” (1999), “A Bugs Life” (1998), “Monsters, Inc.” (2001), “Finding Nemo” (2003), “The Incredibles”. ”(2004),“ Cars ”(2006), and“ Ratatourle ”(2007), more widely known as Pixar Animation Studios, the creators of major animated works. In addition to producing animated main works, Pixar has developed a computing platform specifically designed for CGI and now CGI software known as RenderMan®. The RenderMan® software included a “rendering engine” that “renders” or transforms a geometric and / or mathematical description of an animated object or animated character into a two-dimensional image. RenderMan (R) was very well accepted in the animation industry and won two Academy Awards (R).

本発明の発明者らは、現在、アニメ化されたキャラクターの範囲を二次元画像を超えて三次元(例えば、物理的世界)に広げようと望んでいる。このことを行うために、本発明者らは、さまざまな主要作品の中に現れるアニメ化されたキャラクターの物理バージョンを構成し、制御するための方法(例えば、電気制御デバイス、機械制御デバイス、空気機械制御デバイスおよび/または液圧制御デバイス)を考案してきた。   The inventors of the present invention currently desire to extend the range of animated characters beyond 3D images to 3D (eg, the physical world). In order to do this, we have developed a method for constructing and controlling physical versions of animated characters that appear in various major works (eg, electrical control devices, mechanical control devices, air Mechanical control devices and / or hydraulic control devices) have been devised.

ライブの娯楽目的での物理的、機械的デバイスの使用は、The Walt Disney Companyがパイオニアとなって進められ、現在、業界においてしばしば「アニマトロニクス」と呼ばれている。アニマトロニクスキャラクターまたはアニマトロニクスユニットは、the Pirates of the Caribbean、Enchanted Tiki Room、Great Moments with Mr.Lincolnおよび多くの他のアトラクションのような周知のテーマパークのアトラクション(例えば、パフォーマンス、乗物)において、以前から用いられてきた。   The use of physical and mechanical devices for live entertainment purposes has been pioneered by The Walt Disney Company and is now often referred to in the industry as “Animatronics”. Animatronic characters or animatronics unit, the Pirates of the Caribbean, Enchanted Tiki Room, Great Moments with Mr. It has long been used in well-known theme park attractions such as Lincoln and many other attractions (eg, performance, vehicles).

本発明者らによって認識される問題は、アニマトロニクスユニットが特定の目的で用いられるので、ハードウェアが既製品では購入され得ず、しばしば注文によって構築されなければならないことである。本発明者らによって認識される主要な課題は、観衆によって認識される仕方で動き得るアニマトロニクスユニットをいかに特定し、構築するかである。より具体的には、問題は、主要作品、映画、短編などにおけるキャラクターのアニメーションを現在可能であるよりも忠実に表し得るアニマトロニクスキャラクターをいかに構築し、制御するかである。   The problem recognized by the inventors is that because animatronic units are used for specific purposes, the hardware cannot be purchased off-the-shelf and often has to be built by order. A major challenge recognized by the inventors is how to identify and build an animatronic unit that can move in a manner that is perceived by the audience. More specifically, the question is how to build and control animatronic characters that can faithfully represent the animation of characters in major works, movies, short stories, etc. now possible.

コンピューター生成された(CG)キャラクターからのアニメーションデータは、アニマトロニクスキャラクターの構成を特定することを助けるために用いられてこなかったと考えられている。さらに、CGキャラクターからのアニメーションデータは、そのようなアニマトロニクスキャラクターを制御するために用いられてこなかった、と考えられている。   It is believed that animation data from computer generated (CG) characters has not been used to help identify the composition of animatronic characters. Furthermore, it is believed that animation data from CG characters has not been used to control such animatronic characters.

上記の観点から、望まれることは、上記の課題を解決する方法および装置である。   In view of the above, what is desired is a method and apparatus that solves the above problems.

(発明の簡単な概要)
本発明は、アニマトロニクスに関する。より具体的には、本発明は、例えば、コンピューター生成キャラクターのアニメーションデータによって特定される動きに基づいて、モーションキャプチャー技術を用いて特定される動き、アニメーションデータによって特定される顔の造作の動き、モーションキャプチャーなどに基づいて、アニマトロニクスキャラクターまたはアニマトロニクスユニットを設計するための方法および装置に関する。
(Summary of the invention)
The present invention relates to animatronics. More specifically, the present invention relates to, for example, a movement specified using motion capture technology based on a movement specified by animation data of a computer-generated character, a movement of facial features specified by animation data, The present invention relates to a method and apparatus for designing an animatronic character or animatronic unit based on motion capture and the like.

本発明の一局面に従って、アニマトロニクスユニットに対する設計を特定する方法が開示される。1つの技術は、芸術的に決定された動きを含む動きのデータを受信することと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することとを含む。プロセスは、アニマトロニクスユニットの構成に対する設計を出力することを含み得る。   In accordance with one aspect of the present invention, a method for identifying a design for an animatronic unit is disclosed. One technique includes receiving motion data including artistically determined motion and determining a design for the configuration of at least a portion of the animatronic unit in response to the motion data. The process may include outputting a design for the configuration of the animatronic unit.

本発明の別の局面に従って、本明細書で説明されるさまざま方法に従って形成されるアニマトロニクスユニットが開示される。   In accordance with another aspect of the present invention, an animatronic unit formed in accordance with various methods described herein is disclosed.

本発明の別の局面に従って、コンピューターシステムが説明される。装置は、芸術的に決定された動きを含む動きのデータを格納するように構成されたメモリーを含む。デバイスは、メモリーに結合されたプロセッサーを含み得、プロセッサーは、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定するように構成され、プロセッサーは、アニマトロニクスユニットの構成に対する設計を出力するように構成される。   In accordance with another aspect of the present invention, a computer system is described. The apparatus includes a memory configured to store motion data including artistically determined motion. The device may include a processor coupled to the memory, the processor configured to determine a design for the configuration of at least a portion of the animatronic unit in response to the motion data, the processor relative to the configuration of the animatronic unit. Configured to output the design.

本発明の別の局面に従って、有体の媒体上にあるコンピュータープログラム製品が、コンピューターシステム上で実行可能な実行可能コードを含み、コンピューターシステムは、プロセッサーおよびメモリーを含む。コンピュータープログラム製品は、メモリーから芸術的に決定された動きを含む動きのデータを取り出すことをプロセッサーに命令するように構成されたコードと、動きのデータに応答してアニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することをプロセッサーに命令するように構成されたコードとを含み得る。コンピュータープログラム製品は、また、アニマトロニクスユニットの構成に対する設計を出力することをプロセッサーに命令するように構成されたコードも含み得る。コードは、光学媒体(DVD、HD DVD、BIu Ray DVD、ホログラフィック媒体など)、磁気媒体(ハードディスクドライブ、フロッピー(登録商標)ディスクドライブなど)、半導体媒体(フラッシュメモリー、RAM、ROMなど)などのコンピューター読み取り可能な有体の媒体上にあり得る。   In accordance with another aspect of the invention, a computer program product on a tangible medium includes executable code executable on the computer system, the computer system including a processor and memory. The computer program product comprises code configured to instruct the processor to retrieve motion data, including artistically determined motion from memory, and configuration of at least a portion of the animatronic unit in response to the motion data And code configured to instruct the processor to determine a design for. The computer program product may also include code configured to instruct the processor to output a design for the configuration of the animatronic unit. Codes include optical media (DVD, HD DVD, BIu Ray DVD, holographic media, etc.), magnetic media (hard disk drive, floppy disk drive, etc.), semiconductor media (flash memory, RAM, ROM, etc.), etc. It can be on a tangible computer readable medium.

本発明のさらなる局面に従って、アニマトロニクスユニットに対する設計を特定する方法が説明される。さまざまな動作は、アニマトロニクスユニットの少なくとも一部分の構成に対する設計を受信することと、アニマトロニクスユニットの少なくとも一部分の構成に対する設計に応答してアニマトロニクスユニットの少なくとも一部分を構成することとを含む。さまざまな実施形態において、アニマトロニクスユニットの少なくとも一部分の構成に対する設計は、芸術的に決定された動きを含む動きのデータに応答して決定される。   In accordance with a further aspect of the present invention, a method for identifying a design for an animatronic unit is described. Various operations include receiving a design for a configuration of at least a portion of the animatronic unit and configuring at least a portion of the animatronic unit in response to the design for the configuration of at least a portion of the animatronic unit. In various embodiments, the design for the configuration of at least a portion of the animatronic unit is determined in response to motion data including artistically determined motion.

さまざまな実施形態において、動きのデータは、アニメーターによって特定されるアニメーションデータから、例えば、顔のアニメーション、キャラクターのアニメーション、オブジェクトのアニメーションなどに対して得られ得る。加えて、動きのデータは、物理パフォーマンスデータ、例えば、顔に複数のマーカーを付けた俳優による顔のパフォーマンスデータ、身体に複数のマーカーを付けた俳優による身体のパフォーマンスデータなどから得られ得る。さまざまな実施形態において、動きのデータは、時間に対するアニメ化されたオブジェクト、俳優などの1つ以上のポーズとして特定され得る。   In various embodiments, motion data may be obtained from animation data specified by an animator, eg, for facial animation, character animation, object animation, and the like. In addition, motion data may be obtained from physical performance data, for example, face performance data by an actor with multiple markers on the face, body performance data by an actor with multiple markers on the body, and the like. In various embodiments, motion data may be specified as one or more poses of animated objects, actors, etc. over time.

従来の工業用ロボットと違って、アニマトロニクスユニットの動きは、芸術的に決定されたパフォーマンスデータ(例えば、アニメーションデータ、俳優の物理運動)に基づいている。対照的に、工業用ロボットの動きは、「工業用」であり、芸術的パフォーマンスに対して意図されたり、決定されたりしない。さまざまな実施形態において、アニメーターたちは、人間の動きおよび人間の表情の分野において研究したアーティストである。次いで、これらのアニメーターたちは、芸術的技能と判断とを適用し、時間の中のさまざまな時点におけるCGキャラクター(アニメーションデータ)にポーズを付け、CGキャラクターは、感情または表情を伝える「キーフレーム」として公知である。コンピューターを用いて、CGキャラクターのポーズは、これらの「キーフレーム」間の時間における複数の時点に対して差しはさまれ得る。結果として、アニメ化された主要作品などにおいて見られるように、時間におけるさまざまな時点に対するCGキャラクターのポーズが決定され、CGキャラクターの「アニメーション」がもたらされる。本発明のさまざまな実施形態において、アニマトロニクスユニットは、そのような芸術的に駆動されたアニメーションデータに基づいて設計され得、制御され得る。付加的な実施形態において、入力データは、演じているか、またはジェスチャーをしているときの俳優の物理パフォーマンスから得られ得る。これらの物理パフォーマンスは、モーションキャプチャーされ、「キーフレーム」などを規定する上記のアニメーションデータと同様な仕方で用いられ得る。   Unlike conventional industrial robots, the movement of the animatronics unit is based on artistically determined performance data (eg animation data, actor physical movement). In contrast, the motion of an industrial robot is “industrial” and is not intended or determined for artistic performance. In various embodiments, animators are artists who have studied in the field of human movement and human facial expressions. These animators then apply artistic skills and judgments to pose CG characters (animation data) at various points in time, and the CG characters convey a feeling or expression as a “key frame”. It is known as Using a computer, the CG character's pose can be interleaved for multiple points in time between these “key frames”. As a result, the CG character's pose for various points in time is determined, as seen in animated main works, etc., resulting in an “animation” of the CG character. In various embodiments of the present invention, an animatronic unit can be designed and controlled based on such artistically driven animation data. In additional embodiments, the input data may be derived from an actor's physical performance when performing or gesturing. These physical performances are motion captured and can be used in a manner similar to the animation data described above that defines “keyframes” and the like.

上記の観点から、アニメ化されたオブジェクトまたはアニメ化されたキャラクターを指す用語「アニメーションデータ」は、単なる「動きのデータ」の例にすぎないことが理解されるべきである。したがって、適切な場合には、アニメ化されたオブジェクトまたはアニメ化されたキャラクターに対する「アニメーションデータ」への仕様における参照は、代替として、他のタイプの「動きのデータ」、例えば、俳優などの物理パフォーマンスデータ(例えば、モーションキャプチャーデータ)を指し得る。   In view of the above, it should be understood that the term “animation data” referring to an animated object or animated character is merely an example of “movement data”. Thus, where appropriate, references in the specification to “animation data” for animated objects or animated characters may alternatively be used for other types of “motion data”, eg physical, such as actors. It may refer to performance data (eg, motion capture data).

本発明をより完全に理解するために、添付の図面への参照が行われる。これらの図面が発明の範囲における限定と見なされるべきでないことを理解して、ここで説明される実施形態およびここで理解される本発明の最良の態様は、添付の図面の使用を通じて付加的な詳細とともに説明される。
図1は、本発明のさまざまな実施形態に従った典型的なコンピューターシステムのブロック図である。 図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。 図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。 図3は、本発明のさまざまな実施形態に従った付加的なプロセスのブロック図を例示する。 図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。 図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図5A〜Cは、本発明のさまざまな実施形態に従った物理的制御構造の例を例示する。 図6は、付加的な実施形態の高いレベルの例示のブロック図を例示する。
For a more complete understanding of the present invention, reference is made to the accompanying drawings. With the understanding that these drawings are not to be considered as limitations on the scope of the invention, the embodiments described herein and the best mode of the invention understood herein will be further described through the use of the accompanying drawings. It will be described with details.
FIG. 1 is a block diagram of an exemplary computer system in accordance with various embodiments of the invention. 2A-B illustrate a block diagram of a process according to various embodiments of the present invention. 2A-B illustrate a block diagram of a process according to various embodiments of the present invention. FIG. 3 illustrates a block diagram of an additional process according to various embodiments of the present invention. 4A-B illustrate examples in accordance with various embodiments of the present invention. 4A-B illustrate examples in accordance with various embodiments of the present invention. 5A-C illustrate examples of physical control structures according to various embodiments of the present invention. 5A-C illustrate examples of physical control structures according to various embodiments of the present invention. 5A-C illustrate examples of physical control structures according to various embodiments of the present invention. FIG. 6 illustrates a high level exemplary block diagram of an additional embodiment.

(発明の詳細な説明)
図1は、本発明の実施形態に従った典型的なコンピューターシステム100のブロック図である。
(Detailed description of the invention)
FIG. 1 is a block diagram of an exemplary computer system 100 in accordance with an embodiment of the present invention.

本実施形態において、コンピューターシステム100は、典型的には、ディスプレイ/モニター110、コンピューター120、キーボード130、ユーザー入力デバイス140、コンピューターインターフェース150などを含む。   In this embodiment, the computer system 100 typically includes a display / monitor 110, a computer 120, a keyboard 130, a user input device 140, a computer interface 150, and the like.

本実施形態において、ユーザー入力デバイス140は、典型的には、コンピューターマウス、トラックボール、トラックパッド、ジョイスティック、ワイヤレスリモート、ドローイングタブレット、音声コマンドシステム、アイトラッキングシステムなどとして具体化される。ユーザー入力デバイス140は、典型的には、ユーザーが、ボタンのクリックなどのコマンドを介してモニター110上に現れるオブジェクト、アイコン、テキストなどを選択することを可能にする。一部の実施形態において、モニター110は、Wacomによって製造されたCintiqなどのようなインタラクティブタッチスクリーンであり得る。グラフィックスカード185は、典型的には、ディスプレイ110を駆動する。   In this embodiment, the user input device 140 is typically embodied as a computer mouse, trackball, trackpad, joystick, wireless remote, drawing tablet, voice command system, eye tracking system, or the like. User input device 140 typically allows the user to select objects, icons, text, etc. that appear on monitor 110 via commands such as button clicks. In some embodiments, the monitor 110 may be an interactive touch screen such as Cintiq manufactured by Wacom. Graphics card 185 typically drives display 110.

コンピューターインターフェース150の実施形態は、典型的には、Ethernet(登録商標)カード、モデム(電話、衛星、ケーブル、ISDN)、(非同期)デジタル加入者回線(DSL)ユニット、FireWireインターフェース、USBインターフェースなどを含む。例えば、コンピューターインターフェース150は、コンピューターネットワーク、FireWireバスなどに結合され得る。他の実施形態において、コンピューターインターフェース150は、コンピューター120のマザーボード上で物理的に統合され得、例えば、ソフトDSLなどのようなソフトウェアプログラムであり得る。   Embodiments of the computer interface 150 typically include an Ethernet card, modem (telephone, satellite, cable, ISDN), (asynchronous) digital subscriber line (DSL) unit, FireWire interface, USB interface, etc. Including. For example, the computer interface 150 may be coupled to a computer network, FireWire bus, etc. In other embodiments, the computer interface 150 may be physically integrated on the motherboard of the computer 120 and may be a software program such as, for example, soft DSL.

さまざまな実施形態において、コンピューター120は、典型的には、良く知られたコンピューターコンポーネント(例えば、プロセッサー160)と、メモリー格納デバイス(例えば、ランダムアクセスメモリー(RAM)170)と、ディスクドライブ180と、上記の複数のコンポーネントを相互接続するシステムバス190とを含む。   In various embodiments, the computer 120 typically includes a well-known computer component (eg, processor 160), a memory storage device (eg, random access memory (RAM) 170), a disk drive 180, And a system bus 190 interconnecting the plurality of components.

一実施形態において、コンピューター120は、1つ以上のIntel製Xeonマイクロプロセッサーを含む。さらに、本実施形態において、コンピューター120は、典型的には、UNIX(登録商標)ベースのオペレーティングシステムを含む。   In one embodiment, the computer 120 includes one or more Intel Xeon microprocessors. Further, in this embodiment, the computer 120 typically includes a UNIX (registered trademark) -based operating system.

RAM170およびディスクドライブ180は、例えば、アニメーションデータ、アニメーションタイミングシート、アニメーション環境、アニマトロニクスユニット設計構成、数学的アルゴリズムの実装、アニマトロニクスユニットのシミュレーション、画像ファイル、ソフトウェアモデルであって、オブジェクトの幾何学的記述、オブジェクトの順序づけられた幾何学的記述、モデルの手順の記述を含む、ソフトウェアモデル、シーンディ記述子ファイル、レンダリングエンジン、本発明の実施形態であって、実行可能なコンピューターコード、人間が読み取り可能なコードを含む、本発明の実施形態などのような、データを格納するように構成された有体の媒体の例である。他のタイプのコンピューター読み取り可能な有体の媒体は、フロッピー(登録商標)ディスク、ネットワーク化されたハードディスク、または取り外し可能なハードディスクのような磁気格納媒体と、CD−ROM、DVD、ホログラフィックメモリーおよびバーコードのような光学格納媒体と、フラッシュメモリー、リードオンリーメモリー(ROM)のような半導体メモリーと、電池でバックアップされた揮発性メモリーと、ネットワーク化された格納デバイスなどを含む。   The RAM 170 and the disk drive 180 are, for example, animation data, animation timing sheet, animation environment, animatronic unit design configuration, mathematical algorithm implementation, animatronic unit simulation, image file, software model, object geometry A software model, a scene description descriptor file, a rendering engine, an embodiment of the present invention, including executable description, computer code, human FIG. 4 is an example of a tangible medium configured to store data, such as an embodiment of the present invention, including readable code. Other types of tangible computer readable media include magnetic storage media such as floppy disks, networked hard disks, or removable hard disks, CD-ROMs, DVDs, holographic memories and This includes optical storage media such as barcodes, semiconductor memory such as flash memory and read-only memory (ROM), volatile memory backed up by batteries, networked storage devices, and the like.

本実施形態において、コンピューターシステム100は、また、HTTPプロトコル、TCP/IPプロトコル、RTP/RTSPプロトコルなどのようなネットワークを介した通信を可能にするソフトウェアも含み得る。本発明の代替の実施形態において、他の通信ソフトウェアおよび送信プロトコル、例えば、IPX、UDPなどもまた、用いられ得る。   In the present embodiment, the computer system 100 may also include software that enables communication over a network, such as HTTP protocol, TCP / IP protocol, RTP / RTSP protocol, and the like. In alternative embodiments of the present invention, other communication software and transmission protocols such as IPX, UDP, etc. may also be used.

図1は、本発明のさまざまな局面を実施できるコンピューターシステムを表す。多くの他のハードウェア構成およびソフトウェア構成が本発明との使用に適していることが、当業者に容易に明らかとなる。例えば、コンピューターは、デスクトップ構成、ポータブル構成、ラックマウント構成またはタブレット構成であり得る。加えて、コンピューターは、一連のネットワーク化されたコンピューターであり得る。さらに、例えば、XeonTMマイクロプロセッサー、PentiumTMマイクロプロセッサーまたはCoreTMマイクロプロセッサー、Advanced Micro Devices,Inc製のTurionTM64マイクロプロセッサー、OpteronTMマイクロプロセッサーまたはAthlonTMマイクロプロセッサーなどの、他のマイクロプロセッサーの使用が予想される。さらに、例えば、Microsoft CorporationのWindows(登録商標)、Windows(登録商標)XP(登録商標)、Windows(登録商標)NT(登録商標)など、Sun MicrosystemsのSolaris、LINUX、UNIX(登録商標)など、他のタイプのオペレーティングシステムが予想される。さらに他の実施形態において、上記の技術は、チップ上または補助プロセシングボード上に実装され得る。 FIG. 1 depicts a computer system that can implement various aspects of the present invention. It will be readily apparent to those skilled in the art that many other hardware and software configurations are suitable for use with the present invention. For example, the computer can be in a desktop configuration, a portable configuration, a rack mount configuration, or a tablet configuration. In addition, the computer can be a series of networked computers. In addition, the use of other microprocessors such as, for example, Xeon , Pentium or Core microprocessors, Advanced Microdevices, Inc. Turion 64 microprocessors, Opteron microprocessors or Athlon microprocessors. Is expected. In addition, for example, Microsoft Corporation's Windows (registered trademark), Windows (registered trademark) XP (registered trademark), Windows (registered trademark) NT (registered trademark), Sun Microsystems Solaris, LINUX, UNIX (registered trademark), etc. Other types of operating systems are anticipated. In still other embodiments, the techniques described above can be implemented on a chip or on an auxiliary processing board.

図2A〜Bは、本発明のさまざまな実施形態に従ったプロセスのブロック図を例示する。より具体的には、図2A〜Bは、オブジェクトの物理モデルを構成する仕方を決定するさまざまな実施形態の高いレベルの例示を提供する。   2A-B illustrate a block diagram of a process according to various embodiments of the present invention. More specifically, FIGS. 2A-B provide a high-level illustration of various embodiments that determine how to construct a physical model of an object.

最初に、芸術的に決定された動きの関連した(時としてオブジェクトのソフトウェアモデルに関連した)データが、コンピューターシステム100に提供される(ステップ200)。本発明の一部の実施形態において、アニメーションデータは、映画、主要作品、短編などのためのオブジェクトのソフトウェアモデルをアニメ化するために用いられるアニメーションデータと同一であり得る。さまざまな実施形態において、アニメーションデータは、オブジェクトの物理モデルに対して望まれる特定の範囲の運動(例えば、「トレーニング集合」、「モデル上の動き」(すなわち、オブジェクトの特徴的な動き)など)を表し得る。一例として、映画において、アニメ化されたキャラクターは、両目をウインクし得るが、アニメ化されたキャラクターの物理モデルは、左目だけをウインクし得ることが望まれ得る。したがって、このステップで提供されるアニメーションデータ(例えば、「トレーニング集合」、「モデル上の動き」など)は、左目だけをウインクするアニメ化されたキャラクターだけを含み得る。   Initially, artistically determined movement related data (sometimes related to the object's software model) is provided to the computer system 100 (step 200). In some embodiments of the present invention, the animation data may be the same as the animation data used to animate the software model of the object for movies, major works, short stories, etc. In various embodiments, the animation data is a specific range of motion desired for the physical model of the object (eg, “training set”, “motion on the model” (ie, characteristic motion of the object), etc.). Can be represented. As an example, in a movie, an animated character may wink both eyes, but the physical model of the animated character may be desired to wink only the left eye. Thus, the animation data provided in this step (eg, “training set”, “movement on the model”, etc.) may include only animated characters that wink only the left eye.

本発明のさまざまな実施形態において、アニメーションデータは、典型的には、一定の量の時間の間、特定される。例えば、アニメーションデータは、主要作品(例えば、映画、短編など)における特定のシーン、特定の一連のシーン、特定の時間間隔などと関連づけられ得る。さまざまな実施形態において、時間の量は、他のユーザーによって自由に決定され得る。他の実施形態において、時間の量は、他のユーザーによって特定され得る。いったん期間が特定されると、アニメーションデータの範囲は、容易に決定され得る。   In various embodiments of the present invention, animation data is typically specified for a certain amount of time. For example, animation data may be associated with a particular scene, a particular series of scenes, a particular time interval, etc. in a main work (eg, a movie, a short story, etc.). In various embodiments, the amount of time can be freely determined by other users. In other embodiments, the amount of time can be specified by other users. Once the period is specified, the range of animation data can be easily determined.

さまざまな実施形態において、アニメーションデータは、1秒当たり約24フレームのレート(典型的な映画館のフレームレート)、1秒当たり約25フレームまたは約30フレームのレート(典型的なテレビのフレームレート)、1秒当たり約60フレームのレート(HDフレームレート)などに特定され得る。そのような実施形態において、アニメーションデータの値は、そのようなデータレートにおいて特定され得る。   In various embodiments, the animation data is 1 second per about 24 frames of rate (typical cinema frame rate), about 25 frames or about 30 frames of rate per second (typical television frame rate) It can be specified at a rate of about 60 frames per second (HD frame rate) or the like. In such an embodiment, the value of animation data may be specified at such a data rate.

さまざまな実施形態において、アニメーションデータは、多くの異なる形態を取り得る。一部の実施形態において、アニメーションデータは、アニメ化されるオブジェクトの位置の三次元座標を含む。一例として、アニメ化されることになるアニメ化されるオブジェクトは、顔であり得る。そのような例において、アニメーションデータは、時間に対する静的な座標系における顔上の表面の位置の三次元座標(例えば、(x,y,z)座標)を表し得る。他の実施形態において、三次元座標は、時間に対する、顔の「休止」ポーズまたはデフォルトポーズに対するオフセットであり得る。例えば、鼻の先端上の点に対して、(x,y,z)値は、(−0.1,0.2,−0.1)であり得、これは、x方向に−0.1(例えば左向き)、y方向に0.2(例えば上向き)、z方向に−0.1(例えば平坦になる向き)、基準ポーズから動く鼻の先端を表している。さまざまな実施形態において、位置は、アニメ化されたオブジェクトの表面上の位置であり得、アニメ化されたオブジェクトの内側の位置であり得、そのような位置の組み合わせなどであり得る。   In various embodiments, the animation data can take many different forms. In some embodiments, the animation data includes three-dimensional coordinates of the position of the object being animated. As an example, the animated object to be animated can be a face. In such an example, the animation data may represent three-dimensional coordinates (eg, (x, y, z) coordinates) of the position of the surface on the face in a static coordinate system with respect to time. In other embodiments, the three-dimensional coordinates may be an offset to the face “pause” or default pose with respect to time. For example, for a point on the tip of the nose, the (x, y, z) value may be (−0.1, 0.2, −0.1), which is −0. 1 (e.g. left), 0.2 in the y direction (e.g. upward), (direction to become e.g. flat) -0.1 in the z direction, represents the tip of the nose that moves from a reference pose. In various embodiments, the position may be a position on the surface of the animated object may be a position inside of the animated object may be a combination of such locations.

数学的に、アニメーションデータは、一部の実施形態において、以下のように表され得る。
{Xit,Yit,Zit}:i=l...m,t=1...T
さまざまな実施形態において、“m”は、アニメーションデータにおいて提供される表面の位置の数を表し、“T”は、アニメーションデータのフレームの数を表す。例えば、mは、およそ100〜1000データポイント、1000〜3000データポイント以上などであり得る。加えて、Tは、およそ数十のフレームから数千のフレーム、例えば、25〜100フレーム、100〜1000フレーム、1000〜4000フレーム以上などであり得る。
Mathematically, the animation data may be expressed as follows in some embodiments:
{ Xit , Yit , Zit }: i = 1. . . m, t = 1. . . T
In various embodiments, “m” represents the number of surface positions provided in the animation data, and “T” represents the number of frames of animation data. For example, m may be approximately 100 to 1000 data points, 1000 to 3000 data points or more. In addition, T can be on the order of tens to thousands of frames, such as 25-100 frames, 100-1000 frames, 1000-4000 frames or more.

さまざまな実施形態において、アニメーションデータは、キューシート、アニメーションタイミングシートなどのような、より抽象的な形式で受け取られ得る。さまざまな実施形態において、アニメーションタイミングシートは、期間に含まれる各フレームに対するアニメーション変数(avar)に対するデータ値を含む。他の実施形態において、アニメーションデータは、avarに関連したスプラインデータを含み得、avarに対して特定されたキーフレーム値などを含み得る。本発明のさまざまな実施形態において、アニメーションデータがより抽象的な形式である一部の場合には、アニメ化されるオブジェクトの点に対する絶対的または相対的な位置の値は、ステップ200の中で決定されることが予想される。   In various embodiments, animation data may be received in a more abstract form, such as a cue sheet, an animation timing sheet, etc. In various embodiments, the animation timing sheet includes data values for the animation variables (avar) for each frame included in the time period. In other embodiments, the animation data may include spline data associated with avar, keyframe values specified for avar, and the like. In various embodiments of the present invention, in some cases where the animation data is in a more abstract form, the absolute or relative position value for the point of the object being animated is It is expected to be decided.

上述のように、本発明の一部の実施形態において、アニメーションデータは、アニメ化された完全なキャラクターまたはオブジェクト、あるいはキャラクターの顔などアニメ化されたキャラクターまたはオブジェクトの一部分に関連づけられ得る。   As mentioned above, in some embodiments of the present invention, animation data may be associated with a complete animated character or object, or a portion of an animated character or object, such as a character's face.

ステップ200の他の実施形態において、芸術的に決定された動きのデータは、物理パフォーマンスデータに応答して決定される。より具体的には、物理パフォーマンスデータは、モーションキャプチャーシステムから導かれ得る。例えば、俳優または他のオブジェクトは、俳優のジェスチャーまたは他の運動に応答して空間の中で動く多くの可視マーカーに関連づけられ得る。さまざまな実施形態において、これらのマーカーの位置は、収集され、動きのデータを形成するために用いられる。物理パフォーマンスデータは、俳優の身体全体または顔など俳優の一部分であり得る。   In another embodiment of step 200, the artistically determined motion data is determined in response to physical performance data. More specifically, physical performance data can be derived from a motion capture system. For example, an actor or other object may be associated with many visible markers that move in space in response to an actor's gestures or other movements. In various embodiments, the positions of these markers are collected and used to form motion data. The physical performance data may be a part of the actor, such as the entire body of the actor or a face.

本発明のさまざまな実施形態において、アニメーションデータに応答して、アニメーションデータに対する複数のグローバルモードと、複数のグローバルモードの重みづけ値とを決定するために、分解分析が実行される(ステップ210)。さまざまな実施形態において、単一の値の分解プロセスは、主成分分析(PCA)技術によって実行されるが、他の実施形態において、他の分析技術もまた、用いられ得る。一部の実施形態において、主モードは、「固有ベクトル」と名づけられ得、モードの重みづけ値は、「固有値」と名づけられ得る。そのような技術を用いる際に公知のように、決定されたグローバルモードは、データ集合に対してプリンシパル(principal)である。アニメーションデータが表面の複数の点の三次元位置データを含むさまざまな実施形態において、グローバルな主モードは、アニメ化されたオブジェクトの表面の複数の点の運動のグローバルモードを含む。このことの一例が、以下で例示される。   In various embodiments of the present invention, a decomposition analysis is performed (step 210) to determine a plurality of global modes and a plurality of global mode weight values for the animation data in response to the animation data. . In various embodiments, the single value decomposition process is performed by principal component analysis (PCA) techniques, although in other embodiments other analysis techniques may also be used. In some embodiments, the dominant mode may be named “eigenvector” and the weighted value of the mode may be named “eigenvalue”. As is known when using such techniques, the determined global mode is principal for the data set. In various embodiments animation data includes three-dimensional position data of a plurality of points on the surface, global primary modes include a global mode of movement of the plurality of points on the surface of the animated object. An example of this is illustrated below.

数学的に、(一次元における)分解は、一部の実施形態において以下のように表され得る。   Mathematically, the decomposition (in one dimension) can be expressed as follows in some embodiments:

Figure 2011511713
さまざまな実施形態において、「N」は主モードの数を表し、bi,jはグローバルモードを表し、at,jは重みづけ因子を表す。
Figure 2011511713
In various embodiments, “N” represents the number of major modes, b i, j represents a global mode, and at , j represents a weighting factor.

次に、さまざまな実施形態において、グローバルモードおよび(グローバルモード)重みづけ値に応答して、因子回転がローカルモードおよび(ローカルモード)重みづけ値を決定するために実行される(ステップ220)。さまざまな実施形態において、グローバルデータと対照的に、局所モードは、表面の点の運動の位置、例えば、(しばしば離れた)表面の点から比較的独立したアニメ化されたオブジェクトの運動の位置を特定する。このことの一例が、以下で例示される。   Next, in various embodiments, in response to the global mode and (global mode) weight values, a factor rotation is performed to determine the local mode and (local mode) weight values (step 220). In various embodiments, in contrast to global data, the local mode determines the position of the motion of a surface point, for example, the position of a motion of an animated object that is relatively independent of a surface point (often far away). Identify. An example of this is illustrated below.

より一般的に、基底関数は、任意の線形的に独立した集合に変換され得、任意の線形的に独立した集合は、基底関数をアニマトロニクスユニットの制御とより直接的に関連させる仕方で同じ空間に広げる。一部の実施形態において、望まれるのは、因子回転行列「R」(概して対称正方行列)の決定であり、ここでR=Rであり、ローカルモードb’i,jは、以下の関係に従って局所化される。
b’i,jR=b’i,j
そのような実施形態を用いて、上記の式は、次のようになる。
More generally, the basis functions can be transformed into any linearly independent set, which is the same in a way that makes the basis functions more directly related to the control of the animatronic unit. Spread in space. In some embodiments, what is desired is the determination of a factor rotation matrix “R” (generally a symmetric square matrix), where R T = R, and the local mode b ′ i, j has the relationship Localized according to
b ′ i, j R = b ′ i, j
With such an embodiment, the above equation becomes:

Figure 2011511713
この式において、b’i,jは、ローカルモードを表す。
Figure 2011511713
In this equation, b ′ i, j R T represents the local mode.

本発明の一部の実施形態において、実装される1つの因子回転技術は、“Varimax”直交回転分析である。他の実施形態において、他の因子回転技術が用いられ得る。上記のように、この技術の結果は、データ集合において特定されるアニメ化されたオブジェクトの位置の運動が、所与の基準、例えば、最小二乗法最小誤差などに従って局所化されることである。   In some embodiments of the present invention, one factor rotation technique implemented is a “Varimax” orthogonal rotation analysis. In other embodiments, other factor rotation techniques may be used. As described above, the result of this technique is that the motion of the position of the animated object specified in the data set is localized according to a given criterion, such as least squares minimum error.

さまざまな実施形態において、識別されたローカルモードに基づいて、ユーザーは、「一次的」ローカルモードの数を決定する(ステップ230)。一部の実施形態において、ローカルモードの数は、オブジェクトの物理モデルの構成に含まれる物理制御構造の数に関連づけられ得る。一例として、ローカルモードに基づいて、ユーザーは、制御構造を割り当てる個別の領域の数を特定し得る。例えば、上腕に対して、ユーザーは、1つのローカルモードを選択し得、1つのローカルモードは、一次的ローカルモードであるオブジェクトの二頭筋の領域と関連づけられる。   In various embodiments, based on the identified local modes, the user determines the number of “primary” local modes (step 230). In some embodiments, the number of local modes may be related to the number of physical control structures included in the configuration of the physical model of the object. As an example, based on the local mode, the user may specify the number of distinct areas to which the control structure is assigned. For example, for the upper arm, the user may select one local mode, which is associated with the region of the object's biceps that is the primary local mode.

次に、一次的ローカルモードに基づいて、ユーザーは、オブジェクトの物理モデルの構成を特定し得る(ステップ240)。さまざまな実施形態において、物理制御構造は、望まれる運動を提供する1つ以上の物理デバイスと関連づけられ得る。   Next, based on the primary local mode, the user may identify the configuration of the physical model of the object (step 240). In various embodiments, the physical control structure can be associated with one or more physical devices that provide the desired motion.

さまざまな実施形態において、物理制御構造は、プリング電気モーターまたはプッシング電気モーターの任意の組み合わせ、伸張液圧式システムもしくは締めつけ液圧式システム、伸張空気式システムもしくは締めつけ空気式システムまたは伸張流体制御システムもしくは締めつけ流体制御システム、回転式システムまたはせん断システム、あるいは上記の任意の組み合わせであり得る。例として、1つの流体制御システムが、アニメ化された顔に対して用いられて眼球を膨らまし得ること、電気モーターが、目を開かせるように目の後ろの皮膚を引き得ることなどが可能である。本開示の観点から、当業者にとって、多くの他のタイプの制御された物理構造は、オブジェクトの物理モデルの表面の位置の望まれるユーザーによる運動をもたらすように用いられ得ることが明らかである。さらなる例が、以下に例示される。   In various embodiments, the physical control structure may be any combination of a pulling electric motor or a pushing electric motor, an extension hydraulic system or clamping hydraulic system, an extension pneumatic system or clamping pneumatic system or an extension fluid control system or clamping fluid. It can be a control system, a rotary system or a shear system, or any combination of the above. As an example, one fluid control system can be used on an animated face to inflate the eyeball, an electric motor can pull the skin behind the eye to open the eye, etc. is there. In view of this disclosure, it will be apparent to those skilled in the art that many other types of controlled physical structures can be used to provide movement by the desired user of the position of the surface of the physical model of the object. Further examples are illustrated below.

図2Bは、オブジェクトの物理モデルの運動を観察し、調整するためのさまざまな実施形態の高いレベルの例示を例示する。   FIG. 2B illustrates a high level illustration of various embodiments for observing and adjusting the motion of a physical model of an object.

構成の仕様に基づいて、アニメ化されたオブジェクトの物理モデル(アニマトロニクスユニット)が、構築され得る(ステップ250)。上述のように、任意の従来の数の物理コンポーネントが、物理モデルのさまざまな部分を操作する(例えば、動かす、たわませる、曲げる、伸張する、など)ために用いられ得る。   Based on the configuration specifications, a physical model (animatronics unit) of the animated object can be constructed (step 250). As described above, any conventional number of physical components can be used to manipulate (eg, move, deflect, bend, stretch, etc.) various portions of the physical model.

さまざまな実施形態において、一次的ローカルモードに関連づけられるステップ220において決定されるローカルモード重みづけ値が決定され、駆動信号の形式で、それぞれの物理制御構造に適用される(ステップ260)。一例として、顔がほほえむとき、1つの一次的ローカルモードは、アニメ化された顔の頬が上がり、顔から広がることを特定し得る。したがって、ローカルモードは、関連した重みづけ因子を乗算され、その積は、頬の上昇の制御構造に適用される。別の例として、重みづけ因子に基づいて、信号は、アニメ化された顔の「皮膚」の下に位置決定された二つの電気モーターに送られる。次いで、2つの電気モーターは、回転し、上向きの方向に押し得る。   In various embodiments, the local mode weight value determined in step 220 associated with the primary local mode is determined and applied to each physical control structure in the form of a drive signal (step 260). As an example, when a face smiles, one primary local mode may specify that the cheek of an animated face rises and spreads from the face. Thus, the local mode is multiplied by the associated weighting factor, and that product is applied to the cheek lift control structure. As another example, based on the weighting factor, the signal is sent to two electric motors located under the “skin” of the animated face. The two electric motors can then rotate and push in an upward direction.

本発明のさまざまな実施形態において、ステップ260において、駆動信号は、特定のアニメーションデータに基づき得る。一部の実施形態において、ステップ200で提供されるアニメーションデータは、「トレーニングデータ」と見なされ得、「トレーニングデータ」は、オブジェクトの物理モデルが構築され得るように、アニメ化されたオブジェクトに対して望まれる最大範囲の動きを特定する。ステップ260において、用いられる特定のアニメーションデータは、トレーニングデータに対するアニメーションのサブ集合範囲を特定し得る。例えば、トレーニングアニメーションデータは、個別にウインクするキャラクターの両方の目を含み得、ステップ260において用いられる特定のアニメーションデータは、ウインクするキャラクターの単に左目であり得る。   In various embodiments of the present invention, in step 260, the drive signal may be based on specific animation data. In some embodiments, the animation data provided in step 200 may be considered “training data”, which is for an animated object so that a physical model of the object can be constructed. Identify the maximum range of motion desired. In step 260, the particular animation data used may specify the animation subset range for the training data. For example, the training animation data may include both eyes of a character that winks individually, and the particular animation data used in step 260 may be simply the left eye of the winking character.

特定のアニメーションデータが提供されるさまざまな実施形態において、関連した重みづけ因子は、ステップ230において決定されたローカルモードに従って修正され得る。次いで、ステップ260において、関連した重みづけ因子に基づいて、特定の駆動信号が決定され、オブジェクトの物理モデル(アニマトロニクスユニット)に適用される。次いで、ステップ270において、ユーザーは、オブジェクトの物理モデルの制御された動きを観察し得る。   In various embodiments in which specific animation data is provided, the associated weighting factor can be modified according to the local mode determined in step 230. Then, at step 260, based on the associated weighting factor, a specific drive signal is determined and applied to the physical model (animatronic unit) of the object. Then, in step 270, the user can observe a controlled movement of the physical model of the object.

さまざまな実施形態において、オブジェクトの物理モデルのポーズおよび動きは、オブジェクトの望まれるポーズおよび動きと視覚的に比較される(ステップ280)。例えば、ユーザーは、オブジェクトの物理モデルが手足を完全にまっすぐ伸ばしていない、または完全に引っ込めていない、ほほえんでいない、など、物理モデルが適正な速さで動いていない、または望まれる経路を進んでいない、などを見ることができる。他の実施形態において、ユーザー(例えば、アニメーター)は、オブジェクトの物理モデルの運動が、アニメ化されたキャラクターの望まれる「表情」を達成するか否かを決定し得る。   In various embodiments, the pose and movement of the physical model of the object is visually compared to the desired pose and movement of the object (step 280). For example, the user may have a physical model that is not moving at the proper speed or in a desired path, such as the object's physical model is not fully straightened or fully retracted or not smiled. You can see not. In another embodiment, a user (e.g., animator) may exercise physical model of the object, may determine whether to achieve the "look" desired the animated character.

視覚的な比較に応答して、ユーザーは、重みづけ因子および/または駆動信号を調整し得る(ステップ285)。上述のように、ローカルモードは、オブジェクト上に重なり得、一部のローカルモードだけが物理モデルにおいて実装され得るので、結果として、特定のポーズを複製することは困難であり得る。加えて、コンポーネントの物理的限界(例えば、非線形弾性材料など)に起因して、物理的構成は、望まれるローカルモードを正確に模倣しないこともあり得る。したがって、オブジェクトの物理モデルのポーズの実際の範囲は、アニメ化されたキャラクター(望まれる動き)のようには正確に見えないこともあり得る。このことに起因して、ユーザーが重みづけ因子、オブジェクトの物理モデルの物理的構成などを調整しなければならないことが、しばしば予期される。次いで、上記のプロセスは、調整が役立つか否かを見るために繰り返され得る。さらなる詳細および他の実施形態が、以下で提供される。   In response to the visual comparison, the user may adjust the weighting factor and / or drive signal (step 285). As described above, local modes can overlap on the object, and only some local modes can be implemented in the physical model, and as a result, it can be difficult to duplicate a particular pose. In addition, due to the physical limitations of the component (eg, non-linear elastic material, etc.), the physical configuration may not accurately mimic the desired local mode. Thus, the actual range of poses in the physical model of the object may not look exactly like an animated character (desired movement). Due to this, it is often expected that the user must adjust the weighting factors, the physical configuration of the physical model of the object, and so on. The above process can then be repeated to see if the adjustment is useful. Further details and other embodiments are provided below.

ユーザーがオブジェクトの物理モデル(または修正された物理モデル)の動きおよび物理的ポーズに満足している場合において、制御データ(例えば、重みづけ因子、制御構造に送信された制御信号など)は、メモリーに格納され得る(ステップ290)。次いで、メモリーからの制御データは、望まれる「規則的」動作モード、例えば、娯楽用の乗り物またはアトラクション、パフォーマンスなどの中のオブジェクトの物理モデルを駆動し得る。さまざまな実施形態において、従来のコンピューターシステム、例えば、物理モデルの遠隔のコンピューターシステム100は、オブジェクトを制御し得る(ステップ295)。他の実施形態において、専用コンピューターシステム、埋め込みシステムなどが、制御データ、制御構造に対する制御信号などを格納するように用いられ、オブジェクトの物理モデルを制御し得る。   If the user is satisfied with the movement and physical pose of the physical model (or modified physical model) of the object, control data (eg, weighting factors, control signals sent to the control structure, etc.) are stored in memory. (Step 290). Then, the control data from the memory, "regular" mode of operation is desired, for example, a vehicle or attraction for entertainment, can drive the physical model of the object in such performance. In various embodiments, a conventional computer system, such as a physical model remote computer system 100, may control the object (step 295). In other embodiments, dedicated computer systems, embedded systems, etc. may be used to store control data, control signals for control structures, etc., to control the physical model of the object.

単なる一例として、望まれるアニメーションデータによって特定される運動と同様な運動を有するおもちゃが、上記の原理に従って特定され、構成され得る。次いで、望まれる駆動データは、制御信号に変換され得、制御信号は、フラッシュメモリー、ROMなどのようなオンボードメモリー上のコンピューター実行可能命令として格納され、おもちゃの中に埋め込まれたマイクロプロセッサーを駆動しておもちゃの運動を制御する。   By way of example only, a toy having a movement similar to that specified by the desired animation data may be identified and configured according to the principles described above. The desired drive data can then be converted into control signals that are stored as computer-executable instructions on an on-board memory such as flash memory, ROM, etc., and have a microprocessor embedded in the toy. Drive to control toy movement.

図3は、本発明のさまざまな実施形態に従った付加的なプロセスのブロック図を例示する。より具体的には、図3は、オブジェクトの物理モデルの運動を修正する実施形態の高いレベルの例示を提供する。   FIG. 3 illustrates a block diagram of an additional process according to various embodiments of the present invention. More specifically, FIG. 3 provides a high level illustration of an embodiment that modifies the motion of a physical model of an object.

最初に、図2Bにおけるように、構成の仕様に基づいて、アニメ化されたオブジェクトの物理モデル(アニマトロニクスユニット)が構築され得る(ステップ250)。上述のように、任意の従来の数の物理コンポーネントが、物理モデルのさまざまな部分を操作する(例えば、動かす、たわませる、曲げる、伸張する、など)ために用いられ得る。   Initially, as in FIG. 2B, a physical model (animatronics unit) of the animated object may be constructed based on the configuration specification (step 250). As mentioned above, any physical components of the conventional number, operates the various parts of the physical model (e.g., move, deflect, bend, stretching, etc.) it may be used for.

さまざまな実施形態において、ステップ260において、適切な駆動信号が、決定され得、物理モデルに適用され得る。本発明者らは、望まれる動きに物理モデルの物理的な動きを適合させるプロセスが、空間−時間問題であり、少なくとも部分的にはコンピューターを用いて解決され得ることを認識する。したがって、ステップ260において、適切な駆動信号の「最初の推測」が物理モデルに適用される。   In various embodiments, in step 260 an appropriate drive signal can be determined and applied to the physical model. The present inventors have found that the process of adapting the physical movement of the physical model in motion is desired, the space - the time problem, recognizes that at least in part be solved by using a computer. Thus, in step 260, an “initial guess” of the appropriate drive signal is applied to the physical model.

次いで、さまざまな実施形態において、ステップ300において、オブジェクトの物理モデルのポーズおよび動きは、コンピューターシステムの中に記録され、そして/またはユーザーによって観察される。具体的には、オブジェクトの物理モデルの実際の空間/時間位置(または他の制約)は、ステップ300において決定される。本発明のさまざまな実施形態において、このことを実行する多くの異なる仕方が予想される。さまざまな実施形態は、物理モデルの特定の接合部などに配置されるサーボモーターを用いることを含む。
そのような実施形態において、サーボモーターの角度的な位置は、アニメーション時間に対してモニターされ、アニメーション時間に対する物理モデル全体の位置を計算することを助ける。他の実施形態は、物理モデル上に位置決定された反射ドットなどのようなモーションキャプチャー技術を用いることを含む。そのような実施形態において、空間の中で較正された後で、ビデオカメラなどによって収集されるとき、反射されたドット、そして、次いで物理モデルの位置は、時間に対して決定され得る。さらに他の実施形態において、オブジェクトの物理的な動きは、空間の中のキー位置に配置される多くの物理タッチセンサーの使用を通じて収集され得る。次いで、これらの物理センサーは、物理モデルが空間の中の主要な位置に動く場合、または、その時を感知する。さらに他の実施形態において、レーザー距離測定デバイスまたは他の三次元走査技術は、アニメーション時間に対する物理モデルの実際の位置、物理モデルの経路などを計算するのを助けるように用いられ得る。
Then, in various embodiments, at step 300, the pose and movement of the physical model of the object is recorded in the computer system and / or observed by the user. Specifically, the actual space / time location (or other constraints) of the physical model of the object is determined in step 300. In various embodiments of the invention, many different ways of doing this are envisaged. Various embodiments include using servo motors that are placed at specific junctions or the like of the physical model.
In such an embodiment, the angular position of the servo motor is monitored against the animation time to help calculate the position of the entire physical model relative to the animation time. Other embodiments include using motion capture techniques such as reflective dots positioned on the physical model. In such an embodiment, after being calibrated in space, when collected by a video camera or the like, the position of the reflected dots and then the physical model can be determined with respect to time. In yet other embodiments, the physical movement of the object can be collected through the use of a number of physical touch sensors placed at key positions in space. These physical sensors then sense when or when the physical model moves to a major position in space. In still other embodiments, laser distance measuring devices or other three-dimensional scanning techniques can be used to help calculate the actual position of the physical model, the path of the physical model, etc. relative to the animation time.

さまざまな実施形態において、次いで、アニメーションデータに基づいて、コンピューターシステムは、空間および時間の中でアニメ化されたオブジェクトのさまざまな部分の望まれる動きを予測または決定し得る(ステップ310)。一部の実施形態において、アニマトロニクスユニットの望まれるポーズは、アニメーションデータ(例えば、ソースがアニメ化された特徴など)によって駆動されるアニメ化されたオブジェクトの単なるポーズおよび動きであり得る。   In various embodiments, then, on the basis of the animation data, the computer system may predict or determine a motion that is desired of various parts of the object that is animated in space and time (Step 310). In some embodiments, the desired pose of the animatronic unit may be a simple pose and movement of an animated object driven by animation data (eg, a feature whose source is animated).

次いで、本発明のさまざまな実施形態において、物理オブジェクトの実際の空間/時間位置が、期間に対して望まれる空間/時間位置から許容可能な量の偏差内にあるかどうかに関して、決定が行われる(ステップ330)。一部の実施形態において、偏差は、物理モデルのアニメーションに対して重要なことに依存し得る。例えば、物理モデルが時間におけるある特定の瞬間においてある行為を実行することが、物理モデルがいかにその行為を実行する(すなわち、動く)ことよりも重要であり得るか、または物理モデルがある特定の動きの経路にぴったりと従うことが、その物理モデルがその動きを実行する速さよりも重要であり得るか、または任意の他の組み合わせであり得る。したがって、許容可能な偏差の量およびタイプは、オブジェクトの物理モデルの用途にきわめて依存している。具体的な例として、比較データは、オブジェクトの物理モデルが十分に高く飛んでいないこと、手を閉じるのが早いまたは遅いこと、落ちるオブジェクトをキャッチしそこなうこと、あるいは他の動きに関連した偏差を示し得る。   Then, in various embodiments of the present invention, the actual space / time positions of the physical objects, as to whether there desirable is space / time allowable amount within a deviation from the position for the duration, a determination is made (Step 330). In some embodiments, the deviation may depend on what is important for the animation of the physical model. For example, it may be more important for a physical model to perform an action at a particular moment in time than how the physical model performs (ie, moves) that action, Closely following the path of motion may be more important than the speed at which the physical model performs the motion, or any other combination. Thus, the amount and type of deviation that can be tolerated is highly dependent on the application of the physical model of the object. As a concrete example, the comparison data shows deviations related to the physical model of the object not flying high enough, fast or slow closing of the hand, failure to catch falling objects, or other movements. obtain.

さまざまな実施形態において、ステップ330において、偏差のタイプは、絶対偏差、累積偏差または任意の他のタイプの偏差であり得る。例えば、任意の時刻に物理モデルが空間/時間において予測された空間/時間位置から10%よりも大きくずれている場合には、偏差は、許容不可能であり得る。別の例として、物理モデルがアニメーション時間の75%に関して空間における5%以下だけ空間/時間位置においてずれている場合には、ピークの空間/時間偏差が10%を超える場合であっても、偏差は、許容可能であり得る。他の例において、物理モデルが特定の時刻においてある位置に達することができない場合には、物理モデルは、許容可能性の閾値を超えている。他の実施形態において、特定の用途に依存して、条件の他の組み合わせが閾値条件を設定するために用いられ得る。加えて、閾値は、自動的にまたは手動で設定され得る。   In various embodiments, at step 330, the type of deviation can be an absolute deviation, a cumulative deviation, or any other type of deviation. For example, the deviation may be unacceptable if the physical model deviates more than 10% from the predicted space / time position in space / time at any time. As another example, if the physical model is shifted in space / time position by 5% or less in space with respect to 75% of animation time, even if the peak space / time deviation exceeds 10%, the deviation May be acceptable. In another example, if the physical model cannot reach a position at a particular time, the physical model has exceeded an acceptable threshold. In other embodiments, other combinations of conditions may be used to set the threshold condition, depending on the particular application. In addition, the threshold can be set automatically or manually.

本発明のさまざまな実施形態において、偏差の量が許容可能でない場合には、偏差(例えば、誤差信号)は、アニマトロニクスユニットの物理モデルに対する駆動データを自動的にまたは手動で(例えば、重みづけ因子を用いて)修正するために用いられ得る(ステップ340)。一部の例において、オブジェクトの物理モデルがすべての望まれる空間位置に「ヒットする」または達するが、少し遅い場合には、駆動データ、例えばモーターの電流は、増加し得、駆動データは、時間的により早く適用され得る、などの場合があり得る。他の例において、物理モデルが望まれる空間位置にヒットしない場合にも、駆動データ、例えばモーターの電流は、増加し得、駆動データにおけるポーズが導入されて物理モデルが特定の位置に移ることを可能にし得る、などの場合があり得る。他の実施形態において、駆動データを修正する多くの他の仕方が予想される。   In various embodiments of the present invention, if the amount of deviation is unacceptable, the deviation (eg, error signal) is used to automatically or manually (eg, weight) drive data for the physical model of the animatronic unit. It can be used to correct (using factors) (step 340). In some examples, if the physical model of the object “hits” or reaches all desired spatial locations, but a bit slower, the drive data, eg, motor current, may increase and the drive data May be applied more quickly. In other examples, even if the physical model does not hit the desired spatial location, the drive data, e.g., motor current, can increase, and a pause in the drive data is introduced to move the physical model to a particular location. It can be possible. In other embodiments, many other ways to modify the drive data are envisaged.

本発明の一部の実施形態において、物理モデルの構成は、物理モデルが望まれる空間/時間位置に達することを可能にするように、自動的にまたは手動で修正され得る。例えば、物理モデルは、より軽い重量のコンポーネントを用いるように再構成され、コンポーネントの慣性を低減し、より高い追従速度の駆動モーターなどを用いて、物理モデルがより素早く動くことを可能にし得、物理モデルは、より強いコンポーネントまたは付加的なコンポーネントを用いるように再構成され、より強いコンポーネントまたは付加的なコンポーネントは、物理モデルがより大きい応力を扱うこと、より大きい負荷を扱うこと、またはより素早く動くことなどを可能にし得、物理コンポーネントの配置は、より大きいてこ比を利用することによって、物理モデルがより素早く動くことを可能にするように再び位置決定され得ることなどを可能にし得る。再構成は、物理モデルの作成者の現実世界の経験に依存し得る。   In some embodiments of the invention, the configuration of the physical model may be modified automatically or manually to allow the physical model to reach the desired space / time position. For example, the physical model may be reconfigured to use lighter weight components, reducing the inertia of the components, allowing the physical model to move more quickly, such as with higher follow-up drive motors, The physical model is reconfigured to use stronger or additional components, and the stronger or additional components can handle more stress, handle greater loads, or more quickly. The placement of physical components may allow the physical model to be repositioned to allow faster movement, etc. by utilizing a larger leverage ratio. The reconstruction may depend on the physical model creator's real world experience.

本発明の他の実施形態において、アニマトロニクスキャラクターの腕が望まれる時刻に望まれる位置に達した際に「はね返る」場合には、運動部分の間の腕の速さは、動きの大部分の間に増加し得るが、腕が望まれる位置に近づく(すなわち、線形駆動信号から非線形駆動信号へ)場合には、減少し得、より軽いコンポーネントは、(腕の慣性を低減するように)腕の中で用いられ得ることなどを可能にし得る。他の実施形態において、駆動信号における変化の組み合わせおよび物理構成は、設計の中で提案され得る。   In other embodiments of the present invention, if the animatronic character's arm “rebounds” when it reaches the desired position at the desired time, the speed of the arm between the moving parts will be the majority of the movement. Can increase in between, but if the arm approaches the desired position (ie, from a linear drive signal to a non-linear drive signal), it can decrease and the lighter component can be reduced (to reduce arm inertia) It may be possible to be used in In other embodiments, combinations of changes in drive signals and physical configurations can be proposed in the design.

本発明のさらに他の実施形態において、ユーザーは、ステップ260において駆動信号を決定するために用いられるアニメーションデータを修正し得る。例えば、ユーザーは、上記の技術を用いることによって、物理モデルが単に望まれる空間/時間位置を満たし得ないことを決定し得る。そのような場合には、ユーザーは、新しい集合のアニメーションデータを特定し得、新しい集合のアニメーションデータは、ステップ260において駆動信号を決定するために用いられる。例えば、物理モデルが時間におけるある特定の時点においてある位置に達する望まれる経路に沿って動き得ない場合には、ユーザーは、物理モデルが望まれる時刻にその位置に達し得るという希望を持って、アニメーションデータを介して運動の単純化された経路を特定し得る。   In yet another embodiment of the invention, the user may modify the animation data used to determine the drive signal at step 260. For example, the user may determine that by using the techniques described above, the physical model cannot simply satisfy the desired space / time location. In such a case, the user may identify a new set of animation data, and the new set of animation data is used in step 260 to determine the drive signal. For example, if the physical model cannot move along the desired path to reach a position at a certain point in time, the user has the hope that the physical model can reach that position at the desired time, A simplified path of motion can be identified via animation data.

さまざまな実施形態において、ステップ250〜340は、オブジェクトの物理モデルがユーザーによって望まれる、望まれる空間/時間位置に達するまで繰り返され得る。さまざまな実施形態において、このプロセスは、自動化され得、そして/または手動の入力を含み得、オブジェクトの物理モデルの空間−時間誤差を低減する(ステップ200においてアニメーションデータを用いて駆動される)。   In various embodiments, steps 250-340 may be repeated until the physical model of the object has reached the desired space / time position desired by the user. In various embodiments, the process may be automated and / or include manual input to reduce the space-time error of the physical model of the object (driven using animation data at step 200).

図6は、オブジェクトの物理モデルの運動を修正する付加的な実施形態の高いレベルの例示のブロック図を例示する。   FIG. 6 illustrates a high-level exemplary block diagram of an additional embodiment for modifying the motion of a physical model of an object.

さまざまな実施形態において、オブジェクトの物理モデルのソフトウェアシミュレーションが決定され得る。一部の実施形態において、ソフトウェアシミュレーションは、コンピューター支援設計(CAD)シミュレーションシステムなどとともに行われ得る。他の実施形態において、オブジェクトの物理モデルが構築されていることがあり得、このステップにおいて構成されたソフトウェアモデルは、物理モデルの現実世界のパフォーマンスに基づき得る。例えば、オブジェクトのソフトウェアシミュレーションは、特定の動きを実行する物理オブジェクトの測定されたパフォーマンスに基づき得る。   In various embodiments, a software simulation of a physical model of an object can be determined. In some embodiments, the software simulation may be performed with a computer aided design (CAD) simulation system or the like. In other embodiments, a physical model of the object may have been constructed, and the software model configured in this step may be based on the real-world performance of the physical model. For example, a software simulation of an object may be based on the measured performance of a physical object that performs a particular movement.

さまざまな実施形態において、ソフトウェアシミュレーションは、物理モデル(アニマトロニクスユニット)が利用可能であることを必要とすることなしに、オブジェクトの物理モデルがいかにポーズを付けられ得るか、そして、物理モデルがいかに動き得るかについての観念をユーザーに与え得る。そのような実施形態は、アニメーションチームがアニマトロニクスユニットから遠隔である場合には、有用であり得る。   In various embodiments, software simulation can determine how a physical model of an object can be paused without requiring that a physical model (animatics unit) be available, and how the physical model is Give users an idea of what they can do. Such an embodiment may be useful when the animation team is remote from the animatronic unit.

上記のステップ260と同様に、さまざまな実施形態において、適切な駆動信号は、ステップ510において決定され得、ソフトウェアシミュレーションに適用され得る。上記のように、本発明者らは、アニマトロニクスユニットの挙動を改善するためにソフトウェアシミュレーションの空間−時間挙動が研究されるべきであることを認識する。   Similar to step 260 above, in various embodiments, an appropriate drive signal can be determined in step 510 and applied to a software simulation. As noted above, the inventors recognize that the space-time behavior of software simulation should be studied to improve the behavior of animatronic units.

さまざまな実施形態において、アニマトロニクスユニットのソフトウェアシミュレーションのポーズおよび動きは、上記のステップ300と同様に、ステップ520においてユーザーによって記録され、そして/または観察される。次に、さまざまな実施形態において、アニメーションデータに基づいて、コンピューターシステムは、空間および時間においてアニメ化されたオブジェクトのさまざまな部分の望まれる動きを予測し得るか、または決定し得る(ステップ530)。一部の実施形態において、アニマトロニクスユニットの望まれるポーズは、アニメーションデータによって駆動されるアニメ化されたオブジェクト(例えば、ソースがアニメ化された特徴など)の単なるポーズおよび動きであり得る。   In various embodiments, the pose and the movement of software simulation of animatronics unit, as in step 300 described above, are recorded by the user in step 520, and / or observed. Next, in various embodiments, based on the animation data, the computer system may predict or determine the desired movement of various portions of the animated object in space and time (step 530). . In some embodiments, the desired pose of the animatronic unit may be simply a pose and movement of an animated object (eg, a source animated feature) driven by animation data.

次いで、本発明のさまざまな実施形態において、物理オブジェクトのソフトウェアモデルの実際の空間/時間位置が期間に対して望まれる空間/時間位置からの許容可能な量の偏差以内にあるかどうかに関して、決定が行われる(ステップ540)。上述のように、一部の実施形態において、偏差は、物理モデルのアニメーションに対して重要なことに依存し得る。例えば、物理モデルが時間におけるある特定の瞬間においてある行為を実行することが、物理モデルがいかにその行為を実行する(すなわち、動く)かよりも重要であり得るか、または物理モデルがある特定の動きの経路にぴったりと従うことが、その物理モデルがその動きを実行する速さよりも重要であり得るか、または任意の他の組み合わせであり得る。したがって、許容可能な偏差の量およびタイプは、オブジェクトの物理モデルの用途にきわめて依存している。具体的な例として、比較データは、オブジェクトの物理モデルが十分に高く飛んでいないこと、手を閉じるのが早いまたは遅いこと、落ちるオブジェクトをキャッチしそこなうこと、あるいは他の動きに関連した偏差を示し得る。   Then, in various embodiments of the present invention, as to whether the actual or space / time positions is within an acceptable amount of deviation from the space / time positions desired for the period of the software model of the physical object, determined Is performed (step 540). As mentioned above, in some embodiments, the deviation may depend on what is important for the animation of the physical model. For example, it may be more important for a physical model to perform an action at a particular moment in time than how the physical model performs that action (ie, moves) Closely following the path of motion may be more important than the speed at which the physical model performs the motion, or any other combination. Thus, the amount and type of deviation that can be tolerated is highly dependent on the application of the physical model of the object. As a concrete example, the comparison data shows deviations related to the physical model of the object not flying high enough, fast or slow closing of the hand, failure to catch falling objects, or other movements. obtain.

さまざまな実施形態において、上記のステップ330と同様に、偏差のタイプは、絶対偏差、累積偏差または任意の他のタイプの偏差などであり得る。例えば、任意の時刻に物理モデルが空間/時間において予測された空間/時間位置から平均の20%よりも大きくずれている場合には、その偏差は、許容不可能であり得る。他の例において、物理モデルが特定の時刻においてある位置に達することができない場合には、物理モデルは、許容可能性の閾値を超えている。   In various embodiments, similar to step 330 above, the type of deviation can be an absolute deviation, a cumulative deviation, or any other type of deviation. For example, if the physical model deviates more than 20% of the average from the predicted space / time position in space / time at any time, the deviation may be unacceptable. In another example, if the physical model cannot reach a position at a particular time, the physical model has exceeded an acceptable threshold.

本発明のさまざまな実施形態において、偏差の量が許容可能でない場合には、偏差(例えば、誤差信号)は、アニマトロニクスユニットに対する駆動データを自動的にまたは手動で(例えば、重みづけ因子を用いて)修正するように用いられ得る(ステップ560)。一部の例において、オブジェクトのソフトウェアシミュレーションがすべての望まれる空間位置にヒットするが、早すぎる場合には、液圧式ポンプは、時間的に後でオンにされ得、液圧式システムの油圧は減少し得ることなどが生じ得る。他の例において、物理モデルのソフトウェアシミュレーションが望まれる空間位置に「ヒットし」ない、または届かない場合には、空気式システムの気圧が増加し得ること、空気式システムが時間的により早く作動され得ることなどが生じ得る。他の実施形態において、駆動データを修正する多くの他の仕方が予想される。   In various embodiments of the present invention, if the amount of deviation is unacceptable, the deviation (eg, error signal) is used to automatically or manually drive data for the animatronic unit (eg, using a weighting factor). And can be used to modify (step 560). In some examples, the software simulation of the object hits all desired spatial locations, but if it is too early, the hydraulic pump can be turned on later in time and the hydraulic pressure of the hydraulic system is reduced And so on. In other examples, if the software simulation of the physical model does not “hit” or reach the desired spatial location, the pneumatic system may increase in pressure, and the pneumatic system may be operated earlier in time. And so on. In other embodiments, many other ways to modify the drive data are envisaged.

さまざまな実施形態において、ステップ500〜560は、アニマトロニクスユニットのソフトウェアシミュレーションがユーザーによって望まれる、望まれる空間/時間位置に達するまで繰り返され得る。さまざまな実施形態において、このプロセスは、自動化され得、そして/または手動の入力を含み得、オブジェクトの物理モデルの空間−時間誤差を低減する(ステップ200においてアニメーションデータを用いて駆動される)。   In various embodiments, steps 500-560 may be repeated until the software simulation of the animatronic unit reaches the desired space / time position desired by the user. In various embodiments, the process may be automated and / or include manual input to reduce the space-time error of the physical model of the object (driven using animation data at step 200).

一部の実施形態において、ソフトウェアシミュレーションがユーザーによって望まれる空間−時間制約を満たす場合には、このプロセスは、例示された図2Bまたは図3に戻り得る。そのような場合において、ステップ250においてアニマトロニクスユニットが構築されなかった場合には、物理モデルは、それぞれのプロセスに従って構成され得、同調され得る。他の場合には、アニマトロニクスユニットがすでに構築されている場合には、ステップ250は、ステップ560において決定されるように、アニマトロニクスユニットに対して変更を行うことを含み得る。さらに一部の他の場合において、ステップ250は、すでに実行された可能性があり、アニマトロニクスユニットは、すでに構築されている可能性がある。   In some embodiments, if the software simulation meets the space-time constraints desired by the user, the process may return to the illustrated FIG. 2B or FIG. In such cases, if an animatronic unit is not built in step 250, a physical model can be constructed and tuned according to the respective process. In other cases, if an animatronic unit has already been constructed, step 250 may include making changes to the animatronic unit as determined in step 560. In still some other cases, step 250 may have already been performed and an animatronic unit may have already been constructed.

図4A〜Bは、本発明のさまざまな実施形態に従った例を例示する。図4Aは、オブジェクト表面に関連づけられた例示的データ集合に対して決定されるグローバルな一次的モード370の例を例示する。この例において、+部分および−部分は、相対的な深さにおける変化を表す。見られ得るように、グローバルな一次的モード370における+部分および−部分は、小さい領域を超えて広がる。   4A-B illustrate examples in accordance with various embodiments of the present invention. FIG. 4A illustrates an example of a global primary mode 370 that is determined for an exemplary data set associated with an object surface. In this example, the + and − portions represent changes in relative depth. As can be seen, the + and − portions in the global primary mode 370 extend beyond a small area.

対照的に、図4Bは、因子回転の後にグローバルな一次的モードに基づいて決定されるローカルモード380の例を例示する。この例において、+部分および−部分はまた、相対的な深さにおける変化を表す。見られ得るように、ローカルモードにおける+部分および−部分は、より小さいエリアに影響を与える。上記のさまざまな実施形態に従って、複数のローカルモードは、オブジェクト表面上の比較的はっきりした領域であり、その領域は、結果として、それぞれの物理制御構造と関連づけられ得る。   In contrast, FIG. 4B illustrates an example of a local mode 380 that is determined based on a global primary mode after factor rotation. In this example, the + and − portions also represent changes in relative depth. As can be seen, the + and − portions in the local mode affect a smaller area. In accordance with various embodiments described above, a plurality local modes are relatively clear area on the object surface, the area is, as a result, be associated with each physical control structures.

図5A〜Cは、本発明のさまざまな実施形態に従った物理制御構造の例を例示する。図5Aは、局所化されたふくらみ410(例えば、ほほえんでいる人の頬)をもたらすために用いられるモーター400の例を例示する。図5Bは、ワイヤー430に接続されたモーター420の例を例示し、モーター420は、局所化されたくぼみ440(例えば、顔をしかめる人の唇)をもたらすために用いられる。図5Cは、ピストン460に接続された加圧されるシステム450(例えば、液圧式、空気式)の例を例示し、システム450は、ピストン460に接続され、伸張効果470または腕をもたらすために用いられる。   5A-C illustrate examples of physical control structures according to various embodiments of the present invention. FIG. 5A illustrates an example of a motor 400 used to provide a localized bulge 410 (eg, a smiling person's cheek). FIG. 5B illustrates an example of a motor 420 connected to the wire 430, which is used to provide a localized indentation 440 (eg, a frown of a person's lips). FIG. 5C illustrates an example of a pressurized system 450 (eg, hydraulic, pneumatic) connected to a piston 460 that is connected to the piston 460 to provide an extension effect 470 or arm. Used.

上記の開示の観点から、当業者は、多くの他のタイプのモード分析がグローバルな運動モードまたは局所化された運動モードを決定するために実行され得ることを理解する。加えて、上記の開示の観点から、当業者は、物理制御構造を実装する多くの他の仕方がアニメ化されたキャラクターの物理的表現に「生命」を与えるために用いられ得、組み合わされ得ることを理解する。   In view of the above disclosure, those skilled in the art will appreciate that many other types of mode analysis can be performed to determine a global motion mode or a localized motion mode. In addition, in view of the above disclosure, one of ordinary skill in the art can use and combine many other ways of implementing physical control structures to give “life” to the physical representation of an animated character I understand that.

本開示を読んだ後に、さらなる実施形態が当業者に想定され得る。他の実施形態において、上記で開示された実施形態の組み合わせまたはサブコンビネーションが、有利に行われ得る。アーキテクチャーのブロック図とフロー図とが、理解を容易にするためにグルーピングされる。しかしながら、ブロックの組み合わせ、新しいブロックの付加、ブロックの再配列などが本発明の代替の実施形態において予想されることが、理解されるべきである。   After reading this disclosure, further embodiments may be envisioned by those skilled in the art. In other embodiments, combinations or sub-combinations of the above disclosed embodiments may be advantageously performed. Architecture block diagrams and flow diagrams are grouped for ease of understanding. However, it should be understood that block combinations, new block additions, block rearrangements, and the like are expected in alternative embodiments of the invention.

したがって、本明細書および図面は、限定的な意味ではなく、むしろ例示的な意味において考慮されるべきである。しかしながら、特許請求の範囲において述べられる本発明のより広い精神および範囲から逸脱することなしに、本発明に対してさまざまな修正および変更が行い得ることは明らかである。   The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense. However, it will be apparent that various modifications and changes may be made thereto without departing from the broader spirit and scope of the invention as set forth in the claims.

Claims (24)

アニマトロニクスユニットの挙動を決定する方法であって、該方法は、
アニメ化されたキャラクターの少なくとも一部分に対して芸術的に決定された動きを含むアニメーションデータを受信することと、
該アニメーションデータに応答して該アニマトロニクスユニットの一部分に適用される複数の制御信号を決定することと、
該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定することと、
該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力することと
を包含する、方法。
A method for determining the behavior of an animatronic unit, the method comprising:
Receiving animation data including artistically determined movements for at least a portion of the animated character;
Determining a plurality of control signals to be applied to a portion of the animatronic unit in response to the animation data;
Estimating the behavior of at least the portion of the animatronic unit in response to the plurality of control signals by driving a software simulation of at least the portion of the animatronic unit with the plurality of control signals;
Outputting to the user a representation of the behavior of at least the portion of the animatronic unit.
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、
前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されるポーズまたは予測される動きを含み、
前記方法は、該特定のポーズまたは該特定の動きと、該予測されるポーズまたは該予測される動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正することをさらに包含する、請求項1に記載の方法。
The animation data describes a specific pose or specific movement for at least the portion of the animatronic unit;
The behavior includes a predicted pose or predicted motion for at least the portion of the animatronic unit;
The method modifies animation data or software simulation of at least the portion of the animatronic unit in response to the specific pose or the specific motion and the predicted pose or the predicted motion. The method of claim 1, further comprising:
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、
前記複数の制御信号を決定することは、
該特定の動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定することと、
該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される該複数の制御信号を決定することと
を包含する、請求項1〜2のいずれか1項に記載の方法。
The animation data describes a specific movement for at least the portion of the animatronic unit;
Determining the plurality of control signals includes
In response to the particular movement, determining a space-time specific enhanced movement for at least the portion of the animatronic unit;
Determining the plurality of control signals applied to at least the portion of the animatronic unit in response to the space-time specific enhanced motion. 2. The method according to item 1.
アニマトロニクスユニットの挙動を決定するコンピューターシステムであって、該システムは、
アニメ化されたキャラクターの少なくとも一部分に対する芸術的に決定された動きを含むアニメーションデータを格納するように構成されるメモリーと、
該メモリーに結合されたプロセッサーであって、該プロセッサーは、該アニメーションデータに応答して該アニマトロニクスユニットの一部分に適用される複数の制御信号を決定するように構成され、該プロセッサーは、該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定するように構成され、該プロセッサーは、該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力するように構成される、プロセッサーと
を備えている、コンピューターシステム。
A computer system for determining the behavior of an animatronic unit, the system comprising:
A memory configured to store animation data including artistically determined movements for at least a portion of the animated character;
A processor coupled to the memory, the processor configured to determine a plurality of control signals to be applied to a portion of the animatronic unit in response to the animation data; Is configured to estimate the behavior of at least the portion of the animatronic unit in response to the plurality of control signals by driving a software simulation of at least the portion of the animatronic unit with the control signal of The processor comprises: a processor configured to output a representation of the behavior of at least the portion of the animatronic unit to a user.
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、
前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されたポーズまたは予測された動きを含み、
前記プロセッサーは、該特定のポーズまたは該特定の動きと、該予測されたポーズまたは該予測された動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正するように構成される、請求項4に記載のコンピューターシステム。
The animation data describes a specific pose or specific movement for at least the portion of the animatronic unit;
The behavior includes a predicted pose or predicted motion for at least the portion of the animatronic unit;
The processor is configured to modify animation data or software simulation of at least the portion of the animatronic unit in response to the specific pose or the specific motion and the predicted pose or the predicted motion. The computer system according to claim 4, which is configured as follows.
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、
前記プロセッサーは、該特定の動きに応答して該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定するように構成され、
該プロセッサーは、該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される前記複数の制御信号を決定するように構成される、請求項4〜5のいずれか1項に記載のコンピューターシステム。
The animation data describes a specific movement for at least the portion of the animatronic unit;
The processor is configured to determine a space-time specific enhanced motion for at least the portion of the animatronic unit in response to the particular motion;
The processor is configured to determine the plurality of control signals applied to at least the portion of the animatronic unit in response to the space-time specific enhanced motion. 6. The computer system according to any one of 5 above.
有体の媒体上にあるコンピュータープログラム製品であって、該コンピュータープログラム製品は、コンピューターシステム上で実行可能な実行可能コードを含み、該コンピューターシステムは、プロセッサーとメモリーとを含み、該コンピュータープログラム製品は、
アニメ化されたキャラクターの少なくとも一部分に対する芸術的に決定された動きを含むアニメーションデータを受信することを、該プロセッサーに命令するように構成されたコードと、
該アニメーションデータに応答して、アニマトロニクスユニットの一部分に適用される複数の制御信号を決定することを該プロセッサーに命令するように構成されたコードと、
該複数の制御信号を用いて該アニマトロニクスユニットの少なくとも該一部分のソフトウェアシミュレーションを駆動することによって、該複数の制御信号に応答して該アニマトロニクスユニットの少なくとも該一部分の挙動を推定することを該プロセッサーに命令するように構成されたコードと、
該アニマトロニクスユニットの少なくとも該一部分の挙動の表現をユーザーに出力することを該プロセッサーに命令するように構成されたコードと
を含む、コンピュータープログラム製品。
A computer program product on a tangible medium, the computer program product comprising executable code executable on the computer system, the computer system comprising a processor and memory, the computer program product comprising: ,
Code configured to instruct the processor to receive animation data including artistically determined movements for at least a portion of the animated character;
Code configured to instruct the processor to determine a plurality of control signals applied to a portion of the animatronic unit in response to the animation data;
Estimating the behavior of at least the portion of the animatronic unit in response to the plurality of control signals by driving software simulation of at least the portion of the animatronic unit with the plurality of control signals. Code configured to instruct the processor;
A computer program product comprising: code configured to instruct the processor to output to the user a representation of the behavior of at least the portion of the animatronic unit.
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定のポーズまたは特定の動きを記述し、
前記挙動は、該アニマトロニクスユニットの少なくとも該一部分に対する予測されたポーズまたは予測された動きを含み、
請求項7に記載のコンピュータープログラム製品は、該特定のポーズまたは該特定の動きと、
該予測されたポーズまたは該予測された動きとに応答して、該アニマトロニクスユニットの少なくとも該一部分のアニメーションデータまたはソフトウェアシミュレーションを修正することを前記プロセッサーに命令するように構成されたコードをさらに含む、請求項7に記載のコンピュータープログラム製品。
The animation data describes a specific pose or specific movement for at least the portion of the animatronic unit;
The behavior includes a predicted pose or predicted motion for at least the portion of the animatronic unit;
The computer program product of claim 7, wherein the specific pose or the specific movement is
And further comprising code configured to instruct the processor to modify animation data or software simulation of at least the portion of the animatronic unit in response to the predicted pose or the predicted motion. A computer program product according to claim 7.
前記アニメーションデータは、前記アニマトロニクスユニットの少なくとも前記一部分に対する特定の動きを記述し、
請求項7〜8のいずれか1項に記載のコンピュータープログラム製品は、
該特定の動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に対する空間−時間が特有の強化された動きを決定することを前記プロセッサーに命じるように構成されたコードと、
該空間−時間が特有の強化された動きに応答して、該アニマトロニクスユニットの少なくとも該一部分に適用される前記複数の制御信号を決定することを該プロセッサーに命令するように構成されたコードと
をさらに含む、請求項7〜8のいずれか1項に記載のコンピュータープログラム製品。
The animation data describes a specific movement for at least the portion of the animatronic unit;
The computer program product according to any one of claims 7 to 8,
Code configured to direct the processor to determine a space-time specific enhanced motion for at least the portion of the animatronic unit in response to the particular motion;
Code configured to instruct the processor to determine the plurality of control signals applied to at least the portion of the animatronic unit in response to the space-time specific enhanced motion; The computer program product according to claim 7, further comprising:
アニマトロニクスユニットに対する設計を特定する方法であって、該方法は、
芸術的に決定された動きを含む動きのデータを受信することと、
該動きのデータに応答して該アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することと、
該アニマトロニクスユニットの構成に対する該設計を出力することと
を包含する、方法。
A method for identifying a design for an animatronic unit, the method comprising:
Receiving movement data including artistically determined movement;
Determining a design for the configuration of at least a portion of the animatronic unit in response to the motion data;
Outputting the design for the configuration of the animatronic unit.
前記設計を決定することは、
前記動きのデータに応答して複数のグローバルな特徴的ポーズを決定することと、
該複数のグローバルな特徴的なポーズに応答して、複数のローカルな特徴的ポーズを決定することと、
該複数のローカルな特徴的ポーズに応答して、前記アニマトロニクスユニットの構成に対する前記設計を決定することと
を包含する、請求項10に記載の方法。
Determining the design is
Determining a plurality of global characteristic poses in response to the motion data;
Determining a plurality of local characteristic poses in response to the plurality of global characteristic poses;
11. The method of claim 10, comprising: determining the design for a configuration of the animatronic unit in response to the plurality of local characteristic poses.
前記動きのデータに応答して前記アニマトロニクスユニットの前記一部分の動きを予測することと、
該動きのデータに応答して決定された駆動信号を用いて該アニマトロニクスユニットの該一部分を駆動し、該アニマトロニクスユニットの該一部分の動きを決定することと、
該駆動信号に応答する該アニマトロニクスユニットの該一部分の動きと、該動きのデータに応答する該アニマトロニクスユニットの該一部分の予測された動きとの間の差を決定することと、
該差に応答して該アニマトロニクスユニットの該一部分に対する制御マッピングを決定することと
をさらに包含する、請求項10〜11のいずれか1項に記載の方法。
Predicting the movement of the portion of the animatronic unit in response to the movement data;
Driving the portion of the animatronic unit using a drive signal determined in response to the motion data to determine movement of the portion of the animatronic unit;
Determining a difference between movement of the portion of the animatronic unit in response to the drive signal and predicted movement of the portion of the animatronic unit in response to the movement data;
12. The method of any one of claims 10-11, further comprising: determining a control mapping for the portion of the animatronic unit in response to the difference.
前記アニマトロニクスユニットの前記一部分の構成に対する前記設計を決定することは、また、機械的制約に応答する、請求項10〜11のいずれか1項に記載の方法。   Wherein it is determined the design for construction of the portion of the animatronics unit is also responsive to mechanical constraints, the method according to any one of claims 10-11. コンピューターシステムであって、該システムは、
芸術的に決定された動きを含む動きのデータを格納するように構成されたメモリーと、
該メモリーに結合されたプロセッサーであって、該プロセッサーは、該動きのデータに応答して前記アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定するように構成され、該プロセッサーは、該アニマトロニクスユニットの構成に対する該設計を出力するように構成される、プロセッサーと
を備えている、コンピューターシステム。
A computer system comprising:
A memory configured to store motion data including artistically determined motion;
A processor coupled to the memory, the processor configured to determine a design for a configuration of at least a portion of the animatronic unit in response to the motion data, the processor including the animatronic unit; A computer system comprising: a processor configured to output the design for a configuration of:
前記プロセッサーは、前記動きのデータに応答して前記アニマトロニクスユニットの前記一部分に対する位置を予測するように構成され、
該プロセッサーは、該動きのデータに応答して決定された駆動信号を用いて該アニマトロニクスユニットの該一部分を駆動し、該アニマトロニクスユニットの該一部分の位置を決定するように構成され、
該プロセッサーは、該駆動信号に応答する該アニマトロニクスユニットの該一部分の位置と、該動きのデータに応答する該アニマトロニクスユニットの該一部分の予測された位置との間の差を決定するように構成され、
該プロセッサーは、該差に応答して該アニマトロニクスユニットに対する制御マッピングを決定するように構成される、請求項14に記載のコンピューターシステム。
The processor is configured to predict a position relative to the portion of the animatronic unit in response to the motion data;
The processor is configured to drive the portion of the animatronic unit using a drive signal determined in response to the motion data to determine a position of the portion of the animatronic unit;
The processor is configured to determine a difference between the position of the portion of the animatronic unit that is responsive to the drive signal and the predicted position of the portion of the animatronic unit that is responsive to the motion data. Configured,
The computer system of claim 14, wherein the processor is configured to determine a control mapping for the animatronic unit in response to the difference.
前記動きのデータは、アニメ化されたキャラクターと関連づけられたアニメーションデータと、物理パフォーマンスのモーションキャプチャーデータと、アニメ化された顔と関連づけられたアニメーションデータと、顔のパフォーマンスのモーションキャプチャーデータとからなる群から選択される、請求項14〜15のいずれか1項に記載のコンピューターシステム。   The motion data includes animation data associated with the animated character, physical performance motion capture data, animation data associated with the animated face, and facial performance motion capture data. The computer system according to any one of claims 14 to 15, which is selected from the group. 前記プロセッサーは、前記制御マッピングに応答して前記アニマトロニクスユニットに対するソフトウェアシミュレーションモデルを決定するように構成されている、請求項14〜16のいずれか1項に記載のコンピューターシステム。   Said processor is configured to determine a software simulation model for the animatronics unit in response to said control mapping, the computer system according to any one of claims 14 to 16. 有体の媒体上にあるコンピュータープログラム製品であって、該コンピュータープログラム製品は、コンピューターシステム上で実行可能な実行可能コードを含み、該コンピューターシステムは、プロセッサーとメモリーとを含み、該コンピュータープログラム製品は、
該メモリーから芸術的に決定された動きを含む動きのデータを取り出すことを該プロセッサーに命令するように構成されたコードと、
該動きのデータに応答して該アニマトロニクスユニットの少なくとも一部分の構成に対する設計を決定することを該プロセッサーに命令するように構成されたコードと、
該アニマトロニクスユニットの構成に対する該設計を出力することを該プロセッサーに命令するように構成されたコードと
を含む、コンピュータープログラム製品。
A computer program product on a tangible medium, the computer program product comprising executable code executable on the computer system, the computer system comprising a processor and memory, the computer program product comprising: ,
Code configured to instruct the processor to retrieve motion data including artistically determined motion from the memory;
Code configured to instruct the processor to determine a design for a configuration of at least a portion of the animatronic unit in response to the motion data;
And a code configured to instruct the processor to output the design for the configuration of the animatronic unit.
前記動きのデータに応答して複数のグローバルな特徴的ポーズを決定することを前記プロセッサーに命令するように構成されたコードと、
該複数のグローバルな特徴的ポーズに応答して複数のローカルな特徴的ポーズを決定することを該プロセッサーに命令するように構成されたコードと、
該複数のローカルな特徴的ポーズに応答して前記アニマトロニクスユニットの構成に対する前記設計を決定することを該プロセッサーに命令するように構成されたコードと
をさらに含む、請求項18に記載のコンピュータープログラム製品。
Code configured to instruct the processor to determine a plurality of global characteristic poses in response to the motion data;
Code configured to instruct the processor to determine a plurality of local feature poses in response to the plurality of global feature poses;
The computer program of claim 18, further comprising code configured to instruct the processor to determine the design for a configuration of the animatronic unit in response to the plurality of local characteristic poses. Product.
前記芸術的に決定された動きは、時間に対して複数のポーズを含む、請求項18〜19のいずれか1項に記載のコンピュータープログラム製品。   20. A computer program product according to any one of claims 18 to 19, wherein the artistically determined movement comprises a plurality of poses with respect to time. アニマトロニクスユニットを構成する方法であって、該方法は、
該アニマトロニクスユニットの一部分の構成に対する設計を受信することと、
該アニマトロニクスユニットの該一部分の構成に対する該設計に応答して該アニマトロニクスユニットの該一部分を構成することと
を包含し、
該アニマトロニクスユニットの該一部分の構成に対する該設計は、芸術的に決定された動きを含む動きのデータに応答して決定される、方法。
A method of constructing an animatronic unit, the method comprising:
Receiving a design for a configuration of a portion of the animatronic unit;
Configuring the portion of the animatronic unit in response to the design for the configuration of the portion of the animatronic unit;
The method, wherein the design for the configuration of the portion of the animatronic unit is determined in response to motion data including artistically determined motion.
前記アニマトロニクスユニットの前記一部分の構成に対する前記設計は、ローカルな特徴的ポーズを有する該アニマトロニクスユニットの該一部分と関連づけられた領域の仕様を含む、請求項21に記載の方法。   The method of claim 21, wherein the design for the configuration of the portion of the animatronic unit includes a specification of a region associated with the portion of the animatronic unit having a local characteristic pose. 前記アニマトロニクスユニットの前記一部分を構成することは、該アニマトロニクスユニットの該一部分と関連づけられた前記領域に制御構造を結合することを包含し、
該制御構造は、液圧式駆動、空気式駆動、電気モーターからなる群から選択される、請求項21〜22のいずれか1項に記載の方法。
Configuring the portion of the animatronic unit includes coupling a control structure to the region associated with the portion of the animatronic unit;
23. A method according to any one of claims 21 to 22, wherein the control structure is selected from the group consisting of a hydraulic drive, a pneumatic drive, and an electric motor.
請求項20〜23のいずれか1項に記載の方法に従って構成されるアニマトロニクスユニット。   24. An animatronic unit constructed according to the method of any one of claims 20-23.
JP2010538233A 2007-12-17 2008-12-16 Method and apparatus for designing animatronic units from articulated computer-generated characters Pending JP2011511713A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/958,233 US8390629B2 (en) 2007-12-17 2007-12-17 Methods and apparatus for designing animatronics units from articulated computer generated characters
US11/958,239 US8232998B2 (en) 2007-12-17 2007-12-17 Methods and apparatus for estimating and controlling behavior of animatronics units
PCT/US2008/087025 WO2009079514A1 (en) 2007-12-17 2008-12-16 Methods and apparatus for designing animatronics units from articulated computer generated characters

Publications (1)

Publication Number Publication Date
JP2011511713A true JP2011511713A (en) 2011-04-14

Family

ID=40795901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010538233A Pending JP2011511713A (en) 2007-12-17 2008-12-16 Method and apparatus for designing animatronic units from articulated computer-generated characters

Country Status (4)

Country Link
EP (1) EP2227802A4 (en)
JP (1) JP2011511713A (en)
CN (1) CN101952879A (en)
WO (1) WO2009079514A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9427868B1 (en) * 2015-02-24 2016-08-30 Disney Enterprises, Inc. Method for developing and controlling a robot to have movements matching an animation character
US11790722B2 (en) 2020-08-11 2023-10-17 Best Lockers, Llc Single-sided storage locker systems accessed and controlled using machine-readable codes scanned by mobile phones and computing devices
US11631295B2 (en) 2020-08-11 2023-04-18 ScooterBug, Inc. Wireless network, mobile systems and methods for controlling access to lockers, strollers, wheel chairs and electronic convenience vehicles provided with machine-readable codes scanned by mobile phones and computing devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003266347A (en) * 2002-03-18 2003-09-24 Sony Corp Motion editing device for leg type moving robot and motion editing method
JP2005523827A (en) * 2002-04-30 2005-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Animating system for robots with a set of moving parts
JP2006521935A (en) * 2003-01-14 2006-09-28 ディズニー エンタープライゼス インコーポレイテッド Animatronic controlled support walking system
JP2007517585A (en) * 2004-01-14 2007-07-05 ディズニー エンタープライゼス インコーポレイテッド Computational environment that generates realistic behavior of animatronic figures
JP2007528797A (en) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic device and method enabling to animate objects

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1249792A3 (en) * 2001-04-12 2006-01-18 Matsushita Electric Industrial Co., Ltd. Animation data generation apparatus, animation data generation method, animated video generation apparatus, and animated video generation method
US20070143679A1 (en) * 2002-09-19 2007-06-21 Ambient Devices, Inc. Virtual character with realtime content input
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
US7904280B2 (en) * 2003-04-16 2011-03-08 The Mathworks, Inc. Simulation of constrained systems
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003266347A (en) * 2002-03-18 2003-09-24 Sony Corp Motion editing device for leg type moving robot and motion editing method
JP2005523827A (en) * 2002-04-30 2005-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Animating system for robots with a set of moving parts
JP2006521935A (en) * 2003-01-14 2006-09-28 ディズニー エンタープライゼス インコーポレイテッド Animatronic controlled support walking system
JP2007517585A (en) * 2004-01-14 2007-07-05 ディズニー エンタープライゼス インコーポレイテッド Computational environment that generates realistic behavior of animatronic figures
JP2007528797A (en) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic device and method enabling to animate objects

Also Published As

Publication number Publication date
EP2227802A4 (en) 2012-04-25
CN101952879A (en) 2011-01-19
WO2009079514A1 (en) 2009-06-25
EP2227802A1 (en) 2010-09-15

Similar Documents

Publication Publication Date Title
US11113860B2 (en) Particle-based inverse kinematic rendering system
Yamane et al. Animating non-humanoid characters with human motion data
Azarbayejani et al. Real-time 3-D tracking of the human body
Noh et al. Animated deformations with radial basis functions
US20130173242A1 (en) Methods and apparatus for estimating and controlling behavior of animatronics units
US7545378B2 (en) Foot roll rigging
US8648863B1 (en) Methods and apparatus for performance style extraction for quality control of animation
US7221379B2 (en) Integrated object squash and stretch method and apparatus
CA2704405A1 (en) Inverse kinematics for motion-captured characters
Ho et al. Interactive partner control in close interactions for real-time applications
Holden et al. Learning an inverse rig mapping for character animation
KR102137326B1 (en) Method and Apparatus For Using Rigging Character
US8390629B2 (en) Methods and apparatus for designing animatronics units from articulated computer generated characters
US20100302252A1 (en) Multiple personality articulation for animated characters
US8368700B1 (en) Animatronics animation method and apparatus
JP2011511713A (en) Method and apparatus for designing animatronic units from articulated computer-generated characters
JP3973995B2 (en) Animation creation system
Choi et al. Estimating material properties of deformable objects by considering global object behavior in video streams
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect
Jiang et al. Animating arbitrary topology 3D facial model using the MPEG-4 FaceDefTables
JP4358752B2 (en) Statistical mechanical collision methods and equipment
Orvalho et al. Character animation: past, present and future
KR20240033830A (en) How to Create 3D Facial Animations for Game Creation
i Capó et al. Automatic human body modeling for vision-based motion capture
Kim et al. Combining motion capture data with PD controllers for human-like animations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130531

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130628

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130801

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130808

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140324

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140523