JP2007500395A - Improved paint projection and paint projection apparatus - Google Patents

Improved paint projection and paint projection apparatus Download PDF

Info

Publication number
JP2007500395A
JP2007500395A JP2006521809A JP2006521809A JP2007500395A JP 2007500395 A JP2007500395 A JP 2007500395A JP 2006521809 A JP2006521809 A JP 2006521809A JP 2006521809 A JP2006521809 A JP 2006521809A JP 2007500395 A JP2007500395 A JP 2007500395A
Authority
JP
Japan
Prior art keywords
dimensional
view
dimensional object
image
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006521809A
Other languages
Japanese (ja)
Inventor
ハーン,トーマス
セイレ,リック
Original Assignee
ピクサー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピクサー filed Critical ピクサー
Publication of JP2007500395A publication Critical patent/JP2007500395A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/016Exploded view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

コンピュータシステム用の方法は、第1の形態で、3Dモデル(500)にポーズを取らせる処置、第1の形態で、3Dモデルの第1の2D(510)ビューを決定する処置、第2の形態(550)において、3Dモデルにポーズを取らせる処置、第2の形態で、3Dモデルの第2の2D(570)ビューを決定する処置、第1の2Dイメージを、3Dモデルの第1の2Dビューに関連づける処置、第2の2D(570)イメージを、3Dモデルの第2の2Dビューに関連づける処置、第1の2Dイメージと、3Dモデル用の第1の形態に応じて、第1の組のサーフェイス・パラメータを、第1の2Dビューに見える3Dモデルの曲面に関連づける処置、および、第2の2Dイメージと、3Dモデル用の第2の形態に応じて、第2の組のサーフェイス・パラメータを、第2の2Dビューに見える3Dモデルの曲面に関連づける処置を含む。
【選択図】図4
A method for a computer system includes, in a first form, a procedure for causing a 3D model (500) to pose, in a first form, a procedure for determining a first 2D (510) view of a 3D model, a second In form (550), a procedure that causes the 3D model to pose, in a second form, a process that determines a second 2D (570) view of the 3D model, a first 2D image, Depending on the treatment associated with the 2D view, the second 2D (570) image associated with the second 2D view of the 3D model, the first 2D image and the first form for the 3D model, the first Depending on the treatment that associates the set of surface parameters with the curved surface of the 3D model visible in the first 2D view, and the second 2D image and the second form for the 3D model, the second set of surfaces The Eisu parameters includes treatment associating the curved surface of the 3D model visible to the second 2D view.
[Selection] Figure 4

Description

本発明は、コンピュータ・アニメーションに関する。さらに具体的に言えば、本発明は、アニメーション・オブジェクトのサーフェイス・プロパティ(surface property)を指定するための改良された方法および装置に関する。   The present invention relates to computer animation. More specifically, the present invention relates to an improved method and apparatus for specifying the surface properties of an animation object.

数年間ずっと、映画製作者はしばしば、架空の生き物、夢見るような場所、空想的な事物にかかわる物語を語ろうとしてきた。そうするために、映画製作者は、この架空のものに「生気」を帯びさせるために、しばしばアニメーション手法を利用してきた。アニメーションにおける主要方針のうちの2つには、伝統的に、線描に基づくアニメーション手法と、ストップ・モーション・アニメーション手法があった。   For years, filmmakers have often tried to tell stories about fictional creatures, dreamy places, and fantasy things. To do so, filmmakers have often used animation techniques to “animate” this fictional one. Two of the main policies in animation have traditionally been line-based animation techniques and stop-motion animation techniques.

線描に基づくアニメーション手法は、ウォールトディズニーなどの映画製作者により、20世紀に改良されて、「白雪姫と7人の小人」や「Fantasia」(1940年)などの映画で利用された。このアニメーション手法は、一般に、アーティストに、アニメ・イメージを、透明媒体すなわちセル上に手書きする(または、ペイントする)ように求めた。次に、ペインティングの後で、それぞれのセルは、映画において、1つまたは複数のフレームとして、フィルム上に取り込まれるか、あるいは記録されることになる。   Animation methods based on line drawing were improved in the 20th century by filmmakers such as Walt Disney and used in movies such as “Snow White and the Seven Dwarfs” and “Fantasia” (1940). This animation technique generally required artists to hand-draw (or paint) an animated image on a transparent medium or cell. Next, after painting, each cell will be captured or recorded on film as one or more frames in the movie.

ストップ・モーションに基づくアニメーション手法は、一般に、小型のセット、小道具、キャラクタの構築を要求した。これらの映画製作者は、これらのセットを組み立てて、小道具を追加し、小型のキャラクタを、或るポーズ(pose)に置くことになる。アニメ製作者が、手はずをすべて整えた方法に満足した後で、フィルムの1つまたは複数のフレームが、その特定の配置構成について撮られることになる。ストップ・モーションに基づくアニメーション手法は、「キングコング」(1932年)などの映画向けに、Willis O’Brienなどの映画製作者により開発されたものである。その後、これらの手法は、「Mighty Joe Young」(1948年)や「Clash Of The Titans」(1981年)を含む映画向けに、Ray Harryhausenなどのアニメ製作者により改良された。   Animation techniques based on stop motion generally required the construction of small sets, props and characters. These filmmakers will assemble these sets, add props, and place small characters in a pose. After the animator is satisfied with the way everything is done, one or more frames of the film will be taken for that particular arrangement. An animation technique based on stop motion was developed by filmmakers such as Willis O'Brien for movies such as “King Kong” (1932). Later, these techniques were improved by animation producers such as Ray Harryhausen for movies including “Mighty Joe Young” (1948) and “Clash Of The Titans” (1981).

20世紀の末頃、コンピュータが広範に利用できるようになると、アニメ製作者は、アニメーション処理に役立てるように、コンピュータに頼り始めた。これは、コンピュータを使用して、例えば、イメージにペイントしたり、中間的なイメージを生成する(「トゥイーン(tweening)」)ことなどして、線描に基づくアニメーションを容易ならしめる処置を含んだ。これはまた、コンピュータを使用して、ストップ・モーション・アニメーション手法を増強する処置も含んだ。例えば、物理モデルが、コンピュータ・メモリ中のバーチャル・モデルで表現されて、操作されることもある。   Around the end of the 20th century, when computers became widely available, animation creators began to rely on computers to help with animation processing. This included procedures that facilitated drawing-based animation using a computer, for example, by painting on an image or generating an intermediate image ("tweening"). This also included using a computer to augment the stop motion animation technique. For example, a physical model may be represented and manipulated by a virtual model in computer memory.

コンピュータ支援アニメーション(CAA)業界における先駆的な企業の1つは、Pixar、dba Pixar Animation Studiosであった。長年にわたって、Pixarは、CAA用に特別設計されたコンピューティング・プラットフォームと、RenderMan(登録商標)として知られているアカデミー賞獲得のレンダリング・ソフトウェアを両方とも開発して、提供した。   One of the pioneering companies in the computer-aided animation (CAA) industry was Pixar, dba Pixar Animation Studios. Over the years, Pixar has developed and provided both a computing platform specifically designed for CAA and an Academy Award-winning rendering software known as RenderMan®.

長年にわたって、Pixarは、国内用にソフトウァア製品とソフトウェア環境も開発して、ユーザ(モデル製作者、モデラー)が、オブジェクトrig(object rig)を容易に定義できるようにし、また、ユーザ(アニメ製作者)が、これらのオブジェクトrigを容易にアニメートできるようにしてきた。このような現実の体験に基づいて、本発明の発明者は、オブジェクトの定義とアニメーション処理を容易ならしめるために、上記のソフトウァア製品とソフトウァア環境に追加的な機能が与えられるものと判断している。このような機能の1つには、オブジェクトのサーフェイス・プロパティの定義を容易ならしめる方法と装置がある。   Over the years, Pixar has also developed software products and software environments for domestic use, making it easy for users (model producers, modelers) to define object rigs and for users (animation producers). ) Has made it easy to animate these objects rig. Based on such an actual experience, the inventor of the present invention determines that additional functions are given to the above software products and software environment in order to facilitate the definition and animation processing of objects. Yes. One such function is a method and apparatus that facilitates the definition of object surface properties.

本発明の発明者は、サーフェイス・パラメータを1オブジェクトに指定するための改良された方法が必要となると判断している。   The inventors of the present invention have determined that an improved method for assigning surface parameters to an object is needed.

本発明は、コンピュータ・アニメーションに関する。さらに具体的に言えば、本発明は、オブジェクト、あるいはオブジェクトのうち、異なるポーズにある部分のサーフェイス・パラメータをユーザが指定できるようにする方法と装置に関する。   The present invention relates to computer animation. More specifically, the present invention relates to a method and apparatus that allows a user to specify surface parameters of an object or portions of an object that are in different poses.

本発明の実施態様は、三次元「ペインティング」を生成するプロセスを管理するのに役立てるために用いられる。実施態様は、複数のポーズの定義を制御し、ビュー(view)のレンダリングを管理し、曲面材料にテクスチャ情報を送る機構を提供し、テクスチャや他のデータファイル用のカタログ化(cataloging)とソース・コントロールを実現する。   Embodiments of the present invention are used to help manage the process of generating a three-dimensional “painting”. The implementation controls the definition of multiple poses, manages the rendering of views, provides a mechanism to send texture information to curved materials, cataloging and sources for textures and other data files・ Realize control.

本発明の実施態様では、ユーザは、事実上、従来の任意の二次元ペイント・プログラムを使用して、三次元オブジェクト上に「直接に」ペイントすることができる。一実施態様では、このペイント・プログラムは、「レイヤ(層)」を利用する。ある実施態様では、ユーザは、このオブジェクトの異なるビューに、いくつかの二次元ペインティング(例えば、オーバーレイ・イメージ)を行う。代表的なビューは、「前方」、「後方」などの向きのあるカメラである。本発明の実施態様では、このオブジェクト・モデルが、ただ1つの基準ポースで完全にペイントするのが難しすぎる場合に、ユーザは、複数の形態で、このオブジェクト・モデルに再びポーズを取らせることができる。さらに、ユーザは、この再びポーズを取らせたオブジェクトのビューのいくつかのオーバーレイ・イメージにもペイントすることができる。   In an embodiment of the present invention, the user can paint “directly” on a three-dimensional object using virtually any conventional two-dimensional paint program. In one embodiment, the paint program utilizes “layers”. In some implementations, the user performs several two-dimensional paintings (eg, overlay images) on different views of the object. A typical view is a camera with orientations such as “front” and “back”. In an embodiment of the invention, if the object model is too difficult to paint completely with only one reference port, the user can cause the object model to pose again in multiple forms. it can. In addition, the user can also paint on several overlay images of this re-posed object view.

本発明の実施態様の代表的なワークフローは、オブジェクト・モデルを、このシステムにロードすることと、異なる形態で、このオブジェクト・モデルにポーズを取らせることを含む。例えば、テーブルにペイントするためには、ユーザは、テーブルを定義する1つのポーズと、このテーブルの底面から遠ざかる方向にテーブルの脚を移動させることで、このモデルを「分解する(explode)」別のポーズを持つことがある。次に、このワークフローは、1つまたは複数のビューを生成するか、または定義して、異なるポーズにあるモデルにペイントする処置を含むことがある。   A typical workflow of an embodiment of the present invention includes loading an object model into the system and causing the object model to pose differently. For example, to paint on a table, the user can “explode” the model by moving the table leg in one pose that defines the table and moving away from the bottom of the table. May have a pose. The workflow may then include creating or defining one or more views and painting on the model in different poses.

様々な実施態様において、異なるポーズで、かつ、定義されたビューで、オブジェクトにレンダリング・パス(rendering pass)が行われる。このレンダリング・パスの結果は、一般に、レンダリングされたオブジェクトのビットマップ・イメージ、ビュー、およびレンダリングされた曲面の関連する奥行きマップ(depth map)である。このワークフローはまた、ユーザに、これらのレンダリングされたビットマップを二次元ペイント・プログラムにロードさせて、色、変位などを表わす1つまたは複数のパスをペイントさせる処置も含むことがある。   In various implementations, a rendering pass is made to an object at different poses and in a defined view. The result of this rendering pass is typically a bitmap image of the rendered object, a view, and an associated depth map of the rendered surface. This workflow may also include actions that cause the user to load these rendered bitmaps into a two-dimensional paint program to paint one or more passes representing colors, displacements, and the like.

後で、このシステムは、それぞれのオブジェクトを、それぞれのポーズで、それぞれのビューに平面投影(逆マップ)した結果をレンダリング時に計算して、その結果得られた、目に見えるあらゆる曲面地点の2D座標を保存する。面シェーダは、これらの保存された2D座標を使用して、パスごとに、2Dテクスチャ・マップなどのサーフェイス・パラメータを評価する。次に、このパス計算により戻された値を使用して、ペイントに影響される曲面に彩色するか、あるいは、これらの曲面を変位させるように、面シェーダに様々な効果をもたらす。他の実施態様では、透視図法などの非平面投影法が使用される。   Later, the system computes the result of planar projection (inverse map) of each object in each pose at each pose at render time, and the resulting 2D of every visible curved point. Save the coordinates. The surface shader uses these stored 2D coordinates to evaluate surface parameters such as a 2D texture map for each pass. The values returned by this pass calculation are then used to color the curved surfaces affected by the paint, or have various effects on the surface shader to displace these curved surfaces. In other embodiments, non-planar projection methods such as perspective are used.

実施態様では、この奥行きマップは、投影されたビューに対する最前の曲面だけが、確実に、このペイントを受け取れるように、平面投影段階処理の間に評価される。さらに、垂直であるか、あるいは、この投影ビューから遠い方に面している曲面上にペイントを投影しないようにするために、投影処理の間、曲面垂線を考慮に入れる。   In an embodiment, this depth map is evaluated during the planar projection stage process to ensure that only the foremost curved surface for the projected view receives this paint. In addition, surface perpendiculars are taken into account during the projection process to avoid projecting paint onto a surface that is vertical or that faces away from this projected view.

本発明の実施態様では、このオブジェクト・モデルのビューごとに、またポーズごとに、すべての投影パスを解明した後で、面シェーダは、その計算を終了する。その結果得られたレンダリングされたオブジェクト・モデルは、一般に、上述のポーズとは異なるポーズを取る。   In an embodiment of the invention, after resolving all projection paths for each view and for each pose of this object model, the surface shader finishes its calculation. The resulting rendered object model generally assumes a different pose than that described above.

様々な実施態様において、このレンダリングされたオブジェクト・モデルは、一般に、シーンに関連してレンダリングされて、このレンダリングされたシーンがメモリに保存される。後で、このレンダリングされたシーンは、一般に、メモリで検索されて、ユーザに表示される。様々な実施態様において、このメモリは、ハードディスク・ドライブ、RAM、DVD−ROM、CD−ROM、フィルム(薄膜)媒体、印刷媒体などである。   In various embodiments, the rendered object model is generally rendered in association with a scene, and the rendered scene is stored in memory. Later, this rendered scene is typically retrieved in memory and displayed to the user. In various embodiments, the memory is a hard disk drive, RAM, DVD-ROM, CD-ROM, film (thin film) media, print media, and the like.

上の説明により、本発明の実施態様から、ユーザは、アーティキュレーションされた三次元オブジェクト・モデルに、複数の形態でポーズを取らせて、複数のビューから投影されたペイントを受け取ることができる。これらの実施態様は、複数のテクスチャ・マップ、色などのようなサーフェイス・パラメータを、複雑な変形可能な三次元オブジェクト・モデルの曲面上に施す効率と有効性(効力)を向上させる。   From the above description, from an embodiment of the present invention, a user can have an articulated 3D object model pose in multiple forms and receive paint projected from multiple views. . These embodiments improve the efficiency and effectiveness of applying surface parameters, such as multiple texture maps, colors, etc., to the curved surface of complex deformable 3D object models.

本発明の実施態様の利点は、このオブジェクトの複数の観察位置と複数のポーズ形態から、どんな三次元オブジェクト・モデルにもユーザがペイントできるようにする機能を含む。複数のポーズ形態の概念により、ユーザは、このモデルを変形させるか、あるいは、さらに小さい部材に分解させる場合を除き、直接には近づけないかもしれないエリアにペイントできる。   Advantages of embodiments of the present invention include the ability to allow the user to paint on any 3D object model from multiple viewing positions and multiple pose forms of this object. The concept of multiple pose forms allows the user to paint on areas that may not be directly accessible except when the model is deformed or broken down into smaller pieces.

本発明の実施態様は、複数のビュー/ポーズを編成するため、また、その結果得られたテクスチャ・マップを、このオブジェクト上に戻して施すために、固有の手法を導入している。さらに具体的に言えば、これらの実施態様は、曲面の向き(垂線)と、この投影ビューからレンダリングされた奥行きマップを用いて、どの曲面がペイントを受け取るか選択的に制御する。   Embodiments of the present invention introduce a unique approach to organizing multiple views / poses and to apply the resulting texture map back onto this object. More specifically, these implementations selectively control which curved surface receives paint using the orientation (perpendicular) of the curved surface and the depth map rendered from this projection view.

本発明の一面により、コンピュータシステム用の方法が述べられる。一方法は、第1の形態で、三次元オブジェクト・モデルの少なくとも一部にポーズを取らせる処置、第1の形態にある間、三次元オブジェクト・モデルの上記少なくとも一部の第1の二次元ビューを決定する処置、第2の形態で、三次元オブジェクト・モデルの上記一部にポーズを取らせる処置、および、第2の形態にある間、三次元オブジェクト・モデルの上記一部の第2の二次元ビューを決定する処置を含む。様々な手法はまた、第1の二次元イメージを、三次元オブジェクト・モデルの上記少なくとも一部の第1の二次元ビューに関連づける処置と、第2の二次元イメージを、三次元オブジェクト・モデルの上記一部の第2の二次元ビューに関連づける処置も含む。このプロセスはまた、第1の二次元イメージに応じて、また、三次元オブジェクト・モデルの上記少なくとも一部用の第1の形態に応じて、第1の組のサーフェイス・パラメータを、第1の二次元ビューに見える三次元オブジェクト・モデルの上記少なくとも一部の曲面に関連づける処置と、第2の二次元イメージに応じて、また、三次元オブジェクト・モデルの上記一部用の第2の形態に応じて、第2の組のサーフェイス・パラメータを、第2の二次元ビューに見える三次元オブジェクト・モデルの上記一部の曲面に関連づける処置を含むことがある。   According to one aspect of the invention, a method for a computer system is described. One method is a procedure that, in the first form, causes at least a portion of the three-dimensional object model to pose, while in the first form, the first two-dimensional of the at least part of the three-dimensional object model. A procedure for determining a view, a procedure for causing the part of the three-dimensional object model to pose in a second form, and a second part of the part of the three-dimensional object model while in the second form. A procedure for determining a two-dimensional view of The various techniques also include a step of associating the first two-dimensional image with the first two-dimensional view of the at least part of the three-dimensional object model, and the second two-dimensional image with the three-dimensional object model. Also included is a procedure associated with the partial second 2D view. The process also determines a first set of surface parameters according to a first two-dimensional image and according to a first form for the at least part of the three-dimensional object model. A treatment associated with the at least part of the curved surface of the three-dimensional object model visible in the two-dimensional view, a second two-dimensional image, and a second form for the part of the three-dimensional object model In response, the second set of surface parameters may include a procedure relating the partial surface of the 3D object model visible in the second 2D view.

本発明の別の面により、プロセッサを含むコンピュータシステム用のコンピュータプログラム製品が述べられる。このコンピュータプログラム製品は、三次元オブジェクトの少なくとも一部用の第1の形態を受け入れるように、上記プロセッサに指示するコード、第1の形態にある三次元オブジェクトの上記少なくとも一部の曲面を露出させる第1の二次元イメージを決定するように、上記プロセッサに指示するコード、三次元オブジェクトの少なくとも一部用の第2の形態を受け入れるように、上記プロセッサに指示するコード、および、第2の形態にある三次元オブジェクトの上記少なくとも一部の曲面を露出させる第2の二次元イメージを決定するように、上記プロセッサに指示するコードを含む。追加のコンピュータ・コードは、第1の二次元イメージに関連づけられる第1の二次元ペイント・イメージを受け取るように、上記プロセッサに指示するコードと、第2の二次元イメージに関連づけられる第2の二次元ペイント・イメージを受け取るように、上記プロセッサに指示するコードを含むことがある。このコードはまた、第1の形態にある三次元オブジェクトの上記少なくとも一部の曲面に関連づけられる第1のグループのパラメータを、第1の二次元ペイント・イメージに応じて決定するように、上記プロセッサに指示するコードと、第2の形態にある三次元オブジェクトの上記少なくとも一部の曲面に関連づけられる第2のグループのパラメータを、第2の二次元ペイント・イメージに応じて決定するように、上記プロセッサに指示するコードを含む。これらのコードは、有形の媒体上に、機械が読取り可能か、または人間が読取り可能なコードを含む。代表的な媒体には、磁気ディスク、光ディスクなどがある。   According to another aspect of the invention, a computer program product for a computer system including a processor is described. The computer program product exposes code for instructing the processor to accept a first form for at least a portion of a three-dimensional object, and at least a curved surface of the three-dimensional object in the first form. Code for instructing the processor to determine a first two-dimensional image, code for instructing the processor to accept a second configuration for at least a portion of the three-dimensional object, and a second configuration Code for instructing the processor to determine a second two-dimensional image exposing the at least part of the curved surface of the three-dimensional object in The additional computer code includes code for instructing the processor to receive a first two-dimensional paint image associated with the first two-dimensional image and a second second associated with the second two-dimensional image. May include code that instructs the processor to receive a dimensional paint image. The code also includes the processor to determine a first group of parameters associated with the at least some curved surface of the three-dimensional object in the first form as a function of the first two-dimensional paint image. And determining a second group of parameters associated with the at least part of the curved surface of the three-dimensional object in the second form in accordance with a second two-dimensional paint image. Contains code that instructs the processor. These codes include machine readable or human readable code on tangible media. Typical media include magnetic disks and optical disks.

本発明のさらに他の面にしたがって、コンピュータシステムが述べられる。このコンピュータシステムは、一般に、ディスプレイ、メモリ、プロセッサを含む。或るコンピュータシステムでは、メモリは、三次元オブジェクトのモデル、この三次元オブジェクト用の第1のポーズと第2のポーズ、第1の二次元イメージと第2の二次元イメージ、および、この三次元オブジェクトの曲面に関連づけられる面シェーディング・パラメータを保存するように構成されている。このコンピュータシステムでは、プロセッサは、一般に、第1のポーズにある三次元オブジェクトの第1のビューをディスプレイに出力するように構成され、また、第2のポーズにある三次元オブジェクトの第2のビューをディスプレイに出力するように構成され、さらに、第1の二次元イメージを受け取り、また第2の二次元イメージを受け取るように構成されている。このプロセッサはまた、三次元オブジェクトの第1のビューに応じて、また、第1の二次元イメージに応じて、三次元オブジェクトの曲面に関連づけられる第1の組のサーフェイス・パラメータを決定するように構成され、かつ、三次元オブジェクトの第2のビューに応じて、また、第2の二次元イメージに応じて、三次元オブジェクトの追加曲面に関連づけられる第2の組のサーフェイス・パラメータを決定するように構成されている。   In accordance with yet another aspect of the invention, a computer system is described. The computer system generally includes a display, a memory, and a processor. In some computer systems, the memory includes a model of a 3D object, a first pose and a second pose for the 3D object, a first 2D image and a second 2D image, and the 3D It is configured to store surface shading parameters associated with the curved surface of the object. In this computer system, the processor is generally configured to output a first view of the three-dimensional object in the first pose to the display, and a second view of the three-dimensional object in the second pose. Are further output to the display, and are further configured to receive a first two-dimensional image and a second two-dimensional image. The processor also determines a first set of surface parameters associated with the curved surface of the three-dimensional object in response to the first view of the three-dimensional object and in response to the first two-dimensional image. Determining and determining a second set of surface parameters associated with the additional surface of the three-dimensional object in response to the second view of the three-dimensional object and according to the second two-dimensional image. It is configured.

本発明をさらに充分に理解するために、添付図面を参照する。これらの図面は、本発明の範囲を制限するとは考えられないと理解した上で、現在述べられている実施態様や、現在了解されている本発明の最良の態様が、以下の添付図面を使用して、さらに詳しく述べられる。   For a more complete understanding of the present invention, reference is made to the accompanying drawings. While these drawings are understood not to limit the scope of the present invention, the presently described embodiments and the best mode of the present invention as currently understood will be described with reference to the following accompanying drawings. And will be described in more detail.

以下の特許開示では、次の用語が用いられている。   The following terms are used in the following patent disclosures:

「Gprim(幾何学的プリミティブ)」。パラメトリック関数(Bspline)により、また、任意数の面(多角形)、もしくは、それらに類するものに編成された三次元点の集まりにより定義されたただ1つの三次元曲面。   “Gprim (geometric primitive)”. A single 3D curved surface defined by a parametric function (Bspline) and by a collection of 3D points organized into any number of faces (polygons) or the like.

「モデル(オブジェクト・モデル)」。任意数の面(ポリゴン・メッシュと細分化曲面)、陰関数(implicit)曲面、もしくはそれらに類するものに編成されたGprimの集まり。このシステムは、その機能を果たすために、2D曲面をパラメータで表わす必要はない。   "Model (object model)". A collection of Gprims organized into any number of surfaces (polygon mesh and subdivided surface), implicit surface, or the like. This system does not have to represent the 2D surface with parameters in order to perform its function.

「ビュー(view)」。特定の観察位置からモデルのイメージを生成できる正射影または透視画法のカメラ。   “View”. An orthographic or perspective camera that can generate an image of the model from a specific viewing position.

「ポーズ(pose)」。モデルの階層内での特定の厳正な変形と、モデルのGprimの特定形態の点から、そのモデルの状態。ポーズはまた、1つまたは複数のビューの状態も表わす。   “Pose”. The state of the model in terms of a specific exact transformation within the model hierarchy and the specific form of the model's Gprim. A pose also represents the state of one or more views.

ポーズは、一般に、モデルと、すべてのビュー・カメラの双方の位置と向きを含む。本発明の実施形態では、ポーズは、オブジェクト・モデル内の2つ以上のオブジェクトの特定の形態または向きを指定する。例えば、ポーズは、2つのオブジェクトが、互いに特定の間隔にあること、あるいは、2つのオブジェクトが、互いに特定の角度をなしていること、もしくは、それらに類することを指定するかもしれない。オブジェクトの異なるポーズの例は、以下に図示される。   The pose generally includes the position and orientation of both the model and all view cameras. In an embodiment of the invention, a pose specifies a particular form or orientation of two or more objects in the object model. For example, a pose may specify that two objects are at a specific distance from each other, or that two objects are at a specific angle to each other, or similar. Examples of different poses of objects are illustrated below.

キャラクタが位置づけられるときはいつでも、その位置は、一般に、指定されたポーズとして保存され、したがって、後で、そのシステムとユーザが、その位置を参照することができる。ユーザは、このモデルの位置を変えて、新たなカメラ・ビューを確立した後で、新たなポーズを保存する。特定のビューにおいて生成されるペインティング(オーバーレイ・イメージ)は、カメラの位置と向きと密接に結び付けられている。   Whenever a character is positioned, the position is generally saved as a specified pose so that the system and user can later reference the position. The user changes the position of the model and establishes a new camera view and then saves the new pose. The painting (overlay image) generated in a particular view is closely tied to the position and orientation of the camera.

「パス(pass)」。ペインティングのタイプ、例えば、パスに用いられることになっているカラー・チャネルの数とともに、「色」または「変位」。その名前は、シェーダ内で一組のペインティングを参照するのに利用するハンドルを与える。一般に、それらの名前は任意である。   “Pass”. “Color” or “Displacement” along with the type of painting, eg, the number of color channels that are to be used in the path. The name gives a handle that is used to refer to a set of paintings in the shader. In general, their names are arbitrary.

図1は、本発明の一実施形態による代表的なコンピュータシステム100のブロック図である。   FIG. 1 is a block diagram of an exemplary computer system 100 according to one embodiment of the invention.

この実施形態では、コンピュータシステム100は、一般に、モニタ110、コンピュータ120、キーボード130、ユーザ入力装置140、ネットワーク・インターフェース150などを含む。   In this embodiment, the computer system 100 generally includes a monitor 110, a computer 120, a keyboard 130, a user input device 140, a network interface 150, and the like.

この実施形態では、ユーザ入力装置140は、一般に、コンピュータ・マウス、トラックボール、トラックパッド、無線リモコン、描画タブレット、ディスプレイ・タブレット統合装置(例えば、WacomによるCintiq)、ボイス・コマンド・システム、アイ・トラッキング・システムなどとして具現される。ユーザ入力装置140は、一般に、ユーザに、モニタ110に表示されるオブジェクト、アイコン、テキストなどを選択できるようにする。   In this embodiment, the user input device 140 is typically a computer mouse, trackball, trackpad, wireless remote control, drawing tablet, display tablet integration device (eg, Cintiq by Wacom), voice command system, eye It is embodied as a tracking system. The user input device 140 generally allows the user to select objects, icons, text, etc. displayed on the monitor 110.

ネットワーク・インターフェース150の実施形態は、一般に、イーサネット(登録商標)・カード、モデム(電話、衛星、ケーブル、ISDN)(非同期)ディジタル加入者線(DSL)ユニットなどを含む。ネットワーク・インターフェース150は、一般に、図示されるように、コンピュータ・ネットワークに結合されている。他の実施形態では、ネットワーク・インターフェース150は、コンピュータ120のマザーボード上に物理的に統合されるか、ソフトDSLなどのソフトウェア・プログラムであるか、あるいは、それらに類するものであるかもしれない。   Embodiments of the network interface 150 generally include an Ethernet card, a modem (telephone, satellite, cable, ISDN) (asynchronous) digital subscriber line (DSL) unit, and the like. Network interface 150 is typically coupled to a computer network, as shown. In other embodiments, the network interface 150 may be physically integrated on the motherboard of the computer 120, may be a software program such as soft DSL, or the like.

コンピュータ120は、一般に、プロセッサ160と、ランダム・アクセス・メモリ(RAM)170、ディスク・ドライブ180などのメモリ記憶装置のようなおなじみのコンピュータ構成要素と、これらのコンピュータ構成要素を相互接続するシステムバス190を含む。   The computer 120 typically includes a processor 160, familiar computer components such as random access memory (RAM) 170, disk storage devices such as disk drives 180, and a system bus that interconnects these computer components. 190 is included.

一実施形態では、コンピュータ120は、Intel CorporationからのPentiumIV(商標)マイクロプロセッサまたはXeon(商標)マイクロプロセッサなどの1つまたは複数のマイクロプロセッサを持つPC対応のコンピュータである。さらに、この実施形態では、コンピュータ120は、一般に、LINUXベースのオペレーティングシステムも含む。   In one embodiment, the computer 120 is a PC-compatible computer having one or more microprocessors, such as a Pentium IV ™ or Xeon ™ microprocessor from Intel Corporation. Further, in this embodiment, computer 120 typically also includes a LINUX-based operating system.

RAM170とディスクドライブ180は、データ、オーディオ/ビデオ・ファイル、コンピュータ・プログラム、シーン記述子(ディスクリプタ)ファイル、オブジェクト・データ・ファイル、オーバーレイ・イメージ、奥行きマップ、シェーダ記述子、レンダリング・エンジン、シェーディング・エンジン、出力イメージ・ファイル、テクスチャ・マップ、変位マップ、ペインティング環境、オブジェクト生成環境、アニメーション環境、面シェーディング環境、アセット管理システム、データベースとデータベース管理システムなどを格納するための有形の媒体の例である。他のタイプの有形の媒体には、フロッピー(登録商標)ディスク、リムーバブル・ハードディスク、CD−ROM、DVD、バーコードなどの光記憶媒体、フラッシュ・メモリ、リード・オンリー・メモリ(ROM)、バッテリでバックアップされた揮発性メモリ、ネットワーク上記憶装置のような半導体メモリなどがある。   The RAM 170 and the disk drive 180 include data, audio / video files, computer programs, scene descriptor files, object data files, overlay images, depth maps, shader descriptors, rendering engines, shading Examples of tangible media for storing engines, output image files, texture maps, displacement maps, painting environments, object generation environments, animation environments, surface shading environments, asset management systems, databases and database management systems, etc. is there. Other types of tangible media include floppy disks, removable hard disks, CD-ROMs, DVDs, barcodes and other optical storage media, flash memory, read only memory (ROM), and batteries. There are backed up volatile memory, semiconductor memory such as a storage device on a network, and the like.

この実施形態では、コンピュータシステム100はまた、HTTPプロトコル、TCP/IPプロトコル、RTP/RTSPプロトコルなどのように、ネットワーク上でやり取りできるようにするソフトウェアも含む。本発明の代替実施形態では、他の通信ソフトウェアとファイル転送プロトコル、例えば、IPX、UDPなども使用することがある。   In this embodiment, the computer system 100 also includes software that enables communication over a network, such as the HTTP protocol, TCP / IP protocol, RTP / RTSP protocol, and the like. Alternative embodiments of the present invention may also use other communication software and file transfer protocols such as IPX, UDP, etc.

図1は、本発明を実施できるコンピュータ・レンダリング・システムを表わしている。通常の当業者であれば、他の多くのハードウェア構成やソフトウェア構成も、本発明への使用に適切であることがすぐに明らかになろう。例えば、このコンピュータは、デスクトップ構成、携帯構成、ラック・マウント構成、またはタブレット構成であってもよい。さらに、Pentium(商標)マイクロプロセッサまたはItanium(商標)マイクロプロセッサ、Advanced Micro Divices,Inc.からのOpteron(商標)マイクロプロセッサまたはAthlonXP(商標)マイクロプロセッサ、Motorola,Inc.からのPowerPC G4(商標)マイクロプロセッサ、G5(商標)マイクロプロセッサなどのような他のマイクロプロセッサの使用も考えられる。さらに、Microsoft CorporationからのWindowsXP(登録商標)、WindowsNT(登録商標)などのWindows(登録商標)オペレーティングシステム、Sun MicrosystemsからのSolaris、Apple Computer CorporationからのLINUX、UNIX(登録商標)、MAC OSなどのような他のタイプのオペレーティングシステムも考えられる。   FIG. 1 represents a computer rendering system in which the present invention can be implemented. Those of ordinary skill in the art will readily appreciate that many other hardware and software configurations are suitable for use with the present invention. For example, the computer may be a desktop configuration, a portable configuration, a rack mount configuration, or a tablet configuration. In addition, the Pentium ™ or Itanium ™ microprocessor, Advanced Micro Devices, Inc. An Opteron ™ or AthlonXP ™ microprocessor from Motorola, Inc. The use of other microprocessors such as PowerPC G4 ™ microprocessor, G5 ™ microprocessor, etc. is also conceivable. In addition, Windows® (registered trademark) such as Windows XP (registered trademark) from Microsoft Corporation, Windows NT (registered trademark) operating system, Solaris from Sun Microsystems, LINUX (registered trademark) from Apple Computer Corporation, UNIX (registered trademark), UNIX®, etc. Other types of operating systems are also conceivable.

図2は、本発明の一実施形態のブロック図を示している。具体的に言えば、図2は、アニメーション環境200、オブジェクト生成環境210、記憶システム220を示している。   FIG. 2 shows a block diagram of one embodiment of the present invention. Specifically, FIG. 2 shows an animation environment 200, an object generation environment 210, and a storage system 220.

この実施形態では、オブジェクト生成環境210は、アーマチュアとrigを含むオブジェクトのアーティキュレーション・モデルをユーザ(モデル製作者)が指定できるようにする環境である。この環境内では、ユーザは、オブジェクトのモデルを生成し(手操作で、手続きに従ってなど)、アニメーション変数(Avars)に対して、これらのオブジェクトが、どのようにアーティキュレーションするのか指定できる。特定の一実施形態では、オブジェクト生成環境210は、「Gepetto」として知られているPixar独自仕様のオブジェクト生成環境である。他の実施形態では、他のタイプのオブジェクト生成環境が使用できる。   In this embodiment, the object generation environment 210 is an environment that allows a user (model producer) to specify an articulation model of an object including an armature and a rig. Within this environment, the user can generate models of objects (manually, according to procedures, etc.) and specify how these objects articulate against animation variables (Avars). In one particular embodiment, the object creation environment 210 is a Pixar proprietary object creation environment known as “Gipeto”. In other embodiments, other types of object generation environments can be used.

この実施形態では、ユーザ(シェーダ)が、オブジェクト生成環境210も使用して、これらのオブジェクト・モデルのサーフェイス・パラメータを指定する。以下に述べられるように、ユーザが、ペインティングを通じて、これらのオブジェクト・モデルの曲面にパラメータを割り当てられるようにする環境が、オブジェクト生成環境210内で、あるいは、別個に提供されることがある。様々な実施形態において、これらのサーフェイス・パラメータには、カラーデータ、テクスチャ・マッピング・データ、変位データなどがある。これらのサーフェイス・パラメータは、一般に、シーン内で、このオブジェクトをレンダリングするのに使用される。   In this embodiment, the user (shader) also uses the object generation environment 210 to specify the surface parameters of these object models. As described below, an environment that allows a user to assign parameters to the surfaces of these object models through painting may be provided within the object generation environment 210 or separately. In various embodiments, these surface parameters include color data, texture mapping data, displacement data, and the like. These surface parameters are typically used to render this object in the scene.

本発明の実施形態では、この環境により、ユーザは、このオブジェクト・モデルに対して、ポーズを定義することができる。さらに、この環境により、ユーザは、異なるポーズにあるオブジェクト・モデルのビューをレンダリングすることができる。この環境はまた、この機構を提供して、標準オブジェクト形態にて陰影を付けて、レンダリングしながら、「基準」ポーズ(Prefとしても知られている)への平面投影(奥行きマップと曲面垂線の使用が可能である)を実行し、また、以下に述べられるように、異なるビュー、異なるポーズ、異なるペイント・データ、異なるサーフェイス・パラメータ・データなどの間での関連づけを維持する。   In an embodiment of the invention, this environment allows the user to define a pose for this object model. In addition, this environment allows the user to render views of the object model in different poses. This environment also provides this mechanism to create a flat projection (depth map and surface normal to a “reference” pose (also known as Pref) while shading and rendering in standard object form. And maintain associations between different views, different poses, different paint data, different surface parameter data, etc., as described below.

この実施形態では、オブジェクト生成環境210を用いて生成されるオブジェクト・モデルは、アニメーション環境20でも使用できる。一般に、オブジェクト・モデルは、階層的に構築される。オブジェクト・モデルを構築する階層性は、役に立つ。なぜなら、一般に、異なるユーザ(モデル製作者)には、異なるモデルを生成するタスクが割り当てられるからである。例えば、或るモデル製作者には、ハンド・モデル290を生成するタスクが割り当てられ、また、別のモデル製作者には、下方腕のモデル280を生成するタスクが割り当てられるといった具合である。   In this embodiment, the object model generated using the object generation environment 210 can also be used in the animation environment 20. In general, an object model is built hierarchically. The hierarchy of building the object model is useful. This is because, in general, different users (model producers) are assigned tasks for generating different models. For example, one model maker is assigned the task of generating the hand model 290, and another model maker is assigned the task of generating the lower arm model 280.

この実施形態では、アニメーション環境200は、アニメーション変数(Avars)を通じて、オブジェクトのアーティキュレーション・モデルをユーザ(アニメ製作者)が操作できるようにする環境である。一実施形態では、アニメーション環境200は、Pixar独自仕様のアニメーション環境(「Men V」として知られている)である。ただし、他の実施形態では、他のアニメーション環境も適応させることもできる。この実施形態では、アニメーション環境200により、アニメ製作者は、これらのオブジェクト・モデル(包括的rig)中に与えられたAvarsを操作し、また、時間に関して、これらのオブジェクトを動かす(すなわち、オブジェクトをアニメートする)ことができる。   In this embodiment, the animation environment 200 is an environment that allows a user (animation creator) to manipulate an articulation model of an object through animation variables (Avars). In one embodiment, the animation environment 200 is a Pixar proprietary animation environment (known as “Men V”). However, in other embodiments, other animation environments can be adapted. In this embodiment, the animation environment 200 allows an animator to manipulate the Avars provided in these object models (inclusive rigs) and move these objects with respect to time (ie, move the objects Animate).

本発明の他の実施形態では、アニメーション環境200とオブジェクト生成環境210を組み合わせて、1つの統合環境を形成することがある。   In other embodiments of the present invention, the animation environment 200 and the object generation environment 210 may be combined to form a single integrated environment.

図2では、記憶システム220は、オブジェクトのアーティキュレーション・モデルにアクセスする、編成された繰返し可能な任意のやり方を含む。例えば、一実施形態では、記憶システム220は、ローカル・ドライブまたはネットワーク・ドライブ上に単純なフラット・ディレクトリ(flat-directory)構造を含む。他の実施形態では、記憶システム220は、アセット管理システム、またはデータベースに結び付けられているデータベース・アクセス・システム、もしくは、それらに類するものである。一実施形態では、記憶システム220は、アニメーション環境200とオブジェクト生成環境210から、オブジェクト・モデルへの参照データを受け取る。返事として、記憶システム220は、ここに保存されているオブジェクト・モデルを提供する。記憶システム220はまた、一般に、本明細書に説明されているサーフェイス・シェーディング・パラメータ、オーバーレイ・イメージ、奥行きマップなども保存する。   In FIG. 2, storage system 220 includes any organized and repeatable way of accessing an articulation model of an object. For example, in one embodiment, the storage system 220 includes a simple flat-directory structure on a local or network drive. In other embodiments, the storage system 220 is an asset management system, or a database access system tied to a database, or the like. In one embodiment, storage system 220 receives reference data to the object model from animation environment 200 and object generation environment 210. In return, the storage system 220 provides the object model stored here. The storage system 220 also generally stores surface shading parameters, overlay images, depth maps, etc. as described herein.

従来は、Pixarのオブジェクト生成環境により、ユーザは、特定の形態(ポーズ)にて、複数のビューから、1オブジェクト・モデル上にイメージ(テクスチャ)をペイントし、投影することができた。しかしながら、本発明の発明者は、このオブジェクト生成環境が、異なるポーズにあるオブジェクトのビューをサポートしないことと、ただ1つのポーズにある複雑な三次元モデル上にテクスチャを施すことが難しいことがわかった。   Conventionally, the Pixar object generation environment allows a user to paint and project an image (texture) on a single object model from a plurality of views in a specific form (pose). However, the inventors of the present invention have found that this object generation environment does not support the view of objects in different poses and it is difficult to texture on complex 3D models in a single pose. It was.

図3A〜図3Bは、本発明の一実施形態によるフロー・プロセスを示している。最初に、三次元オブジェクト・モデルを提供する(ステップ300)。一般に、一人または複数人のユーザ(オブジェクト・モデル製作者)は、オブジェクト生成環境を通じて、1つまたは複数のオブジェクトの幾何学的表現を指定する。これらのオブジェクトをいっしょに組み合わせて、さらに大きいオブジェクトのモデルを形成する。この実施形態では、このモデル製作者は、Gepettoなどのようなオブジェクト生成環境を使用することがある。   3A-3B illustrate a flow process according to one embodiment of the present invention. Initially, a three-dimensional object model is provided (step 300). In general, one or more users (object model producers) specify geometric representations of one or more objects through an object generation environment. These objects are combined together to form a larger object model. In this embodiment, the modeler may use an object generation environment such as Gepetto.

次に、この実施形態では、ほかのユーザが、これらのオブジェクトの曲面がどのように表示されるべきか指定する。例えば、このようなユーザ(シェーダ)は、基本色、スクラッチ、ほこり、変位マップ、ざらざらと明るさ(ハイライト)のマップ、透明度、材料制御(control over material)タイプなどの、オブジェクトの曲面効果をいくつでも指定する。そうするために、ユーザは、三次元オブジェクト・モデルを得て、初期ポーズを指定する(ステップ310)。他の実施形態では、オブジェクトがデフォルト・ポーズを持つときに、このステップを特定的に実行する必要はない。例えば、自動車などのキャラクタ用のオブジェクト・モデルは、そのドアを閉めた状態のデフォルト・ポーズを持つことがある。同時に、ユーザは、一般に、1つまたは複数のビュー・カメラ位置を指定する。他の実施形態では、オブジェクトごとに、いくつかのデフォルト・カメラを使用できる。例えば、様々な実施形態において、一般に指定される投影ビューは、上面ビュー、左側面ビュー、右側面ビュー、底面ビューなどを含む。さらに、カメラは、斜めビュー、もしくはそれに類するビューであってもよい。投影ビューは、平面であるだけでなく、非平面で、かつ射影的でもあってもよい。例として、曲線状プロジェクタ(curved projector)が、イメージを曲面上にマッピングする場合には、透視図法が考えられる。   Next, in this embodiment, other users specify how the curved surfaces of these objects should be displayed. For example, these users (shaders) can create object surface effects such as basic colors, scratches, dust, displacement maps, rough and bright maps, transparency, and control over material types. Specify any number. To do so, the user obtains a 3D object model and specifies an initial pose (step 310). In other embodiments, this step need not be specifically performed when the object has a default pose. For example, an object model for a character such as a car may have a default pose with its door closed. At the same time, the user typically specifies one or more view camera positions. In other embodiments, several default cameras can be used for each object. For example, in various embodiments, commonly designated projection views include a top view, a left side view, a right side view, a bottom view, and the like. Further, the camera may be a diagonal view or a similar view. A projected view is not only planar, but may also be non-planar and projective. As an example, if a curved projector maps an image onto a curved surface, a perspective method can be considered.

次に、この実施形態において、このコンピュータシステムは、第1のポーズにある三次元オブジェクトの二次元ビューをレンダリングする(ステップ320)。さらに具体的には、このシステムは、このオブジェクト・モデル、このポーズ、ビュー・カメラ・データを用いて、それぞれのビューをレンダリングする。様々な実施形態において、このレンダリング・パスは、PixarのRenderman製品などのレンダリング・プログラムによる高品質のレンダリングでよい。他の実施形態では、このレンダリング/シェーディング処理は、GLおよびGPUのハードウェアや、ソフトウェアのレンダラーなどの低品質のレンダリング処理を用いて実行できる。   Next, in this embodiment, the computer system renders a 2D view of the 3D object in the first pose (step 320). More specifically, the system renders each view using the object model, the pose, and view camera data. In various embodiments, this rendering pass may be a high quality rendering by a rendering program such as Pixar's Renderman product. In other embodiments, this rendering / shading process can be performed using low quality rendering processes such as GL and GPU hardware, software renderers, and the like.

様々な実施形態において、それぞれのレンダリングされたビューは、個々のビュー・イメージ・ファイルとして保存するか、あるいは、組み合わせて、さらに大きいファイルを形成する。それぞれのレンダリングされたビューとともに、平面投影機能を利用できる奥行きマップも生成する。   In various embodiments, each rendered view is saved as an individual view image file or combined to form a larger file. Along with each rendered view, a depth map is also generated that can utilize the planar projection function.

この実施形態において、このシステムは、このオブジェクトの1つまたは複数のレンダリングされたビューを表示する(ステップ330)。本発明の実施形態では、このステップは、ユーザが、ピクセル値を二次元イメージ上にグラフィカルに割り当てられるようにするユーザ環境において行われる。一般に、このような環境は、「ペイント(paint)」機能を含むと呼ばれる。一実施形態では、この1つまたは複数のビューは、同時に、ユーザに表示できる。   In this embodiment, the system displays one or more rendered views of the object (step 330). In an embodiment of the invention, this step is performed in a user environment that allows the user to graphically assign pixel values onto a two-dimensional image. Generally, such an environment is referred to as including a “paint” function. In one embodiment, the one or more views can be displayed to the user simultaneously.

次に、実施形態において、ユーザは、このオブジェクトのビューとともに、ピクセル値を割り当てる(ステップ340)。一実施形態では、ユーザは、このオブジェクトの「上」にグラフィカルにペイントすることで、この処置を実行する。このペインティングは、子供がお絵かきをするか、あるいは、塗り絵の本に描かれているイメージに色を着けることに似ている。例えば、ユーザは、オーバーレイ層、もしくはそれに類するものを用いて、オブジェクトのビュー上に、異なるブラシを施す。本明細書では、「層」に類似する機構の使用が考えられる。この実施形態では、これらの異なるブラシは、1つまたは複数のグレースケール値、1つまたは複数の色などを持つことがある。   Next, in an embodiment, the user assigns a pixel value along with a view of this object (step 340). In one embodiment, the user performs this procedure by graphically painting “on” the object. This painting is similar to a child drawing or coloring an image drawn in a coloring book. For example, the user applies different brushes on the object's view using an overlay layer or the like. The use of a mechanism similar to “layer” is contemplated herein. In this embodiment, these different brushes may have one or more gray scale values, one or more colors, and so on.

一例として、ユーザは、細い黒色ブラシを使用して、このビューのオーバーレイ層にクラック・タイプのパターンを描くことがある。別の例では、ユーザは、スプレーペイント・タイプのブラシを使用して、このビューのオーバーレイ層中の選択された部分を濃くすることがある。さらに他の例では、ユーザは、ペイントブラシを使用して、このビューのオーバーレイ層に着色することがある。さらに他の実施形態では、オーバーレイ層イメージを指定する他のやり方、例えば、このイメージへの1つまたは複数の勾配(gradient)の適用、オーバーレイ層イメージの指定部分に限定される操作(例えば、選択)の適用、オーバーレイ層イメージへの1つまたは複数のイメージの組込み(例えば、decal層(decal layer))なども考えられる。   As an example, a user may use a thin black brush to draw a crack type pattern in the overlay layer of this view. In another example, the user may use a spray paint type brush to darken selected portions in the overlay layer of this view. In yet another example, the user may use a paint brush to color the overlay layer of this view. In still other embodiments, other ways of specifying an overlay layer image, such as applying one or more gradients to the image, operations limited to specified portions of the overlay layer image (eg, selection) ), The incorporation of one or more images into the overlay layer image (e.g., a decal layer), and the like.

次に、この実施形態では、それぞれのビューに対するオーバーレイ層イメージを保存する(ステップ350)。様々な例では、これらのオーバーレイ層イメージを、この二次元ビューとは別で、かつ識別可能なファイルに保存する。他の実施形態では、このオーバーレイ層イメージを、この二次元ビューのレイヤ、もしくは、それらに類するものに保存する。様々な実施形態において、このオーバーレイ層イメージを含むファイルはまた、ステップ310において定義されるポーズ、および、ステップ320、ステップ360において決定される奥行きマップにも関連づけられる。   Next, in this embodiment, an overlay layer image for each view is saved (step 350). In various examples, these overlay layer images are stored separately from the two-dimensional view and in an identifiable file. In other embodiments, the overlay layer image is stored in the layer of the two-dimensional view or the like. In various embodiments, the file containing this overlay layer image is also associated with the pose defined at step 310 and the depth map determined at step 320, step 360.

この実施形態では、ユーザは、第2のポーズにある三次元オブジェクトに再びポーズを取らせることに決める(ステップ370)。次に、上述のプロセスを繰り返す。様々な実施形態において、この三次元オブジェクトに再びポーズを取らせ、1つまたは複数のビューと、そのビューの上にペイントする奥行きマップなどを生成する処理を、ユーザが必要とみなすだけの数のポーズに対して、繰り返すことができる。一例として、キャラクタのオブジェクトでは、或るポーズは、口を開け、かつ腕を上げたキャラクタであり、また、別のポーズは、口を閉じて、かつ腕を下ろしたキャラクタであることもある。別の例として、折畳み式テーブルでは、或るポーズは、広げられた折畳み式テーブルであり、また、別のポーズは、脚を、テーブル上面板から「分解」すなわち分離した折畳み式テーブルであることもある。   In this embodiment, the user decides to have the 3D object in the second pose pose again (step 370). The above process is then repeated. In various embodiments, the three-dimensional object is re-paused to generate as many processes as the user deems necessary to generate one or more views and depth maps to paint on the views. It can be repeated for a pose. As an example, in a character object, a certain pose may be a character with an open mouth and arms raised, and another pose may be a character with a mouth closed and arms lowered. As another example, in a folding table, one pose is an unfolded folding table, and another pose is a folding table in which the legs are “disassembled” or separated from the table top plate. There is also.

本発明のいくつかの実施形態では、ユーザは、スクリーン上に、この三次元オブジェクトの異なるポーズから得られたビューを同時に見ることがある。よって、上述の見て、ペイントする処理は、一度に、このオブジェクトの1つのポーズに基づいてのみ、実行する必要はない。さらに、ユーザは、同一セッションにおいて、異なるポーズから、このオブジェクトのビューの上にペイントすることがある。例えば、キャラクタが口を開けたポーズを取る場合には、ユーザは、キャラクタの口を示すビュー上のレイヤに白色をペイントし、次に、ユーザは、キャラクタの髪を示すビューのレイヤに黒色をペイントし、次に、ユーザは、キャラクタの口を示すビュー上のレイヤに白色の別のシェード(陰影)を再びペイントすることがある。   In some embodiments of the present invention, the user may simultaneously view on the screen views obtained from different poses of this three-dimensional object. Thus, as seen above, the painting process need not be performed only based on one pose of this object at a time. In addition, the user may paint on the view of this object from different poses in the same session. For example, if a character poses with an open mouth, the user paints white on the layer on the view that shows the character's mouth, and then the user turns black on the layer on the view that shows the character's hair. Paint, and then the user may repaint another white shade on the layer on the view that shows the character's mouth.

この実施形態では、次のステップは、第1のポーズにある三次元オブジェクトのそれぞれのビュー上にペイントされた値を、この三次元オブジェクトに戻して関連づけることである(ステップ380)。さらに具体的に言えば、三次元オブジェクトのそれぞれのビューは、一般に、第1のポーズにある三次元オブジェクトの曲面を二次元に投影したものである。よって、このオーバーレイ・イメージにより「ペイントされる」ように思われる部分は、関連する奥行きマップを用いて、この三次元オブジェクトに戻して、投影される。このような機能が有効になる。なぜなら、このシステムは、三次元オブジェクトのオーバーレイ・イメージ、ビュー、ポーズの間で連係を維持するからである。レンダリングされたビューが複数ある場合には、このペイントは、レンダリングされたビューごとに、第1のポーズにある三次元オブジェクトに戻して、投影される。   In this embodiment, the next step is to associate the values painted on each view of the three-dimensional object in the first pose back to the three-dimensional object (step 380). More specifically, each view of a three-dimensional object is generally a two-dimensional projection of the curved surface of the three-dimensional object in the first pose. Thus, the portion that appears to be “painted” by the overlay image is projected back to the 3D object using the associated depth map. Such a function becomes effective. This is because the system maintains a linkage between the overlay image, view, and pose of the 3D object. If there are multiple rendered views, the paint is projected back to the three-dimensional object in the first pose for each rendered view.

本発明の実施形態では、曲面垂線は、この三次元オブジェクトの曲面上への投影の効果を「フェザリングする(feather)」ために使用できる。例えば、曲面が、この投影ビューに平行である場合には、そのペイント効果は、〜100%であると算出されるが、しかるに、曲面が、この投影ビューに対して30度の角度をなしている場合には、そのペイント効果は、〜50%(sin(30))であると算出され、一方、曲面が、この投影ビューに対して60度の角度をなしている場合には、そのペイント効果は、〜13%(sin(60))であると算出されるといった具合である。フェザリングする大きさは、ユーザにより調整される。他の実施形態では、フェザリングは、このオブジェクトの縁または境界などのような推移部分でのペイント効果を変えるために使用できる。様々な実施形態において、この投影されたペイントのフェザリングにより、投影されたペイントのスミアリングが減らされる。   In an embodiment of the invention, the curved surface normal can be used to “feather” the effect of the projection of this three-dimensional object onto the curved surface. For example, if a curved surface is parallel to this projection view, the paint effect is calculated to be ~ 100%, however, the curved surface makes an angle of 30 degrees with respect to this projection view. The paint effect is calculated to be ˜50% (sin (30)), while if the curved surface forms an angle of 60 degrees with respect to the projected view, the paint effect is calculated. The effect is such that it is calculated to be ˜13% (sin (60)). The size of feathering is adjusted by the user. In other embodiments, feathering can be used to change the paint effect at transitions such as the edges or boundaries of the object. In various embodiments, this projected paint feathering reduces the smearing of the projected paint.

図4は、一実施形態の一例を示している。この例では、三次元円筒体500は、円筒体500の二次元ビュー520内の長方形510として表示される。上記のプロセスにより、ユーザは、ビュー520の上にオーバーレイ・イメージ530をペイントする。この例では、ユーザは、円筒体500の下半分に、黒色でペイントする。   FIG. 4 shows an example of an embodiment. In this example, the three-dimensional cylinder 500 is displayed as a rectangle 510 in the two-dimensional view 520 of the cylinder 500. With the above process, the user paints an overlay image 530 on the view 520. In this example, the user paints the lower half of the cylinder 500 in black.

次に、図4に示されるように、このオーバーレイ・イメージを、この三次元円筒体に投影する。よって、円筒体500の前部下側の曲面540のモデルを、そのプロパティ、すなわち黒色に関連づけ、また、この曲面垂線が可視平面から遠ざかる方に向かうにつれ、そのモデルをフェザリングする。円筒体500の後部下側の曲面550は、ビュー520内に露出しなかったので、黒色には関連づけられてない。   Next, as shown in FIG. 4, the overlay image is projected onto the three-dimensional cylinder. Therefore, the model of the curved surface 540 on the lower front side of the cylindrical body 500 is associated with the property, that is, black, and the model is feathered as the curved surface normal goes away from the visible plane. The curved surface 550 on the lower rear side of the cylindrical body 500 is not exposed in the view 520 and is not associated with black.

この例では、円筒体500の後部ビュー560と下側ビュー570を指定して、円筒体500の残る下半分の曲面を露出させることもある。   In this example, the rear view 560 and lower view 570 of the cylinder 500 may be specified to expose the remaining lower half curved surface of the cylinder 500.

図3に戻って、次のステップは、第2のポーズにある三次元オブジェクトのそれぞれのビューにペイントされた値を、この三次元オブジェクトに戻して関連づけることである(ステップ390)。上の説明と同様に、このオブジェクトのそれぞれのビューは、一般に、第2のポーズにある三次元オブジェクトの曲面を二次元に投影したものである。よって、このオーバーレイ・イメージにより「ペイントされる」ように思われる部分は、関連する奥行きマップを用いて、この三次元オブジェクトに投影される。また、レンダリングされたビューが複数ある場合には、このペイントは、レンダリングされたビューごとに、第2のポーズにある三次元オブジェクトに戻して、投影される。   Returning to FIG. 3, the next step is to associate the values painted in the respective views of the 3D object in the second pose back to this 3D object (step 390). As above, each view of this object is generally a two-dimensional projection of the curved surface of the three-dimensional object in the second pose. Thus, the portion that appears to be “painted” by the overlay image is projected onto the 3D object using the associated depth map. When there are a plurality of rendered views, the paint is projected back to the three-dimensional object in the second pose for each rendered view.

この実施形態では、ステップ380とステップ390からの平面投影を組み合わせて、双方とも、この三次元オブジェクトの曲面に戻して投影する(ステップ400)。言い替えれば、ユーザは、異なるポーズにある三次元オブジェクトのレンダリングされたビューにペイントし、かつ、そのペイント・データを、中立のポーズにあるただ1つの三次元オブジェクトに戻して投影させる。   In this embodiment, the planar projections from step 380 and step 390 are combined and both are projected back to the curved surface of the three-dimensional object (step 400). In other words, the user paints on the rendered view of a 3D object in a different pose and projects the paint data back to a single 3D object in a neutral pose.

本発明の発明者は、上記の機能が重要であると考えている。これは、上記の機能により、ユーザが、三次元オブジェクトに再びポーズを取らせることができ、かつ、その結果得られたレンダリングされたビューにユーザがペイントできるようにすることで、この三次元オブジェクトの到達困難な部分にユーザが「ペイント」できるからである。一例として、或るポーズは、口を閉じているキャラクタであり、また、別のポーズは、口を開けているキャラクタである。さらに、本発明の実施形態を利用する例を、以下に例示する。   The inventor of the present invention considers the above functions important. This is because the above functionality allows the user to re-pose the 3D object and allow the user to paint on the resulting rendered view. This is because the user can “paint” the difficult-to-reach part. As an example, a certain pose is a character with a closed mouth, and another pose is a character with an open mouth. Furthermore, an example using the embodiment of the present invention is illustrated below.

本発明の実施形態では、三次元オブジェクトの正式レンダリングの前に、このステップ400を実行することもある。他の実施形態では、ステップは、正式レンダリング処理の間に動的に行われる。例えば、ステップ380からのデータと、ステップ390からのデータは、別々のファイルに維持される。次に、このオブジェクトが、高品質にレンダリングされることになっているときには(例えば、PixarのRendermanを用いて)、このシステムは、第1のポーズにある三次元オブジェクトからの平面投影データを、第2のポーズにある三次元オブジェクトからの平面投影データに動的に組み合わせる。   In embodiments of the present invention, this step 400 may be performed prior to formal rendering of the three-dimensional object. In other embodiments, the steps are performed dynamically during the formal rendering process. For example, the data from step 380 and the data from step 390 are maintained in separate files. Next, when the object is to be rendered with high quality (eg, using Pixar's Renderman), the system uses plane projection data from the 3D object in the first pose, Dynamically combined with planar projection data from the 3D object in the second pose.

次に、この組み合わされた平面投影データを使用して、一般に第3のポーズにある三次元オブジェクトをレンダリングする(ステップ410)。一例として、第1のポーズは、両腕を下ろしたキャラクタであり、また、第2のポーズは、両腕を上げたキャラクタであり、さらに、第3のポーズは、片腕だけを上げたキャラクタである。   The combined planar projection data is then used to render a three-dimensional object that is typically in a third pose (step 410). As an example, the first pose is a character with both arms lowered, the second pose is a character with both arms raised, and the third pose is a character with only one arm raised. is there.

本発明の実施形態では、このペイント・データは、このオブジェクトの曲面に、プロパティをいくつでも指定してもよい。このようなプロパティはまた、シェーディング・パス・データとも呼ばれる。代表的なオブジェクト曲面では、100よりも多いシェーディング・パスがあることもある。例えば、このペイント・データは、曲面の色、テクスチャ・マップの適用、変位マップの適用などを指定する。本発明の実施形態では、ステップ380からの平面投影と、ステップ390からの平面投影は、同一のプロパティまたは異なるプロパティを、このオブジェクトの曲面に施すことがある。例えば、ステップ380は、曲面「クラック」パスであり、また、ステップ390は、曲面カラー・パスである。   In the embodiment of the present invention, the paint data may specify any number of properties for the curved surface of the object. Such properties are also referred to as shading path data. A typical object surface may have more than 100 shading paths. For example, the paint data specifies the color of the curved surface, the application of the texture map, the application of the displacement map, and the like. In an embodiment of the present invention, the planar projection from step 380 and the planar projection from step 390 may apply the same or different properties to the surface of this object. For example, step 380 is a curved surface “crack” path, and step 390 is a curved surface color path.

様々な実施形態において、このオブジェクトは、シーン中の他のオブジェクトと同一の時間にレンダリングされる。このレンダリングされたシーンは、一般に、別の二次元イメージであり、次に、この二次元イメージを保存する(ステップ420)。本発明の実施形態では、このレンダリングされたシーンは、フィルム、光ディスク(例えば、CD−ROM、DVD)などのような光学形式、ハードディスク、ネットワーク・ドライブなどのような磁気形式、電子信号、データ・パケットなどのような電子形式で保存できる。この結果得られたレンダリングされたシーンの表現は、後で、検索されて、1つまたは複数のビューア(表示装置)に表示される(ステップ430)。   In various embodiments, this object is rendered at the same time as other objects in the scene. This rendered scene is generally another two-dimensional image, which is then saved (step 420). In an embodiment of the present invention, the rendered scene can be an optical format such as film, optical disc (e.g., CD-ROM, DVD), magnetic format such as hard disk, network drive, electronic signal, data Can be stored in electronic form such as packets. The resulting rendered scene representation is later retrieved and displayed in one or more viewers (display devices) (step 430).

図5A〜図5Cは、本発明の一実施形態の一例を示している。具体的に言えば、図5Aは、ボックス600の三次元モデルを、閉じたポーズで示している。図5Bには、正面ビュー610、上面ビュー620、側面ビュー630を含むボックス600のいくつかの二次元ビューが示されている。   5A to 5C show an example of an embodiment of the present invention. Specifically, FIG. 5A shows the three-dimensional model of box 600 in a closed pose. FIG. 5B shows several two-dimensional views of the box 600 including a front view 610, a top view 620, and a side view 630.

図5Cでは、ユーザは、ビュー610〜630の上に、それぞれオーバーレイ・イメージ640〜660を生成している。上に説明されるように、ユーザは、一般に、ビュー610〜630の上にペイントして、オーバーレイ・イメージ640〜660を生成している。図5Dは、オーバーレイ・イメージ640〜660を、閉じたポーズで、ボックス600の三次元モデルに戻して投影した後で、ボックス670の三次元モデルを、閉じたポーズで示している。   In FIG. 5C, the user has generated overlay images 640-660 on views 610-630, respectively. As explained above, the user is generally painting over views 610-630 to produce overlay images 640-660. FIG. 5D shows the 3D model in box 670 in a closed pose after the overlay images 640-660 have been projected back into the 3D model in box 600 in a closed pose.

図6A〜図6Dは、本発明の一実施形態の他の例を示している。具体的に言えば、図6Aは、ボックス700の三次元モデルを、開いたポーズで示している。図6Bには、上面ビュー710、第1の断面720、第2の断面730を含むボックス700の二次元ビューが示されている。   6A to 6D show another example of an embodiment of the present invention. Specifically, FIG. 6A shows the three-dimensional model of box 700 in an open pose. FIG. 6B shows a two-dimensional view of the box 700 that includes a top view 710, a first cross section 720, and a second cross section 730.

図6Cでは、ユーザは、ビュー710〜730の上に、それぞれオーバーレイ・イメージ740〜760を生成している。この場合も、ユーザは、一般に、それぞれの図の上にペイントして、オーバーレイ・イメージを生成している。図6Dは、オーバーレイ・イメージ740〜760を、開いたポーズで、ボックス700の三次元モデルに戻して投影した後で、ボックス770の三次元モデルを、開いたポーズで示している。   In FIG. 6C, the user has generated overlay images 740-760 on views 710-730, respectively. Again, the user typically paints over each figure to generate an overlay image. FIG. 6D shows the 3D model of box 770 in the open pose after the overlay images 740-760 have been projected back into the 3D model of box 700 in the open pose.

次に、この実施形態では、ボックス670の三次元モデルとボックス770の三次元モデルを組み合わせて、ただ1つの三次元モデルを形成している。図6Eに示されているものは、図5Cと図6Cからの、元に戻して投影されたデータを含むボックス780のただ1つの三次元モデルである。図6Eに示されるように、この三次元モデルは、図5Aまたは図6Aに示されるポーズとは異なるポーズを取ることがある。   Next, in this embodiment, the three-dimensional model of the box 670 and the three-dimensional model of the box 770 are combined to form a single three-dimensional model. Shown in FIG. 6E is a single three-dimensional model of box 780 containing the unprojected data from FIGS. 5C and 6C. As shown in FIG. 6E, this three-dimensional model may assume a different pose than the pose shown in FIG. 5A or 6A.

図7A〜図7Cは、本発明の一実施形態の別の例を示している。さらに具体的に言えば、図7Aは、デフォルト・ポーズ800にある腰掛けの三次元モデルを示している。図7Bでは、このデフォルト・ポーズにある腰掛けの800のいくつかのビュー810が示されている。この例では、ユーザは、上記のように、ビュー810にペイントすることができる。次に、7Cは、第2のポーズ820にある上記腰掛けの三次元モデルを示している。見てわかるように、この腰掛けの脚830は、その座る面から「分解」すなわち分離している。いくつかのビュー840が示されている。この例において、ビュー840では、ユーザは、座る面850の底面と、腰掛けの脚860に、さらに容易にペイントできることがわかる。   7A-7C illustrate another example of one embodiment of the present invention. More specifically, FIG. 7A shows a three-dimensional model of a stool in a default pose 800. In FIG. 7B, several views 810 of the stool 800 in this default pose are shown. In this example, the user can paint on the view 810 as described above. Next, 7C shows the three-dimensional model of the stool in the second pose 820. As can be seen, the stool leg 830 is “disassembled” or separated from its seating surface. Several views 840 are shown. In this example, in view 840, it can be seen that the user can more easily paint on the bottom surface of the sitting surface 850 and on the stool leg 860.

多くの変更または変形が、容易に想定できる。上記の開示に照らして、通常の当業者であれば、上述の概念を適用する環境は、いくつあってもよいことが理解されよう。例えば、オブジェクト生成環境、別のシェーディング環境、サードパーティ・ペイントプログラム(例えば、Photoshop、Maya、SoftImage)などに不可欠なペインティング機能が提供されることがある。上述のいくつかの実施形態は、平面投影手法を使用して、オブジェクトのビューを形成し、また、このオーバーレイ層を、三次元オブジェクトに戻して投影する。他の実施形態はまた、非平面投影手法も使用して、オブジェクトの透視図を形成し、また、三次元オブジェクトに戻して投影することがある。   Many modifications or variations can be easily envisioned. In light of the above disclosure, one of ordinary skill in the art will appreciate that there may be any number of environments that apply the above concepts. For example, a painting function that is indispensable for an object generation environment, another shading environment, a third-party paint program (for example, Photoshop, Maya, SoftImage) may be provided. Some of the embodiments described above use a planar projection technique to form a view of the object and project this overlay layer back into the three-dimensional object. Other embodiments may also use non-planar projection techniques to form a perspective view of the object and to project back to the three-dimensional object.

本発明の他の実施形態では、オーバーレイ層にペイントし、かつ、三次元オブジェクトに戻して平面投影を行う処理は、三次元オブジェクトの複数のポーズに対して、リアルタイム、または、ほぼリアルタイムで行われることがある。例えば、ユーザには、第1のポーズにあるオブジェクトの第1のビューと、第2のポーズにあるオブジェクトの第1のビューを与えられる。次に、ユーザは、この第1のビューのオーバーレイ層にペイントする。この実施形態では、ユーザがペイントするときに、このペイントを、三次元オブジェクトに戻して投影する平面投影処理が行われる。次に、リアルタイム、または、ほぼリアルタイムで、このシステムは、第1のポーズにあるオブジェクトの第1のビューと、さらに、第2のポーズにあるオブジェクトの第2のビューも再びレンダリングする。このような実施形態では、この処理が非常に速く行われるために、ユーザは、他のあらゆるポーズのうち(他のポーズのビュー)、或るポーズにあるオブジェクトに及ぼすサーフェイス・パラメータの仕様の効果を知ることができる。   In another embodiment of the present invention, the process of painting on the overlay layer and returning to the 3D object for planar projection is performed in real time or near real time for multiple poses of the 3D object. Sometimes. For example, the user is given a first view of an object in a first pose and a first view of an object in a second pose. The user then paints on the overlay layer of this first view. In this embodiment, when the user paints, a plane projection process is performed in which the paint is projected back to the three-dimensional object. Next, in real-time or near real-time, the system renders again the first view of the object in the first pose and also the second view of the object in the second pose. In such an embodiment, this process is so fast that the user can effect the effect of the surface parameter specification on the object in one pose among all other poses (views of other poses). Can know.

本発明の実施形態では、この曲面上にペイントする様々な方法、例えば、ブラシ、テクスチャ、勾配、フィルタなどを用いる方法が考えられる。さらに、これらのペイントされたイメージ(例えば、レイヤ)を保存する様々な方法も考えられる。   In the embodiment of the present invention, various methods of painting on the curved surface, for example, a method using a brush, a texture, a gradient, a filter, and the like are conceivable. In addition, various ways of saving these painted images (eg, layers) are also contemplated.

上述の実施形態は、コンピュータシステム用の方法、これらの開示された方法を実行できるコンピュータシステムを開示している。追加の実施形態は、このコンピュータシステムに、これらの開示された方法を実行させるソフトウェア・コードなどを含め、有形の媒体上のコンピュータ・プログラム製品を含む。   The above-described embodiments disclose methods for computer systems and computer systems that can perform these disclosed methods. Additional embodiments include computer program products on tangible media, including software code that causes the computer system to perform these disclosed methods.

当業者には、この開示を読んだ後で、さらなる実施形態が想定できる。他の実施形態では、上に開示された発明を、有利に、全部または一部組み合わせることができる。このアーキテクチャのブロック図と流れ図をまとめて、容易に理解できるようにする。しかしながら、ブロックの組合せ、新たなブロックの追加、ブロックの再配置などは、本発明の代替実施形態において考えられるものとする。   Those skilled in the art will envision additional embodiments after reading this disclosure. In other embodiments, the invention disclosed above can be advantageously combined in whole or in part. The block diagram and flow diagram of this architecture are put together for easy understanding. However, combinations of blocks, addition of new blocks, rearrangement of blocks, etc. shall be considered in alternative embodiments of the present invention.

よって、この明細書と図面は、限定的な意味ではなくて、例示的な意味で顧慮されるべきである。しかしながら、特許請求の範囲に記述される本発明のさらに広い精神および範囲から逸脱しなければ、このような明細書と図面に、様々な変形や変更をなせることは明らかであろう。   The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense. However, it will be apparent that various modifications and changes may be made to such specification and drawings without departing from the broader spirit and scope of the invention as set forth in the claims.

本発明の一実施形態によるシステムのブロック図を示す。1 shows a block diagram of a system according to an embodiment of the invention. 本発明の一実施形態のブロック図を示す。1 shows a block diagram of one embodiment of the present invention. 本発明の一実施形態によるフロー・プロセスである。3 is a flow process according to an embodiment of the present invention. 本発明の一実施形態によるフロー・プロセスである。3 is a flow process according to an embodiment of the present invention. 一実施形態の一例を示す。An example of one embodiment is shown. 本発明の一実施形態の一例を示す。An example of one embodiment of the present invention is shown. 本発明の一実施形態の一例を示す。An example of one embodiment of the present invention is shown. 本発明の一実施形態の一例を示す。An example of one embodiment of the present invention is shown. 本発明の一実施形態の一例を示す。An example of one embodiment of the present invention is shown. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention. 本発明の一実施形態の別の例を示す。4 shows another example of an embodiment of the present invention.

符号の説明Explanation of symbols

500 第1の形態にある三次元モデル、510 第1の二次元ビュー、550 第2の形態にある三次元モデル、570 第2の二次元ビュー   500 three-dimensional model in first form, 510 first two-dimensional view, 550 three-dimensional model in second form, 570 second two-dimensional view

Claims (22)

第1の形態で、三次元オブジェクト・モデルの少なくとも一部にポーズを取らせるステップと、
前記第1の形態にある間、前記三次元オブジェクト・モデルの前記少なくとも一部の第1の二次元ビューを決定するステップと、
第2の形態で、前記三次元オブジェクト・モデルの前記一部にポーズを取らせるステップと、
前記第2の形態にある間、前記三次元オブジェクト・モデルの前記一部の第2の二次元ビューを決定するステップと、
第1の二次元イメージを、前記三次元オブジェクト・モデルの前記少なくとも一部の前記第1の二次元ビューに関連づけるステップと、
第2の二次元イメージを、前記三次元オブジェクト・モデルの前記一部の前記第2の二次元ビューに関連づけるステップと、
前記第1の二次元イメージに応じて、また、前記三次元オブジェクト・モデルの前記少なくとも一部用の前記第1の形態に応じて、第1の組のサーフェイス・パラメータを、前記第1の二次元ビューに見える前記三次元オブジェクト・モデルの上記少なくとも一部の曲面に関連づけるステップと、
前記第2の二次元イメージに応じて、また、前記三次元オブジェクト・モデルの前記一部用の前記第2の形態に応じて、第2の組のサーフェイス・パラメータを、前記第2の二次元ビューに見える前記三次元オブジェクト・モデルの前記一部の曲面に関連づけるステップと、
を含む方法。
In a first form, causing at least a portion of the three-dimensional object model to pose;
Determining a first two-dimensional view of the at least part of the three-dimensional object model while in the first configuration;
In a second form, causing the portion of the three-dimensional object model to pose;
Determining a second 2D view of the portion of the 3D object model while in the second configuration;
Associating a first two-dimensional image with the first two-dimensional view of the at least part of the three-dimensional object model;
Associating a second two-dimensional image with the second two-dimensional view of the portion of the three-dimensional object model;
In response to the first two-dimensional image and in response to the first form for the at least part of the three-dimensional object model, a first set of surface parameters is set to the first two-dimensional image. Associating with the at least part of the surface of the three-dimensional object model visible in a three-dimensional view;
Depending on the second two-dimensional image and depending on the second form for the portion of the three-dimensional object model, a second set of surface parameters may be applied to the second two-dimensional image. Associating with the partial curved surface of the three-dimensional object model visible in a view;
Including methods.
前記三次元オブジェクト・モデルの前記一部の第1の二次元ビューが、正面ビュー、側面ビュー、上面ビュー、底面ビューのグループから選択される請求項1に記載の方法。   The method of claim 1, wherein the first two-dimensional view of the portion of the three-dimensional object model is selected from the group of a front view, a side view, a top view, and a bottom view. 前記三次元オブジェクト・モデルの前記一部が、第1のオブジェクトと第2のオブジェクトを含み、
前記三次元オブジェクト・モデルの前記少なくとも一部のための前記第1の形態が、第1の関係を持つ前記第1のオブジェクトと前記第2のオブジェクトを含み、
前記三次元オブジェクト・モデルの前記一部用の前記第1の形態が、第2の関係を持つ前記第1のオブジェクトと前記第2のオブジェクトを含み、
前記第1の関係と前記第2の関係が異なる請求項1ないし2のいずれかに記載の方法。
The portion of the three-dimensional object model includes a first object and a second object;
The first form for the at least part of the three-dimensional object model includes the first object and the second object having a first relationship;
The first form for the portion of the three-dimensional object model includes the first object and the second object having a second relationship;
The method according to claim 1, wherein the first relationship and the second relationship are different.
前記第1の関係と前記第2の関係が、直線関係、角度関係のグループから選択される請求項3に記載の方法。   4. The method of claim 3, wherein the first relationship and the second relationship are selected from the group of linear relationships and angular relationships. 前記オブジェクト・モデルの前記少なくとも一部の前記第1の二次元ビューを、ディスプレイ上に表示するステップと、
前記ディスプレイ上で、前記オブジェクト・モデルの前記少なくとも一部の前記第1の二次元ビューの上にペイントすることで、第1の二次元イメージを生成するステップと、
をさらに含む請求項1ないし4のいずれかに記載の方法。
Displaying the first two-dimensional view of the at least part of the object model on a display;
Generating a first two-dimensional image on the display by painting on the first two-dimensional view of the at least part of the object model;
The method according to claim 1, further comprising:
前記第1の組のサーフェイス・パラメータが、曲面の色、曲面の外観、変位マップ、テクスチャ・マップを含むグループから選択される請求項1ないし5のいずれかに記載の方法。   6. A method as claimed in any preceding claim, wherein the first set of surface parameters is selected from the group comprising curved surface color, curved surface appearance, displacement map, texture map. 前記第1の組のサーフェイス・パラメータと前記第2の組のサーフェイス・パラメータに応じて、前記三次元オブジェクト・モデルの前記一部をレンダリングして、レンダリングされたオブジェクトを形成するステップと、
前記レンダリングされたオブジェクトの表現を、有形の媒体に保存するステップと、
をさらに含む請求項1ないし6のいずれかに記載の方法。
Rendering the portion of the three-dimensional object model in response to the first set of surface parameters and the second set of surface parameters to form a rendered object;
Storing the rendered representation of the object in a tangible medium;
The method according to claim 1, further comprising:
請求項1ないし7のいずれかに述べられる方法により形成された前記レンダリングされたオブジェクトの前記表現を含む前記有形の媒体。   8. A tangible medium comprising the representation of the rendered object formed by the method described in any of claims 1-7. 三次元オブジェクトの少なくとも一部用の第1の形態を受け入れるように、プロセッサに指示するコードと、
前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の曲面を露出させる第1の二次元イメージを決定するように、前記プロセッサに指示するコードと、
前記三次元オブジェクトの前記少なくとも一部用の第2の形態を受け入れるように、前記プロセッサに指示するコードと、
前記第2の形態にある前記三次元オブジェクトの前記少なくとも一部の曲面を露出させる第2の二次元イメージを決定するように、前記プロセッサに指示するコードと、
前記第1の二次元イメージに関連づけられる第1の二次元ペイント・イメージを受け取るように、前記プロセッサに指示するコードと、
前記第2の二次元イメージに関連づけられる前記第2の二次元ペイント・イメージを受け取るように、前記プロセッサに指示するコードと、
前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の前記曲面に関連づけられる第1のグループのパラメータを、前記第1の二次元ペイント・イメージに応じて決定するように、前記プロセッサに指示するコードと、
前記第2の形態にある前記三次元オブジェクトの前記少なくとも一部の前記曲面に関連づけられる第2のグループのパラメータを、前記第2の二次元ペイント・イメージに応じて決定するように、前記プロセッサに指示するコードと、
を含み、
前記コードがすべて有形の媒体上にある、前記プロセッサを含むコンピュータシステム用のコンピュータ・プログラム製品。
Code instructing the processor to accept a first form for at least a portion of the three-dimensional object;
Code for instructing the processor to determine a first two-dimensional image exposing the at least part of the curved surface of the three-dimensional object in the first form;
Code for instructing the processor to accept a second form for the at least part of the three-dimensional object;
Code for instructing the processor to determine a second two-dimensional image exposing the at least part of the curved surface of the three-dimensional object in the second form;
Code for instructing the processor to receive a first two-dimensional paint image associated with the first two-dimensional image;
Code for instructing the processor to receive the second two-dimensional paint image associated with the second two-dimensional image;
The processor is configured to determine a first group of parameters associated with the curved surface of the at least part of the three-dimensional object in the first form as a function of the first two-dimensional paint image. A code to instruct,
The processor is configured to determine a second group of parameters associated with the curved surface of the at least part of the three-dimensional object in the second form as a function of the second two-dimensional paint image. A code to instruct,
Including
A computer program product for a computer system comprising the processor, wherein the code is all on a tangible medium.
前記第1の二次元イメージが、正面ビュー、側面ビュー、上面ビュー、底面ビュー、斜めビューのグループから選択された1ビューにおいて、前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部のイメージを含む請求項9に記載のコンピュータ・プログラム製品。   The first two-dimensional image is a view selected from the group of a front view, a side view, a top view, a bottom view, and a diagonal view, and the at least part of the three-dimensional object in the first form The computer program product of claim 9, comprising an image. 前記第1のグループのパラメータの少なくとも一部と、前記第2のグループのパラメータの少なくとも一部を組み合わせるように、前記プロセッサに指示するコードをさらに含む請求項9ないし10のいずれかに記載のコンピュータ・プログラム製品。   The computer according to any of claims 9 to 10, further comprising code for instructing the processor to combine at least some of the parameters of the first group and at least some of the parameters of the second group. -Program products. 前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の追加曲面を露出させる第3の二次元イメージを決定するように、前記プロセッサに指示するコードと、
前記第3の二次元イメージに関連づけられる第3の二次元ペイント・イメージを受け取るように、前記プロセッサに指示するコードと、
前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の前記追記曲面に関連づけられる第3のグループのパラメータを、前記第3の二次元ペイント・イメージに応じて決定するように、前記プロセッサに指示するコードと、
をさらに含み、
前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の前記曲面と、前記第1の形態にある前記三次元オブジェクトの前記少なくとも一部の前記追記曲面とが重なる請求項9ないし11のいずれかに記載のコンピュータ・プログラム製品。
Code for instructing the processor to determine a third two-dimensional image exposing the at least some additional curved surface of the three-dimensional object in the first form;
Code for instructing the processor to receive a third two-dimensional paint image associated with the third two-dimensional image;
The processor is configured to determine a third group of parameters associated with the additional surface of the at least some of the three-dimensional objects in the first form as a function of the third two-dimensional paint image. A code that instructs
Further including
12. The at least part of the curved surface of the three-dimensional object in the first form overlaps the at least part of the additional write curved surface of the three-dimensional object in the first form. A computer program product as described in any of the above.
前記三次元オブジェクト・モデルの前記一部が、第1のオブジェクトと第2のオブジェクトを含み、
前記第1の形態が、第1の角度を成す方向に向けられている前記第1のオブジェクトと前記第2のオブジェクトを含み、
前記第2の形態が、第2の角度を成す方向に向けられている前記第1のオブジェクトと前記第2のオブジェクトを含み、
前記第1の角度と前記第2の角度が異なる請求項9ないし12のいずれかに記載のコンピュータ・プログラム製品。
The portion of the three-dimensional object model includes a first object and a second object;
The first form includes the first object and the second object oriented in a direction forming a first angle;
The second form includes the first object and the second object oriented in a direction forming a second angle;
The computer program product according to any one of claims 9 to 12, wherein the first angle and the second angle are different.
前記第1の組のパラメータと前記第2の組のパラメータが、曲面の色、曲面の外観、変位マップ、テクスチャ・マップを含むグループから、取替えなしに選択される請求項9ないし13のいずれかに記載のコンピュータ・プログラム製品。   14. The method according to claim 9, wherein the first set of parameters and the second set of parameters are selected without replacement from a group including a curved surface color, a curved surface appearance, a displacement map, and a texture map. The computer program product described in 1. 前記第2の形態にある前記三次元オブジェクトの前記少なくとも一部の追加曲面を露出させる第4の二次元イメージを決定するように、前記プロセッサに指示するコードと、
前記第4の二次元イメージに関連づけられる第4の二次元ペイント・イメージを受け取るように、前記プロセッサに指示するコードと、
前記第4の形態にある前記三次元オブジェクトの前記少なくとも一部の前記追加曲面に関連づけられる第4のグループのパラメータを、前記第4の二次元ペイント・イメージに応じて決定するように、前記プロセッサに指示するコードと、
前記第1のグループのパラメータと、前記第4のグループのパラメータを組み合わせるように、前記プロセッサに指示するコードと、
をさらに含む請求項9ないし14のいずれかに記載のコンピュータ・プログラム製品。
Code for instructing the processor to determine a fourth two-dimensional image exposing the at least some additional curved surface of the three-dimensional object in the second form;
Code for instructing the processor to receive a fourth two-dimensional paint image associated with the fourth two-dimensional image;
The processor to determine a fourth group of parameters associated with the additional curved surface of the at least some of the three-dimensional objects in the fourth form as a function of the fourth two-dimensional paint image. A code that instructs
Code for instructing the processor to combine the parameters of the first group and the parameters of the fourth group;
The computer program product according to claim 9, further comprising:
ディスプレイと、
三次元オブジェクトのモデルを保存するように構成されているメモリであって、前記三次元オブジェクトに対して、第1のポーズと第2のポーズを保存するように構成され、第1の二次元イメージと第2の二次元イメージを保存するようにも構成され、さらに、前記三次元オブジェクトの曲面に関連づけられる曲面シェーディング・パラメータを保存するように構成されているメモリと、
前記メモリと前記ディスプレイに結合されているプロセッサであって、前記第1のポーズにある前記三次元オブジェクトの第1のビューを前記ディスプレイに出力するように構成され、前記第2のポーズにある前記三次元オブジェクトの第2のビューを前記ディスプレイに出力するように構成され、前記第1の二次元イメージを受け取るように、また、前記第2の二次元イメージを受け取るように構成され、前記三次元オブジェクトの前記第1のビューに応じて、また、前記第1の二次元イメージに応じて、前記三次元オブジェクトの曲面に関連づけられる第1の組のサーフェイス・パラメータを決定するように構成され、さらに、前記三次元オブジェクトの前記第2のビューに応じて、また、前記第2の二次元イメージに応じて、前記三次元オブジェクトの追加曲面に関連づけられる第2の組のサーフェイス・パラメータを決定するように構成されているプロセッサと、
を備えるコンピュータシステム。
Display,
A memory configured to store a model of a three-dimensional object, the memory configured to store a first pose and a second pose for the three-dimensional object, and a first two-dimensional image And a memory configured to store a surface shading parameter associated with the surface of the three-dimensional object;
A processor coupled to the memory and the display, the processor being configured to output a first view of the three-dimensional object in the first pose to the display, wherein the processor is in the second pose. Configured to output a second view of a three-dimensional object to the display, configured to receive the first two-dimensional image, and configured to receive the second two-dimensional image; Configured to determine a first set of surface parameters associated with the surface of the three-dimensional object in response to the first view of the object and in response to the first two-dimensional image; According to the second view of the three-dimensional object and according to the second two-dimensional image A processor configured to determine a surface parameter of the second set associated with additional curved objects,
A computer system comprising:
前記三次元オブジェクトの前記第1のビューが、正面ビュー、側面ビュー、上面ビュー、底面ビュー、斜視ビューのグループから選択される請求項16に記載のコンピュータシステム。   The computer system of claim 16, wherein the first view of the three-dimensional object is selected from the group of a front view, a side view, a top view, a bottom view, and a perspective view. 前記三次元オブジェクトが、第1のオブジェクトと第2のオブジェクトを含み、
前記第1のポーズが、前記第2のオブジェクトに対して第1の向きに位置づけられた前記第1のオブジェクトを含み、
前記第2のポーズが、前記第2のオブジェクトに対して第2の向きに位置づけられた前記第1のオブジェクトを含み、
前記第1の向きと前記第2の向きが、距離、角度のグループから選択される請求項16ないし17のいずれかに記載のコンピュータシステム。
The three-dimensional object includes a first object and a second object;
The first pose includes the first object positioned in a first orientation relative to the second object;
The second pose includes the first object positioned in a second orientation relative to the second object;
The computer system according to claim 16, wherein the first direction and the second direction are selected from a group of distance and angle.
前記三次元オブジェクトの前記追加曲面が、前記三次元オブジェクトの前記曲面内にはない、前記三次元オブジェクトの他の曲面を含む請求項16ないし18のいずれかに記載のコンピュータシステム。   The computer system according to claim 16, wherein the additional curved surface of the three-dimensional object includes another curved surface of the three-dimensional object that is not within the curved surface of the three-dimensional object. 前記第1の組のサーフェイス・パラメータが、曲面の色、曲面の外観、変位マップ、テクスチャ・マップを含むグループから選択される請求項16ないし19のいずれかに記載のコンピュータシステム。   20. A computer system as claimed in any one of claims 16 to 19 wherein the first set of surface parameters is selected from the group comprising curved surface color, curved surface appearance, displacement map, texture map. 前記プロセッサがまた、前記第1の組のサーフェイス・パラメータと前記第2の組のサーフェイス・パラメータに応じて、前記三次元オブジェクトに陰影を付けて、前記三次元オブジェクトの陰影付き表現を形成するように構成され、
前記メモリがまた、前記三次元オブジェクトの前記陰影付き表現を保存するように構成されている請求項16ないし20のいずれかに記載のコンピュータシステム。
The processor also shades the three-dimensional object in response to the first set of surface parameters and the second set of surface parameters to form a shaded representation of the three-dimensional object. Composed of
21. A computer system according to any of claims 16 to 20, wherein the memory is also configured to store the shaded representation of the three-dimensional object.
前記第1のポーズにある前記三次元オブジェクトの前記第1のビューが正面ビューを含み、
前記第2のポーズにある前記三次元オブジェクトの前記第2のビューも正面ビューを含む請求項16ないし21のいずれかに記載のコンピュータシステム。
The first view of the three-dimensional object in the first pose includes a front view;
The computer system according to any of claims 16 to 21, wherein the second view of the three-dimensional object in the second pose also includes a front view.
JP2006521809A 2003-07-29 2004-03-23 Improved paint projection and paint projection apparatus Pending JP2007500395A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US49116003P 2003-07-29 2003-07-29
PCT/US2004/008993 WO2005017871A1 (en) 2003-07-29 2004-03-23 Improved paint projection method and apparatus

Publications (1)

Publication Number Publication Date
JP2007500395A true JP2007500395A (en) 2007-01-11

Family

ID=34193093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006521809A Pending JP2007500395A (en) 2003-07-29 2004-03-23 Improved paint projection and paint projection apparatus

Country Status (6)

Country Link
EP (1) EP1661116A4 (en)
JP (1) JP2007500395A (en)
CN (1) CN1833271B (en)
CA (1) CA2533451A1 (en)
NZ (1) NZ544937A (en)
WO (1) WO2005017871A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010527077A (en) * 2007-05-07 2010-08-05 クゥアルコム・インコーポレイテッド Graphics overlay after rendering
JP2015509776A (en) * 2012-02-07 2015-04-02 エンパイア テクノロジー ディベロップメント エルエルシー online game

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8334872B2 (en) * 2009-05-29 2012-12-18 Two Pic Mc Llc Inverse kinematics for motion-capture characters
US8922558B2 (en) * 2009-09-25 2014-12-30 Landmark Graphics Corporation Drawing graphical objects in a 3D subsurface environment
CN111145358B (en) * 2018-11-02 2024-02-23 北京微播视界科技有限公司 Image processing method, device and hardware device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729704A (en) * 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
AU5667496A (en) * 1995-04-25 1996-11-18 Gentech Corporation Apparatus and method for recreating and manipulating a 3D object based on a 2D projection thereof
US6052669A (en) * 1997-06-06 2000-04-18 Haworth, Inc. Graphical user interface supporting method and system for remote order generation of furniture products
US6268865B1 (en) * 1998-01-13 2001-07-31 Disney Enterprises, Inc. Method and apparatus for three-dimensional painting
CN1161714C (en) * 1999-08-04 2004-08-11 凌阳科技股份有限公司 3D image processor using parallel scan lines as processing unit and its drawing method
US7236178B2 (en) * 2001-07-19 2007-06-26 Autodesk, Inc. Dynamically adjusted brush for direct paint systems on parameterized multi-dimensional surfaces

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010527077A (en) * 2007-05-07 2010-08-05 クゥアルコム・インコーポレイテッド Graphics overlay after rendering
JP2015509776A (en) * 2012-02-07 2015-04-02 エンパイア テクノロジー ディベロップメント エルエルシー online game
US9480914B2 (en) 2012-02-07 2016-11-01 Empire Technology Development Llc Online gaming

Also Published As

Publication number Publication date
CN1833271B (en) 2010-05-05
CN1833271A (en) 2006-09-13
CA2533451A1 (en) 2005-02-24
NZ544937A (en) 2009-03-31
EP1661116A4 (en) 2010-12-01
EP1661116A1 (en) 2006-05-31
WO2005017871A1 (en) 2005-02-24

Similar Documents

Publication Publication Date Title
Wood et al. Multiperspective panoramas for cel animation
US6417850B1 (en) Depth painting for 3-D rendering applications
US7436404B2 (en) Method and apparatus for rendering of translucent objects using volumetric grids
US20060022991A1 (en) Dynamic wrinkle mapping
US20070075998A1 (en) Shot Shading Method and Apparatus
US8988461B1 (en) 3D drawing and painting system with a 3D scalar field
US7184043B2 (en) Color compensated translucent object rendering methods and apparatus
US7995060B2 (en) Multiple artistic look rendering methods and apparatus
US8704823B1 (en) Interactive multi-mesh modeling system
US7176918B2 (en) Three-dimensional paint projection weighting of diffuse and scattered illumination methods and apparatus
US20090033674A1 (en) Method and apparatus for graphically defining surface normal maps
Petikam et al. Shading rig: Dynamic art-directable stylised shading for 3D characters
Haller et al. Real-time painterly rendering for mr applications
JP2007500395A (en) Improved paint projection and paint projection apparatus
Papaioannou et al. Enhancing Virtual Reality Walkthroughs of Archaeological Sites.
Vince Essential computer animation fast: How to understand the techniques and potential of computer animation
Bertoline et al. Computer-aided design, computer-aided engineering, and visualization
Di Fiore et al. Highly stylised drawn animation
Di Fiore et al. Highly stylised animation
Klein An image-based framework for animated non-photorealistic rendering
Boubekeur et al. Interactive out-of-core texturing using point-sampled textures
Chung et al. Image-based deformation of objects in real scenes
Coleman Interactive control of nonlinear projection for complex animated scenes
Zhou Application of 3D facial animation techniques for Chinese opera
Smith Multi-camera: interactive rendering of abstract digital images

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090413

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090513

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714