JP4971469B2 - シーングラフ間の自動美的遷移方法及び装置 - Google Patents

シーングラフ間の自動美的遷移方法及び装置 Download PDF

Info

Publication number
JP4971469B2
JP4971469B2 JP2009553556A JP2009553556A JP4971469B2 JP 4971469 B2 JP4971469 B2 JP 4971469B2 JP 2009553556 A JP2009553556 A JP 2009553556A JP 2009553556 A JP2009553556 A JP 2009553556A JP 4971469 B2 JP4971469 B2 JP 4971469B2
Authority
JP
Japan
Prior art keywords
objects
transition
visible
scene
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009553556A
Other languages
English (en)
Other versions
JP2010521736A (ja
Inventor
シルバーステイン,ラルフ,アンドリュー
サユック,ダヴィド
チャイルダーズ,ドナルド,ジョンソン
Original Assignee
ジーブイビービー ホールディングス エス.エイ.アール.エル.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーブイビービー ホールディングス エス.エイ.アール.エル. filed Critical ジーブイビービー ホールディングス エス.エイ.アール.エル.
Publication of JP2010521736A publication Critical patent/JP2010521736A/ja
Application granted granted Critical
Publication of JP4971469B2 publication Critical patent/JP4971469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Description

この出願は、2007年3月15日に出願された米国仮特許出願第60/918,265の35 U.S.C. 119(e)による優先権を主張し、この教示を援用する。
本原理は、概してシーングラフ(scene graph)に関し、特に、シーングラフ間の美的遷移(aesthetic transitioning)に関する。
現在の切り替え器(switcher)の分野では、エフェクト(映像効果)(effect)間を切り替えるときに、演出家が第1のエフェクトの終了と一致するように第2のエフェクトの開始を手動で予めセットし、或いは、自動遷移を実行する。
しかし、現在利用可能な自動遷移技術は、遷移用に存在することが保証された限られた一式の遷移パラメータに制限される。従って、異なる状態にある同じ構造要素を有するシーンに適用することができる。しかし、シーングラフは、本来、動的な構造及び一式のパラメータを有する。
遷移の問題を解決する1つの可能な対策は、シーングラフをレンダリング(処理)(render)し、レンダリング結果へのミックス遷移(mix transition)又はワイプ遷移(wipe transition)を実行することである。しかし、この技術は、2つのシーングラフを同時にレンダリングする機能を必要とし、通常では、その結果に時間的及び/又は幾何学的不連続性が存在するため、通常では美的に満足できるものではない。
従来技術の前記及び他の障害及び欠点は、本原理により対処される。本原理は、シーングラフ間の自動美的遷移方法及び装置を対象とする。
本原理の態様によれば、第1のシーングラフの少なくとも1つのアクティブな視点から第2のシーングラフの少なくとも1つのアクティブな視点に遷移させる装置が提供される。この装置は、オブジェクト状態決定装置と、オブジェクト照合器と、遷移計算器と、遷移構成器とを含む。オブジェクト状態決定装置は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定する。オブジェクト照合器は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定する。遷移計算器は、オブジェクトの照合するものの遷移を計算する。遷移構成器は、遷移を実行用の時系列(timeline)に構成する。
本原理の他の態様によれば、第1のシーングラフの少なくとも1つのアクティブな視点から第2のシーングラフの少なくとも1つのアクティブな視点に遷移させる方法が提供される。この方法は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定し、第1及び第2のシーングラフの少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定することを含む。この方法は、オブジェクトの照合するものの遷移を計算し、遷移を実行用の時系列に構成することを更に含む。
本原理の更に他の態様によれば、シーングラフの第1の部分の少なくとも1つのアクティブな視点からシーングラフの第2の部分の少なくとも1つのアクティブな視点に遷移させる装置が提供される。この装置は、オブジェクト状態決定装置と、オブジェクト照合器と、遷移計算器と、遷移構成器とを含む。オブジェクト状態決定装置は、第1及び第2の部分の少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定する。オブジェクト照合器は、第1及び第2の部分の少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定する。遷移計算器は、オブジェクトの照合するものの遷移を計算する。遷移構成器は、遷移を実行用の時系列に構成する。
本原理の更なる態様によれば、シーングラフの第1の部分の少なくとも1つのアクティブな視点からシーングラフの第2の部分の少なくとも1つのアクティブな視点に遷移させる方法が提供される。この方法は、第1及び第2の部分の少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定し、第1及び第2の部分の少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定することを含む。この方法は、オブジェクトの照合するものの遷移を計算し、遷移を実行用の時系列に構成することを更に含む。
本原理の前記及び他の態様、特徴及び利点は、添付図面と共に読まれる例示的な実施例の以下の詳細な説明から明らかになる。
本原理の実施例によるシーングラフ間の美的遷移の例示的な順次処理技術のブロック図 本発明の実施例によるシーングラフ間の美的遷移の例示的な並列処理技術のブロック図 本原理の実施例による例示的なオブジェクト照合取得処理のフローチャート 本原理の実施例による他の例示的なオブジェクト照合取得処理のフローチャート 本発明の実施例に従って本原理の技術を実行するシーケンスタイミング図 本発明の実施例による図1のステップ102及び図2のステップ202の例の例示的な概略図 本発明の実施例による図1のステップ104及び図2のステップ204の例の例示的な概略図 本発明の実施例による図1のステップ108及び110並びに図2のステップ208及び210の例示的な概略図 本発明の実施例による図1のステップ112、114及び116並びに図2のステップ212、214及び216の例示的な概略図 本発明の実施例従って本原理の技術の実行中における特定の時点での例の概略図 本発明の実施例によるシーングラフ間の自動遷移を実行可能な例示的な装置のブロック図
本原理は、例示的な図面に従ってより良く理解できる。
本原理は、シーングラフ間の自動美的遷移方法及び装置を対象とする。
この説明は、本原理を例示する。従って、当業者は、様々な構成を考案することができることがわかる。様々な構成は、ここに明示的に記載又は図示しないが、本原理を具現するものであり、その要旨及び範囲内に含まれる。
ここに記載する全ての例及び条件付の言語は、当該技術を促進するために発明者により寄与された概念及び本原理を理解する際に読者を助けるための教育目的であることを意図しており、このように特に記載した例及び条件に限定しないものとして解釈されるべきである。
更に、ここで本発明の原理、態様及び実施例並びにその特定の例を記載する全ての記載は、その構造的及び機能的な均等物を包含することを意図する。更に、このような均等物は、現在知られている均等物と、将来的に開発される均等物(すなわち、構造に拘らず同じ機能を実行するように開発された如何なる要素)とを含む。
従って、例えば、ここに示すブロック図は、本原理を具現する例示的な回路の概念図を表すことが当業者にわかる。同様に、何らかのフローチャート、フロー図、状態遷移図、疑似コード等は、コンピュータ又はプロセッサが明示的に図示されていなくても、実質的にコンピュータ可読媒体に表されてコンピュータ又はプロセッサにより実行され得る様々な処理を表すことがわかる。
図面に示す様々な要素の機能は、専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアの使用を通じて提供されてもよい。プロセッサにより提供される場合、機能は、単一の専用プロセッサ、単一の共用プロセッサ又は複数の個別のプロセッサにより提供されてもよい。複数の個別のプロセッサは共用されてもよい。更に、“プロセッサ”又は“コントローラ”という用語の明示的な使用は、ソフトウェアを実行可能なハードウェアを明示的に示すように解釈されるべきではなく、非限定的に、デジタルシグナルプロセッサ(DSP:digital signal processor)ハードウェア、ソフトウェアを格納する読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)及び不揮発性記憶装置を暗示的に含んでもよい。
他のハードウェア(通常のもの及び/又はカスタムのもの)もまた含まれてもよい。同様に、図面に示す如何なるスイッチも概念上のものに過ぎない。この機能は、プログラムロジックの動作を通じて、専用ロジックを通じて、プログラム制御と専用ロジックとの相互作用を通じて、又は手動で実行されてもよく、特定の技術は、文脈から特にわかるように、実装者により選択可能である。
特許請求の範囲において、指定の機能を実行する手段として表現された如何なる要素も、例えば、a)その機能を実行する回路要素の組み合わせ、又はb)その機能を実行するようにソフトウェアを実行する適切な回路と組み合わせた如何なる形式のソフトウェア(従って、ファームウェア、マイクロコード等を含む)を包含することを意図する。特許請求の範囲に記載の本原理は、様々な記載の手段により提供される機能が、特許請求の範囲が求めるように結合されて集められるという事実にある。従って、これらの機能を提供することができる如何なる手段も、ここに図示するものと等価であると考えられる。
明細書において本原理の“一実施例”又は“実施例”への言及は、実施例に関して記載した特定の機能、特徴、特性等が本原理の少なくとも1つの実施例に含まれることを意味する。従って、明細書を通じて様々な箇所に現れる“一実施例では”又は“実施例では”という用語が現れることは、必ずしも同じ実施例を示すとは限らない。
前述のように、本原理は、シーングラフ間の自動美的遷移方法及び装置を対象とする。有利には、本原理は、異なる要素から構成されるシーンに適用可能である。更に、有利には、本原理は、改善した美的視覚レンダリングを提供する。これは、従来技術に比べて、時間及び表示要素に関して連続的である。
必要に応じて、本原理の1つ以上の実施例に従って補間(interpolation)が実行されてもよい。このような補間は、本原理の要旨を維持しつつ、当該分野及び関連分野の当業者により容易に決定されるように実行されてもよい。例えば、補間技術は、ここに提供される本原理の教示に従って使用され得る遷移に関与する1つ以上の現在の切り替え器の分野に適用されてもよい。
ここで使用される“美的(aesthetic)”という用語は、視覚的欠陥(visual glitch)のない遷移のレンダリングを示す。このような視覚的欠陥は、幾何学的及び/又は時間的欠陥、オブジェクトの全体的又は部分的な消滅、オブジェクトの位置の不一致等を含むが、これらに限定されない。
更に、ここで使用される“エフェクト(effect)”という用語は、視覚要素の結合した又は結合していない変更を示す。映画又はテレビ業界では、“エフェクト”は、通常では“視覚(visual)”という用語に先行されるため、“視覚効果(visual effect)”となる。更に、このようなエフェクトは、典型的には、キーフレームを有する時系列(又はシナリオ)により記述される。これらのキーフレームは、エフェクトにおける変更の値を規定する。
更に、ここで使用される“遷移(transition)”という用語は、コンテキスト(特に2つのエフェクトの間)の切り替えを示す。テレビ業界では、“遷移”は、通常ではチャンネル(例えば、番組及びプレビュー)の切り替えを示す。本原理の1つ以上の実施例によれば、“遷移”は、それ自体でエフェクトである。この理由は、2つのエフェクトの間の視覚要素の変更に関与するからである。
シーングラフ(SG:scene graph)は、何らかのグラフィック(2D及び/又は3D)レンダリングで広く使用されている。このようなレンダリングは、視覚効果、ビデオゲーム、仮想世界、文字発生、アニメーション等に関与してもよいが、これらに限定されない。シーングラフは、シーンに含まれる要素を記述する。このような要素は、通常では“ノード(node)”(又は要素若しくはオブジェクト)と呼ばれる。ノードは、通常では“フィールド(filed)”(又は属性若しくはパラメータ)と呼ばれるパラメータを有する。シーングラフは、通常ではグラフィックの分野で階層的データ構造である。例えば、VRML(Virtual Reality Markup Language)、X3D、COLLADA等のように、複数のシーングラフの標準が存在する。拡張では、例えば、HTML(Hyper Text Markup Language)又はXML(extensible Markup Language)型の方式のように、他のSGML(Standard Generalized Markup Language)言語もグラフと呼ばれ得る。
シーングラフの要素は、その属性を解釈するレンダリングエンジンを使用して表示される。これは、何らかの計算(例えば、位置決めのための行列)と、何らかのイベントの実行(例えば、内部アニメーション)とを含み得る。
ここに提供される本原理の教示を前提として、本原理は、例えば、限定的ではないがHTML(この場合の補間は文字の再位置決め又はモーフィング)のような視覚グラフを含む如何なる種類のグラフィックにも適用され得ることがわかる。
どんなコンテキストであれ、シーンを作るときに、シーンの遷移又はエフェクトは、整合性の問題のため、同じ構造を利用することに制限される。このような整合性の問題は、例えば、命名の不一致、オブジェクトの不一致等を含む。複数の異なるシーン(従って、シーングラフ)が(例えば、2つ以上の視覚チャンネルを提供するために)システムの実装に存在する場合又は編集上の理由で存在する場合、異なるシーン及び対応するシーングラフの間で遷移させることは複雑になる。この理由は、オブジェクトの視覚表現が、その物理パラメータ(例えば、形状、色等)、位置、方向及び現在アクティブなカメラ/視点のパラメータに応じて異なるからである。各シーングラフは、アニメーションが既に規定されている場合、異なるエフェクトを更に規定し得る。その場合、これらのシーングラフの双方は自分の時系列を有するが、1つのシーングラフから他のシーングラフへの遷移は、(例えば、チャンネル切り替えのために)規定される必要がある。
本原理は、時系列のキーフレームを計算することにより、このような遷移エフェクトを生成するために、自動化可能な新しい技術を提案する。本原理は、2つの別のシーングラフ又は単一のシーングラフの2つの別の部分に適用可能である。
図1及び2は、本原理の2つの異なる実装を示しており、双方が、それぞれ同じ結果を実現できる。図1を参照すると、シーングラフ間の美的遷移の例示的な順次処理技術が、概して参照符号100で示されている。図2を参照すると、シーングラフ間の美的遷移の例示的な並列処理技術が、概して参照符号200で示されている。或るシステムは複数の処理ユニットを具現できるため、当該分野及び関連分野の当業者は、これらの2つの実装の間の選択は、実行プラットフォームの機能に依存することがわかる。
図面において、2つのシーングラフ(又は単一のシーングラフの2つの部分)の存在を考慮する。以下の例のいくつかでは、以下の頭文字が使用されることがある。SG1は、遷移を始めようと考えるシーングラフを示し、SG2は、遷移が終了するシーングラフを示す。
2つのシーングラフの状態は、遷移には重要ではない。何らかのループしないアニメーション又はエフェクトが既にいずれかのシーングラフに規定されている場合、遷移の時系列の開始状態は、SG1のエフェクトの時系列の終了でもよく、遷移の時系列の終了状態は、SG2のエフェクトの時系列の開始でもよい(例示的なシーケンス図については図4参照)。しかし、開始及び終了遷移点は、SG1及びSG2で異なる状態に設定されてもよい。記載の例示的な処理は、SG1及びSG2の双方の一定の状態を求める。
図1及び2に示す本原理の2つの実施例によれば、2つの別のシーングラフ又は同じシーングラフの2つの分岐が処理に利用される。本原理の方法は、シーングラフのツリーのルートで始まる。
まず、2つの別のシーングラフ(SG:scene graph)又は同じSGの2つの分岐が処理に利用される。この方法は、各シーングラフのツリーのルートで始まる。図1及び2に示すように、これは、2つのSGを取得することにより示されている(ステップ102、202)。SG毎に、所定の状態でアクティブなカメラ/視点を特定する(104、204)。各SGは、規定された複数の視点/カメラを有してもよいが、アプリケーションが多くのものをサポートしない限り、通常では唯一のものがそれぞれでアクティブである。単一のシーングラフの場合、処理に選択される単一のカメラが存在してもよい。一例として、SG1のカメラ/視点は、存在する場合には、SG1のエフェクトの終了(例えば、図4のt1 end)でアクティブなものである。SG2のカメラ/視点は、存在する場合には、SG2のエフェクトの開始(例えば、図4のt2 start)でアクティブなものである。
一般的に言えば、ステップ104、204で特定されたカメラ/視点の間で遷移(ステップ106/206)を実行(すなわち、規定)するように勧められない。この理由は、それぞれ新しくレンダリングされたフレームで切頭体(frustum)の変更を考慮する必要があるからである。従って、このことは、全体処理が各切頭体の変更について帰納的に適用されることを意味する。この理由は、各オブジェクトの視覚性が変化するからである。これはプロセッサの計算に対して集約的になるが、このような手法が、利用され得る選択肢である。この特徴は、切頭体の変更を考慮して、全体の計算された遷移について1度ではなく、レンダリングされたフレーム毎に全ての処理ステップを循環させることを意味する。これらの変更は、例えば、位置、方向、焦点距離等を含むがこれらに限定されないカメラ/視点の設定の結果である。
次に、双方のシーングラフの全ての視覚オブジェクトの視覚状態(可視状態)を計算する(108、208)。ここで、“視覚オブジェクト(visual object)”という用語は、物理レンダリング属性を有する何らかのオブジェクトを示す。物理レンダリング属性は、例えば、形状、光等を含んでもよく、これらに限定されない。全ての構造要素(例えば、ノードのグループ)が照合する必要はないが、このような構造要素及び対応する照合が、視覚オブジェクトの視覚状態の計算に考慮される。この処理は、その時系列の終了時にSG1のアクティブなカメラの切頭体に見える要素と、SG2の時系列の開始時にSG2のアクティブなカメラの切頭体に見える要素とを計算する。1つの実装では、視覚性の計算は、オクルージョン・カリング(occlusion culling)方法を通じて実行される。
双方のシーングラフの全ての視覚オブジェクトがリストに入れられる(110、210)。当業者は、これは、ステップ106、206の間に実行されてもよいことを認識する。しかし、特定の実装では、システムは複数の処理ユニットを具現し得るため、2つのタスクは別々に(すなわち、並列で)実行されてもよい。関連する視覚的及び幾何学的オブジェクトは、通常では、シーングラフのツリーにおける(例えば、複合オブジェクトの)リーフ又は抹消枝(terminal branch)である。
(図1及び図2の間でどの処理が使用されるかに応じて)ステップ108及び110の出力又はステップ209及び210の出力を使用して、双方のSGで照合する要素を取得又は検出する(112、212)。実施例(1つの特定の実装)では、システムは、(1)まず、双方のSGで可視要素を照合し、(2)次に、SG2の残りの可視要素とSG1の不可視要素とを照合し、(3)次に、SG1の残りの可視要素とSG2の不可視要素とを照合する。このステップの終わりに、照合を検出しなかったSG1の全ての可視要素が、“消滅(to disappear)”としてフラグを付けられ、照合を検出しなかったSG2の全ての可視要素が“出現(to appear)”としてフラグを付けられる。全ての照合しない不可視要素は、変更されないままでもよく、“不可視”としてフラグを付けられてもよい。
図3Aを参照すると、例示的なオブジェクト照合取得方法が、概して参照符号300で示されている。
1つのリストに入れられたノードがSG2から取得される(可視ノードから始まり、不可視ノードに進む)(ステップ302)。SG2ノードが適用されたループのアニメーションを有するか否かが決定される(ステップ304)。そうである場合、システムは補間することができ、いずれにしても、SG1のノードのリストからノードを取得することを試みる(可視ノードから始まり、不可視ノードに進む)(ステップ306)。ノードがSG1のノードのリストで依然として未使用であるか否かが決定される(ステップ308)。そうである場合、ノードのタイプ(例えば、立方体、球体、光等)を検査する(ステップ310)。そうでない場合、制御はステップ322に渡される。
次に、照合が存在するか否かが決定される(ステップ312)。そうである場合、ノードの視覚パラメータ(例えば、テクスチャ(texture)、色等)が検査される(ステップ314)。また、そうである場合、より良い照合を検出するために、制御がその代わりに任意選択でステップ306に戻されてもよい。そうでない場合、システムが変換(transformation)を処理するか否かが決定される。そうである場合、制御はステップ314に渡される。そうでない場合、制御はステップ306に戻される。
ステップ314から、照合が存在するか否かが決定される(ステップ318)。そうである場合、要素の遷移のキーフレームが計算される(ステップ320)。また、そうである場合、より良い照合を検出するために、制御はその代わりに任意選択でステップ306に戻されてもよい。そうでない場合、システムがテクスチャの遷移を処理するか否かが決定される(ステップ321)。そうである場合、制御はステップ320に渡される。そうでない場合、制御はステップ306に戻される。
ステップ320から、SG2の他のリストに入れられたオブジェクトが扱われるか否かが決定される(ステップ322)。そうである場合、制御はステップ302に戻される。そうでない場合、残りの可視の未使用のSG1の要素を“消滅”としてマーキングし、これらの時系列のキーフレームを計算する(ステップ324)。
方法300は、2つのシーングラフの照合する要素の取得を可能にする。SG1又はSG2のノードの繰り返しの開始点は重要ではない。しかし、例示の目的で、開始点はSG2のノードであるとする。この理由は、SG1は現在レンダリングに使用されており、遷移処理が図3Bに示すように並列に始まり得るからである。システムが1つより多くの処理ユニットを有する場合、いくつかの動作は並列で処理可能である。それぞれ図1及び2のステップ118、218として示す時系列の計算は、任意選択のステップであることがわかる。この理由は、これらは並列で実行されてもよく、全ての照合が実行された後に実行されてもよいからである。
本原理は、照合基準に制約を課さない。すなわち、有利には、照合基準の選択は実装者に一任される。それにも拘らず、例示及び明瞭性の目的で、様々な照合基準がここに記載される。
一実施例では、オブジェクトの照合は、簡単なノードタイプ(ステップ310、362)及びパラメータ検査(例えば、2つの立方体)(ステップ314、366)で実行されてもよい。他の実施例では、例えば形状レベルで(例えば、形状を構成する三角形又は頂点)又はテキストの文字レベルで、ノードの意味を更に評価してもよい。後者の実施例は、形状の分解を使用してもよい。これは、文字置換(例えば、文字の並び替え)及びモーフィング遷移(例えば、立方体の球体へのモーフィング又は文字の他のものへのモーフィング)を可能にする。しかし、図3A及び3Bに示すように、何らかのオブジェクトが簡単な照合基準を検出しなかった場合にのみ、選択肢としてこの下位の意味分析を選択することが好ましい。
形状に使用されるテクスチャは、オブジェクトの照合基準でもよいことがわかる。本原理は、テクスチャに制約を課さないことも更にわかる。すなわち、有利には、照合基準のためのテクスチャ及びテクスチャ文字の選択は、実装者に一任される。この基準は、外形に使用される分析又はテクスチャアドレス(場合によっては、標準的なURL(uniform resource locator))を必要とする。特定の実装のシーングラフ・レンダリングエンジンが何らかのブレンディング(blending)で複数のテクスチャを適用する機能を有する場合、テクスチャ画素の補間が実行されてもよい。
2つのSGのいずれかに存在する場合、これらのオブジェクトに適用する内部ループのアニメーションは、照合(ステップ304、356)の基準になってもよい。この理由は、これらの内部の補間を遷移に適用されるものに結合することは複雑になり得るからである。従って、実装が結合をサポートできる場合、結合が用いられることが好ましい。
オブジェクトを照合するいくつかの例示的な基準は、視覚性、名前、ノード及び/又は要素及び/又はオブジェクトのタイプ、テクスチャ、並びにループのアニメーションを含むが、これらに限定されない。
例えば、照合基準として視覚性を使用するかに拘らず、双方のシーングラフで最初に可視オブジェクトを照合することが好ましい。
照合基準として名前を使用するかに拘らず、双方のシーングラフの何らかの要素が同じ要素であるため、同じ名前を有してもよいことも考えられるが、余り可能性はない。しかし、このパラメータは、照合の示唆を与え得る。
照合基準としてノード及び/又は要素及び/又はオブジェクトのタイプを使用するかに拘らず、オブジェクトのタイプは、立方体、光等を含んでもよいが、これらに限定されない。更に、システムが意味的な変換を実行できない限り、テキスト要素は照合を破棄してもよい(例えば、“Hello”及び“Olla”)。更に、特定のパラメータ又は属性又はフィールド値も、システムが意味的な変換を実行できない限り、照合を破棄してもよい(例えば、スポットライト対指向性ライト)。また、いくつかのタイプは、照合の必要はない(例えば、アクティブなもの以外のカメラ/視点)。これらの要素は、遷移中に破棄され、遷移の開始又は終了のときに追加又は除去される。
照合基準としてテクスチャを使用することに関して、テクスチャは、ノード及び/又は要素及び/又はオブジェクトに使用されてもよく、システムがテクスチャの遷移をサポートしない場合、照合を破棄してもよい。
照合基準としてループのアニメーションを使用することに関して、ループのアニメーションの遷移をサポートしないシステムで要素及び/又はノード及び/又はオブジェクトに適用されたときに、このようなループのアニメーションは、照合を破棄してもよい。
実施例では、各オブジェクトは、自己分析を実行するために照合関数(例えば、C++での‘==’演算子又はJava(登録商標)での‘equals()’関数)を規定してもよい。オブジェクトの処理の初めに照合が見つかったとしても、より良い照合が検出されてもよい(ステップ318、364)(例えば、より良いオブジェクトのパラメータの照合又は近い位置)。
図3Bを参照すると、他の例示的なオブジェクト照合取得方法が、概して参照符号350で示されている。図3Bの方法350は、図3Aの方法300より進んでおり、ほとんどの場合により良い結果を提供し、より大きい計算コストで“より良い照合”の問題を解決する。
1つのリストに入れられたノードがSG2から取得される(可視ノードから始まり、不可視ノードに進む)(ステップ352)。SG2の他のリストに入れられたオブジェクトが扱われるか否かが決定される(ステップ354)。そうでない場合、制御はステップ370に渡される。そうである場合、SG2ノードが適用されたループのアニメーションを有するか否かが決定される(ステップ356)。そうである場合、“出現”としてマーキングし、制御はステップ352に戻される。また、そうである場合、システムは補間することができ、いずれにしても、1つのリストに入れられたノードがSG1から取得される(可視ノードから始まり、不可視ノードに進む)(ステップ358)。リストにSG1のノードが依然として存在するか否かが決定される(ステップ360)。そうである場合、ノードのタイプ(例えば、立方体、球体、光等)を検査する(ステップ362)。そうでない場合、制御はステップ352に渡される。
次に、照合が存在するか否かが決定される(ステップ364)。そうである場合、ノードの視覚パラメータから照合確率を計算し、現在計算された照合確率が前に計算された照合確率より優れている場合にのみ、SG1に照合確率を保存させる(ステップ366)。そうでない場合、システムが変換を処理するか否かが決定される。そうである場合、制御はステップ366に渡される。そうでない場合、制御はステップ358に戻される。
ステップ370において、SG1を動き回り(traverse)、プラスの確率を有するSG2オブジェクトを照合として保持する(ツリーの最上位等)。SG1の照合しないオブジェクトを“消滅”としてマーキングし、SG2の照合しないオブジェクトを“出現”としてマーキングする(ステップ372)。
このように、基本的にバイナリの照合を使用する図3Aの方法300とは対称的に、図3Bの方法350は、照合確率(366)を使用する。第2のSGのオブジェクト毎に、この技術は、(前述の照合確率に応じて)第1のSGの各オブジェクトに対する照合確率を計算する。SG2のオブジェクトとSG1のオブジェクトとの間でプラスの確率が検出された場合に、SG1のものは、値が前に計算された照合確率より高い場合にのみ記録する。SG2の全てのオブジェクトが処理されると、この技術は、SG1オブジェクトを上から下に動き回り(370)、SG1のツリー階層で最上位のSG1に照合するSG2オブジェクトを照合として保持する。このツリーレベルに照合が存在する場合、破棄される。
双方とも見える照合したオブジェクトの遷移のキーフレームを計算する(ステップ320)。SG1からSG2に遷移させる2つの選択肢が存在する。SG1からSG2に遷移させる第1の選択肢は、SG1への“出現”としてフラグを付けられたSG2からの要素を生成又は変更し、切頭体から、遷移を実行させ、SG2に切り替えることである(遷移の終了時に、双方の視覚結果が照合する)。SG1からSG2に遷移させる第2の選択肢は、SG1からSG2への“消滅”としてフラグを付けられた要素を生成し、SG2からの“出現”要素を切頭体から出し、遷移の開始時にSG2に切り替え、遷移を実行して、前に追加された“消滅”要素を除去することである。実施例では、第2の選択肢が選択される。この理由は、SG2のエフェクトは、遷移が実行された後に実行されるからである。従って、全体の処理は、(図4に示すように)SG1の使用と並列に実行することができ、できるだけ早く用意ができる。いくつかのカメラ/視点の設定は異なり得るため(例えば、焦点角度)、双方の選択肢で考慮されてもよい。選択された選択肢に応じて、1つのシーングラフから他のシーングラフに要素を追加するときに、オブジェクトの再スケーリング及び座標変換が実行される必要がある。ステップ106、206の機能が活性化される場合、これは、レンダリングステップ毎に実行されるべきである。
各要素の遷移は、異なる補間パラメータを有してもよい。可視要素の照合は、パラメータの遷移(例えば、再位置決め、再方向決め、再スケーリング等)を使用してもよい。本原理は、補間技術に制約を課さない。すなわち、有利には、どの補間技術を適用するかの選択は、実装者に一任される。
オブジェクトの再位置決め/再スケーリングは、親ノード(例えば、変換ノード)に何らかの変更を課す可能性があるため、視覚オブジェクトの親ノードも同様に自分の時系列を有する。親ノードの変更は、視覚ノードの兄弟に何らかの変更を課す可能性があるため、特定の場合には、兄弟も自分の時系列を有してもよい。このことは、例えば、変換兄弟ノードの場合に適用可能である。この場合もまた、親ノードの変更をネゴシエーションする一時変換ノードを挿入することにより、又はより簡単には、遷移エフェクトの期間の変換の依存性を除去するように適切にシーングラフの階層を変換することにより、解決され得る。
照合したオブジェクトの1つが見えない場合(すなわち、“出現”又は“消滅”としてマーキングされている場合)、照合したオブジェクトについて遷移のキーフレームを計算する(ステップ320)。このステップは、ステップ114、214の並列で、順次に、又は同じ関数呼び出しの中で実行されてもよい。他の実施例では、実装により(例えば、オブジェクトが相互に交差することを妨げるために“回避”モードを使用して、又はオブジェクトの交差を許容するために“許容”モードを使用して)ユーザが衝突モードを選択することができる場合に、双方のステップ114及び116及び/又はステップ214及び216は、相互に作用してもよい。或る実施例では(例えば、物理エンジンを管理するレンダリングシステム)、相互に作用する(例えば、相互に衝突する)オブジェクトを提供するために、第3の“相互作用(interact)”モードが実装されてもよい。
シーングラフの遷移を設定するいくつかの例示的なパラメータは、以下のものを含むが、これらに限定されない。本原理は、このようなパラメータに制約を課さないことがわかる。すなわち、有利には、このようなパラメータの選択は、本原理が適用される適用可能なシステムの機能に従って、実装者に一任される。
シーングラフの遷移を設定する例示的なパラメータは、自動実行を含む。起動されると、第1のシーングラフのエフェクトが終了するとすぐに、遷移が実行する。
シーングラフの遷移を設定する他の例示的なパラメータは、アクティブなカメラ及び/又は視点の遷移を含む。アクティブなカメラ及び/又は視点の遷移のパラメータは、パラメータとして有効/無効を含んでもよい。アクティブなカメラ及び/又は視点の遷移のパラメータは、パラメータとしてモード選択を含んでもよい。例えば、2つの視点の位置の間で実行される遷移のタイプ(例えば、“歩行”、“飛行”等)がパラメータとして使用されてもよい。
シーングラフの遷移を設定する更に他の例示的なパラメータは、任意選択の交差モードを含む。例えば、交差モードは、ここにも記載する遷移中の以下のモード:“許容”、“回避”及び/又は“相互作用”を含んでもよい。
更に、双方のSGで照合する可視オブジェクトについて、シーングラフの遷移を設定する他の例示的なパラメータは、テクスチャ及び/又はモードを含む。テクスチャに関して、以下の動作:“ブレンド(Blend)”、“ミックス(Mix)”、“ワイプ(Wipe)”及び/又は“ランダム(Random)”が使用されてもよい。ブレンディング及び/又はミキシング動作では、ミキシングフィルタのパラメータが使用されてもよい。ワイプ動作では、分解に使用されるパターンがパラメータとして使用されてもよい。モードに関して、使用される補間のタイプ(例えば、“線形”)を規定するために使用されてもよい。使用され得る高性能モードは、“モーフィング(Morphing)”、“文字置換(Character displacement)”等を含むが、これらに限定されない。
更に、双方のSGで“出現”又は“消滅”としてフラグを付けられた可視オブジェクトについて、シーングラフの遷移を設定する他の例示的なパラメータは、出現/消去モード、フェージング(fading)、細かさ、(それぞれ出現/消滅の)位置から/へを含む。出現/消滅モードに関して、“フェージング”及び/又は“移動(move)”及び/又は“爆発(explode)”及び/又は“他の高性能エフェクト”及び/又は“スケーリング”若しくは“ランダム”(システムがモードパラメータをランダムに生成する)がパラメータとして包含及び/又は使用されてもよい。フェージングに関して、実施例でフェージングモードが有効であり、選択されている場合、透明度(出現の場合は逆)が遷移の開始と終了との間で使用及び適用されてもよい。細かさに関して、例えば、爆発、高性能等のように精細モードが選択されている場合、これらがパラメータとして使用されてもよい。から/へに関して、(例えば、移動、爆発又は高性能と組み合わせて)選択されている場合、このような位置の1つがパラメータとして使用されてもよい。オブジェクトが進む/到達する“特定の位置”(これは位置がカメラの切頭体に規定されている場合にフェージングパラメータと共に使用される必要がある)、又は“ランダム”(対象のカメラの切頭体からランダムな位置を生成する)、又は“視点”(オブジェクトが視点の位置に/から移動する)、又は“反対方向”(オブジェクトが視点方向から離れて移動する/視点方向に来る)がパラメータとして使用されてもよい。反対方向は、フェージングパラメータと共に使用されてもよい。
実施例では、各オブジェクトは、自分の遷移時系列生成関数(例えば、“computeTimelineTo(Target,Parameters)”又は“computeTimelineFrom(Source,Parameters)”関数)を処理するべきである。この理由は、各オブジェクトは、処理される必要のあるパラメータのリストを有するからである。この関数は、オブジェクトのパラメータの遷移について値と共にキーフレームを生成する。
前述のパラメータの一部が実施例に使用されてもよいが、これは機能を除去する。
新しく規定された遷移もまた、それ自体でエフェクトであるため、実施例により、全体としての遷移又はパラメータ毎の更なる制御としての“速度”若しくは期間パラメータを追加することにより、自動遷移の実行が可能になる。1つのシーングラフから他のシーングラフへの遷移エフェクトは、時系列として表されてもよい。時系列は、導かれた開始キーフレームで始まり、導かれた終了キーフレームで終わる。或いは、これらの導かれたキーフレームは、Grass Valley切り替え器で使用されている“Effects DissolveTM”に似た方法で補間が進行中に計算される2つのキーフレームとして表されてもよい。従って、このパラメータの存在は、本原理がリアルタイムのコンテキスト(例えば、生)で使用されるか、編集中(例えば、オフライン又はポストプロダクション)で使用されるかに依存する。
ステップ106、206のいずれかの機能が選択された場合、処理はレンダリングステップ(フィールド又はフレーム)毎に実行される必要がある。これが、図1及び2の任意選択のループ矢印により表されている。例えば、ステップ110、210の視覚要素のリストのように、前のループからの何らかの結果が再利用されてもよいことがわかる。
図4を参照すると、本原理の方法の例示的なシーケンスが、概して参照符号400で示されている。シーケンス400は、最も厳格な時間の制約を有する“生”又は“放送”イベントの場合に対応する。“編集”モード又は“ポストプロダクション”の場合、動作は異なる順序になってもよい。図4は、本原理の方法が第1のエフェクトの実行で並列に始まってもよいことを示している。更に、図4は、それぞれSG1の終了及びSG2エフェクトの開始のときに計算された遷移の開始及び終了を表すが、これらの2つの点は、2つのシーングラフで異なる状態(異なる時点)でもよい。
図5Aを参照すると、それぞれ図1及び2の方法100及び200のステップ102、202が更に記載されている。
図5Bを参照すると、それぞれ図1及び2の方法100及び200のステップ104、204が更に記載されている。
図5Cを参照すると、それぞれ図1及び2の方法100及び200のステップ108、110及び208、210が更に記載されている。
図5Dを参照すると、それぞれ図1及び2の方法100及び200のステップ112、114、116及び212、214、216が更に記載されている。
図5Eを参照すると、t1 endの前又はその時点でのそれぞれ図1及び2の方法100及び200のステップ112、114、116及び212、214、216が更に記載されている。
図5A〜5Dは、シーングラフ構造のVRML/X3Dタイプの使用に関する。これは、ステップ106、206の機能を選択せずに、単一のパスでステップ108、110又はステップ208、210を実行する。
図5A〜5Eでは、SG1及びSG2は、それぞれ参照符号501及び502で示されている。更に以下の参照符号の表記:グループ505、変換540、ボックス511、球体512、指向性ライト530、変換540、テキスト541、視点542、ボックス543、スポットライト544、アクティブなカメラ570、及び視覚オブジェクト580が使用される。更に、凡例は概して参照符号590で示されている。
図6を参照すると、シーングラフ間で自動遷移を実行可能な例示的な装置が、概して参照符号600で示されている。装置600は、オブジェクト状態決定モジュール610と、オブジェクト照合器620と、遷移計算機630と、遷移構成器640とを含む。
オブジェクト状態決定モジュール610は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定する。オブジェクトの状態は、特定の視点でのこのオブジェクトの視覚状態を含むため、遷移の処理中に使用される位置、回転、スケーリング等の変換行列の計算に関与してもよい。オブジェクト照合器620は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定する。遷移計算器630は、オブジェクトの照合するものの遷移を計算する。遷移構成器640は、遷移を実行用の時系列に構成する。
図6の装置600は、順次処理について示されているが、当該分野及び関連分野の当業者は、本原理の要旨を維持しつつ、ここに記載の少なくともいくつかのステップの並列処理を可能にするように、装置600が内部要素の接続に関して容易に変更されてもよいことを認識することがわかる。
更に、装置600の要素は、例示及び明瞭にするためにスタンドアローン型要素として示されているが、1つ以上の実施例では、本原理の要旨を維持しつつ、1つ以上の要素の1つ以上の機能は、結合されてもよく、及び/又は1つ以上の他の要素と統合されてもよいことがわかる。更に、ここに提供される本原理の教示を前提として、本原理の要旨を維持しつつ、図6の装置600の前記及び他の変更及び変形は、当該分野及び関連分野の当業者に容易に考えられる。例えば、前述のように、本原理の要旨を維持しつつ、図6の要素は、ハードウェア、ソフトウェア及び/又はこれらの組み合わせで実装されてもよい。
本原理の1つ以上の実施例は、例えば、(1)リアルタイムのコンテキストで使用されてもよく(例えば、生のプロダクション)、使用されなくてもよく(例えば、編集、プレプロダクション又はポストプロダクション)、(2)使用するコンテキストに応じていくつかの所定の設定及びユーザ嗜好を有してもよく、(3)設定又は嗜好が設定されている場合には自動化されてもよく、及び/又は(4)実装の選択に応じて基本的な補間計算及び高性能のもの(例えば、モーフィング)をシームレスに含んでもよいことが更にわかる。当然に、ここに提供される本原理の教示を前提として、本原理の要旨を維持しつつ、前記及び他の用途、実装及び変形が、当該分野及び関連分野の当業者により容易に確かめられ得る。
更に、本原理の実施例は、例えば所定の設定を使用するとき等に、(本原理により考えられる手動の実装に対して)自動化されてもよい。更に、本原理の実施例は、例えば、遷移中に時間的及び幾何学的/空間的連続性を確保することにより、美的遷移を提供する。また、本原理の実施例は、基本的な遷移技術に対して性能上の利点を提供する。この理由は、本原理による照合は、既存の要素の再利用を確保するため、少ないメモリが使用され、レンダリング時間が短くなるからである(通常ではこの時間は遷移のときの要素の数に依存するため)。更に、本原理の実施例は、静的なパラメータ設定を処理することに対して柔軟性を提供する。この理由は、本原理は、完全に動的なSG構造を処理することができ、このため、異なるコンテキスト(例えば、ゲーム、コンピュータグラフィック、生のプロダクション等を含むが、これらに限定されない)で使用され得るからである。更に、本原理の実施例は、所定のアニメーションに比べて拡張可能である。この理由は、異なる実施例でパラメータは手動で変更、追加され、装置機能及び計算能力に応じて改善されるからである。
本発明の多数の付随する利点/特徴のいくつかについて説明する。これらのいくつかは既に記載した。例えば、1つの利点/特徴は、第1のシーングラフの少なくとも1つのアクティブな視点から第2のシーングラフの少なくとも1つのアクティブな視点に遷移させる装置である。この装置は、オブジェクト状態決定装置と、オブジェクト照合器と、遷移計算器と、遷移構成器とを含む。オブジェクト状態決定装置は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定する。オブジェクト照合器は、第1及び第2のシーングラフの少なくとも1つのアクティブな視点の間でオブジェクトの照合するものを特定する。遷移計算器は、オブジェクトの照合するものの遷移を計算する。遷移構成器は、遷移を実行用の時系列に構成する。
他の利点/特徴は、前述の装置であり、それぞれの状態は、オブジェクトのうち視覚オブジェクトのそれぞれの視覚状態を表し、オブジェクトのうち視覚オブジェクトは、少なくとも1つの物理レンダリング属性を有する。
更に他の利点/特徴は、前述の装置であり、遷移構成器は、少なくともオブジェクトのそれぞれの状態の決定、オブジェクトの照合するものの特定、及び遷移の計算と並列に遷移を構成する。
更に他の利点/特徴は、前述の装置であり、オブジェクト照合器は、照合基準を使用してオブジェクトの照合するものを特定し、照合基準は、視覚状態(可視状態)、要素名、要素タイプ、要素パラメータ、要素の意味、要素のテクスチャ、及びアニメーションの存在のうち少なくとも1つを含む。
更に、他の利点/特徴は、前述の装置であり、オブジェクト照合器は、バイナリ照合及び確率に基づく照合のうち少なくとも1つを使用する。
更に、他の利点/特徴は、前述の装置であり、オブジェクトの照合するもののうち少なくとも1つは、第1及び第2のシーングラフの一方の少なくとも1つのアクティブな視点において可視状態を有し、第1及び第2のシーングラフの他方の少なくとも1つのアクティブな視点において不可視状態を有する。
また、他の利点/特徴は、前述の装置であり、オブジェクト照合器は、まず、第1及び第2のシーングラフのオブジェクトの可視オブジェクトを照合し、次に、第1のシーングラフのオブジェクトの不可視オブジェクトに対して第2のシーングラフのオブジェクトの残りの可視オブジェクトを照合し、次に、第2のシーングラフのオブジェクトの不可視オブジェクトに対して第1のシーングラフのオブジェクトの残りの可視オブジェクトを照合する。
更に、他の利点/特徴は、前述の装置であり、オブジェクト照合器は、第1のインデックスを使用して、第1のシーングラフのオブジェクトの更なる残りの照合していない可視オブジェクトをマーキングし、第2のインデックスを使用して、第2のシーングラフの更なる残りの照合していない可視オブジェクトをマーキングする。
更に、他の利点/特徴は、前述の装置であり、オブジェクト照合器は、第3のインデックスを使用して、第1及び第2のシーングラフのオブジェクトの残りの照合していない不可視オブジェクトを無視又はマーキングする。
更に、他の利点/特徴は、前述の装置であり、時系列は、オブジェクトの照合するものの全てについて単一の時系列である。
また、他の利点/特徴は、前述の装置であり、時系列は、複数の時系列のうち1つであり、複数の時系列のそれぞれは、オブジェクトの照合するもののそれぞれに対応する。
本原理の前記及び他の特徴及び利点は、ここの教示に基づいて関連分野の当業者により容易に確かめられ得る。本原理の教示は、様々な形式のハードウェア、ソフトウェア、ファームウェア、専用目的プロセッサ、又はこれらの組み合わせで実装されてもよいことがわかる。
最も好ましくは、本原理の教示は、ハードウェアとソフトウェアとの組み合わせとして実装される。更に、ソフトウェアは、プログラム記憶ユニットに明確に具現されたアプリケーションプログラムとして実装されてもよい。アプリケーションプログラムは、何らかの適切な構造を有する機械にアップロードされて実行されてもよい。好ましくは、機械は、ハードウェア(1つ以上の中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、入出力(I/O)インタフェース等)を有するコンピュータプラットフォーム上に実装される。コンピュータプラットフォームはまた、オペレーティングシステムとマイクロ命令コードとを含む。ここに記載の様々な処理及び機能は、マイクロ命令コードの一部でもよく、アプリケーションプログラムの一部でもよく、これらの組み合わせでもよい。これらは、CPUにより実行されてもよい。更に、更なるデータ記憶ユニット及び印刷ユニットのように、様々な他の周辺ユニットがコンピュータプラットフォームに接続されてもよい。
添付図面に示す構成上のシステム構成要素及び方法のいくつかはソフトウェアに実装されることが好ましいため、システム構成要素又は処理機能ブロックの間の実際の接続は、本原理がプログラムされる方法によって異なってもよいことが更にわかる。ここの教示を前提として、当業者は、本原理の前記及び同様の実装又は構成を考えることができる。
例示的な実施例について添付図面を参照して説明したが、本原理は、これらの正確な実施例に限定されず、本原理の範囲又は要旨を逸脱することなく、様々な変更及び変形が関連分野の当業者により行われてもよいことがわかる。全てのこのような変更及び変形は、特許請求の範囲に記載の本原理の範囲内に含まれることを意図する。

Claims (44)

  1. 第1のシーングラフの少なくとも1つのアクティブな視点から第2のシーングラフの少なくとも1つのアクティブな視点に遷移させる装置であって、
    前記第1及び第2のシーングラフの前記少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定するオブジェクト状態決定装置と、
    前記第1及び第2のシーングラフの前記少なくとも1つのアクティブな視点の間で前記オブジェクトの照合するものを特定するオブジェクト照合器と、
    前記オブジェクトの前記照合するものの遷移を計算する遷移計算器と、
    前記遷移を、実行用の視覚効果の時系列に構成する遷移構成器と
    を有する装置。
  2. 前記それぞれの状態は、前記オブジェクトのうち視覚オブジェクトのそれぞれの視覚状態を表し、
    前記オブジェクトのうち前記視覚オブジェクトは、少なくとも1つの物理レンダリング属性を有する、請求項1に記載の装置。
  3. 前記遷移構成器は、少なくとも前記オブジェクトの前記それぞれの状態の決定、前記オブジェクトの前記照合するものの特定、及び前記遷移の計算と並列に前記遷移を構成する、請求項1に記載の装置。
  4. 前記オブジェクト照合器は、照合基準を使用して前記オブジェクトの前記照合するものを特定し、
    前記照合基準は、視覚状態、要素名、要素タイプ、要素パラメータ、要素の意味、要素のテクスチャ、及びアニメーションの存在のうち少なくとも1つを含む、請求項1に記載の装置。
  5. 前記オブジェクト照合器は、バイナリ照合及び確率に基づく照合のうち少なくとも1つを使用する、請求項1に記載の装置。
  6. 前記オブジェクトの前記照合するもののうち少なくとも1つは、前記第1及び第2のシーングラフの一方の前記少なくとも1つのアクティブな視点において可視状態を有し、前記第1及び第2のシーングラフの他方の前記少なくとも1つのアクティブな視点において不可視状態を有し、
    前記オブジェクト照合器は、前記第2のシーングラフでは照合しない、前記第1のシーングラフにおける全ての可視オブジェクトを特定し、前記オブジェクトを消滅するものとしてフラグを立て、前記第1のシーングラフにおいては照合しない、前記第2のシーングラフにおける全ての可視オブジェクトを特定し、前記オブジェクトを出現するものとしてフラグを立てる、
    請求項1に記載の装置。
  7. 前記オブジェクト照合器は、まず、前記第1及び第2のシーングラフの前記オブジェクトの可視オブジェクトを照合し、次に、前記第1のシーングラフの前記オブジェクトの不可視オブジェクトに対して前記第2のシーングラフの前記オブジェクトの残りの可視オブジェクトを照合し、次に、前記第2のシーングラフの前記オブジェクトの不可視オブジェクトに対して前記第1のシーングラフの前記オブジェクトの残りの可視オブジェクトを照合する、請求項1に記載の装置。
  8. 前記オブジェクト照合器は、第1のインデックスを使用して、前記第1のシーングラフの前記オブジェクトの更なる残りの照合していない可視オブジェクトをマーキングし、第2のインデックスを使用して、前記第2のシーングラフの更なる残りの照合していない可視オブジェクトをマーキングする、請求項7に記載の装置。
  9. 前記オブジェクト照合器は、第3のインデックスを使用して、前記第1及び第2のシーングラフの前記オブジェクトの残りの照合していない不可視オブジェクトを無視又はマーキングする、請求項8に記載の装置。
  10. 前記時系列は、前記オブジェクトの前記照合するものの全てについて単一の時系列である、請求項1に記載の装置。
  11. 前記時系列は、複数の時系列のうち1つであり、
    前記複数の時系列のそれぞれは、前記オブジェクトの前記照合するもののそれぞれに対応する、請求項1に記載の装置。
  12. 第1のシーングラフの少なくとも1つのアクティブな視点から第2のシーングラフの少なくとも1つのアクティブな視点に遷移させるためにコンピュータが実行する方法であって、
    前記コンピュータによって実現されたオブジェクト状態決定モジュールが、前記第1及び第2のシーングラフの前記少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定し、
    前記コンピュータによって実現されたオブジェクト照合器が、前記第1及び第2のシーングラフの前記少なくとも1つのアクティブな視点の間で前記オブジェクトの照合するものを特定し、
    前記コンピュータによって実現された遷移計算器が、前記オブジェクトの前記照合するものの遷移を計算し、
    前記コンピュータによって実現された遷移構成器が、前記遷移を、実行用の視覚効果の時系列に構成することを有する方法。
  13. 前記それぞれの状態は、前記オブジェクトのうち視覚オブジェクトのそれぞれの視覚状態を表し、
    前記オブジェクトのうち前記視覚オブジェクトは、少なくとも1つの物理レンダリング属性を有する、請求項12に記載の方法。
  14. 前記構成するステップは、少なくとも前記決定するステップ、前記特定するステップ、及び前記計算するステップと並列に実行される、請求項12に記載の方法。
  15. 前記特定するステップは、照合基準を使用し、
    前記照合基準は、視覚状態、要素名、要素タイプ、要素パラメータ、要素の意味、要素のテクスチャ、及びアニメーションの存在のうち少なくとも1つを含む、請求項12に記載の方法。
  16. 前記特定するステップは、バイナリ照合及び確率に基づく照合のうち少なくとも1つを使用する、請求項12に記載の方法。
  17. 前記オブジェクトの前記照合するもののうち少なくとも1つは、前記第1及び第2のシーングラフの一方の前記少なくとも1つのアクティブな視点において可視状態を有し、前記第1及び第2のシーングラフの他方の前記少なくとも1つのアクティブな視点において不可視状態を有し、
    前記特定するステップでは、前記第2のシーングラフでは照合しない、前記第1のシーングラフにおける全ての可視オブジェクトを特定し、前記オブジェクトを消滅するものとしてフラグを立て、前記第1のシーングラフにおいては照合しない、前記第2のシーングラフにおける全ての可視オブジェクトを特定し、前記オブジェクトを出現するものとしてフラグを立てる、
    請求項12に記載の方法。
  18. 前記特定するステップは、まず、前記第1及び第2のシーングラフの前記オブジェクトの可視オブジェクトを照合し、次に、前記第1のシーングラフの前記オブジェクトの不可視オブジェクトに対して前記第2のシーングラフの前記オブジェクトの残りの可視オブジェクトを照合し、次に、前記第2のシーングラフの前記オブジェクトの不可視オブジェクトに対して前記第1のシーングラフの前記オブジェクトの残りの可視オブジェクトを照合することを有する、請求項12に記載の方法。
  19. 前記特定するステップは、第1のインデックスを使用して、前記第1のシーングラフの前記オブジェクトの更なる残りの照合していない可視オブジェクトをマーキングし、第2のインデックスを使用して、前記第2のシーングラフの更なる残りの照合していない可視オブジェクトをマーキングすることを有する、請求項18に記載の方法。
  20. 前記特定するステップは、第3のインデックスを使用して、前記第1及び第2のシーングラフの前記オブジェクトの残りの照合していない不可視オブジェクトを無視又はマーキングすることを有する、請求項19に記載の方法。
  21. 前記時系列は、前記オブジェクトの前記照合するものの全てについて単一の時系列である、請求項12に記載の方法。
  22. 前記時系列は、複数の時系列のうち1つであり、
    前記複数の時系列のそれぞれは、前記オブジェクトの前記照合するもののそれぞれに対応する、請求項12に記載の方法。
  23. シーングラフの第1の部分の少なくとも1つのアクティブな視点から前記シーングラフの第2の部分の少なくとも1つのアクティブな視点に遷移させる装置であって、
    前記第1及び第2の部分の前記少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定するオブジェクト状態決定装置と、
    前記第1及び第2の部分の前記少なくとも1つのアクティブな視点の間で前記オブジェクトの照合するものを特定するオブジェクト照合器と、
    前記オブジェクトの前記照合するものの遷移を計算する遷移計算器と、
    前記遷移を、実行用の視覚効果の時系列に構成する遷移構成器と
    を有する装置。
  24. 前記それぞれの状態は、前記オブジェクトのうち視覚オブジェクトのそれぞれの視覚状態を表し、
    前記オブジェクトのうち前記視覚オブジェクトは、少なくとも1つの物理レンダリング属性を有する、請求項23に記載の装置。
  25. 前記遷移構成器は、少なくとも前記オブジェクトの前記それぞれの状態の決定、前記オブジェクトの前記照合するものの特定、及び前記遷移の計算と並列に前記遷移を構成する、請求項23に記載の装置。
  26. 前記オブジェクト照合器は、照合基準を使用して前記オブジェクトの前記照合するものを特定し、
    前記照合基準は、視覚状態、要素名、要素タイプ、要素パラメータ、要素の意味、要素のテクスチャ、及びアニメーションの存在のうち少なくとも1つを含む、請求項23に記載の装置。
  27. 前記オブジェクト照合器は、バイナリ照合及び確率に基づく照合のうち少なくとも1つを使用する、請求項23に記載の装置。
  28. 前記オブジェクトの前記照合するもののうち少なくとも1つは、前記第1及び第2の部分の一方の前記少なくとも1つのアクティブな視点において可視状態を有し、前記第1及び第2の部分の他方の前記少なくとも1つのアクティブな視点において不可視状態を有し、前記オブジェクト照合器は、前記第2の部分では照合しない、前記第1の部分における全ての可視オブジェクトを特定し、前記オブジェクトを消滅するものとしてフラグを立て、前記第1の部分においては照合しない、前記第2の部分における全ての可視オブジェクトを特定し、前記オブジェクトを出現するものとしてフラグを立てる、請求項23に記載の装置。
  29. 前記オブジェクト照合器は、まず、前記第1及び第2の部分の前記オブジェクトの可視オブジェクトを照合し、次に、前記第1の部分の前記オブジェクトの不可視オブジェクトに対して前記第2の部分の前記オブジェクトの残りの可視オブジェクトを照合し、次に、前記第2の部分の前記オブジェクトの不可視オブジェクトに対して前記第1の部分の前記オブジェクトの残りの可視オブジェクトを照合する、請求項23に記載の装置。
  30. 前記オブジェクト照合器は、第1のインデックスを使用して、前記第1の部分の前記オブジェクトの更なる残りの照合していない可視オブジェクトをマーキングし、第2のインデックスを使用して、前記第2の部分の更なる残りの照合していない可視オブジェクトをマーキングする、請求項29に記載の装置。
  31. 前記オブジェクト照合器は、第3のインデックスを使用して、前記第1及び第2の部分の前記オブジェクトの残りの照合していない不可視オブジェクトを無視又はマーキングする、請求項30に記載の装置。
  32. 前記時系列は、前記オブジェクトの前記照合するものの全てについて単一の時系列である、請求項23に記載の装置。
  33. 前記時系列は、複数の時系列のうち1つであり、
    前記複数の時系列のそれぞれは、前記オブジェクトの前記照合するもののそれぞれに対応する、請求項23に記載の装置。
  34. シーングラフの第1の部分の少なくとも1つのアクティブな視点から前記シーングラフの第2の部分の少なくとも1つのアクティブな視点に遷移させるためにコンピュータが実行する方法であって、
    前記コンピュータによって実現されたオブジェクト状態決定モジュールが、前記第1及び第2の部分の前記少なくとも1つのアクティブな視点におけるオブジェクトのそれぞれの状態を決定し、
    前記コンピュータによって実現されたオブジェクト照合器が、前記第1及び第2の部分の前記少なくとも1つのアクティブな視点の間で前記オブジェクトの照合するものを特定し、
    前記コンピュータによって実現された遷移計算器が、前記オブジェクトの前記照合するものの遷移を計算し、
    前記コンピュータによって実現された遷移構成器が、前記遷移を、実行用の視覚効果の時系列に構成することを有する方法。
  35. 前記それぞれの状態は、前記オブジェクトのうち視覚オブジェクトのそれぞれの視覚状態を表し、
    前記オブジェクトのうち前記視覚オブジェクトは、少なくとも1つの物理レンダリング属性を有する、請求項34に記載の方法。
  36. 前記構成するステップは、少なくとも前記決定するステップ、前記特定するステップ、及び前記計算するステップと並列に実行される、請求項34に記載の方法。
  37. 前記特定するステップは、照合基準を使用し、
    前記照合基準は、視覚状態、要素名、要素タイプ、要素パラメータ、要素の意味、要素のテクスチャ、及びアニメーションの存在のうち少なくとも1つを含む、請求項34に記載の方法。
  38. 前記特定するステップは、バイナリ照合及び確率に基づく照合のうち少なくとも1つを使用する、請求項34に記載の方法。
  39. 前記オブジェクトの前記照合するもののうち少なくとも1つは、前記第1及び第2の部分の一方の前記少なくとも1つのアクティブな視点において可視状態を有し、前記第1及び第2の部分の他方の前記少なくとも1つのアクティブな視点において不可視状態を有し、
    前記特定するステップでは、前記第2の部分では照合しない、前記第1の部分における全ての可視オブジェクトを特定し、前記オブジェクトを消滅するものとしてフラグを立て、前記第1の部分においては照合しない、前記第2の部分における全ての可視オブジェクトを特定し、前記オブジェクトを出現するものとしてフラグを立てる、
    請求項34に記載の方法。
  40. 前記特定するステップは、まず、前記第1及び第2の部分の前記オブジェクトの可視オブジェクトを照合し、次に、前記第1の部分の前記オブジェクトの不可視オブジェクトに対して前記第2の部分の前記オブジェクトの残りの可視オブジェクトを照合し、次に、前記第2の部分の前記オブジェクトの不可視オブジェクトに対して前記第1の部分の前記オブジェクトの残りの可視オブジェクトを照合することを有する、請求項34に記載の方法。
  41. 前記特定するステップは、第1のインデックスを使用して、前記第1の部分の前記オブジェクトの更なる残りの照合していない可視オブジェクトをマーキングし、第2のインデックスを使用して、前記第2の部分の更なる残りの照合していない可視オブジェクトをマーキングすることを有する、請求項40に記載の方法。
  42. 前記特定するステップは、第3のインデックスを使用して、前記第1及び第2の部分の前記オブジェクトの残りの照合していない不可視オブジェクトを無視又はマーキングすることを有する、請求項41に記載の方法。
  43. 前記時系列は、前記オブジェクトの前記照合するものの全てについて単一の時系列である、請求項34に記載の方法。
  44. 前記時系列は、複数の時系列のうち1つであり、
    前記複数の時系列のそれぞれは、前記オブジェクトの前記照合するもののそれぞれに対応する、請求項34に記載の方法。
JP2009553556A 2007-03-15 2007-06-25 シーングラフ間の自動美的遷移方法及び装置 Expired - Fee Related JP4971469B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US91826507P 2007-03-15 2007-03-15
US60/918,265 2007-03-15
PCT/US2007/014753 WO2008115195A1 (en) 2007-03-15 2007-06-25 Methods and apparatus for automated aesthetic transitioning between scene graphs

Publications (2)

Publication Number Publication Date
JP2010521736A JP2010521736A (ja) 2010-06-24
JP4971469B2 true JP4971469B2 (ja) 2012-07-11

Family

ID=39432557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009553556A Expired - Fee Related JP4971469B2 (ja) 2007-03-15 2007-06-25 シーングラフ間の自動美的遷移方法及び装置

Country Status (6)

Country Link
US (1) US20100095236A1 (ja)
EP (1) EP2137701A1 (ja)
JP (1) JP4971469B2 (ja)
CN (1) CN101627410B (ja)
CA (1) CA2680008A1 (ja)
WO (1) WO2008115195A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274764B2 (en) * 2008-09-30 2016-03-01 Adobe Systems Incorporated Defining transitions based upon differences between states
US9710240B2 (en) 2008-11-15 2017-07-18 Adobe Systems Incorporated Method and apparatus for filtering object-related features
US8803906B2 (en) * 2009-08-24 2014-08-12 Broadcom Corporation Method and system for converting a 3D video with targeted advertisement into a 2D video for display
KR101661931B1 (ko) * 2010-02-12 2016-10-10 삼성전자주식회사 3차원 그래픽스 랜더링 장치 및 그 방법
JP2013042309A (ja) * 2011-08-12 2013-02-28 Sony Corp タイムライン動作制御装置、タイムライン動作制御方法、プログラムおよび画像処理装置
US20130135303A1 (en) * 2011-11-28 2013-05-30 Cast Group Of Companies Inc. System and Method for Visualizing a Virtual Environment Online
EP2817727A4 (en) * 2012-02-23 2015-10-28 Ajay Jadhav INFRASTRUCTURE OF A PERSISTENT N UD
US10462499B2 (en) * 2012-10-31 2019-10-29 Outward, Inc. Rendering a modeled scene
EP2915038A4 (en) 2012-10-31 2016-06-29 Outward Inc DELIVERY OF VIRTUALIZED CONTENT
US10636451B1 (en) * 2018-11-09 2020-04-28 Tencent America LLC Method and system for video processing and signaling in transitional video scene
JP7286791B2 (ja) * 2019-03-20 2023-06-05 北京小米移動軟件有限公司 Vr360において視点切り替え能力を伝送する方法および装置
CN115174824A (zh) * 2021-03-19 2022-10-11 阿里巴巴新加坡控股有限公司 视频生成方法及装置、宣传类型视频生成方法及装置
CN113018855B (zh) * 2021-03-26 2022-07-01 完美世界(北京)软件科技发展有限公司 一种虚拟角色的动作切换方法和装置
CN113112613B (zh) * 2021-04-22 2022-03-15 贝壳找房(北京)科技有限公司 模型显示方法、装置、电子设备和存储介质

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412401A (en) * 1991-04-12 1995-05-02 Abekas Video Systems, Inc. Digital video effects generator
US5359712A (en) * 1991-05-06 1994-10-25 Apple Computer, Inc. Method and apparatus for transitioning between sequences of digital information
WO1993021636A1 (en) * 1992-04-10 1993-10-28 Avid Technology, Inc. A method and apparatus for representing and editing multimedia compositions
US5305108A (en) * 1992-07-02 1994-04-19 Ampex Systems Corporation Switcher mixer priority architecture
US5596686A (en) * 1994-04-21 1997-01-21 Silicon Engines, Inc. Method and apparatus for simultaneous parallel query graphics rendering Z-coordinate buffer
JP3320197B2 (ja) * 1994-05-09 2002-09-03 キヤノン株式会社 画像編集装置及びその方法
JP2727974B2 (ja) * 1994-09-01 1998-03-18 日本電気株式会社 映像提示装置
US6014461A (en) * 1994-11-30 2000-01-11 Texas Instruments Incorporated Apparatus and method for automatic knowlege-based object identification
US6154601A (en) * 1996-04-12 2000-11-28 Hitachi Denshi Kabushiki Kaisha Method for editing image information with aid of computer and editing system
US6111582A (en) * 1996-12-20 2000-08-29 Jenkins; Barry L. System and method of image generation and encoding using primitive reprojection
US6130670A (en) * 1997-02-20 2000-10-10 Netscape Communications Corporation Method and apparatus for providing simple generalized conservative visibility
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
EP0920014A4 (en) * 1997-04-12 2002-12-04 Sony Corp EDITING DEVICE AND EDITING METHOD
US6215495B1 (en) * 1997-05-30 2001-04-10 Silicon Graphics, Inc. Platform independent application program interface for interactive 3D scene management
US6204850B1 (en) * 1997-05-30 2001-03-20 Daniel R. Green Scaleable camera model for the navigation and display of information structures using nested, bounded 3D coordinate spaces
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
FR2765983B1 (fr) * 1997-07-11 2004-12-03 France Telecom Signal de donnees de modification d'une scene graphique, procede et dispositif correspondants
US6154215A (en) * 1997-08-01 2000-11-28 Silicon Graphics, Inc. Method and apparatus for maintaining multiple representations of a same scene in computer generated graphics
US6263496B1 (en) * 1998-02-03 2001-07-17 Amazing Media, Inc. Self modifying scene graph
JPH11331789A (ja) * 1998-03-12 1999-11-30 Matsushita Electric Ind Co Ltd 情報伝送方法,情報処理方法,オブジェクト合成装置,及びデ―タ記憶媒体
US6300956B1 (en) * 1998-03-17 2001-10-09 Pixar Animation Stochastic level of detail in computer animation
US6266053B1 (en) * 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
US6487565B1 (en) * 1998-12-29 2002-11-26 Microsoft Corporation Updating animated images represented by scene graphs
US6359619B1 (en) * 1999-06-18 2002-03-19 Mitsubishi Electric Research Laboratories, Inc Method and apparatus for multi-phase rendering
JP3614324B2 (ja) * 1999-08-31 2005-01-26 シャープ株式会社 画像の補間システムおよび画像の補間方法
US7050955B1 (en) * 1999-10-01 2006-05-23 Immersion Corporation System, method and data structure for simulated interaction with graphical objects
US7554542B1 (en) * 1999-11-16 2009-06-30 Possible Worlds, Inc. Image manipulation method and system
US6879946B2 (en) * 1999-11-30 2005-04-12 Pattern Discovery Software Systems Ltd. Intelligent modeling, transformation and manipulation system
US7085995B2 (en) * 2000-01-26 2006-08-01 Sony Corporation Information processing apparatus and processing method and program storage medium
US20050203927A1 (en) * 2000-07-24 2005-09-15 Vivcom, Inc. Fast metadata generation and delivery
CN1340791A (zh) * 2000-08-29 2002-03-20 朗迅科技公司 对三维的图像重建执行线性内插的方法和装置
US20020080143A1 (en) * 2000-11-08 2002-06-27 Morgan David L. Rendering non-interactive three-dimensional content
WO2002054351A2 (en) * 2000-12-06 2002-07-11 Sun Microsystems, Inc. Using ancillary geometry for visibility determination
US8006186B2 (en) * 2000-12-22 2011-08-23 Muvee Technologies Pte. Ltd. System and method for media production
GB2374775B (en) * 2001-04-19 2005-06-15 Discreet Logic Inc Rendering animated image data
GB2374748A (en) * 2001-04-20 2002-10-23 Discreet Logic Inc Image data editing for transitions between sequences
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置
EP1282070B1 (de) * 2001-08-01 2004-04-21 ZN Vision Technologies AG Hierarchische Bildmodellanpassung
US6983283B2 (en) * 2001-10-03 2006-01-03 Sun Microsystems, Inc. Managing scene graph memory using data staging
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US20030090485A1 (en) * 2001-11-09 2003-05-15 Snuffer John T. Transition effects in three dimensional displays
FI114433B (fi) * 2002-01-23 2004-10-15 Nokia Corp Otossiirtymän koodaaminen videokoodauksessa
US20030227453A1 (en) 2002-04-09 2003-12-11 Klaus-Peter Beier Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
US7439982B2 (en) * 2002-05-31 2008-10-21 Envivio, Inc. Optimized scene graph change-based mixed media rendering
EP1422668B1 (en) * 2002-11-25 2017-07-26 Panasonic Intellectual Property Management Co., Ltd. Short film generation/reproduction apparatus and method thereof
US7305396B2 (en) * 2002-12-31 2007-12-04 Robert Bosch Gmbh Hierarchical system and method for on-demand loading of data in a navigation system
JP4125140B2 (ja) * 2003-01-21 2008-07-30 キヤノン株式会社 情報処理装置、情報処理方法ならびにプログラム
FR2852128A1 (fr) * 2003-03-07 2004-09-10 France Telecom Procede pour la gestion de la representation d'au moins une scene 3d modelisee.
US7290216B1 (en) * 2004-01-22 2007-10-30 Sun Microsystems, Inc. Method and apparatus for implementing a scene-graph-aware user interface manager
US8175412B2 (en) * 2004-02-17 2012-05-08 Yeda Research & Development Co. Ltd. Method and apparatus for matching portions of input images
US7634793B2 (en) * 2004-06-03 2009-12-15 Hillcrest Laboratories, Inc. Client-server architectures and methods for zoomable user interfaces
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US20060132482A1 (en) * 2004-11-12 2006-06-22 Oh Byong M Method for inter-scene transitions
US7672378B2 (en) * 2005-01-21 2010-03-02 Stmicroelectronics, Inc. Spatio-temporal graph-segmentation encoding for multiple video streams
FR2881261A1 (fr) * 2005-01-26 2006-07-28 France Telecom Procede et dispositif de selection du niveau de detail par calcul de visibilite pour des scenes 3d multi-niveaux de details
US7825954B2 (en) * 2005-05-31 2010-11-02 Objectvideo, Inc. Multi-state target tracking
US7477254B2 (en) * 2005-07-13 2009-01-13 Microsoft Corporation Smooth transitions between animations
US9019300B2 (en) * 2006-08-04 2015-04-28 Apple Inc. Framework for graphics animation and compositing operations
US20080122838A1 (en) * 2006-09-27 2008-05-29 Russell Dean Hoover Methods and Systems for Referencing a Primitive Located in a Spatial Index and in a Scene Index

Also Published As

Publication number Publication date
JP2010521736A (ja) 2010-06-24
CN101627410B (zh) 2012-11-28
US20100095236A1 (en) 2010-04-15
CA2680008A1 (en) 2008-09-25
CN101627410A (zh) 2010-01-13
WO2008115195A1 (en) 2008-09-25
EP2137701A1 (en) 2009-12-30

Similar Documents

Publication Publication Date Title
JP4971469B2 (ja) シーングラフ間の自動美的遷移方法及び装置
EP3787285B1 (en) Image processing device, image processing method, and program
US11610353B2 (en) Seamless representation of video and geometry
US9381429B2 (en) Compositing multiple scene shots into a video game clip
Joshi et al. Cliplets: juxtaposing still and dynamic imagery
CN106251390B (zh) 动画编辑方法和动画编辑装置
CN104318600A (zh) 一种使用Bézier曲线实现角色行走轨迹动画的方法
CN108305309B (zh) 基于立体动画的人脸表情生成方法和装置
JP6891283B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US20060022983A1 (en) Processing three-dimensional data
Galvane et al. Narrative-driven camera control for cinematic replay of computer games
CN105069827A (zh) 一种采用三维模型处理视频转场的方法
US20220096947A1 (en) A toy system for augmented reality
US8674998B1 (en) Snapshot keyframing
EP3005368B1 (en) Image edits propagation to underlying video sequence via dense motion fields.
US20070182744A1 (en) Polynomial encoding of vertex data for use in computer animation of cloth and other materials
US9811936B2 (en) Level-based data sharing for digital content production
US20150002516A1 (en) Choreography of animated crowds
CN108553900B (zh) 一种基于ue引擎的可叠加存储反复使用的方法
CN113542847B (zh) 图像显示方法、装置、设备及存储介质
US10521938B1 (en) System and method for smoothing computer animation curves
US20100225648A1 (en) Story development in motion picture
CN108499109B (zh) 一种基于ue引擎实现物品可实时单侧缩放的方法
Lieng et al. Interactive Multi‐perspective Imagery from Photos and Videos
WO2007130018A1 (en) Image-based occlusion culling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100507

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20111004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees