JP2010524393A - デジタルビデオエフェクト(dve)を高める方法及び装置 - Google Patents

デジタルビデオエフェクト(dve)を高める方法及び装置 Download PDF

Info

Publication number
JP2010524393A
JP2010524393A JP2010502988A JP2010502988A JP2010524393A JP 2010524393 A JP2010524393 A JP 2010524393A JP 2010502988 A JP2010502988 A JP 2010502988A JP 2010502988 A JP2010502988 A JP 2010502988A JP 2010524393 A JP2010524393 A JP 2010524393A
Authority
JP
Japan
Prior art keywords
dve
user
video
description language
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010502988A
Other languages
English (en)
Other versions
JP5180288B2 (ja
Inventor
シルバーステイン,ラルフ,アンドリュー
チャイルダーズ,ドナルド,ジョンソン
サユック,ダヴィド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010524393A publication Critical patent/JP2010524393A/ja
Application granted granted Critical
Publication of JP5180288B2 publication Critical patent/JP5180288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

デジタルビデオエフェクト(DVE)をエンハンスする方法及び装置は、DVE機能をグラフィックスモデリングシステム内に埋め込み、制御可能なパラメータとしてユーザにモデルエレメントを与えるために構成されるインタフェースをユーザに提供する。DVE機能を組み込むため、動的なデータ構造は、ユーザにより定義されたモデルエレメントの追加を可能にするため、あるシーンとして導入される。ユーザインタフェースは、新たに導入されたモデルエレメントの識別及び該エレメントへのアクセスを可能にする。

Description

本発明は、デジタルビデオエフェクト(DVE)システムに関する。より詳細には、本発明は、ユーザがエンハンス可能なDVEを提供する方法及び装置に関する。
本出願は、2007年4月11日に提出された米国特許仮出願第60/922,849号に35U.S.C.119(e)の下で優先権を主張するものであり、この教示は、本明細書に盛り込まれる。
一般に、ビデオエフェクトは、静止画又は動画若しくはレンダリングされた視覚効果の変換を生成するために使用される。ビデオエフェクトの典型的な例は、限定されるものではないが、スケーリング、回転等のような動画像の3つの空間変換、デフォーカス、クロマティックシフト等のような画素に基づく画像像処理、及び、ベンディング、スライシング、又は異なる形式への動画像の表面のワープのような他の変換の処理又は組み合わせを含む。
ビデオエフェクトの生成は、ライブ“Live”とプレビルド“Pre-build”といった2つの個別のカテゴリに分類される。
ライブ放送のビデオエフェクトにより、専門家は、ビデオブロードキャストのリアルタイムの要求に適合しつつ、ライブビデオを変換することができる。ライブ放送のビデオエフェクトを生成するプロダクトは、様々な名称及び商標名を有し、本明細書では一般に使用される(NECで商標登録される)頭字語DVEと呼ばれ、これはデジタルビデオエフェクトを意味する。現在、DVEプロダクツにおいて、ライブ放送のビデオエフェクトは、DVEシステム内のパラメータのセットを制御することで形成される。これらのパラメーラの大部分は、取り込まれたビデオ画像に作用する。エフェクトを形成するライブ放送の専門家は、プロダクトデザインにより予め決定された及び制限される、この工場で形成されたパラメータのセットを操作することができる。
プレビルドのビデオエフェクトにより、グラフィックアーティストは、非リアルタイムで効果を生成し、結果として得られる個々の画像フレームをリアルタイムの再生に適したビデオクリップに記録することができる。プレビルドのビデオエフェクトは、グラフィックアーティスト及び関連する専門家により形成された画像を利用する。これらの画像は、多くの3D又はCAD(Computer Aided Design)モデリングシステムに典型的であるように、3Dのバーチャルオブジェクトを形成及びレンダリングすることで生成されることがある。バーチャルオブジェクト及び関連するエレメントは、3Dモデルを作成するか又は他の構造的な手段を作成することで形成され、次いで、そのモデルの構造的なパラメータを変更することで操作される。プレビルドのビデオエフェクトは、レンダリングされた画像を2Dビデオフォーマットの1フレームに一度に記録することで行われる。
本発明の1態様によれば、少なくとも2次元を有するグラフィックモデルにビデオをマッピングすることで開始するデジタルビデオエフェクトを提供する方法が提供される。グラフィックモデルのエレメントは、ユーザにより制御可能なパラメータとして割り当てられる。ビデオ出力信号と鍵のうちの少なくとも1つは、制御可能なパラメータのユーザによる調節に応答して生成される。
別の態様によれば、本発明は、グラフィックモデリングシステム内にDVE機能を組み込むステップ、モデルエレメント制御可能なパラメータとしてユーザに提供するために構成されるユーザインタフェースを提供するステップ、ユーザの入力に応答してビデオ及び/又はキーを出力するステップを含む、デジタルビデオエフェクトを提供する方法を提供する。
組み込みの態様は、ユーザにより定義されたモデルエレメントの追加を許容するためにあるシーンとして動的なデータ構造を導入し、タイプされた情報を使用して新たに導入されたモデルエレメントを識別及びアクセスするためにユーザインタフェースを提供することを含む。
導入する態様は、グラフィックスモデリングシステムにおいてカスタマイズされたオブジェクト(ノード)の特別のセットを形成することを更に含み、前記カスタマイズされたオブジェクトは、シーンの新たな部分としてDVEオブジェクトを含む。導入する態様の間、パラメータの値は、あるタイムラインにおけるキーフレームとして設定される。
別の実現によれば、動的なデータ構造は、記述言語が3Dオーサリングツールに変換され、3Dオーサリングツールから変換されるように記述言語を通して定義される。
本発明の他の態様及び特徴は、添付図面と共に考慮される以下の詳細な記載から明らかとなるであろう。しかし、本発明の制限の定義として設計されたものではなく、図面を例示することのためにのみ設計されており、特許請求の範囲に対して参照が行われるべきであることを理解されたい。さらに、図面はスケーリングするように必ずしも描かれておらず、特に示されない限り、本明細書に記載される構造及び手順を概念的に例示することが意図されることを理解されたい。
図面では、同じ参照符号は図面を通して同様のコンポーネントを示す。
位置の変化を示すシンプルな3つのキーフレームのエフェクトに適用される幾つかの補間アルゴリズムの例である。 サイズ変更され、回転された画像に適用される分割の例である。 2Dバッファにラスタライズされ、次いで3Dバッファに結合される3Dオブジェクト(通常画像と呼ばれる)のグラフィカルな図である。 最初に結合され、次いで同じ3Dバッファにラスタライズされた3Dオブジェクトのグラフィカルな図である。 従来技術のDVEシステムに係る、回転に続く2.5Dのページめくりの結果のグラフィカルな図である。 本発明の実現に係るUA-DVEのブロック図である。 図4を示す2.5Dのページめくりの結果のグラフィカルな図である。 本発明のUS-DVEの実現に係る3Dのページめくりの結果のグラフィカルな図である。 本発明の実現に係るUE-DVEフレームユニットの概念図である。 本発明の実現に係る方法のフローダイアグラムである。 本発明の実現に係る方法ステップのうちの1つステップの詳細な図である。 本発明の実現に係る方法ステップの別のステップの詳細な図である。 本発明の実現に係る方法ステップの別のステップの詳細な図である。
初期のDVEは、背景にわたり画像をサイズ変更及び位置合わせすることで、ビデオチャネルを混合するのを支援するように設計された。滑らかな遷移を提供するため、「ビデオエフェクト」が形成され、キーフレーミング及び補間の概念を利用して制御される変化を生成する。所望の位置又は状態は、時間に基づくキーフレームとして、又は補間のための制御ポイントとして捕捉される。結果として得られる効果は、画像における平滑又は連続する変化を生成する意図により、又は他の望まれる特性を生成する意図により、キーフレームからキーフレームに時間的に動く間、中間値の補間により生成される。これらの「トラディショナルな」DVEは、ビデオ画素を直接的に処理する。
ブロードキャストドメインにおけるトラディショナルなデジタルビデオエフェクト(DVE)システムにより、ライブ放送の専門家は、ビデオエフェクトを形成するために固定されたパラメータのセットを制御することができる。ユーザにより拡張可能なDVE(UE-DVE: User Enhanceable DVE)は、更に進展されたタイプのDVEであり、このDVEにより、ライブ放送の専門家は、新たなエレメントをエフェクトを構築するドメインに導入することができ、これらのエレメントを制御して、物的生産により最初に提供されたものを超える動き、ビデオ表現及び形式のレンジを有するリアルタイムの放送品質のビデオエフェクトを生成することができる。
図1は、位置の変化を示すシンプルな3つのキーフレームの効果(KF1,KF2,KF3)に適用される幾つかの補間アルゴリズムの例を示す。図示されるアルゴリズムは、“Hold”、“Linear”、“S-Linear”及び“Curve”
DVEは、長年にわたり進化しており、プレーナワープ、ライティング、デフォーカス等のような洗練された機能が追加され、今日の典型的なDVEは、多様な機能を有する。しかし、ライブ放送のプロダクションにおける使用のために、DVEにとって実行可能となることが必要な所定のキーフレームが存在する。リアルタイムで少なくともフル10ビットの解像度のビデオ入力及び出力を生成することができることに加えて、実行可能なDVEは、(特定のビデオフレームが入力し、DVEから出力する時間の3フレーム又は.05秒の遅延よりも短い)短いパイプラインの遅延を有する必要があり、ビデオ及びキーの両者を出力し、キーフレームの挿入及び編集をサポートし、エフェクトのためにキーフレーミング/補間の実行制御をサポートすることができる必要がある。主要なビデオエフェクトの構築機能は、(3次元における位置合わせ、サイズ変更及び回転、画像の歪み、クロッピング及びアスペクト比の変更を含む)3D空間で画像を変換する機能のサポートを含む必要がある。DVEがミッドレンジからハイエンドプロダクションの品質に適するため、補間の経路制御、シャドウ、スプリット、ミラー、スリット、デフォーカス、ライト、及び、ページめくり、リップル又は位置調整のような各種ワープのような更なる機能が一般に必要とされる。図2は、サイズ変更及び回転された画像にスプリットが適用されたときに、どのように見えるかを示す。
しかし、ライブ放送のDVEにとって、現在のシステムは、3D変換の算術を使用して入力画像からの画素を処理し、結果を1つのビデオ又はビデオ及びキー画像として出力のために2Dに投影するという、画像処理が中心のパラダイムを使用し続けている(このタイプのシステムは、“2.5D”と呼ばれることがある)。異なるDVE(たとえば他のソース)からの多数の画像は、次いで、最終的な結果のためにアックグランドで構成されるか、又は「適合される“keyed”」。
これらはプレーナ画像であるので、3Dシーンとしてこれらの画像をモデル化する機能は、結果として得られる適合された2D画像を層状にするか又は結合することに制限されることがある。時々使用される1つの改善は、DVEに後続する結合手段を使用することである。幾つかのDVEは、1を超えるDVE出力を正しく結合するために使用される深さキーを生成し、これにより、1を超えるDVE出力は、3D平面と交差するとき、結合されて正しく示される。しかし、このケースにおいてさえ、プレーナ画像を結合することに結果は制限される。たとえば、図3aと図3bを参照して、2つのDVEが、画像が交差するように、3Dの文字“A”及び“H”のワープされていないビデオ画像をサイズ変更及び位置合わせする場合、結合手段は、3Dモデリングシステムにより生成される3Dバーチャルオブジェクトの交差ではなく、2つのビデオ画像の面の直線の交差を示す。
現在のDVEにより提供される多くの興味ある機能が存在するが、これらの機能は、固定されたパラメータのセットにより制御可能な、ビデオに適用されるビルトイン機能に制限される。確かに、かなり洗練された効果は、この技術で達成することができるが、結果は、フル3Dの錯覚を維持するために慎重に管理される必要がある。この例は、「ページめくり」効果であり(たとえば図4を参照されたい)、ビデオ画像は、あるページのロールオフをシミュレートすることでスクリーンから除かれる。しかし、ページめくりの画像が、続いてエッジ上の位置に回転される場合、3Dの「めくられたページ」の2D投影を使用した「2.5Dシステム」であることが明らかである。
今日のDVEは、新たなモデル構築する手段を提供しない。たとえば、ユーザがあるコーンの表面にビデオ画像をラッピングすることで、ある効果を形成することを望む場合、(プロダクトデザイナが特定の機能を実現し、それを制御するパラメータを提供しない場合)これは不可能である。したがって、この結果を達成するため、ユーザは、グラフィックアーティスト又は非リアルタイムのコンテンツクリエータのソリューションに頼る必要があり、この場合、適切なモデル(あるコーン)がレンダリングされる。しかし、ライブビデオをこの表面にマッピングすることは、画像が予め記録されているとき可能ではない。注意:PRA(Pre-rendered Reverse Address (PRA))-DVE装置は、ライブ画像がマッピングされるのを可能にしないが、特別の準備を必要とする。以下のPRA-DVEに関する説明を参照されたい。
DVEをビデオ放送のスイッチャ(aska Video Production Centers, Video Mixers)に統合する傾向がある。Grass Valley Kalypsoのような最近のスイッチャは、“Transform Engines”としても知られる内部のDVEを有する。これらの内部のDVEにより、ビデオソースは、信号を外部のスタンドアロンシステムに送出し、統合された制御、効果及び低減されたパイプラインの遅延の観点で利益を提供することなしにローカルに処理される。内部又は統合されたDVEの機能は、スタンドアロンDVEに大部分が同じである。
トラディショナルなDVEは、以下のやり方で動作する。作業バッファは、3D空間におけるその位置及びそのワープ制御を含むシステムの現在の状態を定義する。変換は、最終的な結果の変換マトリクス及びワープ制御に結合される。最終的な結果のマトリクスは、リバースアドレスマトリクスに変換される。これらの結果は、リバースアドレスジェネレータ(RAG)変換レジスタ及びワープ制御レジスタのセットに送出される。リバースアドレスジェネレータは、固定されたレジスタのセットを有し、リバースアドレスマトリクス及びワープ制御を有する。出力制御クロックは、画素1ライン1で開始し、出力バッファにおける次の画素にステップする出力画素を通してステップする。クロックは、また、RAGをトリガし、ソフトウェアが固定されたレジスタ(リバース変換マトリクス及びワープ制御)に記憶した値を使用して、次の出力画素を計算するために使用されるソース画素のアドレスを計算する。ステップ4及び5は、全体の出力画像が終了するまで繰り返される。
このデザインは、ライブ放送の専門家のための固定された制御のセット、RAG制御のための固定されたレジスタ、及びRAGハードウェアにおける固定されたフォーミュラを信頼する。このデザインの利点は、DVEのオペレータが、工場で定義された、DVE自身に関するエフェクトのキーフレーム可能なパラメータを変えることができ、ライブビデオを位置合わせ、ワープ及び処理するこのエフェクトを即座に再生することができる点である。問題点は、DVEは、DVE製造業者によりそこにデザインされる制限されたワープ及びエフェクトのセットを実行することのみができる点であり、真の3DモデルをDVEにより形成することができない事実は、実行することができるエフェクトのタイプを制限する。
DVEへの別のアプローチは、予めレンダリングされたリバースアドレス(PRA-DVE)である。カスタム3Dソフトウェアパッケージは、所望のエフェクトを形成するために使用される。これは、期間、3D空間における位置及びワープを含むエフェクトの全ての態様を含む。カスタム3Dパッケージは、次いで、リバースアドレスジェネレーション(RAG)の計算を非リアルタイムで実行する。これらのアドレスは、次いで、後の再生のために記憶媒体に保存される。このプロセスは、数分を要する。オペレータがエフェクトを再生するのを望むとき、出力制御クロックは、画素1ライン1で開始し、出力画像を通してステップする出力画素を通してステップする。トラディショナルなDVEがRAGハードウェアを使用して、オンザフライでリバースアドレスを計算する場合、PRA-DVEは、記憶媒体からリバースアドレスを読み取り、それらのアドレスを使用して適切な原画像を取り込み、出力画像を形成するのに使用する。
このアプローチは様々なエフェクトを可能にするが、トラディショナルなDVEオペレータは、DVE自身のキーフレーム可能なパラメータの何れかでのアクセスを有さない。エフェクトに変化をなさないため、オペレータは、特別のソフトウェアに戻り、エフェクトを変更し、リバースアドレスを計算し直し、アドレスを記憶媒体に転送し、記憶媒体からのリバースアドレスをDVEにロードし、次いでエフェクトを再生する。このプロセスは、エフェクトの期間、オブジェクトの位置、ライティング等を含むエフェクトへの最小の変更について後続される必要があり、非常の多くの時間を要する。
別の問題点は、3Dアニメーションパッケージを使用するために必要とされるスキルと、ライブ放送の専門家となるのに要するスキルとは異なり、通常、2人の異なる人物が必要である。
PRA-DVEは、リバースアドレスの生成を実行するため、カスタムオフラインのアニメーションソフトウェアに完全に依存する。PRA-DVEの利点は、ユーザが、ライブビデオで任意の形状をもつエフェクトを形成することができる点である。PRA-DVEの問題点は、エフェクトの形成及び変更が非常に時間のかかる点である。
全ての実用的な目的について、3Dエフェクトは、通常のDVEエフェクトの編集速度で変化することができず、ライブ放送の専門家に加えてグラフィックスアーティストを必要とする。これにより、ライブプロダクションの状況において、PRA-DVEアーキテクチャの有効性が制限される。
本発明のユーザエンハンス可能な(UE)-DVEは、2D及び/3Dのグラフィックモデリングシステムと形成され、該システムに埋め込まれる新たなタイプのDVEである。特定のグラフィックスオブジェクトのコレクションが形成され(すなわちモデル)、このコレクションは、ビデオブロードキャストの要件に適合するために必要とされるリアルタイムの性能をなお達成しつつ、グラフィックスモデリングシステムエレメントを使用することでトラディショナルなDVEシステムの主要な部分を機能的に再現する。2Dビデオレコーディングをビデオミキシングドメインに取り込むのではなく、DVE機能をグラフィックスモデリングシステムに埋め込むことにより、ライブビデオを有するエフェクトは、グラフィック環境内でインタラクティブに形成される。トラディショナルなDVEエフェクトの再現について、ライブビデオはモデル内のバーチャルな表面にマッピングされ、トラディショナルなビデオのプレゼンテーション及び動きに等価な結果が生成される。しかし、工場で形成されたパラメータの制約が除かれる。新たなグラフィックスモデルエレメントは、ユーザにより導入され、新たな特徴が形成される。
この機能を可能にするため、本発明は、(従来技術で知られる)静的なデータ構造ではなく、動的なデータ構造を利用する。これにより、旧式のDVE機能のサポートについてオブジェクト及びパラメータの定義が可能となるが、UE-DVEプラットフォームについて新たなエフェクトを提供するコンテンツクリエータ又はプラットフォームオペレータの何れかにより新たなオブジェクト及びパラメータの形成が可能となる。本発明によれば、この動的なデータ構造は、シーンと呼ばれる(図7におけるエレメント712を参照されたい)。1つの実現では、このシーンは、あるシーングラフの形式を通して表現される。このデータ構造は、上位の意味に沿って(たとえばフローティングカラー又はパーセンテージの値)タイプされた情報を使用して新たなオブジェクト及びパラメータを識別及びアクセスするアプリケーションプログラミングインタフェース(API)を提供する。
したがって、このAPIを通して、エレメントは識別され、エフェクト形成システムに向けられ、読み取り及び書込みアクセスが可能となり、これにより、エフェクトを形成する機能が達成される。たとえば、ユーザは、特定の新たなモデルをインポートし、そのエレメント(フィールド)を識別し、選択されたフィールドにおける現在の値を読み取り、次いで、それらの値をキーフレームに保存し、それら値又は補間された値をそれらのそれぞれのフィールドに書き込み、すなわちエフェクトを構築及び実行する。
また、この動的な構造は、新たなユーザにより定義されたDVEを追加するためにプログラマブルコンポーネントを提供し、動的にコンパイル又は解釈されてレンダリングされるスクリプト言語及び/又は共通のグラフィックシェーダーコードの使用を通して画像処理(ビデオ画素の操作)を提供する(図7におけるエレメント718を参照されたい)。
一般に、本発明の原理は、エフェクトを構築するための新たな機能の導入を可能にすることで、ユーザに拡張されたクリエイティブな機会を提供するものである。動的なデータ構造は、3Dのオーサリングツールからの好ましくは1以上のサポートシンタックスである記述言語を通して定義されるか、3Dのオーサリングツールに記述言語を変換し、3Dのオーサリングツールから記述言語を変換するコンバータの使用を通して定義される。当業者は、異なる記述言語及び3Dオーサリングツールが本発明の範囲から逸脱することなしに使用されることを認識されるであろう。使用することができる記述言語の幾つかの例は、VRML、X3D、COLLADA等である、3Dオーサリングツールの幾つかの例は、Autodesk Maya、Autodesk 3D Studio、Blender、Softimage等とすることができる。
次いで、ユーザは、所与のシンタックスに従い、新たなオブジェクト及び/又はパラメータを形成するか、或いは、第三者のオーサリングツールの使用により、それらを外部で形成する。新たな外部で定義されたオブジェクト及びパラメータのインポートを支援するため、図5におけるエレメント508により示されるように、UA-DVEと共にユーザインタフェースのセットが提供される。それらのユーザインタフェースは、インポート及び必要な変換を実行するため、ユーザに対してフレンドリなやり方でUA-DVEを制御する。それらのユーザインタフェースの幾つかは、UA-DVEシーンAPI(又は他のユーザインタフェース)を使用して、UA-DVEプラットフォーム内でオブジェクト及びパラメータを動的に形成する。これらの特徴は、限定されるものではないがリアルグラフィックスオブジェクトの外観を再現することを含めて、3Dモデリング環境においてグラフィックスオブジェクトの全ての固有のキャパシティをもつ3Dモデリング環境でライブビデオエレメントを完全に表現する能力を含む。これらの特徴は、モデル又はモデルエレメントのグラフィックスモデリングシステムの導入により、又はモデルエレメントの変更により、次いで、モデルエレメントが制御可能なパラメータとしてユーザに提供される事実のため、あるタイムラインにおいてキーフレームとしてこれらのパラメータの値を設定して、再び呼び出されて実行されるライブ放送のビデオエフェクトを形成することで実現される。
また、本発明は、トラディショナルなグラフィックスアーティストのコンテンツ生成のワークフローに関連されるプロダクションコストを低減することを約束する。たとえば、ライブ放送の専門家がトラディショナルなグラフィックスデパートメントのエフェクトを利用するのを望むとき、エフェクトをビデオクリップにレンダリングし直すグラフィックスアーティストにより変更が行われる。しかし、本発明のUE-DVEによれば、オブジェクトパラメータの一部又は前部を変更する機能は、スタジオで変更を行うため、リアルタイムでエフェクトのライブを迅速にレンダリングするためにライブ放送の専門家に提供される。これは、(インポートされた又はインポートされない)オブジェクトのパラメータについて容易に実行される。それは、動的なデータシンタックスが、シーンのオブジェクトについてタイプされたパラメータ情報を与えるからであり、それらパラメータは、次いで、ユーザにより定義された数のキーフレームの値及び補間のタイプを定義することで、旧式のDVEにおいて通常実行されるように、タイムラインを通して制御される。
本発明のUE-DVEシステムは、バーチャルの3Dオブジェクトのシーン内であるDVEの完全に機能的なグラフィカルモデルを実現することで、DVEの動きを再現することができる。
図5を参照して、本発明に係るUE-DVEシステム500の例示的な実現が示される。グラフィックオブジェクトの同期された又はゲンロックされた(Gen-locked)ライブビデオ入力は、他のメディアソース502からの静止画及び他のデータと共に、グラフィックスモデリングシステム504によりシステムに供給される。計算された結果として得られる画像は、ライブビデオとしてUE-DVEフレームユニット506から出力される。このDVEモデルの制御パラメータは、UE-DVEユーザインタフェース(UI)508を通してアクセス可能である。また、更なる一般的な制御方法は、たとえばEthernet(登録商標)又はシリアルコネクション(たとえばSony BVW-75、PBus2等)を通して、様々なプロトコルを介してサポートされる。
UE-DVEシステム500の鍵となる機能は、UE-DVEフレームユニット506に含まれており、このユニットは、UE-DVEソフトウェアアプリケーション、レンダリングしステム、入力画像処理システム、及び、出力画像処理システム(図7参照)を収容する。ソフトウェアは、DVEの動きを実行し、たとえばネットワーク又はハードドライブアクセスといった通信及び代替的なメディア又はデータトランスポートについて様々なコネクションと同様に、ビデオ入力及び出力チャネルをサポートする。UE-DVEフレームユニット506は、図5に示されるライブプロダクションスイッチャ510のような他のビデオプロダクションユニットと調和して機能するように設計される。ビデオ入力及び出力の物理的なコネクションは、ユニット506に付随し、別途ワークコネクション及び各種のシリアルデバイスコネクションは、同様にユニットに提供される。
本発明のUE-DVEは、大部分のトラディショナルなDVE機能をサポートするデフォルトモデルを提供する。たとえば、ページめくりのエフェクトは、正しいワープモードを選択し、パージめくりのオフセット、半径及び向きを設定するすることで形成される。全体として、ビデオ画像の位置は、位置及び回転パラメータを制御することで設定される。以下に図6に示されるように、1つの区別される違いは、トラディショナルなDVEシステム内で、ページめくりが真の3Dモデリングシステムにおいて生成されないことであり(すなわち「2.5D」)、したがって、回転されたときに誤って見え(図4参照)、図6a及び図6bに示されるUE-DVEのページめくりは、3Dシーン内の3Dオブジェクトとして真にレンダリングされるため、任意の角度から正しく見える。
トラディショナルなDVEのように、UE-DVEは、ライブビデオのエフェクトを構築する機能を提供する。所望のシーンの1以上のキーフレームを捕捉するエフェクトは、システムを所望の状態に設定し、次いで、その状態をあるエフェクト内のキーフレームとして保存することで、トラディショナルなやり方で構築される。
グラフィックスオブジェクトは、同じフレームバッファで構成されるので、これらは互いに交差する可能性がある(なお、本発明のUE-DVEは、個別のフレームバッファを提供し、出力に応じたオーバレイとして互いに結合される合成レイヤを追加することで、これらの交差を回避する意図的に回避する可能性を提供するものである)。
最も重要なことに、本発明のUE-DVEは、新たなDVE機能を追加する機能を有する。これらは、デフォルトモデルにの変更又は追加を導入することで形成される。たとえば、変更又は追加は、制御パラメータとしてユーザに提供されるモデルエレメントとすることができる。幾つかの有効なエレメントは、ライト、カメラ、レイヤ及び変換ノードであり、容易な追加のような内部で提供される。他のモデル又はモデルエレメントは、VRML、X3D又はCOLLADAのような共通の記述言語を使用したファイルとしてインポートすることができる。
たとえば、人間の頭の完全な3Dモデルは、UE-DVEにインポートされ、人間の頭部のモデルの皮膚は、ライブビデオ画像で動的にラッピングされる。
全てのケースにおいて、シーン内で正しく識別されるエレメントは、UE-DVEパラメータシステムに自動的に向けられ、それらのエレメントを制御する手段が提供される。
UE-DVEシステムは、DVEにグラフィックスモデリングシステムのクリエイティブなキャパシティを導入するシステムであり、グラフィックアーティストのようなユーザが、ライブ放送の環境の厳密な要件を満たしつつ、新たなDVE機能を提供する新たなモデルエレメントを導入することを可能にする。
導入されたエレメントは、UE-DVEユーザにより制御することができる。したがって、ライブ放送の専門家は、オフラインのアニメーションシステムに戻ることを必要とすることなしに、必要に応じてそのシーンに迅速な変更をなすことができ、リアルタイムのライブ放送のビデオエフェクトは、この機能を利用して構築することができる。これにより、製作時間の節約につながる。
本発明のUE-DVEは、予めレンダリングされたリバースアドレス(PRA)DVEの機能を超えて、トラディショナルのDVEの編集のエフェクトの速度及び容易さを更に提供する。新たな創作性のレベルは、UE-DVEを使用してライブ放送の専門家について可能となる。
図7は、本発明のUA-DVEフレームユニット506の例示的な実現を示す。トランスポート702は、ユーザインタフェース508及び他の装置(たとえば信号を制御するトランスポート用のHDD)への物理的なコネクションであり、たとえばEthernet(登録商標)、ワイヤレス、IEEE1394、シリアル、パラレル等のようなコネクションのようなネットワークとすることができる。中央処理ユニットCPU704は、フレームソフトウェア通信706を実行し、アプリケーション708とトランスポート702間のデータを制御し、必要に応じて適切な変換を実行する。
アプリケーション708で、限定されるものではないがコンフィギュレーション、ユーザインタフェースからのコマンドの処理、ロード、マネージメント、ビデオエフェクトの編集及び実行、シーン内のエレメントへのアクセスの確立及び維持、シーン状態の更新、及び、リアルタイムのレンダリングプロセスの高水準の制御を含む一般的なシステムの機能が管理される。
ビデオエフェクトストレージ710は、キーフレーム及び他のエフェクトデータの形式でビデオエフェクトの値を維持(記憶)する。
シーン712は、レンダリング及び関連される処理に応じて、結果として得られる出力ビデオ画像を生成する画像生成システムの状態を含む。シーンブロック712は、シーングラフ及び動的な構造の他の表現を使用することができる。
アップデート及びレンダリングパイプラインコントロール714は、システムのリアルタイムの要求を管理する。アプリケーション708を通してエフェクトの実行(すなわち補間)が同期され、シーン712は、正しい時間で更新され、レンダリングは、ビデオゲンロックと同期するために正しい時間で行われる。
入力画像処理716は、シリアルデジタルインタフェース(SDI)の形式で入力画像/ビデオソース722及び他のビデオ及び静止画の入力を受け、入力画像を内部表現に処理する。この処理は、デインタレース、キーのアプリケーション、フォーマット変換、フィルタリング、及び他の画像処理動作を含む。入力画像/ビデオソース722は、高精細ディスプレイ(HDD)又は同軸ケーブルの転送画像のような物理的な接続を提供する(たとえば、SDIフォーマット及び/又はシステムへの他のビデオフォーマットを使用したビデオ及び/又はキー信号及びゲンロック信号)。
レンダリング手段718は、入力ビデオ又は他のソース又は手段722を利用して、レンダリングパイプライン制御714により制御されたときに出力用に画像をレンダリングするためにシーン712により定義される構成を使用する。このレンダリング手段は、ソフトウェアコンポーネント又はハードウェアコンポーネントの何れかであるか、或いはそれら2つの混合とすることができる。その主要な目的は、たとえばビデオフィールドレートの制約内で、リアルタイムでラスタライズを実行することである。ラスタライズプロセスは、マッピング手段によりオブジェクトに任意のビデオ又は静止画をマッピングすることを含む。1つの実現では、レンダリング手段は、OpenGLインタフェースを通して使用されるグラフィックス処理ユニット(GPU)を構成する。他の実施の形態は、加速された光線追跡法を実現するソフトウェア又はハードウェアをサポートする。
出力画像処理720は、ビデオ画像の内部表現を処理し、SDI及び/又は他のビデオフォーマットとして出力する。処理は、限定されるものではないが、インタレース、フィルタリング、ミキシング、クロッピング、及びフォーマット変換を含む。出力画像/ビデオ724は、HDD又は同軸ケーブルのトランスポート画像のような物理コネクションを提供する(たとえば、システムからのビデオ及び/又はキー信号及びゲンロック信号)。
イメージストリーム726は、入力画像処理716からレンダリング手段718に画像データを転送する。画像ストリーム出力手段728は、レンダリング手段718から出力画像処理720に画像データを転送する。画像バイパス730は、入力画像処理716から出力画像処理720に直接に画像を送出するのを可能にする。
図8aは、本発明に係る方法800の基本的なフローダイアグラムを示す。はじめに、DVE機能は、グラフィックスモデリングシステム内に埋め込まれる(802)。埋め込みは、動的なデータ構造を利用して、モデルエレメントをモデリングシステムに導入すること(たとえばマッピングすること)を含む。当業者であれば、この動的なデータ構造は、あるシーンの形式とすることができることを認識されるであろう。ひとたび埋め込まれると、制御可能なパラメータとしてユーザにモデルエレメントを提供するためにユーザインタフェースが提供される(804)。ユーザ入力に応答して、ビデオ及びキーが出力される(806)。
図8bは、本発明の実現に係る組み込みステップ802を示す。組み込み802は、ユーザにより定義されたエレメントの追加を可能にするため、あるシーンとして動的なデータ構造を導入することを含む(810)。ひとたび行われると、ユーザには、タイプされた情報を使用して新たに導入されたモデルエレメントを識別及びアクセスするため、インタフェースが提供される(812)。図示されるように、動的なデータ構造の定義は、記述言語を通して行われる(814)。
図8cは、本発明の実現に係る導入ステップ(810)を示す。導入ステップ(810)は、グラフィックスモデリングシステムにおける特別のカスタマイズされたオブジェクト(ノード)のセットを作成することで実行することができる。カスタマイズされたオブジェクトは、そのシーンの新たな部分としてDVEオブジェクトを構成する。次いで、パラメータ値は、ある時系列におけるキーフレームとして設定される。
図8dは、本発明の実現に係る定義ステップ(814)を示す。したがって、動的なデータ構造(814)の定義は、記述言語を定義することで実行され、これにより、3Dオーサリングツールに変換され、3Dオーサリングツールから変換される(820)。
記載される実現の特徴及び態様は、様々な応用に適用される場合がある。応用は、たとえば、上述されたように、Ethernet(登録商標)とケーブル通信フレームワークを使用してインターネットで通信するためにそれらの家でホスト装置を使用する個人を含む。しかし、本明細書で記載された特徴及び態様は、他の応用の分野に適用され、したがって、他の応用も可能であって想定される。たとえば、ユーザは、たとえばパブリックスペース又はそれらの仕事場のような、それらの家の外に位置される場合がある。さらに、インターネット及びケーブル以外のプロトコル及び通信媒体が使用される場合がある。たとえば、データは、光ファイバケーブル、ユニバーサルシリアルバス(USB)ケーブル、SCSI(Small Computer System Interface)ケーブル、電話回線、デジタル加入者回線/ループ(DSL)回線、衛星コネクション、ラインオブサイト(line of site)コネクション、及びセルラコネクション(及びこれらに関連するプロトコルを使用して)送出及び受信される。
本明細書で記載される実現は、たとえば方法又はプロセス、装置、又はソフトウェアプログラムで実現される場合がある。実現の単一の形式の文脈でのみ説明されたとしても(たとえば方法としてのみ記載されたが)、説明される機能の実現も他の形式で実現される(たとえば装置又はプログラム)。装置は、たとえば適切なハードウェア、ソフトウェア及びファームウェアで実現される。本方法は、たとえば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラマブルロジックデバイスを含む、一般に処理装置を示すプロセッサのような装置で実現される場合がある。また、処理装置は、たとえばコンピュータ、携帯電話、ポータブル/パーソナルデジタルアシスタント(PDA)、及びエンドユーザ間で情報の伝達を容易にする他の装置のような通信装置を含む。
本明細書で記載された様々なプロセス及び機能の実現は、たとえばデータ送信及び受信に関連される機器又はアプリケーションといった、様々な異なる機器又はアプリケーションで実施される場合がある。機器の例は、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、及び他の通信装置を含む。明らかであるように、機器は、モバイルであり、更に移動車両でインストールされる場合がある。
さらに、本方法は、プロセッサにより実行される命令により実現される場合があり、係る命令は、集積回路、ソフトウェアキャリア、又はハードディスク、コンパクトディスク、ランダムアクセスメモリ(RAM)又はリードオンリメモリ(ROM)のような他の記憶装置といった、プロセッサにより読み取り可能な媒体で記憶される場合がある。命令は、プロセッサが読み取り可能な媒体で有形に実施されるアプリケーションプログラムを形成する場合がある。明らかであるように、プロセッサは、たとえば、プロセスを実行する命令を有するプロセッサ読み取り可能な媒体を含む。
当業者にとって明らかであるように、実現は、たとえば記憶又は送信される情報を搬送するためにフォーマットされる信号を生成する場合がある。この情報は、たとえば方法を実行する命令、又は記載された実現のうちの1つにより生成されるデータを含む場合がある。係る信号は、たとえば(たとえばスペクトルの無線周波部分を使用した)電磁波又はベースバンド信号としてフォーマットされる場合がある。フォーマットは、たとえば、データストリームをエンコードすること、エンコードされたストリームをパケット化すること、搬送波をパケット化されたストリームで変調することを含む。信号が搬送する情報は、たとえば、アナログ又はデジタル情報である場合がある。信号は、知られているように、様々な異なる有線又は無線リンクを通して送信される場合がある。
多数の実現が記載された。しかし、様々な変更が行われる場合があることを理解されるであろう。たとえば、異なる実現のエレメントが結合され、補充され、変更され、又は除去されて、他の実現が生成される。さらに、当業者であれば、他の構造及びプロセスが開示された構造及びプロセスについて置き換えられる場合があり、結果として得られる実現が、少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を実行して、開示された実現と少なくとも実質的に同じ結果を達成することを理解されるであろう。

Claims (22)

  1. デジタルビデオエフェクト(DVE)を提供する方法であって、
    DVE機能をグラフィックスモデリングシステムに組み込むステップと、
    制御可能なパラメータとしてユーザにモデルエレメントを与えるために構成されるユーザインタフェースを設けるステップと、
    ユーザ入力に応答してビデオ及び/又はキーを出力するステップと、
    を含むことを特徴とする方法。
  2. 前記組み込むステップは、
    ユーザにより定義されたモデルエレメントの追加を可能にするため、あるシーンとして動的なデータ構造を導入するステップと、
    タイプされた情報を使用して新たに導入されたモデルエレメントを識別し、アクセスするためのユーザインタフェースを設けるステップと、
    を含む請求項1記載の方法。
  3. 前記導入するステップは、
    前記グラフィックスモデリングシステムにおいて特別のカスタマイズされたオブジェクト(ノード)のセットを形成するステップを更に含み、
    前記カスタマイズされたオブジェクトは、前記シーンの新たな部分としてDVEオブジェクトを含む、
    請求項2記載の方法。
  4. 前記導入するステップは、時系列においてキーフレームとして前記パラメータの値を設定するステップを更に含む、
    請求項2記載の方法。
  5. 記述言語を通して前記動的なデータ構造を定義するステップを更に含む、
    請求項2記載の方法。
  6. 前記定義するステップは、前記記述言語が3次元のオーサリングツールに変換され、前記記述言語が前記3次元のオーサリングツールから変換されるように前記記述言語を定義するステップを更に含む、
    請求項5記載の方法。
  7. プログラム記憶装置で実施されるアプリケーションプログラムを有するプログラム記憶装置であって、
    前記アプリケーションプログラムは、
    DVE機能をグラフィックスモデリングシステムに組み込むステップと、
    制御可能なパラメータとしてユーザにモデルエレメントを与えるために構成されるユーザインタフェースを設けるステップと、
    ユーザ入力に応答してビデオ及び/又はキーの少なくとも1つを出力するステップと、
    を少なくとも実行する命令を含む、
    ことを特徴とするプログラム記憶装置。
  8. 前記アプリケーションプログラムは、
    ユーザにより定義されたモデルエレメントの追加を可能にするため、あるシーンとして動的なデータ構造を導入するステップと、
    タイプされた情報を使用して新たに導入されたモデルエレメントを識別し、アクセスするためのユーザインタフェースを設けるステップと、
    を少なくとも実行する命令を更に含む、
    請求項7記載のプログラム記憶装置。
  9. 前記アプリケーションプログラムは、
    前記グラフィックスモデリングシステムにおいて特別のカスタマイズされたオブジェクト(ノード)のセットを形成するステップを少なくとも実行する命令を更に含み、
    前記カスタマイズされたオブジェクトは、前記シーンの新たな部分としてDVEオブジェクトを含む、
    請求項8記載のプログラム記憶装置。
  10. 前記アプリケーションプログラムは、
    時系列においてキーフレームとして前記パラメータの値を設定するステップを少なくとも実行する命令を更に含む、
    請求項8記載のプログラム記憶装置。
  11. 前記アプリケーションプログラムは、
    記述言語を通して前記動的なデータ構造を定義するステップを少なくとも実行する命令を更に含む、
    請求項8記載のプログラム記憶装置。
  12. 前記アプリケーションプログラムは、
    前記記述言語が3次元のオーサリングツールに変換され、前記記述言語が前記3次元のオーサリングツールから変換されるように前記記述言語を定義するステップを少なくとも実行する命令を更に含む、
    請求項11記載のプログラム記憶装置。
  13. デジタルビデオエフェクト(DVE)を提供する装置であって、
    DVE機能をグラフィックスモデリングシステムに組み込む手段と、
    制御可能なパラメータとしてユーザにモデルエレメントを与えるために構成されるユーザインタフェースを設ける手段と、
    ユーザ入力に応答してビデオ及び/又はキーを出力する手段と、
    を含むことを特徴とする装置。
  14. 前記組み込み手段は、
    ユーザにより定義されたモデルエレメントの追加を可能にするため、あるシーンとして動的なデータ構造を導入する手段と、
    タイプされた情報を使用して新たに導入されたモデルエレメントを識別し、アクセスするためのユーザインタフェースを設ける手段と、
    を含む請求項13記載の装置。
  15. 前記導入する手段は、
    前記グラフィックスモデリングシステムにおいて特別のカスタマイズされたオブジェクト(ノード)のセットを形成する手段を更に含み、
    前記カスタマイズされたオブジェクトは、前記シーンの新たな部分としてDVEオブジェクトを含む、
    請求項14記載の装置。
  16. 前記導入する手段は、時系列においてキーフレームとして前記パラメータの値を設定する手段を更に含む、
    請求項14記載の装置。
  17. 記述言語を通して前記動的なデータ構造を定義する手段を更に含む、
    請求項14記載の装置。
  18. 前記定義する手段は、前記記述言語が3次元のオーサリングツールに変換され、前記記述言語が前記3次元のオーサリングツールから変換されるように前記記述言語を定義する手段を更に含む、
    請求項17記載の装置。
  19. デジタルビデオエフェクトを提供する方法であって、
    少なくとも2次元を有するグラフィックスモデルにビデオをマッピングするステップと、
    ユーザにより制御可能なパラメータとして前記グラフィックスモデルのエレメントを割り当てるステップと、
    制御可能なパラメータのユーザによる調節に応答してビデオ出力信号とキーとの少なくとも1つを生成するステップと、
    を含むことを特徴とする方法。
  20. 前記グラフィックスモデルは、あるシーンを含む、
    請求項19記載の方法。
  21. 前記グラフィックスモデルにおいて特別のオブジェクトのセットを形成するステップを更に含む、
    請求項21記載の方法。
  22. 前記特別のエレメントのセットは、少なくとも1つのデジタルビデオ編集エレメントを含む、
    請求項21記載の方法。
JP2010502988A 2007-04-11 2007-11-08 デジタルビデオエフェクト(dve)を高める方法及び装置 Active JP5180288B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US92284907P 2007-04-11 2007-04-11
US60/922,849 2007-04-11
PCT/US2007/023582 WO2008127308A1 (en) 2007-04-11 2007-11-08 Method and apparatus for enhancing digital video effects (dve)

Publications (2)

Publication Number Publication Date
JP2010524393A true JP2010524393A (ja) 2010-07-15
JP5180288B2 JP5180288B2 (ja) 2013-04-10

Family

ID=39276142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010502988A Active JP5180288B2 (ja) 2007-04-11 2007-11-08 デジタルビデオエフェクト(dve)を高める方法及び装置

Country Status (6)

Country Link
US (3) US8914725B2 (ja)
EP (1) EP2145468B1 (ja)
JP (1) JP5180288B2 (ja)
CN (1) CN101647270A (ja)
CA (1) CA2682935C (ja)
WO (1) WO2008127308A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011094292A1 (en) * 2010-01-28 2011-08-04 Pathway Innovations And Technologies, Inc. Document imaging system having camera-scanner apparatus and personal computer based processing software
CN101917556A (zh) * 2010-07-16 2010-12-15 吴鹏飞 基于智能终端的智能指导式视频制作及播放方法
US20120256906A1 (en) * 2010-09-30 2012-10-11 Trident Microsystems (Far East) Ltd. System and method to render 3d images from a 2d source
KR101883354B1 (ko) * 2011-05-30 2018-07-30 삼성전자주식회사 터치 스크린을 구비한 기기에서 전자 지도의 브라우징을 위한 장치 및 방법
CN102752523B (zh) * 2011-08-26 2017-09-19 新奥特(北京)视频技术有限公司 一种对dve进行实时控制的方法及装置
US20150373230A9 (en) * 2012-07-23 2015-12-24 Timecode Systems Ltd Networked programmable timecode and metadata transfer system
US9576397B2 (en) 2012-09-10 2017-02-21 Blackberry Limited Reducing latency in an augmented-reality display
US9436358B2 (en) 2013-03-07 2016-09-06 Cyberlink Corp. Systems and methods for editing three-dimensional video
US9049386B1 (en) 2013-03-14 2015-06-02 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a bug-overlay DVE
US9473801B1 (en) * 2013-03-14 2016-10-18 Tribune Broadcasting Company, Llc Systems and methods for causing a stunt switcher to run a bug-removal DVE
US10277923B2 (en) 2014-02-18 2019-04-30 Tribune Broadcasting Company, Llc Using a digital video effect to generate a video stream
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US9779307B2 (en) 2014-07-07 2017-10-03 Google Inc. Method and system for non-causal zone search in video monitoring
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9929824B2 (en) 2015-01-26 2018-03-27 Timecode Systems Limited Networked programmable master clock base stations
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US9883212B2 (en) 2015-09-24 2018-01-30 Tribune Broadcasting Company, Llc Video-broadcast system with DVE-related alert feature
US20170094323A1 (en) * 2015-09-24 2017-03-30 Tribune Broadcasting Company, Llc System and corresponding method for facilitating application of a digital video-effect to a temporal portion of a video segment
US10455257B1 (en) 2015-09-24 2019-10-22 Tribune Broadcasting Company, Llc System and corresponding method for facilitating application of a digital video-effect to a temporal portion of a video segment
US9866732B2 (en) 2015-10-12 2018-01-09 Timecode Systems Limited Synchronizing data between personal and timecode devices
US10063637B2 (en) 2015-10-12 2018-08-28 Timecode Systems Limited Synchronizing data between personal and timecode devices
EP3157240A1 (en) 2015-10-12 2017-04-19 Timecode Systems Limited Synchronizing data between personal and timecode devices
US10742733B2 (en) 2015-10-12 2020-08-11 Timecode Systems Limited Synchronizing data between media devices
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10395412B2 (en) 2016-12-30 2019-08-27 Microsoft Technology Licensing, Llc Morphing chart animations in a browser
US10304225B2 (en) * 2016-12-30 2019-05-28 Microsoft Technology Licensing, Llc Chart-type agnostic scene graph for defining a chart
US11086498B2 (en) 2016-12-30 2021-08-10 Microsoft Technology Licensing, Llc. Server-side chart layout for interactive web application charts
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
CN108012090A (zh) * 2017-10-25 2018-05-08 北京川上科技有限公司 一种视频处理方法、装置、移动终端及存储介质
CN108900903B (zh) * 2018-07-27 2021-04-27 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
US11849244B2 (en) * 2021-07-22 2023-12-19 Grass Valley Canada System and method for temporal keying in a camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6295666A (ja) * 1985-10-21 1987-05-02 Sony Corp 画像発生装置
JP2006505050A (ja) * 2002-11-01 2006-02-09 ソニー エレクトロニクス インク 動画像構成方法及びシーン構成方法
JP2007013874A (ja) * 2005-07-04 2007-01-18 Sony Corp 画像特殊効果装置,グラフィックスプロセッサ,プログラム及び記録媒体

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
US5053760A (en) * 1989-07-17 1991-10-01 The Grass Valley Group, Inc. Graphics path prediction display
US5412401A (en) * 1991-04-12 1995-05-02 Abekas Video Systems, Inc. Digital video effects generator
GB2256567B (en) * 1991-06-05 1995-01-11 Sony Broadcast & Communication Modelling system for imaging three-dimensional models
DE69314231T2 (de) * 1992-04-24 1998-03-05 Sony Uk Ltd Belichtungseffekte für ein digitales Videoeffektensystem
GB2277847B (en) * 1993-05-03 1997-08-20 Grass Valley Group Method of creating video effects by use of keyframes
US6021229A (en) * 1995-11-14 2000-02-01 Sony Corporation Imaging processing method for mapping video source information onto a displayed object
GB2312119B (en) * 1996-04-12 2000-04-05 Lightworks Editing Systems Ltd Digital video effects apparatus and method therefor
GB2323991B (en) * 1997-04-04 1999-05-12 Questech Ltd Improvements in and relating to the processing of digital video images
US6069668A (en) * 1997-04-07 2000-05-30 Pinnacle Systems, Inc. System and method for producing video effects on live-action video
GB2340363B (en) * 1998-07-31 2002-09-11 Sony Uk Ltd Image processing and rendering
US7549128B2 (en) * 2000-08-08 2009-06-16 Thomson Licensing Building macro elements for production automation control
US6583793B1 (en) * 1999-01-08 2003-06-24 Ati International Srl Method and apparatus for mapping live video on to three dimensional objects
US20050030432A1 (en) * 1999-01-28 2005-02-10 David Ross Video production switcher with integrated digital video processing
DE19908898A1 (de) 1999-03-02 2000-09-07 Voith Sulzer Papiertech Patent Verfahren zur Zudosierung eines fluiden Mediums in einen Suspensionsstrom eines Stoffauflaufes und Stoffauflauf
US6369835B1 (en) * 1999-05-18 2002-04-09 Microsoft Corporation Method and system for generating a movie file from a slide show presentation
US6452598B1 (en) * 2000-01-18 2002-09-17 Sony Corporation System and method for authoring and testing three-dimensional (3-D) content based on broadcast triggers using a standard VRML authoring tool
US20020036639A1 (en) * 2000-01-31 2002-03-28 Mikael Bourges-Sevenier Textual format for animation in multimedia systems
US7756391B1 (en) * 2000-09-01 2010-07-13 Matrox Electronic Systems Ltd. Real-time video editing architecture
FR2820269A1 (fr) * 2001-01-30 2002-08-02 Koninkl Philips Electronics Nv Procede de traitement d'images en 2d appliquees sur des objets en 3d
JP4035978B2 (ja) * 2001-10-05 2008-01-23 コニカミノルタホールディングス株式会社 3次元形状モデルの評価方法および生成方法並びに装置
US6919891B2 (en) * 2001-10-18 2005-07-19 Microsoft Corporation Generic parameterization for a scene graph
US7669129B2 (en) * 2003-04-04 2010-02-23 Avid Technology, Inc. Graphical user interface for providing editing of transform hierarchies within an effects tree
FR2855758B1 (fr) 2003-06-05 2005-07-22 Biomerieux Sa Composition comprenant la polyproteine ns3/ns4 et le polypeptide ns5b du vhc, vecteurs d'expression incluant les sequences nucleiques correspondantes et leur utilisation en therapeutique
US20050088458A1 (en) * 2003-07-31 2005-04-28 Marrin Christopher F. Unified surface model for image based and geometric scene composition
US20050231643A1 (en) * 2004-03-26 2005-10-20 Ross Video Limited Method, system and device for real-time non-linear video transformations
US7450124B2 (en) 2005-03-18 2008-11-11 Microsoft Corporation Generating 2D transitions using a 3D model
US20070132757A1 (en) * 2005-05-16 2007-06-14 Tal Hassner Constrained model composition
US7854865B2 (en) 2005-06-08 2010-12-21 Essilor International Method of injection molding thin thermoplastic lenses
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
US8239766B2 (en) * 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
KR100989459B1 (ko) * 2006-03-10 2010-10-22 네로 아게 비디오 프레임 시퀀스를 제공하는 장치 및 방법, 장면 모델을 제공하는 장치 및 방법, 장면 모델, 메뉴 구조를 생성하는 장치 및 방법 그리고 컴퓨터 프로그램
US8026931B2 (en) * 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6295666A (ja) * 1985-10-21 1987-05-02 Sony Corp 画像発生装置
JP2006505050A (ja) * 2002-11-01 2006-02-09 ソニー エレクトロニクス インク 動画像構成方法及びシーン構成方法
JP2007013874A (ja) * 2005-07-04 2007-01-18 Sony Corp 画像特殊効果装置,グラフィックスプロセッサ,プログラム及び記録媒体

Also Published As

Publication number Publication date
US20100122168A1 (en) 2010-05-13
CN101647270A (zh) 2010-02-10
US10088988B2 (en) 2018-10-02
EP2145468A1 (en) 2010-01-20
WO2008127308A1 (en) 2008-10-23
EP2145468B1 (en) 2012-09-12
US20150074535A1 (en) 2015-03-12
US20190034062A1 (en) 2019-01-31
CA2682935C (en) 2020-01-28
US11079912B2 (en) 2021-08-03
US8914725B2 (en) 2014-12-16
CA2682935A1 (en) 2008-10-23
JP5180288B2 (ja) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5180288B2 (ja) デジタルビデオエフェクト(dve)を高める方法及び装置
US6763175B1 (en) Flexible video editing architecture with software video effect filter components
US8306399B1 (en) Real-time video editing architecture
US6570581B1 (en) On-location video assistance system with computer generated imagery overlay
EP2174299B1 (en) Method and system for producing a sequence of views
CN112804459A (zh) 基于虚拟摄像头的图像展示方法、装置、存储介质及电子设备
US9959905B1 (en) Methods and systems for 360-degree video post-production
WO2021135320A1 (zh) 一种视频的生成方法、装置及计算机系统
WO2008118065A1 (en) Graphics rendering system
JP2011023902A (ja) 画像処理装置および画像処理方法
Jackson Digital video editing fundamentals
O’Dwyer et al. Samuel Beckett in Virtual Reality: Exploring narrative using free viewpoint video
EP3246921B1 (en) Integrated media processing pipeline
KR20200035696A (ko) 가상현실 영상 편집 시스템 및 방법
KR100403942B1 (ko) 3차원 가상공간내에서 목적물 선택시 동영상을 구현하는시스템
JP2011221718A (ja) 生成装置、生成方法、及びプログラム
KR100403943B1 (ko) 3차원 가상공간 화면에서 목적물의 이미지를 재구성편집하는 시스템
KR20000050196A (ko) 3차원 가상공간 화면상에서 관람자의 관람방향을 표시하고이와 연동하여 목적물의 3차원 형태가 변화하는 3차원가상공간 시스템 및 이를 구현하는 방법
Li Development of Post-production Synthesis Technology
CN116112760A (zh) 视频合成方法、装置、电子设备及存储介质
Zhang Human Factors in Communication of Design, Vol. 90, 2023, 166–175 AHFE
Qudratovich THE TYPES OF SOFTWARE FOR EDITING MULTIMEDIA INFORMATION
Altan et al. Case Study: Bridging Gaming and Broadcast Technology for High Productivity Production
Routhier How Will We Archive And Preserve The Movies Of Tomorrow?
Whittington Contemporary Film Technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101101

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20111004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130110

R150 Certificate of patent or registration of utility model

Ref document number: 5180288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113