JP2012094144A - ビデオの3−d情報および他の情報用の一元管理データベース - Google Patents

ビデオの3−d情報および他の情報用の一元管理データベース Download PDF

Info

Publication number
JP2012094144A
JP2012094144A JP2011232857A JP2011232857A JP2012094144A JP 2012094144 A JP2012094144 A JP 2012094144A JP 2011232857 A JP2011232857 A JP 2011232857A JP 2011232857 A JP2011232857 A JP 2011232857A JP 2012094144 A JP2012094144 A JP 2012094144A
Authority
JP
Japan
Prior art keywords
video
data
metadata
light
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011232857A
Other languages
English (en)
Inventor
Steven Osman
オスマン スティーブン
Stamate Vlad
ステイメイト ブラッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2012094144A publication Critical patent/JP2012094144A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ビデオの3−D情報および他の情報用の一元管理データベースのための方法および装置を提供する。
【解決手段】オブジェクトおよび音声の追加、削除を含むビデオの編集のために照会および使用されうる、カメラデータ、光データ、音声データ、オブジェクトデータ、深度データ、注記データ等のビデオメタデータを、一元管理データベースが格納する。一元管理データベースに記録されているメタデータは大衆に公開されており、投稿者メタデータを受け付けることができる。
【選択図】図1

Description

(関連出願への相互参照)
本願は、2010年10月25日出願の米国特許出願第12/911,688号(代理人整理番号90619−786152(008000US)、旧026340−008000US))の継続出願であり、その利益を主張し、その全体を、あらゆる目的のために本願明細書に援用する。
本発明は、一般に、ビデオメタデータの記録および共有に関し、より詳細には、3−D画像の生成、適切な光および音声効果を用いたシーンに対するオブジェクトの追加または削除、注記の提供、シーンの編集に使用される、カメラデータ、光データ、音声データ、オブジェクトデータ、深度データ、注記データなどのビデオメタデータを記録する一元管理サーバに関する。このメタデータは、ビデオに関わる関係者によって、あるいはインターネットユーザなどの無関係の投稿者によって提供されうる。
ビデオ作成技術では、現在のところ、潜在的にキャプチャされたメタデータを記録したり、これを利用可能にすることができない。
また、ビデオ編集技術は手動で行われることが多く、例えば、ブルーバックの背景で撮影したオブジェクトの必要な光質を推定して、このオブジェクトを既存のビデオに挿入している。
本発明の一実施形態は、ビデオ識別子を含む、ディスプレイに表示させるビデオデータを受信するステップと、サーバに記録されており、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述するビデオ光位置メタデータを含むビデオメタデータを、前記ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに照会するステップと、前記サーバから前記ビデオメタデータを受信し、前記受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するステップと、前記ディスプレイに前記編集済みビデオデータを出力するステップと、を有する方法を対象としている。
本発明の別の実施形態は、ビデオメタデータを使用してシーンを編集する方法を対象としており、前記メタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む。
本発明の例示の実施形態は、前記ビデオデータからオブジェクトを削除する方法を対象としており、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される。
本発明の例示の実施形態は、前記ビデオデータにオブジェクトを追加する方法を対象としており、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される。
本発明の例示の実施形態は、方法を対象としており、前記ビデオデータの前記編集は、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析する。
本発明の例示の実施形態は、方法を対象としており、前記ビデオの前記編集は前記ビデオから音声を削除し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される。
本発明の例示の実施形態は、方法を対象としており、前記削除するオブジェクトを識別するためにオブジェクト切り出しデータ、深度マップデータおよび注記データが使用される。
本発明の例示の実施形態は、ディスプレイに表示させる、ビデオ識別子を含むビデオデータを受信し、ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに前記ビデオメタデータを照会し、前記サーバから前記ビデオメタデータを受信し、受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するプレーヤと、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述する前記ビデオ光位置メタデータを含む前記ビデオメタデータを記録するサーバと、前記編集済みビデオを表示するためのディスプレイと、を有するシステムを対象としている。
本発明の例示の実施形態は、映画メタデータデータベースを改訂する方法に関し、前記方法は、第1の投稿者からビデオシーン用の第1のメタデータ投稿を受信するステップと、前記第1のメタデータ投稿をビデオメタデータデータベースに記録するステップと、前記第1のメタデータ投稿を受信した後に、第2の投稿者からビデオシーン用の第2のメタデータ投稿を受信するステップと、前記第2のメタデータ投稿が前記第1のメタデータ投稿よりも正確であることを決定するステップと、前記ビデオメタデータデータベースに記録されている前記第1のメタデータ投稿の少なくとも一部を、前記第2のメタデータ投稿で置換するステップと、を有する。
例示の実施形態による、ビデオメタデータ用の一元管理データベースシステムのブロック図である。 例示の実施形態による、一元管理データベースに記録されているビデオメタデータのタイプおよび構造のブロック図である。 例示の実施形態による、ビデオメタデータがキャプチャおよび記録される場所と時点のセッティングを示す設定の例である。 3D画像を生成するために、所定時間に収集される2つの2−D画像の組合せを示す図である。 例示の実施形態によるシーンの図である。 例示の実施形態による、要素が追加および削除されている図5Aのシーンの図である。 例示の実施形態による、ビデオにオブジェクトを追加するプロセスフローである。 例示の実施形態による、ビデオからオブジェクトを削除するプロセスフローである。 例示の実施形態による、シーンを編集するプロセスフローである。 本発明の実施形態と使用するために適したコンピュータシステムの例である。
本発明の性質および利点については、添付の図面を参照することにより更に深く理解することができる。添付の図面においては、同様の構成要素または特徴には、同じ参照符号が付されていることがある。
ここで図面を使用して、本発明に係る異なる実施形態を示す。図面は、実施形態の特定の例であり、実施形態を限定するものと解釈すべきではなく、例示的な形態および手順を示すものである。
コンパクトディスクに記録されている音楽アルバムはアルバム識別子を含んでおり、このアルバム識別子を使用して、一元管理音楽アルバムデータベースに照会し、アルバム名、個々の曲名、アーティスト情報などの音楽アルバムメタデータにアクセスすることができる。その後、この音楽アルバムメタデータがユーザまたは聞き手に表示されうる。同様に、ビデオも、ビデオメタデータの照会に使用できるビデオ識別子によって識別することができる。ビデオメタデータは、音楽メタデータよりもはるかに大量のデータを含み、ビデオの編集や3−D画像の生成などの異なる目的に使用することができる。このため、ビデオの3−D情報および他の情報用の一元管理データベースのための技術が求められている。ビデオメタデータは、愛好家が自分で編集するか、ビデオプレーヤが映画をリアルタイムに編集するために、愛好家やビデオプレーヤによってアクセスされうる。
ビデオメタデータ用の一元管理データベースにより、ユーザまたは視聴者が、有益なビデオ情報を提供するメタデータを照会し、これを受信して、ビデオを、元のビデオの特性と整合するように編集または表示することが可能となる。例えば、シーンに追加したオブジェクトに対して、残りのシーンの光を記述しているビデオメタデータに従って、光を再適用(リライト:relight)すること、あるいは再度光をあてることができる。一元管理データベースは、注記データと、ビデオの作製に関わる関係者あるいは無関係の投稿者から提供されるデータとを格納してもよい。
シーン内のオブジェクトに対するカメラの位置およびカメラの移動と、これらの移動とに関するビデオメタデータにより、三次元画像およびビデオの生成が可能となる。また、光および音声メタデータにより、適切な光および音声効果によるオブジェクトおよび音声の追加と削除とが可能となる。また、ビデオメタデータにより、明るさ、コントラストなどのビデオの各種属性の編集が可能となる。また、オブジェクトメタデータを使用して、シーン内のオブジェクトおよびキャラクタが識別されてもよく、これらは、編集に、あるいは注記の提供に使用されうる。3−D効果を更に拡張したり、ビデオ編集を支援するために、深度メタデータ、オブジェクト切り出しデータおよび他のビデオメタデータが使用されうる。
例示の実施形態では、所定期間におけるシーン内のオブジェクトに対するカメラの移動を記述するメタデータを使用して2つの画像が生成され、これらの画像の一方は前の時点のオブジェクトの画像であり、もう一方はわずかに後の時点の同じオブジェクトの画像である。この2つの画像は、わずかに異なっており、三次元画像の基礎となる立体画像の対を生成するために、メタデータと一緒に使用されて、カメラおよびシーン内の他のオブジェクトに対するオブジェクトの移動が決定される。別の実施形態では、光の種類、光の強度およびシーンに対する光源の位置などの光データにより、デジタル処理によって生成されるオブジェクトなどの新しいオブジェクトを、適切な光でシーンに追加することが可能となる。また、新しいオブジェクトをシーンに追加して、新しい音声を適切に作り出すための音声データを組み込むこともできる。シーンからオブジェクトまたは音声を削除したり、あるいは、シーンの光および音質を編集するために、同様の技術を使用することができる。
別の実施形態では、未知の形状のオブジェクトに光を再適用して、基準画像の組(そのオブジェクトは静止しているが、照明光源が回転している)から、当該オブジェクトのビジュアルハル(visual hull)を生成することができる。この技術では、オブジェクトの複数の基準画像(複数の静止写真など)を結合して、合成画像が生成される。各基準画像内では、光源がわずかに異なる場所に移動される。その後、この基準画像の組が併合されて、光源の位置、および異なる光条件下でのオブジェクトの反射率に関する情報を格納する合成画像ファイルが生成される。この光メタデータによって、オブジェクトがどのように光に応答するかをマップし、オブジェクトに仮想的に光を再適用することが可能となる。この合成画像は画像を表示し、光源を画像内で移動可能にし、光源の移動をアニメーション化して示す。この技術により、色、テクスチャ、マークを鮮明化することができる。例示の実施形態では、合成画像を生成するために、多項式テクスチャマップが使用される。別の実施形態では、合成画像はパラメトリック写真である。オブジェクトに光を再適用するために、双方向反射率分布関数を使用することができる。
また、オブジェクトのビジュアルハルは、シルエットからの形状復元法を使用する幾何学的近似法によって決定できる。これらの方法は、任意の視点におけるオブジェクトのシルエットが、3−D空間内の円錐に再投影するという事実を利用するものである。オブジェクトによって占有される全ての空間は、円錐内に存在している必要がある。全ての可能な視点から全ての円錐を交差させた後に、本発明者らはオブジェクトの形状の慎重な概算を取得し、これはビジュアルハルと呼ばれる。
例示の実施形態では、ビデオは、高ダイナミックレンジレンダリングによりキャプチャされる。この方式では、シーンが、高ダイナミックレンジでキャプチャされたのち、低コントラスト比で詳細を維持するために後から結合される。例えば、1つのシーンが、ダイナミックレンジの高いカメラとダイナミックレンジの低いカメラの2台のカメラで記録されうる。同じシーンのビデオが、より詳しい詳細を示すために、後で結合されうる。
例示の実施形態では、ビデオメタデータが、ビデオマッティングプロセスで使用される。フィルムベースのブルーバックマッティング技術は、広く普及しているが、厳密に制御された均一な色の背景を使用する必要がある。しかし、自然画像マッティングなどの他の技術では、オブジェクトの輪郭を定義すれば、前景のオブジェクトを通常の画像から抽出できることがわかっている。ビデオメタデータはオブジェクトの輪郭を識別することができ、追加処理を行うことでオブジェクト自体を識別することができる。別の実施形態では、オプティカルフロー技術を使用して、前景、背景および未知の領域を詳細に描写する手描きのトリマップを、時間にわたって適用することができる。これらの技術は、前景のオブジェクトの識別を補助するためにメタデータを使用しうる。
一元管理データベースは、ビデオのキャプチャに関わる関係者によって提供されるメタデータを使用して作製されうる。例えば、ビデオの撮影に関わる製作会社が、自社のカメラによってキャプチャされ、自社の文書から利用可能なメタデータを、一元管理データベースに直接提供してもよい。カメラおよび他の装置の位置が、トラッキングデバイスによってキャプチャされうる。別の実施形態では、一元管理データベースは、投稿者の入力を受け付けもよく、この場合、投稿者は、ビデオの撮影と無関係の者でもよい。ビデオの視聴者などのビデオの撮影と無関係の者が、シーン内のキャラクタやオブジェクトを識別するメタデータなどのメタデータを、データベースに提供することができる。例示の実施形態では、投稿者は、インターネットを介してメタデータを提供することができる。ビデオのメタデータは、例えば「wiki」フォーマットを使用してコミュニティによって編成されうる。メタデータは、投稿者のコミュニティによって編成され、更新されうる。ビデオメタデータwikiは、どのユーザも編集することができる。このため、個々の投稿されたものは、コミュニティがより正確であると判断した、後の投稿されたものに置き換えられうる。
この説明は、例示のみを行うものであり、本発明の範囲、利用可能性または構成を限定することを意図するものではない。逆に、以下の実施形態の説明は、当業者に、本発明の実施形態を実装するための実施可能な説明を与えるものである。本発明の趣旨ならびに範囲から逸脱することなく、要素の機能および構成をさまざまに変更することができる。
このため、各種実施形態では、適宜、さまざまな手順または構成要素を省略したり、置き換えたり、追加することができる点を強調する必要がある。例えば、代替の実施形態では、方法が記載した順序と異なる順序で実行され、さまざまなステップを追加、省略したり組み合わせてもよい点に留意すべきである。また、特定の実施形態に関して記載した特徴を、さまざまな他の実施形態に組み合わせてもよい。実施形態の異なる態様および要素を、同様に組み合わせてもよい。
また、以下のシステム、方法およびソフトウェアが個々にあるいは集合的に、より大きなシステムの構成要素でもよく、その場合、本発明の適用を変更するために、他の手順が優先されても、何らかの方法で変更されてもよいことを理解すべきである。また、以下の実施形態の前、間、後、あるいはそれと同時に、複数のステップが必要とされてもよい。
図1は、例示の実施形態による、ビデオメタデータ用の一元管理データベースシステム100のブロック図である。データベース104は、3−D情報や他のビデオ情報などのビデオメタデータを含むデータ106を記録するための一元管理サーバである。ビデオメタデータは、カメラデータ、光データ、音声データ、オブジェクトデータおよび深度データを含んでも良い。また、ビデオメタデータは、製作または編集データ、クレジット情報および注記データを含んでもよい。例示の実施形態では、ビデオメタデータは、投稿者によって提供されたデータを含んでもよい。また、データ106は、複数台のカメラの位置およびビデオ、ならびに立体画像の対を記述するデータなどの三次元データを含んでもよい。
データベース104に記録されているデータ106は、サーバ102を介してアクセスされうる。サーバ102は、ウェブサーバ、FTPサーバ、サーバホスティングAPI、あるいは、ネットワーク112に接続され、ネットワーク112を介してデータを提供するサーバなどである。例示の実施形態において、ネットワーク112は、インターネット、イントラネット、エクストラネット、モバイルネットワークまたは電気通信網などである。プレーヤ110は、ディスプレイ108に送られて表示されうるビデオデータを処理する。
プレーヤ110は、デジタルビデオディスク(DVD)プレーヤ、3−Dプロセッサ、ゲームコンソール、ハンドヘルドデバイス、携帯電話、またはビデオデータを処理して表示させることができる任意のデバイスなどである。プレーヤ110によって処理されたビデオ情報は、ディスプレイ108に表示される。プレーヤ110は、ディスプレイ108に接続されうる。ディスプレイ108は、テレビ、プラズマスクリーン、携帯電話、コンピュータスクリーン、画面付きのポータブル演算デバイス、またはビデオを表示可能な任意のデバイスなどである。
プレーヤ110は、ネットワーク112を介してサーバ102と通信しうる。プレーヤ110は、プレーヤ110が処理しているビデオに関連するデータ106について、サーバ102に照会し、データベース104にアクセスしうる。
例示の実施形態では、プレーヤ110は、プレーヤ110が再生しており、ビデオ識別子によって識別されるビデオに関連するビデオメタデータにアクセスするために、サーバ102にビデオ識別子を送信する。プレーヤ110は、データベース104またはサーバ102から取得したビデオメタデータを、ディスプレイ108に送信しうる。例示の実施形態では、プレーヤ110は、サーバ102から受信したビデオメタデータを処理して、ビデオを拡張または編集しうる。
例示の実施形態では、プレーヤ110は、データディスク114からビデオデータを取得しうる。データディスク114は、データベース104に記録されているデータ106の一部を格納しており、ビデオデータと、サーバ102への照会に使用されるおよびビデオ識別子とを格納していてもよい。プレーヤ110は、データディスク114に記録されているデータと、データベース104から取得したデータとを同時に表示することができる。また、データ106には、ダウンロードまたはストリーミングされるデータが含まれてもよい。
例示の実施形態では、個々の投稿者116が、ネットワーク112を介してサーバ102と通信して、ビデオメタデータの投稿を提供することができる。投稿者116は、ビデオの作成と関係のない個々の視聴者でも、ビデオの作成に直接関わっている関係者でもよい。投稿者116は、サーバ102と通信することによって(例えばウェブインタフェイスを介して投稿を提供することによって)、メタデータを追加することができる。メタデータ投稿は、後から取り出すことができるようにデータベース104に記録されうる。提供されたメタデータは、プレーヤ110あるいは他の投稿者116によって取得されうる。例示の実施形態では、データベース104に記録されているデータ106は、ネットワーク112を介して、例えばウェブサイトのインターネットユーザからアクセス可能でもよい。メタデータは、一般のインターネットユーザ、または事前に選択されているインターネットユーザの集合に公開されている、すなわち、これらのユーザからアクセス可能でもよい。
例示の実施形態では、投稿者116は、注記またはコメントを提供することができる。注記およびコメントは、ビデオの所定の時間の特定のシーンに関するものでも、ビデオ全体について記述するものでもよい。投稿者116は、シーン内のオブジェクトを識別するメタデータ、または、光、音声および他のデータを識別するメタデータなどを提供することができる。また、サーバ102にデータを直接入力するなど、データベース104にデータを投稿する他の方法も存在してもよい。例示の実施形態では、ビデオメタデータの投稿は、推定または近似であり、後からより正確なデータに置き換えられてもよい。
図2は、例示の実施形態による、一元管理データベース200に記録されているビデオメタデータのタイプおよび構造のブロック図である。一元管理サーバによって記録されている3Dおよびビデオメタデータ201は、カメラデータ202、光データ204、音声データ206、オブジェクト切り出しデータ208、深度マップデータ210および注記データ211を含んでもよい。ビデオメタデータは、1フレームの粒度で記録されうる。ビデオメタデータは粗くてもよく、例示の実施形態では、最小粒度は1フレームである。
例示の実施形態では、カメラデータ202は、時間データ212を含んでもよい。時間データ212は、特定のシーン、フレームまたはビデオがキャプチャされた正確な時点または複数の時点を示すことができる。時間データ212は、日、月、時、分、秒および年を示すことができる。また、時間データ212は、タイムゾーンデータ、季節データ、ビデオの長さ、およびビデオの残り時間を含んでもよい。時間データ212は、映画のシーンの長さ、ビデオのチャプタを記述するなど、ビデオおよびフレームを相互に解析するために使用されてもよく、他のメタデータと一緒に使用されてもよい。
別の実施形態では、カメラデータ202は、レンズパラメータデータ214を含んでもよい。レンズパラメータデータ214は、カメラのレンズがビデオまたは画像をキャプチャした際のその属性を記述するものであってもよい。例えば、レンズパラメータデータ214は、レンズのズーム、アパーチャのサイズすなわち開口、シャッタ速度(存在する場合)、レンズが広角またはマクロかどうか、画像安定機能の状態、レンズのブランドおよびモデル、ならびに他のレンズパラメータおよび構成などを記述することができる。シーンの編集により、そのシーンが、同様のパラメータを有するレンズで撮影されたように見えるように、レンズパラメータデータ214が解析されうる。
例示の実施形態では、カメラデータ202は、仕様データ216を含んでもよい。仕様データ216は、カメラがビデオまたは画像をキャプチャした際のその属性を記述するものであってもよい。例えば、仕様データ216は、ホワイトバランス、ISO、フレームレート、ガンマ、シャープネス、明るさ、コントラスト、データ圧縮形式、カメラのブランドおよびモデル、ならびに他の設定を含んでもよい。仕様データ216は、カメラの設定、およびセンサの品質を記述するものでもよい。シーンの編集により、そのシーンが、同様の設定を有するカメラで撮影されたように見えるように、仕様データ216が解析されうる。
別の実施形態では、カメラデータ202は、位置データ218を含んでもよい。位置データ218は、カメラがビデオデータをキャプチャした際の、カメラの位置について記述することができる。例えば、位置データ218は、GPSデータ、経度および緯度の座標でも、住所や場所の名称(例えば、「セントラルパーク」)などの特定の場所を記述するデータでもよい。位置データ218は、「崖の背後10フィート」など、他のオブジェクトに対する位置を記述してもよい。位置データ218は、ピントをあわせたオブジェクトに対してなど、シーンの内外に存在するオブジェクトに対して記述されても、あるいは、シーンに対して記述されてもよい。例えば、位置データ218は、カメラとシーン内のオブジェクトとの両方が、特定の方向に特定の速度で動いていることを記述してもよい。
また、カメラデータ202は、視点データ220を含んでもよい。視点データ220は、特定の位置でのカメラの視点を記述することができる。例えば、視点データ220は、カメラが向いている方向および角度を記述することができる。視点データ220は、カメラのX軸、Y軸およびZ軸における角度を記述することができる。このようなデータは、カメラの高さ、カメラが向いている方向、カメラが上下のいずれを向いているかを記述してもよい。視点データ220は、複数の方法で記述することができ、例えば、東西南北の値、あるいは、角度または回転度によって記述することができる。
上記のカメラデータ202は、所定の期間キャプチャされうる。例えば、カメラの位置データ218と視点データ220とが所定の期間キャプチャされ、移動を示すために時間データ212と組み合わせられうる。また、レンズパラメータデータ214、カメラ仕様データ216などの他のカメラデータ点が所定期間キャプチャされて、例えば、10分の映画でこれらのパラメータがどう変化したかが記録されてもよい。時間ベースのデータから、カメラの速度および加速度222を得ることができる。例えば、カメラを、特定の速度および加速度でA点からB点に移動したのち、別の速度および加速度でB点からC点に移動して測定することができる。また、カメラデータ202が、複数台のカメラを記述してもよい。例えば、2台以上のカメラの位置および設定が経時的に記録されてもよい。
3Dおよびビデオメタデータ201は、光データ204を含むことができる。光データ204は時間データ224を含むことができ、このデータは、カメラの時間データ212のフォーマットと似ているが、光源に対するものである。時間データ224は、特定の時点の光源を記述しており、後からシーンを編集するのに光源をトラッキングするために使用されうる。また、時間データ224は、フレームのシーケンス内の特定のフレームに対して光源を記述することもできる。例えば、時間データは、光源の経時的な変化をトラッキングすることができる。例示の実施形態では、光データ204は位置データ226を含むことができ、このデータは、カメラの位置データ218のフォーマットと似ているが、光源に対するものである。位置データ226は、光源の位置を記述しており、後からシーンを編集するために使用されうる。例えば、位置データ224は、経度および緯度の座標で記述されても、あるいは、GPSデータによって記述されてもよい。位置データ224は、シーンに対する位置でも、シーンの内外のオブジェクトに対する位置でもよい。例えば、光源は、主カメラの背後10フィート、左10フィートのように記述されうる。
光データ204は、強度データ228、種類データ230および視点データ232を含んでもよい。強度データ228は、特定の光源の明るさまたはワット数を記述することができる。タイプデータ228は、光の種類、ならびに光源の他の品質を記述することができ、これには、プールライトの色、温度、焦点、サイズ、スロー長、暗さレベル、焦点があっているオブジェクト、シャッタ、遮光ドア、他のデバイスなどの任意のマスキングデバイスの使用がある。視点データ232は、ある位置における光源の視点を、カメラの視点データ220と同様のフォーマットで記述することができる。視点データ232は、カメラの視点データ220のフォーマットと同様に、光源の角度および方向を記述することができる例示の実施形態では、視点データ232は、X軸、Y軸およびZ軸で記述されてもよい。各種の光データ204が時間データ224と組み合わされて、速度および加速度を求めるなど、光源が経時的に解析されうる。また、光データ204が、複数の光源を記述してもよい。例えば、2以上の光源の位置および属性が、経時的に記録されてもよい。また、光データ204は、例えば合成画像、多項式テクスチャマップまたはパラメトリック写真を生成するなど、固定のオブジェクトに対する光源の位置を記述することもできる。また、光データ204は、高ダイナミックレンジのレンダリングデータも記述することができる。
また、3Dおよびビデオメタデータ201は、音声データ206を含むことができる。音声データ206は、ビデオ内の音声を記述することができる。例示の実施形態では、音声データ206は、カメラの時間データ212と同様のフォーマットの時間データ234を含む。時間データ234は、役者の口、車のクラクションの位置などの音源、または録音デバイスを経時的に記録することができる。時間データ234は、音源と録音デバイスとの両方を記述することができる。また、時間データ234は、フレームのシーケンス内の特定のフレームに対して音源または記録デバイスを記述することもできる。例示の実施形態では、音声データ206は、カメラの位置データ218と同様のフォーマットの位置データ236を含むことができる。位置データ236は、マイクロフォン等の記録デバイス、あるいは音源の位置を記述することができる。位置データ236は、GPS座標データ、経度および緯度で、あるいは、シーン内の他のオブジェクトに対して記述することができる。音声データ206は、カメラの視点データ220のフォーマットと同様の視点データ238を含むことができる。音声視点データ238は、例えばX軸、Y軸およびZ軸で測定された音源の角度および方向を記述する。例えば、音声視点データ238と音声位置データ236とは、音源が主カメラの背後の上から来ていることを示すことができる。例示の実施形態では、音声データ206は、音声属性データ240を含んでもよい。音声特性データ240は、記録された音声の質を記述することができ、例えば、ピッチ、ラウドネス、位相、方向、距離、音色、音声がモノラル、ステレオ、サラウンドサウンドのいずれか、エコー、あるいは他の音声出力設定などである。また、音声特性データ240は、録音デバイスの特性も記述することができる。各種の音声データ206が時間データ234と組み合わされて、速度および加速度を求めるなど、音源または録音デバイスが経時的に解析されうる。また、音声データ202は、複数の音源または録音デバイスを記述することもできる。例えば、2台以上のマイクロフォンの位置および特性が、経時的に記録されてもよい。また、音声データ206は、曲名、アーティスト、サウンドトラックおよびスコアデータ、著作権、再生中の音符、再生中の楽器および歌詞など、音楽について記述してもよい。また、音声データ206は、例えばサブタイトルなど、音声の内容を記述することもできる。例示の実施形態では、一部の音声は、ナレーションの声など発生源を持たないものがある。また、音声データ206は、言語データを記述したり、2.1オーディオシステム、5.1オーディオシステムおよび7.1オーディオシステムなど、複数のスピーカシステムへの出力方法をマップすることもできる。
また、3Dおよびビデオメタデータ201は、オブジェクト切り出しデータ208を含むことができる。オブジェクト切り出しデータ208は、シーン内の特定のオブジェクトを記述および識別することができる。例えば、オブジェクト切り出しデータ208は、二次元シーン内の特定の黄色のピクセルの集まりが、黄色の電話であることを記述することができる。このようなオブジェクト切り出しデータは、画像処理の結果得られても、あるいは、デジタルビデオがレンダリングされる前の元の三次元のオブジェクトから推定されてもよい。例示の実施形態では、個々の投稿者が、ビデオを視聴して、ビデオ内のオブジェクトを識別するデータを一元管理データベースに提供することができる。例えば、ビデオの視聴者が、ビデオ内のオブジェクトを識別して、その識別情報を一元管理ビデオメタデータデータベースにアップロードすることができる。オブジェクトは、名前、年齢、略歴、生年月日および他のデータによって識別されることができる。オブジェクト切り出しデータ208は、シーンからオブジェクトを削除したり、シーンにオブジェクトを追加したり、またはシーンを編集するために使用されうる。また、オブジェクト切り出しデータ208が、複数のオブジェクトを記述してもよい。オブジェクト切り出しデータ208は、オブジェクトの輪郭の識別など、ユーザが投稿したオブジェクトの識別情報を含むことができる。また、ビジュアルハルも記述しうる。
3Dおよびビデオメタデータ201は、深度マップデータ210を含むことができる。深度マップデータ210は、カメラに対するシーンのオブジェクトの距離を識別する。例えば、深度マップデータ210は、シーン内の木が100メートル離れているが、カップは100センチメートルしか離れていないことを記述しうる。例示の実施形態では、深度データ210は、複数台のカメラからキャプチャまたは挿間されても、投稿者によって追加されてもよい。深度マップデータ210は、3−D画像の表現時に、あるいは、シーンの編集時に使用されうる。深度マップデータ210は、複数のオブジェクトを記述することができる。
また、3Dおよびビデオメタデータ201は、注記データ211を含むことができる。注記データ211は、シーン、ビデオセグメントまたはシーン内のオブジェクトの注記、コメント、記述、概要および説明を含むことができる。注記データ211は、ビデオを作製した関係者によって提供されても、ビデオの製作と無関係の投稿者によって提供されてもよい。注記データ211は、一元管理データベースに照会することによって、視聴者に提示されうる。また、3Dおよびビデオメタデータ201は、メタデータを編成するための他の形式および手段を有してもよい。
また、3Dおよびビデオメタデータ201は、コンポジショニングデータ213を含むことができる。コンポジショニングデータ213は、複数のレイヤを組み合わせて生成されるビデオをサポートする。例えば、コンポジショニングデータ213は、シーンの背景および前景を別個の層として記述することができ、これらが後から結合されて最終的なビデオが生成される。このため、前景からオブジェクトを削除する場合、背景を記述するコンポジショニングデータ213を使用してシーンを編集することができる。例示の実施形態では、3Dおよびビデオメタデータ201は、双方向反射率分布関数データと、シーンに含まれないオブジェクトおよび設定を記述するデータとも含んでもよい。
図3は、例示の実施形態による、ビデオメタデータがキャプチャおよび記録される場所のセッティング300の例である。このセッティングでは、破線の長方形で示すシーン302が、第1のカメラ304がキャプチャしている画像またはビデオの寸法を表している。シーン302の前景では、人物306がシーン302の右端に向って走っている。人物306に続いて、野獣307が、シーン302の右に向って、人物306よりも高速で移動している。人物306および野獣307の若干背後に、静止している木308が存在する。シーン302の背景には、同じく静止している太陽309が存在し、シーン302内のオブジェクト(人物306、野獣307および木308)を照らしている。
また、2つの光源310,312も、シーンを照明している。各光源310,312は、位置が異なり、シーン302からの距離も、傾きの角度も、高さも異なる。また、これらの光源310,312は、ワット数、タイプ、光効果および他の光属性および設定も同様に異なってもよい。光源310はシーンの右に移動している。
第1のカメラ304もシーン302の右端に移動している。第1のカメラ304は、人物306または野獣307と同じ速度で移動しても、異なる速度で移動してもよい。第2のカメラ305は、第1のカメラ304とわずかに異なる角度から、同じシーン302をキャプチャしている。第2のカメラ305は、位置と角度とが異なり、静止している。また、第2のカメラ305は、高さが異なっても、異なるレンズパラメータおよびカメラの設定を使用してもよい。
マイクロフォンなどの2台の記録デバイス314,316が音源を記録する。2台の記録デバイス314,316は、異なる位置に存在しても、高さが異なっていても、異なる視点および角度に位置していても、異なる設定を使用してもよい。記録デバイス314,316は、人物306または野獣307などのさまざまな音源からの音声を録音しうる。記録デバイス314,316と音源306,307とは、時間と共に移動してもよい。この例では、記録デバイス316が右に移動している。
このセッティング300は、ビデオメタデータによって記述されうるデータの種類を示す。例えば、カメラメタデータは、シーン302内のオブジェクトに対する第1のカメラ304の位置を記述することができる。また、メタデータは、第1のカメラ304の移動を、時間データと位置データとを使用して、速度および加速度などの属性によって記述することができる。また、カメラメタデータは、第1のカメラ304およびシーン302内のオブジェクトに対する、第2のカメラ305の位置と、その経時的な場所も記述することができる。視点メタデータは、例えばX軸、Y軸およびZ軸における、カメラ304,305の角度、高さおよび回転を記述することができる。また、カメラメタデータは、ビデオを録画しているカメラ304,305とレンズとの設定および属性も記録することができる。
光メタデータは、一般に、光源310,312および太陽309の互いに対する位置と、シーン302内のオブジェクトに対する位置とを記述することができる。時間データと位置データとは、光源310,312および太陽309の移動と、速度および加速度などの属性とを決定するために使用されうる。また、光メタデータは、光源309,310,312の、光の種類および強度などの属性および設定もキャプチャすることができる。また、光メタデータは、太陽309などの自然光源、反射、または間接光源もキャプチャすることができる。
音声メタデータは、一般に、記録デバイス314,316および音源306,307の互いに対する位置と、シーン302内のオブジェクトに対する位置とを記述することができる。例えば、足音が、人物306が踏んでいる地面から到来することが決定されうる。時間データと位置データとは、第2の記録デバイス216および音源306,307の移動と、速度および加速度などの属性とを決定するために使用されうる。また、音声メタデータは、感度など、記録デバイス314,316の特性もキャプチャすることができる。
オブジェクト切り出しデータは、シーン302内のオブジェクトを識別することができる。例えば、オブジェクト切り出しデータは、人物306、野獣307、木308および太陽309を相互に認識することが可能である。また、オブジェクト切り出しデータは、人物306の腕や脚など、各オブジェクトの要素も記述することができる。オブジェクト切り出しデータは、例えば、人物306と野獣307とがシーン302を走っているときに人物306と野獣307とを認識するなど、所定期間にわたってオブジェクトをトラッキングしてもよい。深度マップデータは、記録しているカメラからのオブジェクトの距離を記述することができる。例えば、深度マップは、人物306と野獣307の両方がカメラから20フィート離れており、木308がカメラから300フィート離れていることを示すことができる。
図4は、3D画像を生成するために、所定時間に収集される2つの2−D画像の組合せを示す図である。左の画像402は、時点Tにおける人物のオブジェクトの画像である。左画像404は、時点T+Δにおける同じ人物のオブジェクトの画像である。オブジェクトが時間Δの間に移動したので、左の画像402と右の画像404とはわずかに異なる。画像402と画像404とは、三次元画像を生成するための立体画像の対として使用されうる。例示の実施形態では、三次元画像を生成するために、ビデオメタデータが使用されうる。例えば、三次元の画像を適切に生成するために、位置データ、時間データおよびオブジェクトデータが使用され、シーン内のオブジェクトと、その移動の方向とが識別されうる。また、カメラに対する、シーン内のオブジェクトの速度および加速度が使用されてもよい。例えば、50マイル/時で移動している車に搭載されたカメラが、時速55マイルで同じ方向に移動している電車を撮影している場合、電車は前に進んでいるが、背景が二次元のまま表示されるように、3次元効果を表示させる必要がある。
例示の実施形態では、同じシーンを撮影する2台以上のカメラからの2つの画像を結合することによっても、2つの立体画像を作成することができる。例えば、ビデオメタデータが、同じシーンを撮影している2台のカメラが20°離れていることを示すことができる。ビデオメタデータを使用することにより、この2台のカメラから立体画像の対を挿間することができる。例示の実施形態では、オブジェクト切り出しデータ、深度データなどのビデオメタデータが使用され、三次元画像が生成されうる。離間角度は小さくてもよく、3台以上のカメラと組み合わせて複数の3−D画像を生成することもできる。
例示の実施形態では、二次元のビデオを三次元のビデオに変換するプロセスも、ビデオメタデータを解析してもよい。例えば、シーン内のオブジェクトを識別し、三次元レンダリングを較正するために、光データとカメラデータとが考慮されうる。また、オブジェクトデータと深度データとを使用して、三次元に投射する必要のあるオブジェクトが識別されてもよい。
図5Aは、例示の実施形態によるシーン507の図である。このシーンでは野獣502が人物504を追いかけている。背景に、静止している木506と、シーンを照らしている太陽508とが存在する。例示の実施形態では、撮影されたシーンに関するメタデータが、ビデオメタデータ用の一元管理データベースに記録されうる。
図5Bは、例示の実施形態による、要素が追加および削除されている図5Aのシーンの図である。一元管理データベースと共に記録されているメタデータを使用して、シーンまたはビデオが編集されうる。この例では、元のシーン507の人物504が、現在のシーン508では削除されている。シーンからオブジェクトを適切に削除するために、ビデオメタデータが使用されうる。例示の実施形態では、時間情報と位置情報とを使用して、別の時点におけるこのシーンの画像を特定することによって、シーン内の削除した人物504の背景の内容が判断または決定されうる。例えば、以前のフレームが、人物504が存在しない同じ背景を含んでおり、この以前のフレームのカメラの位置および視点が同じであり、光データも同じであることをメタデータが示しており、この背景を、新しいシーン508にそのまま適用することができる。例示の実施形態では、以前のフレームが、(例えば、カメラまたはレンズパラメータ、あるいは光データまたは位置データが異なるなど)質がわずかに異なる背景を含むことを、ビデオメタデータが示すことがある。この場合、メタデータを使用して、以前のフレームが、現在のフレームのビデオメタデータの設定に最も近くなり、これと適合するように調整されうる。例えば、以前のフレームでは新しいシーン508よりも光源が1つ少ない場合、ビデオメタデータを使用して、前のシーンの背景が、シミュレートした追加の光源を用いて光が再適用されうる。別の実施形態では、わずかに異なる視点から撮影された同じ背景が、位置メタデータを使用して編集されて、新しいシーン508に適合するように外挿されてもよい。また、光データとカメラデータとを使用して、影を削除し、オブジェクトを削除した後に残った空洞が適切に埋められてもよい。また、オブジェクト切り出しデータと深度マップデータとは、シーンから削除するオブジェクトの識別を支援しうる。
音声データを使用して、走っている人物504の音声など、オブジェクトが発する音声が削除されうる。例示の実施形態では、削除する人物の足が着地する時点に対応する音声が、ビデオから削除されうる。例示の実施形態では、人物504に関連する音源に関する音声データが、識別されて削除されうる。
また、左に向って走る小人514がシーンに追加されている。ビデオメタデータは、シーンにオブジェクトを追加するためにも使用することができる。例えば、シーンに追加するオブジェクトがコンピュータによって生成される場合、カメラ、光および音声に対応するビデオメタデータを使用して、元のシーン507と同様の光で照らされ、同様の装置および同様の条件で記録されたように見えるように、新しいオブジェクトがレンダリングされうる。また、新しいオブジェクト514が発する音声が、同じ記録デバイスによって記録されたかのように、既存のサウンドトラックと一致するように処理されうる。
新しいシーン508の太陽516が、発光量が多くなるように調整されてもよい。例示の実施形態では、シーンに光が再適用される。ここで、太陽516である光源を記述するメタデータが、明るく調整されうる。このような調整では、シーン508に光を再適用するために、深度データ、オブジェクト切り出しデータ、他のデータなどの他のメタデータも呼び出されうる。
図6は、例示の実施形態による、ビデオにオブジェクトを追加するプロセスフローである。操作602において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作604において、ビデオメタデータが受信される。操作606において、受信したビデオメタデータを参照して、ビデオに追加しようとするオブジェクトが編集される。例示の実施形態では、光データを使用して、オブジェクトが適切に光で照らされうる。例えば、光データに定義されている光源が、新しいオブジェクトを照らす光を発しているように見えるように、新しいオブジェクトが編集されうる。また、新しいオブジェクトが、音声データに対して比較されうる音声を発してもよい。その場合、新しいオブジェクトが発する音声が元の記録デバイスによって記録されたかのように、ビデオの音声に新しいオブジェクトの音声が組み込まれうる。この新しい音声は、サラウンドサウンド特性を維持することができる。オブジェクトデータと深度データとを使用して、視点または陰影効果を保持するなど、ビデオ内の他のオブジェクトのコンテキストに新しいオブジェクトが配置されうる。また、新たに追加されたオブジェクトは、ビデオメタデータデータベースにも追加されうる。操作608において、新しいオブジェクトがビデオに追加される。
図7は、例示の実施形態による、ビデオからオブジェクトを削除するプロセスフローである。操作702において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作704において、ビデオメタデータが受信される。操作706において、ビデオからオブジェクトが削除される。例示の実施形態では、このオブジェクトはメタデータを使用して識別されうる。例えば、オブジェクトデータ、深度データ、コンポジショニングデータまたは注記データが、二次元または三次元表示のピクセル群など、シーン内の特定のオブジェクトを識別することができる。操作708において、オブジェクトを削除した後に残された空き領域が埋められる。ビデオが、残りのシーンと整合する新しい背景を用いて編集されうる。例えば、削除するオブジェクトの背景を、ビデオの以前のフレームから決定することができる。正確に置換を行うことができない場合には、カメラ、光、コンポジショニングおよび他のメタデータを使用して、背景が外挿されうる。例示の実施形態では、削除するオブジェクトが発する音声を削除するためにも、メタデータが解析されうる。例えば、特定の対話または音声が削除するオブジェクトに関連している場合、これらがサウンドトラックから削除されうる。
例示の実施形態では、ビデオメタデータを利用して前景のオブジェクトを識別するビデオマッティング技術を使用することで、シーンから削除すべきオブジェクトが識別されてもよい。
図8は、例示の実施形態による、シーンを編集するプロセスフローである。操作802において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作804において、ビデオメタデータが受信される。操作806において、ビデオメタデータを使用してビデオが編集される。ビデオの編集では、編集内容がビデオに均一かつ矛盾なく適用されるように、ビデオメタデータが解析しうる。例えば、光の調整がビデオ内の全てのオブジェクトに適用され、オブジェクトデータ、深度データなどの要因が考慮されうる。
例示の実施形態では、合成画像、パラメトリック画像または多項式テクスチャマッピングを使用して、シーンに光が再適用されうる。ビデオメタデータを使用して、画像およびビデオの高ダイナミックレンジのレンダリングを実現することができる。また、オブジェクトの輪郭に光を再適用するために、ビジュアルハルを記述しているビデオメタデータが処理されうる。シーンに対し、同じシーンを記述している異なる時点のメタデータを使用して光が再適用されうる。例えば、メタデータが、昼間と夜間に同じシーンを記述することができる。夜間のデータを使用して、昼間のシーンに光が再適用されて夜間のシーンが生成されうる。
図9は、本発明の実施形態と使用するために適したコンピュータシステムの例である。このブロック図は、パーソナルコンピュータ、ビデオゲームコンソールおよび関連するディスプレイ(例えば、図1のサーバ102およびプレーヤ110)、個人情報端末または本発明の実施形態を実施するために適切な他のデジタルデバイスなどのコンピュータシステム1300を示す。コンピュータシステム1300は、ソフトウェアアプリケーション、および任意選択でオペレーティングシステムを実行するための中央処理装置(CPU)1305を備える。CPU1305は、1つ以上の同種または異種の処理コアから構成されうる。メモリ1310は、CPU1305によって使用されるアプリケーションおよびデータを記録する。ストレージ1315は、アプリケーションおよびデータのための不揮発性ストレージおよびその他のコンピュータ可読媒体を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、CD−ROM、DVD−ROM、ブルーレイ、HD−DVD、またはその他の光ストレージデバイスのほか、信号伝送および記録媒体などを備えうる。ユーザ入力デバイス1320は、一人以上のユーザからのユーザ入力をコンピュータシステム1300に伝達するものであり、その例として、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、静止カメラ、ビデオカメラおよび/またはマイクロフォンなどが挙げられる。ネットワークインタフェース1325は、コンピュータシステム1300が、電子通信ネットワークを介して他のコンピュータシステムと通信できるようにし、これには、ローカルエリアネットワーク、あるいはインターネット等の広域ネットワークを介した有線通信または無線通信などが挙げられる。音声プロセッサ1330は、CPU1305、メモリ1310および/またはストレージ1315によって提供される命令および/またはデータからアナログまたはデジタルの音声出力を生成するように適合されている。CPU1305、メモリ1310、データストレージ1315、ユーザ入力デバイス1320、ネットワークインタフェース1325および音声プロセッサ1330などのコンピュータシステム1300の構成要素は、1本以上のデータバス1335を介して接続されている。
データバス1335およびコンピュータシステム1300の構成要素に、グラフィックサブシステム1340が更に接続されている。グラフィックサブシステム1340は、グラフィック処理装置(GPU)1345およびグラフィックメモリ1350を備える。グラフィックメモリ1350は、出力画像のピクセルごとにピクセルデータを記録するために使用されるディスプレイメモリ(例えば、フレームバッファ)を備える。グラフィックメモリ1350は、GPU1345と同じデバイスに一体化されても、別個のデバイスとしてGPU1345と接続されても、メモリ1310内に実装されてもよい。ピクセルデータは、CPU1305からグラフィックメモリ1350に直接提供されうる。別の実施形態では、CPU1305は、所望の出力画像を定義しているデータおよび/または命令をGPU1345に提供し、GPU1345が、これらから1つ以上の出力画像のピクセルデータを生成する。所望の出力画像を定義しているデータまたは命令は、メモリ1310および/またはグラフィックメモリ1350に記録されうる。一実施形態では、GPU1345は、シーンの形状、照明、陰影、テクスチャリング、移動および/またはカメラパラメータを定義する命令およびデータから、出力画像のピクセルデータを生成するための3Dレンダリング機能を備える。GPU1345は、シェーダープログラムを実行することができる1つ以上のプログラム可能な実行ユニットを更に備えうる。
グラフィックサブシステム1340は、グラフィックメモリ1350からの画像をディスプレイ装置1355に表示させるために、ピクセルデータを周期的に出力する。ディスプレイ装置1355はコンピュータシステム1300からの信号を受けて、視覚的情報を表示することができる装置であればどのようなものであってもよく、CRT、LCD、プラズマディスプレイおよびOLEDディスプレイなどを備える。コンピュータシステム1300は、ディスプレイ装置1355にアナログまたはデジタルの信号を提供しうる。
各種実施形態によれば、CPU1305は、1つ以上の処理コアを有する1つ以上の汎用マイクロプロセッサである。別の実施形態は、メディアアプリケーションおよびインタラクティブエンタテインメントアプリケーションなどの高度にパラレルであり、演算量の多いアプリケーションに特に適合されたマイクロプロセッサアーキテクチャを備えた1つ以上のCPUを使用して実装することができる。
上記の方法、システムおよびデバイスは単に例示に過ぎないという点に留意すべきである。各種実施形態では、適宜、さまざまな手順または構成要素を省略したり、置き換えたり、追加することができる点を強調する必要がある。例えば、別の実施形態では、方法が記載した順序と異なる順序で実行され、さまざまなステップを追加、省略したり組み合わせてもよい点に留意すべきである。また、特定の実施形態に関して記載した特徴を、さまざまな他の実施形態に組み合わせてもよい。実施形態の異なる態様および要素を、同様に組み合わせてもよい。また、技術は進歩するため、構成要素の多くは例であり、本発明の範囲を限定するものと解釈されるべきでないという点を強調する必要がある。
実施形態を完全に理解できるように、本説明において特に詳細に記載した。しかし、このような特定の事項がなくても実施形態を実施することができることは、当業者であれば理解するであろう。例えば、実施形態を曖昧にするのを避けるために、公知の回路、プロセス、アルゴリズム、構造および技術については不要な詳細な記載を行わなかった。
また、実施形態が、フローチャートまたはブロック図として図示されるプロセスとして記載することができる点に留意されたい。これらはそれぞれ、操作を逐次的なプロセスとして記載するものであるが、操作の多くは、並列に実行したり、あるいは同時に実行することができる。また、操作の順序を並び替えることもできる。図示されていない追加のステップがプロセスに含まれてもよい。
また、ここに開示するように、「メモリ」または「メモリユニット」との用語は、データを記録するための1つ以上のデバイスを表すことができ、これには、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気RAM、コアメモリ、磁気ディスク記録媒体、光メモリ媒体、フラッシュメモリデバイス、あるいは、情報を記録するための他のコンピュータ可読媒体などがある。「コンピュータ可読媒体」との用語は、ポータブルまたは固定ストレージデバイス、光ストレージデバイス、無線チャネル、シムカード、その他のスマートカード、あるいは、命令またはデータを記録、格納または実行することができる他の各種媒体を含むが、これらに限定されない。
更に、実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはその任意の組合せによって実装することができる。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードにおいて実装される場合、必要なタスクを実行するためのプログラムコードまたはコードセグメントが、記録媒体などのコンピュータ可読媒体に記録されうる。プロセッサが必要なタスクを実行しうる。
いくつかの実施形態を記載したが、本発明の趣旨を逸脱しない範囲で、さまざまな変更、代替の構造および均等物を使用することができることを、当業者は認めるであろう。例えば、上記の要素が、単に、より大きなシステムの構成要素であり、他の規則が優先されても、本発明の用途を変更するために、別の方法で変更されてもよい。また、上記の要素の前、間、またはその後に実行される複数のステップを考察することができる。したがって、上記の説明は、本発明の範囲を限定するものとして解釈すべきではない。
100 一元管理データベースシステム
102 サーバ
104 データベース
106 データ
108 ディスプレイ
110 プレーヤ
112 ネットワーク
114 データディスク
116 投稿者
200 一元管理データベース
201 ビデオメタデータ
202 カメラデータ
204 光データ
206 音声データ
208 データ
210 深度マップデータ
211 注記データ
212 時間データ
214 レンズパラメータデータ
216 記録デバイス
218 位置データ
220 視点データ
222 加速度
224 位置データ
226 位置データ
240 音声特性データ
300 セッティング
302 シーン
304 カメラ
305 カメラ
306 音源
307 野獣
308 木
309 太陽
310 光源
314 記録デバイス
1300 コンピュータシステム
1310 メモリ
1315 データストレージ
1320 ユーザ入力デバイス
1325 ネットワークインタフェース
1330 音声プロセッサ
1335 データバス
1340 グラフィックサブシステム
1350 グラフィックメモリ
1355 ディスプレイ装置

Claims (20)

  1. ビデオ識別子を含む、ディスプレイに表示させるビデオデータを受信するステップと、
    サーバに記録されており、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述するビデオ光位置メタデータを含むビデオメタデータを、前記ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに照会するステップと、
    前記サーバから前記ビデオメタデータを受信し、前記受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するステップと、
    前記ディスプレイに前記編集済みビデオデータを出力するステップと、を有する方法。
  2. 前記ビデオメタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、コンポジションデータ、および注記データを含む請求項1に記載の方法。
  3. 前記ビデオデータの前記編集は前記ビデオデータからオブジェクトを削除し、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される請求項1に記載の方法。
  4. 前記ビデオデータの前記編集は前記ビデオデータにオブジェクトを追加し、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される請求項1に記載の方法。
  5. 前記ビデオデータの前記編集は、前記ビデオデータを光で照らすために、前記ビデオ光位置メタデータを前記光源に関して解析することによって、前記ビデオデータに光を再適用する請求項1に記載の方法。
  6. 前記ビデオデータの前記編集は、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析する請求項2に記載の方法。
  7. 前記ビデオの前記編集は前記ビデオから音声を削除し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される請求項2に記載の方法。
  8. 前記削除するオブジェクトを識別するためにオブジェクト切り出しデータ、深度マップデータおよび注記データが使用される請求項3に記載の方法。
  9. ディスプレイに表示させる、ビデオ識別子を含むビデオデータを受信し、前記ビデオ識別子を使用して、サーバにビデオメタデータを照会し、前記サーバから前記ビデオメタデータを受信し、受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するプレーヤと、
    前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述する前記ビデオ光位置メタデータを含む前記ビデオメタデータを記録するサーバと、
    前記編集済みビデオを表示するためのディスプレイと、を有するシステム。
  10. 前記ビデオメタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む請求項9に記載のシステム。
  11. 前記プレーヤは、前記ビデオデータからオブジェクトを削除するために前記ビデオデータを編集し、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される請求項9に記載のシステム。
  12. 前記プレーヤは、前記ビデオデータにオブジェクトを追加するために前記ビデオデータを編集し、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される請求項9に記載のシステム。
  13. 前記プレーヤは、前記ビデオデータを光で照らすために、前記ビデオ光位置メタデータを前記光源に関して解析することによって、前記ビデオデータに光を再適用する請求項9に記載のシステム。
  14. 前記プレーヤは、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析することにより前記ビデオデータを編集する請求項10に記載のシステム。
  15. 前記プレーヤは、前記ビデオから音声を削除するために前記ビデオデータを編集し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される請求項10に記載のシステム。
  16. 前記プレーヤは、オブジェクト切り出しデータ、深度マップデータおよび注記データを解析して、前記削除するオブジェクトを識別する請求項11に記載のシステム。
  17. 第1の投稿者からビデオの第1のメタデータ投稿を受信するステップと、
    前記第1のメタデータ投稿をビデオメタデータデータベースに記録するステップと、
    前記第1のメタデータ投稿を受信した後に、第2の投稿者からビデオの第2のメタデータ投稿を受信するステップと、
    前記第2のメタデータ投稿が、前記ビデオの記述において前記第1のメタデータ投稿よりも正確であると決定するステップと、
    前記ビデオメタデータデータベースに記録されている前記第1のメタデータ投稿の少なくとも一部を、前記第2のメタデータ投稿で置換するステップと、を有する方法。
  18. 前記第1の投稿者および前記第2の投稿者はインターネットユーザである請求項17に記載の方法。
  19. 前記ビデオメタデータデータベースに記録されている前記メタデータは、インターネットユーザがアクセス可能である請求項17に記載の方法。
  20. 前記ビデオメタデータデータベースに記録されている前記メタデータは、カメラデータ、光データ、音声データ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む請求項17に記載の方法。
JP2011232857A 2010-10-25 2011-10-24 ビデオの3−d情報および他の情報用の一元管理データベース Pending JP2012094144A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/911,688 US9542975B2 (en) 2010-10-25 2010-10-25 Centralized database for 3-D and other information in videos
US12/911,688 2010-10-25

Publications (1)

Publication Number Publication Date
JP2012094144A true JP2012094144A (ja) 2012-05-17

Family

ID=44789329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011232857A Pending JP2012094144A (ja) 2010-10-25 2011-10-24 ビデオの3−d情報および他の情報用の一元管理データベース

Country Status (5)

Country Link
US (1) US9542975B2 (ja)
EP (1) EP2444971A3 (ja)
JP (1) JP2012094144A (ja)
CN (1) CN103635899B (ja)
WO (1) WO2012060938A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078106A (ja) * 2012-10-10 2014-05-01 Jvc Kenwood Corp コメント作成表示装置、コメント作成表示方法及びコメント作成表示プログラム
JPWO2015162947A1 (ja) * 2014-04-22 2017-04-13 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
CN109118581A (zh) * 2018-08-22 2019-01-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
JPWO2019230225A1 (ja) * 2018-05-29 2021-07-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
JP2021520154A (ja) * 2018-08-22 2021-08-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法、コンピュータ可読記憶媒体、および電子機器

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542975B2 (en) 2010-10-25 2017-01-10 Sony Interactive Entertainment Inc. Centralized database for 3-D and other information in videos
US8769075B2 (en) * 2012-01-18 2014-07-01 International Business Machines Corporation Use of a systems management tool to manage an integrated solution appliance
US9539514B2 (en) * 2012-06-22 2017-01-10 Google Inc. Method and system for generating signatures and locating/executing associations for a game program
JP6624794B2 (ja) * 2015-03-11 2019-12-25 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6739242B2 (ja) * 2016-06-01 2020-08-12 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体
US10037605B2 (en) * 2016-08-23 2018-07-31 Disney Enterprises, Inc. Video object tagging using synthetic images and segmentation hierarchies
WO2018184140A1 (en) * 2017-04-04 2018-10-11 Intel Corporation Facial image replacement using 3-dimensional modelling techniques
US10957025B2 (en) 2018-12-03 2021-03-23 International Business Machines Corporation Photograph with variable light source distribution

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022952A (ja) * 1999-05-27 2001-01-26 Internatl Business Mach Corp <Ibm> 描画を表示する方法及びデータ処理システム
JP2004048252A (ja) * 2002-07-10 2004-02-12 Canon Inc 情報配信システム、情報配信装置、情報受信装置、情報配信方法、記憶媒体、及びプログラム
JP2004264907A (ja) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc 画像生成システム、画像生成装置、画像生成方法
JP2008092557A (ja) * 2006-08-11 2008-04-17 Seac02 Srl デジタル拡張された現実システム
US20090307201A1 (en) * 2002-04-03 2009-12-10 Dunning Ted E Associating and linking compact disc metadata
JP2010510572A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング ライトのモデリングのための方法およびシステム
JP2010510573A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング 3次元画像を合成するシステム及び方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS632497A (ja) 1986-06-21 1988-01-07 Sharp Corp 立体映像装置
JPH08331603A (ja) 1995-05-30 1996-12-13 Canon Inc 3次元映像用シャッタ装置
US6813395B1 (en) * 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
US20030001846A1 (en) * 2000-01-03 2003-01-02 Davis Marc E. Automatic personalized media creation system
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
IL161243A0 (en) * 2001-10-11 2004-09-27 Yappa Corp Web 3d image display system
US7308464B2 (en) 2003-07-23 2007-12-11 America Online, Inc. Method and system for rule based indexing of multiple data structures
JP4497890B2 (ja) 2003-10-30 2010-07-07 キヤノン株式会社 投射型画像表示装置
GB2412802A (en) 2004-02-05 2005-10-05 Sony Uk Ltd System and method for providing customised audio/video sequences
JP2006072255A (ja) 2004-09-06 2006-03-16 Sony Corp 表示装置
JP4476786B2 (ja) 2004-11-10 2010-06-09 株式会社東芝 検索装置
JP2009515375A (ja) 2005-09-16 2009-04-09 フリクサー,インコーポレーテッド ビデオを個人化する操作
CN101563698A (zh) 2005-09-16 2009-10-21 富利克索尔股份有限公司 个性化视频
WO2007035568A2 (en) 2005-09-19 2007-03-29 Aveso, Inc. Layered label structure with timer
US8249334B2 (en) 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
US8473525B2 (en) * 2006-12-29 2013-06-25 Apple Inc. Metadata generation for image files
US8515207B2 (en) 2007-05-25 2013-08-20 Google Inc. Annotations in panoramic images, and applications thereof
US20090002368A1 (en) * 2007-06-26 2009-01-01 Nokia Corporation Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display
US20090138906A1 (en) 2007-08-24 2009-05-28 Eide Kurt S Enhanced interactive video system and method
US20090083260A1 (en) * 2007-09-21 2009-03-26 Your Truman Show, Inc. System and Method for Providing Community Network Based Video Searching and Correlation
US20090237417A1 (en) * 2007-11-29 2009-09-24 Samsung Electronics Co., Ltd. Apparatus and method for image manipulations for games
US8832753B2 (en) * 2008-01-16 2014-09-09 Apple Inc. Filtering and tailoring multimedia content based on observed user behavior
JP5277650B2 (ja) 2008-02-05 2013-08-28 日産自動車株式会社 光検出装置及び光検出方法
JP2009193096A (ja) 2008-02-12 2009-08-27 Lg Display Co Ltd 液晶表示装置
JP2009244138A (ja) 2008-03-31 2009-10-22 Nippon Telegr & Teleph Corp <Ntt> 信号測定分離分析装置および方法
US8824861B2 (en) 2008-07-01 2014-09-02 Yoostar Entertainment Group, Inc. Interactive systems and methods for video compositing
US8145648B2 (en) * 2008-09-03 2012-03-27 Samsung Electronics Co., Ltd. Semantic metadata creation for videos
JP4737573B2 (ja) 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
US20120075490A1 (en) * 2010-09-27 2012-03-29 Johney Tsai Systems and methods for determining positioning of objects within a scene in video content
US9542975B2 (en) 2010-10-25 2017-01-10 Sony Interactive Entertainment Inc. Centralized database for 3-D and other information in videos

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022952A (ja) * 1999-05-27 2001-01-26 Internatl Business Mach Corp <Ibm> 描画を表示する方法及びデータ処理システム
US20090307201A1 (en) * 2002-04-03 2009-12-10 Dunning Ted E Associating and linking compact disc metadata
JP2004048252A (ja) * 2002-07-10 2004-02-12 Canon Inc 情報配信システム、情報配信装置、情報受信装置、情報配信方法、記憶媒体、及びプログラム
JP2004264907A (ja) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc 画像生成システム、画像生成装置、画像生成方法
JP2008092557A (ja) * 2006-08-11 2008-04-17 Seac02 Srl デジタル拡張された現実システム
JP2010510572A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング ライトのモデリングのための方法およびシステム
JP2010510573A (ja) * 2006-11-20 2010-04-02 トムソン ライセンシング 3次元画像を合成するシステム及び方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078106A (ja) * 2012-10-10 2014-05-01 Jvc Kenwood Corp コメント作成表示装置、コメント作成表示方法及びコメント作成表示プログラム
JPWO2015162947A1 (ja) * 2014-04-22 2017-04-13 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JPWO2019230225A1 (ja) * 2018-05-29 2021-07-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
JP7272356B2 (ja) 2018-05-29 2023-05-12 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム
CN109118581A (zh) * 2018-08-22 2019-01-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
JP2021520154A (ja) * 2018-08-22 2021-08-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法、コンピュータ可読記憶媒体、および電子機器
JP7139452B2 (ja) 2018-08-22 2022-09-20 オッポ広東移動通信有限公司 画像処理方法、コンピュータ可読記憶媒体、および電子機器
CN109118581B (zh) * 2018-08-22 2023-04-11 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质

Also Published As

Publication number Publication date
EP2444971A3 (en) 2013-02-13
CN103635899A (zh) 2014-03-12
WO2012060938A3 (en) 2014-04-03
US20120102023A1 (en) 2012-04-26
US9542975B2 (en) 2017-01-10
CN103635899B (zh) 2017-10-13
EP2444971A2 (en) 2012-04-25
WO2012060938A2 (en) 2012-05-10

Similar Documents

Publication Publication Date Title
US9542975B2 (en) Centralized database for 3-D and other information in videos
US8170239B2 (en) Virtual recording studio
JP2022521929A (ja) 動画を自動編集する方法及びポータブル型端末
US8347213B2 (en) Automatically generating audiovisual works
KR101348521B1 (ko) 비디오의 개인화
KR101887548B1 (ko) 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치
US20150194185A1 (en) Video remixing system
TW201545120A (zh) 自動產生編譯視訊
CN108200445A (zh) 虚拟形象的虚拟演播系统及方法
CN102547197B (zh) 信息处理设备、同步方法
TW201545160A (zh) 編譯視訊的自動產生
JP2010541415A (ja) マルチメディアイベントのプレゼンテーションの合成
CN106294612A (zh) 一种信息处理方法和设备
JP2022553766A (ja) 没入型コンテンツから2dフィルムを作成するためのシステムおよび方法
KR20140037439A (ko) 음악의 분위기를 이용한 슬라이드 쇼 생성 방법 및 장치
WO2021085105A1 (ja) 情報処理装置、提案装置、情報処理方法および提案方法
WO2016203469A1 (en) A digital media reviewing system and methods thereof
KR101399633B1 (ko) 영상 합성 방법 및 장치
KR20200107273A (ko) 드론 동영상에 lod 기반 증강현실 부가정보를 합성하여 재생하는 방법
Adams et al. Puccini and Early Film.
JP7447737B2 (ja) 音楽再生装置及び音楽再生プログラム
WO2019030551A1 (en) METHOD FOR APPLYING METADATA TO IMMERSIVE MULTIMEDIA FILES
KR20070098364A (ko) 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법
Duan et al. Meetor: A Human-Centered Automatic Video Editing System for Meeting Recordings
US20130129313A1 (en) Personalized stereoscopic image generation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122