JP2013501474A - トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること - Google Patents

トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること Download PDF

Info

Publication number
JP2013501474A
JP2013501474A JP2012523742A JP2012523742A JP2013501474A JP 2013501474 A JP2013501474 A JP 2013501474A JP 2012523742 A JP2012523742 A JP 2012523742A JP 2012523742 A JP2012523742 A JP 2012523742A JP 2013501474 A JP2013501474 A JP 2013501474A
Authority
JP
Japan
Prior art keywords
video data
module
video
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012523742A
Other languages
English (en)
Other versions
JP5596146B2 (ja
Inventor
ラビーンドラン、ビジャヤラクシュミ・アール.
マルティネス・バウザ、ジュディット
ソリマン、サミア・サリブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013501474A publication Critical patent/JP2013501474A/ja
Application granted granted Critical
Publication of JP5596146B2 publication Critical patent/JP5596146B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4381Recovering the multiplex stream from a specific network, e.g. recovering MPEG packets from ATM cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44231Monitoring of peripheral device or external card, e.g. to detect processing problems in a handheld device or the failure of an external recording device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

概して、トランスポート・プロトコルに従って3次元ビデオデータをカプセル化するための技法について説明する。一例として、マルチメディア処理モジュールとトランスポート・プロトコル・モジュールとワイヤレス・モジュールとを備える装置が本技法を実装する。マルチメディア処理モジュールは、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成する。トランスポート・プロトコル・モジュールは、トランスポート・プロトコルに従ってビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、3Dビデオ・コンテンツの再生を向上させるためのメタデータを複数のパケットのうちの少なくとも1つに追加する。ワイヤレス・モジュールはパケットを装置の外部の3Dディスプレイ・デバイスに送信する。

Description

本開示は、ビデオデータ処理に関し、より詳細には、閲覧者への提示のためのビデオデータの配信に関する。
優先権の主張
本出願は、2009年8月6日に出願された米国特許仮出願第61/231,921号の利益を主張する。
本特許出願は、以下の同時係属米国特許出願、すなわち、
本明細書と同時に出願され、本出願の譲受人に譲渡され、参照により本明細書に明確に組み込まれる、代理人整理番号第091730号を有する「Transforming Video Data in Accordance with Human Visual System Feedback Metrics」と、
本明細書と同時に出願され、本出願の譲受人に譲渡され、参照により本明細書に明確に組み込まれる、代理人整理番号第091765号を有する「Transforming Video Data in Accordance with Three Dimensional Input Formats」と、
本明細書と同時に出願され、本出願の譲受人に譲渡され、参照により本明細書に明確に組み込まれる、代理人整理番号第091674U1号を有する「Preparing Video Data in Accordance with a Wireless Display Protocol」と
に関する。
ビデオ・ディスプレイ・デバイスは、ユーザによる閲覧のためにビデオデータを提示する。一般に、ディスプレイ・デバイスによって提示されるビデオデータは、所与のレート、たとえば、National Television Systems Committee(NTSC)規格に記載されている29.97フレーム毎秒での再生を対象とする連続的な一連のビデオフレームを備える。このビデオデータは深さ情報を含んでいないので、ビデオデータは2次元(2D)ビデオデータとして特徴づけられる。この2Dビデオデータを提示するディスプレイ・デバイスはしばしば「2Dディスプレイ」と呼ばれる。
現在、3次元(3D)ビデオデータを提示するための3次元(3D)ディスプレイ・デバイスが開発されている。これらのいわゆる「3Dディスプレイ」は、提示された3Dビデオデータを適切に閲覧するために、シャッターメガネ、偏光メガネまたは二色メガネ(たとえば、1つの赤色レンズと1つの緑色レンズとをもつメガネ)などの追加の閲覧アクセサリを必要とし得る。追加の閲覧アクセサリを必要とする3Dディスプレイ・デバイスはしばしば「立体視3Dディスプレイ」と呼ばれる。「自動立体視3Dディスプレイ」と呼ばれる他の3Dディスプレイ・デバイスは、追加の閲覧アクセサリの必要なしに閲覧者が閲覧することができる3Dビデオデータを提示することが可能である。
立体視であるか自動立体視であるかにかかわらず、異なる製造業者の3Dディスプレイは、一般に、ベンダー固有または製造業者固有の入力ファイル・フォーマットに準拠する3Dビデオデータを必要とする。たとえば、1つの提案されている3Dビデオデータ・フォーマットは、2Dビデオデータ+深さ情報を備え、「2D+深さ」と呼ばれる。2D+深さディスプレイ・デバイスは、2D+深さ3Dビデオデータ・フォーマットで与えられた3Dビデオデータのみを提示し得る。他のタイプの3Dディスプレイは、マルチビュー2Dストリーム・フォーマットにおける3Dビデオデータを必要とし得る。マルチビュー2Dストリーム・フォーマットは複数の2Dストリームをパッケージングし、2Dストリームはそれぞれ、同時に(理想的には、同期式に)異なるキャプチャ要素(たとえば、カメラ)を用いて同じシーンから収集される。これらの異なる一般にプロプライエタリな3Dビデオデータ・フォーマットの結果として、1つの製造業者からの所与の3Dディスプレイ・デバイスは、その製造業者のプロプライエタリ3Dビデオデータ・フォーマットに従ってフォーマットされた3Dビデオデータしか提示し得ない。
概して、クロスプラットフォーム(cross-platform)3次元(3D)ビデオデータ再生を可能にするための技法について説明する。「プラットフォーム」という用語は、概して、特定のビデオ・ディスプレイ・デバイス、および/またはオーディオ/ビデオ受信機などの任意のサポートデバイスのソフトウェアおよびハードウェア・コンピューティング・フレームワーク、ならびにビデオ復号および再生に関するこのフレームワークの制限および機能を指す。様々な態様において、本技法は、2次元(2D)ビデオデータであるか3Dビデオデータであるかにかかわらず、異なる3Dビデオ再生プラットフォーム上での再生が可能であるように、ビデオデータを3Dビデオデータに変換し得る。この点において、本技法は、様々な態様において、クロスプラットフォーム3Dビデオ再生を促進し得る。
一態様では、装置は、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するマルチメディア処理モジュールと、トランスポート・プロトコルに従ってビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、3Dビデオ・コンテンツの再生を向上させるためのメタデータを複数のパケットのうちの少なくとも1つに追加するトランスポート・プロトコル・モジュールと、パケットを装置の外部の3Dディスプレイ・デバイスに送信するワイヤレス・モジュールと、を備える。
別の態様では、方法は、装置のマルチメディア処理モジュールによって、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、装置のトランスポート・プロトコル・モジュールによって、トランスポート・プロトコルに従ってビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、3Dビデオ・コンテンツの再生を向上させるためのメタデータを複数のパケットのうちの少なくとも1つに追加することと、装置のワイヤレス・モジュールによって、パケットを装置の外部の3Dディスプレイ・デバイスに送信することと、を備える。
別の態様では、装置は、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するための手段と、トランスポート・プロトコルに従ってビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、3Dビデオ・コンテンツの再生を向上させるためのメタデータを複数のパケットのうちの少なくとも1つに追加するための手段と、パケットを装置の外部の3Dディスプレイ・デバイスに送信するための手段と、を備える。
別の態様では、コンピュータ可読記憶媒体は、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、トランスポート・プロトコルに従ってビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、3Dビデオ・コンテンツの再生を向上させるためのメタデータを複数のパケットのうちの少なくとも1つに追加することと、パケットを装置の外部の3Dディスプレイ・デバイスに送信することと、をプロセッサに行わせる命令を備える。
本技法の1つまたは複数の態様の詳細を添付の図面および以下の説明に記載する。本技法の他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
モバイル・デバイスが、クロスプラットフォーム・ビデオデータ再生を促進するために本開示の技法の様々な態様を実装する、システムを示すブロック図。 図1のモバイル・デバイスをより詳細に示すブロック図。 図2のモバイル・デバイスの変換モジュールとオフライン処理モジュールとをより詳細に示すブロック図。 本開示で説明する技法の様々な態様を実装する際のデバイスの例示的な動作を示すフローチャート。 本開示で説明する技法の様々な態様を実装する際のデバイスの例示的な動作を示すフローチャート。 本開示で説明する技法の様々な態様を実装する例示的なデバイスを示すブロック図。 本開示で説明する技法の様々な態様を実行する際のモバイル・デバイスの例示的な動作を示すフローチャート。 本開示で説明する技法の様々な態様に従ってフォーマットされた3次元(3D)ビデオ・コンテンツを示すブロック図。 本開示で説明する技法の様々な態様による、メタデータが埋め込まれた例示的なセグメントを示すブロック図。 本開示で説明する技法の様々な態様による、メタデータが埋め込まれた例示的なセグメントを示すブロック図。 本開示で説明する技法の様々な態様による、メタデータが埋め込まれた例示的なセグメントを示すブロック図。 本開示で説明する技法のフォーマッティング態様を実行する際のワイヤレス・ディスプレイ(WD)ホストユニットの例示的な動作を示すフローチャート。 クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステムを示すブロック図。 クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステムを示すブロック図。 クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステムを示すブロック図。 クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステムを示すブロック図。 クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステムを示すブロック図。
本開示は、クロスプラットフォーム3次元(3D)ビデオ再生を促進する技法を対象とする。「プラットフォーム」という用語は、概して、特定のビデオ・ディスプレイ・デバイス、および/またはオーディオ/ビデオ受信機などの任意のサポートデバイスのソフトウェアおよびハードウェア・コンピューティング・フレームワーク、ならびにビデオ復号および再生に関するこのフレームワークの制限および機能を指す。2次元(2D)ディスプレイ・デバイスは、典型的に、一般に「MPEG−2」として知られるMoving Pictures Experts Group(MPEG)規格パート2に従ってフォーマットされたビデオデータを受信し、復号し、提示するためのプラットフォームを与える。2Dビデオデータと3次元(3D)ビデオデータの両方を提示することが可能な他のハイブリッドディスプレイ・デバイスは、MPEG−2規格と、製造業者固有のプロプライエタリフォーマットなど、特定の3Dビデオデータ・フォーマットとに従ってフォーマットされたビデオデータを受信し、復号し、提示することが可能なハイブリッドプラットフォームを与え得る。プロプライエタリフォーマットの例には、2D+深さフォーマット(「2D+z」フォーマットと呼ばれることがあり、「z」は深さを表す)、(透明度が特定のタイプのグローバル効果である)2D+深さオクルージョンおよびグローバル効果(2D-plus-depth-occlusion-and-global-effect)ならびにマルチビュー2Dストリーム・フォーマットがある。3D専用ディスプレイ・デバイスは、一般に、製造業者固有の3Dフォーマットのうちの1つに従ってフォーマットされた3Dビデオデータを受信し、復号し、提示するためのプラットフォームを与える。
本技法は、いくつかの異なる3Dビデオプラットフォーム上での3Dビデオ再生を可能にすることによってクロスプラットフォーム3Dビデオ再生を促進する。現在、1つの製造業者固有のプロプライエタリ3Dビデオフォーマットも、さらにはオープンソースまたは他の「無料」3Dビデオフォーマットも、規格化されておらず、または業界全体では受け入れられていない。代わりに、これらの様々なフォーマットの各々に関連する製造業者は、市場においてそのような規格化を促進しようと試みている。その上、異なるフォーマット間の競合のせいで、これらの3Dビデオフォーマットのいずれも、クロスプラットフォーム3Dビデオ再生をサポートしていない。クロスプラットフォーム3Dビデオ再生は、概して、あるプラットフォームが、異なるプラットフォームのためにフォーマットされた3Dビデオデータを再生する能力を指す。したがって、一般に、あるフォーマットでフォーマットされた3Dビデオデータを、別の異なるフォーマットでフォーマットされた3Dビデオデータを受信し、復号し、提示するプラットフォームを与える3Dディスプレイ・デバイスが表示することはできない。この点において、本開示の技法は、あるフォーマットから別のフォーマットに3Dビデオデータを変換することによってクロスプラットフォーム3Dビデオ再生を促進し得る。
また、クロスプラットフォーム3Dビデオ再生は、3Dディスプレイ・デバイス上での再生のために2Dビデオデータを3Dビデオデータに変換することに関与する。したがって、「クロスプラットフォーム」という用語は、2Dプラットフォームならびに3Dプラットフォームをも含み得、本技法は、2Dビデオデータを受信することと、この2Dビデオデータを、特定の3Dディスプレイ・デバイスまたはハイブリッド2D/3Dディスプレイ・デバイスによってサポートされる3Dビデオデータ・フォーマットに従ってフォーマットされた3Dビデオデータに変換することとを備え得る。ハイブリッド2D/3Dディスプレイ・デバイスは、2Dビデオ復号および再生と3Dビデオ復号および再生との両方が可能なディスプレイ・デバイスを備える。
本技法は、いくつかの態様では、クロスプラットフォーム3Dビデオ再生を促進し得る。一態様では、本技法は、問合せを受けたビデオ・ディスプレイ・デバイスによってサポートされる3Dビデオデータ・フォーマットを判断するためのビデオ・ディスプレイ問合せを可能にし得る。この問合せは、自動的に、または問合せのために1つまたは複数の3Dディスプレイ・デバイスを選択するための最初のユーザ入力以外のユーザ入力なしに、行われ得る。3Dディスプレイ・デバイスのこの3Dビデオデータ・フォーマットを自動的に判断した後に、本技法は、自動的に判断された3Dビデオデータ・フォーマットに従って3Dビデオデータを生成するように2Dビデオデータを3Dビデオデータにコンバートする、1つまたは複数のモジュールを自動的に(たとえば、ユーザ入力なしに)構成することに関与し得る。次いで、構成されたモジュールは、2Dビデオデータを受信し、この2Dビデオデータを、ディスプレイ・デバイスの自動的に判断された入力フォーマットに準拠する3Dビデオデータに変換するかまたは場合によってはコンバートする。この3Dビデオデータは3Dディスプレイ・デバイスに送られ、3Dディスプレイ・デバイスは続いて、この3Dビデオデータを復号し、ユーザによる閲覧のために提示する。
別の態様では、本技法は、特定の3Dディスプレイ・デバイスによる3Dビデオデータの再生中に3Dビデオデータの3D可視化の品質を反映する監視されたパラメータに基づいてビデオデータを3Dビデオデータに変換するモジュールのうちの1つまたは複数の再構成によってクロスプラットフォーム3Dビデオ再生を促進し得る。この再構成は、ビデオデータの変換中に動的に行われ得る。モジュールの再構成は、3Dディスプレイ・デバイスによって生成される3D可視化の品質を動的に改善するために3Dビデオデータの生成を改良する。モジュールの再構成はまた、許容できる3Dビデオ品質のために処理複雑さを低減するという目的にかない得る。処理複雑さは、再構成パラメータに従って同じ機能を実行するためにモジュールの一部の実行を無効化すること、またはより単純なプロセスを選択することによって低減され得る。より単純なプロセスは、ユーザ定義の基準に従って依然として許容できると見なされるべき低減された3Dビデオ品質を誘起し得る。処理複雑さを低減することは、電力消費量を低減するか、またはモジュールの機能の実行を高速化し得る。特に、2Dビデオデータまたは3Dビデオデータのいずれかであるビデオデータを、特定の3Dディスプレイ・デバイスのためにフォーマットされた3Dビデオデータに変換するために使用される、パラメータの監視とモジュールの再構成とは、ほぼリアルタイムで、または3Dビデオデータを3Dディスプレイ・デバイスにストリーミングしている間に、行われ得る。
別の態様では、本技法は、ワイヤレス・インターフェースを与える一定のクラスの3Dディスプレイ・デバイスのためのクロスプラットフォーム3Dビデオ再生を促進し得る。本技法のこの態様を実装するデバイスは、ビデオデータを記憶するための第1のモジュールと、ポータブル・デバイスの外部のディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断するワイヤレス・ディスプレイ・ホストモジュールとを備え得る。これらのディスプレイ・パラメータは、ディスプレイ・デバイスのディスプレイ解像度、ディスプレイ・デバイスによってサポートされるファイル・フォーマット、ディスプレイ・デバイスによってサポートされるビデオデータエンコーダ/デコーダ技法(いわゆる「ビデオコーデック」)、ディスプレイ・デバイスによってサポートされるオーディオコーデック、ディスプレイ・デバイスが3Dビデオデータ再生をサポートするかどうか、およびディスプレイ・デバイスの能力または追加の態様に関する他のパラメータを備え得る。本技法のこの態様を実装するデバイスは、判断されたディスプレイ・パラメータに基づいて外部ディスプレイ・デバイス上での再生のためのビデオデータを生成するようにビデオデータを準備する第3のモジュールと、3Dビデオデータを外部ディスプレイ・デバイスにワイヤレス送信するワイヤレス・モジュールとをも含み得る。
いくつかの事例において、本技法の様々な態様は、しばしばセルラーフォンまたはモバイルフォンと呼ばれる、ワイヤレスセルラーハンドセットを含む、ポータブル・デバイスによって実装され得る。本技法の様々な態様を実装し得る他のポータブル・デバイスは、いわゆる「スマートフォン」、「ネットブック」と呼ばれる極めてポータブルなコンピューティングデバイス、ラップトップコンピュータ、ポータブルメディアプレーヤ(PMP)、および携帯情報端末(PDA)を含む。本技法は、デスクトップ・コンピュータ、セットトップボックス(STB)、ワークステーション、ビデオ再生デバイス(たとえば、デジタル・ビデオディスクまたはDVDプレーヤ)、2Dディスプレイ・デバイスおよび3Dディスプレイ・デバイスなど、概して非ポータブルなデバイスによっても実装され得る。したがって、本開示ではモバイルまたはポータブル・デバイスに関して説明するが、本技法の様々な態様は、ビデオデータを受信し、外部ディスプレイ・デバイスに転送することが可能な任意のコンピューティングデバイスによって実装され得る。
図1は、モバイル・デバイス12が、クロスプラットフォーム・ビデオデータ再生を促進するために本開示の技法の様々な態様を実装する、システム10を示すブロック図である。図1の例に示すように、システム10は、ソース・デバイス14とディスプレイ・デバイス16とを含み、ソース・デバイス14とディスプレイ・デバイス16の両方は、それぞれワイヤレス通信チャネル13とワイヤレス通信チャネル15とを介してモバイル・デバイス12と通信する。ソース・デバイス14は、パーソナル・コンピュータ、ワークステーション、携帯情報端末(PDA)、(いわゆる「スマートフォン」を含む)モバイルフォン、またはソフトウェアおよび、特に、マルチメディアソフトウェアを実行することが可能な汎用プロセッサを備える他のタイプのデバイスなど、汎用マルチメディアデバイスを含み得る。ソース・デバイス14は、代替的に、ビデオカムコーダ、デジタル・ビデオディスク(DVD)プレーヤ、テレビジョン、セットトップボックス(STB)、コンパクトディスク(CD)プレーヤ、デジタルメディアプレーヤ(たとえば、いわゆる「MP3」プレーヤ、またはMP3/MP4一体型プレーヤ、ならびにadvanced audio coding(AAC)、Windows(登録商標) media video(WMV)およびWaveform audio video(WAV)フォーマットを含む他のフォーマットを再生する他のメディアプレーヤ)、デジタルビデオレコーダ(DVR)、全地球測位システム(GPS)デバイス、または1つまたは複数のマルチメディアアプリケーションのセットに専用であり、一般に、マルチメディアソフトウェアのローディングと実行とのユーザ制御を可能にしない、他のデバイスなど、専用マルチメディアデバイスを備え得る。
ディスプレイ・デバイス16は、概して、ディスプレイを介したビデオ再生が可能な任意のデバイスを表す。ディスプレイ・デバイス16は、ディスプレイ・デバイス16が、2Dビデオデータ再生をサポートするのか、3Dビデオデータ再生をサポートするのか、または2Dビデオデータ再生と3Dビデオデータ再生の組合せをサポートするのかに応じて、2Dビデオ・ディスプレイ・デバイスと呼ばれることがある、テレビジョン(TV)ディスプレイ、3Dビデオ・ディスプレイ・デバイス、またはハイブリッド2D/3Dビデオ・ディスプレイ・デバイスを備え得る。ディスプレイ・デバイス16は、代替的に、ラップトップ、パーソナルメディア・プレーヤ(PMP)、デスクトップ・コンピュータ、ワークステーション、PDA、および(ポータブルDVDプレーヤなどの)ポータブルデジタルメディアプレーヤなど、ディスプレイをもつ他のデバイスを備え得る。説明のために、ディスプレイ・デバイス16が、モバイル・デバイス12とワイヤレス通信するワイヤレステレビジョンを表すと仮定する。ただし、本開示の技法はワイヤレステレビジョンに限定されるべきではない。
ソース・デバイス14は、2Dビデオ・コンテンツ20および3Dビデオ・コンテンツ22のうちの1つまたは複数を記憶する記憶モジュール18を含む。記憶モジュール18は、ランダム・アクセス・メモリ(RAM)、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、フラッシュメモリ、読取り専用メモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、および電気的消去可能PROM(EEPROM)を含む、揮発性メモリまたは不揮発性メモリのいずれかである、メモリを備え得る。記憶モジュール18は、代替的に、ハードドライブ、オプティカルドライブ、テープドライブおよびディスクドライブなど、ストレージ・デバイスを備え得る。記憶モジュール18は、いくつかの事例において、1つまたは複数のメモリと1つまたは複数のストレージ・デバイスとの組合せを備え得る。
2Dビデオ・コンテンツ20は、特定の2Dビデオデータ・ファイル・フォーマットに従ってフォーマットされた2Dビデオデータを表す。例示的な2Dビデオデータ・ファイル・フォーマットは、Moving Pictures Expert Group(MPEG)4、パート14によって定義されたMP4ファイル・フォーマットを含み得る。MP4ファイル・フォーマットは、一般にデジタルオーディオとデジタルビデオストリームとを記憶するために使用されるコンテナファイル・フォーマットである。他のコンテナファイル・フォーマットは、3GPと呼ばれるMP4ファイル・フォーマットの簡略版、Advanced Systems Format(ASF)、Advanced Video Interleave(AVI)ファイル・フォーマット、DivX Media Format(DMF)、Enhanced Video Object(EVO)ファイル・フォーマット、およびフラッシュビデオファイル・フォーマットを備える。ファイル・フォーマットは、この態様または他の態様では、Real−time Transport Protocol(RTP)およびStream Control Transmission Protocol(SCTP)など、特定のトランスポートおよび/またはアプリケーション・レイヤプロトコルに関して使用されるファイル・フォーマットを指すこともある。
3Dビデオ・コンテンツ22は、特定の3Dビデオデータ・ファイル・フォーマットに従ってフォーマットされたコード化3Dビデオデータを表す。例示的な3Dビデオデータ・フォーマットは、(一般に「2D+z」フォーマットと呼ばれる)2D+深さ、2D+深さオクルージョンおよびグローバル効果またはマルチビュー2Dストリームファイル・フォーマットを備える。この点において、ビデオデータ・ファイル・フォーマットは、概して、符号化されたか否かにかかわらず、ビデオデータをカプセル化する標準的な方法を指す。したがって、ビデオデータ・ファイル・フォーマットは、ビデオデータの記憶および/または送信を可能にするためにビデオデータまたはビデオデータの部分を一般的にカプセル化する方法を定義し得る。ビデオデータは、International Telecommunication Union Standardization Sector(ITU−T)H.264/MPEG−4、Part10、Advanced Video Coding(AVC)規格(以下、「H.264/MPEG−4 AVC」規格)において定義されたコーデックを含む、MPEG−2または他のコーデックなどの様々なコーデックを使用して符号化され得る。ビデオデータはまた、いくつかの事例において、ITU−T Video Coding Experts Group(VCEG)によって開発中である、H.265または別名で次世代ビデオコーディング(NGVC)と呼ばれるコーデックを使用して符号化され得る。本開示では、ビデオ・コンテンツという用語は、特定のビデオデータ・ファイル・フォーマットに従ってカプセル化されたコード化ビデオデータを指すために使用される。
説明しやすいように、図1には示されていないが、ソース・デバイス14は、2Dビデオ・コンテンツ20および3Dビデオ・コンテンツ22をキャプチャするための、ビデオ・キャプチャ・モジュールなどの追加のモジュールを含み得る。代替的に、ソース・デバイス14は、コンテンツ20、22を記憶するためのアーカイブまたはリポジトリとして働き得る。いくつかの事例において、ソース・デバイス14は、ソース・デバイス14内に含まれるインターフェース24を介してコンテンツ20、22をワイヤレス受信し得る。すなわち、ソース・デバイス14は、外部デバイスとワイヤレス通信するためのインターフェース24を含む。いくつかの事例において、これらの外部デバイスは、コンテンツ20、22を記憶モジュール18に記憶するためにインターフェース24を介してソース・デバイス14とインターフェースし得る。
上記のように説明のためにワイヤレステレビジョンディスプレイを表し得るディスプレイ・デバイス16は、インターフェース26と、ファイル・フォーマット・モジュール27と、ビデオ・デコーダ28と、ディスプレイ30とを含む。インターフェース24と同様のインターフェース26は、ディスプレイ・デバイス16の外部のデバイスがそれによってディスプレイ・デバイス16と通信し得るインターフェースを表す。この例では、インターフェース24および26の各々がワイヤレス・インターフェースを表すと仮定する。ファイル・フォーマット・モジュール27は、上記で説明したファイル・フォーマットのうちの1つまたは複数を実装するハードウェアまたはハードウェアとソフトウェアとの組合せのモジュールを表す。一般に、ファイル・フォーマット・モジュール27は、カプセル化解除を実行して、コード化ビデオデータをカプセル化するファイル・フォーマットヘッダを除去し、それによりコード化ビデオデータを出力する。
ビデオ・デコーダ28は、コード化ビデオデータを復号するための1つまたは複数のビデオコーデックを実装するハードウェアまたはハードウェアとソフトウェアとの組合せのモジュールを表し得る。特に、「コーデック」という用語は、ビデオ・デコーダ28が所与のコーデックの符号化(すなわち、圧縮)態様と復号(すなわち、復元)態様との両方を実装するかどうかにかかわらず使用される。したがって、ビデオ・デコーダ28は、コーデックの復元態様のみを実装することによってそのコーデックを実装するものと解釈され得る。この点において、ビデオ・デコーダ28がコーデックの圧縮態様と復元態様との両方、またはコーデックの復元態様のみを実装するか否かにかかわらず、ビデオ・デコーダ28はコーデックを実装し得る。
図1の例には示されていないが、ディスプレイ・デバイス16は、1つまたは複数のオーディオコーデックを実装するハードウェアまたはハードウェアとソフトウェアとの組合せを表す他のモジュールをも含み得る。いくつかの事例において、ビデオモジュールとオーディオモジュールとは同じモジュールにおいて組み合わせられ得、そのモジュールは一般にオーディオ/ビデオ(A/V)デコーダと呼ばれる。ディスプレイ30は、有機発光ダイオード(OLED)ディスプレイ、発光ダイオード(LED)ディスプレイ、プラズマディスプレイ、および陰極線管(CRT)ディスプレイを含む、任意のタイプのディスプレイを備え得る。
図1の例では、モバイル・デバイス12は、それぞれのソース・デバイス14およびディスプレイ・デバイス16のインターフェース24およびインターフェース26と実質的に同様である1つまたは複数のインターフェース32をも含む。モバイル・デバイス12は、本開示で説明する技法の1つまたは複数の態様を実装する制御ユニット34をも含む。制御ユニット34は1つまたは複数のプロセッサ(図1に図示せず)を備え得、そのプロセッサは、ストレージ・デバイス(たとえば、ディスクドライブ、またはオプティカルドライブ)、あるいはメモリ(たとえば、フラッシュメモリ、ランダム・アクセス・メモリまたはRAM)、あるいは本開示で説明する技法をプログラマブル・プロセッサに実行させるための(たとえば、コンピュータ・プログラムまたは他の実行ファイルの形態の)命令を記憶する他のタイプの揮発性または不揮発性メモリなどの、コンピュータ可読記憶媒体(同じく、図1に図示せず)に記憶された、ソフトウェアまたはコンピュータ・プログラムを定義するために使用されるソフトウェア命令などの、ソフトウェア命令を実行する。代替的に、制御ユニット34は、1つまたは複数の集積回路、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数の特定用途向け専用プロセッサ(ASSP)、1つまたは複数のフィールド・プログラマブル・ゲートアレイ(FPGA)などの、専用ハードウェア、または本開示で説明する技法を実行するための専用ハードウェアの上記の例のいずれかの組合せを備え得る。
制御ユニット34は、変換モジュール36と、パラメータ発見モジュール38と、人間視覚系(HVS)フィードバック・モジュール40(「HVSフィードバック・モジュール40」)とを含む。変換モジュール36は、本開示で説明する技法の様々な態様に従って2Dビデオ・コンテンツ20および3Dビデオ・コンテンツ22のいずれか一方または両方を、ディスプレイ・デバイス16にとって許容できるビデオデータまたはディスプレイ・デバイス16に適合するビデオデータに変換する、1つまたは複数の構成可能ハードウェア・モジュール、または1つまたは複数のハードウェア構成可能モジュールとソフトウェア構成可能モジュールとの組合せを表す。得られた変換されたビデオデータが、ビデオ・デコーダ28によってサポートされるビデオコーデックに従って符号化され、ファイル・フォーマット・モジュール27によってサポートされるファイル・フォーマットに従ってフォーマットされたとき、ビデオデータはディスプレイ・デバイス16に「適合」し得る。
パラメータ発見モジュール38は、本開示で説明する技法の1つまたは複数の態様に従って、ディスプレイ・デバイス16によってサポートされる1つまたは複数のファイル・フォーマットを含む、ディスプレイ・デバイス16の1つまたは複数のパラメータ42を発見するためにディスプレイ・デバイス16とインターフェースする、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。これらのフォーマットは、一般に、ディスプレイ・デバイス16のファイル・フォーマット・モジュール27によってサポートされる1つまたは複数のファイル・フォーマットを備える。しばしば、フォーマット42は、ビデオ・デコーダ28によってサポートされる1つまたは複数のタイプのコーデックを暗示し、したがってパラメータ発見モジュール38は、ビデオ・デコーダ28によってサポートされる特定のコーデックをも発見し得る。
ファイル・フォーマットに加えて、パラメータ42は、サポートされる解像度、現在の解像度、サポートされるコントラスト、現在のコントラスト、ディスプレイまたはスクリーンサイズ、ディスプレイ・デバイス16によってサポートされるオーディオコーデックとビデオコーデック、インターフェース26のリスト、現在のシャープネス、サポートされるシャープネス、サポートされる色温度、現在の色温度、サポートされる明るさ、現在の明るさ、サポートされるディスプレイ・フォーマット、現在のディスプレイ・フォーマット、サポートされる色設定、現在の色設定、サポートされる入力フォーマット、ディスプレイタイプ、ディスプレイ製造業者、サポートされる深さ範囲、現在の深さ範囲、収束平面(convergence plane)のサポートされるロケーション、収束平面の現在のロケーション、背景オブジェクトの滑らかさのサポートされる程度、背景オブジェクトの現在の滑らかさ、サポートされる目距離(eye-distance)構成、現在の目距離構成、サポートされる利き目構成、現在の利き目構成、サポートされるビューの数、現在のビューの数、サポートされる閲覧距離、現在の閲覧距離、サポートされる閲覧角、現在の閲覧角、スクリーン内の3Dビデオ・コンテンツのサポートされるディスプレイ・ロケーション、およびスクリーン内の3Dビデオ・コンテンツの現在のロケーション、ならびにディスプレイ・デバイス16およびディスプレイ・デバイス16の能力に関係する他のパラメータを含み得る。
いずれの場合も、パラメータ発見モジュール38は、サポートされるコーデックなど、ファイル・フォーマットとコーディングフォーマットまたは技法との両方を含み得るフォーマットを発見する。たとえば、2D+深さと呼ばれる3Dファイル・フォーマットを発見することは、ビデオ・デコーダ28が、たとえば、MPEG−2規格に従って、コーディングされた2D+深さファイル・フォーマットのコーディングされた2Dビデオデータ部分を復号しながら、ディスプレイ・デバイス30を介した再生のために3Dビデオデータをレンダリングするために2D+深さファイル・フォーマットの深さ部分をも復号することが可能な、3Dビデオコーデックをサポートすることを暗示する。
HVSフィードバック・モジュール40は、ディスプレイ・デバイス16による3Dビデオデータの表示に関する定性的および定量的メトリックを分析する1つまたは複数のハードウェア・モジュールまたはハードウェア・モジュールとソフトウェア・モジュールとの組合せを表す。HVSフィードバック・モジュール40は、本開示で説明する技法の様々な態様に従って、定性的および定量的メトリックを分析し、次いで、入力ビデオデータ、たとえば、2Dビデオ・コンテンツ20または3Dビデオ・コンテンツ22を、パラメータ発見モジュール38によって発見された入力フォーマットに準拠するビデオデータに変換することを改善するように変換モジュール36を再構成し得る。HVSフィードバック・モジュール40は、ディスプレイ・デバイス16のビデオ・デコーダ28によって出力されるビデオデータ44を取り出すためにディスプレイ・デバイス16とインターフェースし得、次いで、これらの定性的および定量的メトリックを判断するためにビデオデータ44を分析する。変換モジュール36のこの再構成を通して、HVSフィードバック・モジュール40は、より良い品質の3Dビデオデータ再生を促進し得る。
本開示で説明する技法の一態様によれば、モバイル・デバイス12は、自動的に3Dディスプレイ・デバイスの3D入力ファイル・フォーマットを判断し、3D入力ファイル・フォーマットに準拠するように2Dビデオ・コンテンツ20を3Dビデオデータに変換する。説明のために、ディスプレイ・デバイス16が、2Dビデオ・コンテンツ20と3Dビデオ・コンテンツ22の両方を提示することが可能なハイブリッド2D/3Dワイヤレステレビジョンを備えると仮定する。モバイル・デバイス12のパラメータ発見モジュール38は、3Dビデオデータを受信するためにファイル・フォーマット・モジュール27によってサポートされる少なくとも1つの入力ファイル・フォーマットを判断するためにファイル・フォーマット・モジュール27に問い合わせるために、ワイヤレス通信チャネル15を介してディスプレイ・デバイス16とインターフェースし得る。上記で説明したように、ファイル・フォーマットは、2D+深さまたはマルチビュー2Dストリーム・フォーマットなど、1つまたは複数の3Dファイル・フォーマット、ならびに判断されたファイル・フォーマットによって暗示され得る、3Dビデオデータを復号するためにビデオ・デコーダ28によって実装される1つまたは複数のコーデックを備え得る。
特に、ディスプレイ・デバイス16は第1のファイル・フォーマットを実装し得、図1には示されていない他のディスプレイ・デバイスは、第1のファイル・フォーマットとは異なる複数の異なるファイル・フォーマットを実装し得る。3Dビデオファイル・フォーマットが規格化されておらず、または業界内で全体的には採用されていないので、複数の異なるファイル・フォーマットは、2Dビデオデータの、ただし、より詳細には3Dビデオデータの、クロスプラットフォーム再生を妨げ得る。ディスプレイ・ファイル・フォーマットを発見し、次いで、任意の入力またはソースビデオデータを発見されたファイル・フォーマットに変換することにより、第2の異なるファイル・フォーマットを受け付けるディスプレイ・デバイス上で第1のファイル・フォーマットでフォーマットされた3Dビデオデータを復号し、提示しようと試みるときに起こり得るクロスプラットフォーム再生問題を克服し得る。
初めに、モバイル・デバイス12のユーザまたは他のオペレータは、ディスプレイ・デバイス16を選択するかまたは場合によっては発見するために、ユーザ・インターフェース・モジュール(説明しやすいように図1には図示せず)によって提示されるユーザ・インターフェースとインターフェースし得る。ユーザ・インターフェースは、モバイル・デバイス12の所与の範囲内に位置するデバイスのリスト、またはモバイル・デバイス12が同様に接続されたネットワーク(802.11xワイヤレスネットワーク、超広帯域(UWB)ネットワーク、および/またはBluetooth(登録商標)ネットワークなど)に接続されたデバイスのリストを提示し得る。オペレータは、ディスプレイ・デバイス16などのデバイスを選択するためにユーザ・インターフェースとインターフェースし得、その後、ユーザ・インターフェース・モジュールは、選択されたディスプレイ・デバイス16をパラメータ発見モジュール38に通知する。
このようにして手動選択が行われ得るが、パラメータ発見モジュール38は、リスト上の各デバイスについてファイル形態などのパラメータを発見するためにリスト中の各デバイスと自動的にインターフェースし得る。次いで、ユーザ・インターフェースは、リストを提示し、デバイスのうちの1つを選択するオペレータまたは他のユーザからの入力を受信し得る。言い換えれば、パラメータ発見モジュール38は、モバイル・デバイス12がインターフェースし得るデバイスのリスト上の所与のデバイスをユーザが選択することに応答して、またはそのような選択を待つことなしに、フォーマットを含むパラメータを自動的に発見し得る。その発見は、さらなるユーザ入力なしにその発見が行われるという意味で「自動」であり得る。パラメータ発見モジュール38は、ユーザ入力を必要とすることなしに、ディスプレイ・デバイス16とインターフェースし、たとえば、ファイル・フォーマット・モジュール27に問い合わせて、パラメータ42のうちの1つとして、ディスプレイ・デバイス16によってサポートされるフォーマットを受信し得る。
パラメータ発見モジュール38は、通信チャネル15を介してディスプレイ・デバイス16のインターフェース26に結合されたインターフェース32のうちの適切な1つを介してディスプレイ・デバイス16とインターフェースする。パラメータ発見モジュール38は、ファイル・フォーマット・モジュール27と通信するための問合せプロトコルを実装し得る。たとえば、パラメータ発見モジュール38は、ディスプレイ・デバイス16の能力および特性として特徴づけられ得る様々なパラメータを判断するための通信チャネルを与える、高解像度マルチメディア・インターフェース(HDMI)プロトコルまたはワイヤレスHDMI(WHDMI)プロトコルなどの、ディスプレイ・インターフェースプロトコルまたは規格の様々な態様を実装し得る。WHDMIを定義する特定の規格はまだ定められていないが、ワイヤードバージョンのHDMIに目を向けると、その全体が参照により本明細書に組み込まれる、2006年11月10日付けの「High−Definition Multimedia Interface Specification Version 1.3A」と題する仕様に記載されているように、サポートされるファイル・フォーマットを含む、ディスプレイ・デバイス16のパラメータ42を問い合わせるかまたは場合によっては判断するためのディスプレイデータチャネル(DDC)が存在する。
本開示ではHDMIおよびWHDMIに関して説明するが、本技法は、非プロプライエタリ規格などのオープン規格に従って、ならびにプロプライエタリまたはオープンのいずれかである、特にサポートされていないかまたは今のところどの規格にも組み込まれていない、他の仕様に従って実装され得る。たとえば、パラメータ発見モジュール38は、Video Electronics Standards Associationによってサポートされるオープン規格において定義されたインターフェースである、モバイルディスプレイデジタルインターフェース(MDDI)を実装し得る。代替的に、またはMDDIに関連して、パラメータ発見モジュール38は、ワイヤレスMDDI(WMDDI)と呼ばれる、MDDIのワイヤレス拡張を実装し得る。その上、本技法は、モバイル業界プロセッサインターフェース(MIPI)に関して実装され得る。したがって、本技法は、この点において、HDMIなどのいずれか1つの標準インターフェースに限定されるべきではなく、他のインターフェースに関して実装され得る。
このようにしてフォーマット42を発見した後に、パラメータ発見モジュール38は、次いで、変換モジュール36を構成するために変換モジュール36とインターフェースし、変換モジュール36は、上記で説明したように、2Dビデオデータと3Dビデオデータの両方を、判断された入力フォーマット42に準拠する3Dビデオデータにコンバートする、1つまたは複数のモジュールを表す。パラメータ発見モジュール38は、2Dビデオ・コンテンツ20などのビデオ・コンテンツを、入力フォーマット42に従ってフォーマットされた3Dビデオ・コンテンツに変換するように変換モジュール36を構成するように、構成データを判断し、この構成データを変換モジュール36にロードし得る。
上記で説明したが、説明しやすくするために図1には示されていないユーザ・インターフェースは、デバイスの別のリストをも提示し得、このリストは、このリストを(「宛先リスト」として特徴づけられ得る)ディスプレイリストと区別するために、ビデオ・コンテンツのためのソースを含む「ソースリスト」と呼ばれることがある。モバイル・デバイス12は、宛先リストのデバイスを発見するのと同様に、インターフェース32を介してこれらのデバイスを発見し得る。モバイル・デバイス12は、一例として、ユーザ・インターフェースが、ソース・デバイス14を含んでいたソースリストを提示した場合、インターフェース32と通信チャネル13とを介してソース・デバイス14を発見する。オペレータがソース・デバイス14を選択すると仮定すると、制御ユニット34は、ソース・デバイス14の記憶モジュール18に記憶されたコンテンツ20および22を判断するためにソース・デバイス14とインターフェースするようにインターフェース32に命令し得る。次いで、制御ユニット34のユーザ・インターフェースは、判断された2Dビデオ・コンテンツ20と3Dビデオ・コンテンツ22とを表すファイル名、画像または他のデータを提示し得る。オペレータは、選択された宛先デバイス、たとえば、2Dビデオ・コンテンツ20または3Dビデオ・コンテンツ22のいずれかをディスプレイ・デバイス16上で表示するために選択し得る。
オペレータが2Dビデオ・コンテンツ20を選択されたディスプレイ・デバイス16上で3Dで表示するために選択すると仮定すると、変換モジュール36は、上記で説明した2Dファイル・フォーマットのうちの1つでフォーマットされ、第1のコーデックに従ってコーディングされ得る、2Dビデオ・コンテンツ20を受信し始める。構成された変換モジュール36は、場合によってはリアルタイムまたはほぼリアルタイムで、ファイル・フォーマットされコーディングされたビデオデータを備える2Dビデオ・コンテンツ20を、コーディングされ、自動的に判断された入力フォーマット42に準拠するファイル・フォーマットでフォーマットされた、3Dビデオデータに動的にコンバートし得る。次いで、変換モジュール36は、コーディングされ、自動的に判断された入力フォーマット42に準拠するファイル・フォーマットでフォーマットされた、動的に生成された(3Dビデオ・コンテンツ48として図1に示す)3Dビデオデータを、通信チャネル15とインターフェース32、26とを介してディスプレイ・デバイス16に転送する。
ディスプレイ・デバイス16のファイル・フォーマット・モジュール27は、ビデオ・デコーダ28によってサポートされるコーデックに従ってコーディングされ、次いで、ファイル・フォーマット・モジュール27によってサポートされる3Dファイル・フォーマットに従ってフォーマットされた、3Dビデオデータを備える3Dビデオ・コンテンツ48を受信する。ファイル・フォーマット・モジュール27は、準拠するファイル・フォーマッティングにより、3Dビデオ・コンテンツ48をカプセル化解除して、コーディングされた3Dビデオデータ50を生成する。次いで、ビデオ・デコーダ28は、適切なコーデックを使用して、コーディングされた3Dビデオデータ50を復号して、3Dビデオデータ44を生成し、ディスプレイ30は、閲覧者、たとえば、モバイル・デバイス12のオペレータによる消費のために3Dビデオデータ44を提示する。
このようにして、本技法のこの態様は、ディスプレイ・デバイス16によってサポートされるフォーマット42に3Dビデオデータが準拠するように、2Dビデオ・コンテンツ20から3Dビデオデータを生成するように変換モジュール36を動的に構成することによって、クロスプラットフォーム3Dビデオ再生を可能にする。しばしば、そのような2Dビデオ・コンテンツ20は2Dプラットフォームに限定され得、ハイブリッド2D/3Dディスプレイ・デバイス16は、ハイブリッド2D/3Dプラットフォームの2D部分を利用して2Dビデオ・コンテンツ20を提示することができると仮定され得るが、閲覧者は、本開示で説明する技法に従って実行されるモバイル・デバイス12の介在または中間変換能力がなければ、3D閲覧エクスペリエンスを与えられないであろう。この点において、本開示の技法は、3Dビデオ再生プラットフォーム上での2Dビデオ・コンテンツ20の再生を可能にすることによってモバイル・デバイス12がクロスプラットフォームビデオ再生を促進することを可能にする。
変換モジュール36は、2Dビデオ・コンテンツ20を変換して、ディスプレイ・デバイス16によってサポートされるフォーマットで(3Dビデオ・コンテンツ48として図1に示す)3Dビデオデータを生成し、変換された3Dビデオ・コンテンツ48をディスプレイ・デバイス16に転送している間、HVSフィードバック・モジュール40は、人間視覚系に対する生成された3Dビデオ・コンテンツ48の3D可視化の品質を反映するHVSモデルを使用して1つまたは複数のメトリックを判断し得る。より詳細には、いくつかの例では、HVSフィードバック・モジュール40は、ディスプレイ・デバイス16とインターフェースして3Dビデオデータ44を判断し、HVSモデルを使用して3Dビデオデータ44を分析して、1つまたは複数のメトリックを判断する。
1つまたは複数のメトリックは、いくつかの事例では深さメトリックが時間の関数として表され得る、3Dビデオデータ44によって示される1つまたは複数のオブジェクトの各々についてのサイズおよび/または深さメトリック、3Dビデオデータ44によって示される1つまたは複数のシャドーの各々についてのシャドーメトリック、背景コントラストメトリック、シャープネスメトリック、空間周波数メトリック、ならびに多種多様な他のメトリックを備え得、これらの各々については以下でより詳細に説明する。さらに、HVSフィードバック・モジュール40は、サポートされる解像度、現在の解像度、サポートされるコントラスト、現在のコントラスト、ディスプレイまたはスクリーンサイズ、ファイル・フォーマット、あるいはディスプレイ・デバイス16およびディスプレイ・デバイス16の能力に関係する他のパラメータなど、パラメータ発見モジュール38によって判断された1つまたは複数のパラメータを受信するために、パラメータ発見モジュール38とインターフェースし得る。HVSフィードバック・モジュール40は、少なくとも部分的にこれらのパラメータ42に変換モジュール38の再構成の基礎をおき得る。
HVSフィードバック・モジュール40はまた、所望のシャープネス、所望のコントラスト、所望のディスプレイ・フォーマット、所望の色温度、所望の色設定、所望の明るさ、所望の最大深さ範囲、収束平面の所望のロケーション、背景オブジェクトの滑らかさの所望の程度、所望の目距離構成、所望の利き目構成、所望のビューの数、所望の閲覧距離、所望の閲覧角、スクリーン内の3Dビデオ・コンテンツの所望のディスプレイ・ロケーションおよび解像度、あるいはディスプレイ・デバイス16などのディスプレイ・デバイスによる2Dまたは3D視覚表示に関係する他の選好など、1つまたは複数のユーザ選好を定義するユーザ選好データを記憶し得る。HVSフィードバック・モジュール40はまた、同じく、これらのユーザ選好に少なくとも部分的に基づいて変換モジュール38を再構成し得る。すなわち、HVSフィードバック・モジュール40は、これらのユーザ選好に少なくとも部分的に基づいて変換モジュール38を再構成するために使用される構成データを生成するようにユーザ選好データに従って構成されたHVSモデルを備え得る。
このようにして、HVSフィードバック・モジュール40は、変換モジュール36が、3Dビデオ・コンテンツ48の生成を改良するために3Dビデオデータ44の分析を通して判断されたメトリックに少なくとも基づいて変換モジュール36を再構成するために、2Dビデオ・コンテンツ20(または、代替事例においては、3Dビデオ・コンテンツ22)を現在変換している間、変換モジュール36とインターフェースする。この点において、HVSフィードバック・モジュール40は、3Dビデオ・コンテンツ48の知覚される視覚的品質を自動的に改良し、おそらく改善するように、変換モジュール36を動的に再構成し得る。そのような改良が、3Dビデオデータ44から判断されたメトリックに加えてユーザ選好データに基づく場合、HVSフィードバック・モジュール40は、特定のユーザに対してまたはユーザごとに、3Dビデオ・コンテンツ48の知覚される品質を改良するように変換モジュール36を自動的に再構成し得る。したがって、本技法は、クロスプラットフォームビデオ再生を可能にするだけでなく、潜在的にユーザごとに閲覧エクスペリエンスを改善するためにクロスプラットフォームビデオ再生に必要な任意の変換の動的改良を促進することもある。
いくつかの事例において、モバイル・デバイス12は、ワイヤレス通信媒体を介してディスプレイ・デバイス16とインターフェースする。ディスプレイ・デバイス16がハイブリッド2D/3Dワイヤレス・ディスプレイ・デバイスを表すという上記の仮定があるとすれば、モバイル・デバイス12はディスプレイ・デバイス16とワイヤレスにインターフェースする。ディスプレイ・デバイス16とワイヤレスにインターフェースするとき、パラメータ発見モジュール38は、ディスプレイ・デバイス16の1つまたは複数のディスプレイ・パラメータ42を判断するワイヤレス・ディスプレイ(WD)ホストとして特徴づけられ得る。次いで、パラメータ発見モジュール38は、変換モジュール36がディスプレイ・パラメータに基づいて3Dビデオ・コンテンツ48を生成するようにビデオデータを準備するような方法で、変換モジュール36を構成する。
この準備は、フォーマッティング、またはより詳細には、トランスポート・プロトコルに従って3Dビデオデータをカプセル化することに関与し得る。トランスポート・プロトコルは、ビデオデータ・セグメントと、オーディオデータ・セグメントと、深さデータ・セグメントとの各々のカプセル化を複数のパケットのうちの異なる1つにおいて定義する。いくつかの事例において、ビデオ、オーディオおよび深さデータは、単一のパケット内に連続的に記憶され得る。トランスポート・プロトコル・モジュールは、複数のパケットのうちの1つのヘッダ中の随意のデータフィールド内に3Dビデオ・コンテンツの再生を向上させるためのメタデータを追加する。このメタデータは、特定の能力を有するデバイス上での再生を可能にするヒントまたは他の指示を与え得る。メタデータはまた、特定の能力またはパラメータをもつ異なる2Dまたは3Dディスプレイ・デバイス上での再生を可能にするために3Dビデオデータを生成するかまたは場合によっては変換するための情報または仕様を定義し得る。
この準備を実行するトランスポート・プロトコル・ユニットは、ハードウェアまたはハードウェアとソフトウェアとの組合せを備えるリアルタイム・トランスポート・プロトコル(RTP)ユニットを備え得、RTPユニットはアプリケーション・レイヤ(および「レイヤ7」または「L7」としても知られる)プロトコル・ユニットである。「レイヤ」という用語は、開放型システム間相互接続参照モデル(「OSIモデル」)内のレイヤを指す。一般に、トランスポート・プロトコルは、OSIモデルの(「レイヤ4」または「L4」とも呼ばれる)トランスポート・レイヤ内に入ると見なされる。RTPは、アプリケーション・レイヤ機能を使用して拡張トランスポート・プロトコルを与えるために、ユニバーサル・データグラム・プロトコル(UDP)と呼ばれるトランスポート・レイヤ・プロトコルに依拠する。この意味で、RTPは、RTPがトランスポート・レイヤではなくアプリケーション・レイヤに存在するという事実にもかかわらず、トランスポート・プロトコルと見なされ得る。したがって「トランスポート・プロトコル」という用語は、トランスポート・レイヤ・プロトコルに限定されるべきではなく、トランスポート・レイヤ機能を与える、OSIモデルにおける任意のレイヤの任意のプロトコルを含み得る。
上記で説明した方法で3Dビデオ・コンテンツ48を準備した後に、変換モジュール36は、そのコンテンツをインターフェース32のうちのワイヤレス・インターフェースに転送し、そのインターフェースはパケットをディスプレイ・デバイス16に送信する。ディスプレイ・デバイス16は、パケットを受信し、パケットをアンフォーマットして、符号化オーディオ、符号化ビデオおよび深さデータ、ならびにメタデータをカプセル化解除し、メタデータに従って符号化オーディオおよび符号化ビデオデータを復号して、オーディオおよび拡張ビデオデータを生成し、閲覧者による消費のためにオーディオ再生モジュール(図1に図示せず)およびディスプレイ30を介してオーディオおよび拡張ビデオデータを提示する。メタデータが、復号と、メタデータの恩恵を用いて復号された得られたビデオデータの再生とを改善し得るという点で、ビデオデータは「拡張」される。
この点において、本技法の様々な態様は、まとまりのあるクロスプラットフォームビデオ再生システムを促進する。一態様では、上記で説明した方法でプラットフォームにわたる再生を改善するように変換モジュール36を構成するために、ファイル・フォーマットが発見され、使用される。別の態様では、本技法は、変換中に、3Dビデオ再生の品質を改良するように、HVSモデルを使用して判断される動的フィードバックを通して再生の品質を推進する。さらに別の態様では、3Dディスプレイ・デバイスによる再生のために3Dビデオデータの配信を準備するために、パラメータが自動的に判断され、使用される。この準備は、3Dビデオ・コンテンツをディスプレイ・デバイスにワイヤレス送信するために使用されるパケットにメタデータを埋め込むことに関与し得、このメタデータは、3Dビデオ・コンテンツの復号とさらなる変換とを可能にするパラメータを定義し得る。いくつかの態様では、このメタデータは、2D専用ディスプレイ・デバイスなどの、3Dビデオ再生をサポートしないディスプレイにこのメタデータが見えないように埋め込まれ得る。
別々のデバイスとして示されているが、ソース・デバイス12およびモバイル・デバイス16は、ソース・デバイス12の機能とモバイル・デバイス16の機能とを取り入れる単一のデバイスを備え得る。いくつかの事例において、モバイル・デバイス12はソース・デバイス14の機能を取り入れ得る。この点において、本技法は、図1に示す例に限定されるべきではない。
その上、モバイル・デバイス12に関して上記で説明したが、本技法は、本開示で説明する技法に一致するビデオ変換が可能な任意のデバイスによって実装され得る。そのようなデバイスは、本明細書では概して「ビデオ処理デバイス」と呼ばれることがある。この場合も、本技法は、この点において、図1に示す例に限定されるべきではない。
図2は、図1のモバイル・デバイス12の一例をより詳細に示すブロック図である。図2の例では、モバイル・デバイス12は、ワイヤレス・インターフェース32Aおよびワイヤード・インターフェース32Bなど、複数のインターフェース32を含む。ワイヤレス・インターフェース32Aは、(IEEE802.11x規格群によって定義されたインターフェースなどの)ワイヤレスインターネットインターフェース、Bluetooth(商標)ワイヤレス・インターフェース、ワイヤレスHDMIインターフェース、赤外ワイヤレス・インターフェース、またはワイヤレス通信がそれによって行われ得る他のインターフェースのうちの1つまたは複数を備え得る。ワイヤード・インターフェース32Bは、ユニバーサルシリアルバス(USB)インターフェース、マイクロUSBインターフェース、HDMIインターフェース、コンポジットケーブルインターフェース、同軸ケーブルインターフェース、ビデオグラフィックスアレイインターフェース、またはワイヤード通信がそれによって行われ得る他のインターフェースのうちの1つまたは複数を含み得る。
モバイル・デバイス12は、ビデオ・キャプチャ・デバイス50と、ローカル記憶モジュール52と、内部ディスプレイ54とをも含む。ビデオ・キャプチャ・デバイス50は、3Dビデオデータを記録するための立体視3Dビデオカメラ、または2Dビデオデータを記録するための2Dビデオカメラを実装する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。ローカル記憶モジュール52は、2Dおよび3Dビデオデータ、またはコーディングされフォーマットされている場合はコンテンツを含む、データをローカルに記憶するためのハードウェアまたはハードウェアとソフトウェアとの組合せのモジュールを表す。ローカル記憶モジュール52は、制御ユニット34に関して上記に記載したもののいずれかなど、静的または動的メモリおよび/あるいはストレージ・デバイスを備え得る。内部ディスプレイ54は、内部ディスプレイ54の閲覧者による消費のためにビデオデータと画像データとを提示するハードウェアまたはハードウェアとソフトウェアとの組合せのモジュールを表す。内部ディスプレイ54は、ディスプレイ・デバイス16のディスプレイ30に関して上記で言及したディスプレイのいずれかを備え得る。
ビデオ・キャプチャ・デバイス50と、ローカル記憶モジュール52と、内部ディスプレイ54との各々は、図2でさらに詳細に示した制御ユニット34に結合する。図2の例では、制御ユニット34は、変換モジュール36と、パラメータ発見モジュール38と、HVSフィードバック・モジュール40とを備え、これは図1に関して示したのと同じである。ただし、図2の例では、これらのモジュール36〜40を、いくつかのサブモジュールおよびデータを含むようにさらに詳細に示した。たとえば、変換モジュール36は、前処理モジュール56と、2D−3D処理モジュール58と、後処理モジュール60と、レンダリング・モジュール62と、ディスプレイ・フォーマット・モジュール64とを含む。
これらのモジュールの各々については図3に関してより詳細に説明するが、手短に言えば、前処理モジュール56は、あるプラットフォームから別のプラットフォームへのビデオデータのコンバージョンを実行するための情報を判断するための前処理を実行する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。2D−3D処理モジュール58は、「前処理情報」と呼ばれることがある、前処理モジュール56によって判断された情報に基づいて、その名前が示唆するように、2Dビデオデータの3Dビデオデータへのコンバージョンを実行するための1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。後処理モジュール60は、3Dビデオ再生の品質を改良するために深さマップなどの生成された3Dビデオデータを変更するかまたは場合によっては調整する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。レンダリング・モジュール62は、3Dシーンをモデル化し、追加のビューを生成し、場合によっては3Dビデオ再生をさらに改良する、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。ディスプレイ・フォーマット・モジュール64は、所与のファイル・フォーマットに従って、生成され、その後改良された3Dビデオデータをフォーマットする、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。
別の例として、HVSフィードバック・モジュール40は、定性的評価モジュール66と定量的評価モジュール68とを含み得る。定性的評価モジュール66は、人間視覚系に対する3Dビデオデータ44の3D可視化の品質の知覚される品質を部分的に定義するメトリック70のうちの1つまたは複数を判断するために、外部ディスプレイ・デバイス16のビデオ・デコーダ28など、モバイル・デバイス12の外部のディスプレイ・デバイスによって復号された3Dビデオデータ44の定性分析を実行する、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。定量的評価モジュール68は、後処理モジュール60、レンダリング・モジュール62およびディスプレイ・フォーマット・モジュール64など、変換モジュール36の様々なサブモジュールによって生成された3Dビデオデータの定量分析を実行する。この分析により、メトリック70のうちの追加のメトリックが判断され得る。その場合、これらのメトリック70は、変換モジュール36によって生成された3Dビデオ・コンテンツ48を改良するために、変換モジュール36を形成するモジュール56〜64のうちの1つまたは複数の以後の修正または再構成のための基礎を形成し得る。この改良は、定性的メトリック70と定量的メトリック70の両方に関して3Dビデオデータ44の再生の改善につながり得る。
制御ユニット34は、図1の例に関して前に示されていない2つの追加のモジュール、オフライン処理モジュール72とユーザ・インターフェース・モジュール74とをも含む。オフライン処理モジュール72は、概して、照明のタイプおよび方向、オブジェクト反射率、テクスチャ効果および大気効果など、プロパティに関して、画像(またはビデオフレーム)の記述子の統計分析およびモデリングを実行する、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。これらの記述子は、マルチメディアコンテンツ記述子のための規格を定義する、Multimedia Content Description Interfaceと呼ばれることがある、MPEG−7規格に準拠する記述子を備え得る。いずれの場合も、記述子は、概して、ビデオデータによって示される視覚的特徴の記述を定義するデータを表し得る。しばしば、記述子は、これらの特徴に関連する形状、色、テクスチャまたは動きなど、これらの視覚的特徴の基本特性を記述する。
ユーザ・インターフェース・モジュール74は、モバイル・デバイス12のオペレータがモバイル・デバイス12からデータを入力および受信するために対話するユーザ・インターフェースを提示する、1つまたは複数のハードウェア・モジュールまたはハードウェア・モジュールとソフトウェア・モジュールとの組合せを表す。しばしば、ユーザ・インターフェース・モジュール74は、グラフィカル・ユーザ・インターフェース(GUI)を内部ディスプレイ54に提示し、内部ディスプレイ54はそのGUIをユーザに与え得る。いくつかの事例において、内部ディスプレイ54は、GUIによって提示される様々なアイテムの選択を定義するデータを入力するためにユーザがそれによって内部ディスプレイ54と対話し得る、いわゆる「タッチスクリーン」を備え得る。この意味で、内部ディスプレイ54は、図2の例において例示的に内部ディスプレイ54がユーザ・インターフェース・モジュール74とは別個に示されているのとは異なり、ユーザ・インターフェース・モジュール74の一部と見なされ得る。
初めに、モバイル・デバイス12のオペレータは、1つまたは複数の宛先ディスプレイを介して表示することをオペレータが望むビデオ・コンテンツを含む1つまたは複数のソースを選択するために、ユーザ・インターフェース・モジュール74によって提示されるユーザ・インターフェースとインターフェースし得る。これらのソースは、ビデオ・キャプチャ・デバイス50およびローカル記憶モジュール52、ならびにワイヤレス通信チャネル13を介してインターフェース32に通信可能に結合された、図1の例に示すソース・デバイス14など、ワイヤレス・インターフェース32Aおよびワイヤード・インターフェース32B(「インターフェース32」)を介してモバイル・デバイス12に通信可能に結合されたソース・デバイスを含み得る。宛先ディスプレイは、内部ディスプレイ54、およびワイヤレス通信チャネル15を介してインターフェース32に通信可能に結合された、図1の例に示す宛先ディスプレイ・デバイス16など、インターフェース32に通信可能に結合された1つまたは複数の宛先ディスプレイ・デバイスを備え得る。
1つまたは複数のソースを選択した後に、オペレータは、選択されたソースによって記憶された特定のコンテンツを選択するために、同じく、ユーザ・インターフェース・モジュール74によって提示されるこのユーザ・インターフェースまたは別のユーザ・インターフェースとインターフェースし得る。たとえば、オペレータは、ビデオ・コンテンツのソースとしてソース・デバイス12を選択し得る。それに応答して、ユーザ・インターフェース・モジュール74は、ソース・デバイス14によって記憶モジュール18内に記憶されたコンテンツ20および22を判断するためにソース・デバイス12とインターフェースし得る。次いで、ユーザ・インターフェース・モジュール74は、現在のユーザ・インターフェースを更新するかまたは別のユーザ・インターフェースを提示して、それにより、宛先による再生のために利用可能なコンテンツ20、22を表示し得る。オペレータは、2Dビデオ・コンテンツ20および3Dビデオ・コンテンツ22のうちの1つまたは複数を選択するために、提示されたユーザ・インターフェースと対話し得る。説明のために、オペレータが2Dビデオ・コンテンツ20を選択すると仮定する。
2Dビデオ・コンテンツ20を選択した後に、オペレータは、1つまたは複数の宛先を選択するために現在のユーザ・インターフェース、前のユーザ・インターフェースまたは別のユーザ・インターフェースとインターフェースし得る。ここでも、説明のために、オペレータがディスプレイ・デバイス16を選択するデータを入力するためにこの宛先ユーザ・インターフェースと対話すると仮定する。ソース・デバイス14によって記憶モジュール18に記憶された選択された2Dビデオ・コンテンツ20のための宛先としてディスプレイ・デバイス16を選択すると、ユーザ・インターフェース・モジュール74は、その選択を示すこのデータを受信し、選択された2Dビデオ・コンテンツ20の受信と、変換モジュール36による2Dビデオ・コンテンツ20の変換を通して生成された3Dビデオ・コンテンツ48の転送とを開始するように適切なインターフェース32に命令する。ユーザ・インターフェース・モジュール74はまた、パラメータ発見モジュール38が、本開示で説明する技法に従ってパラメータ76を判断するために適切な宛先とインターフェースし得るように、選択された宛先をパラメータ発見モジュール38に示すためにパラメータ発見モジュール38とインターフェースし得る。
モバイル・デバイス12のオペレータは、1つまたは複数のユーザ選好78(「ユーザ選好78」)を指定するデータを入力するために、同じく、ユーザ・インターフェース・モジュール74によって提示される、前のユーザ・インターフェース、現在のユーザ・インターフェース、または場合によっては異なるユーザ・インターフェースとインターフェースし得る。ユーザ選好78は、利き目選好、コントラスト選好、シャープネス選好、色相選好、色温度選好、またはビデオデータの表示に関係する他の選好を含み得る。ユーザ選好78はまた、サラウンドサウンド選好およびボリューム選好など、オーディオ選好を含み得、本技法はビデオ専用ユーザ選好に限定されるべきではない。ユーザ・インターフェース・モジュール74は、これらのユーザ選好78をHVSフィードバック・モジュール40に転送し、HVSフィードバック・モジュール40は、本開示で説明する技法に従って変換モジュール36を構成または再構成するときに、これらの選好78を採用し得る。
いずれの場合も、ソース・デバイス12と、宛先ディスプレイ・デバイス16と、潜在的にソース・デバイス12に記憶されたコンテンツ20および22のうちの1つまたは複数とを選択した後に、パラメータ発見モジュール38は、パラメータ76を判断するために、選択された宛先、たとえば、ディスプレイ・デバイス16とインターフェースし得る。パラメータ発見モジュール76は、たとえば、言及したHDMI規格に準拠するワイヤード・インターフェース32を介してディスプレイ・デバイス16とインターフェースし得る。HDMI規格の様々な態様を使用して、パラメータ発見モジュール76は、3Dビデオ・コンテンツを受信するためにファイル・フォーマット・モジュール27によってサポートされる入力ファイル・フォーマットなどのパラメータ76を判断し得る。他のパラメータ76は、サポートされる解像度、現在の解像度、ディスプレイサイズ、サポートされる色温度、現在の色温度など、ディスプレイ30の様々な能力またはパラメータに関係する上記のパラメータ、あるいはディスプレイ30と、ビデオ・デコーダ28によってサポートされるコーデックを含む、ビデオ復号とに関係する他のパラメータを含む。
以下でより詳細に説明するように、パラメータ発見モジュール38は、これらのパラメータがそれによってワイヤレスに発見されるセッションをホスティングするワイヤレス・ディスプレイ(WD)ホストとしても特徴づけられ得る。しばしば、これらのワイヤレス・ディスプレイホスト技法を実装するとき、パラメータ発見モジュール38は、「ワイヤレスHDMI」または「WHDMI」と呼ばれるHDMIの一形態を実装する。
パラメータ76を発見した後に、パラメータ発見モジュール38は、選択された宛先ディスプレイ・デバイス16のファイル・フォーマット・モジュール27によってサポートされるファイル・フォーマットに従って3Dビデオデータを適切にフォーマットするようにディスプレイ・フォーマット・モジュール64を構成するために、変換モジュール36のディスプレイ・フォーマット・モジュール64とインターフェースし得る。パラメータ発見モジュール38は、(入力ファイル・フォーマットを含む)パラメータ76の発見と、ディスプレイ・フォーマット・モジュール64の構成との両方を自動的に実行し得る。
上記の「自動的に」という用語の使用は、一般に、自動的に行われるものとして示されるアクションを実行するためにオペレータの介在が必要とされないことを示す。ただし、この用語の使用は、言及した自動動作を開始するためにオペレータまたはユーザの入力が必要とされないことがあることを示唆するものではない。例示のために、オペレータがソース、コンテンツおよびデバイスを選択するために様々なユーザ・インターフェースと対話する、上記の例について考える。ユーザ・インターフェースとの対話は、パラメータ76とディスプレイ・フォーマット・モジュール64とを判断することの自動性質を損なわない。上記の例では、ユーザは、パラメータ発見モジュール38がこれらのパラメータ76を判断し、次いでディスプレイ・フォーマット・モジュール64を構成することを指定する入力またはデータを与える必要がないので、オペレータは、これらの自動動作に気づいていないことがある。この点において、オペレータは、これらの動作が実行されるべきであることをアクティブに示していないので、自動動作はオペレータの観点から透過的に行われるものと解釈され得る。
パラメータ発見モジュール38は、ディスプレイ・デバイス16の判断された入力ファイル・フォーマットをパラメータ発見モジュール38がそれによって指定し得るアプリケーションプログラミングインターフェース(API)コールを介してディスプレイ・フォーマット・モジュール64を構成し得る。2Dビデオ・コンテンツ20を受信するより前に、HVSフィードバック・モジュール40は、前処理モジュール56、2D−3D処理モジュール58、後処理モジュール60、レンダリング・モジュール62、およびディスプレイ・フォーマット・モジュール64とインターフェースして、ユーザ選好78に基づいてこれらのモジュール56〜64をも構成し得る。たとえば、ユーザ選好78のうちの1つは、HVSフィードバック・モジュール40が2D−3D処理モジュール58を構成するときに利用し得る、好適なシャープネスを定義し得る。HVSフィードバック・モジュール40は、2D−3D処理モジュール58がシャープ画像不連続性における深さ値を計算するための精度の指示として好適なシャープネスを利用し得る。別の例では、ユーザ選好78のうちの1つは、HVSフィードバック・モジュール40がレンダリング・モジュール62を構成するときに利用し得る、収束平面の好適なロケーションまたは好適な深さ範囲を定義し得る。HVSフィードバック・モジュール40は、モジュール62のレンダリングパラメータを調整するために好適な収束平面ロケーションまたは深さ範囲を利用し得る。
いずれの場合も、パラメータ発見モジュール38とHVSフィードバック・モジュール40の両方は、変換モジュール36のモジュール56〜64のうちの1つまたは複数を構成し得る。構成されると、変換モジュール36は、単一ビューまたはマルチビュー2Dビデオデータを備え得る2Dビデオ・コンテンツ20を受信し得る。単一ビュー2Dビデオデータは、単一のビデオ・キャプチャ・デバイスから撮影された単一のビューを備え得る。マルチビュー2Dビデオデータは、複数のビデオ・キャプチャ・デバイスから撮影された複数のビューを備え得る。一般に、マルチビュー2Dビデオデータは複数のビューのうちのいずれか1つの再生を可能にし、しばしば、閲覧者は、再生中に複数のビューの間で切り替えることができるが、2Dディスプレイ・デバイスは、一般に、互いに同時である複数のビューのうちの2つ以上を提示しない。
前処理モジュール56は、一般に2Dビデオ・コンテンツ20を受信する。オフライン処理モジュール72は、2Dビデオ・コンテンツを受信せず、むしろ、図3に関して以下で説明する方法で前処理モジュール56をサポートする。手短に言えば、オフライン処理モジュール72は、一般に、上記のように、前処理モジュール56によって使用されるモデルを生成するために統計分析およびモデリングを実行するための、様々なアルゴリズムを実装する。
前処理モジュール56は、2Dビデオ・コンテンツ20を受信し、2Dビデオ・コンテンツ20を形成する様々な画像またはフレームに関するグローバル情報を判断する。このグローバル情報は、2Dビデオ・コンテンツ20の単一の画像またはフレーム、あるいはいくつかの画像またはフレームに関し得る。たとえば、グローバル情報は、大気効果(たとえば、雨、雪、風などの存在を示す情報)を定義し得る。前処理モジュール56は、2Dビデオ・コンテンツの所与の画像またはフレームについてのローカル情報をも判断し得る。ローカル情報を判断するためのそのようなローカル処理は、エッジのロケーションおよび強度、エッジの分類、オブジェクトのセグメンテーション、照明プロパティの検出、ならびに関心領域の検出に関係する情報を判断することに関与し得る。グローバルおよびローカル情報を前処理し、判断した後に、前処理モジュール56は、2Dビデオ・コンテンツ20とグローバルおよびローカル情報とを2D−3D処理モジュール58に転送する。
2D−3D処理モジュール58は、深さ情報を抽出するために、受信した2Dビデオ・コンテンツ20を処理する。2D−3D処理モジュール58は、前処理モジュール56によって判断されたグローバルおよびローカル情報に基づいて深さ情報を抽出し得る。たとえば、2D−3D処理モジュール58は、前処理モジュール56によって判断された情報によって定義されたエッジ情報などの幾何学的線形情報から深さ情報を抽出し得る。2D−3D処理モジュール58は、たとえば、幾何学的構造および動き、フォーカス/デフォーカス、シェーディングおよびシャドー、ならびに上記の幾何学的線形情報から、深さ情報または値を抽出するために、いくつかの深さ抽出アルゴリズムを実装し得る。2D−3D処理モジュール58は、深さマップを生成するために、これらのアルゴリズムのうちの1つまたは複数を介して抽出された深さをマージし得る。深さマップは、2Dビデオ・コンテンツ20のあらゆる画像またはフレームの各ピクセルに深さ値を割り当て、それにより、3Dビデオデータを生成し、3Dビデオデータを後処理モジュール60に転送する。
後処理モジュール60は、2D−3D処理モジュール58によって生成されたこの3Dビデオデータを受信し、深さマップを改良するために3Dビデオデータを変更する。たとえば、後処理モジュール60は、ディスプレイ・デバイス16を介して表示されるときの、得られた変換された3Dビデオ・コンテンツ48の可視化の品質を改善するために、深さマップを変更し得る。この修正は、深さマップをグローバルに平滑化すること、または深さマップに対応するフレーム中のいくつかの関心領域についての深さ情報を選択的に変更することに関与し得る。このようにして深さマップを改良した後に、後処理モジュール60は、改良された3Dビデオデータをレンダリング・モジュール62に転送する。
レンダリング・モジュール62は、改良された3Dビデオデータを受信し、ディスプレイ・デバイス16の判断された入力フォーマットがマルチビュー・ストリーム・フォーマットである場合、またはディスプレイ・デバイス16が別様に複数の2D+深さ(z)ビューをサポートする場合のように、1つまたは複数のビューが必要とされる事例では、3Dシーンをモデル化する。このビューレンダリングの後に、レンダリング・モジュール62は、潜在的にマルチビュー3Dビデオデータをディスプレイ・フォーマット・モジュール64に転送し、ディスプレイ・フォーマット・モジュール64は、続いて、ディスプレイ・デバイス16によってサポートされる構成された入力ファイル・フォーマットに従ってマルチビュー3Dビデオデータをフォーマットして、変換された3Dビデオ・コンテンツ48を生成する。次いで、ディスプレイ・フォーマット・モジュール64は、閲覧者への提示のために、変換された3Dビデオ・コンテンツ48をディスプレイ・デバイス16に転送する。
上記で説明した方法で2Dビデオ・コンテンツ20を変換している間、HVSフィードバック・モジュール40は、ディスプレイ・デバイス16のビデオ・デコーダ28によって出力される3Dビデオデータ44を取り出すために、ディスプレイ・デバイス16とインターフェースする。次いで、HVSフィードバック・モジュール40は、復号された3Dビデオデータ44の定性的および定量的評価を実行する。より詳細には、定性的評価モジュール66は、(「定性的メトリック70」と呼ばれることがある)メトリック70のうちの1つまたは複数を判断するために、復号された3Dビデオデータ44の可視化の品質に関係する定性的評価を実行する。また、可視化のこの品質は、3Dビデオデータ44を閲覧するときの(ユーザ選好78によって定義された)所与の閲覧者の快適さを含み得る。例示のために、右目が利き目である閲覧者が、3Dビデオデータ44を閲覧するときに自分の右目のほうを選ぶと考える。この場合、定性的評価モジュール66は、3Dビデオデータ44を分析して、右目ストリームが左目ストリームに優先して選ばれるようにし得る。すなわち、閲覧者の右目が利き目である場合、定性的評価モジュール66は、所与のフレームまたはピクチャグループについての全体的なメトリックを判断するときに、左目ストリームメトリックに優先して右目ストリームメトリックを重み付けし得る。
定量的評価モジュール68は、(「定量的メトリック78」と呼ばれることがある)メトリック78のうちの1つまたは複数を判断するために3Dビデオデータ44の定量分析を実行し得る。たとえば、定量的評価モジュール68は、後処理モジュール60と、レンダリング・モジュール62と、ディスプレイ・フォーマット・モジュール64とのうちの1つまたは複数によって生成された3Dビデオデータの1つまたは複数のフレーム中のオブジェクトの深さとサイズとの間の関係を評価し得る。定量的メトリック78は、オブジェクトの深さとサイズとの間のこの関係を1つのメトリックとして含み得る。他の定量的メトリック78は、フィルタ効力メトリック、可視不連続性メトリック、および補間効力メトリックなど、深さ画像ベースレンダリングに関係するメトリックを含み得る。定量的メトリック78はまた、深さの正規化において有用なメトリックを含み得る。したがって、定量的メトリック78は、3Dビデオデータによって定義されたオブジェクトの深さとサイズとの間の関係と、3Dビデオデータの深さ不連続性と平均領域色不連続性との間の関係と、フィルタ効力メトリックと、補間効力メトリックと、深さの正規化において有用なメトリックと、経時的な深さの不連続性を測定することに関係するメトリックとに関係する少なくとも1つのメトリックを含み得る。定性的評価モジュール68は、さらに、モジュール60〜64によって生成されたビデオデータの経時的な深さの不連続性を測定し、ならびに多数の他の形態の定量分析を実行し得る。
定性的評価モジュール66および/または定量的評価モジュール68を使用して、HVSフィードバック・モジュール40は幅広い分析を実行し得る。この分析は、上記のように部分的に、モジュール56〜64のうちの1つまたは複数によって生成されたか、または3Dビデオデータ44としてディスプレイ・デバイス16から受信された、3Dビデオデータの所与のフレームまたは画像中のいずれかのオブジェクトの深さとサイズとの間の関係を測定し、調整することに関与し得る。その分析はまた、経時的な深さの不連続性と、シャドーまたはシェーディング効果と、背景コントラストと、空間周波数とを測定することに関与し得る。
これらのメトリックに基づいて、HVSフィードバック・モジュール40は、次いで、メトリック70に基づいて構成データ80を判断し、変換モジュール36のモジュール56〜64のうちの1つまたは複数とインターフェースして、変換された3Dビデオ・コンテンツ48の知覚される視覚的品質を改良するようにこれらのモジュール56〜64を再構成し得る。メトリック70に基づいて構成データ80を判断することに加えて、HVSフィードバック・モジュール40は、パラメータ発見モジュール38がHVSフィードバック・モジュール40に転送し得るパラメータ76にも基づいて構成データ80を判断し得る。その上、HVSフィードバック・モジュール40は、ユーザ選好78に適応するように構成データ80を判断するかまたは場合によっては調整し得る。したがって、構成データ80は、多種多様なメトリック、パラメータおよび選好に従って判断され得る。
一例として、HVSフィードバック・モジュール80は、視標追跡(eye tracking)機能が欠如しているディスプレイ・デバイスのフォーカスキューを矯正するように構成データ80を調整し得る。フォーカスキューは、異なる焦点距離についての所与のフレームにわたる画像の明暸性について説明するデータを備える。この例では、パラメータ76は、ディスプレイ・デバイス16の視標追跡機能の欠如を示し得る。このコンテキストでは、(HVSがそれによってフォーカスを解釈する、3Dビデオ・コンテンツ48におけるキューを備え得る)フォーカスキューを矯正するために、HVSフィードバック・モジュール40は、2D−3D処理モジュール58によって実行される深さ抽出を制約するように、および/またはレンダリング・モジュール62によるマルチビューレンダリングのための深さ解釈を制約するように、2D−3D処理モジュール58および/またはレンダリング・モジュール62のための構成データ80を判断し得る。
フォーカスは、両方がディスプレイのサイズから導出され得る、視野と標準閲覧距離とに依存し得るので、HVSフィードバック・モジュール40は、ディスプレイ・デバイス16のディスプレイ30のサイズを示すパラメータ76に基づいて、この構成データ80を生成し得る。フォーカスはまた、(一般に左目と右目との間の距離として定義される)両眼間隔に依存し得、ユーザ選好78は標準両眼間隔選好を記憶し得る。したがって、HVSフィードバック・モジュール80は、上記のフィードバック(たとえば、実際の閲覧距離、実際の目の位置、および実際の両眼間隔)を与えるための視標追跡機構を有しないディスプレイ・デバイス30においてフォーカスミスキュー(miscue)を矯正するように構成データ80を生成するためにユーザ選好78とパラメータ76との両方にアクセスし得る。
視標追跡がディスプレイ・デバイス16を通して利用可能である場合、HVSフィードバック・モジュール40は、HVSフィードバック・モジュール40がそれによって3Dビデオ・コンテンツ44を受信するのと同じインターフェースを介してこのフィードバックを受信し得る。この機構は、ディスプレイ・デバイス16に結合された外部デバイスであり得る。代替的に、この視標追跡機構はディスプレイ・デバイス16内に組み込まれ得る。いくつかの例では、その機構は、眼球運動を追跡する必要がなく、より一般的には各ユーザの位置を追跡することがあり、その場合は、閲覧距離と目の位置とが導出され得るので、「視標追跡」という名前は誤称であり得る。
いくつかの事例において、HVSフィードバック・モジュール40は、立体視ディスプレイと自動立体視ディスプレイとのためにフォーカスキューを別様に矯正するための構成データ80を生成し得る。ディスプレイ・デバイス16が立体視であるか(シャッターメガネなど、3Dビデオデータを適切に提示するための追加の閲覧装置を必要とするディスプレイ・デバイス)、自動立体視であるか(3Dビデオデータを適切に提示するための追加の閲覧装置を必要としないディスプレイ・デバイス)は、パラメータ発見モジュール38によって判断され、パラメータ38のうちの1つとして記憶され得る。
(同じくパラメータ38のうちの1つを介して示され得る)「ボリュームディスプレイ」と呼ばれる特定のタイプの自動立体視ディスプレイについて考える。ボリュームディスプレイは、(各視点が異なる閲覧者のためのものである)複数の同時視点のために正確な明視野(light field)を提示することが不可能であり得る。その結果、これらのボリュームディスプレイは、通常、自動立体視ディスプレイとして使用されるときにビュー依存照明(遮断、鏡面性、および反射など)を正しく提示することができない。HVSフィードバック・モジュール40は、ボリュームディスプレイの立体知覚を改善するように閲覧位置を訂正するように変換モジュール36の様々なモジュール56〜64を構成し得る。
立体視ディスプレイと自動立体視ディスプレイとの間の他の差異が、異なる構成を保証し得、HVSフィードバック・モジュール40は、これらのパラメータ78に基づいて構成データ80を調整し得る。たとえば、通常、自動立体視ディスプレイと立体視ディスプレイとの間には、深さ知覚および深さパフォーマンスの差異がある。HVSフィードバック・モジュール40は、これらのデバイス能力またはパラメータ差異に基づいて構成データ80を別様に調整し得る。
上記のように、HVSフィードバック・モジュール40は、ディスプレイ・デバイス18の異なるフォームファクタ、およびより詳細には、ディスプレイ30のサイズに基づいて、フォーカスキューを制約するように構成データ80を調整し得る。内部ディスプレイ54は、通常、外部ディスプレイ・デバイス16のディスプレイ30よりもはるかに小さいフォームファクタのディスプレイであり、これらの異なるフォームファクタは、立体画像がどのように構築され、表示されるかの差異を暗示し得る。その上、フォームファクタは閲覧オーディエンスの潜在的なサイズを示し得、より小さいフォームファクタは単一の閲覧者を示唆し得、より大きいディスプレイは複数の閲覧者を示唆し得る。HVSフィードバック・モジュール40は、これらの異なるフォームファクタを考慮するように構成データ80を生成し得る。
詳細には、HVSフィードバック・モジュール40は、一例では、フォームファクタに基づいて構成データ80を生成するために、HVSについて知られている態様を活用し得る。一態様では、最適ボクセル分布が、人間の目の空間およびフォーカス解像度によって規定される。人間の目のこの知られている制限を仮定すれば、HVSフィードバック・モジュール40は、ディスプレイのタイプ(3Dディスプレイ技術のこれらの2つのタイプの異なるサブクラスを含む、立体視または自動立体視)とディスプレイのサイズとに基づいて特定の空間およびフォーカス解像度を判断する。次いで、HVSフィードバック・モジュール40は、深さ処理を変更するために2D−3D処理モジュール56のための構成データ80を生成し得る。
HVSフィードバック・モジュール40はまた、ディスプレイ・デバイス16に対する閲覧者の特定の視覚軸または閲覧角に基づいてメトリック70のうちの1つによって示される空間周波数を改良または潜在的に最適化し得る。この視覚軸または閲覧角は3D視覚データ44とともに与えられ得、あるいは、パラメータ発見モジュール38は、(ディスプレイ・デバイス16内に組み込まれた視標追跡装置または閲覧者追跡装置に関係するという点で)この視覚軸または閲覧角をパラメータ76のうちの1つとして発見するためにディスプレイ・デバイス16とインターフェースし得る。HVSフィードバック・モジュール40は、現在のディスプレイ解像度がフォーカスキューに影響を及ぼし得るので、このディスプレイ解像度を指定するパラメータ76のうちの1つまたは複数をも利用し得る。次いで、HVSフィードバック・モジュール40は、これらのパラメータ76に基づいて構成データ80を生成し得る。
別の例では、HVSフィードバック・モジュール40は、深さ画像ベースレンダリング(DIBR)を改良または潜在的に最適化する構成データ80を生成し得る。HVSフィードバック・モジュール40は、DIBRの様々な態様を改良するために、3Dビデオデータ44と、後処理モジュール60とレンダリング・モジュール62とディスプレイ・フォーマット・モジュール64とによって生成された3Dビデオデータとを分析し得る。一例では、HVSフィードバック・モジュール40は、視覚的アーティファクトを最小限に抑え、場合によっては潜在的になくすために、深さ次元における適切なフィルタ処理を保証するために、このビデオデータ44あるいはモジュール60〜64のうちの1つまたは複数によって生成されたビデオデータを分析する。しばしば、深さフィルタ処理改良は、パラメータ発見モジュール38によって同じく発見可能であり、したがって、パラメータ76のうちの1つまたは複数を介して知られる、特定のディスプレイ技術または能力を中心に展開する。例示のために、減算ディスプレイはバックライトからの直接照明を可視化し得るので、これらのディスプレイにおいて非深さフィルタ処理レンダリングによる可視不連続性が潜在的にはるかに大きくなることを考える。したがって、HVSフィードバック・モジュール40は、異なるディスプレイ能力を考慮するように深さフィルタ処理を調整するための構成データ80を生成し得る。
HVSフィードバック・モジュール40はまた、ホールの充填(たとえば、現在の解像度に適応するように2Dビデオ・コンテンツ20の解像度を調整するときに起こり得る補間)のためのフィルタ処理に関係するメトリック70に基づいてDIBRの様々な態様を改良する構成データ80を生成し得る。フィルタ処理はガウスフィルタ処理またはエッジベースフィルタ処理を備え得る。HVSフィードバック・モジュール40はまた、所与の画像またはフレーム中でオクルージョンが起こることが予想される場合、特定のピクセルの深さ値を強制的に0にするように、P3Dと呼ばれるファイル・フォーマットなど、特定のファイル・フォーマットに関係するメトリック70に基づいてDIBRを改良する構成データ80を生成し得る。
同じくDIBRを改良することに関して、HVSフィードバック・モジュール40は、シャドー効果とシェーディングとに関係するメトリック70に基づいて、可視近傍ピクセルを使用して領域中のシャドー効果/シェーディングを増加させる構成データ80を生成し得る。HVSフィードバック・モジュール40はまた、エッジ不連続性を取り除く傾向がある深さフィルタ処理によるぼけを最小限に抑えるために、高周波強調(HFE)によってDIBRを改良するためにエッジを増補し得る。さらに、HVSフィードバック・モジュール40は、深さマップのダイナミックレンジ再整形を可能にする構成データ80を生成し、それにより、この構成データ80が、より高い深さ値を拡張し、より低い深さ値を圧縮することによって、DIBRを改良し得る。いくつかの事例において、HVSフィードバック・モジュール40は、ユーザ選好78のうちの1つによって定義された所与の閲覧者のHVSの知覚性または感度に基づいて拡張および圧縮の範囲を変調し得る。
このDIBR改良はまた、HVSフィードバック・モジュール40が、目選好または優位性に関係するユーザ選好78のうちの1つまたは複数に基づいてDIBRを調整する構成データ80を生成することによって行われ得る。例示のために、任意の1つビューについて、閲覧者は左目または右目優位であり得、閲覧者はこの優位性をユーザ選好78のうちの1つとして示し得ると考える。特に、閲覧者は、優位性を判断するためにユーザ・インターフェースを介して提示されるテストを受け得るかまたは優位性を単に選択し得る。いずれの場合も、HVSフィードバック・モジュール40は、最高120色ピクセル密度(cpd)の良好なボクセル解像度を求めて、視覚軸に沿って+/−20度または最高50度にわたってビューが細かくなるように、目優位性、感度または知覚可能性(perceivability)の差異に関係するユーザ選好78に基づいて様々なビューを調整する構成データ80を生成し得る。適切な場合、HVSフィードバック・モジュール40は、深さ知覚を改善するために、左目ビューと右目ビューとの知覚される品質が非対称であるかまたは等しくないことを示す非対称品質を採用する構成データ80を生成し得る。
さらに別の例では、HVSフィードバック・モジュール40は、目感度に関係するユーザ選好78、ならびにコンテンツタイプ、照明レベルなどに関係するメトリック70のうちの1つまたは複数に基づいて深さを正規化する構成データ80を生成し得る。HVSフィードバック・モジュール40による深さの正規化はまた、ビデオデータ44と、シーン変化、コンテンツタイプおよび構成(たとえば、無限焦点距離にあるオブジェクトがあるかどうか)に関係するメトリック70とに基づいて判断される最大深さに依存し得る。HVSフィードバック・モジュール40による深さの正規化はまた、レンダリング方法に関係する定量的メトリック70に加えて、ディスプレイタイプなどのパラメータ76に依存し得る。
別の例では、HVSフィードバック・モジュール40は、ストレス(たとえば、眼精疲労および吐き気)を最小限に抑えるように3D可視化を改良する構成データ80を生成し得る。いくつかの態様では、HVSフィードバック・モジュール40は、ストレス(たとえば、眼精疲労および吐き気)を最小限に抑えるように3D可視化を最適化する構成データ80を生成し得る。HVSフィードバック・モジュール40は、ストレスを最小限に抑えるように深さを制約するか、シーン中のオブジェクトのタイプに基づいて選択的深さ抽出を実行するか、シーン中の当該の特定のオブジェクトに対する特定の深さ抽出のための選択的深さレンダリングを実行するか、またはある信頼レベルを上回る深さ値のみを抽出し得る。このようにして、HVSフィードバック・モジュール40は、メトリック70に基づいて構成データ40とパラメータ76とユーザ選好78とを生成し、3Dビデオ・コンテンツ48への2Dビデオ・コンテンツ20の変換を、場合によっては改善し、さらには最適化しないとしても、改良するように変換モジュール36の1つまたは複数のモジュール56〜64を再構成し得る。
変換モジュール36の再構成されたモジュール56〜64は、次いで、構成データ80に従って2Dビデオ・コンテンツ20を3Dビデオ・コンテンツ48に変換し続け得る。変換モジュール36は、次いで、この動的再構成の後に、改良された3Dビデオ・コンテンツ48をディスプレイ・デバイス16に転送することを開始し得、その後、ディスプレイ・デバイス16は、1人または複数の閲覧者による消費のためにディスプレイ30を介してこの改良された3Dビデオ・コンテンツ48を提示し得る。HVSフィードバック・モジュール40中のこのフィードバック機構は、オペレータによって選択された特定のプラットフォーム、たとえば、ディスプレイ・デバイス16上での再生のためにこのビデオデータを断続的に改良するかまたはいくつかの態様では最適化するために、3Dビデオ・コンテンツ48への2Dビデオ・コンテンツ20の変換全体の間、継続し得る。この点において、HVSフィードバック・モジュール40は、ユーザ選好78によって定義された、特定の閲覧者に対する特に選択されたディスプレイ・デバイス、たとえば、ディスプレイ・デバイス16上での再生のために3Dビデオ・コンテンツ48を調整する方法で3Dビデオ・コンテンツ48を改良し、最適化しないとしても潜在的に改善する、(閲覧者の観点から)透過的でリアルタイムまたはほぼリアルタイムの動的フィードバックを可能にし得る。以下に、HVSフィードバック・モジュール40が構成データ80を生成し、構成データ80に従って変換モジュール36のモジュール56〜64のうちの様々なモジュールを再構成する例を記載する。HVSフィードバック・モジュール40はまた、ユーザ選好に従って許容できる3Dビデオ品質を維持しながら計算複雑さが低減されるようにモジュール56〜64を再構成するために使用され得る、(閲覧者の観点から)透過的でリアルタイムまたはほぼリアルタイムの動的フィードバックを可能にし得る。
図3は、図2のモバイル・デバイス12の変換モジュール38とオフライン処理モジュール72とをより詳細に示すブロック図である。図3の例に示すように、モジュール56〜62の各々は、変換された3Dビデオ・コンテンツ48への2Dまたは3Dビデオ・コンテンツの変換の様々な態様を実行する追加のユニットを備える。たとえば、前処理モジュール56は、大気(atmospheric)効果検出ユニット82A(「大気(atmos)効果検出ユニット82A」)、シーン変化検出ユニット82B、およびカメラ動き検出ユニット82Cとして図3の例に示されている少なくとも3つのグローバル処理ユニット82A〜82Cを備える。これらは、たとえば、それぞれの大気効果、シーン変化およびカメラ動きを検出するために2Dビデオ・コンテンツ20のフレーム全体または複数のフレームをグローバルに分析するので、グローバル処理ユニットと見なされる。
前処理モジュール56はまた、それぞれ、関心領域(ROI)、エッジならびにコントラストおよび/または照明を検出するために、一度に単一のフレーム内の近傍ピクセルの所与の領域に関する入力ビデオデータ20または22を処理する(これは、局地的またはローカル処理と見なされる)ローカル処理ユニット84A〜84Cを含む。図3の例において、これらのローカル処理ユニット84A〜84Cは、ROI検出ユニット84A、エッジ検出ユニット84Bおよびコントラスト/照明(illumination)検出ユニット84C(「コントラスト/照明(illum)検出ユニット84C」)として示されている。ROI検出ユニット84Aは、顔または人体などのROIを検出する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。エッジ検出ユニット84Bは、エッジの位置を特定し、エッジを分類する、たとえば、実オブジェクトの境界を画定するものとして、シャドー境界を画定するものとして、またはシェーディング効果を定義するものとしてエッジを分類する、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。この分類はまた、エッジの強度を判断することに関与し得る。コントラスト/照明検出ユニット84Cは、照明プロパティを検出する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。
説明しやすいように、図3には示されていないが、前処理モジュール56は追加のグローバルまたはローカル処理ユニットを含み得る。たとえば、前処理モジュール56は、所与の画像またはフレームのクロマ成分、画像またはフレームの色成分、あるいは画像またはフレームのクロマ成分と色成分の両方に基づいてオブジェクトのセグメンテーションを実行する別のローカル処理ユニットを含み得る。したがって、本開示に記載する技法は、図3に示す例に限定されるべきではなく、追加のグローバルおよびローカル処理ユニットを含み得る。ユニット82A〜82Cおよび84A〜84Cによって抽出された様々な情報は、深さ抽出を可能にするために2D−3D処理に転送され得る。
2D−3D処理モジュール58は、マルチフレーム深さ抽出技法と単一フレーム深さ抽出技法の両方を実行するためのいくつかのユニットを含む。マルチフレーム深さ抽出ユニットは、カメラ・モデリング・ユニット86Aと移動オブジェクト・モデリング・ユニット86Bとを含む。カメラ・モデリング・ユニット86Aは、深さ値を抽出するために幾何学的構造と動きとをモデル化する(たとえば、幾何学的構造と動きとをキャプチャするカメラをモデル化する)1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。移動オブジェクト・モデリング・ユニット86Bは、深さ値を抽出するために独立した移動オブジェクトから背景を区分する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。
単一フレーム抽出ユニットは、レンズ・モデリング・ユニット88Aと、オクルージョン・モデリング・ユニット88Bと、照明モデリング・ユニット88Cと、幾何学的モデリング・ユニット88Dとを含む。レンズ・モデリング・ユニット88Aは、所与のフレームまたは画像中で検出されたフォーカスキューとデフォーカスキューとに基づいて深さ値を抽出する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。オクルージョン・モデリング・ユニット88Bは、所与のフレームまたは画像中の様々なオブジェクト間のオクルージョンをモデル化または場合によっては検出し、これらのオクルージョンに基づいて深さ値を抽出する、1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。照明モデリング・ユニット88Cは、検出されたシャドーおよびシェーディング効果に基づいて単一のフレームまたは画像の深さ値を抽出する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。幾何学的モデリング・ユニット88Dは、単一のフレームまたは画像内の幾何学的線形パースペクティブのモデリングに基づいて単一のフレームまたは画像の深さ値を抽出する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。
上記のように、これらのユニット86A〜86Bおよび88A〜88Dの多くは、前処理モジュール56のユニット82A〜82Cおよび84A〜84Cによって抽出される情報に依拠する。たとえば、照明モデリング・ユニット88Cは、コントラスト/照明検出ユニット84Cとエッジ検出ユニット84Bとによって判断されたコントラスト/照明情報に深さの抽出の基礎をおき得る。別の例として、オクルージョン・モデリング・ユニット88Bは、エッジ検出ユニット84Bによって検出されたエッジ情報を使用してオクルージョンをモデル化し得る。さらに別の例として、レンズ・モデリング・ユニット88Aは、エッジ検出ユニット84Bによって判断されたエッジ情報に深さ抽出の基礎をおき得る。さらなる例として、幾何学的モデリング・ユニット88Dは、エッジ検出ユニット84Bによって判断されたエッジ情報に基づいて深さ値を抽出し得る。カメラ・モデリング・ユニット86Aおよび移動オブジェクト・モデリング・ユニット86Bは、大気効果検出ユニット82Aと、シーン変化検出ユニット82Bと、カメラ動き検出ユニット82Cとによって判断された情報に基づいて深さ値を抽出し得る。このようにして、2D−3D処理モジュール58は、2Dビデオ・コンテンツ20と3Dビデオ・コンテンツ22の両方から深さ値を抽出し得る。
特に、マルチビュー・ストリームの場合、変換モジュール36は、複数のキャプチャシステムから同時に収集またはキャプチャされた異なるストリームの各フレームを処理するために複数の2D−3D処理モジュールを含み得る(たとえば、複数の2D−3D処理モジュールが起動され得る)。単一ビューストリームの場合でも、変換モジュール36は、2つ以上の連続するフレームまたは画像を処理するための複数の2D−3D処理モジュールを備え得る。この単一ビューストリームの場合、複数の2D−3D処理モジュールの各々はフィーチャポイントとこれらのポイントの記述子とを抽出する。これらの記述子は、次いで、異なるフレーム中のフィーチャポイント間の対応を設定するために使用され、対応するポイントのロケーションは、深さ値を抽出するために、カメラ・モデリング・ユニット86Aによって実装される射影幾何学カメラモデルとともに使用される。
異なるカメラユニット(同じまたは異なるカメラパラメータをもつ、空間的に異なるポイントに位置する各カメラ)を用いて各ビューが同時に収集されるマルチビュー・ストリームに関して、2D−3D処理ユニット58は、レンズ・モデリング・ユニット88Aと同様の複数のカメラ・モデリング・ユニットを含み得る。これらのレンズ・モデリング・ユニット88Aの各々は、これらのフレームの各々が同時にキャプチャされる異なるマルチビューのフレームを処理する。単一ビューストリームの場合、2D−3D処理ユニット58は、一度に単一ビューストリームの単一の画像またはフレームを処理するためにカメラ・モデリング・ユニット88Aを起動し得る。
マルチフレーム処理ユニット86A〜86Bおよび単一フレーム処理ユニット88A〜88Dのうちの1つまたは複数を使用して深さ値を判断した後に、2D−3D処理モジュール58は、所与のビューストリーム(または、マルチビュー・ストリームの場合、ビューストリームの各々)の各フレームの合成深さマップを作成するために、様々なマルチフレーム処理ユニット86A〜86Bおよび単一フレーム処理ユニット88A〜88Dからの深さ値をマージするか、または場合によってはこれらの深さ値を統合し得る。深さマップは、所与のフレームまたは画像の各ピクセルに深さ値を割り当てる。2D+深さファイル・フォーマットに関して、一例として、各フレームの深さマップはグレースケール画像として表され、グレースケール画像の各8ビットピクセル値は、フレーム中の対応するピクセルの深さ値を定義する。
HVSフィードバック・モジュール40は、マルチフレーム深さ抽出処理ユニット86A〜86Bと単一フレーム深さ抽出処理ユニット88A〜88Dとのうちの1つまたは複数によって深さ抽出を制約するように2D−3D処理モジュールを構成する構成データ80を生成し得る。一例として、HVSフィードバック・モジュール40は、有効な対応するポイントを制約するために、他のユニット(たとえば、ユニット86Bおよび88A〜88D)からの結果を使用することによって、カメラシステムをモデル化するために使用される式の線形システムがディスアンビギュエート(disambiguated)され、速度を上げるようにカメラ・モデリング・ユニット86Aを構成する構成データ80を生成し得る。
HVSフィードバック・モジュール40はまた、マルチフレーム処理ユニット86A〜86Bと単一フレーム処理ユニット88A〜88Dとによって生成された深さマップのマージに影響を及ぼす構成データ80を生成し得る。たとえば、2D−3D処理モジュール58は、判断または抽出された深さマップの各々に異なる重みを割り当てる加重平均マージ機能を使用して、これらの深さマップをマージし得る。HVSフィードバック・モジュール40は、得られた合成深さマップを調整するために、これらの重みを変更または構成する構成データ80を生成し得る。この調整は、変換された3Dビデオ・コンテンツ48の可視化の品質を改善するか、または場合によっては変換された3Dビデオ・コンテンツ48を閲覧することに関連するストレスを低減し得る。
このようにして2Dビデオ・コンテンツ20を処理した後に、2D−3D処理モジュール58は、2Dビデオ・コンテンツ20と生成された1つまたは(マルチビュー・ストリームの場合)複数の合成深さマップとを後処理モジュール60に転送する。後処理モジュール60は、変換された3Dビデオ・コンテンツ48の可視化の品質を改良するために、得られた1つまたは複数の深さマップを変更する深さ知覚ユニット90を含む。いくつかの事例において、深さ知覚ユニット90は、変換された3Dビデオ・コンテンツ48の可視化の品質を改善するために、得られた1つまたは複数の深さマップを変更する。深さ知覚ユニット90は、変換モジュール36を表すモジュール56〜64のパイプライン中にユニットを導入し得、それにより、HVSフィードバック・モジュール40は、深さマップを改良するために仲介し得る。例示のために、深さ知覚ユニット90は、HVSフィードバック・モジュール40が深さマップの後処理を実行するためにパイプライン中で仲介し得るように、HVSフィードバック・モジュール40が構成データ80をロードするために対話し得るインターフェースを表し得る。
一例では、HVSフィードバック・モジュール40は、複数のフレームまたは3Dビデオデータ全体にわたって深さマップをグローバルに平滑化する動作、および/またはROI検出ユニット84Aによって識別されたいくつかの関心領域の深さ情報を選択的に変更する動作を実行するように深さ知覚ユニット90を構成する、深さ知覚ユニット90のための構成データ80を生成し得る。別の例では、HVSフィードバック・モジュール40は、パラメータ76に基づいて、様々な深さ値が特定のディスプレイ、たとえば、ディスプレイ・デバイス16のために調整されるように、それらの値を変更し、制約する動作を実行するように深さ知覚ユニット90を構成する構成データ80を生成し得る。さらなる一例では、HVSフィードバック・モジュール40は、メトリック70に基づいて、変換された3Dビデオデータの定量的改善を可能にするために、動的に深さマップを変更する動作を実行するように深さ知覚ユニット90を構成する構成データ80を生成し得る。
1つまたは複数の深さマップを改良した後に、後処理モジュール60は、2Dビデオ・コンテンツと1つまたは複数の改良された深さマップとをレンダリング・モジュール62に転送する。レンダリング・モジュール62は、3Dモデリング・ユニット92と、照明モデリング・ユニット94(「照明モデリング・ユニット94」)と、補間ユニット96とを備える。3Dモデリング・ユニット92、照明モデリング・ユニット94および補間ユニット96の各々は、2Dビデオ・コンテンツ20からの1つまたは複数の追加のビューの生成を可能にするために3Dシーンの様々な態様をモデル化する1つまたは複数のハードウェア・モジュールを表し、そのうちのいくつかはソフトウェアを実行し得る。
3Dモデリング・ユニット92は、3Dシーンの生成とその後の1つまたは複数の追加のビューの生成とを可能にするために、後処理モジュール60からの深さマップを利用し得る。照明モデリング・ユニット94は、3Dシーンの生成とその後の1つまたは複数の追加のビューの生成とを可能にするために、照明モデリング・ユニット88Cおよび/またはコントラスト/照明検出ユニット84Cによって判断された照明情報を利用し得る。補間ユニット96は、3Dシーンの生成とその後の1つまたは複数の追加のビューの生成とを可能にするために2Dビデオデータのピクセル情報を利用し得る。この点において、レンダリング・モジュール62は、単一ビュー2Dビデオ・コンテンツ20からのマルチビュー・ストリーム・フォーマットでの3Dビデオ・コンテンツの生成を可能にするために追加のビューを生成する。
ディスプレイ・フォーマット・モジュール64は、説明しやすいように、図示されていないが、モジュール56〜62と同様の追加のユニットを備え、パラメータ発見モジュール38によって判断された入力ファイル・フォーマット98に従って、レンダリング・モジュール62から受信した3Dビデオデータをフォーマットするために様々なユニットを起動し得る。一例では、ディスプレイ・フォーマット・モジュール64は、(たとえば、アナグリフ(anaglyph)ファイル・フォーマットによって必要とされる)色成分が異なる様々なビューをインターリーブするために色インターリービングユニットを起動する。別の例として、ディスプレイ・フォーマット・モジュール62は、ピクセルロケーションが異なる様々なビューをインターリーブするために空間インターリービングユニットを起動する。複数のビューが生成されるとき、ディスプレイ・フォーマット・モジュール64は、構成データ80によって示され、パラメータ76のうちの1つを介して学習され得るフレーム切替えディスプレイのために様々なビューを時間的に多重化するマルチビューユニットを起動し得る。ディスプレイ・フォーマット要件に加えて、HVSフィードバック・モジュール40はまた、メトリック70および/またはユーザ選好78に基づいて、3Dビデオストリームを強調、フィルタ処理、または、全体的に変更するようにディスプレイ・フォーマット・モジュール64を構成する構成データ80を生成し得る。
オフライン処理モジュール72は、概して、トレーニングセットの様々なプロパティに関して、トレーニングセットの様々なフレームまたは画像のいくつかの記述子の統計分析およびモデリングを実行し得る。様々なプロパティは、照明のタイプおよび方向、オブジェクト反射率、テクスチャおよび大気効果を含み得る。オフライン処理モジュール72は、前処理モジュール56の様々なユニット82A〜82Cおよび84A〜84Cが使用する1つまたは複数のモデルを作成することによって前処理モジュールのサポートを行う。
オフライン処理モジュール72は、統計分析およびモデリングを実行するための機械学習ユニット100を含む。機械学習ユニット100は、一例として、シェーディングまたは記述子による作成されたエッジにわたる強度の変動を考慮する記述子を定義し、モデル化し、別の例では、シャドーによって生じるエッジにわたる強度の変動を考慮する記述子を定義し、モデル化し得る。さらなる一例では、機械学習ユニット100は、いくつかの照明条件の下でシーン中のオブジェクトの反射率プロパティを考慮する記述子を定義し、モデル化し得る。
機械学習ユニット100は、トレーニングセット(図3に図示せず)を使用して各記述子の統計的ビヘイビアをオフラインでモデル化する。このトレーニングセットは、各記述子に影響を及ぼすプロパティのすべての潜在的な変動の下で取得される画像のセットからなり得る。したがって、トレーニングセットを使用してトレーニングを受けた後に機械学習ユニット100によって作成されるモデルは、所与のシナリオ条件(たとえば、照明の所与の方向)について、記述子が、ある値である確率をキャプチャする。統計的ビヘイビアのモデルは、次いで、前処理モジュール56のユニットによってオンラインで使用される。前処理モジュール56は、前処理モジュール56が現在処理している1つまたは複数の画像またはフレームから取得される所与の記述子の特定の値について、シーンの条件が特定の条件(たとえば、照明のある方向)である最大可能性を判断するためにこれらのモデルを利用する。
これらのモデルは、照明に関係するシナリオだけでなく、シーン中の大気効果(もや、雨、雪など)またはテクスチャ変動にも拡張され得る。記述子はまた、(それらがピクセルの近傍内の情報をキャプチャする場合)ローカルであり得、または(それらが全画像の情報をキャプチャする場合)グローバルであり得る。これらのモデルは、マルコフランダムフィールド(Markov random field)を使用していくつかの記述子間の関係の統計的ビヘイビアをキャプチャし得る。この点において、オフライン処理モジュール72は、前処理モジュール56が使用するモデルを生成する機械学習ユニット100を用いて前処理モジュール56をサポートし得る。特に、機械学習ユニット100は、モデリングとその後の変換との改善を可能にし得る新しいトレーニングセットを受信し得る。
図4Aおよび図4Bは、本開示で説明する技法の様々な態様を実装する際の、図2のモバイル・デバイス12などのモバイル・デバイスの例示的な動作を示すフローチャートである。最初に図4Aを参照すると、モバイル・デバイス12の制御ユニット34内に含まれるユーザ・インターフェース・モジュール74は、初めに、モバイル・デバイス12のユーザまたは他のオペレータが、ユーザ選好78を定義するデータを入力するために対話し得るユーザ・インターフェースを提示し得る。ユーザ・インターフェース・モジュール74は、ユーザ選好78を定義するこのデータを受信し、変換モジュール36を構成または再構成する際に使用するためにユーザ選好78をHVSフィードバック・モジュール40に転送する(102)。
ユーザ・インターフェース・モジュール74はまた、ユーザが1つまたは複数のソース・デバイスと1つまたは複数の宛先デバイスとを選択するために対話し得る同じまたは別のユーザ・インターフェースを提示し得る。次いで、ユーザ・インターフェース・モジュール74は、1つまたは複数のソース・デバイス(たとえば、図1の例に示すソース・デバイス14)と1つまたは複数の宛先デバイス(たとえば、外部ディスプレイ・デバイス16)とを選択するデータを受信する(104)。これらの選択に基づいて、ユーザ・インターフェース・モジュール74は、それぞれ、選択された1つまたは複数のソース・デバイス、たとえば、ソース・デバイス14および選択された1つまたは複数の宛先デバイス、たとえば、外部ディスプレイ・デバイス16との通信リンクまたはチャネル13および15を確立するために、ワイヤレス・インターフェース32Aおよびワイヤード・インターフェース32Bのうちの様々なインターフェースとインターフェースし得る。これらのチャネル13および15が確立されることを保証した後に、次いで、ユーザ・インターフェース・モジュール74は、ディスプレイ・デバイス16の能力に関するパラメータ76の発見を開始するためにパラメータ発見モジュール38とインターフェースし得る。
パラメータ発見モジュール38は、上記で説明した方法で確立された通信チャネル15を介してパラメータ76を判断するためにディスプレイ・デバイス16とインターフェースする(106)。パラメータ発見モジュール38は、これらのパラメータ76をHVSフィードバック・モジュール40に転送し得、HVSフィードバック・モジュール40は、変換モジュール36を構成または再構成するときに、これらのパラメータ76を再び採用し得る。パラメータ76のうちの1つは、2Dおよび/または3Dビデオ・コンテンツを受け付けるために、外部ディスプレイ・デバイス16によってサポートされる1つまたは複数の入力ファイル・フォーマットを備え得る。パラメータ発見モジュール38は、変換モジュール36、より詳細には、ディスプレイ・フォーマット・モジュール64とインターフェースして、判断された入力ファイル・フォーマットに従って、変換された3Dビデオデータ48をフォーマットするようにディスプレイ・フォーマット・モジュール64を構成する(108)。代替的に、HVSフィードバック・モジュール40は、ディスプレイ・フォーマット・モジュール64とインターフェースして、パラメータ発見モジュール38に関して上記で説明した方法でディスプレイ・フォーマット・モジュール64を構成し得る。HVSフィードバック・モジュール40はまた、変換モジュール36の他のモジュール56〜62とインターフェースして、ユーザ選好78に従って外部ディスプレイ・デバイス16による提示のために3Dビデオ・コンテンツ48の生成を調整するように、パラメータ76とユーザ選好78とに基づいてこれらのモジュール56〜62を初めに構成し得る。
構成された後、変換モジュール36は、ソース・デバイス12から2Dおよび/または3Dビデオ・コンテンツ20、22を取り出すために通信チャネル13を介してソース・デバイス12とインターフェースする(110)。たとえば、2Dビデオ・コンテンツ20を受信すると、変換モジュール36は、2Dビデオ・コンテンツ20のビデオデータを、判断された入力ファイル・フォーマットに従ってフォーマットされた3Dビデオ・コンテンツ48にコンバートする(112)。次いで、変換モジュール36は、判断された入力ファイル・フォーマットに従ってフォーマットされた3Dビデオデータを3Dビデオ・コンテンツ48として出力し、モバイル・デバイス12は、3Dビデオ・コンテンツ48をディスプレイ・デバイス16に転送する(114、116)。
図4Bを参照すると、3Dビデオ・コンテンツ48の少なくとも一部分を受信した後に、ディスプレイ・デバイス16は、入力ファイル・フォーマッティング・ヘッダを除去することによって、受信した3Dビデオ・コンテンツ48をカプセル化解除して、コード化3Dビデオデータ50を生成する。次いで、ディスプレイ・デバイス16は、コード化3Dビデオデータ50を復号して、3Dビデオデータ44を生成し、ディスプレイ・デバイス16は、3Dビデオデータ44を、それらの消費のためにディスプレイ30を介して1人または複数の閲覧者に提示する。このビデオデータ44を提示し、変換モジュール36が2Dビデオ・コンテンツ20を3Dビデオ・コンテンツ48にコンバートしている間、HVSフィードバック・モジュール40は、ビデオデータ44を取り出すためにディスプレイ・デバイス16とインターフェースする(118)。
上記で説明したように、HVSフィードバック・モジュール40、より詳細には、HVSフィードバック・モジュール40の定性的評価モジュール66は、上記で説明したように、復号ビデオデータ44の可視化の品質を表す定性的メトリック70を判断するために復号ビデオデータ44を分析する(119)。HVSフィードバック・モジュール40はまた、復号ビデオデータ44の品質を定量的観点から表す定量的メトリック70を判断するために定量的評価モジュール66を採用し得る。これらのメトリック70に基づいて、HVSフィードバック・モジュール40は、復号ビデオデータ44の可視化の品質を改良するために変換モジュール36のモジュール56〜64を再構成する(120)。
HVSフィードバック・モジュール40はまた、メトリック70とパラメータ76とユーザ選好78とのうちの2つ以上の組合せにモジュール56〜64のこの再構成の基礎をおき得る。たとえば、ユーザの選好コントラストレベルに関係するユーザ選好78のうちの特定のユーザ選好78が与えられれば、HVSフィードバック・モジュール40は、この選好コントラストレベルに鑑みてメトリック78(たとえば、知覚コントラストレベル)を分析し、ビデオデータ44が選好コントラストレベルに等しくない場合、それに近いコントラストレベルを示すように、3Dビデオ・コンテンツ48の後続の生成を改良する構成データを生成し得る。HVSフィードバック・モジュール40はまた、後続のビデオデータ44から分析されるメトリック78が、パラメータ78によって定義された特定のディスプレイ能力に関して改善されるように、3Dビデオ・コンテンツ48の生成を改良するためにパラメータ76に鑑みてメトリック78を分析し得る。いくつかの事例において、パラメータ76およびユーザ選好78が与えられれば、メトリック70に関して改良された3Dビデオ・コンテンツ48の後続の生成を生成するために、メトリック70、パラメータ76およびユーザ選好78の3つすべてが上記の方法で採用され得る。
上記で説明した方法で再構成された後に、変換モジュール36は、2Dビデオ・コンテンツ20を3Dビデオ・コンテンツ48にコンバートし続ける(122)。次いで、変換モジュール36は、判断された入力フォーマットに従ってフォーマットされた3Dビデオデータを備える、3Dビデオ・コンテンツ48を出力する(124)。モバイル・デバイス12は3Dビデオ・コンテンツ48を外部ディスプレイ・デバイス16に転送する(126)。上記のプロセスは、このようにして、反復の各々について、ビデオ・コンテンツ48が、ビデオデータ44の可視化の知覚される品質を定義するメトリック70に関して改良されるように、反復的プロセスとして特徴づけられ得るものにおいて続き得る(118〜126)。
上記では、復号された3Dビデオデータを分析するHVSフィードバック・モジュール40に関して説明したが、代替的に、HVSフィードバック・モジュール40は、コーディングされた3Dビデオデータを分析し得る。その上、ディスプレイ・デバイス16は、コーディングまたは復号された3Dビデオデータを分析するHVSフィードバック・モジュール40と同様のそれ自体のHVSフィードバック・モジュールを含み得る。このようにして、ディスプレイ・デバイス16は、それ自体で3Dビデオデータを分析し得、それ自体のHVSフィードバック・モジュールで判断された1つまたは複数のメトリックをHVSフィードバック・モジュール40に転送し得、HVSフィードバック・モジュール40は、これらのメトリックを使用して3Dビデオデータへのビデオデータの変換を調整し得る。したがって、本技法はこの点において限定されるべきではない。
図5は、本開示で説明する技法の様々な態様を実装する例示的なモバイル・デバイス128を示すブロック図である。モバイル・デバイス128は、図1のモバイル・デバイス12と実質的に同様であり得る。特定のデバイス、たとえば、モバイル・デバイス128に関して説明するが、本技法は、モバイル・デバイス12に関して説明する技法の様々な態様を実装することが可能であると上述した他のデバイスを含む、任意のタイプのデバイスによって実装され得る。
図2の例に示すモバイル・デバイス12と同様に、モバイル・デバイス128は、ワイヤレス・インターフェース32Aと、ワイヤード・インターフェース32Bと、ビデオ・キャプチャ・モジュール50と、ローカル記憶モジュール52と、ユーザ・インターフェース・モジュール74とを含む。ワイヤレス・インターフェース32Aと、ワイヤード・インターフェース32Bと、ビデオ・キャプチャ・モジュール50と、ローカル記憶モジュール52との各々は、ビデオデータおよび/またはコンテンツを「ソース」(すなわち、提供)し得、このために、一般に「ソース」と呼ばれることがある。これらのソースは、(2Dビデオデータ+追加の深さ情報、または2Dビデオデータ+追加の深さおよびオクルーデッドエリア(occluded area)情報、または2Dビデオデータ+深さ、オクルーデッドエリアおよびグローバル効果情報を含み得る)2Dビデオデータまたは3Dビデオデータを備え得る、ビデオデータ130を提供し得る。
モバイル・デバイス128はまた、画像/ビデオ処理ユニット132と、画像/ビデオ・エンコーダ・ユニット134と、画像/ビデオ・バッファ・ユニット136と、ディスプレイ処理ユニット138と、内部ディスプレイ140と、ワイヤレス・ディスプレイ(WD)ホストユニット142と、ワイヤレス・ディスプレイ・インターフェース144とを含む。画像/ビデオプロセッサユニット132は、3Dビデオデータ146を生成するようにビデオデータ130を処理するハードウェア・ユニットまたはハードウェア・ユニットとソフトウェア・ユニットの組合せを表す。画像/ビデオ・エンコーダ・ユニット134は、画像/ビデオ・エンコーダ・ユニット134によってサポートされる1つまたは複数のコーデックのうちの1つに従ってビデオデータ146を符号化して符号化ビデオデータ148を生成するハードウェア・ユニットまたはハードウェア・ユニットとソフトウェア・ユニットの組合せを表す。エンコーダとして示されているが、画像/ビデオ・エンコーダ・ユニット134は復号をも実行し得る。エンコーダ・ユニット134は符号化ビデオデータ148を出力し、その符号化ビデオデータ148は、上記で説明したメモリとストレージ・デバイスの両方の例など、メモリまたはストレージ・デバイスを備え得る画像/ビデオ・バッファ・ユニット136に記憶される。
いくつかの事例において、モバイル・デバイス128は、発光ダイオード(LED)ディスプレイ、有機LED(OLED)ディスプレイ、陰極線管ディスプレイ、プラズマディスプレイ、液晶ディスプレイ(LCD)または任意の他のタイプのディスプレイを備え得る内部ディスプレイ140上で3Dビデオデータ146をローカルにプレビューするプレビューモードを与える。このプレビューモードでは、画像/ビデオ処理ユニット132はプレビュー・ビデオデータ150A、150B(「プレビュー・ビデオデータ150」)を生成し得る。プレビュー・ビデオデータ150Aは、3Dビデオデータ146の右目の遠近感を形成する右目ビデオデータを備え得る。プレビュー・ビデオデータ150Bは、3Dビデオデータ146の左目の遠近感を形成する左目ビデオデータを備え得る。ビデオ・キャプチャ・デバイス50が3Dビデオ・キャプチャ・デバイスを備えるとき、この3Dビデオ・キャプチャ・デバイス50は、右目ビデオデータ150Aと左目ビデオデータ150Bの両方を生成し得、画像/ビデオ処理ユニット132はそれらのデータをディスプレイ処理ユニット138に転送し得る。
ディスプレイ処理ユニット138は、外部ディスプレイ・デバイス154A〜154N(「外部ディスプレイ・デバイス154」)のうちの1つまたは複数など、外部ディスプレイ・デバイスのうちの1つまたは複数によってサポートされる入力フォーマットに従ってバッファされたビデオデータ152をフォーマットするために、バッファされたビデオデータ152を処理するハードウェア・ユニットまたはハードウェア・ユニットとソフトウェア・ユニットの組合せを表す。ディスプレイ処理ユニット138は、このフォーマットされたバッファされたビデオデータ152を3Dビデオ・コンテンツ156として出力し得る。ディスプレイ処理ユニット138は、説明を簡単にするため図5には示されていないが、外部ディスプレイ・デバイス154のうちの1つまたは複数によってサポートされる入力ファイル・フォーマットを判断するためのディスプレイ・フォーマット・インターフェース(DFI)を含み得る。
ディスプレイ処理ユニット138はまた、プレビュー・ビデオデータ150のうちの1つまたは複数を受信し、内部ディスプレイ140による提示のためにこのプレビュー・ビデオデータ150をフォーマットし得る。ディスプレイ処理ユニット138は、このフォーマットされたプレビュー・ビデオデータ150A、150Bをプレビュー・ビデオ・コンテンツ158A、158B(「プレビュー・ビデオ・コンテンツ158」)として出力し得、外部ディスプレイ・デバイス154のうちの1つまたは複数に3Dビデオ・コンテンツ156を出力するのと同時に、内部ディスプレイ140はプレビュー・ビデオ・コンテンツ158A、158Bのうちの一方または両方をモバイル・デバイス128のユーザに提示し得る。
内部ディスプレイ140が3Dビデオ・コンテンツ再生をサポートする場合、プレビュー・ビデオデータ150は、ディスプレイ処理ユニット138が内部ディスプレイ140によるディスプレイまたは提示用にフォーマットする3Dビデオデータを備え得る。内部ディスプレイ140が3Dビデオ・コンテンツと2Dビデオ・コンテンツの両方の再生をサポートする場合、画像/ビデオ処理ユニット132は、ユーザ選好、アプリケーションのタイプ(たとえば、2Dビデオデータはしばしば電子メール/テキスト用に好適であるが、コンピュータグラフィックス(CG)はしばしば3Dビデオデータとしてレンダリングされる)、動作電力モード、利用可能なバッテリー電力、ならびにこのタイプの決定に一般に影響を及ぼす他の選好、メトリックおよびパラメータに基づいて、プレビュー・ビデオデータ150を2Dビデオデータとして生成すべきかまたは3Dビデオデータとして生成すべきかを判断し得る。
画像/ビデオ処理ユニット132と、画像/ビデオ・エンコーダ・ユニット134と、ディスプレイ処理ユニット138とは、コンピュータ可読媒体に記憶された1つまたは複数の命令を実行する(コンピュータ処理ユニットまたはCPUと呼ばれることがある)汎用プロセッサ、デジタル信号プロセッサ(DSP)、グラフィックス処理ユニット(GPU)、あるいは任意の他のタイプのプロセッサなど、1つまたは複数のプロセッサを備え得る。代替的に、画像/ビデオ処理ユニット132は、フィールド・プログラマブル・ゲートアレイ(FPGA)および特定用途向け集積回路(ASIC)など、専用ハードウェアを備え得る。いくつかの事例において、専用ハードウェアと1つまたは複数のプロセッサとの両方は、ユニット132、134および138に関して本開示で説明する様々な動作を行うために組み合わせられ得る。
上記では、外部ディスプレイ・デバイス154によってサポートされる入力ファイル・フォーマットに従って3Dビデオ・コンテンツ156を生成するために、バッファされたビデオデータ152をフォーマットすることについて説明したが、ディスプレイ処理ユニット138は、通常、HDMI、DVI、および他のワイヤードファイル・フォーマットなど、ワイヤード・インターフェースのためのファイル・フォーマットのみをサポートする。特に、現時点では正式なまたは規格化されたワイヤレス・ファイル・フォーマットがまだ存在しないことを考慮して、ディスプレイ処理ユニット138はワイヤレス・ファイル・フォーマットをサポートしないことがある。しかしながら、WDホストユニット142は、外部ディスプレイ・デバイス154のうちの1つまたは複数がワイヤレス・ファイル・フォーマットをサポートしているかどうかを判断するように、ワイヤレス・ディスプレイ・ファイル・フォーマットをサポートし、そのようなワイヤレス・ディスプレイへのインターフェースを提供し得る。したがって、WDホストユニット142は、外部ディスプレイ・デバイス154のうちの1つまたは複数によってサポートされるワイヤレス・ディスプレイ・フォーマットを判断し、次いで、判断されたワイヤレス・ディスプレイ・フォーマットに従ってバッファ3Dビデオデータ152をフォーマットするためのインターフェースを提供する、ハードウェア・ユニットまたはハードウェア・ユニットとソフトウェア・ユニットの組合せを表し得る。したがって、WDホストユニット142は、モバイル・デバイス128が、1つまたは複数の外部ディスプレイ・デバイス154によってサポートされるワイヤレス・ファイル・フォーマットに従って3Dビデオ・コンテンツをワイヤレス送信することを可能にすることによって、クロスプラットフォーム再生を可能にし得る。
WDホストユニット142は、外部ディスプレイ・デバイス154のうちのワイヤレス・ディスプレイを備える外部ディスプレイ・デバイスの能力に関して、サポートされるワイヤレス・ファイル・フォーマットを含めて、ワイヤレス・ディスプレイ・パラメータを判断するために、たとえば、上記で説明したWHDMIまたはWMDDIプロトコルを実装し得る。WDホストユニット142は、ディスプレイ処理ユニット138からバッファ3Dビデオデータ152を受信し、ワイヤレス入力ファイル・フォーマットのうちの判断された1つのフォーマットに従ってバッファ3Dビデオデータ152をフォーマットまたは(ディスプレイ処理ユニット138が初めにこのデータをフォーマットする場合は)再フォーマットし、3Dビデオ・コンテンツ156をディスプレイ処理ユニット138に戻し得る。ディスプレイ処理ユニット138は、この3Dビデオ・コンテンツ156を、ワイヤレス・インターフェース32Bのうちの1つを備え得るが、説明のために別々に示してあるワイヤレス・ディスプレイ・インターフェース144に転送する。次いで、ワイヤレス・ディスプレイ・インターフェース144は、この3Dビデオ・コンテンツ156を外部ディスプレイ・デバイス154のうちの1つまたは複数に転送する。
モバイル・デバイス128内に含まれるものとして示されているが、WDホストユニット142は、モバイル・デバイス128の外部に常駐し、ワイヤレス・インターフェース32Aまたはワイヤード・インターフェース32Bのうちの1つを介してモバイル・デバイス128とインターフェースし得る。モバイル・デバイス128の外部にあるとき、WDホストユニット142は、ワイヤレス・ディスプレイ・インターフェース144と同様のワイヤレス・ディスプレイ・インターフェース、または以下でより詳細に説明するWDクライアントユニットとの通信を可能にする別の同様なインターフェースを備え得る。いくつかの事例において、WDホストユニット142は、ワイヤレス・ファイル・フォーマッティングを実行するためにディスプレイ処理ユニット138によって実行されるソフトウェア・モジュールを備え得る。上記の事例においてディスプレイ処理ユニット138がWDホストユニット142を実行するためのハードウェアを含む限り、WDホストユニット142はハードウェア・ユニットとソフトウェア・ユニットの両方を備えると考えられ得る。
いくつかの事例において、WDホストユニット142は、選択された宛先デバイス、たとえば、外部ディスプレイ・デバイス154のうちの2つが、異なるワイヤレス・ファイル・フォーマットをサポートすることを識別し得る。この事例では、WDホストユニット142は、第1の判断されたワイヤレス・ファイル・フォーマットに従ってフォーマットされた第1の3Dビデオ・コンテンツ156と、第2の判断されたワイヤレス・ファイル・フォーマットに従ってフォーマットされた第2の3Dビデオ・コンテンツ156とを生成する。次いで、ワイヤレス・ディスプレイ・インターフェース144は、第1および第2の3Dビデオ・コンテンツ156を外部ディスプレイ・デバイス154のうちの適切な1つに転送する。したがって、図5の例では単一の3Dビデオ・コンテンツ156のみを送るものとして示しているが、その3Dビデオ・コンテンツ156は、各バージョンが異なるワイヤレス・ファイル・フォーマットに従ってフォーマットされる、第1および第2のバージョン、または、より一般的には、複数のバージョンの3Dビデオ・コンテンツ156を備え得る。
1つのワイヤレスフォーマットは、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを複数のパケットのうちの異なる1つの中にカプセル化する、リアルタイム・トランスポート・プロトコル(RTP)などのトランスポート・プロトコルを活用するフォーマットを備え得る。その上、このフォーマットは、図8の例に関して以下で示すように、オクルージョン情報および/またはグローバル効果情報に対応する情報の追加のセグメントをカプセル化するためにこのトランスポート・プロトコルを活用し得る。WDホストユニット142は、3Dビデオ・コンテンツ156の様々なセグメントを複数のパケットのうちの異なる1つの中にカプセル化するためのこのトランスポート・プロトコルを実装するトランスポート・ユニット158を含む。様々なセグメントを異なるパケットにカプセル化した後に、トランスポート・ユニット158は、複数のパケットのうちの1つのヘッダ中の随意のデータフィールド内に3Dビデオ・コンテンツ156の再生を向上させるためのメタデータを追加する。このメタデータは、追加のビューのレンダリングを可能にし、特定のディスプレイ上での再生を促進するパラメータを定義し得る。メタデータはまた、所望のコントラスト、シャープネス、色温度、2Dまたは3Dスクリーン解像度、および2Dまたは3D再生フォーマット(ピラーボックス、伸張、オリジナルなど)など、ユーザ選好を定義し得る。
トランスポート・プロトコルに関与するこのファイル・フォーマットに従って3Dビデオデータ152をフォーマットした後に、WDホストユニット142は、得られた3Dビデオ・コンテンツ156をワイヤレス・ディスプレイ・インターフェース144に転送し得、ワイヤレス・ディスプレイ・インターフェース144は、パケットを外部ディスプレイ・デバイス154のうちの1つまたは複数に送信する。ワイヤレス・ディスプレイ・インターフェース144が外部ディスプレイ・デバイス154のうちの2つ以上にこのコンテンツ156を送信するとき、その送信は3Dビデオ・コンテンツ156の「WDマルチキャスト」と呼ばれることがある。いずれの場合も、この送信は、内部ディスプレイ140を介したプレビュー・ビデオデータ150の表示と同時に行われ得る。しばしば、プレビュー・ビデオデータ150と3Dビデオ・コンテンツ156との提示は同期させられる。代替的に、プレビュー・ビデオデータ150の提示は、外部ディスプレイ・デバイス154のうちの1つまたは複数による3Dビデオ・コンテンツ156の提示の前に行われ得る。
図6は、本開示で説明する技法の様々な態様を実行する際の、図5の例に示すモバイル・デバイス128などのモバイル・デバイスの例示的な動作を示すフローチャートである。初めに、モバイル・デバイス128のユーザまたは他のオペレータは、ビデオ・コンテンツの1つまたは複数のソースと、ワイヤレス・ビデオ・コンテンツ配信をサポートする外部ディスプレイ・デバイス154(「外部ワイヤレス・ディスプレイ・デバイス」と呼ばれることがある)のうちの1つまたは複数とを選択するデータを入力するために、ユーザ・インターフェース・モジュール74によって提示されるユーザ・インターフェースと対話し得る。したがって、ユーザ・インターフェース・モジュール74は、1つまたは複数のソースと、外部ワイヤレス・ディスプレイ・デバイス154のうちの1つまたは複数とを選択するデータを受信する(162)。ユーザ・インターフェース・モジュール74は、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された1つまたは複数の選択をWDホストユニット140に転送する。
次いで、WDホストユニット140は、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスの1つまたは複数の能力を定義するパラメータを判断するために、ワイヤレス・ディスプレイ・インターフェース144などのワイヤレス・ディスプレイ・インターフェースを介して、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスとインターフェースする(164)。これらのパラメータは、パラメータ発見モジュール38によって発見されたパラメータ76と同様であり得る。1つの例示的なパラメータは、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスによってサポートされるワイヤレス入力ファイル・フォーマットを含み得る。
一方、画像/ビデオ処理ユニット132は、選択されたソース32A、32B、50および52のうちの1つまたは複数からビデオデータ130を受信し得る(166)。(図5には「ビデオ・キャプチャ・デバイス50」として示されている)ソース50に関して、ビデオ・キャプチャ・デバイス50は、所与の画像(またはビデオ・キャプチャの場合は一連の画像)に対して2つの視点を与えるために、同時に2つのセンサへの入射画像を同時にキャプチャする2つの画像センサをもつステレオカメラを備え得る。
ビデオ・キャプチャ・デバイス50は、いくつかの方法で同期式にビデオデータをキャプチャし得る。第1の方法では、2つのセンサから発信したデータは、バッファとともに高速シリアルキャプチャまたはパラレルキャプチャのいずれかを使用して同じメモリバスを介して受信される。シリアルキャプチャの場合、画像/ビデオ処理ユニット132は、深さ抽出中に2つの異なるビューのシリアルキャプチャ間の時間オフセットを考慮に入れる。第2の方法では、2つのセンサから発信したデータは、単一バスが2つのセンサ間で共有されるときに生じる弊害を回避するために、異なるメモリバスを介して受信される。第3の方法では、2つのセンサから発信したデータは、一般にストリーミングフォーマットであり、組込みディスプレイまたは外部ディスプレイ上でプレビューされるべきディスプレイバッファに書き込まれる。
このプレビューモードでは、メモリ帯域幅および/または電力を節約するために、一般に、2つの2D視点のうちの1つのみ、または言い換えれば、2つのセンサのうちの1つからのデータストリームがプレビューされ得る。ユーザ・インターフェース・モジュール74を介して入力されるユーザ選好は、2Dまたは3Dのいずれかを示し得る(たとえば、一方または両方の視点がディスプレイプロセッサに送られる)。ユーザ入力は、所与のビデオ記録または画像キャプチャセッションの間にリアルタイムまたはほぼリアルタイムで入力されるか、または一般的な選好として指定され得る。ユーザ選好はまた、上記で説明したように、2Dはテキスト、電子メールおよびウェブブラウジング用に使用され、3Dはカムコーダおよびメディアプレーヤ用に使用されるように、所与のアプリケーションに基づいてデータを2Dで提示すべきかまたは3Dで提示すべきかを示し得る。画像/ビデオ処理ユニット132は、利用可能なバッテリー電力、あるいは(「自動的」に行われると呼ばれることがある、ユーザ入力/介入を伴うまたは伴わない)電力管理設定に基づいて、ビデオデータ130を2Dビデオデータに変換すべきかまたは3Dビデオデータに変換すべきかを判断し得る。
内部ディスプレイ140がプレビュー・ビデオデータ150を3Dで提示する3Dプレビューの場合、ディスプレイ処理ユニット138は、未加工(非圧縮)3Dまたは画像データを両方の視点について2つの別々のストリーム、たとえば、プレビュー・ビデオデータ150Aおよび150Bとして受信し得る。ディスプレイ処理ユニット138はまた、センサから2Dビデオデータ130を直接受信し、画像/ビデオ処理ユニット132、画像/ビデオ・エンコーダ・ユニット134、または3Dコード化画像/ビデオファイルから3D深さ情報を受信し得る。ディスプレイ処理ユニット138はまた、(たとえば、ローカル記憶モジュール52に記憶された)3D符号化画像/ビデオファイルから圧縮3Dデータを受信し得、その圧縮3Dデータは、ワイヤードまたはワイヤレス・インターフェース32A、32Bを介して外部ディスプレイ・デバイス154のうちの1つにストリーミングされ得る。この場合、ディスプレイミラーリングが使用可能であれば、内部ディスプレイ140は、センサ/信号プロセッサから、圧縮されていないが処理済みのビデオストリームを取得し得る。随意に、内部ディスプレイ140は、2D画像、たとえば、プレビュー・ビデオデータ150のうちの1つのみをレンダリングし得る。ディスプレイ処理ユニット138はまた、ビデオ・キャプチャ・デバイス50の単一のセンサから2Dデータを受信し得、画像/ビデオ処理ユニット132は、2Dデータを3Dデータにコンバートする図2に示す変換モジュール36の2D−3D変換モジュール58と同様の2D−3D処理モジュールを備え得る。
いずれの場合も、画像/ビデオ処理ユニット132は、受信したビデオデータ130を3Dビデオデータに変換し、または場合によっては3Dビデオデータを改良して3Dビデオデータ146を生成し、潜在的にビデオデータ150をプレビューし得る(167)。次いで、画像/ビデオ処理ユニット132はこのデータを3D画像/ビデオ・エンコーダに転送し、3D画像/ビデオ・エンコーダは、3Dビデオデータ146を符号化して符号化3Dビデオデータ148を出力する。画像/ビデオ・バッファ・ユニット136は、符号化3Dビデオデータ148をバッファするかまたは場合によっては記憶し、ディスプレイ処理ユニット138は、入力ファイル・フォーマットに従ってフォーマットするために、画像/ビデオ・バッファ・ユニット136からバッファされたビデオデータ152を取り出す。ディスプレイ処理ユニット138はまた、上記のように、プレビュー・ビデオデータ150を受信し、バッファ3Dビデオデータ152をフォーマットすることと同時に、内部ディスプレイ140上での表示のためにこのビデオデータをフォーマットし得る。
ただし、ディスプレイ処理ユニット138が、外部ワイヤレス・ディスプレイ154のうちの選択された1つに3Dビデオデータ152を配信するためのワイヤレス3Dファイル・フォーマットをサポートし得ないとすれば、ディスプレイ処理ユニット138はデータ152をWDホストユニット142に転送する。次いで、WDホストユニット142は、上記で説明した方法で判断されたパラメータに従って3Dビデオデータ152を準備する(168)。特に、WDホストユニット142は、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスのうちの1つまたは複数によってサポートされるワイヤレス3Dファイル・フォーマットに従って3Dビデオデータ152をフォーマットし得る。
次いで、WDホストユニット142は、準備した3Dビデオデータを元のディスプレイ処理ユニット138に転送し、ディスプレイ処理ユニット138は、この準備した(「3Dビデオ・コンテンツ156」とも呼ばれ得る)3Dビデオデータをワイヤレス・ディスプレイ・インターフェース144に転送する。ワイヤレス・ディスプレイ・インターフェース144は、外部ワイヤレス・ディスプレイ・デバイス154のうちの選択された1つまたは複数とインターフェースして、この準備した3Dビデオデータ156を外部ワイヤレス・ディスプレイ・デバイス154のうちのこれらの1つまたは複数にワイヤレス送信する(170)。
代替的に、上記のように、WDホストユニット142はワイヤレス・ディスプレイ・インターフェース144と一体化され得、その場合、ディスプレイ処理ユニット138は、フォーマッティングを実行することなしに、バッファ3Dビデオデータ152をワイヤレス・ディスプレイ・インターフェース144に転送する。WDホストユニット142は、この事例では、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスによってサポートされる判断されたワイヤレス・ファイル・フォーマットに従ってバッファ3Dビデオデータ152をフォーマットする。次いで、ワイヤレス・ディスプレイ・インターフェース144は、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスにこの準備した3Dビデオデータ156を転送する。
図7は、本開示で説明する技法の様々な態様に従ってフォーマットされた、図5の例に関して示した3Dビデオ・コンテンツ156などの3Dビデオ・コンテンツを示すブロック図である。具体的には、WDホストユニット142のトランスポート・ユニット158は、RTPに従って3Dビデオ・コンテンツ156をフォーマットしている。トランスポート・ユニット158は、いくつかの異なる部分172A〜172N(「部分172」)を備えるバッファ3Dビデオデータ152を受信する。これらの部分は、バッファ3Dビデオデータ152の一部分を備え得、(ヘッダまたは他の表記法などによって)定義されているかまたはいないにかかわらず、データ152のフレーム、スライス、ピクチャグループ、1つまたは複数のマクロブロック、1つまたは複数のブロック、1つまたは複数のピクセル値、あるいは任意の他の部分に対応し得る。図示されていないが、バッファ・ユニット136はオーディオデータをもバッファし得、そのオーディオデータは、バッファされたビデオデータ152とともに転送され得る。
部分172の各々は、ビデオ・セグメント174A〜174N(「ビデオ・セグメント174」)と深さセグメント176A〜176N(「深さセグメント176」)の両方、およびバッファオーディオデータ(「オーディオ・セグメント178」)のセグメント178A〜178Nを含む、バッファされたビデオデータ152の様々なセグメントを備え得る。トランスポート・ユニット158は、これらの部分172の各々に、図7の例では「TS 1」〜「TS N」と示された対応するタイムスタンプ180A〜180N(「タイムスタンプ180」)を割り当てる。次いで、トランスポート・ユニット158は、セグメント174〜178の各々が存在する部分172のうちの対応する1つに割り当てられた、タイムスタンプ180のうちの対応する1つとともにセグメント174、176および178の各々をカプセル化する。
たとえば、トランスポート・ユニット158は、セグメント174A〜178Aが存在する部分172Aに「TS 1」のタイムスタンプ180Aを割り当てる。次いで、トランスポート・ユニット158は、「TS 1」のタイムスタンプ180Aとともにセグメント174A、176Aおよび178Aの各々をカプセル化し、図7の例に示すカプセル化されたセグメントを生じる。このカプセル化はRTPに準拠し得る。トランスポート・ユニット158はまた、RTPに従って他のヘッダ情報とともにセグメント174〜178の各々をカプセル化して、セグメント174〜178のうちの異なる1つを含んでいるパケットを形成し得、ならびに、上記で説明したメタデータを生成し、これらのパケットの各々のヘッダ中に埋め込み得、これについては図8に関して以下でより詳細に説明する。
RTPとRTPによるパケットの形成とに関するさらなる情報は、その各々の全体が参照により本明細書に組み込まれる、1998年1月付けの「RTP Payload Format for MPEG1/MPEG2 Video」と題するrequest for comments(RFC)2250と、1999年12月付けの「Guidelines for Writers of RTP Payload Format Specification」と題するRFC2736と、2000年11月付けの「RTP Payload Format for MPEG-4 Audio/Visual Streams」と題するRFC3016と、2003年7月付けの「RTP: A transport Protocol for Real-Time Applications」と題するRFC3550と、2003年11月付けの「RTP Payload Format for Transport of MPEG-4 Elementary Streams」と題するRFC3640と、2005年2月付けの「RTP Payload Format for H.264 Video」と題するRFC3984と、2009年10月付けの「RTP Payload Format for Elementary Streams with MPEG Surround Multi-Channel Audio」と題するRFC5691とにおいて見つけられ得る。
RTPストリームとしてフォーマットされた3Dビデオ・コンテンツ156を生成するためにこのようにしてRTPを活用することは、2D専用ディスプレイ・デバイスがこの3Dビデオ・コンテンツ156を受信し、深さセグメント176を顧慮せずにビデオ・セグメント174のみを提示し得るという意味において、後方互換性を可能にし得る。すなわち、この2D専用ディスプレイ・デバイスは、深さセグメント176をドロップするかまたは場合によっては認識しなくてよく、ビデオ・セグメント174として送られた2Dビデオデータのみを提示する。この点において、2D専用ディスプレイ・デバイスに対して後方互換性がある深さセグメント176を配信するためにRTPの拡張性を活用する上記のファイル・フォーマットは、この後方互換性によってクロスプラットフォーム3Dビデオ再生を促進し得る。
図8A〜図8Cは、本開示で説明する技法の様々な態様による、メタデータが埋め込まれた例示的なセグメント181A〜181Cを示すブロック図である。図8Aは、本開示で説明する技法の様々な態様に従って深さメタデータを記憶する例示的なセグメント181Aを示すブロック図である。セグメント181Aは、ペイロード・タイプ・フィールド182A(「ペイロード・タイプ182A」)と、深さ範囲フィールド182B(「深さ範囲182B」)と、深さ解像度フィールド182C(「深さ解像度182C」)と、カメラ・モデル・パラメータ・フィールド182D(「カメラ・モデル・パラメータ182D」)と、最適閲覧パラメータ・フィールド182E(「最適閲覧パラメータ182E」)と、圧縮タイプ・フィールド182F(「圧縮タイプ182F」)とを含む。
ペイロード・タイプ・フィールド182Aは、ペイロードをカプセル化するヘッダデータとこのデータを区別するために「ペイロード」とも呼ばれることがある、この例では深さデータを示す、セグメントに記憶されるデータのタイプを記憶する。深さ範囲フィールド182Bは、所与の3Dビデオ画像またはビデオの深さ平面の幅とサイズとを対象とするデータを記憶する。深さ平面は、現在の画像と同じサイズであるかまたはそれよりも小さくなり得る。カメラ・モデル・パラメータ・フィールド182Dは、外部または内部カメラ・モデル・パラメータに関係するデータを記憶する。最適閲覧パラメータ・フィールド182Eは、閲覧スクリーンのサイズおよび閲覧距離、ならびに収束平面、上記の深さ範囲、明るさおよびいくつかの他の関係するパラメータによって定義される、閲覧角を対象とするデータを記憶する。圧縮タイプ・フィールド182Fは、JPEG、H.264またはプロプライエタリ圧縮アルゴリズムを示し得る、ビデオのペイロードまたはオーディオ・セグメントにおいて使用される圧縮のタイプを記述するデータを記憶する。
図8Bは、本開示で説明する技法の様々な態様に従ってオクルージョンメタデータを記憶する例示的なセグメント181Bを示すブロック図である。セグメント181Bは、ペイロード・タイプ・フィールド184A(「ペイロード・タイプ184A」)と、ベースライン・フィールド184B(「ベースライン184B」)と、オクルージョン解像度フィールド184C(「オクルージョン解像度184C」)と、圧縮タイプ・フィールド182D(「圧縮タイプ182D」)とを含む。ペイロード・タイプ・フィールド184Aは、ペイロードをカプセル化するヘッダデータとこのデータを区別するために「ペイロード」とも呼ばれることがある、この例ではオクルージョンデータを示す、セグメントに記憶されるデータのタイプを記憶する。ベースライン・フィールド184Bは、現在の画像がそれから収集された第1のビューのロケーションに対してシフトされる水平距離を定義するデータを記憶する。オクルージョン解像度フィールド184Cは、オクルージョン平面の幅とサイズとを定義するデータを記憶しており、オクルージョン平面は、現在の画像と同じサイズであるかまたはそれよりも小さくなり得る。圧縮タイプ184Dは、圧縮タイプ182Fと実質的に同様であり得る。
図8Cは、本開示で説明する技法の様々な態様に従ってグローバル効果メタデータを記憶する例示的なセグメント181Cを示すブロック図である。セグメント181Cは、ペイロード・タイプ・フィールド186(「ペイロード・タイプ186」)と、複数のパラメータ188A〜188N(「パラメータ188」)とを含む。ペイロード・タイプ・フィールド184Aは、ペイロードをカプセル化するヘッダデータとこのデータを区別するために「ペイロード」とも呼ばれることがある、この例ではグローバル効果データを示す、セグメントに記憶されるデータのタイプを記憶する。パラメータ188は、もや、雨、雪、および煙など、グローバル効果に対応するデータを記憶している。パラメータ188の各々は、異なるタイプのグローバル効果に関係し、所与のグローバル効果のタイプ、密度、ロケーションおよび繰返しを指定し得る。パラメータ188は、そのようなグローバル効果がコンピュータグラフィックスにおいて記述される方法と同様の方法でグローバル効果を定義するために、この情報を記憶し得る。
図9は、本開示で説明する技法のフォーマッティング態様を実行する際の、ワイヤレス・ディスプレイ(WD)ホストユニット、図5の例に示されたWDホストユニット142の例示的な動作を示すフローチャートである。初めに、WDホストユニット142は、ディスプレイ処理ユニット138からバッファ3Dビデオデータ152とオーディオデータとを受信し得る(200)。3Dビデオデータを受信すると、WDホストユニット142のトランスポート・ユニット158は、図7の例のビデオ・セグメント174および深さセグメント176など、3Dビデオデータ202のビデオ・セグメントと深さセグメントとを判断する(202)。同様に、トランスポート・ユニット158は、オーディオ・セグメント180など、オーディオデータのオーディオ・セグメントを判断する(204)。
次いで、トランスポート・ユニット158は、上記で説明したように、ビデオデータ152とオーディオデータとの部分172の各々についてタイムスタンプ180を判断する(206)。トランスポート・ユニット158は、同じく上記で説明したように、パケットを形成するためにタイムスタンプ180のうちの対応する1つとともに部分172のうちの同じ1つのセグメント174〜178をカプセル化する(208)。WDホストユニット142は、上記で説明した方法でメタデータを判断し得、その後、トランスポート・ユニット158は、判断されたメタデータをパケットのヘッダ中に埋め込む(210、212)。埋め込まれたメタデータとともに得られたパケットは、図8の例に示すパケットに似ていることがあり得る。メタデータを埋め込んだ後に、トランスポート・ユニット158は、パケットをワイヤレスデバイスインターフェース144に転送し、ワイヤレスデバイスインターフェース144は、外部ワイヤレス・ディスプレイ・デバイス154の中から選択された外部ワイヤレス・ディスプレイ・デバイスにパケットを転送することに進む(214)。
図10A〜図10Eは、クロスプラットフォームビデオ再生を促進するために本開示で説明する技法の1つまたは複数の態様を実装する様々なシステム216A〜216Eを示すブロック図である。より詳細には、図10Aは、その両方が本開示で説明する技法の様々な態様を実装する、外部WDホストユニット218と外部WDクライアントユニット222とを含むシステム216Aを示すブロック図である。外部WDホストユニット218は、システム216Aのモバイル・デバイス217とインターフェースするデバイスを備え得る。モバイル・デバイス217がモバイル・デバイス128のWDホストユニット142と同様の一体型または内部WDホストユニットを含まないことを除いて、モバイル・デバイス217は、図5のモバイル・デバイス128と同様であり得る。外部WDホストユニット218は、モバイル・デバイス128のワイヤード・インターフェース32Bのうちの1つと同様のワイヤード・インターフェースを通してモバイル・デバイス217とインターフェースする、いわゆる「ドングル」を備え得る。たとえば、外部WDホストユニット218は、ユニバーサルシステムバス(USB)またはマイクロUSBワイヤード・インターフェースを介してモバイル・デバイス217とインターフェースし得る。
外部WDクライアントユニット222は、同様に、システム216Aのディスプレイ・プラットフォーム223とインターフェースするデバイスを備える。外部WDクライアント222は、外部WDホストユニット218と同様に、USBインターフェース、複合オーディオ/ビデオ(A/V)インターフェース、HDMIインターフェースまたは任意の他のワイヤード・インターフェースなど、ワイヤード・インターフェースを介してディスプレイ・プラットフォーム223とインターフェースする、いわゆる「ドングル」を備え得る。
ディスプレイ・プラットフォーム223は、デジタル・ビデオディスク(DVD)プレーヤ、オーディオ/ビデオ受信機、Bluray(商標)ディスクプレーヤ、マルチメディアプレーヤ、デジタルビデオレコーダ(DVR)、または3Dディスプレイ・デバイス228とインターフェースするためのプラットフォームを与える任意の他のデバイスなど、システム216Aの3Dディスプレイ・デバイス228とインターフェースするデバイスを表し得る。いくつかの事例において、ディスプレイ・プラットフォーム223は、ラップトップまたはデスクトップ・コンピュータなどのパーソナル・コンピュータ、あるいは2D−3Dコンバージョンの実行専用のデバイスを備え得る。3Dディスプレイ・デバイス228は、図5の例に示す外部ディスプレイ・デバイス154と同様であり得る。3Dディスプレイ・デバイス228とは別個に示されているが、ディスプレイ・プラットフォーム223は、3Dディスプレイ・デバイス228中に組み込まれ得る。
上記のように、現時点では、ビデオデータをワイヤレスにディスプレイ・デバイスに転送するための規格化されたワイヤレス・ディスプレイプロトコルは存在しない。規格化されたワイヤレス・ディスプレイプロトコルがこのようにないことを仮定すれば、ディスプレイ・プラットフォーム223など、たいていのディスプレイ・プラットフォームはワイヤレス・ビデオデータ受信または送信をサポートしない。外部WDホストユニット218と外部WDクライアントユニット222との使用によってこの制限を克服し得る。
例示のために、モバイル・デバイス217は2Dビデオデータ221をソースし得、外部WDホストユニット218は、モバイル・デバイス217と上記の外部WDホストユニット218との間のワイヤード接続を通してその2Dビデオデータ221を受信し得るものと考える。外部WDホストユニット218は、外部WDクライアントユニット222とのワイヤレス・リンク220を確立し、次いで、ワイヤレス・リンク220を介してセッションを確立し得る。このセッションはRTPセッションを備え得る。外部WDホストユニット218が2Dビデオデータ221を受信した際に、WDホストユニット218は、外部WDクライアントユニット222によってサポートされるワイヤレス・ディスプレイプロトコルに従って2Dビデオデータ221をフォーマットする。たとえば、WDホストユニット218は、2Dビデオデータ221が深さセグメントを含まず、したがって、得られたフォーマットされたデータが深さパケットを含まず、各部分がビデオ・セグメントとオーディオ・セグメントとをのみを有することになることを除いて、図7の例に示すファイル・フォーマットに従って2Dビデオデータ221をフォーマットすることによって2Dビデオデータ218を準備し得る。
外部WDホストユニット218はまた、ディスプレイ・プラットフォーム223および/または3Dディスプレイ・デバイス228の能力を定義するパラメータを判断するために外部WDクライアントユニット222とインターフェースし得る。外部WDホストユニット218は、これらのパラメータを要求するために外部WDクライアントユニット222とインターフェースし得る。この要求に応答して、外部WDクライアントユニット222は、上記で説明した方法で(たとえば、WHDMIを使用して)ディスプレイ・プラットフォーム223の能力を発見するためにワイヤード・インターフェースを介してディスプレイ・プラットフォーム223とインターフェースし得る。ディスプレイ・プラットフォーム223はまた、たとえばHDMIを使用して3Dディスプレイ・デバイス228とインターフェースしたとき、3Dディスプレイ・デバイス228のパラメータを発見していることがある。次いで、ディスプレイ・プラットフォーム223は、ディスプレイ・プラットフォーム223と3Dディスプレイ・デバイス228の一方または両方の能力を記述するパラメータを戻し得、外部WDクライアントユニット222はそのパラメータを外部WDホストユニット218に転送する。次いで、外部WDホストユニット218は、上記で説明したように、これらのパラメータに基づいてメタデータを生成し、このメタデータを様々なパケットのヘッダ中に埋め込み得る。
いずれの場合も、WDホストユニット218は、フォーマットされた2Dビデオデータ221を、ワイヤレス・リンク220を介して外部WDクライアントユニット222に送信する。このフォーマットされた2Dビデオデータ221を受信すると、外部WDクライアントユニット222は、様々なセグメントをカプセル化解除して、2Dビデオデータ221を改良し、ならびにパケットヘッダ中に埋め込まれたメタデータを抽出し得る。次いで、外部WDクライアントユニット22は、改良された2Dビデオデータ221をメタデータとともにディスプレイ・プラットフォーム223に転送する。
図10Aの例に示すように、ディスプレイ・プラットフォーム223は、図2の2D−3D処理モジュール58およびディスプレイ・フォーマット・モジュール64と同様であり得る、2D−3D処理モジュール224およびディスプレイ・フォーマット・モジュール226を含む。同様ではあるが、2D−3D処理モジュール224およびディスプレイ・フォーマット・モジュール64は、2D−3D処理モジュール224が、ある3Dビデオデータ(たとえば、別のビューとは反対の深さ)の生成のみをサポートし、ディスプレイ・フォーマット・モジュール226が、特定のデバイス固有の3D入力ファイル・フォーマット(たとえば、マルチビュー・ストリームとは反対に2D+Z)のみをサポートし得るという点で、より限定された性質をもち得る。2D−3D処理モジュール224とディスプレイ・フォーマット・モジュール226の両方のより限定された性質にもかかわらず、モジュール224とモジュール226の両方は、ある程度まで構成可能であり得、受信した2Dビデオデータ221からの3Dビデオ・コンテンツ227の生成を改善するために、転送されたメタデータを利用し得る。3Dディスプレイ・デバイス228は、3Dビデオ・コンテンツ227を受信し、提示する。
2D−3D処理モジュール224は、一例として、ハードウェアベースまたはソフトウェアベースのいずれかのメディアプレーヤの場合、プラグインまたは他のソフトウェア・モジュールを備え得る。ディスプレイ・フォーマット・モジュール226も、一例では、ハードウェアベースまたはソフトウェアベースのいずれかのメディアプレーヤの場合、プラグインまたは他のソフトウェア・モジュールを備え得る。ディスプレイ・フォーマット・モジュール226は、マルチビューディスプレイのために必要であり得るディスプレイ・フォーマットインターリービングを実行し得る。
上記で説明したように、2D−3D処理モジュール224は、深さ情報を抽出することによって、2Dビデオデータ221を3Dビデオ・コンテンツ227の3Dビデオデータにコンバートする。この深さ抽出は、2Dビデオデータ221の1つまたは複数のフレームから大規模フィーチャと小規模フィーチャとを識別し、セグメント化することに関与し得る。深さ抽出はまた、2Dビデオデータ221を背景領域、オクルージョン領域、および前景領域などの領域に分類することに関与する。分類されると、深さ抽出は2Dビデオデータ221における構造および動きに基づいて3Dモデルにおける移動オブジェクトの位置およびロケーションを識別する。深さ抽出の結果は、2Dビデオデータ221の2D画像(またはフレーム)中の各ピクセルについての深さ値であり、各フレームについてのNビットビットマップ画像として記憶される。代替的に、深さマップが各領域について生成され得、シーンはレンダリング中にオンザフライで構成される。
入力として2D+深さフォーマットされた3Dビデオ・コンテンツ227を取る立体視ディスプレイの場合、深さマップ中の情報および2Dビデオデータ221は、2D+zファイル・フォーマットにフォーマットされて、3Dディスプレイ・デバイス228に入力される。3Dディスプレイ・デバイス228のためのディスプレイ入力ファイル・フォーマットが複数のストリームファイル・フォーマットであり、ビデオの複数のストリームまたはビューが単一のコンテナ中にカプセル化される場合、2D−3D処理モジュール224は、2Dビデオフレームと関連する深さマップとに基づいて2Dビデオデータ221に対応する1つまたは複数の追加の2次ビューポイントを生成し得る。次いで、ディスプレイ・フォーマット・モジュール226は、必要とされる閲覧角と、ビューの数と、ディスプレイのためにまたはユーザによって(たとえば、メタデータとして)定義された他のパラメータとに応じて、元の2Dビデオデータまたは2Dビデオデータ221を2次ビューでインターリーブする。
図10Bは、その両方が本開示で説明する技法の様々な態様を実装する、外部WDホストユニット218と内部WDクライアントユニット230とを含むシステム216Bを示すブロック図である。ディスプレイ・プラットフォーム223’が図10Aの場合のように外部WDクライアントデバイスとのインターフェースではなく内部WDクライアントユニット230を含むことを除いて、システム216Bはシステム216Aと実質的に同様であり、図10Aでは、ディスプレイ・プラットフォーム223が外部WDクライアントユニット222とインターフェースしている。このために、ディスプレイ・プラットフォーム223’は、参照符号「223」の次にプライム記号を用いて示される。ワイヤード・インターフェースを介してディスプレイ・プラットフォーム223とインターフェースすることを除いて、内部WDクライアントユニット230は、外部WDクライアントユニット222と実質的に同様の方法で動作し得る。代わりに、内部WDクライアントデバイス230はディスプレイ・プラットフォーム223’内に組み込まれており、それによってディスプレイ・プラットフォーム223’と外部でインターフェースすることを回避する。
図10Cは、その両方が本開示で説明する技法の様々な態様を実装する、外部WDホストユニット218と外部WDクライアントユニット222とを含む別のシステム216Cを示すブロック図である。システム216Cのディスプレイ・プラットフォーム223’’が深さ−マルチビュー(Z−MV)処理モジュール234を含むことを除いて、システム216Cはシステム216Aと同様である。この差異を示すために、ディスプレイ・プラットフォーム223’’は、参照符号「223」の後に2つのプライム記号を用いて示される。システム216Aとシステム216Cとの間の別の差異は、モバイル・デバイス217が2D+zファイル・フォーマットに従ってフォーマットされた3Dビデオデータ232を出力することである。
モバイル・デバイス217は、上記で説明したソースのいずれかから2Dビデオデータを受信し、非リアルタイムまたはリアルタイムまたはほぼリアルタイムのいずれかで2D−3D処理を実行し得る。代替的に、モバイル・デバイス217は、3Dビデオ・コンテンツを受信し、(MPEG−Cパート3において規定されているように)3Dビデオ・コンテンツを2D+zフォーマットに変換し得る。深さマップ(または「z」)情報のためにフレームごとに追加のパケットを搬送するように変更されたMP4などの既存のファイル・フォーマットを使用して、モバイル・デバイス217はこの3Dビデオデータ232をカプセル化し得る。深さパケットのためのカプセル化ヘッダは、ファイル・フォーマット仕様において情報要素としてユーザデータについて規定されたヘッダであり得る。この情報要素を使用することは、2Dビデオ・ディスプレイとの後方互換性を可能にし得る。このMP4ワイヤレス・ディスプレイプロトコルにおける深さパケットは、タイミング/同期情報を介して、または代替的に、同様に関連付けのために使用され得る、シーケンス番号などのビデオパケットのためのフレーム固有の識別情報を介して、対応するビデオパケットに関連し得る。
システム216Cでは、外部WDホストユニット218は、3Dビデオデータ232を受信し、ワイヤレス・ディスプレイプロトコルに従ってこのデータ232をフォーマットし、図7に示すそれと同様のフォーマットされた3Dビデオデータ232を生じる。WDホストユニット218は、MP4ファイルのためのパーサにおいて3Dビデオデータ232を傍受し、ビデオ、オーディオ、および深さパケットを検索し得る。次いで、WDホストユニット218は、RTPヘッダでこれらのパケットを再カプセル化してRTPストリームを形成し、WDホストユニット218は、そのRTPストリームをリアルタイムストリーミングプロトコル(RTSP)を介して、外部WDクライアントデバイス222にストリーミングする。これらのストリームは、図7の例に関して上記で説明したフォーマッティングに従ってフォーマットされ得る。実際には、WDホストユニット218は、2D+z3Dビデオデータ232を搬送するために、トランスポート・プロトコル(たとえば、RTP)を変更する。
外部WDクライアントユニット222は、ワイヤレス・リンク220を介してこれらのストリームを受信し、2D+z符号化に従って符号化された3Dビデオデータ232をリフォームするために、ストリームをカプセル化解除し、この3Dビデオデータ232をZ−MV処理モジュール234に転送する。Z−MV処理モジュール234は、3Dビデオデータ232からマルチビューをレンダリングすることによって、3Dビデオデータ232を2D+z符号化フォーマットからマルチビュー・ストリーム符号化フォーマットにコンバートする。次いで、ディスプレイ・フォーマット・モジュール226は、上記で説明した方法でこれらのマルチビューをインターリーブして3Dビデオ・コンテンツ236を生成し、3Dディスプレイ・デバイス228は、3Dビデオ・コンテンツ236を受信し、1人または複数の閲覧者による消費のために提示する。
図10Dは、その両方が本開示で説明する技法の様々な態様を実装する、外部WDホストユニット218と内部WDクライアントユニット230とを含む別のシステム216Dを示すブロック図である。図10Dに示すように、両方のシステム216B、21Dがモバイル・デバイス217と、外部WDホストユニット218と、内部WDクライアントユニット230と、1つまたは複数の3Dディスプレイ・デバイス228とを含むという点で、システム216Dはシステム216Bと同様である。しかしながら、システム216Bでは、ディスプレイ・プラットフォーム223’が内部WDクライアントユニット230を含んでいたが、システム216Dは、内部WDクライアントユニット230を含むモバイル・マルチメディア・デバイス237を含む。このために、ディスプレイ・プラットフォーム223は、この差異を識別するために、参照符号「223」の後に3つのプライム記号を用いて示される。
モバイル・マルチメディア・デバイス237は、内部WDクライアントユニット230とZ−グラフィックス処理ユニット(GPU)処理モジュール238(「Z−GPU処理モジュール238」)とを含むモバイルマルチメディアプロセッサ(図10Dに図示せず)を含み得る。マルチメディアプロセッサはGPUを含み得る。この意味で、WDクライアントユニット230およびZ−GPU処理モジュール238は、GPUを用いてマルチメディアプロセッサ上でホスティングされると見なされ得る。Z−GPU処理モジュール238は、2D+zフォーマットに従って符号化された3Dビデオデータ232をマルチビュー符号化フォーマットにコンバートするように、深さ−マルチビュー・コンバージョン・プロセスを実行する。内部WDクライアントユニット230および外部WDホストユニット218は、図10Bのシステム216B中のこれらの同じユニットに関して説明したのと同様の方法で互いと通信し得るが、図10Cのシステム216Cに関して説明したように、その通信は3Dビデオデータ232に関与する。
いずれの場合も、内部WDクライアントユニット230は、ワイヤレス・ディスプレイプロトコルに従ってフォーマットされたカプセル化された3Dビデオデータ232を受信し、このカプセル化された3Dビデオデータ232をカプセル化解除して、3Dビデオデータ232をリフォームする。内部WDクライアントユニット230は、このデータ232をZ−GPU処理モジュール238に転送し、Z−GPU処理モジュール238は、マルチビュー符号化フォーマットに従ってフォーマットされた3Dビデオデータ242を生成するためにコンバージョン・プロセスを実行する汎用計算エンジンとして、GPUを利用する。汎用計算エンジンとしてのGPUの使用は、OpenCLを使用することに関与し、OpenCLは、CPUとGPUとからなる異種プラットフォームにわたって実行する書込みプログラムのためのフレームワークを備える。OpenCLは、OpenCLデバイス上で実行する書込み機能と、プラットフォームを定義し、次いで制御するために使用されるアプリケーションプログラマーインターフェース(API)とのための言語を含む。
Z−GPU処理モジュール238は、GPUを使用してリアルタイムまたはほぼリアルタイムの深さ−マルチビュー・コンバージョンを実行し得、それによって2D+zフォーマットおよびマルチストリームビデオフォーマットなどの異なるフォーマットの3Dコンテンツを受け付ける異種ディスプレイとインターフェースすることを可能にし得る。たとえば、Z−GPU処理モジュール238は、2D+zフォーマットに従ってフォーマットされた3Dビデオデータ240を生成し得、3Dディスプレイ228Aは、ディスプレイ・プラットフォーム223’’による処理を介入することなしに、その3Dビデオデータ240を直接受け付け得る。Z−GPU処理モジュール238はまた、マルチビュー・フォーマットに従ってフォーマットされた3Dビデオデータ241を生成し、このデータ241をディスプレイ・プラットフォーム223’’’に転送し得る。ディスプレイ・プラットフォーム223’’’のディスプレイ・フォーマット・モジュール226は、マルチビュー・フォーマットされた3Dビデオデータ241からストリームをインターリーブして3Dビデオデータ242を生成し得、3Dディスプレイ・デバイス228Bは、3Dビデオデータ242を受信し、提示し得る。
図10Eは、本開示で説明する技法の1つまたは複数の態様を実行する別のシステム216Eを示すブロック図である。モバイル・マルチメディア・デバイス237’が内部WDクライアントユニット230と2D−3D処理モジュール224とを含むことを除いて、システム216Eは、図10Dのシステム216Dと同様であり得る。この差異を示すために、モバイル・マルチメディア・デバイス237’は、参照符号「237」の後にプライム記号を含む。
いずれの場合も、モバイル・デバイス217は、2Dビデオ・コンテンツまたは3Dビデオ・コンテンツ244を外部WDホストユニット218に転送し得、外部WDホストユニット218は、上記で説明した方法でワイヤレス・ディスプレイプロトコルに従ってこのコンテンツ244をカプセル化し、ワイヤレス・リンク220を介してフォーマットされたコンテンツ244を内部WDクライアントユニット230に転送する。コンテンツが2Dビデオ・コンテンツ244である場合、内部WDクライアントユニット230は、リアルタイムまたはほぼリアルタイムの2D−3Dコンバージョン(たとえば、深さ抽出)を実行するために、このデータ244を2D−3D処理ユニット224に転送し得る。ディスプレイ228A、228Bの一方または両方によって必要とされた場合、2D−3D処理モジュール224は、上記で説明したように、マルチビュー・フォーマットされた3Dビデオデータを生成するために、3DビデオデータをZ−GPU処理モジュール238に転送し得る。内部WDクライアントユニット230が3Dビデオ・コンテンツ244を受信し、ディスプレイ228A、228Bの一方または両方がマルチビューファイル・フォーマットを必要とする場合、内部WDクライアントユニット230は、Z−GPU処理モジュール238に3Dビデオ・コンテンツ244を転送し得、Z−GPU処理モジュール238は、マルチビューファイル・フォーマットに従ってフォーマットされた3Dビデオデータ241を生成する。
次いで、モバイル・マルチメディア・デバイス237’は、上記で説明したようにコンテンツ240を3Dディスプレイ・デバイス228Aに転送し得る。代替的に、上記で説明したように、モバイル・マルチメディア・デバイス237’は、3Dビデオデータ241をディスプレイ・プラットフォーム223’’’に転送し得る。再び上記で説明したように、ディスプレイ・プラットフォーム223’’’は、ディスプレイ・フォーマット・モジュール226を使用して複数のビューをインターリーブし、得られた3Dビデオ・コンテンツ242を3Dディスプレイ・デバイス228Bに転送し得る。
システム216Eでは、モバイル・デバイス217は、外部WDホスト/クライアントユニット218と内部WDホスト/クライアントユニット230とによって実装されたワイヤレス・ディスプレイプロトコルを介して、2Dまたは3Dビデオ・コンテンツを駆動することを選択し得る。上記のように、WDホストユニット218およびWDクライアントユニット230は、クライアントが接続されたディスプレイ(1つまたは複数のスルーミラーリング)を表すパラメータを交換し得、これらのパラメータは、これらのディスプレイによってサポートされる3Dコンテンツ・フォーマットを含む。ワイヤレス・リンク220上の利用可能な帯域幅に応じて、モバイル・デバイス217ではなく、WDクライアントユニット230が2D−3Dコンバージョン・プロセスを実行し得る。また、モバイル・マルチメディア・デバイス237’内でコンバージョンを実行することは、より良いユーザエクスペリエンスと視覚的品質とを促進し得る。その上、3Dディスプレイのパラメータに応じて、深さ−マルチビュー・コンバージョン・プロセスが実行される。さらに、モバイル・マルチメディア・デバイス237’は、ワイヤレス・ディスプレイプロトコルからディスプレイ・フォーマットへのフォーマット変換を実行し得る。
システム216A〜216Eのすべてにおいて、様々な構成要素は、WDホストとクライアントユニットとを利用して、旧来のワイヤード・ディスプレイが、ワイヤレス・ディスプレイになるか、または少なくともワイヤレス接続を介してアクセス可能になることを可能にし得る。したがって、様々な内部および外部WDホストおよびクライアントユニットは、ワイヤード・ディスプレイをワイヤレス・ディスプレイ上にコンバートすることによって、クロスプラットフォーム3Dビデオ再生を促進し得る。その上、様々なWDホストおよびクライアントユニットは、特定の3Dコンテンツ・フォーマットを規定しないが、2D専用ディスプレイ・デバイスとの後方互換性を依然として可能にすると同時にワイヤレスに3Dビデオデータを効率的に送信するためのワイヤレス・ディスプレイトランスポート・プロトコルのみを与える。この点において、様々な内部および外部WDホストおよびクライアントユニットは、クロスプラットフォーム3Dビデオ再生をさらに促進し得る。
本明細書に説明される技法は、ハードウェア、ファームウェア、または任意のその組合せにおいて実施され得る。ハードウェアは、場合によっては、ソフトウェアをも実行し得る。モジュール、ユニットまたは構成要素として説明した特徴は、集積論理デバイスにおいて一緒に、または個別であるが相互運用可能な論理デバイスとして別々に実装され得る。場合によっては、様々な特徴は、集積回路チップまたはチップセットなどの集積回路デバイスとして実装され得る。ソフトウェアで実装された場合、これらの技法は、実行されると、上記で説明した方法の1つまたは複数をプロセッサに実行させる命令を備えるコンピュータ可読媒体によって少なくとも部分的に実現され得る。
コンピュータ可読媒体は、パッケージング材料を含むことがある、コンピュータ・プログラム製品の一部を形成し得る。コンピュータ可読媒体は、ランダム・アクセス・メモリ(RAM)、同期ダイナミックランダム・アクセス・メモリ(SDRAM)、読取り専用メモリ(ROM)、不揮発性ランダム・アクセス・メモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリ、磁気または光学データ記憶媒体などのコンピュータデータ記憶媒体を備え得る。本技法は、追加または代替として、少なくとも部分的に、命令またはデータ構造の形態でコードを搬送または通信し、コンピュータによってアクセス、読取り、および/または実行され得るコンピュータ可読通信媒体によって実現され得る。
コードまたは命令は、1つまたは複数のDSP、汎用マイクロプロセッサ、ASIC、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価な集積またはディスクリート論理回路など、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に好適な他の構造のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明する機能を、専用のソフトウェア・モジュールまたはハードウェア・モジュールの内部に与え得る。本開示はまた、本開示で説明した技法の1つまたは複数を実装する回路を含む様々な集積回路デバイスのいずれかを企図する。そのような回路は、単一の集積回路チップ、またはいわゆるチップセット中の複数の相互運用可能な集積回路チップで提供され得る。そのような集積回路デバイスは様々な適用例において使用され得、適用例のいくつかは携帯電話ハンドセットなどのワイヤレス通信デバイスでの使用を含み得る。
本開示の様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
本開示の様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 装置であって、
3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するマルチメディア処理モジュールと、
トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加するトランスポート・プロトコル・モジュールと、
前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信するワイヤレス・モジュールと、
を備える装置。
[2] 前記トランスポート・プロトコル・モジュールが、前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加する、[1]に記載の装置。
[3] 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、[1]に記載の装置。
[4] 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、[1]に記載の装置。
[5] 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、[1]に記載の装置。
[6] 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、[1]に記載の装置。
[7] 前記マルチメディア処理モジュールが変換モジュールを備え、
前記装置は、
前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断するパラメータ発見モジュールであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように前記変換モジュールを構成する、パラメータ発見モジュールをさらに備え、
前記ワイヤレス・モジュールが2Dビデオデータを受信し、
前記変換モジュールは、前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換する、[1]に記載の装置。
[8] 前記マルチメディア処理モジュールが変換モジュールを備え、
前記装置が、
前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記変換モジュールを構成するパラメータ発見モジュールをさらに備え、
前記変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
前記ワイヤレス・モジュールが前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送し、
前記装置は、
前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映するHVSモデルを使用して1つまたは複数のメトリックを判断し、再び前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記1つまたは複数のモジュールを再構成する、人間視覚系(HVS)フィードバック・モジュールをさらに備える、[1]に記載の装置。
[9] 前記ビデオデータ・セグメントを記憶するためのモジュールと、
前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断し、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備するワイヤレス・ディスプレイ・ホストモジュールと、
をさらに備える、[1]に記載の装置。
[10] 装置のマルチメディア処理モジュールによって、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、
前記装置のトランスポート・プロトコル・モジュールによって、トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加することと、
前記装置のワイヤレス・モジュールによって、前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信することと、
を備える方法。
[11]
前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加することをさらに備える、[10]に記載の方法。
[12] 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、[10]に記載の方法。
[13] 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、[10]に記載の方法。
[14] 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、[10]に記載の方法。
[15] 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、[10]に記載の方法。
[16] 前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断することであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断することと、
2Dビデオデータを受信することと、
前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換することと、
をさらに備える、[10]に記載の方法。
[17] 前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記マルチメディア処理モジュールの変換モジュールを構成することと、
前記構成された変換モジュールによって、前記3Dビデオデータを生成するためにビデオデータを変換することと、
をさらに備え、
前記パケットを送信することが、前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送することを備え、
前記方法は、
前記変換モジュールが前記ビデオデータを変換している間、前記装置の人間視覚系(HVS)フィードバック・モジュールによって、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映するHVSモデルを使用して1つまたは複数のメトリックを判断することと、
前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成することと、
をさらに備える、[10]に記載の方法。
[18] 前記ビデオデータ・セグメントを記憶することと、
ワイヤレス・ディスプレイホストによって、前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断することと、
前記ワイヤレス・ディスプレイホストによって、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備することと、
をさらに備える、[10]に記載の方法。
[19] 装置であって、
3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するための手段と、
トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加するための手段と、
前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信するための手段と、
を備える装置。
[20] 前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加するための手段をさらに備える、[19]に記載の装置。
[21] 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、[19]に記載の装置。
[22] 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、[19]に記載の装置。
[23] 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、[19]に記載の装置。
[24] 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、[19]に記載の装置。
[25] 前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断するための手段であって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断するための手段と、
2Dビデオデータを受信するための手段と、
前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換するための手段と
をさらに備える、[19]に記載の装置。
[26] 前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記装置の変換モジュールを構成するための手段をさらに備え、
前記構成された変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
前記パケットを送信するための前記手段が、前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送するための手段を備え、
前記装置は、
前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映する人間視覚系(HVS)モデルを使用して1つまたは複数のメトリックを判断するための手段と、
前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成するための手段と、
をさらに備える、[19]に記載の装置。
[27] 前記ビデオデータ・セグメントを記憶するための手段と、
前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断するための手段と、
前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備するための手段と、
をさらに備える、[19]に記載の装置。
[28] 3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、
トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加することと、
前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信することと、
をプロセッサに行わせる命令を備えるコンピュータ可読記憶媒体。
[29] 前記命令が、前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加することをプロセッサにさらに行わせる、[28]に記載のコンピュータ可読記憶媒体。
[30] 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える
[28]に記載のコンピュータ可読記憶媒体。
[31] 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、[28]に記載のコンピュータ可読記憶媒体。
[32] 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、[28]に記載のコンピュータ可読記憶媒体。
[33] 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、[28]に記載のコンピュータ可読記憶媒体。
[34] 前記命令は、
前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断することであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断することと、
2Dビデオデータを受信することと、
前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換することと、
を前記プロセッサにさらに行わせる、[28]に記載のコンピュータ可読記憶媒体。
[35] 前記命令が、
前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記マルチメディア処理モジュールの変換モジュールを構成すること
を前記プロセッサにさらに行わせ、
前記構成された変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
前記命令は、
前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送することと、
前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映する人間視覚系(HVS)モデルを使用して1つまたは複数のメトリックを判断することと、
前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成することと、
を前記プロセッサにさらに行わせる、[28]に記載のコンピュータ可読記憶媒体。
[36] 前記命令が、
前記ビデオデータ・セグメントを記憶することと、
ワイヤレス・ディスプレイホストによって、前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断することと、
前記ワイヤレス・ディスプレイホストによって、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備することと、
を前記プロセッサにさらに行わせる、[28]に記載のコンピュータ可読記憶媒体。

Claims (36)

  1. 装置であって、
    3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するマルチメディア処理モジュールと、
    トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加するトランスポート・プロトコル・モジュールと、
    前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信するワイヤレス・モジュールと、
    を備える装置。
  2. 前記トランスポート・プロトコル・モジュールが、前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加する、請求項1に記載の装置。
  3. 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
    前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、請求項1に記載の装置。
  4. 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、請求項1に記載の装置。
  5. 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、請求項1に記載の装置。
  6. 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、請求項1に記載の装置。
  7. 前記マルチメディア処理モジュールが変換モジュールを備え、
    前記装置は、
    前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断するパラメータ発見モジュールであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように前記変換モジュールを構成する、パラメータ発見モジュールをさらに備え、
    前記ワイヤレス・モジュールが2Dビデオデータを受信し、
    前記変換モジュールは、前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換する、請求項1に記載の装置。
  8. 前記マルチメディア処理モジュールが変換モジュールを備え、
    前記装置が、
    前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記変換モジュールを構成するパラメータ発見モジュールをさらに備え、
    前記変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
    前記ワイヤレス・モジュールが前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送し、
    前記装置は、
    前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映するHVSモデルを使用して1つまたは複数のメトリックを判断し、再び前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記1つまたは複数のモジュールを再構成する、人間視覚系(HVS)フィードバック・モジュールをさらに備える、請求項1に記載の装置。
  9. 前記ビデオデータ・セグメントを記憶するためのモジュールと、
    前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断し、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備するワイヤレス・ディスプレイ・ホストモジュールと、
    をさらに備える、請求項1に記載の装置。
  10. 装置のマルチメディア処理モジュールによって、3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、
    前記装置のトランスポート・プロトコル・モジュールによって、トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加することと、
    前記装置のワイヤレス・モジュールによって、前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信することと、
    を備える方法。
  11. 前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加することをさらに備える、請求項10に記載の方法。
  12. 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
    前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、請求項10に記載の方法。
  13. 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、請求項10に記載の方法。
  14. 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、請求項10に記載の方法。
  15. 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、請求項10に記載の方法。
  16. 前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断することであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断することと、
    2Dビデオデータを受信することと、
    前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換することと、
    をさらに備える、請求項10に記載の方法。
  17. 前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記マルチメディア処理モジュールの変換モジュールを構成することと、
    前記構成された変換モジュールによって、前記3Dビデオデータを生成するためにビデオデータを変換することと、
    をさらに備え、
    前記パケットを送信することが、前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送することを備え、
    前記方法は、
    前記変換モジュールが前記ビデオデータを変換している間、前記装置の人間視覚系(HVS)フィードバック・モジュールによって、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映するHVSモデルを使用して1つまたは複数のメトリックを判断することと、
    前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成することと、
    をさらに備える、請求項10に記載の方法。
  18. 前記ビデオデータ・セグメントを記憶することと、
    ワイヤレス・ディスプレイホストによって、前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断することと、
    前記ワイヤレス・ディスプレイホストによって、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備することと、
    をさらに備える、請求項10に記載の方法。
  19. 装置であって、
    3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成するための手段と、
    トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加するための手段と、
    前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信するための手段と、
    を備える装置。
  20. 前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加するための手段をさらに備える、請求項19に記載の装置。
  21. 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
    前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える、請求項19に記載の装置。
  22. 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、請求項19に記載の装置。
  23. 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、請求項19に記載の装置。
  24. 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、請求項19に記載の装置。
  25. 前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断するための手段であって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断するための手段と、
    2Dビデオデータを受信するための手段と、
    前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換するための手段と
    をさらに備える、請求項19に記載の装置。
  26. 前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記装置の変換モジュールを構成するための手段をさらに備え、
    前記構成された変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
    前記パケットを送信するための前記手段が、前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送するための手段を備え、
    前記装置は、
    前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映する人間視覚系(HVS)モデルを使用して1つまたは複数のメトリックを判断するための手段と、
    前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成するための手段と、
    をさらに備える、請求項19に記載の装置。
  27. 前記ビデオデータ・セグメントを記憶するための手段と、
    前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断するための手段と、
    前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備するための手段と、
    をさらに備える、請求項19に記載の装置。
  28. 3Dビデオ・コンテンツのビデオデータ・セグメントとオーディオデータ・セグメントと深さデータ・セグメントとを生成することと、
    トランスポート・プロトコルに従って前記ビデオデータ・セグメントと前記オーディオデータ・セグメントと前記深さデータ・セグメントとの各々を複数のパケットのうちの異なる1つの中にカプセル化し、前記3Dビデオ・コンテンツの再生を向上させるためのメタデータを前記複数のパケットのうちの少なくとも1つに追加することと、
    前記パケットを前記装置の外部の3Dディスプレイ・デバイスに送信することと、
    をプロセッサに行わせる命令を備えるコンピュータ可読記憶媒体。
  29. 前記命令が、前記複数のパケットのうちの前記少なくとも1つのヘッダ中の随意のデータフィールド内に前記メタデータを追加することをプロセッサにさらに行わせる、請求項28に記載のコンピュータ可読記憶媒体。
  30. 前記トランスポート・プロトコルがアプリケーション・レイヤトランスポート・プロトコルを備え、
    前記アプリケーション・レイヤトランスポート・プロトコルがリアルタイム・トランスポート・プロトコル(RTP)を備える
    請求項28に記載のコンピュータ可読記憶媒体。
  31. 前記メタデータが、深さ範囲と、深さ解像度と、カメラ・モデル・パラメータと、最適閲覧パラメータと、圧縮タイプとのうちの1つまたは複数を定義する深さメタデータを備える、請求項28に記載のコンピュータ可読記憶媒体。
  32. 前記メタデータが、オクルージョン解像度と圧縮タイプとのうちの1つまたは複数を定義するオクルージョンメタデータを備える、請求項28に記載のコンピュータ可読記憶媒体。
  33. 前記メタデータが、複数のグローバル効果パラメータのうちの1つまたは複数を定義するグローバル効果メタデータを備え、グローバル効果パラメータが、密度、ロケーションおよび繰返しレートを含む、雨と、もやと、雪と、煙とのうちの1つまたは複数に関係するビデオ効果を記述する、請求項28に記載のコンピュータ可読記憶媒体。
  34. 前記命令は、
    前記3Dディスプレイ・デバイスによってサポートされる能力を定義する1つまたは複数のパラメータを判断することであって、前記1つまたは複数のパラメータが、前記3Dディスプレイ・デバイスによってサポートされる入力フォーマットを含み、前記判断された入力フォーマットに従って3Dビデオデータを生成するように2次元(2D)ビデオデータを前記3Dビデオデータに変換するように変換モジュールを構成する、判断することと、
    2Dビデオデータを受信することと、
    前記3Dビデオデータが前記判断された入力フォーマットに準拠するように、前記2Dビデオデータを前記3Dビデオデータに変換することと、
    を前記プロセッサにさらに行わせる、請求項28に記載のコンピュータ可読記憶媒体。
  35. 前記命令が、
    前記3次元(3D)ディスプレイ・デバイスによってサポートされる能力を定義するパラメータに従って3Dビデオデータを生成するように前記マルチメディア処理モジュールの変換モジュールを構成すること
    を前記プロセッサにさらに行わせ、
    前記構成された変換モジュールが、前記3Dビデオデータを生成するためにビデオデータを変換し、
    前記命令は、
    前記3Dビデオデータを前記3Dディスプレイ・デバイスに転送することと、
    前記変換モジュールが前記ビデオデータを変換している間、人間視覚系に対する前記生成された3Dビデオデータの3D可視化の品質を反映する人間視覚系(HVS)モデルを使用して1つまたは複数のメトリックを判断することと、
    前記変換モジュールが前記ビデオデータを変換している間、前記3Dビデオデータの前記生成を改良するために前記判断された1つまたは複数のメトリックに基づいて前記変換モジュールを再構成することと、
    を前記プロセッサにさらに行わせる、請求項28に記載のコンピュータ可読記憶媒体。
  36. 前記命令が、
    前記ビデオデータ・セグメントを記憶することと、
    ワイヤレス・ディスプレイホストによって、前記装置の外部の前記ディスプレイ・デバイスの1つまたは複数のディスプレイ・パラメータを判断することと、
    前記ワイヤレス・ディスプレイホストによって、前記判断されたディスプレイ・パラメータに基づいて3Dビデオデータを生成するように前記ビデオデータ・セグメントを準備することと、
    を前記プロセッサにさらに行わせる、請求項28に記載のコンピュータ可読記憶媒体。
JP2012523742A 2009-08-06 2010-08-04 トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること Expired - Fee Related JP5596146B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US23192109P 2009-08-06 2009-08-06
US61/231,921 2009-08-06
US12/779,757 US8878912B2 (en) 2009-08-06 2010-05-13 Encapsulating three-dimensional video data in accordance with transport protocols
US12/779,757 2010-05-13
PCT/US2010/044471 WO2011017472A1 (en) 2009-08-06 2010-08-04 Encapsulating three-dimensional video data in accordance with transport protocols

Publications (2)

Publication Number Publication Date
JP2013501474A true JP2013501474A (ja) 2013-01-10
JP5596146B2 JP5596146B2 (ja) 2014-09-24

Family

ID=43534527

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012523742A Expired - Fee Related JP5596146B2 (ja) 2009-08-06 2010-08-04 トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること
JP2012523741A Expired - Fee Related JP5571188B2 (ja) 2009-08-06 2010-08-04 ワイヤレス・ディスプレイ・プロトコルに従ってビデオデータを準備すること

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012523741A Expired - Fee Related JP5571188B2 (ja) 2009-08-06 2010-08-04 ワイヤレス・ディスプレイ・プロトコルに従ってビデオデータを準備すること

Country Status (7)

Country Link
US (2) US8878912B2 (ja)
EP (2) EP2462741A1 (ja)
JP (2) JP5596146B2 (ja)
KR (2) KR101311622B1 (ja)
CN (2) CN102474661B (ja)
BR (2) BR112012002558A2 (ja)
WO (2) WO2011017470A1 (ja)

Families Citing this family (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
KR101512988B1 (ko) * 2007-12-26 2015-04-17 코닌클리케 필립스 엔.브이. 그래픽 오브젝트를 중첩하기 위한 이미지 프로세서
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9154942B2 (en) * 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
US20110085023A1 (en) * 2009-10-13 2011-04-14 Samir Hulyalkar Method And System For Communicating 3D Video Via A Wireless Communication Link
KR101234495B1 (ko) * 2009-10-19 2013-02-18 한국전자통신연구원 화상회의 시스템을 위한 단말, 중계 노드 및 스트림 처리 방법
US9445072B2 (en) 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
US10095953B2 (en) 2009-11-11 2018-10-09 Disney Enterprises, Inc. Depth modification for display applications
US8773430B2 (en) * 2009-12-09 2014-07-08 Thomson Licensing Method for distinguishing a 3D image from a 2D image and for identifying the presence of a 3D image format by feature correspondence determination
JP2011142585A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
CN102812420B (zh) * 2010-03-18 2016-01-20 富士胶片株式会社 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
CN102860019B (zh) * 2010-04-28 2015-07-29 富士胶片株式会社 立体图像再生装置及方法、立体摄像装置、立体显示器装置
US9686673B2 (en) * 2010-05-18 2017-06-20 Electric Mirror, Llc Apparatuses and methods for streaming audio and video
US10462651B1 (en) * 2010-05-18 2019-10-29 Electric Mirror, Llc Apparatuses and methods for streaming audio and video
KR20110139497A (ko) * 2010-06-23 2011-12-29 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
US20120005610A1 (en) * 2010-06-30 2012-01-05 Dirk Michael Schulze Methods, apparatus, systems and computer readable mediums for use in transfering information to and/or from user devices
KR101329506B1 (ko) * 2010-08-12 2013-11-13 엘지디스플레이 주식회사 영상표시장치
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
JP5306544B2 (ja) * 2010-11-05 2013-10-02 富士フイルム株式会社 画像処理装置、画像処理プログラム、画像処理方法、及び記憶媒体
US9224240B2 (en) * 2010-11-23 2015-12-29 Siemens Medical Solutions Usa, Inc. Depth-based information layering in medical diagnostic ultrasound
US9386294B2 (en) * 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
KR101763944B1 (ko) * 2011-02-18 2017-08-01 엘지디스플레이 주식회사 영상표시장치
US20120212575A1 (en) * 2011-02-23 2012-08-23 Broadcom Corporation Gateway/stb interacting with cloud server that performs high end video processing
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
EP2709056B1 (en) 2011-05-11 2021-02-24 I-cubed Research Center Inc. Image processing device, image processing method, and recording medium that has recorded program
EP2525581A3 (en) * 2011-05-17 2013-10-23 Samsung Electronics Co., Ltd. Apparatus and Method for Converting 2D Content into 3D Content, and Computer-Readable Storage Medium Thereof
US9420259B2 (en) 2011-05-24 2016-08-16 Comcast Cable Communications, Llc Dynamic distribution of three-dimensional content
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
KR20130005153A (ko) * 2011-07-05 2013-01-15 삼성전자주식회사 3d 영상변환장치, 그 구현방법 및 그 저장매체
JP5328852B2 (ja) * 2011-07-25 2013-10-30 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
JP6101267B2 (ja) 2011-08-18 2017-03-22 アザーヴァース デジタル インコーポレーテッドUtherverse Digital, Inc. 仮想世界の相互作用のシステムおよび方法
KR101680186B1 (ko) * 2011-08-30 2016-11-28 삼성전자주식회사 영상 촬영 장치 및 그 제어 방법
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
US20130201305A1 (en) * 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
KR101918040B1 (ko) * 2012-02-20 2019-01-29 삼성전자주식회사 스크린 미러링 방법 및 그 장치
CN102629188A (zh) * 2012-03-19 2012-08-08 绍兴县鉴湖中学 一种无线hdmi显示器
US9571864B2 (en) * 2012-03-30 2017-02-14 Intel Corporation Techniques for media quality control
EP2846631A4 (en) 2012-05-10 2017-02-15 President and Fellows of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
US8738826B2 (en) * 2012-06-08 2014-05-27 Apple Inc. System and method for display mirroring
US9723287B2 (en) * 2012-07-09 2017-08-01 Lg Electronics Inc. Enhanced 3D audio/video processing apparatus and method
US20140115484A1 (en) * 2012-10-19 2014-04-24 Electronics And Telecommunications Research Institute Apparatus and method for providing n-screen service using depth-based visual object groupings
CN102970556B (zh) * 2012-12-03 2014-12-03 深圳市维尚视界立体显示技术有限公司 3dv 视频封装、播放方法及其系统
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9071866B2 (en) * 2012-12-04 2015-06-30 Untethered, Llc Wireless video/audio signal transmitter/receiver
CN102984483B (zh) * 2012-12-18 2016-08-03 上海晨思电子科技有限公司 一种三维用户界面显示系统及方法
US9652192B2 (en) * 2013-01-25 2017-05-16 Qualcomm Incorporated Connectionless transport for user input control for wireless display devices
KR102029055B1 (ko) * 2013-02-08 2019-10-07 삼성전자주식회사 고차원 데이터의 시각화 방법 및 장치
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9483111B2 (en) 2013-03-14 2016-11-01 Intel Corporation Techniques to improve viewing comfort for three-dimensional content
US9571812B2 (en) 2013-04-12 2017-02-14 Disney Enterprises, Inc. Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding
WO2014175919A1 (en) 2013-04-26 2014-10-30 Intel IP Corporation Shared spectrum reassignment in a spectrum sharing context
US20140355683A1 (en) * 2013-05-31 2014-12-04 Altera Corporation Data Encoding for Attenuating Image Encoders
US9264661B2 (en) 2013-06-07 2016-02-16 Apple Inc. Adaptive post-processing for mobile video calling system
EP2816761A1 (en) * 2013-06-17 2014-12-24 Thomson Licensing Wifi display compatible network gateway
TW201503668A (zh) * 2013-07-04 2015-01-16 Novatek Microelectronics Corp 影像顯示系統與其方法
CN104281425A (zh) * 2013-07-08 2015-01-14 联咏科技股份有限公司 图像显示系统与其方法
WO2015019656A1 (ja) * 2013-08-06 2015-02-12 株式会社ソニー・コンピュータエンタテインメント 3次元画像生成装置、3次元画像生成方法、プログラム及び情報記憶媒体
CN104427323B (zh) 2013-08-23 2016-08-10 鸿富锦精密工业(深圳)有限公司 基于深度的三维图像处理方法
US10212022B2 (en) * 2013-09-13 2019-02-19 Microsoft Technology Licensing, Llc Enhanced network virtualization using metadata in encapsulation header
US10373282B2 (en) 2013-11-18 2019-08-06 Samsung Electronics Co., Ltd. Method and system for controlling display parameters through multiple pipelines
US9423853B2 (en) * 2013-12-10 2016-08-23 Qualcomm Incorporated System and method for balanced user experience in a multimedia conferencing community
US9818174B2 (en) * 2014-09-24 2017-11-14 Microsoft Technology Licensing, Llc Streamlined handling of monitor topology changes
US10334223B2 (en) 2015-01-30 2019-06-25 Qualcomm Incorporated System and method for multi-view video in wireless devices
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10341632B2 (en) * 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
CN105304067B (zh) * 2015-09-24 2017-11-28 武汉精测电子技术股份有限公司 一种发送mipi模组单幅画面控制代码的方法
WO2017066209A1 (en) 2015-10-14 2017-04-20 President And Fellows Of Harvard College Automatically classifying animal behavior
WO2017161167A1 (en) * 2016-03-18 2017-09-21 President And Fellows Of Harvard College Automatically classifying animal behavior
US10475186B2 (en) * 2016-06-23 2019-11-12 Intel Corportation Segmentation of objects in videos using color and depth information
US10503901B2 (en) 2016-09-01 2019-12-10 Cylance Inc. Training a machine learning model for container file analysis
US10637874B2 (en) 2016-09-01 2020-04-28 Cylance Inc. Container file analysis using machine learning model
US10489589B2 (en) * 2016-11-21 2019-11-26 Cylance Inc. Anomaly based malware detection
US10440086B2 (en) * 2016-11-28 2019-10-08 Microsoft Technology Licensing, Llc Reading multiplexed device streams
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
WO2018225449A1 (ja) * 2017-06-09 2018-12-13 ソニーセミコンダクタソリューションズ株式会社 映像送信装置および映像受信装置
US10432944B2 (en) 2017-08-23 2019-10-01 Avalon Holographics Inc. Layered scene decomposition CODEC system and methods
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
CN109640069A (zh) * 2018-12-29 2019-04-16 未来科技(襄阳)有限公司 裸眼3d图像的显示方法及系统
US11736748B2 (en) * 2020-12-16 2023-08-22 Tencent America LLC Reference of neural network model for adaptation of 2D video for streaming to heterogeneous client end-points
US11985381B2 (en) 2022-01-10 2024-05-14 Tencent America LLC Mapping architecture of immersive technologies media format (ITMF) specification with rendering engines
US11917269B2 (en) * 2022-01-11 2024-02-27 Tencent America LLC Multidimensional metadata for parallel processing of segmented media data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP2005533433A (ja) * 2002-07-16 2005-11-04 韓國電子通信研究院 2次元および3次元立体ビデオ信号の適応変換装置およびその方法
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2006238121A (ja) * 2005-02-25 2006-09-07 Canon Inc 情報処理装置
JP2007529960A (ja) * 2004-03-18 2007-10-25 ソニー エレクトロニクス インク 個人用電子機器の3次元情報取得及び表示システム
JP2009100071A (ja) * 2007-10-15 2009-05-07 Victor Co Of Japan Ltd 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998029860A1 (en) 1996-12-27 1998-07-09 Chequemate International Inc. System and method for synthesizing three-dimensional video from a two-dimensional video source
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
US6600788B1 (en) * 1999-09-10 2003-07-29 Xilinx, Inc. Narrow-band filter including sigma-delta modulator implemented in a programmable logic device
JP2001211465A (ja) 1999-11-15 2001-08-03 Hit Design:Kk 3次元画像表示方法およびそれを用いた3次元画像表示装置
JP2001236525A (ja) * 2000-02-23 2001-08-31 Sony Corp 情報処理装置および方法、情報処理システム、並びに記録媒体
US6590513B2 (en) * 2001-06-29 2003-07-08 Texas Instruments Incorporated Data acquisition system using predictive conversion
JP2003101690A (ja) 2001-09-21 2003-04-04 Yamaguchi Technology Licensing Organization Ltd 画像処理方法及びデジタルカメラ並びに記録媒体
JP4093833B2 (ja) * 2002-09-25 2008-06-04 シャープ株式会社 電子機器
EP1567989A4 (en) * 2002-12-03 2010-01-20 Korea Electronics Telecomm DEVICE AND METHOD FOR ADAPTING GRAPHIC CONTENT AND SYSTEM DAF R
JP2004236264A (ja) 2003-02-03 2004-08-19 Tatsuo Shima 画像情報提供装置
GB2402006B (en) * 2003-05-23 2005-08-10 Motorola Inc Analog to digital converter
KR20060041267A (ko) * 2003-07-24 2006-05-11 코닌클리케 필립스 일렉트로닉스 엔.브이. 하이파이 오디오를 위한 개선된 무손실 압축 및 양호한오디오 품질을 가진 노이즈-정형 장치 및 방법
KR100580632B1 (ko) * 2003-12-05 2006-05-16 삼성전자주식회사 2차원과 3차원 영상을 선택적으로 표시할 수 있는디스플레이
US8161388B2 (en) * 2004-01-21 2012-04-17 Rodriguez Arturo A Interactive discovery of display device characteristics
US20050212984A1 (en) * 2004-03-26 2005-09-29 Yi-Chun Wu Dual-mode display system for 2D and 3D viewing
DE102005041249A1 (de) 2005-08-29 2007-03-01 X3D Technologies Gmbh Verfahren zur Erzeugung räumlich darstellbarer Bilder
WO2006042706A1 (de) * 2004-10-15 2006-04-27 X3D Technologies Gmbh Verfahren zur erzeugung räumlich darstellbarer bilder und anordnung zur räumlich wahrnehmbaren darstellung solcher bilder
JP2006135747A (ja) 2004-11-08 2006-05-25 Canon Inc 三次元画像変換装置ならびに制御方法
JP2006140553A (ja) 2004-11-10 2006-06-01 Canon Inc 立体画像生成プログラム、立体画像生成装置および立体画像生成方法
US7756866B2 (en) * 2005-08-17 2010-07-13 Oracle International Corporation Method and apparatus for organizing digital images with embedded metadata
KR101468746B1 (ko) 2005-09-16 2014-12-04 스테레오그래픽스 코포레이션 스테레오스코픽 포맷 변환기
ATE542194T1 (de) * 2005-12-02 2012-02-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur stereobildanzeige, verfahren zum erzeugen von 3d-bilddaten aus einer 2d-bilddateneingabe und vorrichtung zum erzeugen von 3d-bilddaten aus einer 2d-bilddateneingabe
US7518503B2 (en) * 2005-12-14 2009-04-14 Sony Ericsson Mobile Communications Ab Portable A/V relay device
EP1826981B1 (en) 2006-02-22 2016-07-06 Alcatel Lucent Interactive multimedia broadcasting system with dedicated advertisement channel
KR101137347B1 (ko) * 2006-05-11 2012-04-19 엘지전자 주식회사 이동통신 단말기 및 그 단말기를 이용한 이미지 표출 방법
CN100558167C (zh) 2006-10-16 2009-11-04 华为技术有限公司 多媒体视频通信方法及系统
JP2008278032A (ja) 2007-04-26 2008-11-13 New Japan Radio Co Ltd アナログ・ディジタル変換回路及びディジタル・アナログ変換回路
US20090006471A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Exposing Specific Metadata in Digital Images
KR101167246B1 (ko) * 2007-07-23 2012-07-23 삼성전자주식회사 3차원 콘텐츠 재생 장치 및 그 제어 방법
US8667144B2 (en) * 2007-07-25 2014-03-04 Qualcomm Incorporated Wireless architecture for traditional wire based protocol
CN101197770A (zh) 2007-10-09 2008-06-11 深圳市丕微科技企业有限公司 一种借助于网络实现多媒体数据传输的方法
EP2063648A1 (en) * 2007-11-24 2009-05-27 Barco NV Sensory unit for a 3-dimensional display
EP2063647A1 (en) * 2007-11-24 2009-05-27 Barco NV Calibration of a 3-dimensional display
JP4991515B2 (ja) 2007-12-25 2012-08-01 キヤノン株式会社 画像処理システム、画像処理システムの制御方法及びコンピュータプログラム
CN101911700A (zh) 2008-01-11 2010-12-08 汤姆逊许可证公司 视频和深度编码
US20090290645A1 (en) * 2008-05-21 2009-11-26 Broadcast International, Inc. System and Method for Using Coded Data From a Video Source to Compress a Media Signal
US20110293240A1 (en) 2009-01-20 2011-12-01 Koninklijke Philips Electronics N.V. Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005533433A (ja) * 2002-07-16 2005-11-04 韓國電子通信研究院 2次元および3次元立体ビデオ信号の適応変換装置およびその方法
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP2007529960A (ja) * 2004-03-18 2007-10-25 ソニー エレクトロニクス インク 個人用電子機器の3次元情報取得及び表示システム
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2006238121A (ja) * 2005-02-25 2006-09-07 Canon Inc 情報処理装置
JP2009100071A (ja) * 2007-10-15 2009-05-07 Victor Co Of Japan Ltd 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム

Also Published As

Publication number Publication date
KR101311622B1 (ko) 2013-09-26
KR20120054617A (ko) 2012-05-30
KR20120054045A (ko) 2012-05-29
BR112012002261A2 (pt) 2016-06-14
WO2011017470A1 (en) 2011-02-10
US8878912B2 (en) 2014-11-04
BR112012002558A2 (pt) 2016-05-24
JP2013501473A (ja) 2013-01-10
KR101331334B1 (ko) 2013-11-20
JP5571188B2 (ja) 2014-08-13
EP2462741A1 (en) 2012-06-13
WO2011017472A1 (en) 2011-02-10
CN102474661A (zh) 2012-05-23
CN102474662A (zh) 2012-05-23
CN102474661B (zh) 2015-11-25
US20110032334A1 (en) 2011-02-10
EP2462739B1 (en) 2015-09-23
CN102474662B (zh) 2015-07-08
JP5596146B2 (ja) 2014-09-24
EP2462739A1 (en) 2012-06-13
US9131279B2 (en) 2015-09-08
US20110032338A1 (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5596146B2 (ja) トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること
JP5475132B2 (ja) 3次元入力フォーマットに従ってビデオデータを変換すること
JP5567132B2 (ja) 人間視覚系フィードバックメトリックに従ってビデオデータを変換すること
US10389994B2 (en) Decoder-centric UV codec for free-viewpoint video streaming
KR101863767B1 (ko) 의사-3d 인위적 원근법 및 장치
TWI526044B (zh) 處理信號之方法及其系統
TWI817273B (zh) 即時多視像視訊轉換方法和系統
US20230379554A1 (en) Multi-view video streaming

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131127

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140806

R150 Certificate of patent or registration of utility model

Ref document number: 5596146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees