JP4362105B2 - 2次元および3次元立体ビデオ信号の適応変換装置およびその方法 - Google Patents

2次元および3次元立体ビデオ信号の適応変換装置およびその方法 Download PDF

Info

Publication number
JP4362105B2
JP4362105B2 JP2004521277A JP2004521277A JP4362105B2 JP 4362105 B2 JP4362105 B2 JP 4362105B2 JP 2004521277 A JP2004521277 A JP 2004521277A JP 2004521277 A JP2004521277 A JP 2004521277A JP 4362105 B2 JP4362105 B2 JP 4362105B2
Authority
JP
Japan
Prior art keywords
video content
video
adaptive conversion
user terminal
binocular stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004521277A
Other languages
English (en)
Other versions
JP2005533433A (ja
Inventor
ジェホ ナム
マン べ キム
ジン ウ ホン
ジン ウン キム
ジェ ジュン キム
ヒョン ジュン キム
ナム イク ジョ
リン チョル キム
ヘ クァン キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2005533433A publication Critical patent/JP2005533433A/ja
Application granted granted Critical
Publication of JP4362105B2 publication Critical patent/JP4362105B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、2次元および3次元の立体ビデオ信号の適応変換装置およびその方法と、該方法を実現させるためのプログラムを記録したコンピュータで読み出すことのできる記録媒体、特に様々な使用環境、すなわち、ユーザ特性および端末特性に符合するように、2次元および3次元の立体ビデオ信号を適応変換させる装置およびその方法と、該方法を実現させるためのプログラムを記録したコンピュータで読み出すことのできる記録媒体に関する。
MPEGは、MPEG-21の新しい標準作業項目である、デジタル項目適応変換(DIGITAL ITEM ADAPTATION,DIA)を提示した。デジタル項目(DIGITAL ITEM,DI)は、標準化された表現、識別およびメタデータを有する構造化されたデジタルオブジェクト(STRUCTURED DIGITAL OBJECT WITH A STANDARD REPRESE-NTATION,INDENTIFICATION AND META-DATA)を意味し、DIAは、DIがリソース適応変換エンジン(RESOURCE AD-APTATION ENGINE)、または、記述子適応変換エンジン(DESC-RIPTOR ADAPTATION ENGINE)で処理され、適応変換されたDIを生成するプロセスを意味する。
ここで、リソースとは、ビデオまたはオーディオクリップ、画像またはテキスト項目のように個別に識別できる項目を意味し、物理的なオブジェクトを意味することもある。記述子は、DI内の項目またはコンポーネントに関連した情報を意味する。
また、ユーザは、DIの生産者、権利者、分配者および消費者などを全て含む。メディアリソースは、直接デジタル表現可能なコンテンツを意味する。本明細書におけるコンテンツという用語は、DI、メディアリソースおよびリソースと同じ意味で使用される。
従来は、2次元(2D)ビデオが一般的なメディアであったが、3次元(3D)ビデオも情報通信分野に導入された。立体(Stereoscopic)画像およびビデオは、インターネットサイト、DVDタイトルなどでよく見られる。このような現状況によって、MPEGは、立体ビデオ処理に関心を寄せるようになった。立体ビデオの圧縮形式は、MPEG-2(MPEG,“Final Te-xt of 12818-2/AMD 3(MPEG-2 Multiview pro-file)”,ISO/IEC JTC1/SC29/WG11)に標準化されている。MPEG-2 Multiview profile(MVP)は、MPEG-2標準に対する修正案であり、立体TVを主要適用分野として1996年に定義した。不均衡-補償予測(disparity-compensated Predic-tion)を、暗示的に定義することによって、MVPは公知のハイブリッドコーディングをインタ-ビューチャネルリダンダンシ(Inter-viewchann-el Redundancies)の活用として拡張させた。マルチカメラシーケンスに対する時間スケーラビリティ(temporal scalability,TS)モード使用の定義およびMPEG-2シンタックスにおいて、獲得パラメータの定義が主要で新しい要素である。TSモードは、本来追加のビデオフレームから構成された強化階層ストリームと少ないフレームレートの基底階層ストリームとを結合し、エンコードするために開発されたものである。2つのストリームを全て使用できる場合、デコードされるビデオは最大フレームレートで再生され得る。TSモードにおいて、強化階層マクロブロックの時間的予測は、基底階層のフレームまたは最近再構成された強化階層のフレームに基づいて行われるであろう。
一般に、立体ビデオは、左側および右側カメラを対にする立体カメラを用いて生成される。立体ビデオは、格納されるか、またユーザに送信される。立体ビデオとは異なり、2次元ビデオの3次元立体ビデオへの変換(2D/3D立体ビデオ変換)は、ユーザにとって原2次元ビデオデータから3次元立体ビデオを見ることができるようにする。例えば、ユーザはTV、VCD、DVDなどにより3次元立体映画を楽しむことができる。立体カメラにより獲得された一般の立体画像とは異なり、立体変換の主な差異点は、1つの2次元画像から立体画像を生成するという点である。また、立体カメラにより獲得された3次元立体ビデオから2次元ビデオが抽出される(3D立体/2Dビデオ変換)。
従来の技術によると、ビデオコンテンツを消費する使用環境、すなわちユーザ特性および端末特性に対する情報を用いて、1つのビデオコンテンツをそれぞれ異なる使用環境に符合するように適応変換処理できる単一ソースの複数使用(Single Source Multi Use)環境を提供できないという問題が生じる。
「単一ソース」は、マルチメディアソースから生成された1つのコンテンツを意味し、「複数使用」は、様々な使用環境のユーザ端末が「単一ソース」をそれぞれの使用環境に符合するように消費することを意味する。
単一ソースの複数使用環境は、様々な使用環境に符合するように1つのコンテンツを再加工することで、相異なった使用環境に適応変換された様々な形態のコンテンツを提供でき、さらには、様々な使用環境に適応変換された単一ソースをユーザ端末に提供するにおいて、ネットワークの帯域幅を率的に使用したり、また減少できるという長所を備えている。
よって、コンテンツ提供者の立場としては、様々な使用環境にビデオ信号を符合させるために、複数のコンテンツを製作するか、また送信する過程において発生する不必要な費用を低減でき、コンテンツ消費者の立場としては、ユーザ自分のビデオ消費特性およびユーザ端末特性を最大限に満足させることができる最適なビデオコンテンツを消費できるようになる。
しかし、従来の技術によると、単一ソースの複数使用環境を支援できる汎用的マルチメディアアクセス(UNIVERSAL MULTIMEDIA ACCESS,UMA)環境においても、単一ソースの複数使用環境の長所を活用できない。
すなわち、マルチメディアソースは、ユーザ特性および端末特性のような使用環境を考慮せず、一律にビデオコンテンツを送信し、ビデオプレーヤアプリケーションが搭載されたユーザ端末は、マルチメディアソースから受信した形式そのままのビデオコンテンツを消費するため、単一ソースの複数使用環境に符合しない。
このような従来の技術の問題点を克服し、単一ソースの複数使用環境を支援するために、マルチメディアソースが様々な使用環境を全て考慮し、マルチメディアコンテンツを提供するようになると、コンテンツの生成および送信において負担が多くなる。
本発明は、上述した従来の技術の問題点を解決するためになされたものであって、その目的は、2次元および3次元の立体ビデオコンテンツを消費するユーザ端末の使用環境を予め記述した情報を用いて、使用環境に符合するようにビデオコンテンツを適応変換させる2次元および3次元の立体ビデオ信号の適応変換装置およびその方法と、該方法を実現させるためのプログラムを記録したコンピュータで読み出すことのできる記録媒体を提供することにある。
上記目的を達成するため、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換装置において、ビデオ信号に対するユーザ特性を記述するユーザ特性情報を、ユーザ端末から収集し、記述して管理するビデオ使用環境情報管理手段と、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させるビデオ適応変換手段とを備えることを特徴とするビデオ適応変換装置を提供する。
そして、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換装置において、ビデオ信号処理に対するユーザ端末特性を記述するユーザ端末特性情報をユーザ端末から収集し、記述して管理するビデオ使用環境情報管理手段と、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させるビデオ適応変換手段とを備えることを特徴とするビデオ適応変換装置を提供する。
また、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換方法において、ビデオ信号に対するユーザ特性を記述するユーザ特性情報をユーザ端末から収集し、記述して管理する第1ステップと、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させる第2ステップとを含むことを特徴とするビデオ適応変換方法を提供する。
また、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換方法において、ビデオ信号処理に対するユーザ端末特性を記述するユーザ端末特性情報をユーザ端末から収集し、記述して管理するビデオ使用環境情報管理手段と、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させるビデオ適応変換手段とを備えることを特徴とするビデオ適応変換方法を提供する。
また、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換のために、プロセッサを備えたビデオ適応変換システムに、ビデオ信号に対するユーザ特性を記述するユーザ特性情報をユーザ端末から収集し、記述して管理するビデオ使用環境情報管理機能と、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させるビデオ適応変換機能とを実現させるためのプログラムを記録したコンピュータで読み出すことができることを特徴とする記録媒体を提供する。
また、本発明は、単一ソースの複数使用のための2次元ビデオ信号、または3次元立体ビデオ信号のビデオ適応変換のために、プロセッサを備えたビデオ適応変換システムに、ビデオ信号処理に対するユーザ端末特性を記述するユーザ端末特性情報をユーザ端末から収集し、記述して管理するビデオ使用環境情報管理機能と、前記ビデオ使用環境情報に符合する2次元ビデオ信号、または3次元立体ビデオ信号が前記ユーザ端末に出力されるように、ビデオ信号を適応変換させるビデオ適応変換機能とを実現させるためのプログラムを記録したコンピュータで読み出すことができることを特徴とする記録媒体を提供する。
本発明によると、ビデオコンテンツを消費する使用環境、すなわちユーザ特性および端末特性情報を用いて、1つのビデオコンテンツを様々な使用環境に符合するように適応変換処理できる単一ソースの複数使用環境を提供できる。
本発明が属する技術の分野における通常の知識を有する者であれば、本明細書の図面、発明の詳細な説明および特許請求範囲から、本発明の他の目的および長所を容易に認識できる。
以下の内容は、本発明の原理だけを例示する。したがって、当業者は本明細書に明確に説明したり、また図示されていないが、本発明の原理を具現し本発明の概念と範囲とに含まれた様々な装置を発明できるものである。また、本明細書に列挙された全ての条件付き用語および実施の形態は、原則的に本発明の概念を理解するための目的としてだけ明確に意図され、このように特別に列挙された実施の形態および状態に制約的でないことを理解しなければならない。
また、本発明の原理、観点および実施の形態だけでなく、特定の実施の形態を列挙する全ての詳細な説明は、このような事項の構造的および機能的均等物を含むように意図されるものであると理解しなければならない。また、このような均等物は、現在公知された均等物だけでなく、将来に開発される均等物すなわち構造と関係なく同じ機能を行うように発明された全ての素子を含むものであると理解しなければならない。
したがって、例えば本明細書のブロック図は、本発明の原理を具体化する例示的な回路の概念的な観点を示すものであると理解しなければならない。これと同様に、全てのフローチャート、状態変換図、疑似コードなどは、コンピュータが読み出すことができる媒体に実質的に示すことができ、コンピュータまたはプロセッサが明確に図示されたのか否かにかかわらず、コンピュータまたはプロセッサにより行われる様々なプロセスを示すものであると理解しなければならない。
プロセッサ、またはこれと類似の概念で表現された機能ブロックを含む図に示されている様々な素子の機能は、専用ハードウェアだけでなく適切なソフトウェアと関連し、ソフトウェアを実行する能力を有するハードウェアの使用により提供され得る。プロセッサにより提供される時、前記機能は、単一専用プロセッサ、単一共有プロセッサ、または複数の個別プロセッサにより提供され、またこれらのうち一部は共有できる。
また、プロセッサ、制御またはこれと類似の概念で提示される用語の明確な使用は、ソフトウェアを実行する能力を有するハードウェアを排他的に引用して解析されてはならず、制限無しにデジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを格納するためのロム(ROM)、ラム(RAM)および不揮発性メモリを暗示に含むものであることを理解しなければならない。周知慣用の他のハードウェアも含むことができる。
本明細書の特許請求の範囲において、詳細な説明に記載された機能を行うための手段として表現された構成要素は、例えば前記機能を行う回路素子の組み合わせ、または、ファームウエア/マイクロコードなどを含む全ての形式のソフトウェアを含む機能を行う全ての方法を含むものであると意図されており、前記機能を行うように前記ソフトウェアを実行するための適切な回路と結合される。このような特許請求の範囲により定義される本発明は、多様に列挙された手段により提供される機能が結合して請求項が要求する方式と結合するため、前記機能を提供できるいかなる手段も本明細書から把握されるものと均等であることを理解しなければならない。
上述した目的、特徴および長所は、添付された図面と関連した次の詳細な説明を通してさらに明確になるであろう。まず、各図面の構成要素に参照番号を付加することにおいて、同じ構成要素に限ってはたとえ他の図上に表示されていても可能な限り同じ番号を有するようにしていることを留意しなければならない。また、本発明を説明することにおいて、関連した公知技術に対する具体的な説明が本発明の要旨を不必要に濁らし得ると判断される場合、その詳細な説明を省略する。
以下、本発明のもっとも好ましい実施の形態を添付する図面を参照して説明する。
図1は、本発明の実施の形態に係るビデオ適応変換装置を概略的に示すブロック図である。図1に示されているように、本発明の実施の形態に係るビデオ適応変換装置100は、ビデオ適応変換部103およびビデオ使用環境情報管理部107を含む。ビデオ適応変換部103およびビデオ使用環境情報管理部107のそれぞれは、相互独立してビデオ処理システムに搭載される。
ビデオ処理システムは、ラップトップコンピュータ、ノートブックコンピュータ、デスクトップコンピュータ、ワークステーション、メーンフレームまたは他の形態のコンピュータを含む。個人携帯情報端末器(Personal Digital Assistant,PDA)、移動通信モバイルステーションのような他の形態のデータ処理、または信号処理システムもビデオ処理システムに含まれる。
ビデオ処理システムは、ネットワーク経路を構成する全てのノード、すなわち、マルチメディアソースノードシステム、マルチメディア中継ノードシステムおよびエンドユーザ端末のうち任意のノードシステムであり得る。
エンドユーザ端末は、WINDOWS(登録商標) MEDIA PLAYER,REAL PLAYERなどのようなビデオプレーヤが搭載されている。
例えば、ビデオ適応変換装置100が、マルチメディアソースノードシステムに搭載されて動作する場合、ビデオコンテンツを消費する使用環境を予め記述した情報を用いて、使用環境に符合するようにビデオコンテンツを適応変換させるためには、使用環境に対する情報をエンドユーザ端末から受信し、受信された使用環境に基づいて適応変換されたコンテンツをエンドユーザ端末に送信する。
本発明に係るビデオ適応変換装置100が、ビデオデータを処理するプロセス、例えばビデオエンコーディングプロセスに対し、ISO(Interna-tional Organisation for Standardisation)/IEC(International Electrotechnical Commission)の技術委員会(Technical Committee)のISO/IECの標準文書は、本発明の好ましい実施の形態の各構成要素の機能と動作とを説明するのに役立つ範囲において本明細書の一部として含まれる。
ビデオデータソース部101は、マルチメディアソースから生成されたビデオデータを受信する。ビデオデータソース部101は、マルチメディアソースノードシステムに含まれることもあり、また、マルチメディアソースノードシステムから有/無線ネットワークを介して送信されたビデオデータを受信するマルチメディア中継ノードシステム、またはエンドユーザ端末にも含まれる。
ビデオ適応変換部103は、ビデオデータソース部101からビデオデータを受信し、ビデオ使用環境情報管理部107が使用環境すなわちユーザ特性および端末特性を予め記述した情報を用いて、使用環境に符合するようにビデオデータを適応変換させる。
ビデオ使用環境情報管理部107は、ユーザおよびユーザ端末から情報を収集し、使用環境情報を予め記述して管理する。
ビデオデータ出力部105は、ビデオ適応変換部103により適応変換されたビデオデータを出力する。出力されたビデオデータは、エンドユーザ端末のビデオプレーヤに送信される事もでき、有/無線ネットワークを介してマルチメディア中継ノードシステムまたはエンドユーザ端末に送信されることもできる。
図2は、図1のビデオ適応変換装置により具現可能な実施の形態を概略的に示すブロック図である。図2に示されているように、ビデオデータソース部101は、ビデオメタデータ201およびビデオコンテンツ203を含む。
ビデオデータソース部101は、マルチメディアソースから生成されたビデオコンテンツおよびメタデータを収集して格納する。すなわち、地上派、衛星およびケーブルTV信号およびインターネットなどのネットワークおよびVCR、CD、DVDなどの記録媒体などを介して獲得される様々なビデオコンテンツおよびメタデータを収集して格納する。
この時、送信されるビデオコンテンツは、格納あるいは放送およびストリーミング形態で送信される立体感のない2次元ビデオ信号と、立体感を感じることができる3次元立体ビデオフォーマットとを含む。
ビデオメタデータ201は、2次元ビデオおよび3次元立体ビデオコンテンツの符号化方式の種類、ファイルの大きさ、ビット率(Bit-Rate)、秒当たりのフレーム数(Frame/Second)、解像度(Resolution)などのビデオメディア情報とビデオコンテンツの題目、製作者、製作場所および日時、ジャンル、等級などの製作および分類情報などのように、対応されるビデオコンテンツに関連した情報である。前記ビデオメタデータは、XML(eXtensible Markup Lan-guage)スキーマ(schema)により定義され記述できる。
ビデオ使用環境情報管理部107は、ユーザ特性情報管理部207、ユーザ特性情報入力部217、ビデオ端末特性情報管理部209およびビデオ端末特性情報入力部219を含む。
ユーザ特性情報管理部207は、ユーザ特性情報入力部217を介し、ユーザ端末からユーザの趣向および好み度によって、3次元立体ビデオコンテンツの立体の深さと範囲、陽陰立体方式(Parallax)などの好みの立体感の情報(2次元ビデオコンテンツを3次元立体ビデオコンテンツに適応変換させる場合)および3次元立体ビデオの左右、あるいは、合成フレームの選択などの情報(3次元立体ビデオコンテンツを2次元ビデオに適応変換させる場合)のような2次元ビデオまたは3次元立体ビデオ変換に適用されるユーザ趣向および好みの情報を受信し管理する。入力されたユーザ特性情報は、例えばXML形式の機械で読み出すことができる言語として管理される。
ビデオ端末特性情報管理部209は、ビデオ端末特性情報入力部219を介し、端末特性情報を受信し管理する。入力された端末能力情報は、例えばXML形式の機械判読可能な言語として管理される。
ビデオ端末特性情報入力部219は、ユーザ端末に予め設定されているか、また、ユーザにより入力される端末特性情報をビデオ端末特性情報管理部209に送信できる。ユーザ端末器において、3次元立体ビデオ信号を再生する時、ユーザ端末処理の表示装置ハードウェアが単眼式(Monoscopic)あるいは、立体(Stereoscopic)表示装置のうち、どの表示装置なのか、また、3次元立体ビデオ信号を再生するのに必要な3次元立体ビデオ復号化器の種類(例えば、立体MPEG-2、立体MPEG-4、立体AVIビデオ復号化器等)を指示する情報および3次元立体ビデオ信号の再生時に必要なレンダリング(Rendering)方式の種類(例えば、Interlaced,Sync Double,Page Flipping,Red Blue Anaglyph、Red Cyan Anaglyph,Red Yellow Anaglyph など)などの3次元立体ビデオ信号の再生時に必要なユーザ端末特性情報を収集し、ユーザ端末特性情報管理部170に送信できる。
ビデオ適応変換部103は、ビデオメタデータ適応変換処理部213およびビデオコンテンツ適応変換処理部215を含む。
ビデオコンテンツ適応変換処理部215は、ユーザ特性情報管理部217およびビデオ端末特性情報管理部209で管理されるユーザ特性情報およびビデオ端末特性情報をパージングした後、ビデオコンテンツがユーザ特性および端末特性に符合するようにビデオ信号を適応変換させる。
すなわち、前記ユーザ特性情報管理部207から送信されたユーザ特性情報をパージングした後、2次元ビデオ信号を立体感の深さ、陽陰立体感、最大遅延フレーム数などの3次元立体ビデオコンテンツに対するユーザ好み度を反映した適応変換信号処理過程を経て、3次元立体ビデオに変換処理する。
また、入力ビデオコンテンツである3次元立体ビデオ信号を、2次元ビデオ信号に変換処理する場合に必要な、入力3次元立体ビデオ信号の左側画像、あるいは、右側画像あるいは左右画像から合成されて得られた合成画像などを選択するユーザ特性情報を反映し、3次元立体ビデオ信号を2次元ビデオ信号にユーザ趣向情報に符合するように適応変換する。
また、ビデオコンテンツ適応変換処理部215は、XML形式の前記ユーザ端末特性情報をユーザ端末特性情報管理部209から受け取って関連情報をパージングした後、3次元立体ビデオコンテンツを、単/立体表示装置、3次元立体ビデオ復号化器の種類、3次元立体ビデオ信号のレンダリング方式の種類などのユーザ端末特性情報に符合するように3次元立体ビデオ信号の適応変換処理を行う。
ビデオメタデータ適応変換処理部213は、ビデオコンテンツ適応変換過程で必要なメタデータを、ビデオコンテンツ適応変換処理部215に提供し、ビデオコンテンツ適応変換処理結果に応じて、対応するビデオメタデータ情報の内容を適応変換させる。
すなわち、前記2次元および3次元の立体ビデオコンテンツ適応変換処理過程において、必要なビデオメタデータをビデオコンテンツ適応変換処理部215に提供し、また、2次元および3次元の立体ビデオコンテンツ適応変換処理の結果に係る関連該当メタデータ情報の内容を更新、記録、格納する2次元および3次元の立体ビデオメタデータ適応変換処理機能を行う。
ビデオコンテンツ/メタデータ出力部105は、ユーザ趣向および好みのユーザ特性情報とユーザ端末特性情報とに応じて適応変換された、2次元ビデオおよび3次元立体ビデオコンテンツおよびメタデータを出力する。
図3は、図1のビデオ適応変換装置で行われるビデオ適応変換プロセスを説明するためのフローチャート図である。図3に示されているように、本発明に係るプロセスは、ビデオ使用環境情報管理部107がユーザおよび端末からビデオ使用環境情報を収集し、ユーザ特性および端末特性情報を予め記述することから始まる(S301)。
次いで、ビデオデータソース部101がビデオデータを受信する(S303)と、ビデオ適応変換部103は、ステップS301で記述した使用環境情報を用いて、ステップS303で受信したビデオデータを使用環境、すなわちユーザ特性および端末特性に符合するようにビデオコンテンツを2次元または3次元立体ビデオに適応変換させる(S305)。
ビデオコンテンツ/メタデータ出力手段105は、ステップS305で2次元または3次元立体ビデオに適応変換されたビデオデータを出力する(S307)。
図4は、図3の適応変換プロセスS305を説明するためのフローチャート図である。図4に示されているように、ビデオ適応変換部103は、ビデオデータソース部101が受信した2次元ビデオコンテンツまたは3次元立体ビデオコンテンツおよびビデオメタデータを識別し(S401)、2次元または3次元立体ビデオに適応変換される必要があるビデオコンテンツを、ユーザ特性および端末特性に符合するように2次元または3次元立体ビデオに適応変換させ(S403)、ステップS403のビデオコンテンツ適応変換処理結果に応じて、対応するビデオメタデータ情報の内容を適応変換させる(S405)。
図5は、本発明に係る2次元および3次元の立体ビデオ信号の適応変換装置に適用可能な2次元ビデオ信号の3次元立体ビデオ信号への適応変換を説明するための実施の形態の説明図である。
図5に示されているように、エンコードされたMPEGビデオ信号501を受信したデコーダ502は、現在画像の各(16×16)マクロブロック(MB)でモーションベクトル(motion vector)を抽出し、イメージタイプ分析503およびモーションタイプ分析504を行う。
イメージタイプ分析503では、停止画像、平面モーション画像、非平面モーション画像およびファストモーション画像などが決定される。
モーションタイプ分析504では、動く画像に対しカメラの動きおよびオブジェクトが決定される。
上記のイメージタイプ分析503およびモーションタイプ分析504の出力により2次元ビデオの3次元立体ビデオが生成される(505)。
停止イメージ(static image)では、強度(intensity)、質感(texture)および他の特徴に基づいて画像ピクセルまたは、ブロック当りの3次元の深さの情報が導出される。導出された深さの情報を用いて、右側および左側イメージが構成される。
平面のモーションイメージ(horizontal motion image)では、現在イメージおよび遅延イメージが選択される。モーションタイプ分析504により決定された平面モーションイメージのモーションタイプに応じて、選択されたイメージが適切にユーザの左側および右側の目にディスプレされる。
非平面モーションイメージ(non−horizontal motion image)では、動きおよび深さの情報を用いて、立体イメージ(stereoscopic image)が生成される。
以下、ビデオ使用環境情報管理部107で管理される技術情報構造が開始される。
本発明にしたがい、2次元または3次元立体ビデオコンテンツを消費するユーザ特性および端末特性の使用環境を予め記述した情報を用いて、使用環境に符合するようにビデオコンテンツを2次元または3次元立体ビデオに適応変換させるためには、ユーザ特性に対する情報(Stereoscopic Video Conversion Type)および端末特性に対する情報(Stereoscopic Video Display Type)が管理されなければならない。
ユーザ特性に対する情報は、2次元または3次元立体ビデオ変換に対するユーザの好み度を記述する。図1のビデオ使用環境情報管理部107で管理するユーザ特性の技術情報構造として、例示的にXMLスキーマ定義に基づき表現した構文は以下の通りである。
<complexType name="StereoscopicVideoConversionType">
<Sequence>
<element name="From2DTo3DStereoscopic" minOccurs="0">
<complexType>
<sequence>
<element name="ParallaxType">
<simpleType>
<restriction base="string">
<enumeration value="Positive"/>
<enumeration value="negative"/>
</restriction>
</simpleType>
</element>
<element
name="DepthRange" type="mpeg7:zeroToOneType"/>
<element
name="MaxDelayedFrame" type="nonNegativeInteger"/>
</sequence>
</complexType>
</element>
<element
name="From3DStereoscopicTo2D"minOccurs="0">
<complexType>
<sequence>
<element name="LeftRightInterVideo">
<simpleType>
<restriction base="string">
<enumeration value="Left"/>
<enumeration value="Right"/>
<enumeration value="Intermediate"/>
</restriction>
</simpleType>
</element>
</sequence>
</complexType>
</element>
</sequence>
</complexType>
上記ユーザ特性の構成要素を整理すると、以下の通りである。
Figure 0004362105
上記例示的にXMLスキーマ定義によって表現された構文のように、本発明に係るユーザ特性は、2次元ビデオを3次元立体ビデオに変換する場合(From2DTo3DStereoscopic)と、3次元立体ビデオを2次元ビデオに変換する場合(From3DStereoscopicTo2D)の2つに区分される。
2次元ビデオ信号を3次元立体ビデオ信号に適応変換させる場合、
ParallaxTypeは、陰の立体感(negative parallax)および陽の立体感(positive parallax)、すなわち、立体感の種類に対するユーザの好みを記述する。
図6は、立体感を説明するための例示図であり、図に示されているAは、陰の立体感を示し、Bは、陽の立体感を示す。すなわち、陰の立体感は、オブジェクト(3つの円)の3次元の深さを、モニタスクリーンとユーザの目の間とで感じることができるようにし、陽の立体感は、オブジェクトの3次元の深さを、モニタスクリーンの後ろで感じることができるようにする。
また、2次元ビデオ信号を3次元立体ビデオ信号に適応変換させる場合、Depth Rangeは、適応変換される3次元立体ビデオ信号の立体感の深さに対するユーザの好みを記述する。深さの範疇の指定によって深み感が増加や減少が可能である。
図7は、深み感を説明するための例示図であり、図に示されているように収斂(convergence)点AではBに比べさらに深み感を感じることができる(wider Depth)。
そして、2次元ビデオ信号を、3次元立体ビデオ信号に適応変換させる場合、Max Delayed Frameは、最大遅延フレーム数に対するユーザの好みを記述する。Max Delayed Frameは、2次元ビデオ信号を3次元立体ビデオ信号に適応変換させるために、2次元ビデオ信号の遅延された(以前の)イメージを使用する過程において、必要なパラメータを定義する。すなわち、2次元ビデオ信号のイメージシーケンスが{...,IK-3,IK-2,IK-1,I,....}であり、Iが現在のフレームであるとすると、以前フレーム{...,IK-3,IK-2,IK-1}のひとつであるIK-n(n≧1)が選択され、IおよびIK-nにより3次元立体ビデオが構成される。Max Delayed Frameにより最大遅延フレーム数であるnに対するユーザの好みが決定される。
一方、3次元立体ビデオを2次元ビデオに変換する場合、Left Right Inter Videoは、3次元立体ビデオ信号のうち、左側イメージ、右側イメージ、または、さらに上質のイメージ信号を得るための左右イメージの合成イメージの3つの場合のうち、どのイメージ信号を2次元ビデオ信号とするかに対するユーザの好みを記述する。
ユーザ端末特性に対する情報は、単眼式(monoscopic)、または立体(stereoscopic)表示装置の如何および立体MPEG-1、立体MPEG-2、立体MPEG-4、立体AVIなどを含む3次元立体ビデオ復号化器の種類および「Interlaced」,「S-ynDouble」,「Page-Flipping」,「Red-Blue Ang-lyph」,「Red-Cyan Anglyph」,「Red-Yellow Ang-lyph」などの3次元立体ビデオ信号のレンダリング方式の種類などの特性情報を記述する。
図1のビデオ使用環境情報管理部107で、管理するユーザ端末特性の技術情報構造であり、例示的にXMLスキーマ定義によって示した構文は以下の通りである。
<complexType name="StereoscopicVideoDisplayType">
<sequence>
<element name="DisplayDevice">
<simpleType>
<restriction base="string">
<enumeration value="Monoscopic"/>
<enumeration value="Stereoscopic"/>
</restriction>
</simpleType>
</element>
<element name="StereoscopicDecoderType"
type="mpeg7:ControlledTermUseType"/>
<element name="RenderingFormat">
<simpleType>
<restriction base=“string”>
<enumeration value="Interlaced"/>
<enumeration value="Sync-Double"/>
<enumeration value="Page-Flipping"/>
<enumeration value="Anaglyph-Red-Blue"/>
<enumeration value="Anaglyph-Red-Cyan"/>
<enumeration value="Anaglyph-Red-Yellow"/>
</restriction>
</simpleType>
</element>
</sequence>
</complexType>
前記のユーザ端末特性情報の構成要素を整理すれば、次の表2のようである。
Figure 0004362105
Display Typeは、ユーザ端末が支援する表示装置が単眼式表示装置であるか、または、立体表示装置であるか否かを示す情報である。
Stereoscopic Deconder Typeは、ユーザ端末が支援する3次元立体ビデオデコーダが立体MPEG-1、立体MPEG-2、立体MPEG-4、立体AVIなどを含む3次元立体ビデオデコーダのうち、どれであるか否かを示す情報である。
RedeeringFormatは、ユーザ端末が支援する3次元立体ビデオ信号レンダリング方式が“Interlaced”、“Sync Double”、“Page Flipping”、“Red-Blue Anglyph” “Red-Cyan Anglyph”、“Red-Yellow Anglyph”などを含むレンダリング方式のうち、どれであるのかを示す情報である。
図8は、3次元立体ビデオ信号のレンダリング方式に対する例示図であり、3次元立体ビデオ信号のレンダリング方式の種類のうち、“Interlaced”、“Sync Double”、“Page-Flipping”の例を示す。
以下の例示は、2次元ビデオの3次元立体ビデオ信号でユーザの好みの情報に符合する適応変換処理を発生させるユーザ趣向および好みなどのユーザ特性情報を記述した一例を示す。
以下の例示では、2次元ビデオ信号の3次元立体ビデオ信号に適応変換時に設定されたユーザの好みの情報であり、“Parallax Type”には、陰(Negative Parallax)タイプを、立体感の深さを表す「Depth Range」には、0.7の値に、最大遅延フレーム数は、15個に設定したことを示す。
また、3次元立体ビデオ信号の2次元ビデオ信号に適応変換時には、3次元立体ビデオ信号のうち左右イメージの合成イメージに選択したユーザの好み情報の設定一例を示す。
<StereoscopicVideoConversion>
<From2DTo3DStereoscopic>
<Parallaxtype>Negative</Parallaxtype>
<DepthRange>0.7</DepthRange>
<MaxDelayedFrame>15</MaxDelayedFrame>
</From2DTo3DStereoscopic>
<From3DStereoscopicTo2D>
<LeftRightInterVideo>Intermediate</LeftRightInterVideo>
</From3DStereoscopicTo2D>
</StereoscopicVideoConversion>
また、以下の例示では、3次元立体ビデオ信号のユーザ端末特性を考慮した適応変換処理時、ユーザ端末処理特性情報を記述した一例を示す。
以下の例示において、ユーザ端末処理特性として現在ユーザ端末は、単眼式表示装置だけを支援し、ユーザ端末に搭載されたデコーダでは、立体MPE-G-1ビデオデコーダを支援し、3次元立体ビデオのレンダリング方式では、"Anglyph"を支援するユーザ端末処理器の特性情報を記述する。このようなユーザ端末特性情報は、3次元立体ビデオのユーザ端末特性に符合する適応変換時に使用される。
<StereoscopicVideoDisplay>
<DisplayDevice>Monoscopic</DisplayDevice>
<StereoscopicDecoderType
href="urn:mpeg:mpeg7:cs:VisualCodingFormatCS:2001:1">
<mpeg7:name xml:lange="en">MPEG-1 Video
</mpeg7:name>
</StereoscopicDecoderType>
<RenderingFormat>Anaglyph</RenderingFormat>
</StereoscopicVideoDisplay>
上述したような本発明の方法は、プログラムで具現されコンピュータで読み出すことのできる形態として、記録媒体(CD ROM、RAM、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスクなど)に格納することができる。
なお、本発明は、上記した本実施の形態に限られるものではなく、本発明の技術的思想から逸脱しない範囲内で多様に変更が可能であり、それらも本発明の技術的範囲に属する。
このように本発明によると、ユーザの趣向および好みの情報とユーザ端末器の特性情報を用いて、1つの2次元ビデオコンテンツを3次元立体ビデオコンテンツに、あるいは3次元立体ビデオコンテンツを2次元ビデオコンテンツに、それぞれ異なる使用環境と様々なユーザの特性と趣向と符合するように、適応、変換処理できるサービス環境を提供できるという効果が得られる。
また、本発明によって提供されている単一ソースの複数使用環境は、様々な使用端末器の性能および提供機能範囲、相異なった使用環境および様々なユーザ特性などに符合できるように単一のビデオコンテンツを再加工して、相異なった環境とユーザの要求とに適応変換された様々な形態のビデオコンテンツに、速かに提供できるようになされることにより、複数のビデオコンテンツ製作および送信などにおいて発生する不必要な費用を低減でき、ユーザは自分が位置した場所および環境の空間の制約を克服すると共に、ユーザ自分の趣向を最大限に満足させる得る最適のビデオコンテンツのサービスが可能であるという効果が得られる。
本発明の実施の形態に係るビデオ適応変換装置を概略的に示したブロック図である。 図1のビデオ適応変換装置により具現可能な実施の形態を概略的に示したブロック図である。 図1のビデオ適応変換装置で行われるビデオ適応変換プロセスを説明するためのフローチャートである。 図3の適応変換プロセスを説明するためのフローチャートである。 本発明に係る2次元および3次元の立体ビデオ信号の適応変換装置に適用可能な2次元ビデオ信号の3次元立体ビデオ信号への適応変換を説明するための、一実施の形態の説明図である。 立体感を説明するための例示図である。 深み感を説明するための例示図である。 3次元立体ビデオ信号のレンダリング方式に対する例示図である。 3次元立体ビデオ信号のレンダリング方式に対する例示図である。 3次元立体ビデオ信号のレンダリング方式に対する例示図である。

Claims (18)

  1. ビデオコンテンツの適応変換装置におけるビデオコンテンツの適応変換方法であって、
    使用環境情報に含まれた、再生に関するユーザ好み度(選好度)情報に基づきビデオデータソースからのビデオコンテンツを、両眼立体視用ビデオコンテンツに変換するステップと、
    前記変換されたビデオコンテンツを出力するステップと
    を含み、
    前記使用環境情報は、前記変換された出力されたビデオコンテンツを受信するユーザ端末の特性情報を含み、
    前記ユーザ端末の特性情報は、前記ユーザ端末が両眼立体視用であるか否かに対する特性情報を含む
    ことを特徴とする、ビデオコンテンツの適応変換方法。
  2. 前記ビデオデータソースは、前記ビデオコンテンツに対する情報を記述するメタデータを含み、当該メタデータは、前記変換するステップにおいてビデオコンテンツを変換する際に使用されると共に、当該変換に対応して変換され、変換されたメタデータは、前記変換されたビデオコンテンツと共に出力されることを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  3. 前記両眼立体視用ビデオコンテンツに変換するステップは、2次元ビデオを両眼立体視用ビデオコンテンツに変換し、
    前記再生に関するユーザ好み度情報は、両眼立体視用ビデオコンテンツの表示における立体感に対する、ユーザ好み度情報を含む
    ことを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  4. 前記両眼立体視用ビデオコンテンツに変換するステップは、2次元ビデオを両眼立体視用ビデオコンテンツへの変換を含み、
    前記再生に関するユーザ好み度情報は、前記2次元ビデオを両眼立体視用ビデオコンテンツへの変換が、現在フレームと現在フレームから遅延したフレームとで左右画像を構成する変換である場合の遅延フレームの最大間隔に対するユーザ好み度を含む
    ことを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  5. 前記両眼立体視用ビデオコンテンツに変換するステップは、2次元ビデオを両眼立体視用ビデオに変換し、
    前記再生に関するユーザ好み度情報は、3次元の深さの範囲に対するユーザ好み度を含む
    ことを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  6. 前記範囲は、前記ユーザ端末のモニタスクリーンと、当該モニタスクリーン上に表示されて両眼立体視されるオブジェクトとの間の距離であることを特徴とする、請求項5に記載のビデオコンテンツの適応変換方法。
  7. 前記両眼立体視用画像ビデオコンテンツに変換するステップとは別に、両眼立体視用ビデオコンテンツを2次元ビデオコンテンツに変換するステップをさらに備え、
    前記再生に関するユーザ好み度情報は、両眼立体視用ビデオコンテンツを2次元ビデオコンテンツに変換する際に、前記3次元両眼式ビデオの左側画像と右側画像のうちのどちらを使用して2次元ビデオコンテンツに変換するかに対する、ユーザ好み度を含む
    ことを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  8. 前記使用環境情報は、ユーザ端末の特性情報を含み、
    前記ユーザ端末の特性情報は、前記ユーザ端末の復号化性能、レンダリング方式に対する特性情報を含む
    ことを特徴とする、請求項1に記載のビデオコンテンツの適応変換方法。
  9. 前記レンダリング方式は、インターレース(Interlaced)、シンク−ダブル(Sync−Double)、ページフリッピング(Page−Flipping)、レッド−ブルーアナグリフ(Red−Blue Anaglyph)、レッド−シアンブルーアナグリフ(Red−Cyan Anaglyph)、レッド−イエローアナグリフ(Red−Yellow Anaglyph)を含む分類グループのうちの何れか1つであることを特徴とする、請求項8に記載のビデオコンテンツ適応変換方法。
  10. ビデオコンテンツを適応的に変換するビデオコンテンツ適応変換装置であって、
    使用環境情報に含まれた、再生に関するユーザの好み度情報に基づいて、ビデオデータソースからのビデオコンテンツを両眼立体視用ビデオコンテンツに変換する変換部と、
    前記変換されたビデオコンテンツを出力する出力部と
    を備え、
    前記使用環境情報は、前記変換された出力されたビデオコンテンツを受信するユーザ端末の特性情報を含み、
    前記ユーザ端末の特性情報は、前記ユーザ端末が両眼立体視用であるか否かに対する特性情報を含む
    ことを特徴とする、ビデオコンテンツ適応変換装置。
  11. 前記ビデオデータソースは、前記ビデオコンテンツに対する情報を記述するメタデータを含み、当該メタデータは、前記変換するステップにおいてビデオコンテンツを変換する際に使用されると共に、当該変換に対応して変換され、変換されたメタデータは、前記変換されたビデオコンテンツと共に出力されることを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  12. 前記変換部は、2次元ビデオコンテンツを両眼立体視用ビデオコンテンツに変換し、
    前記再生に関するユーザ好み度情報は、立体感に対するユーザ好み度を含む
    ことを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  13. 前記変換部は、2次元ビデオコンテンツを両眼立体視用ビデオコンテンツに変換し、
    前記再生に関するユーザ好み度情報は、遅延フレームの最大間隔に対するユーザ好み度を含む
    ことを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  14. 前記変換部は、2次元ビデオコンテンツを両眼立体視用ビデオコンテンツに変換し、
    前記再生に関するユーザ好み度情報は、3次元の深さの範囲に対するユーザ好み度を含む
    ことを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  15. 前記範囲は、前記ユーザ端末のモニタスクリーンと、当該モニタスクリーン上に表示されて両眼立体視されるオブジェクトとの間の距離であることを特徴とする、請求項14に記載のビデオコンテンツ適応変換装置。
  16. 前記変換部は、両眼立体視用ビデオコンテンツを2次元ビデオコンテンツに変換する機能を有し、
    前記再生に関するユーザ好み度情報は、両眼立体視用ビデオコンテンツを2次元ビデオコンテンツに変換する際に、前記両眼立体視用ビデオコンテンツの左側画像オと右側画像のうちのどちらを使用して2次元ビデオコンテンツに変換するかに対するユーザ好み度を含む
    ことを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  17. 前記使用環境情報は、ユーザ端末の特性情報を含み、
    前記ユーザ端末の特性情報は、前記ユーザ端末の復号化性能、レンダリング方式に対する特性情報を含む
    ことを特徴とする、請求項10に記載のビデオコンテンツ適応変換装置。
  18. 前記レンダリング方式は、インターレース(Interlaced)、シンク−ダブル(Sync−Double)、ページフリッピング(Page−Flipping)、レッド−ブルーアナグリフ(Red−Blue Anaglyph)、レッド−シアンブルーアナグリフ(Red−Cyan Anaglyph)、レッド−イエローアナグリフ(Red−Yellow Anaglyph)を含む分類グループのうちのいずれか1つであることを特徴とする、請求項17に記載のビデオコンテンツ適応変換装置。
JP2004521277A 2002-07-16 2003-07-16 2次元および3次元立体ビデオ信号の適応変換装置およびその方法 Expired - Fee Related JP4362105B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20020041731 2002-07-16
PCT/KR2003/001411 WO2004008768A1 (en) 2002-07-16 2003-07-16 Apparatus and method for adapting 2d and 3d stereoscopic video signal

Publications (2)

Publication Number Publication Date
JP2005533433A JP2005533433A (ja) 2005-11-04
JP4362105B2 true JP4362105B2 (ja) 2009-11-11

Family

ID=30113190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004521277A Expired - Fee Related JP4362105B2 (ja) 2002-07-16 2003-07-16 2次元および3次元立体ビデオ信号の適応変換装置およびその方法

Country Status (7)

Country Link
US (1) US20050259147A1 (ja)
EP (1) EP1529400A4 (ja)
JP (1) JP4362105B2 (ja)
KR (1) KR100934006B1 (ja)
CN (2) CN101982979B (ja)
AU (1) AU2003281138A1 (ja)
WO (1) WO2004008768A1 (ja)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11388451B2 (en) 2001-11-27 2022-07-12 Comcast Cable Communications Management, Llc Method and system for enabling data-rich interactive television using broadcast database
AU2002327677A1 (en) 2001-09-19 2003-04-01 Meta Tv, Inc. Interactive user interface for television applications
US8413205B2 (en) 2001-09-19 2013-04-02 Tvworks, Llc System and method for construction, delivery and display of iTV content
US8042132B2 (en) 2002-03-15 2011-10-18 Tvworks, Llc System and method for construction, delivery and display of iTV content
US7703116B1 (en) 2003-07-11 2010-04-20 Tvworks, Llc System and method for construction, delivery and display of iTV applications that blend programming information of on-demand and broadcast service offerings
US10664138B2 (en) 2003-03-14 2020-05-26 Comcast Cable Communications, Llc Providing supplemental content for a second screen experience
US8578411B1 (en) 2003-03-14 2013-11-05 Tvworks, Llc System and method for controlling iTV application behaviors through the use of application profile filters
US11381875B2 (en) 2003-03-14 2022-07-05 Comcast Cable Communications Management, Llc Causing display of user-selectable content types
US8819734B2 (en) 2003-09-16 2014-08-26 Tvworks, Llc Contextual navigational control for digital television
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
EP1742488B1 (en) * 2004-04-26 2014-10-15 Olympus Corporation Image file reproducing apparatus and method
JP5095396B2 (ja) 2004-06-24 2012-12-12 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート ターゲッティング支援のための拡張した記述構造と、これを適用したtvエニタイムサービス方法及びシステム
US8243123B1 (en) * 2005-02-02 2012-08-14 Geshwind David M Three-dimensional camera adjunct
US7818667B2 (en) 2005-05-03 2010-10-19 Tv Works Llc Verification of semantic constraints in multimedia data and in its announcement, signaling and interchange
EP1883241B1 (en) * 2005-05-18 2016-01-13 NEC Corporation Content display system and content display method
JP4638783B2 (ja) * 2005-07-19 2011-02-23 オリンパスイメージング株式会社 3d画像ファイルの生成装置、撮像装置、画像再生装置、画像加工装置、及び3d画像ファイルの生成方法
KR100740922B1 (ko) * 2005-10-04 2007-07-19 광주과학기술원 Mpeg-21 기반의 다시점 3차원 영상을 위한 비디오 적응변환 시스템
US9137497B2 (en) 2007-04-11 2015-09-15 At&T Intellectual Property I, Lp Method and system for video stream personalization
US8594484B2 (en) * 2007-05-15 2013-11-26 Warner Bros. Entertainment Inc. DVD player with external connection for increased functionality
WO2008144306A2 (en) * 2007-05-15 2008-11-27 Warner Bros. Entertainment Inc. Method and apparatus for providing additional functionality to a dvd player
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
US8487982B2 (en) * 2007-06-07 2013-07-16 Reald Inc. Stereoplexing for film and video applications
WO2009002115A2 (en) * 2007-06-26 2008-12-31 Lg Electronics Inc. Media file format based on, method and apparatus for reproducing the same, and apparatus for generating the same
KR101362647B1 (ko) * 2007-09-07 2014-02-12 삼성전자주식회사 2d 영상을 포함하는 3d 입체영상 파일을 생성 및재생하기 위한 시스템 및 방법
CN101822049B (zh) 2007-10-13 2013-04-24 三星电子株式会社 基于轻便应用场景表现在终端上提供立体三维图像/视频内容的装置和方法
EP2232885A1 (en) * 2007-12-14 2010-09-29 Koninklijke Philips Electronics N.V. 3d mode selection mechanism for video playback
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
KR101539935B1 (ko) * 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
WO2009157713A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co., Ltd. Image processing method and apparatus
KR101520620B1 (ko) * 2008-08-18 2015-05-18 삼성전자주식회사 2차원/3차원 재생 모드 결정 방법 및 장치
CN101662677B (zh) * 2008-08-29 2011-08-10 华为终端有限公司 码流转换系统及方法、码流识别单元和方案确定单元
EP2319247A4 (en) * 2008-10-27 2012-05-09 Samsung Electronics Co Ltd METHODS AND APPARATUS FOR PROCESSING AND DISPLAYING IMAGE
US11832024B2 (en) 2008-11-20 2023-11-28 Comcast Cable Communications, Llc Method and apparatus for delivering video and video-related content at sub-asset level
KR101574068B1 (ko) * 2008-12-26 2015-12-03 삼성전자주식회사 영상 처리 방법 및 장치
CN104768032B (zh) * 2009-01-26 2018-06-01 汤姆森特许公司 用于视频解码的装置
WO2010134665A1 (ko) * 2009-05-18 2010-11-25 (주)엘지전자 입체영상에 대한 3d 모드 선택이 가능한 입체영상 재생 장치 및 방법
JP5463747B2 (ja) * 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
DK2445224T3 (en) * 2009-06-17 2017-08-21 Panasonic Ip Man Co Ltd INFORMATION RECORDING MEDIUM FOR 3D VIDEO RENDERING AND REPLACEMENT DEVICE
JP5250491B2 (ja) * 2009-06-30 2013-07-31 株式会社日立製作所 記録再生装置
RU2554465C2 (ru) * 2009-07-27 2015-06-27 Конинклейке Филипс Электроникс Н.В. Комбинирование 3d видео и вспомогательных данных
US9131279B2 (en) * 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
JP5428697B2 (ja) * 2009-09-16 2014-02-26 ソニー株式会社 受信装置、受信方法、送信装置およびコンピュータプログラム
US20110085023A1 (en) * 2009-10-13 2011-04-14 Samir Hulyalkar Method And System For Communicating 3D Video Via A Wireless Communication Link
CN104680959A (zh) * 2009-10-30 2015-06-03 三星电子株式会社 二维/三维图像显示设备及其驱动方法
US8687046B2 (en) * 2009-11-06 2014-04-01 Sony Corporation Three-dimensional (3D) video for two-dimensional (2D) video messenger applications
US20110138018A1 (en) * 2009-12-04 2011-06-09 Qualcomm Incorporated Mobile media server
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
WO2011081623A1 (en) * 2009-12-29 2011-07-07 Shenzhen Tcl New Technology Ltd. Personalizing 3dtv viewing experience
US9247286B2 (en) * 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
US8823782B2 (en) 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US8743178B2 (en) * 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
WO2011087303A2 (ko) * 2010-01-18 2011-07-21 엘지전자 주식회사 방송 신호 수신기 및 비디오 데이터 처리 방법
US9491432B2 (en) 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
CN102783160A (zh) * 2010-03-05 2012-11-14 通用仪表公司 将用于插入的二维视频内容转换为三维视频内容的方法和设备
US8817072B2 (en) * 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
US9237366B2 (en) 2010-04-16 2016-01-12 Google Technology Holdings LLC Method and apparatus for distribution of 3D television program materials
US9414042B2 (en) 2010-05-05 2016-08-09 Google Technology Holdings LLC Program guide graphics and video in window for 3DTV
US20110304693A1 (en) * 2010-06-09 2011-12-15 Border John N Forming video with perceived depth
US8631047B2 (en) * 2010-06-15 2014-01-14 Apple Inc. Editing 3D video
EP2608547B1 (en) * 2010-08-17 2018-03-21 LG Electronics Inc. Apparatus and method for receiving digital broadcasting signal
JP5483357B2 (ja) * 2010-08-27 2014-05-07 アルパイン株式会社 デジタルテレビ受信装置及びデジタルテレビ受信装置を設けた車載装置
US20120062712A1 (en) * 2010-09-11 2012-03-15 Spatial View Inc. Delivery of device-specific stereo 3d content
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
JP5302285B2 (ja) * 2010-10-28 2013-10-02 シャープ株式会社 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置
JP2012114575A (ja) * 2010-11-22 2012-06-14 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
US8860785B2 (en) 2010-12-17 2014-10-14 Microsoft Corporation Stereo 3D video support in computing devices
US20120154559A1 (en) * 2010-12-21 2012-06-21 Voss Shane D Generate Media
JP2012134893A (ja) * 2010-12-24 2012-07-12 Hitachi Consumer Electronics Co Ltd 受信装置
US9386294B2 (en) * 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
US9117385B2 (en) * 2011-02-09 2015-08-25 Dolby Laboratories Licensing Corporation Resolution management for multi-view display technologies
US8963998B2 (en) * 2011-04-15 2015-02-24 Tektronix, Inc. Full reference system for predicting subjective quality of three-dimensional video
CN102801990B (zh) * 2011-05-24 2016-09-07 传线网络科技(上海)有限公司 基于互联网服务端立体视频实时转码方法及系统
CN102801989B (zh) * 2011-05-24 2015-02-11 传线网络科技(上海)有限公司 基于互联网客户端立体视频实时转码方法及系统
US20140192150A1 (en) * 2011-06-02 2014-07-10 Sharp Kabushiki Kaisha Image processing device, method for controlling image processing device, control program, and computer-readable recording medium which records the control program
EP2742693A4 (en) * 2011-08-12 2015-04-08 Motorola Mobility Inc METHOD AND DEVICE FOR CODING AND TRANSMITTING 3D VIDEO SEQUENCES IN A WIRELESS COMMUNICATION SYSTEM
CN102984529A (zh) * 2011-09-05 2013-03-20 宏碁股份有限公司 眼镜式立体显示器及其显示方法
JP2013090016A (ja) * 2011-10-13 2013-05-13 Sony Corp 送信装置、送信方法、受信装置および受信方法
KR101396473B1 (ko) * 2011-10-17 2014-05-21 에이스텔 주식회사 셋톱박스에서 서브 단말기로 초고화질 영상을 제공하는 시스템 및 그 방법
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
KR101348867B1 (ko) * 2011-12-14 2014-01-07 두산동아 주식회사 콘텐츠 재생 환경에 맞게 자동 변환하는 레이어 기반 디지털 교과서 표시 장치 및 방법
EP2871842A4 (en) 2012-07-09 2016-06-29 Lg Electronics Inc APPARATUS AND METHOD FOR PROCESSING IMPROVED 3-DIMENSIONAL AUDIO / VIDEO CONTENT (3D)
US10764649B2 (en) 2012-08-17 2020-09-01 Google Technology Holdings LLC Falling back from three-dimensional video
US9554146B2 (en) 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US11115722B2 (en) 2012-11-08 2021-09-07 Comcast Cable Communications, Llc Crowdsourcing supplemental content
US10880609B2 (en) 2013-03-14 2020-12-29 Comcast Cable Communications, Llc Content event messaging
EP3038358A1 (en) 2014-12-22 2016-06-29 Thomson Licensing A method for adapting a number of views delivered by an auto-stereoscopic display device, and corresponding computer program product and electronic device
KR101634967B1 (ko) * 2016-04-05 2016-06-30 삼성지투비 주식회사 3차원 영상 변환 기반의 앱 호환형 악천후 지역의 모니터링 시스템 및 그 방법
CN107465939B (zh) * 2016-06-03 2019-12-06 杭州海康机器人技术有限公司 视频图像数据流的处理方法及装置
US10616566B2 (en) * 2016-07-22 2020-04-07 Korea Institute Of Science And Technology 3D image display system and method
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US11570227B2 (en) 2020-12-04 2023-01-31 Tencent America LLC Set up and distribution of immersive media to heterogenous client end-points

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0851691B1 (en) * 1993-11-09 2002-02-20 Canon Kabushiki Kaisha Signal processing apparatus for a stereoscopic display
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
US5739844A (en) * 1994-02-04 1998-04-14 Sanyo Electric Co. Ltd. Method of converting two-dimensional image into three-dimensional image
US5661518A (en) * 1994-11-03 1997-08-26 Synthonics Incorporated Methods and apparatus for the creation and transmission of 3-dimensional images
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JPH0937301A (ja) * 1995-07-17 1997-02-07 Sanyo Electric Co Ltd 立体映像変換回路
US6249285B1 (en) * 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6157396A (en) * 1999-02-16 2000-12-05 Pixonics Llc System and method for using bitstream information to process images for use in digital display systems
KR100334722B1 (ko) * 1999-06-05 2002-05-04 강호석 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
JP2001016609A (ja) * 1999-06-05 2001-01-19 Soft Foo Deii:Kk Mpegデータを用いた立体映像生成装置及び方法
CN1236628C (zh) * 2000-03-14 2006-01-11 株式会社索夫特4D 产生立体图像的方法和装置
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法

Also Published As

Publication number Publication date
CN1682539A (zh) 2005-10-12
CN101982979A (zh) 2011-03-02
WO2004008768A1 (en) 2004-01-22
KR20050026959A (ko) 2005-03-16
CN101982979B (zh) 2013-01-02
JP2005533433A (ja) 2005-11-04
AU2003281138A1 (en) 2004-02-02
KR100934006B1 (ko) 2009-12-28
EP1529400A1 (en) 2005-05-11
US20050259147A1 (en) 2005-11-24
EP1529400A4 (en) 2009-09-23

Similar Documents

Publication Publication Date Title
JP4362105B2 (ja) 2次元および3次元立体ビデオ信号の適応変換装置およびその方法
KR101575138B1 (ko) 무선 3d 스트리밍 서버
US8259162B2 (en) Method and apparatus for generating stereoscopic image data stream for temporally partial three-dimensional (3D) data, and method and apparatus for displaying temporally partial 3D data of stereoscopic image
JP6013920B2 (ja) ビデオコンテンツを処理するための装置および方法
JP5866359B2 (ja) ネットワークストリーミングされるビデオデータについての属性をシグナリングすること
RU2492585C2 (ru) Способ и устройство для группирования треков и подмножеств треков
US20110157309A1 (en) Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content
EP2538675A1 (en) Apparatus for universal coding for multi-view video
JP4160563B2 (ja) 映像コンテンツの適応変換装置及びその方法
US20120269267A1 (en) Method and apparatus for unified scalable video encoding for multi-view video and method and apparatus for unified scalable video decoding for multi-view video
US20110149020A1 (en) Method and system for video post-processing based on 3d data
WO2007066868A1 (en) Method for providing dmb-based 3d image service, and decoding apparatus and method for dmb-based 3d image service
JP2011502375A (ja) ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイルの保存方法
EP2183925A2 (en) System and method for generating and reproducing 3d stereoscopic image file including 2d image
KR101265990B1 (ko) 비디오 파일 처리 시스템 및 방법
JP2009509454A (ja) 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
EP2337365A2 (en) Method and system for pulldown processing for 3D video
TW201145977A (en) Method and system for synchronizing 3D glasses with 3D video displays
US20110254926A1 (en) Data Structure, Image Processing Apparatus, Image Processing Method, and Program
US20110149040A1 (en) Method and system for interlacing 3d video
JP2012175626A (ja) 配信映像の超解像化装置および超解像映像再生装置
US20110150355A1 (en) Method and system for dynamic contrast processing for 3d video
RU2649758C2 (ru) Устройство и способ обработки изображения
US20110149021A1 (en) Method and system for sharpness processing for 3d video
CN116057931A (zh) 针对缩放性的基于子比特流提取的图像编码设备和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090522

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120821

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130821

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees