JP2011502375A - ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイルの保存方法 - Google Patents

ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイルの保存方法 Download PDF

Info

Publication number
JP2011502375A
JP2011502375A JP2010528784A JP2010528784A JP2011502375A JP 2011502375 A JP2011502375 A JP 2011502375A JP 2010528784 A JP2010528784 A JP 2010528784A JP 2010528784 A JP2010528784 A JP 2010528784A JP 2011502375 A JP2011502375 A JP 2011502375A
Authority
JP
Japan
Prior art keywords
stereoscopic
information
content
box
storing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010528784A
Other languages
English (en)
Other versions
JP2011502375A5 (ja
Inventor
クグ−ジン ユン
スク−ヒ チョ
ナムホ ホ
ジン−ウン キム
ス−イン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2011502375A publication Critical patent/JP2011502375A/ja
Publication of JP2011502375A5 publication Critical patent/JP2011502375A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本発明は、ステレオスコピックデータの保存および再生のためのメタデータ構造、およびこれを用いるステレオスコピックコンテンツファイルの保存方法に関するものである。本発明による保存方法は、ステレオスコピックコンテンツの符号化ストリームを保存するステップと、ステレオスコピックコンテンツが2個以上の基本符号化ストリームを有する場合、基本符号化ストリームを主要トラックおよび付加トラックに区分する情報を保存するステップとを含む。

Description

本発明は、ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイル保存方法に関し、特に2次元および3次元コンテンツがともに供給される場合に要求されるメタデータ(制御情報)およびこれを利用するステレオスコピックコンテンツファイルの保存方法に関するものである。
本発明は、MIC/IITAのIT研究開発プログラムから導出されたものである[課題管理番号:2005−S−403−02、課題名:知能型統合情報放送(SmarTV)技術開発(Development of Super-intelligent Multimedia Anytime-anywhere Realistic TV (SmarTV) Technology)]。
ステレオスコピックコンテンツを利用した応用サービスおよび関連機器に対する市場が国内外で携帯電話、デジタルカメラ、DVD、PDPなどを中心に形成されている。これと関連してステレオスコピックコンテンツの獲得、保存および再生のために付加的に要求されるシステム情報または制御情報(すなわち、メタデータ)と、これを含むファイルフォーマットに対する標準化が求められている。
韓国公開特許第2006−0056070号(発明の名称:MPEG−4オブジェクト記述子情報および構造を利用した3次元動画処理装置およびその方法、以下「特許文献1」という)では、3次元動画種類、多様なディスプレイ方式および視点数などのような新しく要求される情報を追加した3次元動画オブジェクト記述子が開示されている。また、韓国特許出願第2006−0100258号(発明の名称:ステレオスコピック映像データの伝送方法、以下「特許文献2」という)では、ステレオスコピックコンテンツのデコードされた映像のデータに対するファイルフォーマットであって、ステレオスコピック映像情報を含む映像データ部、ステレオスコピック映像情報をデコードおよび再生するためのメタデータを含むヘッダ部を備えるファイルフォーマットが開示されている。
しかし特許文献1および2は、2次元コンテンツおよび3次元コンテンツがともに構成され提供される場合(すなわち、2次元コンテンツおよび3次元コンテンツが混用される場合)にコンテンツを識別する方法、3次元コンテンツが異なるステレオスコピックカメラおよびディスプレイ情報を有する場合にステレオスコピックカメラおよびディスプレイ情報を提供する方法、2個の符号化ストリームで構成される3次元コンテンツの場合にステレオスコピックトラック参照情報などを提供することができない。
韓国公開特許第2006−0056070号 韓国特許出願第2006−0100258号
本発明は、このような問題を解決するために提案されたもので、その目的は、ステレオスコピックコンテンツの保存方法を提供することにある。
また、本発明の他の目的は、2次元(2D)コンテンツおよび3次元(3D)コンテンツが混用されて提供される場合に、これを多様な3次元端末環境でダウンロードして再生する時、2Dコンテンツおよび3Dコンテンツを識別して、自動でパララックスバリアをオン/オフし、識別した2Dコンテンツおよび3Dコンテンツをディスプレイすることができるステレオスコピックコンテンツの保存方法を提供することにある。
また、本発明の他の目的は、ファイルに保存されるステレオスコピックコンテンツが区間(fragment)別に互いに異なるステレオスコピックカメラおよびディスプレイ情報を有する場合、ステレオスコピックカメラ/ディスプレイ情報を保存する方法を提供することにある。
また、本発明の他の目的は、ステレオスコピックコンテンツが2個の基本符号化ストリームを有する場合、主要(メイン)/付加トラックを特定し、一般的な2D端末との互換性を維持しつつ、各トラックに含まれ使用され得るステレオスコピックカメラ/ディスプレイ情報の冗長性を除去することができるステレオスコピックコンテンツの保存方法を提供することにある。
本発明の他の目的および長所は、以下の発明の詳細によって理解され、本発明の実施形態を参照することによって明らかになるだろう。また、本発明の目的および長所は、特許請求の範囲に記載した手段およびその組合せによって実現され得ることが、当業者には明らかである。
本発明の態様に従い、ステレオスコピックコンテンツを保存する方法において、前記ステレオスコピックコンテンツの符号化ストリームを保存するステップと、前記ステレオスコピックコンテンツが2個以上の基本符号化ストリームを有する場合、前記基本符号化ストリームを主要トラックおよび付加トラックに区分する情報を保存するステップとを含む方法が提供される。
また、本発明の他の態様に従い、ステレオスコピックコンテンツを保存するファイルフォーマット構造において、前記ステレオスコピックコンテンツの符号化ストリームを保存するメディアデータボックスと、前記ステレオスコピックコンテンツが2個以上の基本符号化ストリームを有する場合、前記基本符号化ストリームを主要トラックおよび付加トラックに区分する情報を保存するトラック参照ボックスとを備えるファイルフォーマット構造が提供される。
また、本発明の他の態様に従い、AVC SEIに基づいてステレオスコピックコンテンツを保存する方法において、AVCに基づいて符号化されたステレオスコピックコンテンツを保存するステップを含み、「stereo video information SEI」は、ステレオスコピック映像構成が「side by side」タイプであることを示す情報を含む方法が提供される。
本発明によれば、2次元コンテンツおよび3次元コンテンツから構成されるステレオスコピックコンテンツを容易に保存して提供することができる。2Dコンテンツおよび3Dコンテンツの区分情報によってパララックスバリアを自動で2Dまたは3Dディスプレイに変えることによって、ユーザはステレオスコピックコンテンツを容易に鑑賞することができる。
ステレオスコピックコンテンツを提供するための多様なコンテンツ構成形態を示す図である。 本発明によるステレオスコピックビデオアプリケーションフォーマットのための基本ファイルフォーマットの構造図であって、MPEG−4システム情報がある場合である。 本発明によるステレオスコピックビデオアプリケーションフォーマットのための基本ファイルフォーマットの構造図であって、MPEG−4システム情報がない場合である。 本発明によるステレオスコピックビデオアプリケーションフォーマットの第1実施形態の構造図であって、MPEG−4システム情報がある場合である。 本発明によるステレオスコピックビデオアプリケーションフォーマットの第1実施形態の構造図であって、MPEG−4システム情報がない場合である。 本発明による「ishd」ボックスを「moov」ボックスに含ませた保存フォーマットの構造図であって、(a)は1つのソースで構成された3次元コンテンツの場合であり、(b)は2個のソースで構成された3次元コンテンツの場合である。 本発明による「ishd」ボックスを「mdat」ボックスに含ませた保存フォーマットの構造図であって、(a)は、1つのソースで構成された3次元コンテンツの場合であり、(b)は、2個のソースで構成された3次元コンテンツの場合である。 本発明による「ishd」を「meta」に含ませた保存フォーマットの構造図であって、(a)は、1つのソースで構成された3次元コンテンツの場合であり、(b)は、2個のソースで構成された3次元コンテンツの場合である。 本発明による「ishd」ボックスとLASeRを含めた保存フォーマットの構造図であって、(a)は、「ishd」ボックスとLASeRが「moov」ボックスに含まれた場合であり、(b)は、「ishd」ボックスは「moov」ボックスに含まれ、LASeRは「mdat」ボックスに含まれた場合であり、(c)は、「ishd」ボックスとLASeRが「meta」ボックスに含まれた場合である。 本発明による「ishd」ボックスと「iloc」ボックスが含まれたSS−VAFの構造図であって、ES=1の場合である。 本発明による「ishd」ボックスと「iloc」ボックスが含まれたSS−VAFの構造図であって、ES=2の場合である。 (a)は、AVC内のSEIの基本構造のうち「stereo video information SEI」、「reserved_sei_message」が含まれた部分を示す図であり、(b)は、AVCストリーム内SEIの位置を示す図である。 本発明による「stereo video information SEI」と「reserved_sei_message」を利用したSS−VAFの構造図である。 本発明による「tref」、「ishd」、「iloc」ボックスを有するSS−VAFの構造図であって、ES=2の時、単一フォーマットのステレオスコピックストリームのみでコンテンツが構成された場合の図である。 本発明による「tref」、「iloc」、「svmi」、「scdi」ボックスを有するSS−VAFの構造図である。 本発明によるステレオスコピックコンテンツ保存方法の一実施形態のフローチャートである。 本発明によるステレオスコピックコンテンツ保存方法の他の実施形態のフローチャートである。 本発明によるステレオスコピックコンテンツ保存方法のさらに他の実施形態のフローチャートである。
図1は、ステレオスコピックコンテンツを提供するために構成できる多様なコンテンツ構成形態を示す。図1の(a)は、基本符号化ストリームES(elementary stream)が1個の場合(すなわち、ES=1の場合)であり、図1の(b)は、ES=2の場合である。単一フォーマット(single format)は、ステレオスコピック映像構成方式が同一であり、1つのカメラパラメータおよび1つのディスプレイ情報のみを有するフォーマットである。多重フォーマット(multiple format)は、ステレオスコピック映像構成方式が異なる場合、またはステレオスコピック映像構成方式は同じであるがカメラパラメータが異なる場合、または多数個のディスプレイ情報またはその他情報を有するフォーマットである。
ステレオスコピックコンテンツのタイプには、i)両眼式3次元動画サービスなどのステレオスコピックビデオコンテンツ(Stereoscopic Video Content)、ii)両眼式3次元静止画サービス(例:スライドショー)、2D(モノ)ビデオと3Dデータサービス(特定画面または部分)の結合などの、ステレオスコピックイメージコンテンツ(Stereoscopic Image Content)、iii)2D(モノ)ビデオと3Dビデオ(特定画面または部分)の結合などの、ステレオスコピック混用コンテンツ(Monoscopic and Stereoscopic Mixed Content)がある。
図2および図3は、本発明によるステレオスコピックビデオアプリケーションフォーマットSS−VAF(Stereoscopic video application format)の基本構造図である。
図2は、MPEG−4システム情報があるファイルフォーマット構造であり、図3は、MPEG−4システム情報がないファイルフォーマット構造である。図に示したように、SS−VAFは、「ftyp」、「moov」、「mdat」ボックスを含む。以下、SS−VAFのボックス(box)のシンタックス(syntax)とセマンティックス(semantics)を説明する。本発明によるボックスは、SS−VAFの構造に含まれ、その位置は形態により変わりうるし、ボックスに含まれる情報は、別途に使用可能である。
1.「scty」(Stereoscopic Content Type)
「scty」は、基本的に構成されるコンテンツのタイプを表したものであって、モノスコピックコンテンツ(一般2D画像)と、ステレオスコピックコンテンツを区分する。表1は、「scty」に対するシンタックスを表す。また「scty」を構成する「Stereoscopic_Content_type」は、「ftyp」ボックスおよび他の既存のボックスに含まれて使用されうる。
Figure 2011502375
表1においてStereoscopic_Content_Typeは、ステレオスコピックコンテンツタイプ(Stereoscopic content type)を表し、表2のような意味を有する。
Figure 2011502375
2.「sovf」(Stereoscopic Object Visual Format)
「sovf」は、ステレオスコピックコンテンツの映像構成フォーマット(またはビジュアルフォーマット)を表す。表3は、「sovf」のシンタックスを表す。また、「sovf」内に含まれた「Stereoscoic_Object_VisualFormat」は、既存の他のボックスまたはステレオスコピックコンテンツの保存のために新しく定義されたボックス内に含まれうる。
Figure 2011502375
表3において、「Stereoscopic_Object_VisualFormat」は、ステレオスコピックコンテンツの映像構成情報を表し、表4のような意味を有する。
Figure 2011502375
「full size」は、付加映像のサイズが主要映像のサイズと同一なことを意味し、「half of vertical」は、付加映像のサイズが主要映像の縦半分のサイズであることを意味し、「half of horizontal」は、付加映像のサイズが主要映像の横半分のサイズであることを意味し、「half of vertical/horizontal」は付加映像のサイズが主要映像の縦/横半分のサイズであることを意味する。
3.「ssci」(Stereoscopic Content Information)
「ssci」は、ステレオスコピックコンテンツが含む最小/最大深さ(depth)または視差(disparity)情報であって、これによって3D端末は、3Dディスプレイに適合する立体映像を再生することができる。表5は、「ssci」のシンタックスを表す。また、「ssci」内に含まれた最小/最大深さ情報は、既存の他のボックスまたはステレオスコピックコンテンツの保存のために新しく定義されたボックス内に含みうる。表5で「Max_of_depth(disparity)」は、最大深さ/視差情報(ピクセル単位)を表し、「Min_of_depth(disparity)」は、最小深さ/視差情報(ピクセル単位)を表す。
Figure 2011502375
4.scpi(Stereoscopic Camera Parameter Information)
「scpi」は、ステレオスコピックカメラによって獲得された、または関連ツールによって生成されたステレオスコピックコンテンツのカメラパラメータ情報を表す。表6は「scpi」のシンタックスを表す。また、「scpi」内に含まれた各フィールドは既存の他のボックスまたはステレオスコピックコンテンツの保存のために新しく定義されたボックス内に含みうる。
Figure 2011502375
表6において、「Baseline」は、左右のカメラ間の距離を表し、「focal_Length」は、カメラ中心からイメージ面(image plane)(CCDセンサ)までの距離を表し、「Convergence_point_distance」は、ベースライン(baseline)から収束点(convergence point)までの距離を表す。ここで、収束点は左右のカメラの視線が交差する地点を表す。そして「stereoscopicCamera_setting」は、ステレオスコピック撮影/データのカメラ配置(camera arrangement)を表し、表7のような意味を有する。
Figure 2011502375
5.「iods」(Object Descriptor Box)
「iods」は、BIFSまたはLASeRなどのシーン(scene)情報がある場合、BIFSストリームまたはODストリームの位置を表すためのIOD(Initial Object Descriptor)を表現するための情報を表す。表8は「iods」のシンタックスを表す。
Figure 2011502375
6.「soet」(Stereoscopic One ES Type Box)
「soet」は、エンコーダから出力されるESが1個である場合を表す。表9は、「soet」のシンタックスを表す。
Figure 2011502375
表9において、「stereoscopic_OneES_Type」は、ESが1個で構成されるステレオスコピックデータの映像構成フォーマットの実施形態を表し、表10のような意味を有する。
Figure 2011502375
7.「stet」(Stereoscopic Two ES Type Box)
「stet」は、エンコーダから出力されるESが2個である場合の、各ESのタイプを表す。表11は「stet」のシンタックスを表す。
Figure 2011502375
表11において、「stereoscopic_TwoES_Type」は、2個のESで構成されるステレオスコピックデータの映像構成フォーマットの実施形態を表し、表12のような意味を有する。
Figure 2011502375
8.sstt(Stereoscopic Time Table Box)
「sstt」は、モノスコピックコンテンツおよびステレオスコピックコンテンツがともに使用される場合、シーン内でモノスコピックコンテンツおよびステレオスコピックコンテンツの開始および終了情報を表す。第1実施形態による「sstt」のシンタックスが表13に表示される。また、下記に説明される「sstt」内に含まれた各フィールドは、既存の他のボックスまたはステレオスコピックコンテンツの保存のために新しく定義されたボックス内に含みうる。
Figure 2011502375
表13において、「Mono/stereoscopic_Scene_count」は、ステレオスコピックコンテンツが2次元コンテンツおよび3次元コンテンツからともに構成される場合の、Mono/stereoscopicシーン変化の数を表す。すなわち、2D→3D→2Dで構成されるステレオスコピックコンテンツの場合、「Mono/stereoscopic_Scene_count」は2と設定される。また、2次元コンテンツを有さずに3次元コンテンツのみで構成される場合、「Mono/stereoscopic_Scene_count」は1と設定される。このような情報は、3次元端末で2D/3Dディスプレイの自動変換に使用することができる。
「Mono/stereoscopic_identifier」は、時間別コンテンツタイプを表し、表14のような意味を有する。また、「Mono/stereoscopic_identifier」を用いて、2次元コンテンツまたは3次元コンテンツを識別することができる。例えば、「Mono/stereoscopic_identifier」に1ビットが割当てられ、「Mono/stereoscopic_identifier」が「0」ならば2Dコンテンツを表し、「1」ならば3Dコンテンツを表す。「start_Time」は、時間別コンテンツの開始時間を表す。
Figure 2011502375
表15は、本発明の第2実施形態による「sstt」のシンタックスを表示している。表15において、「start_Time」は、ステレオスコピックコンテンツの開始時間を表し、「End_Time」はステレオスコピックコンテンツの終了時間を表す。
Figure 2011502375
表16は、第3実施形態による「sstt」のシンタックスを表示している。「start_Sample_number」は、モノ/ステレオスコピックコンテンツの開始サンプル番号、またはサンプルの個数を表す。すなわち、サンプルの個数は、モノスコピックまたはステレオスコピックに対応するサンプル全体の個数を意味する。ここで、サンプル(sample)はビデオ、時間連続的な一連のビデオフレームの各々のフレーム(an individual frame of video and a time-contiguous series of video frames)を意味する。
Figure 2011502375
表17は、本発明の第3実施形態による「sstt」のシンタックスを表示している。
Figure 2011502375
表17において、「stereoscopic_compositiontype」は、多様なステレオスコピック構成タイプで構成される場合の、時間別コンテンツタイプを表し、表18のような意味を有する。「End_Sample_number」は、ステレオスコピックコンテンツの終了サンプル番号またはサンプルの個数を表す。
Figure 2011502375
9.「sesn」(Stereoscopic ES Num Box)
「sesn」は、エンコーダから出力される基本符号化ストリームの個数を表す。表19は、「sesn」に対するシンタックスを表す。表19において、「stereoscopic_ESNum」は、ステレオスコピックコンテンツに対してエンコードから出力されるESの個数を表す。
Figure 2011502375
10.「tref」(Track reference box)
「tref」は、1つのトラックから他のトラックを参照することができるように情報を提供するISOベースファイルフォーマットで定義されたボックスである。「tref」は、「trak」(Track Box)に含まれる。表20は、本発明の一実施形態による「tref」のシンタックスを表示している。ここで、「track_ID」は、参照されるトラックの識別符号を表し、「reference_type」は、表21のような意味を有する。
Figure 2011502375
Figure 2011502375
基本符号化ストリームが2個であるステレオスコピックビデオは、2個のトラックが存在し、従来のLASeRのようなシーン記述(scene description)としてLASeR内のビデオ関連の2個のノードと連結される。すなわち、従来の技術ではESが2個であるステレオスコピックビデオは、2個のオブジェクトとして認識されるものである。しかし、ステレオスコピックビデオは、端末で最終的に1つの3Dビデオフォーマットに変換され再生されるため、1つのオブジェクトとして認識されなければならない。すなわち、ステレオスコピックビデオは2個のトラックを用いて構成されるが、これをシーン再生するためには1つの3Dビデオフォーマットに変換されるため、1つのノードのみを用いて連結しなければならない。よって、基本符号化ストリームが2個である場合、2個のトラックの関係性を表す情報が要求され、ステレオスコピックトラック参照情報は、表22に示すように「tref」内の「svdp」で定義され、使用される。LASeRは使用されないが、ESが2個であるステレオスコピックコンテンツを保存するためには、「svdp」などのステレオスコピックトラック参照情報を使用しなければならない。
ステレオスコピックコンテンツが2個のESを含む場合、「tref」により、2個のトラックを1つの主要トラック(main track)と1つの付加トラック(additional track)として識別することができる。また、「tref」により、付加トラックが主要トラックを参照し、ステレオスコピックビデオ関連ステレオスコピックカメラおよびディスプレイ情報を1つのトラックのみに保存することができる。その結果、情報の冗長性を除去することができる。また、ステレオスコピックコンテンツが2個のトラックを有するとしても、LASeRのビデオノードの1個に連結することができるという長所を有する。
ステレオスコピックコンテンツにより、多様なステレオスコピック映像構成フォーマットおよびカメラパラメータを支援することを可能とするために、本発明において初期ステレオスコピックヘッダ(initial stereoscopic header:ishd)の構造を提案する。本発明の実施形態によれば、「ishd」に含まれる情報を、別途に分離して使用することができる。
ステレオスコピックストリーム内に多様なステレオスコピックフォーマットおよびカメラパラメータが存在する場合、各ステレオスコピックストリーム、各ステレオスコピックストリームの開始および長さの情報は、「iloc」によって識別され、各区間にitem_IDが割当てられる。よって、「ishd」は、item_IDに基づいて各々のステレオスコピックフォーマットまたはカメラパラメータ情報を提供しなければならない。ここで、アイテム(item)は、1つのシーケンスでステレオスコピック区間とモノスコピック区間が共に存在する場合、1つのステレオスコピック区間を意味する。
また、ステレオスコピックストリーム内に3個のステレオスコピック区間があり、各区間に適用された「ishd」情報が異なる場合、ステレオスコピック区間はitem_IDにより識別され、各々の情報を記述する。一方、各区間に適用された「ishd」情報が同じである場合、第2および第3のステレオスコピック区間は、第1のステレオスコピック区間と同じ「ishd」情報を含む。このような構造は、「ishd」内に含まれる情報の冗長性を除去することができるという長所がある。
図4は、本発明によるSS−VAFの一実施形態の構図であって、MPEG−4システム情報がある場合である。図5は、本発明によるSS−VAFの他の実施形態の構図であって、MPEG−4システム情報がない場合である。
一方、モノスコピックおよびステレオスコピックコンテンツが混用されている場合、モノスコピックまたはステレオスコピックコンテンツがいつ開始または終了するかを判定するために、区分情報が必要である。これはモノ/ステレオスコピックコンテンツの開始/終了情報、サンプルの2D/3Dの識別符号、およびそこに含まれるサンプル(AU)の個数に従って識別することができる。
図6ないし図8は、図1のような多様なコンテンツ構成形態を支援するための保存フォーマットの概念的な構造を提供する。基本的に保存フォーマットの構造は大きく「ftyp」ボックス、「moov」ボックスおよび「mdat」ボックスで構成される。「ftyp」ボックスは、ファイルタイプを定義するボックスであって、ステレオスコピックまたはモノスコピック/ステレオスコピック混用コンテンツファイルであることを表すフィールドを含むことによって、3次元コンテンツファイルであることを表す。「moov」ボックスは、メディアデータを再生するためのすべてのシステム(メタ)情報を含み、「mdat」ボックスは、実際のメディアデータを含む。このような構造に基づきステレオスコピックコンテンツに対する新しい付加情報が要求され、このような付加情報の位置に応じて保存フォーマット構造は変化する。
図6は、3次元コンテンツを構成するソースの個数および新しい付加情報を含む「ishd」が「moov」ボックスに含まれる保存フォーマット構造を表す。3次元コンテンツに対してソースが1個である場合(図6(a))は、あるフレームに、左右の映像情報が両方含まれる(例:side by side)。ソースが2個である場合(図6(b))、左右の映像情報は各々1つのフレームに含まれる。「moov」ボックス内のトラックの個数は、含まれたメディアデータの個数に応じて変わる。「moov」ボックス内のトラックは、「mdat」ボックスに含まれるメディアデータを再生するためのすべてのシステム(メタ)情報を含む。
このような保存フォーマットは、新しい付加情報およびこれを支援するための構造が要求とされる。よって、本発明は「ishd」を新たに定義し、これを「moov」ボックスのトラック内に含める。「ishd」の位置は、「moov」ボックス内、または保存フォーマット内において変わることができる。
図7は、先に定義された「ishd」情報を「mdat」ボックスに有する保存フォーマット構造を表す。図7(a)は1つのソースで構成された3次元コンテンツの場合であり、図7(b)は、2個のソースで構成された3次元コンテンツの場合である。これは既存の「moov」構造をそのまま維持しながら、「ishd」ストリームが「mdat」ボックス内に含まれているという情報を保存フォーマットに含めることによって可能である。
図8は、先に定義された「ishd」情報を「meta」ボックスに有する保存フォーマット構造を表す。図8(a)は、1つのソースで構成された3次元コンテンツの場合であり、図8(b)は、2個のソースで構成された3次元コンテンツの場合である。
表22は、「ishd」情報が「mdat」ボックスに含まれているという情報を知らせるための構造を表し、このような構造は、「stsd(sample description)」ボックス内に含まれる。
Figure 2011502375
図9は、図6ないし8の構造に基づきシーン記述子情報が含まれる場合の保存フォーマット構造を表す。シーン記述子は、多様なマルチメディアの自由なシーン構成およびユーザとのインタラクションのためのものであって、本発明ではレーザー(LASeR)を使用する。
図9(a)は、「moov」ボックス内にシーン記述子ストリームを保存するために別途のボックスを含む保存フォーマットを表す。図9(b)は、「mdat」ボックス内にシーン記述子ストリームを有する保存フォーマットを表す。「moov」ボックスは、シーン記述子ストリームが「mdat」ボックス内に含まれることを知らせるためのトラックを別途に有し、「stsd」ボックスは、シーン記述子ストリームに関する情報を有する。すなわち、トラック内の「stsd」ボックスを検索して、このトラックがどんな情報(シーン記述子/ビデオ/オーディオ)を表しているのかを分析し、この分析結果に基づいて「mdat」ボックスに保存された情報を用いてデコードする方法である。図9(c)は、先に定義されたシーン記述子情報を「meta」ボックスに有する保存フォーマット構造を表す。
表23ないし表25は、図1の3次元コンテンツ構成形態をすべて支援する「ishd」構造の実施形態を表す。
Figure 2011502375
Figure 2011502375
Figure 2011502375
表23ないし表25において、「num_MonoStereo_scene」は、ステレオスコピックコンテンツが2次元コンテンツおよび3次元コンテンツで構成される場合の、シーンの個数を表す。また、ステレオスコピックコンテンツが多様な3次元コンテンツで構成される場合の、シーンの個数を表す。例えば、ステレオスコピックコンテンツが(2D)(3D)(2D)で構成される場合、Num_MonoStereo_scene=3になる。また3ステレオスコピックコンテンツがside by side(field sequential)方式で構成される場合、num_MonoStereo_scene=2となる。さらに、ステレオスコピックコンテンツが単一フォーマットの3次元コンテンツのみからなる場合、num_MonoStereo_scene=1となる。
「start_sample_index」は、各コンテンツの開始サンプル(すなわち、一般的なフレーム番号)番号または各コンテンツタイプに応じた含まれるサンプルの個数として使用されることができる。「numofES」は「mdat」ボックスに含まれたビデオ符号化ストリームの個数を表す。
「Composition_type」は、2次元コンテンツおよび3次元コンテンツのコンテンツフォーマットを識別するための情報を表す。「start_sample_index」および「Compostion_type」を、2D/3Dディスプレイモードを支援する多様な3次元端末機において自動ディスプレイオン/オフするための基本情報として活用することができる。「Composition_type」は表26のような意味を有する。
Figure 2011502375
「LR_first」は、左右の映像のうち優先視される映像を表したものであって、左の映像と右の映像のうち、先にエンコーディングされるイメージを知らせる。
「stereoscopicCameraInfo」オブジェクトは、3次元コンテンツに対するカメラパラメータ情報を表したものであって、表27は、「stereoscopicCameraInfo」オブジェクトの一実施形態を表す。本実施形態によるカメラパラメータ情報は、既存の他のボックス内または新しく定義されたボックスに含まれ得る。表27で、「stereoscopicCamera_setting」は、3次元コンテンツを製作または撮影する時のカメラの配置形態を表したもので、「平行式(parallel)」または「交差式(cross)」を表す。「Baseline」は、ステレオスコピックカメラ間の距離を表し、「focal_Length」は、レンズからイメージ面までの距離を表す。また、「ConvergencePoint_distance」は、左右のカメラを連結するベースラインから収束点までの距離を表す。
Figure 2011502375
「stereoscopicContentsInfo」オブジェクトは、3次元コンテンツを表示するための最小限の情報を表す。表28は、「stereoscopicContentsInfo」オブジェクトの一実施形態を表し、「stereoscopicContentsInfo」に含まれる情報は、既存の他のボックス内または新たに定義されたボックス内に含むことができる。「Max_disparity」は、3次元コンテンツの最大視差(disparity)の大きさを表し、「Min_disparity」は3次元コンテンツの最小視差の大きさを表す。
Figure 2011502375
「stereoscopicCameraInfo」および「stereoscopicContentsInfo」内の情報は、MPEG−7メタデータなどの別途の記述として表現し、保存することができる。
図10は、ES=1である場合のSS−VAFの一実施形態の構造図である。
「ftyp」ボックスは、ステレオスコピックコンテンツを含むか否かを表す。符号化ストリームが全体3Dである場合、符号化ストリームが2D/3D混用のストリームで構成される場合、それらをステレオスコピックコンテンツとして見なす。
ステレオスコピックコンテンツが2D/3Dのストリームで構成される場合、2D/3Dのストリームの開始情報および長さ情報が必要となる。開始情報および長さ情報のために、ISOベースファイルフォーマット(11496-12)の既存ボックスである「iloc」ボックスを利用する。「iloc」(item location)ボックスは、「meta」ボックスに含まれる。「iloc」ボックスは、ステレオスコピックコンテンツの場合、保存ファイル内のステレオスコピック区間の位置を提供する。
また、2Dストリームおよび3Dストリームの区別に関連する情報は、「ishd」ボックスによって獲得する。2D/3D混用ストリームの場合、複数の3Dストリームが含まれても、複数の3Dストリームが同一の情報ならば(すなわち、単一フォーマットならば)、3Dストリームに関連する情報は、一つの「ishd」を参照することによって獲得する。
単一フォーマットの3Dストリームのみで構成されたステレオスコピックコンテンツでは、「iloc」ボックスを使用せずに「ishd」ボックスのみを使用して、ステレオスコピックデータを表現することができる。またES=1であるとき、3Dストリームが多重フォーマットで構成される場合は、「iloc」ボックスを用いて各フォーマットのオフセット(offset)/長さ(length)値を知り、各フォーマット情報は「ishd」ボックスによって獲得する。この場合「ishd」ボックスは、多重フォーマットに関する情報を有している。
図11は、ES=2である時、SS・VAFの一実施形態の構造図である。ES=2である場合、左右のストリーム情報は対応する「trak」ボックスに含まれる。前述したように、ステレオスコピックデータは所定のフォーマットに変換されてディスプレイされるため、左右のストリーム情報は2個のトラックで構成されるが、1つのオブジェクトとして認識されるために相関関係を表す必要がある。例えば、左の映像がメイン映像であり、右の映像が付加映像ならば、右の映像ストリーム情報を含む「trak」ボックスが、左の映像ストリーム情報を含む「trak」ボックスとの関係性を表現することによって、「ishd」ボックスのうちで重複したものを除去することができる。右の映像ストリーム情報に含まれる「ishd」のカメラパラメータおよびディスプレイ情報が、左の映像ストリーム情報に含まれる「ishd」と同一であるならば、別途に記述せず、左の映像ストリーム情報に含まれる「ishd」を使用することができる。このような関係を表現するために、本発明では「tref」ボックスおよび「svdp」ボックスを提案する。
左右ストリームで保存された3Dストリームに関して多重フォーマットの3Dストリームで構成される場合は、各フォーマットに対応する3Dストリームの区分、開始および長さ情報を知らなければならない。開始および長さ情報は、ISOベースファイルフォーマット(11496-12)の既存ボックスである「iloc」によって獲得する。また、多重フォーマットの3Dストリームの区分に関連する情報は、「ishd」ボックスによって獲得する。表29は、単一フォーマットの「ishd」ボックスのシンタックス実施形態を表す。
Figure 2011502375
「Is_camParamS」は、カメラパラメータが存在するか否か、「Is_disInfo」は、ステレオスコピックコンテンツディスプレイ情報が存在するか否か、「Bseline」は、左右のカメラの距離、「focallength」は、レンズからイメージ面(フィルム)までの距離、「convergence_distance」は、左右のカメラを連結するベースラインの中心から左右のカメラの視線が交差する収束点までの距離を表す。「convergence_distance」は、平行軸カメラの場合、無限大の値を有し、これを表示するためにすべてのビットを1とする。
また、「Is_camera_cross」は、「1」のとき交差軸カメラ、「0」のとき平行軸カメラを表し、「rotation」は、オブジェクトまでのカメラ位置角度(camera position angle)を表す。「translation」は、ステレオカメラが移動したか否か(すべてのビットが0である場合、ステレオカメラの動きはない)、「MinofDisparity」は、左右の映像の最小視差の大きさ、「MaxofDisparity」は、左右の映像の最大視差の大きさを表す。
表30は、多重フォーマットの「ishd」ボックスのシンタックス実施形態を表す。「item_count」は、多重フォーマットの場合、フォーマットの情報を記述する個数を表し、「item_ID」は、各フォーマットの整数の名前(integer name)を表し、ステレオスコピックコンテンツ内の多様なステレオスコピックフォーマットを識別するために使用される。ここで、「item_ID」は、「iloc」ボックスのitem_IDと連動して使用される。
Figure 2011502375
以下、AVC(Advanced Video Coding)、SEI(Supplemental enhancement information)に対して説明する。SEIは、デコード、ディスプレイなどに関連したメッセージ情報を含む「stereo video information SEI」情報を含んでおり、SEIメッセージは、AVCストリーム内に伝送される。
図12は、NALユニットを含む単一ビデオESのフローチャートであって、図12(a)はAVC内のSEIの基本構造のうち「stereo video information SEI」、「reserved_sei_message」が含まれた部分を表し、図12(b)はAVCストリーム内のSEIの位置を表す。表31は、「stereo video information SEI」メッセージを表す。
Figure 2011502375
「field_views_flag」は、フィールドベース(field based)ステレオスコピックストリームが存在するか否かを表す。「top_field_is_left_view_flag」が「1」の場合、垂直インターレース(vertical interlaced)フォーマットで構成されたステレオスコピックコンテンツ(左のビュー優先)、「0」の場合、垂直インターリーブ(vertical line interleaved)フォーマットで構成されたステレオスコピックコンテンツ(右のビュー優先)を表す。「Current_frame_is_left_view_flag」が「1」の場合、現在フレームが左のビューであることを表し、「0」の場合、現在フレームが右のビューであることを表す。「next_frame_is_second_view_flag」が「1」の場合、現在フレームと次のフレームでステレオスコピック映像を構成することを、「0」の場合、現在フレームと以前フレームでステレオスコピック映像を構成することを表す。「Left_view_self_contained_flag」が「1」の場合、右のビューとの相関を持たず、独立ストリームでコーディングしたものを、「0」の場合、右のビューとの相関に基づいてストリームをコーディングしたものを表す。「right_view_self_contained_flag」は「1」の場合、左のビューとの相関を持たず、独立ストリームでコーディングしたものを、「0」の場合、左のビューとの相関に基づいてストリームをコーディングしたものを表す。
「stereo video information SEI」情報は、「stereoscopic_composition_type」のうちで表32のフォーマットを含んでいる。一方、「side by side」フォーマットは支援しない。
Figure 2011502375
以下、既存のAVC SEI情報を活用したステレオスコピックコンテンツをサービスするための方法および保存フォーマットを提案する。これは、ステレオスコピックコンテンツがAVCによって符号化された場合のみ可能である。
既存の「stereo video information SEI」に基づき各ステレオスコピックストリームに要求されるカメラパラメータおよびディスプレイ情報を追加する形態であって、「reserved_sei_message」を用いたSS−VAFを提案する。また、「stereo video information SEI」を表33のように拡張して、使用することができる。「side_by_side_flag」が「1」である場合、左のビューを優先し、1フレーム内の左右の映像として構成される。「0」である場合、右のビューを優先し、1フレーム内の左右の映像として構成される。表33で「C」は、シンタックスのカテゴリーを意味し、「u(1)」は1ビットを使用する「符号なし整数(unsigned integer)」を意味する。
Figure 2011502375
表34は、AVCのSEI情報のうち「reserved_sei_message(payloadSize)」を用いて、ステレオスコピックカメラ情報を定義する。ここで、他のカメラ情報を追加することができ、追加した情報は別途に使用することができる。これに基づき、ステレオスコピックコンテンツストリームに対するカメラパラメータ情報を獲得する。
Figure 2011502375
表35は、AVCのSEI情報のうち「reserved_sei_message(payloadSize)」を用いて、ステレオスコピックコンテンツを表示するために要求される情報を定義する。表35に定義される情報に基づき、ステレオスコピックコンテンツ視差の値を抽出する。
Figure 2011502375
ただし、上記の情報を1つのSEI_messageに統合して、ステレオカメラおよびディスプレイ情報を提供することができる。
図13は、Stereo video informationおよびReserved SEIを用いたSS−VAFを表す。図示されたアプリケーションフォーマットにおいて、LASeRは選択的に含まれる。
ステレオスコピックコンテンツが2D/3D混用のストリームで構成される場合、「iloc」ボックスによって区分された3Dストリームの区間の間は、AVCストリームSEI message内で定義された3Dストリーム情報(「stereo video information SEI」、「stereo camera information SEI」、「stereo display information SEI」)が獲得される。単一フォーマットの3Dストリームのみで構成される場合は、ステレオスコピックコンテンツを、AVCストリームSEI message内で定義された3Dストリーム情報(「stereo video information SEI」、「stereo camera information SEI」、「stereo display information SEI」)を使用して表現することができる。
図14は、ES=2であるとき、単一フォーマットのステレオスコピックストリームのみで構成される場合のSS−VAFの構造図である。ES=2である場合、左右のストリーム情報は各々の対応する「trak」に含まれる。ここで、左右のストリームは互いに相関関係を表す必要がある。例えば、左の映像がメイン映像であり、右の映像が付加映像ならば、右の映像ストリーム情報を含む「trak」ボックスが、左の映像ストリーム情報を含む「trak」ボックスとの関係性を表現することによって、「ishd」ボックスのうちで重複したものを除去することができる。このような関係性は、ISOベースファイルフォーマットに含まれた「tref」ボックスを利用する。これは再生に必要なすべてのtrak_IDを記述することができる。すべてのtrak_IDは、右映像(付加映像)ストリームの「trak」に、「tref」と共に記述される。
表36は、多様なステレオスコピック構成フォーマットおよびカメラパラメータを支援する場合の「ishd」ボックスのシンタックス実施形態を表す。「item_ID」は、次の情報が定義されるアイテムのIDを表し、1以上の値を有する。「current_indicator」が「1」である場合、次に記述される情報の有効性を表し、「0」である場合、次に記述される情報が先に記述された情報と同一であることを意味する。ただし、Item_ID=1である場合は、以後記述される情報がないことを意味する。すなわち、端末は「current_indicator」に基づいて、次に記述される情報の有効性を判定し、0である場合は先に記述された「ishd」情報と同一であることを判定することになる。
また、「LR_first」は左映像および右映像の基準位置選定、「Is_camParamS」は、カメラパラメータが存在するか否か、「Is_displaySafeInfo」は、ステレオスコピックコンテンツディスプレイ情報が存在するか否かを表す。また「Baseline」は、左右のカメラの距離、「focallength」は、CCDからイメージ面(フィルム)までの距離を表す。「Is_camera_crosS」は、「1」である場合、交差軸カメラ、「0」である場合、平行軸カメラを表す。
Figure 2011502375
また、「convergence_distance」は、ベースラインの中心から収束点までの距離(平行軸カメラの場合、無限大の値を有する。すべてのビットが1である場合、無限大の距離を表す)、「rotation」は、オブジェクトに対するカメラ位置角度、「translation」は、ステレオカメラの移動を表す(すべてのビットが0である場合、ステレオカメラに動きはない)。また「VerticalDisparity」は、左右の映像の垂直視差の大きさ、「MinofDisparity」は、左右の映像の最小水平視差の大きさ、「MaxofDisparity」は、左右の映像の最大視差の大きさ、「item_count」は、次の配列内のエントリーの個数を表す。
表37は、多様なカメラパラメータを支援する場合の「ishd」ボックスの第1実施形態のシンタックスを表す。ここで、ステレオスコピック構成フォーマットは同一であると仮定し、すぐ前の「ishd」情報が参照される。また「ishd」に含まれるカメラパラメータおよびディスプレイ情報は、別途のボックスで分離して保存され得る。
Figure 2011502375
表38は、多様なカメラパラメータを支援する「ishd」ボックスの第2実施形態のシンタックスを表す。ステレオスコピック構成フォーマットは同一であると仮定し、すぐ前の「ishd」が参照される。
Figure 2011502375
表39は、多様なカメラパラメータを支援する場合の「ishd」ボックスの第3実施形態のシンタックスを表す。ステレオスコピック構成フォーマットは同一であると仮定し、「cameParamS」および「displaysafeInfo」が同じ所定のItem_IDを参照する。
表39において、「Is_ref」が「0」である場合、参照されるカメラパラメータおよびディスプレイ情報がないことを表し、「1」である場合、参照されるItem_IDが有ることを表す。「current_refIndex」は、参照されるItem_IDを表す。
Figure 2011502375
表40は、多様なカメラパラメータを支援する場合の「ishd」ボックスの第4実施形態のシンタックスを表す。ステレオスコピック構成フォーマットは同一であると仮定し、「cameParamS」および「displaysafeInfo」が互いに異なる任意のItem_IDを参照する。
Figure 2011502375
表40において、「Is_camParamSref」が「0」である場合、参照されるカメラパラメータ情報がないことを表し、「1」である場合、参照されるItem_IDが有ることを表す。「Is_displaySafeInforef」が「0」である場合、参照されるディスプレイsafe情報がないことを表し、「1」である場合、参照されるItem_IDが有ることを表す。「current_cameraIndex」は参照されるItem_IDを表し、「current_displayIndex」は参照されるItem_IDを表す。
「ishd」ボックスは、ステレオスコピックビデオメディア情報を記録する「svmi(stereoscopic video media information)」ボックスと、カメラパラメータおよびディスプレイ情報を記録する「scdi(stereoscopic camera and display information)」ボックスとに分離することができる。「svmi」ボックスは、必須(mandatory)であり、「scdi」ボックスは必須でないため、「ishd」ボックスを「svmi」ボックスと「scdi」ボックスとに分離するのは不必要な情報を除去するのに実益がある。
「svmi」ボックスは、ステレオスコピックビジュアルタイプおよび区間情報を提供する。具体的に、ステレオスコピックビデオメディア情報は、ステレオスコピック映像構成タイプ情報と、左の映像および右の映像のうちで先にエンコーディングされる映像に関する情報と、ステレオスコピックコンテンツの基本符号化ストリームがステレオスコピック区間からモノスコピック区間に、またはモノスコピック区間からステレオスコピック区間に変更される場合の、区間の数に関する情報と、連続するサンプルの数または開始サンプル番号をカウントする情報と、現在のサンプルがステレオスコピックであるか否かに関する情報などを含む。
「scdi」ボックスは、カメラパラメータが存在するか否か、左右のカメラ間の距離、左右のカメラの配置、メインビューカメラからサブビューカメラまでの相対角度、および左右の映像間の最大視差と最小視差などを含む。表41は、「scdi」ボックスのシンタックスの一実施形態である。
Figure 2011502375
示されるように「tref」ボックスによって、各トラックに含まれる「scdi」情報の冗長性を除去することができる。ES=2である場合、各トラックの「iloc」ボックスにより、「scdi」情報を提供するために、ステレオスコピック区間を区分する。ここで、各トラックのステレオスコピック区間は、同一のitem_IDを有し、同一のカメラおよびディスプレイ情報を有する。「tref」の「svdp」によって、基本符号化ストリームは、主要/付加トラックに区分される。1つのトラックにのみ「iloc」ボックスが含まれるが、3Dディスプレイを行う場合、ステレオスコピック区間別に「iloc」ボックスを同期することによって、再生が可能である。
また「tref」ボックスによって、各トラックに含まれる同一のステレオスコピックビデオメディア情報(「svmi」)の冗長性を除去することもできる。「ftyp」ボックスによって、ステレオスコピックコンテンツを認識した後、「tref」ボックスの「svdp」ボックスによって、主要/付加トラックに区分される。1つのトラックにのみ「svmi」ボックスが存在すれば、他のトラックは自動的に認識されることができる。「svmi」ボックスは必須であるため、主要/付加トラック内に存在することもでき、場合によって主要トラック内にのみ存在することができる。
図15はES=2である場合、SS−VAFの一実施形態の構造図である。図15に図示されたSS−VAFは、「svmi」ボックスおよび「scdi」ボックスを備える。
ステレオスコピックコンテンツを構成するESが2個の場合、2個のトラック(「trak」)が存在し、これは1つの主要トラックと付加トラックに区分することができる。これに伴い付加トラック内「tref」の「svdp」を用いて、主要トラックを参照して関連「scdi」情報に含まれる情報を提供する。このような構造により、各トラックに含まれる同一の「scdi」情報の冗長性を除去する長所を有する。ここで、track_IDは、参照されるトラックのIDを表す。また、reference_typeが「svdp」ならば、トラックが参照トラックに対してステレオスコピックカメラおよびディスプレイ情報を含むことを表す。
ユーザが所定の映像を3Dディスプレイモードで視聴する途中、3Dディスプレイモードから2Dディスプレイモードに変更する場合、端末で主要トラックに対応する映像をディスプレイすることによって、2Dディスプレイモードを満足する。一方、ESが2個のトラックでは、基本符号化ストリームの中間に同一のモノスコピックデータが存在することができる。モノスコピックデータでは、同一のコンテンツが2個のトラックに保存される。従って、モノスコピックデータは、3Dでディスプレイされ得ないデータである。このような場合、端末では2個のトラックのうち、どのトラックのモノスコピックデータをディスプレイするのか決定しなければならないが、本発明によって区分された主要トラックに対応する映像をディスプレイするようにする。
また、ステレオスコピックビデオのESが2個の場合、2個のトラックが存在する。従来のLASeRなどのシーン記述子によって、ステレオスコピックビデオが2個のオブジェクトとして認識され、LASeR内のビデオ関連ノードの2個に連結される。しかし、ステレオスコピックビデオは、端末で最終的に1つの3Dビデオフォーマットに変換され再生されなければならないため、LASeRに1つのオブジェクトとして認識されなければならない。すなわち、ステレオスコピックビデオをシーン再生するために、ステレオスコピックビデオを1つの3Dビデオフォーマットに変換する必要があるため、1つのノードのみを使用して連結される。よって本実施形態により、「tref」内の「svdp」を用いて、ステレオスコピックビデオは主要/付加トラックに区分され、LASeR内のビデオ関連ノードは、主要トラックに対応する「trak」_IDまたはメディアストリームのみをリンクする。
図16は、本発明によるISOベースメディアファイルフォーマットでステレオスコピックコンテンツを保存する方法の一実施形態のフローチャートである。まず、対象のステレオスコピックコンテンツをISOベースメディアファイルフォーマットの「mdat」ボックスに保存する(S1602)。次に、ステレオスコピックコンテンツのステレオスコピックビデオメディア情報と、ステレオスコピックカメラおよびディスプレイ情報を、ステレオスコピックコンテンツのメタデータとして「moov」ボックスに保存する(S1604、S1606)。
図17は、本発明によるISOベースメディアファイルフォーマットでステレオスコピックコンテンツを保存する方法の他の実施形態のフローチャートである。
まず、対象のステレオスコピックコンテンツを、ISOベースメディアファイルフォーマットの「mdat」ボックスに保存する(S1702)。次に、ステレオスコピックコンテンツの基本符号化ストリームが2個以上の場合、基本符号化ストリームを主要トラックまたは付加トラックに区分する情報(「svdp」)をISOベースメディアファイルフォーマットの「tref」ボックスに保存する(S1704)。次に、主要トラックにのみリンクされるビデオ関連ノードを備えるステレオスコピックコンテンツに対するLASeRを保存する(S1706)。ここで、LASeRにリンクされる部分は使用されず、「tref」のみ使用される。
図18は、本発明によるステレオスコピックコンテンツ保存方法のまた他の実施形態のフローチャートである。ここでは前述したAVC SEIを用いて、ステレオスコピックコンテンツを保存する。まず、AVCによって、符号化されたステレオスコピックコンテンツを保存する(S1802)。次に「reserved_sei_message」を用いて、ステレオスコピックコンテンツの各ストリームに要求されるカメラパラメータおよびディスプレイ情報を保存する(S1804)。
ここで「stereo video information SEI」は、ステレオスコピック映像構成が「side by side」タイプであることを示す情報を追加で含む。カメラパラメータは、左右のカメラ間の距離、左右同一焦点距離(focal_length)、ベースラインからコンバージェンスポイント(収束点)までの距離、左右のカメラが交差配列する場合の、左右のカメラの回転(rotation)と移動(translation)のうち、少なくとも一つを含む。ディスプレイ情報は、左右の映像間の最大視差と最小視差を含む。
上述したように、本発明の方法は、プログラムで具現され、コンピュータ読み取り可能な記録媒体(CD−ROM、RAM、ROM、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスクなど)に保存することができる。このような過程は当業者であれば容易に実施することができるので、ここでは詳述しない。
本発明を特定の実施形態に関連して説明してきたが、当業者であれば、添付の特許請求の範囲で定義される本発明の技術的思想および範囲から逸脱することなく、様々な置換、変形および変更を行うことが可能であることを理解されよう。

Claims (20)

  1. ステレオスコピックコンテンツを保存する方法であって、
    前記ステレオスコピックコンテンツの符号化ストリームを保存するステップと、
    前記ステレオスコピックコンテンツが2個以上の基本符号化ストリームを有する場合、前記基本符号化ストリームを主要トラックおよび付加トラックに区分する情報をトラック参照ボックスに保存するステップと
    を含むことを特徴とする方法。
  2. 前記主要トラックにのみリンクされるビデオ関連ノードを備える前記ステレオスコピックコンテンツに対するシーン記述情報を保存するステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記トラック参照ボックスが、ISOベースメディアファイルの「tref」ボックスであることを特徴とする請求項1に記載の方法。
  4. 前記シーン記述情報のビデオ関連ノードが、前記主要トラックに対応するトラックIDまたはメディアストリームにリンクされることを特徴とする請求項2に記載の方法。
  5. 前記ステレオスコピックコンテンツが、2次元ディスプレイモードで視聴される場合、前記主要トラックの映像のみディスプレイされるように前記ステレオスコピックコンテンツが保存されることを特徴とする請求項2に記載の方法。
  6. 前記ステレオスコピックコンテンツの中間で前記基本符号化ストリームの間に同一のモノスコピックデータが存在する場合、前記主要トラックの映像のみディスプレイされるように前記ステレオスコピックコンテンツが保存されることを特徴とする請求項2に記載の方法。
  7. 前記ステレオスコピックコンテンツの区間情報に関するステレオスコピックビデオメディア情報を、前記ステレオスコピックコンテンツのメタデータとして保存するステップをさらに含むことを特徴とする請求項1に記載の方法。
  8. 前記主要トラックまたは付加トラックのいずれか、または前記主要トラックおよび付加トラックの両方に、前記ステレオスコピックビデオメディア情報が提供されることを特徴とする請求項7に記載の方法。
  9. 前記ステレオスコピックコンテンツに対するステレオスコピックカメラおよびディスプレイ情報を、前記ステレオスコピックコンテンツのメタデータとして保存するステップをさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記主要トラックまたは付加トラックのいずれかに前記ステレオスコピックカメラおよびディスプレイ情報が提供されることを特徴とする請求項9に記載の方法。
  11. 前記ステレオスコピックカメラおよびディスプレイ情報が、ステレオスコピック区間に対するカメラおよびディスプレイ情報を提供するステレオスコピック区間の個数、ステレオスコピック区間を識別するアイテムID、参照アイテムIDが存在するか否かに関する情報、参照アイテムIDのうち少なくとも1つを含むことを特徴とする請求項9に記載の方法。
  12. ステレオスコピックコンテンツを保存するファイルフォーマット構造であって、
    前記ステレオスコピックコンテンツの符号化ストリームを保存するメディアデータボックスと、
    前記ステレオスコピックコンテンツが2個以上の基本符号化ストリームを有する場合、前記基本符号化ストリームを主要トラックおよび付加トラックに区分する情報を保存するトラック参照ボックスと
    を備えることを特徴とするファイルフォーマット構造。
  13. 前記主要トラックにのみリンクされるビデオ関連ノードを備える前記ステレオスコピックコンテンツに対するシーン記述情報を保存するボックスをさらに備えることを特徴とする請求項12に記載のファイルフォーマット構造。
  14. 前記ステレオスコピックコンテンツの区間情報に関するステレオスコピックビデオメディア情報を、前記ステレオスコピックコンテンツのメタデータとして保存するボックスをさらに備えることを特徴とする請求項12に記載のファイルフォーマット構造。
  15. 前記ステレオスコピックコンテンツに対するマルチステレオスコピックカメラおよびディスプレイ情報を、前記ステレオスコピックコンテンツのメタデータとして保存するボックスをさらに備えることを特徴とする請求項12に記載のファイルフォーマット構造。
  16. 前記ファイルフォーマット構造が、ISOベースメディアファイルフォーマットであり、前記トラック参照ボックスが、「tref」ボックスであることを特徴とする請求項12に記載のファイルフォーマット構造。
  17. AVC SEIに基づいてステレオスコピックコンテンツを保存する方法であって、
    AVCに基づいて符号化されたステレオスコピックコンテンツを保存するステップを含み、
    「stereo video information SEI」が、ステレオスコピック映像構成が「side by side」タイプであることを示す情報を含むことを特徴とする方法。
  18. 「reserved_sei_message」に基づいて前記ステレオスコピックコンテンツの各ストリームに要求されるカメラパラメータおよびディスプレイ情報を保存するステップをさらに含むことを特徴とする請求項17に記載の方法。
  19. 前記カメラパラメータが、左右のカメラ間の距離、左右同一焦点距離(focal_length)、ベースラインから収束点までの距離、左右のカメラが交差配列する場合の、左右のカメラの回転(rotation)と移動(translation)のうち少なくとも1つを含むことを特徴とする請求項17に記載の方法。
  20. 前記ディスプレイ情報が、左右の映像間の最大視差と最小視差を含むことを特徴とする請求項17に記載の方法。
JP2010528784A 2007-10-10 2008-06-19 ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイルの保存方法 Pending JP2011502375A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20070101964 2007-10-10
KR20070119740 2007-11-22
KR20070122945 2007-11-29
KR20070133764 2007-12-18
KR20080016280 2008-02-22
PCT/KR2008/003482 WO2009048216A1 (en) 2007-10-10 2008-06-19 Metadata structure for storing and playing stereoscopic data, and method for storing stereoscopic content file using this metadata

Publications (2)

Publication Number Publication Date
JP2011502375A true JP2011502375A (ja) 2011-01-20
JP2011502375A5 JP2011502375A5 (ja) 2011-07-28

Family

ID=40549343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010528784A Pending JP2011502375A (ja) 2007-10-10 2008-06-19 ステレオスコピックデータの保存および再生のためのメタデータ構造ならびにこれを利用するステレオスコピックコンテンツファイルの保存方法

Country Status (6)

Country Link
US (1) US8396906B2 (ja)
EP (1) EP2198625A4 (ja)
JP (1) JP2011502375A (ja)
KR (1) KR101398168B1 (ja)
CN (2) CN103281589A (ja)
WO (1) WO2009048216A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502382A (ja) * 2007-10-19 2011-01-20 サムスン エレクトロニクス カンパニー リミテッド 立体映像データを記録する方法
WO2012147621A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2012147622A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像処理装置、及び、画像処理方法
WO2012153450A1 (ja) * 2011-05-11 2012-11-15 パナソニック株式会社 動画像送信装置および動画像送信方法
WO2012157394A1 (ja) * 2011-05-19 2012-11-22 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置
WO2012165218A1 (ja) * 2011-05-30 2012-12-06 ソニー株式会社 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
WO2013058359A1 (ja) * 2011-10-19 2013-04-25 シャープ株式会社 画像ファイル生成装置、画像ファイル読込装置、画像ファイル生成方法、画像ファイル読込方法およびプログラム
JP2020537367A (ja) * 2017-10-12 2020-12-17 キヤノン株式会社 メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
WO2021002165A1 (ja) * 2019-07-01 2021-01-07 キヤノン株式会社 画像ファイル作成装置、画像ファイル作成方法、及びプログラム
JP7457506B2 (ja) 2019-07-01 2024-03-28 キヤノン株式会社 画像ファイル生成装置、画像ファイル生成方法、画像ファイル再生装置、画像ファイル再生方法、及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101530713B1 (ko) * 2008-02-05 2015-06-23 삼성전자주식회사 영상 파일을 생성하고 표시하기 위한 장치 및 방법
US8316148B2 (en) * 2008-02-22 2012-11-20 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for obtaining media over a communications network
WO2009103344A1 (en) * 2008-02-22 2009-08-27 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for obtaining media over a communications network
KR101490689B1 (ko) 2008-05-27 2015-02-06 삼성전자주식회사 카메라 파라미터를 이용한 스테레오스코픽 영상데이터스트림 생성 방법 및 그 장치와 스테레오스코픽 영상복원 방법 및 그 장치
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US8743178B2 (en) 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
JP2011142586A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
JP2011142585A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
US20120188340A1 (en) * 2010-06-23 2012-07-26 Toru Kawaguchi Content distribution system, playback apparatus, distribution server, playback method, and distribution method
KR101711009B1 (ko) * 2010-08-26 2017-03-02 삼성전자주식회사 영상 저장장치, 영상 재생장치, 영상 저장방법, 영상 제공방법, 저장매체 및 촬영장치
KR101750047B1 (ko) * 2010-10-11 2017-06-22 삼성전자주식회사 3차원 영상 제공 및 처리 방법과 3차원 영상 제공 및 처리 장치
US10120891B2 (en) 2013-02-11 2018-11-06 International Business Machines Corporation Data placement optimization
KR102114346B1 (ko) * 2013-08-30 2020-05-22 삼성전자주식회사 스테레오 컨버전스 제어 방법 및 이를 적용한 스테레오 이미지 프로세서
JP2018517329A (ja) * 2015-07-08 2018-06-28 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
US10939086B2 (en) 2018-01-17 2021-03-02 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content
US10944977B2 (en) 2018-04-03 2021-03-09 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding overlay compositions
US10869016B2 (en) 2018-04-12 2020-12-15 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
WO2006001653A1 (en) * 2004-06-25 2006-01-05 Lg Electronics Inc. Method of coding and decoding multiview sequence and method of displaying thereof
JP2007013994A (ja) * 2005-07-02 2007-01-18 Samsung Electronics Co Ltd ローカル3次元ビデオを具現するためのエンコーディング/デコーディング方法及び装置
JP2007166651A (ja) * 1996-02-28 2007-06-28 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、光ディスク記録装置
WO2007072870A1 (ja) * 2005-12-22 2007-06-28 Matsushita Electric Industrial Co., Ltd. 映像コンテンツ記録装置、映像コンテンツ記録方法、映像コンテンツ記録プログラム、映像コンテンツ再生装置、映像コンテンツ再生方法、映像コンテンツ再生プログラム、映像コンテンツ編集装置及び情報記録メディア

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000068946A1 (fr) * 1999-05-07 2000-11-16 Kabushiki Kaisha Toshiba Structure de donnees pour donnees en continu, et procede d'enregistrement et de reproduction de donnees en continu
US6831677B2 (en) 2000-02-24 2004-12-14 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for facilitating the adjustment of disparity in a stereoscopic panoramic image pair
JP2001251616A (ja) * 2000-03-02 2001-09-14 Media Glue Corp 多重化音響・動画圧縮符号化信号変換方法、装置および変換プログラムを記録した媒体
JP2002318807A (ja) 2001-04-19 2002-10-31 Matsushita Electric Ind Co Ltd メタデータ作成装置およびメタデータ作成方法
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US20030156649A1 (en) * 2002-01-28 2003-08-21 Abrams Thomas Algie Video and/or audio processing
US7054888B2 (en) * 2002-10-16 2006-05-30 Microsoft Corporation Optimizing media player memory during rendering
KR100556826B1 (ko) 2003-04-17 2006-03-10 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법
JP2005026800A (ja) 2003-06-30 2005-01-27 Konica Minolta Photo Imaging Inc 画像処理方法、撮像装置、画像処理装置及び画像記録装置
CN1833439A (zh) * 2003-08-08 2006-09-13 松下电器产业株式会社 数据处理装置和数据处理方法
JP2005094168A (ja) 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
JP4529556B2 (ja) * 2004-06-24 2010-08-25 パナソニック株式会社 立体視用の画像ファイルを生成する電子機器、3次元画像データを生成する電子機器、画像ファイル生成方法、3次元画像データ生成方法および画像ファイルのファイル構造
JP4580787B2 (ja) 2005-03-16 2010-11-17 株式会社東芝 半導体記憶装置およびその形成方法
CN101292538B (zh) * 2005-10-19 2012-11-28 汤姆森特许公司 使用可缩放的视频编码的多视图视频编码
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
GB2439578B (en) * 2006-06-30 2011-11-09 Data Equation Ltd Data processing
KR100716142B1 (ko) 2006-09-04 2007-05-11 주식회사 이시티 스테레오스코픽 영상 데이터의 전송 방법
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
CN101803394A (zh) * 2007-06-19 2010-08-11 韩国电子通信研究院 存储和播放立体数据的元数据结构以及使用该元数据存储立体内容文件的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166651A (ja) * 1996-02-28 2007-06-28 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、光ディスク記録装置
WO2003092304A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
WO2006001653A1 (en) * 2004-06-25 2006-01-05 Lg Electronics Inc. Method of coding and decoding multiview sequence and method of displaying thereof
JP2007013994A (ja) * 2005-07-02 2007-01-18 Samsung Electronics Co Ltd ローカル3次元ビデオを具現するためのエンコーディング/デコーディング方法及び装置
WO2007072870A1 (ja) * 2005-12-22 2007-06-28 Matsushita Electric Industrial Co., Ltd. 映像コンテンツ記録装置、映像コンテンツ記録方法、映像コンテンツ記録プログラム、映像コンテンツ再生装置、映像コンテンツ再生方法、映像コンテンツ再生プログラム、映像コンテンツ編集装置及び情報記録メディア

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502382A (ja) * 2007-10-19 2011-01-20 サムスン エレクトロニクス カンパニー リミテッド 立体映像データを記録する方法
US8922621B2 (en) 2007-10-19 2014-12-30 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data
WO2012147621A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
WO2012147622A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像処理装置、及び、画像処理方法
US9350972B2 (en) 2011-04-28 2016-05-24 Sony Corporation Encoding device and encoding method, and decoding device and decoding method
WO2012153450A1 (ja) * 2011-05-11 2012-11-15 パナソニック株式会社 動画像送信装置および動画像送信方法
WO2012157394A1 (ja) * 2011-05-19 2012-11-22 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置
WO2012165218A1 (ja) * 2011-05-30 2012-12-06 ソニー株式会社 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
WO2013058359A1 (ja) * 2011-10-19 2013-04-25 シャープ株式会社 画像ファイル生成装置、画像ファイル読込装置、画像ファイル生成方法、画像ファイル読込方法およびプログラム
JP2020537367A (ja) * 2017-10-12 2020-12-17 キヤノン株式会社 メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
WO2021002165A1 (ja) * 2019-07-01 2021-01-07 キヤノン株式会社 画像ファイル作成装置、画像ファイル作成方法、及びプログラム
JP7457506B2 (ja) 2019-07-01 2024-03-28 キヤノン株式会社 画像ファイル生成装置、画像ファイル生成方法、画像ファイル再生装置、画像ファイル再生方法、及びプログラム

Also Published As

Publication number Publication date
US8396906B2 (en) 2013-03-12
WO2009048216A1 (en) 2009-04-16
US20100217785A1 (en) 2010-08-26
EP2198625A4 (en) 2013-11-06
CN101897193A (zh) 2010-11-24
KR101398168B1 (ko) 2014-05-22
KR20090037283A (ko) 2009-04-15
CN103281589A (zh) 2013-09-04
EP2198625A1 (en) 2010-06-23

Similar Documents

Publication Publication Date Title
KR101276605B1 (ko) 스테레오스코픽 데이터의 저장 및 재생을 위한 메타데이터구조 및 이를 이용하는 스테레오스코픽 콘텐츠 파일의 저장방법
KR101398168B1 (ko) 스테레오스코픽 데이터의 저장 및 재생을 위한 메타데이터구조 및 이를 이용하는 스테레오스코픽 콘텐츠 파일의 저장방법
US9781403B2 (en) Method and apparatus for generating stereoscopic file
US20090199100A1 (en) Apparatus and method for generating and displaying media files
CA2713857C (en) Apparatus and method for generating and displaying media files
KR101830881B1 (ko) 프래그먼트 기반의 멀티미디어 스트리밍 서비스 제공 방법과 그 장치, 그리고 프래그먼트 기반의 멀티미디어 스트리밍 서비스 수신 방법과 그 장치
KR101480186B1 (ko) 2d 영상과 3d 입체영상을 포함하는 영상파일을 생성 및재생하기 위한 시스템 및 방법
KR101434674B1 (ko) 스테레오스코픽 파일을 생성하기 위한 장치 및 방법
KR101382618B1 (ko) 콘텐츠 정보 생성 방법 및 콘텐츠 정보를 이용한 콘텐츠처리 장치
KR20100092851A (ko) 3차원 영상 데이터스트림 생성 방법 및 그 장치와 3차원 영상 데이터스트림 수신 방법 및 그 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007