JP2011501581A - ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ - Google Patents

ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ Download PDF

Info

Publication number
JP2011501581A
JP2011501581A JP2010530253A JP2010530253A JP2011501581A JP 2011501581 A JP2011501581 A JP 2011501581A JP 2010530253 A JP2010530253 A JP 2010530253A JP 2010530253 A JP2010530253 A JP 2010530253A JP 2011501581 A JP2011501581 A JP 2011501581A
Authority
JP
Japan
Prior art keywords
layer
view
information
prediction information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010530253A
Other languages
English (en)
Other versions
JP5232866B2 (ja
Inventor
ファン、ピン
Original Assignee
ファーウェイ デバイス カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファーウェイ デバイス カンパニー リミテッド filed Critical ファーウェイ デバイス カンパニー リミテッド
Publication of JP2011501581A publication Critical patent/JP2011501581A/ja
Application granted granted Critical
Publication of JP5232866B2 publication Critical patent/JP5232866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

ビデオ符号化/復号方法およびビデオエンコーダ/デコーダが提供され、ビデオ符号化方法は以下のステップ、つまり第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビューと第2のビューを合成することによって少なくとも1層の予測情報抽出するステップと、少なくとも1層の予測情報にエンハンスメントレイヤ符号化を実行するステップと、第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して、符号化情報を取得するステップとを含んでおり、他のビデオ符号化方法は、以下のステップ、つまり第1のビューにベースレイヤ符号化を実行して、ローカル復号された第1のビューと第2のビューを合成することによって第1の層の予測情報を抽出するステップと、第1の層の予測情報にエンハンスメントレイヤ符号化を実行するステップと、少なくとも1層の予測情報インクリメントを抽出して、これにエンハンスメントレイヤ符号化を実行するステップと、ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得するステップとを含む。立体ビデオのコンテンツに対して階層的な符号化/復号を実現して、異なるネットワークで接続された種々の立体ディスプレイデバイスの異なるレベルの立体表示要件を満たすことができる。
【選択図】図4

Description

本発明はビデオ処理技術、とりわけビデオ符号化方法、ビデオ復号方法、ビデオコーダ(a video coder)およびビデオデコーダ(a video decoder)に関する。
従来の2次元(2D)ビデオは平面情報のキャリアである。これは1場面のコンテンツをレンダリングするが、この場面の深度情報をレンダリングすることはできない。状況を考慮すると、オブジェクトの幅および高さを知るだけでなく、このオブジェクトの深度を知覚し、かつオブジェクト間の距離や、観察者とオブジェクト間の距離を把握する必要がある。このような3次元(3D)特徴はこのように生成される、つまり、ある距離にあるオブジェクトを両眼で見ると、この2つの目は、左目と右目の間隔ゆえに異なる画像を受信する。この2つの画像は合成されて、人間の脳において立体感覚を生成する。ビデオ技術の発達によって、人は2Dビデオにはもはや満足せず、より良好なユーザ経験および臨場感を追求する。3Dビデオ技術は、この目的を達成するための重要な技術の1つである。
人間の両眼の視差の原理に基づいて、3Dビデオ技術はカメラを使用して、同一場面の異なる視点から2つの画像を取得し、この2つの画像を同時または順次スクリーンに表示し、両眼にこの2つの画像を見せて、立体感覚を取得する。従来の2Dビデオと比較して、3Dビデオは2つのビデオストリームを有している。圧縮符号化を考慮せずに画像解像度を保証するために、送信する3Dビデオのデータトラフィックは、2Dビューのデータトラフィックの2倍である。データトラフィックの増大は記憶および送信を困難にし、この問題は、記憶容量およびネットワーク帯域幅を増大させることのみでは解決されない。効率的な符号化方法が、3Dビデオデータを圧縮するように設計される必要がある。
現在、種々の仕様の3Dディスプレイデバイス、例えばヘルメットディスプレイ、立体眼鏡、ホログラフィックディスプレイデバイス、および異なる解像度の種々の自動3Dディスプレイなどが市場に出回っている。異なる3Dディスプレイは異なる層の3Dビデオコンテンツを必要とし、3Dディスプレイに接続されたネットワークは異なる帯域幅を有する。結果として、異なる層の3Dビデオコンテンツが、同一の3Dディスプレイが異なるネットワークで接続される場合に必要とされる。例えば、高速ネットワークの3Dディスプレイデバイスは、この解像度性能にしたがった豊富な3D情報を必要とし、高品質の3Dビデオを表示することができる。環境によっては、3Dディスプレイは、これ自体の条件やネットワーク帯域幅の制約による単純な3D情報のみを必要とし、単純な立体感覚のビデオを表示する。従来の2Dディスプレイのようなディスプレイは、2Dビューの表示のみを必要とするため、3D情報を必要としない。異なるディスプレイデバイスおよび異なるネットワーク送信性能が共存する現状は、異なるネットワークで接続された種々の3Dディスプレイデバイスによって異なる層の3Dディスプレイを可能にするための3Dビデオ符号化および復号方法を必要とする。
本発明を具現化するプロセスにおいて、本発明者は従来技術において少なくとも以下の欠陥を発見している、つまり、既存の3Dビデオ符号化および復号方法は2Dディスプレイおよび3Dディスプレイの個別符号化のみを達成する、つまり、両眼のビデオのビューの一方を基準ビューとして使用し、基準ビューを符号化するための標準符号化モードを使用し、この基準ビューに対して他のビューを符号化する。このように、ディスプレイサイドで復号された基準ビューは2Dモードで表示可能であり、ディスプレイサイドで復号された全コンテンツが3Dモードで表示可能であるが、異なるネットワークで接続された種々の3Dディスプレイデバイスに異なる品質の3Dディスプレイを付与させるのは不可能である。
本発明の実施形態は、3Dビューの階層的符号化を達成するためのビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダを提供するため、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。
本発明の一実施形態で提供されたビデオ符号化方法は、
第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出するステップと、
少なくとも1層の予測情報のそれぞれにエンハンスメントレイヤ符号化(enhancement-layer coding)を実行するステップと、
第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して符号化情報を取得するステップと、を含む。
本発明の一実施形態で提供されたビデオコーダは、
第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュールと、
ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出するように適合された少なくとも1つの予測情報抽出モジュールと、
少なくとも1層の予測情報にエンハンスメントレイヤ符号化を実行するように適合されたエンハンスメントレイヤ符号化モジュールと、
第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して符号化情報を取得するように適合された多重化モジュールと、を含む。
本発明の一実施形態で提供されたビデオ復号方法は、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するステップと、
ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するステップと、
エンハンスメントレイヤコードを復号して、少なくとも1層の予測情報を取得するステップと、
少なくとも1層の予測情報及び第1のビューにしたがって第2のビューを予測するステップと、を含む。
本発明の一実施形態で提供されたビデオデコーダは、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュールと、
ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュールと、
エンハンスメントレイヤコードを復号して、少なくとも1層の予測情報を取得するように適合されたエンハンスメントレイヤ復号モジュールと、
少なくとも1層の予測情報と第1のビューにしがたって第2のビューを予測するように適合された予測モジュールと、を含む。
本発明の一実施形態で提供されたビデオ符号化方法は、
第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出するステップと、
第1の層の予測情報にエンハンスメントレイヤ符号化を実行するステップと、現在の層の予測情報の増分(increment)を、
第2の層の予測情報の増分(increment)の抽出から開始する以下の方法により抽出するステップと、
ローカル復号された第1のビュー、第2のビュー、及び先行層の予測情報を合成することによって現在の層の予測情報を抽出し、最後の層の予測情報の増分(increment)がエンハンスメントレイヤ符号化を受けるまで現在の層の予測情報にエンハンスメントレイヤ符号化を実行するステップであって、
ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して符号化情報を取得するステップと、を含む。
本発明の一実施形態で提供されたビデオコーダは、
第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュールと、
少なくとも2層の予測情報抽出モジュールであって、第1の層の予測情報抽出モジュールがベースレイヤ符号化モジュールと接続されており、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出するように適合されており、第1の層の予測情報抽出モジュール以外の他の層の予測情報抽出モジュールは先行層の予測情報抽出モジュールと接続され、ローカル復号された第1のビュー、第2のビュー、及び先行層の予測情報を合成することによって現在の層の予測情報を抽出するように適用されたモジュールと、
第1の層の予測情報および複数層の予測情報の増分(increments)にエンハンスメントレイヤ符号化を実行するように適合されたエンハンスメントレイヤ符号化モジュールと、
ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して符号化情報を取得するように適合された多重化モジュールと、を含む。
本発明の一実施形態で提供されたビデオ復号方法は、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するステップと、
ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するステップと、
エンハンスメントレイヤコードを復号して、第1の層の予測情報および複数層の予測情報の増分(increments)を取得するステップと、
第1の層の予測情報と複数層の予測情報の増分(increments)にしたがって少なくとも2層の予測情報を算出するステップと、
少なくとも2層の予測情報及び第1のビューにしたがって第2のビューを予測するステップと、を含む。
本発明の一実施形態で提供されたビデオデコーダは、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュールと、
ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュールと、
エンハンスメントレイヤコードを復号して、第1の層の予測情報および複数層の予測情報の増分(increments)を取得するように適合されたエンハンスメントレイヤ復号モジュールと、
第1の層の予測情報と複数層の予測情報の増分(increments)にしたがって少なくとも2層の予測情報を算出するように適合された算出モジュールと、
少なくとも2層の予測情報及び第1のビューにしたがって第2のビューを予測するように適合されている予測モジュールと、を含む。
本発明の実施形態のビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダによって、少なくとも1層の予測情報が抽出され、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューが階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。
図1は、本発明の第1の実施形態にしたがったビデオ符号化方法のフローチャートである。 図2は、本発明の第2の実施形態にしたがったビデオ符号化方法のフローチャートである。 図3は、本発明の第3の実施形態にしたがったビデオ符号化方法のフローチャートである。 図4は、本発明の第4の実施形態にしたがったビデオ符号化方法のフローチャートである。 図5は、本発明の第1の実施形態にしたがったビデオコーダの構造を示している。 図6は、本発明の第2の実施形態にしたがったビデオコーダの構造を示している。 図7は、本発明の第1の実施形態にしたがったビデオ復号方法のフローチャートである。 図8は、本発明の第2の実施形態にしたがったビデオ復号方法のフローチャートである。 図9は、本発明の第3の実施形態にしたがったビデオ復号方法のフローチャートである。 図10は、本発明の第4の実施形態にしたがったビデオ復号方法のフローチャートである。 図11は、本発明の第1の実施形態にしたがったビデオデコーダの構造を示している。 図12は、本発明の第1の実施形態にしたがった別のビデオ符号化方法のフローチャートである。 図13は、本発明の第2の実施形態にしたがった別のビデオ符号化方法のフローチャートである。 図14は、本発明の第3の実施形態にしたがった別のビデオ符号化方法のフローチャートである。 図15は、本発明の第4の実施形態にしたがった別のビデオ符号化方法のフローチャートである。 図16は、本発明の第1の実施形態にしたがった別のビデオコーダの構造を示している。 図17は、本発明の第2の実施形態にしたがった別のビデオコーダの構造を示している。 図18は、本発明の第1の実施形態にしたがった別のビデオ復号方法のフローチャートである。 図19は、本発明の第2の実施形態にしたがった別のビデオ復号方法のフローチャートである。 図20は、本発明の第3の実施形態にしたがった別のビデオ復号方法のフローチャートである。 図21は、本発明の第4の実施形態にしたがった別のビデオ復号方法のフローチャートである。 図22は、本発明の第1の実施形態にしたがった別のビデオデコーダの構造を示している。
本発明の技術的解決法について、添付の図面および複数の例示的実施形態を参照して詳細に以下に記述する。
第1の実施形態のビデオ符号化方法について以下に記述する。
図1は、本発明の第1の実施形態にしたがったビデオ符号化方法のフローチャートである。この方法は以下のステップを含んでいる。
ステップ101:第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出する。第1のビューおよび第2のビューはそれぞれ左目ビューおよび右目ビューであり得、予測情報は運動ベクトル情報および/または深度あるいは視差情報であり得る。
ステップ102:それぞれ少なくとも1層の予測情報にエンハンスメントレイヤ符号化を実行する。
ステップ103:第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して、符号化情報を取得する。
本実施形態では、少なくとも1層の予測情報が抽出されて、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューが階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。
第2の実施形態のビデオ符号化方法について以下に記述する。
図2は、本発明の第2の実施形態にしたがったビデオ符号化方法のフローチャートである。本実施形態では、深度/視差情報が、1層の深度/視差情報を抽出するための予測情報として使用され、抽出される情報はスパース深度/視差情報であるとする。本実施形態は以下のステップを含む。
ステップ201:異なる視点からの2つ以上のカメラを使用して1つの場面を撮影して、2つのビュー、つまり左目ビューおよび右目ビューを取得する。
ステップ202:左目ビューまたは右目ビューのいずれかを基準ビューとして選択し、基準ビューにベースレイヤ符号化を実行する。本実施形態では、左目ビューが基準ビューとして選択されたものとする。
ステップ203:ベースレイヤ符号化を受けた左目ビューをローカル復号し(locally decode the left-eye)、右目ビューに照らしてスパース深度/視差情報を抽出する。スパース深度/視差情報は、事前に取得された3Dビューディスプレイレベルに対応している。
ステップ204:スパース深度/視差情報にエンハンスメントレイヤ符号化を実行する。
ステップ205:左目ビューのベースレイヤコードおよびエンハンスメントコードを多重化して、符号化情報を取得する。
ステップ203において、事前に取得された3Dビューディスプレイレベルは、抽出される深度/視差情報の所定の層数およびレベルにしたがって判断され得、あるいはステップ203の前に付加された以下のステップで判断され得る。
ステップ2021:ディスプレイデバイスのリクエスト情報および/またはネットワーク送信情報を解析する。解析結果が、ネットワークが比較的過密しているときに送信可能なコンテンツは少ないことを示している場合、3Dビューの必要なディスプレイレベルは低く、スパース深度/視差情報が抽出可能である。
本実施形態では、予測情報は運動ベクトル情報、あるいは深度/視差情報および運動ベクトル情報の組み合わせであり得、ベースレイヤコードおよびエンハンスメントレイヤコードは、運動補償による離散コサイン変換コードであり得る。事前に取得された3Dビューディスプレイレベルが高い場合、本実施形態の1層の予測情報は高密度予測情報または精密予測情報であり得る。
本実施形態では、1層のスパース深度/視差情報が抽出され、エンハンスメントレイヤ符号化を受ける。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。なお、特定の層の深度/視差情報はディスプレイデバイスおよびネットワークの条件にしたがって抽出可能であるため、符号化効率を改良し、符号化の複雑さを低減し、更にネットワーク送信効率を改良することも可能である。本実施形態はベースレイヤコードを多重化し、また、2Dビューはベースレイヤコードにしたがって表示可能であるため2Dディスプレイ機能と両立可能である。
第3の実施形態のビデオ符号化方法について以下に記述する。
図3は、本発明の第3の実施形態にしたがったビデオ符号化方法のフローチャートである。本実施形態は深度/視差情報を予測情報として使用する。図1のステップが実行される前、抽出される深度/視差情報の層数およびレベルが事前設定可能である。本実施形態では、3層の深度/視差情報、つまりスパース深度/視差情報、高密度深度/視差情報、および精密深度/視差情報が抽出される必要があるものとする。本実施形態の技術的解決法について後述する。本実施形態のビデオ符号化方法は以下のステップを含む。
ステップ301:異なる視点からの2つ以上のカメラを使用して1つの場面を撮影し、2つのビュー、つまり左目ビューおよび右目ビューを取得する。
ステップ302:左目ビューまたは右目ビューのいずれかを基準ビューとして選択し、基準ビューにベースレイヤ符号化を実行する。本実施形態では、左目ビューが基準ビューとして選択されたものとする。
ステップ303:ベースレイヤ符号化を受けた左目ビューをローカル復号し(locally decode)、右目ビューに照らしてそれぞれスパース深度/視差情報、高密度深度/視差情報、および精密深度/視差情報を抽出する。
ステップ304:スパース深度/視差情報、高密度深度/視差情報、および精密深度/視差情報にそれぞれエンハンスメントレイヤ符号化を実行する。
ステップ305:左目ビューのベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得する。
本実施形態のビデオ符号化方法において、予測情報は、運動ベクトル情報、あるいは深度/視差情報および運動ベクトル情報の組み合わせであり得、ベースレイヤコードおよびエンハンスメントレイヤコードは、運動補償による離散コサイン変換コードであり得る。
本実施形態のビデオ符号化方法によって、少なくとも1層の深度/視差情報が抽出され、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューが階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。本実施形態はまたベースレイヤコードを多重化し、また、2Dビューはベースレイヤコードにしたがって表示可能であるため2Dディスプレイ機能と両立可能である。
第4の実施形態のビデオ符号化方法について以下に記述する。
図4は、本発明の第4の実施形態にしたがったビデオ符号化方法のフローチャートである。本実施形態は、ステップ301の前に、抽出された深度/視差情報の層数およびレベルを事前設定する必要はないが、以下のステップがステップ303の前に追加される点が、第3の実施形態と異なる。
ステップ3021:ディスプレイデバイスのリクエスト情報および/またはネットワーク送信情報を解析する。解析結果が、ディスプレイデバイスが比較的高い解像度を有していると示す場合、3Dビューを表示するのに必要な層は比較的高く、精密深度/視差情報が抽出される必要があり、解析結果が、ネットワークが比較的過密しているときに送信可能なコンテンツは少ないことを示している場合、3Dビューを表示するのに必要な層は比較的低く、スパース深度/視差情報が抽出される必要がある。このような2つの要因を考慮すると、異なるネットワークの種々のディスプレイデバイスによって必要とされる少なくとも1つの3Dビューディスプレイレベルが取得される。
具体的に、ステップ303は、ベースレイヤ符号化を受けた左目ビューをローカル復号し(locally decoding)、右目ビューに照らしてディスプレイデバイスおよび/またはネットワークによって必要とされる3Dビューディスプレイレベルに対応する少なくとも1層の深度/視差情報を抽出することである。
上記第3の実施形態に基づいて、本実施形態はさらに、ディスプレイデバイスの要件およびネットワーク条件にしたがって対応するレベルの深度/視差情報を抽出することによって、符号化効率を改良し、符号化の複雑さを低減し、ネットワーク送信効率を改良することができる。
第1の実施形態のビデオコーダについて以下に記述する。
図5は、本発明の第1の実施形態にしたがったビデオコーダの構造を示している。ビデオコーダは、
第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュール10と、
ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出するように適合された少なくとも1つの予測情報抽出モジュール、例えば図5の予測情報抽出モジュール11、12、13・・・と、
それぞれ少なくとも1層の予測情報にエンハンスメントレイヤ符号化を実行するように適合されたエンハンスメントレイヤ符号化モジュール14と、
第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して、符号化情報を取得するように適合された多重化モジュール15と、を含む。
本実施形態で提供された符号化装置(the coder)、ここに提供されているビデオ符号化方法の第1から第4の実施形態に適用可能である。
本実施形態では、少なくとも1つの予測情報抽出モジュールが、それぞれ少なくとも1層の予測情報を抽出し、これらにエンハンスメントレイヤ符号化を実行する。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。
第2の実施形態のビデオコーダについて以下に記述する。
図6は、本発明の第2の実施形態にしたがったビデオコーダの構造を示している。ビデオコーダは、
左目ビューを基準ビューとして使用して左目ビューにベースレイヤ符号化を実行するか、右目ビューを基準ビューとして使用して右目ビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュール20と、
右目ビュー及びローカル復号された左目ビューを合成することによってスパース予測情報を抽出するように適合されたスパース予測情報抽出モジュール21と、
右目ビュー及びローカル復号された左目ビューを合成することによって高密度予測情報を抽出するように適合された高密度予測情報抽出モジュール22と、
右目ビュー及びローカル復号された左目ビューを合成することによって精密予測情報を抽出するように適合された精密予測情報抽出モジュール23と、
それぞれスパース予測情報(sparse predictioninformation)、高密度予測情報および精密予測情報にエンハンスメントレイヤ符号化を実行するように適合されたエンハンスメントレイヤ符号化モジュール24と、
左目ビューのベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得するように適合された多重化モジュール25と、を含む。
本実施形態のビデオコーダはさらに、ディスプレイデバイスのリクエスト情報および/またはネットワーク送信情報を解析し、ディスプレイデバイスおよび/またはネットワークによって必要とされる少なくとも1つの3Dビューディスプレイレベルを取得するように適合された解析モジュール26を含んでもよい。
本実施形態のビデオコーダは、上記3層の予測情報抽出モジュールに制限されない。例えば、ディスプレイデバイスおよび/またはネットワークによって必要とされるような実際の必要性に応じて、少なくとも1つの予測情報抽出モジュールが、異なるディスプレイデバイスおよび/またはネットワークの要件を満たすように設定される。
本実施形態では、スパース予測情報抽出モジュール21、高密度予測情報抽出モジュール(dense prediction information module)22および精密予測情報抽出モジュール23は3層の予測情報を抽出するように設定されており、この3層の予測情報はそれぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。加えて、ディスプレイデバイスの特定の要件およびネットワーク条件は解析モジュール26にしたがって取得されてもよく、対応するレベルの予測情報が抽出されることによって、符号化効率を改良し、符号化の複雑さを低減し、更にネットワーク送信効率を改良することができる。
第1の実施形態のビデオ復号方法について以下に記述する。
図7は、本発明の第1の実施形態にしたがったビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第1の実施形態のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ401:受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ402:ベースレイヤコードを復号し、第1のビューを基準ビューとして取得する。
ステップ403:エンハンスメントレイヤコードを復号して、少なくとも1層の予測情報を取得する。
ステップ404:少なくとも1層の予測情報と第1のビューにしたがって第2のビューを予測する。
第1のビューおよび第2のビューはそれぞれ左目ビューおよび右目ビューであり得、予測情報は運動ベクトル情報および/または深度または視差情報であり得る。
本実施形態では、少なくとも1層の予測情報が取得されるため、3Dビューが階層的に復号される。のみならず、第2のビューは第1のビューに照らして予測され、3Dビューは、第1のビューおよび予測された第2のビューにしたがって表示可能である。したがって、種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。
第2の実施形態のビデオ復号方法について以下に記述する。
図8は、本発明の第2の実施形態にしたがったビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第2の実施形態のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ501:受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ502:ベースレイヤコードを復号して、左目ビューを基準ビューとして取得する。
ステップ503:エンハンスメントレイヤコードを復号して、スパース深度/視差情報を取得する。
ステップ504:スパース深度/視差情報および左目ビューにしたがって右目ビューを予測する。
本実施形態では、スパース深度/視差情報が取得され、スパース深度/視差情報は、符号化時に事前取得された3Dビューディスプレイレベルに対応する。したがって、3Dビューは階層的に復号される。なお、第2のビューは第1のビューに照らして予測され、3Dビューは第1のビューおよび予測された第2のビューにしたがって表示可能である。したがって、種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。
第3の実施形態のビデオ復号方法について以下に記述する。
図9は、本発明の第3の実施形態にしたがったビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第4の実施形態のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ601:受信された符号化情報を逆多重化し、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ602:ベースレイヤコードを復号し、左目ビューを基準ビューとして取得する。
ステップ603:エンハンスメントレイヤコードを復号し、スパース深度/視差情報、高密度深度/視差情報および精密深度/視差情報を取得する。
ステップ604:スパース深度/視差情報、高密度深度/視差情報、精密深度/視差情報および左目ビューにしたがって右目ビューを予測する。
符号化プロセスにおいて、少なくとも1つの3Dビューディスプレイレベルが、ディスプレイデバイスおよび/またはネットワーク送信情報を解析することによって取得され、このディスプレイレベルに対応する3層の予測情報構造がディスプレイレベルにしたがって取得され、この場合、3層の予測情報とは、スパース深度/視差情報、高密度深度/視差情報および精密深度/視差情報のことである。したがって、復号プロセスにおいて、エンハンスメントレイヤコードが直接復号されて、3層の深度/視差情報を取得する。
本実施形態のビデオ復号方法において、予測情報は運動ベクトル情報か、深度/視差情報および運動ベクトル情報の組み合わせであり得る。
本実施形態のビデオ復号方法において、少なくとも1層の深度/視差情報が取得され、次いで3Dビューが階層的に復号される。のみならず、右目ビューが左目ビューに照らして予測され、したがって3Dビューは左目ビューおよび予測された右目ビューにしたがって表示可能である。したがって、種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。加えて、本実施形態のビデオ復号方法はベースレイヤコードを復号し、また、2Dビューはベースレイヤコードの復号情報にしたがって表示可能であるため、2Dディスプレイ機能と両立可能である。
第4の実施形態のビデオ復号方法について以下に記述する。
図10は、本発明の第4の実施形態にしたがったビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第3の実施形態のビデオ符号化方法に関連し、以下の点で第3の実施形態の復号方法と異なっている。
符号化プロセスにおいて、3層の予測情報構造は、抽出される予測情報の所定の層数およびレベルにしたがって判断される。したがって、復号プロセスはさらに、ステップ603の前に以下のステップを含んでもよい。
ステップ6021:ディスプレイデバイスからのリクエスト情報を解析して、種々のディスプレイデバイスによって必要とされる少なくとも1つの3Dビューディスプレイレベルを取得する。
具体的に、ステップ603は、少なくとも1つの3Dビューディスプレイレベルに対応するエンハンスメントレイヤコードを復号して、スパース深度/視差情報、または高密度深度/視差情報、または精密深度/視差情報、またはこれらの組み合わせであり得る少なくとも1層の深度/視差情報を取得することである。
第3の実施形態の復号方法に基づいて、本実施形態はさらに、ディスプレイデバイスの特定の要件にしたがって対応するレベルのエンハンスメントレイヤコードを復号し、対応するレベルの深度/視差情報を取得することによって、復号効率を改良し、復号の複雑さを低減することができる。
第1の実施形態のビデオデコーダについて以下に記述する。
図11は、本発明の第1の実施形態にしたがったビデオデコーダの構造を示している。ビデオデコーダは、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュール30と、
ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュール31と、
エンハンスメントレイヤコードを復号して、少なくとも1層の予測情報を取得するように適合されたエンハンスメントレイヤ復号モジュール32と、
少なくとも1層の予測情報及び第1のビューにしたがって右目ビューを予測するように適合された予測モジュール33と、を含む。
本実施形態のビデオデコーダはさらに、ディスプレイデバイスからのリクエスト情報を解析して、ディスプレイデバイスによって必要とされる少なくとも1つの3Dビューディスプレイレベルを取得するように適合された解析モジュール34を含み得る。エンハンスメントレイヤ復号モジュール32は、少なくとも1つの3Dビューディスプレイレベルに対応する少なくとも1層の予測情報を取得する。
本実施形態で提供されたデコーダは、ここで提供されているビデオ復号方法の第1から第4の実施形態に適用可能である。
本実施形態では、エンハンスメントレイヤ復号モジュール32が設定され、少なくとも1層の予測情報が取得される。ゆえに、3Dビューは階層的に復号され、種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。加えて、ディスプレイデバイスの特定の要件が解析モジュール24にしたがって取得可能であり、対応するレベルの予測情報が復号されることによって、復号効率を改良し、復号の複雑さを低減することができる。
第1の実施形態の別のビデオ符号化方法について以下に記述する。
図12は、本発明の第1の実施形態にしたがった別のビデオ符号化方法のフローチャートである。本方法は以下のステップを含む。
ステップ701:第1のビューを基準ビューとして使用して第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出する。
ステップ702:第1の層の予測情報にエンハンスメントレイヤ符号化を実行する。
ステップ703:第2の層の予測情報の増分(increment)の抽出から開始する以下の方法で、現在の層の予測情報の増分(increment)を抽出し、
ローカル復号された第1のビュー、第2のビュー、及び先行層の予測情報を合成することによって現在の層の予測情報の増分(increment)を抽出し、現在の層の予測情報にエンハンスメントレイヤ符号化を実行し、これは最後の層の予測情報の増分(increment)がエンハンスメントレイヤ符号化を受けるまで続く。
ステップ704:ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得する。
本実施形態のビデオ符号化方法によって、1層の予測情報および少なくとも1層の深度/視差情報の増分(increment)が抽出され、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューが階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。少なくとも1層の深度/視差情報の増分(increment)はエンハンスメントレイヤ符号化を受けるため、本方法は、ネットワークで送信される必要のある情報が少ないという点で、予測情報にエンハンスメントレイヤ符号化を直接実行することより優れており、必要なネットワーク送信帯域幅は縮小され、送信効率が改良される。
第2の実施形態の別のビデオ符号化方法について以下に記述する。
図13は、本発明の第2の実施形態にしたがった別のビデオ符号化方法のフローチャートである。本実施形態では、深度/視差情報が予測情報として使用され、1層の深度/視差情報および1層の深度/視差情報の増分(increment)、つまりスパース深度/視差情報および高密度深度/視差情報の増分(increment)をそれぞれ抽出する。本実施形態は以下のステップを含む。
ステップ801:異なる視点からの2つ以上のカメラを使用して1つの場面を撮影して、2つのビュー、つまり左目ビューおよび右目ビューを取得する。
ステップ802:左目ビューまたは右目ビューのいずれかを基準ビューとして選択し、基準ビューにベースレイヤ符号化を実行する。本実施形態では、左目ビューが基準ビューとして選択されたものとする。
ステップ803:ベースレイヤ符号化を受けた左目ビューをローカル復号し、右目ビューに照らしてスパース深度/視差情報を抽出し、スパース深度/視差情報にエンハンスメントレイヤ符号化を実行する。
ステップ804:ローカル復号された左目ビューと、右目ビューと、スパース深度/視差情報を合成することによって高密度深度/視差情報インクリメントを抽出し、高密度深度/視差情報インクリメントにエンハンスメントレイヤ符号化を実行する。
具体的に、ステップ804は、ローカル復号された左目ビューおよび右目ビューを合成することによって高密度深度/視差情報を抽出し、スパース深度/視差情報に対する高密度深度/視差情報の増分(increment)、つまり高密度深度/視差情報の増分(increment)を算出することであり得る。
ステップ805:ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得する。
本実施形態では、スパース深度/視差情報および高密度深度/視差情報は、事前取得された2つの3Dビューディスプレイレベルに対応する。事前取得された2つの3Dビューディスプレイレベルは、抽出される深度/視差情報の所定の層数およびレベルにしたがって判断され得、あるいはステップ803の前に追加された以下のステップにしたがって判断され得る。
ステップ8021:ディスプレイデバイスのリクエスト情報および/またはネットワーク送信情報を解析する。解析結果が、ディスプレイデバイスが比較的高い解像度を有すると示している場合、3Dビューを表示するのに必要な層は比較的高く、高密度深度/視差情報が抽出される必要があり、解析結果が、ネットワークが比較的過密しているときに送信可能なコンテンツは少ないと示している場合、3Dビューを表示するのに必要な層は比較的低く、スパース深度/視差情報が抽出される必要がある。このような2つの要因を考慮すると、ディスプレイデバイスおよび/またはネットワークによって必要とされる3Dビューディスプレイレベルが取得され、抽出される深度/視差情報の層の総数およびレベルがディスプレイレベルにしたがって判断される。例えば、ディスプレイレベルが2層の深度/視差情報の抽出を必要とする場合、これらの層は「スパース深度/視差情報」および「高密度深度/視差情報」と判断される。
本実施形態のビデオ符号化方法において、予測情報は運動ベクトル情報、あるいは深度/視差情報および運動ベクトル情報の組み合わせであり得、ベースレイヤコードおよびエンハンスメントレイヤコードは、運動補償による離散コサイン変換コードであり得る。本実施形態の2層の予測情報は、スパース予測情報、高密度予測情報および精密予測情報のうちのいずれか2つの組み合わせであり得る。
本実施形態のビデオ符号化方法において、1層の深度/視差情報および1層の深度/視差情報インクリメントが抽出されて、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。1層の深度/視差情報の増分(increment)はエンハンスメントレイヤ符号化を受けるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。加えて、対応する層およびレベルの深度/視差情報が、ディスプレイデバイスの要件およびネットワーク条件にしたがって抽出可能であるため、符号化効率を改良し、符号化の複雑さを低減し、ネットワーク送信効率をさらに改良することができる。本実施形態はベースレイヤコードを多重化し、また、2Dビューはベースレイヤコードにしたがって表示可能であるため、2Dディスプレイ機能と両立可能である。
第3の実施形態の別のビデオ符号化方法について以下に記述する。
図14は、本発明の第3の実施形態にしたがった別のビデオ符号化方法のフローチャートである。本実施形態は深度/視差情報を予測情報として使用する。図14のステップが実行される前に、抽出される深度/視差情報の層数およびレベルが事前設定されてもよい。本実施形態では、3層の深度/視差情報、つまりスパース深度/視差情報、高密度深度/視差情報および精密深度/視差情報が抽出される必要があるものとする。本実施形態の技術的解決法について後述する。本実施形態のビデオ符号化方法は以下のステップを含む。
ステップ901:異なる視点からの2つ以上のカメラを使用して1つの場面を撮影し、2つのビュー、つまり左目ビューおよび右目ビューを取得する。
ステップ902:左目ビューまたは右目ビューを基準ビューとして選択し、基準ビューにベースレイヤ符号化を実行する。本実施形態では、左目ビューが基準ビューとして選択されたものとする。
ステップ903:ベースレイヤ符号化を受けた左目ビューをローカル復号し、右目ビューに照らしてスパース深度/視差情報を抽出し、スパース深度/視差情報にエンハンスメントレイヤ符号化を実行する。
ステップ904:ローカル復号された左目ビュー、右目ビューおよびスパース深度/視差情報を合成することによって高密度深度/視差情報の増分(increment)を抽出し、高密度深度/視差情報の増分(increment)にエンハンスメントレイヤ符号化を実行する。
ステップ905:ローカル復号された左目ビュー、右目ビューおよび高密度深度/視差情報を合成することによって精密深度/視差情報の増分(increment)を抽出し、精密深度/視差情報の増分(increment)にエンハンスメントレイヤ符号化を実行する。
ステップ906:ベースレイヤコードおよびエンハンスメントレイヤコードを多重化し、符号化情報を取得する。
具体的に、ステップ904は、ローカル復号された左目ビュー及び右目ビューを合成することによって高密度深度/視差情報を抽出し、スパース深度/視差情報に対する高密度深度/視差情報の増分(increment)、つまり高密度深度/視差情報の増分(increment)を算出することであってもよい。ステップ905でも同じである。
本実施形態のビデオ符号化方法において、予測情報は運動ベクトル情報、あるいは、深度/視差情報および運動ベクトル情報の組み合わせであり得、ベースレイヤコードおよびエンハンスメントレイヤコードは運動補償による離散コサイン変換コードであり得る。
本実施形態の符号化方法は3層の予測情報の抽出に制限されない。抽出される予測情報の所定の層総数および所定の層にしたがって、1層の予測情報および少なくとも1層分の予測情報が抽出され得る。
本実施形態のビデオ符号化方法によって、1層の深度/視差情報および複数層の深度/視差情報の増分(increments)が抽出されて、それぞれエンハンスメントレイヤ符号化を受ける。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。エンハンスメントレイヤ符号化は複数層の深度/視差情報インクリメントに実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。本実施形態もまたベースレイヤコードを多重化し、また、2Dビューはベースレイヤコードにしたがって表示可能であるため、2Dディスプレイ機能と両立可能である。
第4の実施形態の別のビデオ符号化方法について以下に記述する。
図15は、本発明の第4の実施形態にしたがった別のビデオ符号化方法のフローチャートである。本実施形態は、抽出された深度/視差情報の層数およびレベルをステップ901の前に事前設定する必要はないが、以下のステップがステップ903の前に追加されうるという点において、第3の実施形態の別のビデオ符号化方法と異なっている。
ステップ9021:ディスプレイデバイスのリクエスト情報および/またはネットワーク送信情報を解析する。解析結果が、ディスプレイデバイスが比較的高い解像度を有すると示す場合、3Dビューを表示するのに必要な層は比較的高く、精密深度/視差情報が抽出される必要があり、解析結果が、ネットワークが比較的過密している場合に送信可能なコンテンツは少ないと示す場合、3Dビューを表示するのに必要な層は比較的低く、スパース深度/視差情報が抽出される必要がある。このような2つの要因を考慮すると、ディスプレイデバイスおよび/またはネットワークによって必要とされる3Dビューディスプレイレベルが取得され、抽出される深度/視差情報の層の総数およびレベルはディスプレイレベルにしたがって判断される。例えば、ディスプレイレベルが3層の深度/視差情報の抽出を必要とする場合、これらの層は「スパース深度/視差情報」、「高密度深度/視差情報」および「精密深度/視差情報」と判断され、ステップ903から906がステップ9021の後に実行される必要がある。
上記第3の実施形態の別のビデオ符号化方法に基づいて、本実施形態はさらに、ディスプレイデバイスの要件およびネットワーク条件にしたがって対応する層およびレベルの深度/視差情報を抽出するため、符号化効率を改良し、符号化の複雑さを低減し、ネットワーク送信効率を改良することができる。
第1の実施形態の別のビデオコーダについて以下に記述する。
図16は、本発明の第1の実施形態にしたがった別のビデオコーダの構造を示している。ビデオコーダは、
第1のビューを基準ビューとして使用して、第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュール40と、
少なくとも2層の予測情報抽出モジュールであって、第1の層の予測情報抽出モジュール41がベースレイヤ符号化モジュール40と接続されており、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出するように適合された、第1の層の予測情報抽出モジュール41以外の他の層の予測情報抽出モジュール42、43・・・は先行層の予測情報抽出モジュールに接続されており、ローカル復号された第1のビュー、第2のビューおよび先行層の予測情報を合成することによって現在の層の予測情報インクリメントを抽出するように適合されたモジュールと、
第1の層の予測情報および複数層の予測情報インクリメントにエンハンスメントレイヤ符号化を実行するように適合されているエンハンスメントレイヤ符号化モジュール44と、
ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得するように適合されている多重化モジュール45とを含む。
本実施形態で提供されたコーダは、ここに提供されている別のビデオ符号化方法の第1から第4の実施形態に適用可能である。
本実施形態では、第1の層の予測情報抽出モジュール41および他の層の予測情報抽出モジュール42、43・・・は、1層の予測情報および少なくとも1層の深度/視差情報インクリメントを抽出し、これらにそれぞれエンハンスメントレイヤ符号化を実行する。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。エンハンスメントレイヤ符号化が増分のために(for the increment)実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。
第2の実施形態の別のビデオコーダについて以下に記述する。
図17は、本発明の第2の実施形態にしたがった別のビデオコーダの構造を示している。ビデオコーダは、
左目ビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュール50と、
ベースレイヤ符号化モジュール50に接続され、右目ビューとローカル復号された左目ビューとを合成することによってスパース予測情報を抽出するように適合されたスパース予測情報抽出モジュール51と、
スパース予測情報抽出モジュール51に接続され、スパース予測情報抽出モジュール51によって送信されたスパース予測情報を受信し、かつ、右目ビューとローカル復号された左目ビューとを合成することによって高密度予測情報の増分(increment)を抽出するように適合されている高密度予測情報抽出モジュール52と、
高密度予測情報抽出モジュール52に接続され、高密度予測情報抽出モジュール52によって送信された高密度予測情報を受信し、かつ、右目ビューとローカル復号された左目ビューとを合成することによって精密予測情報の増分(increment)を抽出するように適合された精密予測情報抽出モジュール53と、
スパース予測情報、高密度予測情報の増分(increment)、および精密予測情報の増分(increment)にそれぞれエンハンスメントレイヤ符号化を実行するように適合されているエンハンスメントレイヤ符号化モジュール54と、
ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得するように適合された多重化モジュール55と、を含む。
本実施形態のビデオコーダはさらに、ディスプレイデバイスからのリクエスト情報および/またはネットワーク送信情報を解析して、ディスプレイデバイスおよび/またはネットワークによって必要とされる3Dビューディスプレイレベルを取得し、ディスプレイレベルにしたがって抽出される予測情報の増分(increment)の層の総数およびレベルを判断するように適合されている解析モジュール56を含み得る。
本実施形態のビデオコーダは、上記3層の予測情報抽出モジュールに制限されない。例えば、ディスプレイデバイスおよび/またはネットワークによって必要とされるような実際の必要性に応じて、少なくとも2層の予測情報抽出モジュールが、異なるディスプレイデバイスおよび/またはネットワークの要件を満たすように設定される。
本実施形態では、スパース予測情報抽出モジュール51、高密度予測情報抽出モジュール52、および精密予測情報抽出モジュール53が、スパース予測情報、高密度予測情報インクリメント、および精密予測情報インクリメントを抽出し、これらにそれぞれエンハンスメントレイヤ符号化を実行するように設定される。したがって、3Dビューは階層的に符号化され、異なるネットワークで接続された種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。エンハンスメントレイヤ符号化が高密度予測情報の増分(increment)および精密予測情報の増分(increment)に対して実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。加えて、ディスプレイデバイスの特定の要件およびネットワーク条件は解析モジュール56にしたがって取得され得、対応する層およびレベルの予測情報が抽出されることによって、符号化効率を改良し、符号化の複雑さを低減し、ネットワーク送信効率をさらに改良することができる。
第1の実施形態の別のビデオ復号方法について以下に記述する。
図18は、本発明の第1の実施形態にしたがった別のビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第1の実施形態の別のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ1001:受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ1002:ベースレイヤコードを復号して、第1のビューを基準ビューとして取得する。
ステップ1003:エンハンスメントレイヤコードを復号して、第1の層の予測情報および複数層の予測情報の増分(increments)を取得する。
ステップ1004:第1の層の予測情報および複数の層の予測情報の増分(increments)にしたがって少なくとも2層の予測情報を算出する。
ステップ1005:少なくとも2層の予測情報および第1のビューにしたがって第2のビューを予測する。
本実施形態のビデオ復号方法によって、少なくとも2層の予測情報が、取得された第1の層の予測情報および複数層の予測情報にしたがって算出される。したがって、3Dビューは階層的に復号され、種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。エンハンスメントレイヤ復号は複数層の予測情報インクリメントに実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。本実施形態はまたベースレイヤコードを復号し、また、2Dビューはベースレイヤコードの復号情報にしたがって表示可能であるため、2Dディスプレイ機能と両立可能である。
第2の実施形態の別のビデオ復号方法について以下に記述する。
図19は、本発明の第2の実施形態にしたがった別のビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第2の実施形態の別のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ1101:受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ1102:ベースレイヤコードを復号して、左目ビューを基準ビューとして取得する。
ステップ1103:エンハンスメントレイヤコードを復号して、スパース深度/視差情報および高密度深度/視差情報インクリメントを取得する。
ステップ1104:スパース深度/視差情報および高密度深度/視差情報の増分(increment)にしたがって高密度深度/視差情報を算出する。
ステップ1105:スパース深度/視差情報、高密度深度/視差情報および左目ビューにしたがって右目ビューを予測する。
本実施形態のビデオ復号方法によって、2層の予測情報が、取得されたスパース予測情報および高密度予測情報の増分(increment)にしたがって算出される。したがって、3Dビューは階層的に復号され、種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。エンハンスメントレイヤ復号が高密度予測情報の増分(increment)に実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅が縮小され、送信効率は改良される。本実施形態はまたベースレイヤコードを復号し、また、2Dビューはベースレイヤコードの復号情報にしたがって表示可能であるため2Dディスプレイ機能と両立可能である。
第3の実施形態の別のビデオ復号方法について以下に記述する。
図20は、本発明の第3の実施形態にしたがった別のビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は、本発明の第4の実施形態の別のビデオ符号化方法に関連し、以下のステップを含んでいる。
ステップ1201:受信された符号化情報を逆多重化し、ベースレイヤコードおよびエンハンスメントレイヤコードを取得する。
ステップ1202:ベースレイヤコードを復号し、左目ビューを基準ビューとして取得する。
ステップ1203:エンハンスメントレイヤコードを復号し、スパース深度/視差情報、高密度深度/視差情報の増分(increment)、および精密深度/視差情報の増分(increment)を取得する。
ステップ1204:スパース深度/視差情報および高密度深度/視差情報の増分(increment)にしたがって高密度深度/視差情報を算出し、高密度深度/視差情報および精密深度/視差情報の増分(increment)にしたがって精密深度/視差情報を算出する。
ステップ1205:スパース深度/視差情報、高密度深度/視差情報、精密深度/視差情報および左目ビューにしたがって右目ビューを予測する。
符号化プロセスにおいて、少なくとも1つの3Dビューディスプレイレベルが、ディスプレイデバイスおよび/またはネットワーク送信情報を解析することによって取得され、ディスプレイレベルに対応する3層の予測情報構造がディスプレイレベルにしたがって取得され、この場合、3層の予測情報とはスパース深度/視差情報、高密度深度/視差情報、および精密深度/視差情報のことである。したがって、復号プロセスにおいて、エンハンスメントレイヤコードは直接復号され、3層の深度/視差情報を取得する。
本実施形態のビデオ復号方法において、予測情報は運動ベクトル情報、あるいは深度/視差情報および運動ベクトル情報の組み合わせであり得る。
本実施形態のビデオ復号方法によって、少なくとも2層の深度/視差情報が、取得された第1の層の深度/視差情報および複数層の深度/視差情報の増分(increments)にしたがって算出される。したがって、3Dビューが階層的に復号される。右目ビューは左目ビューに照らして予測され、3Dビューは左目ビューおよび予測された右目ビューにしたがって表示可能であり、種々の3Dディスプレイデバイスにより3Dビューを階層的に表示させることができる。エンハンスメントレイヤ復号が複数層の深度/視差情報の増分(increments)に実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。本実施形態はまたベースレイヤコードを復号し、また、2Dビューはベースレイヤコードの復号情報にしたがって表示可能であるため、2Dディスプレイ機能と両立可能である。
第4の実施形態の別のビデオ復号方法について以下に記述する。
図21は、本発明の第4の実施形態にしたがった別のビデオ復号方法のフローチャートである。本実施形態のビデオ復号方法は本発明の第3の実施形態の別のビデオ符号化方法に関連し、以下の点で第3の実施形態の別のビデオ復号方法と異なっている。
符号化プロセスにおいて、3層の予測情報構造が、抽出される予測情報の所定の層数およびレベルにしたがって判断される。したがって、復号プロセスはさらに、ステップ1203の前に以下のステップを含み得る。
ステップ12021:ディスプレイデバイスからのリクエスト情報を解析し、種々のディスプレイデバイスによって必要とされる少なくとも1つの3Dビューディスプレイレベルを取得し、ディスプレイレベルにしたがってエンハンスメントレイヤ復号の層の総数およびレベルを判断する。
具体的に、ステップ1203は、エンハンスメントレイヤコードの所定の層の総数および所定のレベルにしたがってエンハンスメントレイヤコードを復号し、スパース深度/視差情報および少なくとも1層の深度/視差情報の増分(increment)を取得することである。少なくとも1層の深度/視差情報の増分(increment)は高密度深度/視差情報の増分(increment)であってもよく、あるいは高密度深度/視差情報の増分(increment)および精密深度/視差情報の増分(increment)の組み合わせであってもよい。
第3の実施形態の別のビデオ復号方法に基づいて、本実施形態はさらに、ディスプレイデバイスの特定の要件にしたがって対応する層およびレベルのエンハンスメントレイヤコードを復号し、対応するレベルの深度/視差情報を取得することによって、復号効率を改良し、復号の複雑さを低減することができる。
第1の実施形態の別のビデオデコーダについて以下に記述する。
図22は、本発明の第1の実施形態にしたがった別のビデオデコーダの構造を示している。ビデオデコーダは、
受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュール60と、
ベースレイヤコードを復号し、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュール61と、
エンハンスメントレイヤコードを復号し、第1の層の予測情報および複数層の予測情報を取得するように適合されたエンハンスメントレイヤ復号モジュール62と、
第1の層の予測情報および複数層の予測情報の増分(increments)にしたがって少なくとも2層の予測情報を算出するように適合されている算出モジュール63と、
少なくとも2層の予測情報及び第1のビューにしたがって第2のビューを予測するように適合された予測モジュール64と、を含む。
本実施形態のビデオデコーダはさらに、ディスプレイデバイスからのリクエスト情報を解析し、ディスプレイデバイスによって必要とされる3Dビューディスプレイレベルを取得し、ディスプレイレベルにしたがってエンハンスメントレイヤ復号の層の総数を判断するように適合されている解析モジュール65を含み得る。
本実施形態で提供されたデコーダは、ここに提供されている別のビデオ復号方法の第1から第4の実施形態に適用可能である。
本実施形態では、エンハンスメントレイヤ復号モジュール62および算出モジュール63が、少なくとも2層の予測情報を取得するように設定される。したがって、3Dビューは階層的に復号され、種々の3Dディスプレイデバイスは3Dビューを階層的に表示可能である。エンハンスメントレイヤ復号は複数層の予測情報の増分(increments)に対して実行されるため、ネットワークで送信される必要のある情報は少なく、必要なネットワーク送信帯域幅は縮小され、送信効率は改良される。本実施形態はまた解析モジュール65にしたがってディスプレイデバイスの特定の要件を取得し、対応する層およびレベルの予測情報を復号することによって、復号効率を改良し、復号の複雑さを低減することができる。
最後に、上記実施形態は、本発明の技術的解決法を説明するために提供されたにすぎず、本発明に制限されるものではない点に留意されたい。本発明は上記実施形態を参照して詳細に説明されたが、修正や置換が対応する技術的解決法の本質を本発明の範囲から逸脱させない限り、上記実施形態で説明された技術的解決法に対する修正が可能であり、あるいは技術的解決法の技術的特徴に対して同等の置換が可能である点が当業者によって理解されるであろう。

Claims (23)

  1. 第1のビューを基準ビューとして使用して前記第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出するステップと、
    前記少なくとも1層の予測情報にそれぞれエンハンスメントレイヤ符号化を実行するステップと、
    前記第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して、符号化情報を取得するステップと、
    を備えるビデオ符号化方法。
  2. 前記予測情報が運動ベクトル情報および/または深度/視差情報である、請求項1に記載のビデオ符号化方法。
  3. 前記ベースレイヤコードおよび前記エンハンスメントレイヤコードが運動補償による離散コサイン変換コードである、請求項1に記載のビデオ符号化方法。
  4. 前記第1のビューを前記基準ビューとして使用して前記第1のビューに前記ベースレイヤ符号化を実行する前に、ディスプレイデバイスからのリクエスト情報および/またはネットワーク送信情報を解析し、前記ディスプレイデバイスおよび/またはネットワークによって必要とされる少なくとも1つの3次元(3D)ビューディスプレイレベルを取得するステップをさらに備え、
    前記ローカル復号された第1のビュー及び前記第2のビューを合成することによって前記少なくとも1層の予測情報を抽出するステップを、前記ローカル復号された第1のビュー及び前記第2のビューを合成することによって、前記ディスプレイデバイスおよび/または前記ネットワークによって必要とされる前記3Dビューディスプレイレベルに対応する少なくとも1層の予測情報を抽出するステップとした、請求項1〜請求項3の何れか1項に記載のビデオ符号化方法。
  5. 第1のビューを基準ビューとして使用して前記第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュールと、
    ローカル復号された第1のビュー及び第2のビューを合成することによって少なくとも1層の予測情報を抽出するように適合された少なくとも1つの予測情報抽出モジュールと、
    前記少なくとも1層の予測情報にエンハンスメントレイヤ符号化を実行するように適用されたエンハンスメントレイヤ符号化モジュールと、
    前記第1のビューのエンハンスメントレイヤコードおよびベースレイヤコードを多重化して、符号化情報を取得するように適合された多重化モジュールと、
    を備えるビデオコーダ。
  6. ディスプレイデバイスからのリクエスト情報および/またはネットワーク送信情報を解析して、前記ディスプレイデバイスおよび/またはネットワークによって必要とされる少なくとも1つの3次元(3D)ビューディスプレイレベルを取得するように適合された解析モジュールをさらに備える、請求項5に記載のビデオコーダ。
  7. 受信された符号化情報を逆多重化し、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するステップと、
    前記ベースレイヤコードを復号して、第1のビューを基準ビューとして取得するステップと、
    前記エンハンスメントレイヤコードを復号して、少なくとも1層の予測情報を取得するステップと、
    前記少なくとも1層の予測情報および前記第1のビューにしたがって第2のビューを予測するステップと、
    を備えるビデオ復号方法。
  8. 前記予測情報が運動ベクトル情報および/または深度/視差情報である、請求項7に記載のビデオ復号方法。
  9. 前記エンハンスメントレイヤコードを復号する前に、ディスプレイデバイスからのリクエスト情報を解析し、前記ディスプレイデバイスによって必要とされる少なくとも1つの3次元(3D)ビデオディスプレイレベルを取得するステップをさらに備え、
    前記エンハンスメントレイヤコードを復号し、前記少なくとも1層の予測情報を取得するステップを、前記エンハンスメントレイヤコードを復号し、前記ディスプレイデバイスによって必要とされる前記3Dディスプレイレベルに対応する少なくとも1層の予測情報を取得するステップとした、請求項7または請求項8に記載のビデオ復号方法。
  10. 受信された符号化情報を逆多重化して、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュールと、
    前記ベースレイヤコードを復号し、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュールと、
    前記エンハンスメントレイヤコードを復号し、少なくとも1層の予測情報を取得するように適合されたエンハンスメントレイヤ復号モジュールと、
    前記少なくとも1層の予測情報および前記第1のビューにしたがって第2のビューを予測するように適合された予測モジュールと、
    を備えるビデオデコーダ。
  11. ディスプレイデバイスからのリクエスト情報を解析し、前記ディスプレイデバイスによって必要とされる少なくとも1つの3次元(3D)ビューディスプレイレベルを取得するように適合された解析モジュールをさらに備える、請求項10に記載のビデオデコーダ。
  12. 第1のビューを基準ビューとして使用して前記第1のビューにベースレイヤ符号化を実行し、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出するステップと、
    前記第1の層の予測情報にエンハンスメントレイヤ符号化を実行するステップと、
    現在の層の予測情報の増分を、第2の層の予測情報の増分の抽出から開始する以下の方法により抽出するステップであって、
    前記ローカル復号された第1のビュー、前記第2のビュー、及び先行層の予測情報を合成することによって前記現在の層の予測情報の増分を抽出し、前記現在の層の予測情報の増分に前記エンハンスメントレイヤ符号化を実行し、最後の層の予測情報の増分が前記エンハンスメントレイヤ符号化を受けるまで続くステップと、

    ベースレイヤコードおよびエンハンスメントレイヤコードを多重化し、符号化情報を取得するステップと、
    を備えるビデオ符号化方法。
  13. 前記ローカル復号された第1のビューと、前記第2のビューと前記先行層の予測情報を合成することによって前記現在の層の予測情報インクリメントを抽出するステップを、
    前記ローカル復号された第1のビューと前記第2のビューを合成することによって現在の層の予測情報を抽出し、
    前記現在の層の予測情報および前記先行層の予測情報にしたがって前記現在の層の予測情報インクリメントを算出するステップとした、請求項12に記載のビデオ符号化方法。
  14. 前記現在の層の予測情報の増分を抽出するステップを、
    現在の層の運動ベクトル情報の増分および/または現在の層の深度/視差情報の増分を抽出するステップとした、請求項13に記載のビデオ符号化方法。
  15. 前記ベースレイヤコードおよび前記エンハンスメントレイヤコードが運動補償による離散コサイン変換コードである、請求項14に記載のビデオ符号化方法。
  16. 前記第1の層の予測情報に前記エンハンスメントレイヤ符号化を実行する前に、
    ディスプレイデバイスからのリクエスト情報および/またはネットワーク送信情報を解析し、前記ディスプレイデバイスおよび/またはネットワークによって必要とされる3次元(3D)ビューディスプレイレベルを取得し、前記ディスプレイレベルにしたがって抽出される前記予測情報の増分の層の総数およびレベルを判断するステップをさらに備える、請求項12〜請求項15の何れか1項に記載のビデオ符号化方法。
  17. 第1のビューを基準ビューとして使用して前記第1のビューにベースレイヤ符号化を実行するように適合されたベースレイヤ符号化モジュールと、
    少なくとも2層の予測情報抽出モジュールであって、第1の層の予測情報抽出モジュールが前記ベースレイヤ符号化モジュールと接続されており、ローカル復号された第1のビュー及び第2のビューを合成することによって第1の層の予測情報を抽出するように適合されており、前記第1の層の予測情報抽出モジュール以外の他の層の予測情報抽出モジュールが先行層の予測情報抽出モジュールに接続され、前記ローカル復号された第1のビュー、前記第2のビュー、及び先行層の予測情報を合成することによって現在の層の予測情報の増分を抽出するように適合されたモジュールと、
    前記第1の層の予測情報および複数層の予測情報の増分にエンハンスメントレイヤ符号化を実行するように適合されたエンハンスメントレイヤ符号化モジュールと、
    ベースレイヤコードおよびエンハンスメントレイヤコードを多重化して、符号化情報を取得するように適合された多重化モジュールとを備えるビデオコーダ。
  18. ディスプレイデバイスからのリクエスト情報および/またはネットワーク送信情報を解析し、前記ディスプレイデバイスおよび/またはネットワークによって必要とされる3次元(3D)ビューディスプレイレベルを取得し、前記ディスプレイレベルにしたがって抽出される前記予測情報の増分の層の総数およびレベルを判断するように適合された解析モジュールをさらに備える、請求項17に記載のビデオコーダ。
  19. 受信された符号化情報を逆多重化し、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するステップと、
    前記ベースレイヤコードを復号し、第1のビューを基準ビューとして取得するステップと、
    前記エンハンスメントレイヤコードを復号し、第1の層の予測情報および複数層の予測情報の増分を取得するステップと、
    前記第1の層の予測情報および前記複数層の予測情報の増分にしたがって少なくとも2層の予測情報を算出するステップと、
    前記少なくとも2層の予測情報および前記第1のビューにしたがって第2のビューを予測するステップと、
    を備えるビデオ復号方法。
  20. 前記第1の層の予測情報および前記複数層の予測情報の増分を取得するステップを、
    第1の層の運動ベクトル情報および/または第1の層の深度/視差情報、ならびに複数層の運動ベクトル情報の増分および/または複数層の深度/視差情報の増分を取得するステップとした、請求項19に記載のビデオ復号方法。
  21. 前記エンハンスメントレイヤコードを復号する前に、
    ディスプレイデバイスからのリクエスト情報を解析し、前記ディスプレイデバイスによって必要とされる3次元(3D)ビューディスプレイレベルを取得し、前記ディスプレイレベルにしたがってエンハンスメントレイヤ復号の層の総数およびレベルを判断するステップをさらに備える、請求項19または請求項20に記載のビデオ復号方法。
  22. 受信された符号化情報を逆多重化し、ベースレイヤコードおよびエンハンスメントレイヤコードを取得するように適合された逆多重化モジュールと、
    前記ベースレイヤコードを復号し、第1のビューを基準ビューとして取得するように適合されたベースレイヤ復号モジュールと、
    前記エンハンスメントレイヤコードを復号し、第1の層の予測情報および複数層の予測情報の増分を取得するように適合されたエンハンスメントレイヤ復号モジュールと、
    前記第1の層の予測情報および前記複数層の予測情報の増分にしたがって少なくとも2層の予測情報を算出するように適合された算出モジュールと、
    前記少なくとも2層の予測情報および前記第1のビューにしたがって第2のビデオを予測するように適合された予測モジュールと、
    を備えるビデオデコーダ。
  23. ディスプレイデバイスからのリクエスト情報を解析し、前記ディスプレイデバイスによって必要とされる3次元(3D)ビューディスプレイレベルを取得し、前記ディスプレイレベルにしたがってエンハンスメントレイヤ復号の層の総数およびレベルを判断するように適合された解析モジュールをさらに備える、請求項22に記載のビデオデコーダ。
JP2010530253A 2007-10-24 2008-10-14 ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ Active JP5232866B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2007101762888A CN101420609B (zh) 2007-10-24 2007-10-24 视频编码、解码方法及视频编码器、解码器
CN200710176288.8 2007-10-24
PCT/CN2008/072675 WO2009065325A1 (en) 2007-10-24 2008-10-14 A video encoding/decoding method and a video encoder/decoder

Publications (2)

Publication Number Publication Date
JP2011501581A true JP2011501581A (ja) 2011-01-06
JP5232866B2 JP5232866B2 (ja) 2013-07-10

Family

ID=40631169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010530253A Active JP5232866B2 (ja) 2007-10-24 2008-10-14 ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ

Country Status (5)

Country Link
US (2) US20100202540A1 (ja)
EP (1) EP2207352A4 (ja)
JP (1) JP5232866B2 (ja)
CN (1) CN101420609B (ja)
WO (1) WO2009065325A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
CN105847781B (zh) 2010-07-21 2018-03-20 杜比实验室特许公司 用于多层帧兼容视频传输的解码方法
US20120044321A1 (en) * 2010-08-18 2012-02-23 Electronics And Telecommunications Research Institute Apparatus and method for monitoring broadcasting service in digital broadcasting system
CN102055984B (zh) * 2011-01-27 2012-10-03 山东大学 2d和3d播放模式平滑切换的立体视频解码结构及工作方法
CN102281446B (zh) * 2011-09-20 2013-07-03 西南交通大学 一种分布式视频编码中基于视觉感知特性的量化方法
JP6156648B2 (ja) * 2011-09-22 2017-07-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号化方法、および、動画像復号化装置
TWI595770B (zh) 2011-09-29 2017-08-11 杜比實驗室特許公司 具有對稱圖像解析度與品質之圖框相容全解析度立體三維視訊傳達技術
EP2761877B8 (en) 2011-09-29 2016-07-13 Dolby Laboratories Licensing Corporation Dual-layer frame-compatible full-resolution stereoscopic 3d video delivery
CN107241606B (zh) 2011-12-17 2020-02-21 杜比实验室特许公司 解码系统、方法和设备以及计算机可读介质
CN102710949B (zh) * 2012-05-11 2014-06-04 宁波大学 一种基于视觉感知的立体视频编码方法
CN110035286B (zh) 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
KR102221615B1 (ko) * 2012-09-03 2021-03-02 소니 주식회사 화상 처리 장치 및 방법
US9900609B2 (en) 2013-01-04 2018-02-20 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
KR20150126037A (ko) * 2013-03-13 2015-11-10 후아웨이 테크놀러지 컴퍼니 리미티드 깊이 룩업 테이블을 코딩하는 방법
CN105308970B (zh) * 2013-04-05 2018-11-23 三星电子株式会社 针对整数像素的位置对视频进行编码和解码的方法和设备
WO2014162750A1 (en) * 2013-04-05 2014-10-09 Sharp Kabushiki Kaisha Random access point pictures
US11184599B2 (en) * 2017-03-15 2021-11-23 Pcms Holdings, Inc. Enabling motion parallax with multilayer 360-degree video
US10939086B2 (en) * 2018-01-17 2021-03-02 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding virtual reality content
JP7453212B2 (ja) * 2019-03-26 2024-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512809A (ja) * 2002-12-27 2006-04-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 立体ビデオの符号化及び復号化方法、符号化及び復号化装置
JP2006304329A (ja) * 2003-01-14 2006-11-02 Nippon Telegr & Teleph Corp <Ntt> 符号化方法及び復号化方法及び符号化装置及び復号化装置
WO2007047736A2 (en) * 2005-10-19 2007-04-26 Thomson Licensing Multi-view video coding using scalable video coding

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
CA2208950A1 (en) * 1996-07-03 1998-01-03 Xuemin Chen Rate control for stereoscopic digital video encoding
US6144701A (en) * 1996-10-11 2000-11-07 Sarnoff Corporation Stereoscopic video coding and decoding apparatus and method
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6496980B1 (en) * 1998-12-07 2002-12-17 Intel Corporation Method of providing replay on demand for streaming digital multimedia
EP1085769B1 (en) * 1999-09-15 2012-02-01 Sharp Kabushiki Kaisha Stereoscopic image pickup apparatus
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
CN1204757C (zh) * 2003-04-22 2005-06-01 上海大学 一种立体视频流编码/解码器及其立体视频编解码系统
US7227894B2 (en) * 2004-02-24 2007-06-05 Industrial Technology Research Institute Method and apparatus for MPEG-4 FGS performance enhancement
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
US8773494B2 (en) * 2006-08-29 2014-07-08 Microsoft Corporation Techniques for managing visual compositions for a multimedia conference call

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512809A (ja) * 2002-12-27 2006-04-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 立体ビデオの符号化及び復号化方法、符号化及び復号化装置
JP2006304329A (ja) * 2003-01-14 2006-11-02 Nippon Telegr & Teleph Corp <Ntt> 符号化方法及び復号化方法及び符号化装置及び復号化装置
WO2007047736A2 (en) * 2005-10-19 2007-04-26 Thomson Licensing Multi-view video coding using scalable video coding
JP2009513074A (ja) * 2005-10-19 2009-03-26 トムソン ライセンシング スケーラブル映像符号化を用いた多視点映像符号化

Also Published As

Publication number Publication date
US20100202540A1 (en) 2010-08-12
EP2207352A1 (en) 2010-07-14
WO2009065325A1 (en) 2009-05-28
JP5232866B2 (ja) 2013-07-10
EP2207352A4 (en) 2011-06-08
CN101420609B (zh) 2010-08-25
CN101420609A (zh) 2009-04-29
US20140313291A1 (en) 2014-10-23

Similar Documents

Publication Publication Date Title
JP5232866B2 (ja) ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ
Kurutepe et al. Client-driven selective streaming of multiview video for interactive 3DTV
US5619256A (en) Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR100523052B1 (ko) 다중 디스플레이 방식을 지원하는 다시점 동영상의 객체 기반 부호화 장치 및 그 방법과 그를 이용한 객체 기반 송수신 시스템 및 그 방법
US9191646B2 (en) Apparatus, a method and a computer program for video coding and decoding
US5612735A (en) Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
KR101158491B1 (ko) 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101245251B1 (ko) 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치
WO2009052730A1 (en) Video encoding decoding method and device and video codec
CN101243692B (zh) 对多视角视频进行编码的方法和设备
KR100738867B1 (ko) 다시점 동영상 부호화/복호화 시스템의 부호화 방법 및시점간 보정 변이 추정 방법
KR20030056267A (ko) 다중 디스플레이 방식을 지원하는 양안식 동영상 부호화장치와 복호화 장치 및 그 방법
TW201041402A (en) Image signal decoding device, image signal decoding method, image signal encoding device, image signal encoding method, and program
US20110149033A1 (en) Code stream conversion system and method, code stream identifying unit and solution determining unit
CN101743750B (zh) 用于编码和解码多视角图像的方法和装置
US20100195900A1 (en) Apparatus and method for encoding and decoding multi-view image
KR102116265B1 (ko) 서로 다른 다계층 비디오 코덱의 통합 부호화/복호화 방법 및 장치
KR100813064B1 (ko) 비디오 영상 복호화/부호화 방법 및 장치, 데이터 포맷
KR101386651B1 (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치
CN109451293B (zh) 一种自适应立体视频传输系统和方法
KR20070098429A (ko) 비디오 신호의 디코딩 방법
US20130100245A1 (en) Apparatus and method for encoding and decoding using virtual view synthesis prediction
KR100943634B1 (ko) 깊이 정보의 계층적 부호화를 통한 자유 시점 비디오콘텐츠 제공 방법 및 장치
Domański et al. New coding technology for 3D video with depth maps as proposed for standardization within MPEG
KR20150043164A (ko) 2d 비디오 기반 3d 비디오 코딩을 위한 병합 움직임 후보 리스트를 구성하는 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120518

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120620

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5232866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250