JP2009513074A - スケーラブル映像符号化を用いた多視点映像符号化 - Google Patents

スケーラブル映像符号化を用いた多視点映像符号化 Download PDF

Info

Publication number
JP2009513074A
JP2009513074A JP2008536753A JP2008536753A JP2009513074A JP 2009513074 A JP2009513074 A JP 2009513074A JP 2008536753 A JP2008536753 A JP 2008536753A JP 2008536753 A JP2008536753 A JP 2008536753A JP 2009513074 A JP2009513074 A JP 2009513074A
Authority
JP
Japan
Prior art keywords
viewpoint image
base layer
enhancement layer
scalability
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008536753A
Other languages
English (en)
Other versions
JP5587552B2 (ja
Inventor
ペン イン
ゴミラ クリスティーナ
イエピン スー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2009513074A publication Critical patent/JP2009513074A/ja
Application granted granted Critical
Publication of JP5587552B2 publication Critical patent/JP5587552B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

スケーラブル映像符号化を用いた立体視映像符号化の方法および装置が提供される。スケーラブル映像符号化器が、多視点映像コンテンツに対応する少なくとも2つの視点画像を符号化する符号化器(100)を含み、この符号化は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化することと、その少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして符号化することと、によって行われ、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。

Description

本発明は、主として、映像の符号化および復号に関し、特にスケーラブル映像符号化を用いた多視点映像符号化(MVC)の方法および装置に関する。
三次元(3D)映像とも呼ばれる立体視映像は、表示画像について錯覚により奥行き感を形成する。奥行き感を形成する一つの方法は、両方の目が両眼視で自然に受け取る遠近感と同様の遠近感を形成し、各々同じ物体の2つの視点からの像を表している、2つの異なる二次元(2D)画像を表示することである。
高画質の立体視ディスプレイが市場に多数登場してきたことに伴って、符号化効率にすぐれ、複雑な符号化さほど必要ない、立体視映像の圧縮解法の提供が望まれている。
近年においては、立体視映像を圧縮する効率的な方法を設計する取り組みが数多くなされている。もちろん、従来の平面視についての圧縮方法を、立体視画像対の左右の視点画像(view)に独立に適用することは可能である。しかしながら、視点画像間に高い相関があることを活用すれば、より高い圧縮率を達成することが可能である。
立体視画像対の両視点画像を符号化する先行する技術の取り組みに関しては、ISO/IEC(International Organization for Standardization/International Electrotechnical Commission)のMPEG−2(Moving Picture Experts Group−2)規格において、映像信号の対を送信するためのマルチビュープロファイル(MVP)が定義されている。MVPは、一方の視点画像(たいていは左視点画像)が基本レイヤに割り当てられ、他方の視点画像が拡張レイヤに割り当てられるマルチレイヤによる信号表現手法を用いる。基本レイヤには、メインプロファイル(MP)と同じツールによる平面視符号化が適用される。拡張レイヤは、時間スケーラビリティツール、および動きフィールドとディスパリティ(disparity)フィールドとの複合予測を用いて符号化される。
ISO/IEC(International Organization for Standardization/International Electrotechnical Commission)のMPEG−4(Moving Picture Experts Group−4)のPart 10 AVC(Advanced Video Coding)規格/ITU−T(International Telecommunication UnionのTelecommunication Sector)のH.264規格(以下、「MPEG4/H.264規格」または簡単に「H.264規格」)に関連する先行技術の方法においては、立体視映像符号化は、次の2つの異なる方法で実施することが可能である。すなわち、(i)インターレース画像符号化の特殊なケースとして、特定パリティのすべてのフィールドを左視点画像に割り当て、その反対のパリティのすべてのフィールドを、立体視画像コンテンツの右視点画像と見なす。あるいは、これに代えて、(ii)左視点画像および右視点画像からのフレームを交互に入れ替えて、単一の平面視映像シーケンスを形成する。符号化映像シーケンスが立体視コンテンツを表しているかどうか、およびそれに対応するコンテンツを符号化するためにどの方法が用いられたかについての通知が、立体視のSEI(補助拡張情報(supplemental enhancement information))メッセージによって復号器に提供される。
これらの以前から知られている方法は、既存の平面視符号化技術をほんのわずか修正するだけでよい。しかしながら、これらの方法により立体視画像対の2つの視点画像の間に存在する冗長性を減らすには、限界がある。このため最終的には、この立体視画像の符号化は、単一の平面視画像の符号化に比べて、オーバヘッドが大きくなる。この問題があるために、伝送帯域幅が限られている家庭用アプリケーションへの立体視画像の普及は進んでいない。
その他の先行技術に示される方法として、一方の視点画像と何らかの「追加3D情報」とで符号化を行う方法がある。この方法は、立体視コンテンツを符号化するための、より一般的かつシンプルなアプローチであって、1つの単一視点画像と、受け手側で立体視画像対のもう一方の視点の画像を描画することができる、何らかの追加3D情報とを符号化するものである。従来、送信される3D情報は、奥行きマップおよび/またはパリティマップで表される。奥行きマップには、各画素に奥行き値が割り当てられた、3Dシーンの2D画像表現が含まれる。画素値の差が、3Dシーンの奥行きの差に対応する。奥行きデータは、輝度チャネルのみの映像ストリームとして符号化されることが多い。
MPEG−4 Part 2においては、映像オブジェクトシンタックスは、いわゆるMAC(複数の補助成分(multiple auxiliary components))を含み、これらは、動き補償DCTによりグレーレベル画像として符号化される。映像オブジェクトの動きベクトルが、その補助成分の動き補償に用いられる。この補助成分は、1つには、奥行きマップデータまたはディスパリティマップデータを符号化する点で有用である。しかしながら、補助成分は、映像オブジェクトの輝度成分と同じサイズでなければならないという制約がある。上記の方法は、MPEG−2 MVPより性能が良好である。しかしながら、MPEG−4 Part 2規格は、産業界への導入に成功していない。これは、MPEG−4 part 10の符号化利得がすぐれていることと、提案されているオブジェクト指向符号化方法が非常に複雑であることとが原因である。
先行技術の以上およびその他の欠点および不利な点は、本発明によって対処されるが、本発明の対象は、スケーラブル映像符号化を用いた多視点映像符号化(MVC)の方法および装置である。
本原理の一態様によれば、スケーラブル映像符号化器が提供される。本スケーラブル映像符号化器は、多視点映像コンテンツに対応する少なくとも2つの視点画像を符号化する符号化器を含み、この符号化は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化することと、その少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして符号化することと、によって行われ、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理の別の態様によれば、スケーラブル映像符号化の方法が提供される。本方法は、多視点映像コンテンツに対応する少なくとも2つの視点画像を符号化することを含み、この符号化は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化することと、その少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして符号化することと、によって行われ、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理のさらに別の態様によれば、スケーラブル映像復号のためのスケーラブル映像復号器が提供される。本スケーラブル映像復号器は、多視点映像コンテンツに対応する少なくとも2つの視点画像を復号する復号器を含み、この復号は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして復号することと、その少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして復号することと、によって行われ、その拡張レイヤとしての復号は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号される。
本原理のさらに別の態様によれば、スケーラブル映像復号の方法が提供される。本方法は、多視点映像コンテンツに対応する少なくとも2つの視点画像を復号することを含み、この復号は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして復号することと、その少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして復号することと、によって行われ、その拡張レイヤとしての復号は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号される。
本原理のさらなる態様によれば、スケーラブル映像符号化のための映像信号形式が提供される。本映像信号形式は、少なくとも2つの視点画像のうちの、基本レイヤとして符号化される特定の視点画像と、その少なくとも2つの視点画像のうちの、拡張レイヤとして符号化される少なくとも1つのその他の視点画像とを含み、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、多視点映像コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理の、なおさらなる態様によれば、スケーラブル映像信号データが符号化される記憶媒体が提供される。本スケーラブル映像信号データは、少なくとも2つの視点画像のうちの、基本レイヤとして符号化される特定の視点画像と、その少なくとも2つの視点画像のうちの、拡張レイヤとして符号化される少なくとも1つのその他の視点画像とを含み、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、多視点映像コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理の追加の態様によれば、スケーラブル映像符号化器が提供される。本スケーラブル映像符号化器は、第1の立体視視点画像を基本レイヤとして符号化し、第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤとして符号化する符号化器を含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理の別の態様によれば、スケーラブル映像符号化の方法が提供される。本方法は、第1の立体視視点画像を基本レイヤとして符号化することと、第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤとして符号化することとを含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理のさらに別の態様によれば、スケーラブル映像復号器が提供される。本スケーラブル映像復号器は、第1の立体視視点画像を基本レイヤから復号し、第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤから復号する復号器を含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号される。
本原理のさらに別の態様によれば、スケーラブル映像復号の方法が提供される。本方法は、第1の立体視視点画像を基本レイヤから復号することと、第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤから復号することとを含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号される。
本原理のなおさらなる態様によれば、スケーラブル映像符号化のための映像信号形式が提供される。本映像信号形式は、基本レイヤとして符号化される第1の立体視視点画像と、第1の立体視視点画像からの予測を可能にするために、拡張レイヤとして符号化される、奥行きマップおよびディスパリティマップのうちの少なくとも一方とを含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本原理の追加の態様によれば、スケーラブル映像信号データが符号化される記憶媒体が提供される。本スケーラブル映像信号データは、基本レイヤとして符号化される第1の立体視視点画像と、第1の立体視視点画像からの予測を可能にするために、拡張レイヤとして符号化される、奥行きマップおよびディスパリティマップのうちの少なくとも一方とを含む。第1の立体視視点画像と、奥行きマップおよびディスパリティマップのうちの少なくとも一方とが、それぞれ、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
本発明の以上およびその他の態様、特徴、および利点は、添付図面と関連して読まれるべき、以下の、例示的な実施形態の詳細説明から明らかになるであろう。
本発明は、添付の例示的図面を参照することにより、よりよく理解されるであろう。
本発明の対象は、スケーラブル映像符号化を用いた多視点映像符号化(MVC)の方法および装置である。以下では、説明を目的に、立体視(2視点)映像コンテンツに関する、本発明の例示的な実施形態について記載する。しかしながら、当業者であれば、本明細書において提供される本原理の示唆に基づいて、本発明の範囲から逸脱することなく、本原理を、2つ以上の視点に対応する多視点映像コンテンツに容易に拡張することが可能であろう。
本明細書は、本発明の原理を例示的に説明するものである。したがって、当業者であれば、本明細書に明示的に記載または図示されていなくても本発明の原理を実施する、本発明の趣旨および範囲から逸脱しない様々な構成を考案することが可能であることを理解されたい。
本明細書に説明されるすべての例および条件付言語は、本願発明者によって本技術分野の発展に寄与されている本発明の原理および概念を読み手が理解することを支援する教示的目的を意図しており、そのように具体的に説明される例および条件に限定されないものとして解釈されなければならない。
さらに、本明細書において、本発明の原理、態様、および実施形態、ならびにそれらの具体例を説明するすべての記載は、それらの構造的均等物ならびに機能的均等物を包含するものとする。さらに、そのような均等物は、現在知られている均等物および将来開発される均等物(すなわち、構造に関係なく同じ機能を実現するように開発される任意の要素)を含むものとする。
したがって、たとえば、当業者であれば理解されるように、本明細書で提示されるブロック図は、本発明の原理を実施する例示的回路の概念図を表す。同様に、すべてのフローチャート、フロー図、状態遷移図、擬似コードなどは、コンピュータ読取可能な媒体で実質的に表すことが可能であり、したがって、コンピュータまたはプロセッサによって(そのようなコンピュータまたはプロセッサが明示的に示されているかどうかに関係なく)実行されることが可能な、種々のプロセスを表すことを理解されたい。
図面に示す各種要素の機能は、専用ハードウェア、ならびに適切なソフトウェアについて、ソフトウェアを実行することが可能なハードウェアを使用することによって提供することが可能である。これらの機能は、プロセッサによって提供される場合には、単一の専用プロセッサ、単一の共用プロセッサ、またはいくつかが共用可能である複数の個別プロセッサによって提供することが可能である。さらに、「プロセッサ」または「コントローラ」という用語を明示的に使用するが、これをソフトウェアを実行することが可能なハードウェアだけを指すと解釈するものではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを格納する読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、および不揮発性ストレージを、限定ではなく、暗黙的に含むことが可能である。
他の(従来の、かつ/またはカスタムの)ハードウェアも含まれてよい。同様に、図面に示されているすべてのスイッチは、概念上のものに過ぎない。それらの機能は、プログラムロジック、専用ロジック、プログラム制御と専用ロジックとの対話などによる動作、または手動で実施することが可能であり、その具体的な手法は、本明細書の文脈からより具体的に理解されるように、実装者により選択可能である。
本明細書の特許請求項においては、指定された機能を実施する手段として表現された要素はすべて、その機能を実施するあらゆる手段を包含するものとし、そのような手段としては、たとえば、a)その機能を実施する回路要素の組み合わせ、またはb)その機能を実施するソフトウェアを実行するために適切な回路と組み合わされた任意の形態(したがって、ファームウェア、マイクロコードなどを含む形態)のソフトウェアがある。そのような請求項によって定義される本発明は、説明される種々の手段によって提供される各機能が、特許請求項の求める様式で組み合わされ、まとめられるという事実にある。したがって、それらの機能を提供しうる手段はすべて、本明細書で示される手段と等価であると見なされる。
図1は、全体が参照符号100で示される、本発明を適用することが可能な例示的Joint Scalable Video Model Version 3.0(以下、「JSVM3.0」)符号化器を示す。JSVM3.0符号化器100は、3つの空間レイヤと、動き補償時間フィルタリング(motion compensated temporal filtering)とを用いる。JSVM符号化器100は、二次元(2D)デシメータ104と、2Dデシメータ106と、動き補償時間フィルタリング(MCTF)モジュール108とを備え、これらのそれぞれが、映像信号データ102を受け取る入力を有する。
2Dデシメータ106の出力が、信号通信でMCTFモジュール110の入力に接続されている。MCTFモジュール110の第1の出力が、信号通信で動き符号化器112の入力に接続され、MCTFモジュール110の第2の出力が、信号通信で予測モジュール116の入力に接続されている。動き符号化器112の第1の出力が、信号通信で多重化器114の第1の入力に接続されている。動き符号化器112の第2の出力が、信号通信で動き符号化器124の第1の入力に接続されている。予測モジュール116の第1の出力が、信号通信で空間変換器118の入力に接続されている。空間変換器118の出力が、信号通信で多重化器114の第2の入力に接続されている。予測モジュール116の第2の出力が、信号通信で補間器120の入力に接続されている。補間器の出力が、信号通信で予測モジュール122の第1の入力に接続されている。予測モジュール122の第1の出力が、信号通信で空間変換器126の入力に接続されている。空間変換器126の出力が、信号通信で多重化器114の第2の入力に接続されている。予測モジュール122の第2の出力が、信号通信で補間器130の入力に接続されている。補間器130の出力が、信号通信で予測モジュール134の第1の入力に接続されている。予測モジュール134の出力が、信号通信で空間変換器136に接続されている。空間変換器136の出力が、信号通信で多重化器114の第2の入力に接続されている。
2Dデシメータ104の出力が、信号通信でMCTFモジュール128の入力に接続されている。MCTFモジュール128の第1の出力が、信号通信で動き符号化器124の第2の入力に接続されている。動き符号化器124の第1の出力が、信号通信で多重化器114の第1の入力に接続されている。動き符号化器124の第2の出力が、信号通信で動き符号化器132の第1の入力に接続されている。MCTFモジュール128の第2の出力が、信号通信で予測モジュール122の第2の入力に接続されている。
MCTFモジュール108の第1の出力が、信号通信で動き符号化器132の第2の入力に接続されている。動き符号化器132の出力が、信号通信で多重化器114の第1の入力に接続されている。MCTFモジュール108の第2の出力が、信号通信で予測モジュール134の第2の入力に接続されている。多重化器114の出力が、出力ビットストリーム138を提供する。
各空間レイヤに対して、動き補償の時間分解が実行される。この分解は、時間スケーラビリティを提供する。下位空間レイヤからの動き情報を、上位レイヤにおける動きの予測に用いることが可能である。テクスチャ符号化の場合は、連続する空間レイヤ間の空間予測を適用して冗長性を除去することが可能である。イントラ予測または動き補償インター予測から得られる残差信号は、変換符号化されている。基本画質レイヤ(quality base layer)の残差により、各空間レイヤにおける最低限の再構成画質が与えられる。この基本画質レイヤは、インターレイヤ予測が適用されていない場合には、H.264規格準拠のストリームに符号化することが可能である。画質スケーラビリティのために、画質拡張レイヤ(quality enhancement layer)を追加で符号化することが可能である。これらの画質拡張レイヤは、粗粒性(coarse)または細粒性(fine grain)画質(SNR)スケーラビリティを与えるために選択することが可能である。
図2は、全体が参照符号200で示される、本発明を適用することが可能な例示的スケーラブル映像復号器を示す。多重分離器202の入力が、スケーラブルビットストリームを受け取る、スケーラブル映像復号器200の入力として利用可能である。多重分離器202の第1の出力が、信号通信で空間逆変換SNRスケーラブルエントロピー復号器204の入力に接続されている。空間逆変換SNRスケーラブルエントロピー復号器204の第1の出力が、信号通信で予測モジュール206の第1の入力に接続されている。予測モジュール206の出力が、信号通信で逆MCTFモジュール208の第1の入力に接続されている。
空間逆変換SNRスケーラブルエントロピー復号器204の第2の出力が、信号通信で動きベクトル(MV)復号器210の第1の入力に接続されている。MV復号器210の出力が、信号通信で逆MCTFモジュール208の第2の入力に接続されている。
多重分離器202の第2の出力が、信号通信で空間逆変換SNRスケーラブルエントロピー復号器212の入力に接続されている。空間逆変換SNRスケーラブルエントロピー復号器212の第1の出力が、信号通信で予測モジュール214の第1の入力に接続されている。予測モジュール214の第1の出力が、信号通信で補間モジュール216の入力に接続されている。補間モジュール216の出力が、信号通信で予測モジュール206の第2の入力に接続されている。予測モジュール214の第2の出力が、信号通信で逆MCTFモジュール218の第1の入力に接続されている。
空間逆変換SNRスケーラブルエントロピー復号器212の第2の出力が、信号通信でMV復号器220の第1の入力に接続されている。MV復号器220の第1の出力が、信号通信でMV復号器210の第2の入力に接続されている。MV復号器220の第2の出力が、信号通信で逆MCTFモジュール218の第2の入力に接続されている。
多重分離器202の第3の出力が、信号通信で空間逆変換SNRスケーラブルエントロピー復号器222の入力に接続されている。空間逆変換SNRスケーラブルエントロピー復号器222の第1の出力が、信号通信で予測モジュール224の入力に接続されている。予測モジュール224の第1の出力が、信号通信で補間モジュール226の入力に接続されている。補間モジュール226の出力が、信号通信で予測モジュール214の第2の入力に接続されている。
予測モジュール224の第2の出力が、信号通信で逆MCTFモジュール228の第1の入力に接続されている。空間逆変換SNRスケーラブルエントロピー復号器222の第2の出力が、信号通信でMV復号器230の入力に接続されている。MV復号器230の第1の出力が、信号通信でMV復号器220の第2の入力に接続されている。MV復号器230の第2の出力が、信号通信で逆MCTFモジュール228の第2の入力に接続されている。
逆MCTFモジュール228の出力は、レイヤ0信号を出力する、復号器200の出力として利用可能である。逆MCTFモジュール218の出力は、レイヤ1信号を出力する、復号器200の出力として利用可能である。逆MCTFモジュール208の出力は、レイヤ2信号を出力する、復号器200の出力として利用可能である。
空間スケーラビリティ、時間スケーラビリティ、およびSNRスケーラビリティについては、大きな度合いのインターレイヤ予測が組み込まれている。以前のレイヤの対応する信号を用いて、イントラマクロブロックおよびインターマクロブロックを予測することが可能である。さらに、各レイヤの動き記述を、後続の画質拡張レイヤの動き記述の予測に用いることが可能である。これらの手法は、インターレイヤイントラテクスチャ予測、インターレイヤ動き予測、およびインターレイヤ残差予測の3つのカテゴリに分けられる。
本願発明者らは、本原理に従い、H.264規格の修正案として現在開発されているスケーラブル映像符号化(Scalable Video Coding)(以下、「H.264 SVC」または単に「SVC」とも称する)とともに用いることが可能な、立体視映像を符号化するための2つの例示的な実施形態を開示する。第1の方法によれば、立体視コンテンツは、視点画像対(左右の視点画像、またはこれに代えて第1および第2の立体視視点画像)として、SVCで符号化される。第2の方法によれば立体視コンテンツは、一方の視点画像および奥行き/パリティマップとして、SVCで符号化される。2つの例示的な実施形態の各方法には、立体視映像符号化にSVCビットストリームが用いられていることを示すために、新しいメッセージ、インジケータなど(たとえば、補助拡張情報(SEI)メッセージ)が用いられる。
本明細書では、本原理の実施形態をH.264 SVCに関して説明しているが、当業者であれば理解されるように、本原理は、そのようには限定されず、本原理の範囲から逸脱することなく、(たとえば、MPEG−2を含む各種MPEG規格を含み、これに限定されない)他の映像符号化規格にも容易に適用することが可能であることを理解されたい。
第1の例示的な実施形態によれば、立体視画像対の両視点画像をスケーラブル映像符号化方式で符号化することが、第1の視点画像を基本レイヤとして符号化し、第2の視点画像を拡張レイヤにおいて符号化することによって実行される。本原理とMPEG−2 MVP方式との大きな違いとして、本原理では、2つの視点画像は、時間スケーラビリティのみを用いて符号化する必要はない。したがって、本原理によれば、立体視視点画像は、個々の用途の要件に対して可能な要求および効率に応じて、時間スケーラビリティ、空間スケーラビリティ、またはSNRスケーラビリティとして符号化(および、したがって、後で復号)されることが可能である。たとえば、符号化効率を最大にすることが必要な場合は、時間スケーラビリティがより好適である。2つの視点画像の空間分解能/画質が異なることが利点になりうる用途の場合は、空間/SNRスケーラビリティがより好適である。
非立体視ディスプレイを、拡張レイヤを復号することなく映像を復号できるようにするために、かつ視点画像が異なれば分解能が異なるようにすることを可能にするために、本願発明者らは、空間スケーラビリティ用途については、第1の例示的な実施形態の一例示的な態様において、1以下のスケーリング係数を使用することを提案する。
取り込まれた立体視映像では、異なるカメラ視点の間で照度や色の不一致がよく見られる。そのような望ましくない不一致の、考えられる原因として、カメラの校正不良、光の投射方向の違い、表面反射特性の違いなどがあるが、それらに限定されない。H.264規格で最初に開発された重み付け予測(Weighted Prediction)(WP)は、2つの視点画像の間のテクスチャ予測が必要な場合に照度/色の違いを補償する効果的なツールである。WPは、SVCで使用可能であるが、同じレイヤまたは時間スケーラビリティしか想定していない。そこで、第1の例示的な実施形態の一例示的な実施態様によれば、時間スケーラビリティについては、第1の例示的な実施形態において第1の視点画像を基本レイヤで符号化し、第2の視点画像を拡張レイヤで符号化することにより、SVCのWPが視点画像間予測の符号化効率を容易に向上させることが可能になる。空間スケーラビリティまたはSNRスケーラビリティについては、本願発明者らは、Intra_BLモードに対するWPサポートの追加、すなわち拡張レイヤのマクロブロックと基本レイヤの重み付きマクロブロックとの間の差を符号化することを提案する。
本明細書に記載の例示的な第1の実施形態をサポートし、どの視点画像が基本レイヤに対応するかを指定する、新しい補助拡張情報(SEI)メッセージが提供される。このSEIメッセージを表1に示す。たとえば、base_layer_is_left_view_flagが1であれば、これは、左視点画像が基本レイヤで符号化されていることを示している。逆に、base_layer_is_left_view_flagが0であれば、これは、右視点画像が基本レイヤで符号化されていることを示している。
Figure 2009513074
なお、このメタデータは復号処理には必要でないため、このメタデータを、別のシンタックス仕様に従って帯域外で送信することが可能である。
第2の例示的な実施形態によれば、従来の非立体視ディスプレイを、奥行きマップを復号することなく映像を復号できるようにするために、第1の視点画像を符号化し、奥行きおよび/またはディスパリティマップを拡張レイヤで使用する。用途の要件に応じて、空間スケーラビリティまたはSNRスケーラビリティを適用することが可能である。空間スケーラビリティの場合は、奥行きマップをより低い分解能で符号化することが可能なので、可能な、好ましい一実施形態では、1以下のスケーリング係数を使用する。
第2の例示的な実施形態で使用し、送信されない視点画像のレンダリング処理を支援するために伝達される補助3Dメタデータを提供する、新しいSEIメッセージが提供される。特定の実施形態において、送信されるメタデータは、表2に示されるような、2つのパラメータ(Nknear、Nkfar)を含むことが可能である。これら2つのパラメータと奥行きマップとにより、正確な画素視差を計算することが可能であり、それによって、視聴者から見て、意図された奥行き効果をディスプレイ上にもたらすことが可能である。
Nknearは、新しくレンダリングされる視点画像と並行する画面を計算するために適用されるべき、128に正規化されたknear比パラメータを指定する。
Nkfarは、新しくレンダリングされる視点画像と並行する画面を計算するために適用されるべき、32に正規化されたkfar比パラメータを指定する。
Figure 2009513074
なお、このメタデータは復号処理には必要でないため、このメタデータを、別のシンタックス仕様に従って帯域外で送信することが可能であることに留意されたい。
奥行きマップおよび一方の符号化された視点画像(たとえば、左側視点画像)を用いて、他方の送信されない視点画像(たとえば、右側視点画像)を構成する際に生じる、1つの大きな問題は、左視点画像内に閉じ込められた領域が、右視点画像では見えない可能性があることである。このことにより、右視点画像内に穴ができる可能性がある。別の問題は、左視点画像および奥行きマップがロッシー符号化されているため、再構成された右視点画像と元の右視点画像との間に誤差が存在する可能性があることである。送信されない視点画像の画質を向上させるため、追加SNRレイヤを追加することが可能である。追加SNRレイヤは、SEIメッセージと組み合わせる必要があり、それによって、復号器は、その画質向上が、再構成された非符号化視点画像に基づくことを認識する。
なお、現時点の(Joint Scalable Video Model 3(JSVM3)を用いる)SVCでは、空間スケーラビリティは、1以上の分解能スケーリングのみを扱うことに留意されたい。本発明によれば、1未満の分解能スケーリングに対応するためインターレイヤ予測が用いられる。
インターレイヤ予測の場合、1未満の分解能スケーリングに対して空間スケーラビリティを扱うためには、(1)混在ブロック処理、(2)マクロブロックタイプマッピング、(3)動きベクトルスケーリング、(4)テクスチャスケーリングの各問題に対処しなければならない。空間分解能トランスコーディングに関連する技術を含む新技術および/または先行技術を用いて、それらの問題に対処することが可能である。
簡潔にするため、SVCがサポートするスケーリング係数を、2^(−n)のみとすることが可能である(ただし、n>0)。図3は、全体が参照符号300で示される、各次元のスケーリング係数が1/2の場合のSVC空間スケーラビリティにおけるインターレイヤ予測のための例示的マクロブロックマッピングを示す。そのような例では、拡張レイヤの1マクロブロックが、基本レイヤの4マクロブロックに対応する。それら4個のマクロブロックは別々のイントラ/インターモードを有することが可能であり、SVCは、1個のマクロブロックにおけるモードの混在を許可しないため、インターレイヤ予測では、どのモードを拡張レイヤのマクロブロックに用いるべきかを決定する必要がある。本願発明者らは、マクロブロックを強制的にインターモードとし、イントラマクロブロックにおける動きベクトル(MV)および離散コサイン変換(DCT)残差をゼロと仮定することを提案する。マクロブロックタイプマッピングについては、SVCの最小パーティションは4×4であるが、2でダウンスケールすることにより、2×2の小さなパーティションが得られるため、本願発明者らは、2×2パーティションを4個ずつまとめて、1個の4×4パーティションとすることを提案する。各4×4パーティションについてのMVは、対応する8×8サブマクロブロックのコーナーのMVに設定される。基準ピクチャインデックス(reference picture index)については、4×4パーティションを4個ずつまとめて、1個の8×8パーティションとし、関連付けられたマクロブロックのコーナーのパーティションに基準ピクチャインデックスを割り当てる。動きベクトルスケーリングについては、MVE=(MVB+1)>>1であり、MVEは、拡張レイヤの動きベクトルであり、MVBは、対応する、基本レイヤの動きベクトルである。残差を伴うテクスチャダウンスケーリングについては、単純な平均手法を用いることが可能である。空間テクスチャについては、単純な平均手法か、JSVMで現在用いられているMPEG−4ダウンスケーリング機能を用いることが可能である。2^(−n)のスケーリング係数については、1/2ずつ、(n回)繰り返してスケーリングすることが可能である。
本明細書において用いられる「奥行き/ディスパリティマップ」という用語は、1つ以上の奥行きマップおよび/または1つ以上のディスパリティマップを指すことが想定されていることを理解されたい。
図4および5は、本原理の第1の例示的な実施形態に対応する。
図4は、全体が参照符号400で示される、立体視コンテンツの立体視視点画像の対を符号化することが可能なスケーラブル映像符号化の方法を示す。方法400では、開始ブロック405から判断ブロック410に制御が渡される。判断ブロック410では、立体視コンテンツの左視点画像を基本レイヤとして符号化するかどうかを決定する。そのように符号化する場合は、機能ブロック415に制御が渡される。そのように符号化しない場合は、機能ブロック425に制御が渡される。
機能ブロック415では、base_layer_is_left_view_flagを1に設定し、このbase_layer_is_left_view_flagを補助拡張情報(SEI)メッセージに書き込み、機能ブロック420に制御を渡す。機能ブロック420では、左視点画像を基本レイヤとして符号化し、右視点画像を拡張レイヤとして符号化し、終了ブロック435に制御を渡す。
機能ブロック425では、base_layer_is_left_view_flagを0に設定し、このbase_layer_is_left_view_flagをSEIメッセージに書き込み、機能ブロック430に制御を渡す。機能ブロック430では、右視点画像を基本レイヤとして符号化し、左視点画像を、SNRスケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを用いて、拡張レイヤとして符号化し、終了ブロック435に制御を渡す。
図5は、全体が参照符号500で示される、立体視コンテンツの立体視視点画像の対を復号することが可能なスケーラブル映像復号の方法を示す。方法500では、開始ブロック505から機能ブロック510に制御が渡される。機能ブロック510では、SEIメッセージ内のbase_layer_is_left_view_flagを解析し、判断ブロック515に制御を渡す。判断ブロック515では、base_layer_is_left_view_flagが1かどうかを決定する。1であれば、機能ブロック520に制御が渡される。1でない場合は、機能ブロック525に制御が渡される。
機能ブロック520では、左視点画像を基本レイヤから復号し、右視点画像を、SNRスケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを用いて、拡張レイヤから復号し、終了ブロック599に制御を渡す。
機能ブロック525では、右視点画像を基本レイヤから復号し、左視点画像を、SNRスケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを用いて、拡張レイヤから復号し、終了ブロック599に制御を渡す。
図6および7は、本原理の第2の例示的な実施形態に対応する。
図6は、全体が参照符号600で示される、立体視コンテンツの立体視視点画像の対を符号化することが可能なスケーラブル映像符号化の方法を示す。方法600では、開始ブロック605から機能ブロック610に制御が渡される。機能ブロック610では、立体視コンテンツの一方の視点画像を基本レイヤとして符号化し、その立体視映像に対応する奥行き/ディスパリティマップを、SNRスケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを用いて、拡張レイヤとして符号化し、機能ブロック615に制御を渡す。機能ブロック615では、奥行きパラメータをSEIメッセージに書き込み、機能ブロック620に制御を渡す。機能ブロック620では、基本レイヤから再構成された映像と、拡張レイヤから再構成された奥行き/ディスパリティマップと、SEIメッセージからの奥行きパラメータとを用いて、立体視コンテンツの他方の(符号化されていない)視点画像を再構成し、機能ブロック625に制御を渡す。機能ブロック625では、再構成された、符号化されていない視点画像に基づいて、追加SNRレイヤを符号化し、最終ブロック630に制御を渡す。
図7は、全体が参照符号700で示される、立体視コンテンツの立体視視点画像の対を復号することが可能なスケーラブル映像復号の方法を示す。方法700では、開始ブロック705から機能ブロック710に制御が渡される。機能ブロック710では、立体視コンテンツの一方の立体視視点画像を基本レイヤから復号し、奥行き/ディスパリティマップを、SNRスケーラビリティ、空間スケーラビリティ、および/または時間スケーラビリティを用いて、拡張レイヤから復号し、機能ブロック715に制御を渡す。機能ブロック715では、SEIメッセージからの奥行きメッセージを解析し、機能ブロック720に制御を渡す。機能ブロック720では、基本レイヤから再構成された映像と、拡張レイヤから再構成された奥行き/ディスパリティマップと、SEIメッセージからの奥行きパラメータとを用いて、立体視コンテンツの他方の(符号化されていない)立体視視点画像を基本レイヤとして再構成し、機能ブロック725に制御を渡す。機能ブロック725では、再構成された、符号化されていない視点画像に基づいて、追加SNRレイヤを復号し、リファインされた、符号化されていない視点画像を形成し、最終ブロック730に制御を渡す。
図8は、全体が参照符号800で示される、拡張レイヤのマクロブロックを符号化するスケーラブル映像符号化方法を示す。方法800では、開始ブロック805から判断ブロック810に制御が渡される。判断ブロック810では、インターレイヤ予測を用いるかどうかを決定する。用いる場合は、判断ブロック815に制御が渡される。用いない場合は、機能ブロック855に制御が渡される。
判断ブロック815では、インターレイヤイントラテクスチャ予測を用いるかどうかを決定する。用いる場合は、判断ブロック820に制御が渡される。用いない場合は、判断ブロック830に制御が渡される。
判断ブロック820では、重み付け予測を用いるかどうかを決定する。用いる場合は、機能ブロック825に制御が渡される。用いない場合は、機能ブロック840に制御が渡される。
機能ブロック825では、拡張レイヤのマクロブロックと、基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化し、判断ブロック830に制御を渡す。
判断ブロック830では、インターレイヤ動きベクトル予測を用いるかどうかを決定する。用いる場合は、機能ブロック835に制御が渡される。用いない場合は、判断ブロック845に制御が渡される。
機能ブロック835では、モードマッピングおよび動きベクトルマッピングを実施し、判断ブロック845に制御を渡す。
判断ブロック845では、インターレイヤ残差予測を用いるかどうかを決定する。用いる場合は、機能ブロック850に制御が渡される。用いない場合は、機能ブロック855に制御が渡される。
機能ブロック850では、モードマッピングおよび残差マッピングを実施し、機能ブロック855に制御を渡す。一実施形態において、機能ブロック850は、空間スケーリング係数を2(-n)に設定することと(nは1以上の整数)、少なくともいくつかのブロック(850)に対応する残差のテクスチャダウンサンプリングについての平均をとることとを含むことが可能である。
機能ブロック855では、マクロブロックを符号化し、終了ブロック860に制御を渡す。
機能ブロック840では、拡張レイヤのマクロブロックと、基本レイヤの、マッピングされたマクロブロックの組からスケーリングされたマクロブロックとの間の差を符号化し、判断ブロック830に制御を渡す。
一実施形態において、機能ブロック855は、空間スケーラビリティ手法が選択された場合に、空間スケーリング係数を1以下に制限することを含むことが可能である。
一実施形態において、機能ブロック835、850、および/または855は、たとえば、空間スケーリング係数を2(-n)に設定することと(nは1以上の整数)、基本レイヤから拡張レイヤへの多対1ブロックマッピングを実施することと、基本レイヤの、イントラ予測モードを有するブロックをインター予測モードに変換することと、イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすることとを含むことが可能である。
一実施形態において、機能ブロック835および/または855は、たとえば、拡張レイヤのブロックの動きベクトルを、基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングするステップと、拡張レイヤのブロックの基準インデックスを、基本レイヤの、対応するマッピングされたブロックのコーナーの基準インデックスに割り当てるステップ(拡張レイヤのブロックは、基本レイヤの、マッピングされたブロックの組と同じ場所にある)とを含むことが可能である。
一実施形態において、機能ブロック850および/または855は、空間スケーリング係数を2(-n)に設定するステップと(nは1以上の整数)、残差のテクスチャダウンサンプリングについての平均をとるステップとを含むことが可能である。
図9は、全体が参照符号900で示される、拡張レイヤのマクロブロックを復号するスケーラブル映像復号方法を示す。方法900では、開始ブロック905から機能ブロック910に制御が渡される。機能ブロック910では、マクロブロックのシンタックスを解析し、判断ブロック915に制御を渡す。判断ブロック915では、インターレイヤ予測フラグが1かどうかを決定する。1であれば、判断ブロック920に制御が渡される。1でない場合は、機能ブロック960に制御が渡される。
判断ブロック920では、インターレイヤイントラテクスチャ予測フラグが1かどうかを決定する。1であれば、判断ブロック925に制御が渡される。1でない場合は、判断ブロック935に制御が渡される。
判断ブロック925では、重み付け予測フラグが1かどうかを決定する。1であれば、機能ブロック930に制御が渡される。1でない場合は、機能ブロック945に制御が渡される。
機能ブロック930では、拡張レイヤのマクロブロックと、基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を復号し、判断ブロック935に制御を渡す。
判断ブロック935では、インターレイヤ動きベクトル予測フラグが1かどうかを決定する。1であれば、機能ブロック940に制御が渡される。1でない場合は、判断ブロック950に制御が渡される。
機能ブロック940では、モードマッピングおよび動きベクトルマッピングを実施し、判断ブロック950に制御を渡す。
判断ブロック950では、インターレイヤ残差予測フラグが1かどうかを決定する。1であれば、機能ブロック955に制御が渡される。1でない場合は、機能ブロック960に制御が渡される。
機能ブロック955では、モードマッピングおよび残差マッピングを実施し、機能ブロック960に制御を渡す。
機能ブロック960では、マクロブロックを復号し、終了ブロック965に制御を渡す。
機能ブロック945では、拡張レイヤのマクロブロックと、基本レイヤの、マッピングされたマクロブロックの組からスケーリングされたマクロブロックとの間の差を復号し、判断ブロック935に制御を渡す。
以下に、本発明に付随する多くの利点/特徴のいくつかについて説明する(いくつかは、既に言及されたものである)。たとえば、1つの利点/特徴は、多視点映像コンテンツに対応する少なくとも2つの視点画像を符号化する符号化器を含むスケーラブル映像符号化器であり、この符号化は、その少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化すること、およびその少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして符号化することによって行われ、その拡張レイヤとしての符号化は、その特定の視点画像およびその少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて行われる。その少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化される。
別の利点/特徴として、上述のスケーラブル映像符号化器では、基本レイヤおよび拡張レイヤは、映像ビットストリームに含まれ、符号化器は、その映像ビットストリームを伝達するメッセージにインジケータを追加する。このインジケータは、映像ビットストリームが多視点映像信号を含むことを伝えるものである。
さらに別の利点/特徴として、上述のように本スケーラブル映像符号化器がインジケータを追加するメッセージは、補助拡張情報(SEI)メッセージである。
さらに別の利点/特徴として、上述のように本スケーラブル映像符号化器がインジケータを追加するメッセージは、帯域外で送信される。
さらに別の利点/特徴として、上述のように本スケーラブル映像符号化器がメッセージに追加するインジケータは、メタデータとして提供される。
さらに別の利点/特徴として、上述のように本スケーラブル映像符号化器がメッセージに追加するインジケータは、特定の視点画像または少なくとも1つのその他の視点画像のうちの一方を、基本レイヤまたは拡張レイヤのうちの一方で符号化されているものと指定する。
さらに別の利点/特徴として、上述の本スケーラブル映像符号化器では、International Organization for Standardization/International Electrotechnical CommissionのMoving Picture Experts Group−4のPart 10 Advanced Video Coding規格/International Telecommunication UnionのTelecommunication SectorのH.264規格のScalable Video Coding拡張に準拠する時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法が実施される。
さらに別の利点/特徴として、上述の本スケーラブル映像符号化器は、空間スケーラビリティ手法が選択された場合には、空間スケーリング係数を1以下に制限する。
さらに別の利点/特徴として、上述のように空間スケーリング係数を制限する本スケーラブル映像符号化器は、基本レイヤおよび拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化し、この符号化は、空間スケーリング係数を2(-n)に設定することと(nは1以上の整数)、基本レイヤから拡張レイヤへの多対1ブロックマッピングを実施することと、基本レイヤの、イントラ予測モードを有する少なくともいくつかのブロックのいずれかをインター予測モードに変換することと、イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすることと、によって行われる。
さらに別の利点/特徴として、上述のように基本レイヤおよび拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化する本スケーラブル映像符号化器は、拡張レイヤのブロックの動きベクトルを、基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングし、拡張レイヤのブロックの基準インデックスを、基本レイヤの、対応するマッピングされたブロックのコーナーの基準インデックスに割り当てる(この、拡張レイヤのブロック、および基本レイヤの、マッピングされたブロックの組は、その少なくともいくつかのブロックに含まれ、拡張レイヤのブロックは、基本レイヤの、マッピングされたブロックの組と同じ場所にある)。
さらに別の利点/特徴として、上述のように空間スケーリング係数を制限する本スケーラブル映像符号化器は、基本レイヤおよび拡張レイヤの少なくともいくつかのブロックを符号化し、この符号化は、空間スケーリング係数を2(-n)に設定することと(nは1以上の整数)、その少なくともいくつかのブロックに対応する残差のテクスチャダウンサンプリングについての平均をとることと、によって行われる。
さらに別の利点/特徴として、上述の本スケーラブル映像符号化器において、その少なくとも2つの視点画像の符号化が、特定の視点画像と少なくとも1つのその他の視点画像との間の視点画像間予測において重み付け予測を可能にすることによって行われる。
さらに別の利点/特徴として、上述のように視点画像間予測を可能にすることによって少なくとも2つの視点画像を符号化する本スケーラブル映像符号化器において、重み付け予測は、拡張レイヤのマクロブロックと、基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化する際に可能になり、拡張レイヤのマクロブロックは、基本レイヤの、マッピングされたマクロブロックの組と同じ場所にある。
さらに別の利点/特徴として、上述の本スケーラブル映像符号化器では、少なくとも2つの視点画像が立体視視点画像の対に対応し、対の一方の視点画像が基本レイヤとして符号化され、対のもう一方の視点画像が、基本レイヤからの予測を用いて、拡張レイヤとして符号化される。
本発明の以上およびその他の特徴および利点は、当業者であれば、本明細書の教示に基づいて容易に把握されよう。本発明の教示は、ハードウェア、ソフトウェア、ファームウェア、専用プロセッサ、またはこれらの組み合わせによる様々な形態で実装可能であることを理解されたい。
本発明の教示は、ハードウェアとソフトウェアの組み合わせとして実装されることが最も好ましい。さらに、このソフトウェアは、プログラム記憶装置上で実体的に具現化されたアプリケーションプログラムとして実装されることが好ましい。このアプリケーションプログラムは、任意の好適なアーキテクチャを含む機械にアップロードされ、それによって実行されることが可能である。この機械は、1つまたは複数の中央処理装置(「CPU」)、ランダムアクセスメモリ(「RAM」)、入出力(「I/O」)インターフェースなどのハードウェアを有するコンピュータプラットフォームに実装されることが好ましい。このコンピュータプラットフォームは、オペレーティングシステムおよびマイクロ命令コードを含んでもよい。本明細書に記載の種々の処理および機能は、CPUで実行することが可能な、マイクロ命令コードの一部、またはアプリケーションプログラムの一部、あるいはこれらの任意の組み合わせであってよい。さらに、増設データ記憶装置や印刷装置など、他の種々の周辺装置をコンピュータプラットフォームに接続することが可能である。
添付図面に示されている構成要素のシステムコンポーネントおよび方法のいくつかはソフトウェアで実装することが好ましいため、システムコンポーネント間または処理機能ブロック間の実際の接続は、本発明がプログラムされる様式に応じて異なってもよいことを、さらに理解されたい。当業者は、本明細書の教示を与えられれば、本発明の以上および同様の実装または構成を考察することが可能であろう。
本明細書では、例示的な実施形態について、添付図面を参照しながら説明してきたが、本発明はそれらの厳密な実施形態に限定されないこと、ならびに、それらの実施形態に対して、様々な変更および修正が、本発明の範囲または趣旨から逸脱することなく、当業者によって施されうることを理解されたい。そのような変更および修正はすべて、特許請求の範囲に示される本発明の範囲に含まれるものとする。
本原理を適用することが可能な例示的Joint Scalable Video Model(JSVM)3.0符号化器のブロック図である。 本原理を適用することが可能な例示的復号器のブロック図である。 各次元のスケーリング係数が1/2の場合のSVC空間スケーラビリティにおけるインターレイヤ予測のための例示的マクロブロックマッピングを示す図である。 本原理の例示的な第1の実施形態による、立体視コンテンツの立体視視点画像の対を符号化することが可能なスケーラブル映像符号化の方法を示す図である。 本原理の例示的な第1の実施形態による、立体視コンテンツの立体視視点画像の対を復号することが可能なスケーラブル映像復号の方法を示す図である。 本原理の例示的な第2の実施形態による、立体視コンテンツの立体視視点画像の対を符号化することが可能なスケーラブル映像符号化の方法を示す図である。 本原理の例示的な第2の実施形態による、立体視コンテンツの立体視視点画像の対を復号することが可能なスケーラブル映像復号の方法を示す図である。 本原理の例示的な実施形態による、拡張レイヤのマクロブロックを符号化するスケーラブル映像符号化方法を示す図である。 本原理の例示的な実施形態による、拡張レイヤのマクロブロックを復号するスケーラブル映像復号方法を示す図である。

Claims (96)

  1. 多視点映像コンテンツに対応する少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化し、および前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて、前記少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像の各々を拡張レイヤとして符号化することによって、前記少なくとも2つの視点画像を符号化する符号化器(100)
    を備え、
    前記少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする装置。
  2. 前記基本レイヤおよび前記拡張レイヤは映像ビットストリームに含まれ、前記符号化器(100)は前記映像ビットストリームを伝達するメッセージに、前記映像ビットストリームが多視点映像信号を含むことを伝えるインジケータを追加することを特徴とする請求項1に記載の装置。
  3. 前記メッセージは補助拡張情報(SEI)メッセージであることを特徴とする請求項2に記載の装置。
  4. 前記メッセージは帯域外で送信されることを特徴とする請求項2に記載の装置。
  5. 前記インジケータはメタデータとして提供されることを特徴とする請求項2に記載の装置。
  6. 前記インジケータは、前記特定の視点画像または前記少なくとも1つのその他の視点画像のうちの一方を、前記基本レイヤまたは前記拡張レイヤのうちの一方で符号化されているものと指定することを特徴とする請求項2に記載の装置。
  7. 時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項1に記載の装置。
  8. 前記符号化器(100)は、前記空間スケーラビリティ手法が選択された場合に、空間スケーリング係数を1以下に制限することを特徴とする請求項1に記載の装置。
  9. 前記符号化器(100)は、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、前記基本レイヤから前記拡張レイヤへの多対1ブロックマッピングを実行し、前記基本レイヤの、イントラ予測モードを有する前記少なくともいくつかのブロックのいずれかをインター予測モードに変換し、並びに前記イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化することを特徴とする請求項8に記載の装置。
  10. 前記符号化器(100)は、前記拡張レイヤのブロックの動きベクトルを、前記基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングし、前記拡張レイヤの前記ブロックの基準インデックスを、前記基本レイヤの、前記対応するマッピングされたブロックの前記コーナーの基準インデックスに割り当て、前記拡張レイヤの前記ブロック、および前記基本レイヤの、前記マッピングされたブロックの組は、前記少なくともいくつかのブロックに含まれ、前記拡張レイヤの前記ブロックは、前記基本レイヤの、前記マッピングされたブロックの組と同じ場所にあることを特徴とする請求項9に記載の装置。
  11. 前記符号化器(100)は、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、および前記少なくともいくつかのブロックに対応する残差のテクスチャダウンサンプリングについての平均をとることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを符号化することを特徴とする請求項8に記載の装置。
  12. 前記少なくとも2つの視点画像の符号化は、前記特定の視点画像と前記少なくとも1つのその他の視点画像との間の視点画像間予測において重み付け予測をさせることによって行われることを特徴とする請求項1に記載の装置。
  13. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化する際に可能にし、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項12に記載の装置。
  14. 前記少なくとも2つの視点画像は立体視視点画像の対に対応し、前記対の一方の視点画像は前記基本レイヤとして符号化され、前記対のもう一方の視点画像は前記基本レイヤからの予測を用いて前記拡張レイヤとして符号化されることを特徴とする請求項1に記載の装置。
  15. スケーラブル映像符号化の方法であって、
    多視点映像コンテンツに対応する少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして符号化し、および前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて、前記少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像の各々を拡張レイヤとして符号化することによって、前記少なくとも2つの視点画像を符号化するステップ(420、430)
    を備え、
    前記少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする方法。
  16. 前記基本レイヤおよび前記拡張レイヤは映像ビットストリームに含まれ、
    前記符号化するステップは、前記映像ビットストリームを伝達するメッセージに、前記映像ビットストリームが多視点映像信号を含むことを伝えるインジケータを追加するステップ(415、425)を含むことを特徴とする請求項15に記載の方法。
  17. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項16に記載の方法。
  18. 前記メッセージは、帯域外で送信されることを特徴とする請求項16に記載の方法。
  19. 前記インジケータは、メタデータとして提供されることを特徴とする請求項16に記載の方法。
  20. 前記インジケータは、前記特定の視点画像または前記少なくとも1つのその他の視点画像のうちの一方を、前記基本レイヤまたは前記拡張レイヤのうちの一方で符号化されているものと指定することを特徴とする請求項16に記載の方法。
  21. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法がISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項15に記載の方法。
  22. 前記符号化するステップは、前記空間スケーラビリティ手法が選択された場合(855)、空間スケーリング係数を1以下に制限するステップを含むことを特徴とする請求項15に記載の方法。
  23. 前記符号化するステップは、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、前記基本レイヤから前記拡張レイヤへの多対1ブロックマッピングを実行し、前記基本レイヤの、イントラ予測モードを有する前記少なくともいくつかのブロックのいずれかをインター予測モードに変換し、並びに前記イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすること(835、850、855)によって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化することを特徴とする請求項22に記載の方法。
  24. 前記符号化するステップは、前記拡張レイヤのブロックの動きベクトルを、前記基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングし、前記拡張レイヤの前記ブロックの基準インデックスを、前記基本レイヤの、前記対応するマッピングされたブロックの前記コーナーの基準インデックスに割り当て、前記拡張レイヤの前記ブロック、および前記基本レイヤの、前記マッピングされたブロックの組は、前記少なくともいくつかのブロックに含まれ、前記拡張レイヤの前記ブロックは、前記基本レイヤの、前記マッピングされたブロックの組と同じ場所にあること(835、855)を特徴とする請求項23に記載の方法。
  25. 前記符号化するステップは、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、および前記少なくともいくつかのブロックに対応する残差のテクスチャダウンサンプリングについての平均をとることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを符号化すること(850、855)を特徴とする請求項22に記載の方法。
  26. 前記少なくとも2つの視点画像の符号化は、前記特定の視点画像と前記少なくとも1つのその他の視点画像との間の視点画像間予測において重み付け予測をさせることによって行われること(825)を特徴とする請求項15に記載の方法。
  27. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化する際に可能にし、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項26に記載の方法。
  28. 前記少なくとも2つの視点画像は、立体視視点画像の対に対応し、前記対の一方の視点画像が前記基本レイヤとして符号化され、前記対のもう一方の視点画像が、前記基本レイヤからの予測を用いて、前記拡張レイヤとして符号化されることを特徴とする請求項15に記載の方法。
  29. 多視点映像コンテンツに対応する少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして復号し、および前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて、前記少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして復号することによって、前記少なくとも2つの視点画像を復号する復号器(200)
    を備え、
    前記少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号されることを特徴とする装置。
  30. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記復号器(200)は、前記映像ビットストリームを伝達するメッセージに含まれる、前記映像ビットストリームが多視点映像信号を含むことを伝えるインジケータを読み取ることを特徴とする請求項28に記載の装置。
  31. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項29に記載の装置。
  32. 前記メッセージは、帯域外で受信されることを特徴とする請求項29に記載の装置。
  33. 前記インジケータは、メタデータとして提供されることを特徴とする請求項29に記載の装置。
  34. 前記インジケータは、前記特定の視点画像または前記少なくとも1つのその他の視点画像のうちの一方を、前記基本レイヤまたは前記拡張レイヤのうちの一方で符号化されているものと指定することを特徴とする請求項30に記載の装置。
  35. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項29に記載の装置。
  36. 前記少なくとも2つの視点画像の復号は、前記特定の視点画像と前記少なくとも1つのその他の視点画像との間の視点画像間予測において重み付け予測をさせることによって実行されることを特徴とする請求項29に記載の装置。
  37. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を復号する際に可能にし、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項36に記載の装置。
  38. 前記少なくとも2つの視点画像は、立体視視点画像の対に対応し、
    前記対の一方の視点画像は、前記基本レイヤとして復号され、
    前記対のもう一方の視点画像は、前記基本レイヤからの予測を用いて前記拡張レイヤとして復号されることを特徴とする請求項29に記載の装置。
  39. スケーラブル映像復号の方法であって、
    多視点映像コンテンツに対応する少なくとも2つの視点画像のうちの特定の視点画像を基本レイヤとして復号し、および前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用い、前記少なくとも2つの視点画像のうちの少なくとも1つのその他の視点画像のそれぞれを拡張レイヤとして復号することによって、前記少なくとも2つの視点画像を復号するステップ(520、525)
    を備え、
    前記少なくとも2つの視点画像は、時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号されることを特徴とする方法。
  40. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記復号器は、前記映像ビットストリームを伝達するメッセージに含まれ、前記映像ビットストリームが多視点映像信号を含むことを伝えるインジケータを読み取る(510)ことを特徴とする請求項39に記載の方法。
  41. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項40に記載の方法。
  42. 前記メッセージは、帯域外で受信されることを特徴とする請求項40に記載の方法。
  43. 前記インジケータは、メタデータとして提供されることを特徴とする請求項40に記載の方法。
  44. 前記インジケータは、前記特定の視点画像または前記少なくとも1つのその他の視点画像のうちの一方を、前記基本レイヤまたは前記拡張レイヤのうちの一方で符号化されているものと指定することを特徴とする請求項40に記載の方法。
  45. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法がISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項39に記載の方法。
  46. 前記少なくとも2つの視点画像の復号は、前記第1の立体視視点画像と前記第2の立体視視点画像との間の視点画像間予測において重み付け予測をさせること(930)によって実行されることを特徴とする請求項39に記載の方法。
  47. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を復号する際に可能にされ、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項46に記載の方法。
  48. 前記少なくとも2つの視点画像は、立体視視点画像の対に対応し、
    前記対の一方の視点画像は、前記基本レイヤとして符号化され、
    前記対のもう一方の視点画像は、前記基本レイヤからの予測を用いて、前記拡張レイヤとして符号化されることを特徴とする請求項39に記載のスケーラブル映像符号化器。
  49. スケーラブル映像符号化のための映像信号形式であって、
    少なくとも2つの視点画像のうちの、基本レイヤとして符号化される特定の視点画像と、
    前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて、前記少なくとも2つの視点画像のうちの、拡張レイヤとして符号化される少なくとも1つのその他の視点画像と
    を備え、
    前記少なくとも2つの視点画像は、多視点映像コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする映像信号形式。
  50. 符号化されたスケーラブル映像信号データを格納する記憶媒体であって、
    少なくとも2つの視点画像のうちの、基本レイヤとして符号化される特定の視点画像と、
    前記特定の視点画像および前記少なくとも1つのその他の視点画像のうちの少なくとも一方に対応する下位レイヤからの予測を用いて、前記少なくとも2つの視点画像のうちの、拡張レイヤとして符号化される少なくとも1つのその他の視点画像と
    を備え、
    前記少なくとも2つの視点画像は、多視点映像コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする記憶媒体。
  51. 第1の立体視視点画像を基本レイヤとして符号化し、前記第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤとして符号化する符号化器(100)
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とは、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする装置。
  52. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記符号化器(100)は、前記特定の立体視コンテンツに関連する追加の三次元情報を、前記映像ビットストリームを伝達するメッセージに追加することを特徴とする請求項51に記載の装置。
  53. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項52に記載の装置。
  54. 前記メッセージは、帯域外で送信されることを特徴とする請求項52に記載の装置。
  55. 前記追加の三次元情報は、メタデータとして提供されることを特徴とする請求項52に記載の装置。
  56. 前記符号化器(100)は、前記基本レイヤから再構成された映像と、再構成された奥行きマップおよび再構成されたディスパリティマップの少なくとも一方と、前記メッセージ内の前記追加三次元情報とを用いて、前記特定の立体視コンテンツの、符号化されていない視点画像を再構成し、前記再構成された、符号化されていない視点画像に基づいて、別の拡張レイヤを符号化することを特徴とする請求項52に記載の装置。
  57. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、実施ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項51に記載の装置。
  58. 前記符号化器(100)は、前記空間スケーラビリティ手法が選択された場合、空間スケーリング係数を1以下に制限することを特徴とする請求項51に記載の装置。
  59. 前記符号化器(100)は、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、前記基本レイヤから前記拡張レイヤへの多対1ブロックマッピングを実行し、前記基本レイヤの、イントラ予測モードを有する前記少なくともいくつかのブロックのいずれかをインター予測モードに変換し、並びに前記イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化することを特徴とする請求項58に記載の装置。
  60. 前記符号化器(100)は、前記拡張レイヤのブロックの動きベクトルを、前記基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングし、前記拡張レイヤの前記ブロックの基準インデックスを、前記基本レイヤの、前記対応するマッピングされたブロックの前記コーナーの基準インデックスに割り当て、前記拡張レイヤの前記ブロック、および前記基本レイヤの、前記マッピングされたブロックの組は、前記少なくともいくつかのブロックに含まれ、前記拡張レイヤの前記ブロックは、前記基本レイヤの、前記マッピングされたブロックの組と同じ場所にあることを特徴とする請求項59に記載の装置。
  61. 前記符号化器(100)は、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、および前記少なくともいくつかのブロックに対応する残差のテクスチャダウンサンプリングについての平均をとることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを符号化することを特徴とする請求項58に記載の装置。
  62. 立体視視点画像の前記対の符号化は、前記第1の立体視視点画像と前記第2の立体視視点画像との間の視点画像間予測において重み付け予測をさせることによって行われることを特徴とする請求項51に記載の装置。
  63. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化する際に可能にされ、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項62に記載の装置。
  64. スケーラブル映像符号化の方法であって、
    第1の立体視視点画像を基本レイヤとして符号化するステップ(610)と、
    前記第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤとして符号化するステップ(610)と
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とが、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする方法。
  65. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記符号化器は、前記特定の立体視コンテンツに関連する追加の三次元情報を、前記映像ビットストリームを伝達するメッセージに追加すること(615)を特徴とする請求項64に記載の方法。
  66. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項65に記載の方法。
  67. 前記メッセージは、帯域外で送信されることを特徴とする請求項65に記載の方法。
  68. 前記追加の三次元情報は、メタデータとして提供されることを特徴とする請求項65に記載の方法。
  69. 前記基本レイヤから再構成された映像と、再構成された奥行きマップおよび再構成されたディスパリティマップの少なくとも一方と、前記メッセージ内の前記追加の三次元情報とを用いて、前記特定の立体視コンテンツの、符号化されていない視点画像を再構成するステップ(620)と、
    前記再構成された、符号化されていない視点画像に基づいて、別の拡張レイヤを符号化するステップ(625)と
    をさらに備えたことを特徴とする請求項65に記載の方法。
  70. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項64に記載の方法。
  71. 前記符号化器は、前記空間スケーラブル映像符号化手法が選択された場合(855)、空間スケーリング係数を1以下に制限することを特徴とする請求項64に記載の方法。
  72. 前記符号化するステップは、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、前記基本レイヤから前記拡張レイヤへの多対1ブロックマッピングを実行し、前記基本レイヤの、イントラ予測モードを有する前記少なくともいくつかのブロックのいずれかをインター予測モードに変換し、並びに前記イントラ予測モードの動きベクトルおよび離散コサイン変換係数を強制的にゼロにすること(830、850、855)によって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを、インターレイヤ予測を用いて符号化することを特徴とする請求項71に記載の方法。
  73. 前記符号化するステップは、前記拡張レイヤのブロックの動きベクトルを、前記基本レイヤの、マッピングされたブロックの組の中の対応するマッピングされたブロックのコーナーの、スケーリングされた動きベクトルにマッピングし、前記拡張レイヤの前記ブロックの基準インデックスを、前記基本レイヤの、前記対応するマッピングされたブロックの前記コーナーの基準インデックスに割り当て、前記拡張レイヤの前記ブロック、および前記基本レイヤの、前記マッピングされたブロックの組は、前記少なくともいくつかのブロックに含まれ、前記拡張レイヤの前記ブロックは、前記基本レイヤの、前記マッピングされたブロックの組と同じ場所にあること(835、855)を特徴とする請求項72に記載の方法。
  74. 前記符号化するステップは、前記空間スケーリング係数を2(-n)に設定し(nは1以上の整数)、および前記少なくともいくつかのブロックに対応する残差のテクスチャダウンサンプリングについての平均をとることによって、前記基本レイヤおよび前記拡張レイヤの少なくともいくつかのブロックを符号化すること(850、855)を特徴とする請求項72に記載の方法。
  75. 前記立体視視点画像の対の符号化は、前記第1の立体視視点画像と前記第2の立体視視点画像との間の視点画像間予測において重み付け予測をさせること(825)によって行われることを特徴とする請求項64に記載の方法。
  76. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を符号化する際に可能にされ、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項75に記載の方法。
  77. 第1の立体視視点画像を基本レイヤから復号し、前記第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤから復号する復号器(200)
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とが、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号されることを特徴とする装置。
  78. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記復号器(200)は、前記特定の立体視コンテンツに関連する追加の三次元情報を、前記映像ビットストリームを伝達するメッセージから読み取ることを特徴とする請求項77に記載の装置。
  79. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項78に記載の装置。
  80. 前記メッセージは、帯域外で送信されることを特徴とする請求項78に記載の装置。
  81. 前記追加の三次元情報は、メタデータとして提供されることを特徴とする請求項78に記載の装置。
  82. 前記復号器(200)は、前記基本レイヤから再構成された映像と、再構成された奥行きマップおよび再構成されたディスパリティマップの少なくとも一方と、前記メッセージ内の前記追加三次元情報とを用いて、前記特定の立体視コンテンツの、符号化されていない視点画像を前記基本レイヤとして再構成し、前記再構成された、符号化されていない視点画像に基づいて、別の拡張レイヤを復号して、前記特定の立体視コンテンツの、リファインされた、符号化されていない視点画像を形成することを特徴とする請求項78に記載の装置。
  83. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項77に記載の装置。
  84. 前記立体視視点画像の対の復号は、前記第1の立体視視点画像と前記第2の立体視視点画像との間の視点画像間予測において重み付け予測をさせることによって実行されることを特徴とする請求項77に記載の装置。
  85. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を復号する際に可能とされ、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項84に記載の装置。
  86. スケーラブル映像復号の方法であって、
    第1の立体視視点画像を基本レイヤから復号するステップ(710)と、
    前記第1の立体視視点画像からの予測を用いて、奥行きマップおよびディスパリティマップのうちの少なくとも一方を拡張レイヤから復号するステップ(710)と
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とが、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて復号されることを特徴とする方法。
  87. 前記基本レイヤおよび前記拡張レイヤは、映像ビットストリームに含まれ、
    前記特定の立体視コンテンツに関連する追加の三次元情報を、前記映像ビットストリームを伝達するメッセージから読み取ること(715)をさらに含むことを特徴とする請求項86に記載の方法。
  88. 前記メッセージは、補助拡張情報(SEI)メッセージであることを特徴とする請求項87に記載の方法。
  89. 前記メッセージは、帯域外で送信されることを特徴とする請求項87に記載の方法。
  90. 前記追加の三次元情報は、メタデータとして提供されることを特徴とする請求項87に記載の方法。
  91. 前記基本レイヤから再構成された映像と、再構成された奥行きマップおよび再構成されたディスパリティマップの少なくとも一方と、前記メッセージ内の前記追加の三次元情報とを用いて、前記特定の立体視コンテンツの、符号化されていない視点画像を前記基本レイヤとして再構成するステップ(720)と、
    前記再構成された、符号化されていない視点画像に基づいて、別の拡張レイヤを復号して(725)、前記特定の立体視コンテンツの、リファインされた、符号化されていない視点画像を形成するステップと
    をさらに備えたことを特徴とする請求項87に記載の方法。
  92. 前記時間スケーラビリティ、空間スケーラビリティ、および信号対雑音比スケーラビリティの前記各手法は、ISO/IECのMPEG−4のPart 10 AVC規格/ITU−TのH.264規格のScalable Video Coding拡張に準拠して実行されることを特徴とする請求項86に記載の方法。
  93. 前記立体視視点画像の対の復号は、前記第1の立体視視点画像と前記第2の立体視視点画像との間の視点画像間予測において重み付け予測をさせること(930)によって実行されることを特徴とする請求項86に記載の方法。
  94. 前記重み付け予測は、前記拡張レイヤのマクロブロックと、前記基本レイヤの、マッピングされたマクロブロックの組からスケーリングされた重み付けマクロブロックとの間の差を復号する際に可能とされ、前記拡張レイヤの前記マクロブロックは、前記基本レイヤの、前記マッピングされたマクロブロックの組と同じ場所にあることを特徴とする請求項93に記載の方法。
  95. スケーラブル映像符号化のための映像信号形式であって、
    基本レイヤとして符号化される第1の立体視視点画像と、
    前記第1の立体視視点画像からの予測を可能にするために、拡張レイヤとして符号化される奥行きマップおよびディスパリティマップのうちの少なくとも一方と
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とが、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする映像信号形式。
  96. 符号化されたスケーラブル映像信号データを格納する記憶媒体であって、
    基本レイヤとして符号化される第1の立体視視点画像と、
    前記第1の立体視視点画像からの予測をさせるために、拡張レイヤとして符号化される奥行きマップおよびディスパリティマップのうちの少なくとも一方と
    を備え、
    前記第1の立体視視点画像と、前記奥行きマップおよび前記ディスパリティマップのうちの少なくとも一方とが、各々、特定の立体視コンテンツに対応し、時間スケーラビリティ、空間スケーラビリティ、およびSNRスケーラビリティの各手法のうちの少なくとも2つからの選択に基づいて符号化されることを特徴とする記憶媒体。
JP2008536753A 2005-10-19 2006-10-17 スケーラブル映像符号化を用いた多視点映像符号化 Expired - Fee Related JP5587552B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US72814105P 2005-10-19 2005-10-19
US60/728,141 2005-10-19
PCT/US2006/040658 WO2007047736A2 (en) 2005-10-19 2006-10-17 Multi-view video coding using scalable video coding

Publications (2)

Publication Number Publication Date
JP2009513074A true JP2009513074A (ja) 2009-03-26
JP5587552B2 JP5587552B2 (ja) 2014-09-10

Family

ID=37781683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008536753A Expired - Fee Related JP5587552B2 (ja) 2005-10-19 2006-10-17 スケーラブル映像符号化を用いた多視点映像符号化

Country Status (8)

Country Link
US (1) US9131247B2 (ja)
EP (1) EP1946563A2 (ja)
JP (1) JP5587552B2 (ja)
KR (1) KR101475527B1 (ja)
CN (1) CN101292538B (ja)
BR (1) BRPI0616745A2 (ja)
MY (1) MY159176A (ja)
WO (1) WO2007047736A2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501581A (ja) * 2007-10-24 2011-01-06 ファーウェイ デバイス カンパニー リミテッド ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ
JP2011097227A (ja) * 2009-10-28 2011-05-12 Sony Corp ストリーム受信装置、ストリーム受信方法、ストリーム送信装置、ストリーム送信方法及びコンピュータプログラム
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
JP2011528882A (ja) * 2008-07-21 2011-11-24 トムソン ライセンシング 3dビデオ信号の符号化装置
JP2012034138A (ja) * 2010-07-29 2012-02-16 Toshiba Corp 信号処理装置及び信号処理方法
JP2012510733A (ja) * 2009-05-04 2012-05-10 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 深度画像を再構成する方法および深度画像を再構成する復号器
JP2012525767A (ja) * 2009-05-01 2012-10-22 トムソン ライセンシング 3d映像符号化フォーマット
JP2013516906A (ja) * 2010-01-06 2013-05-13 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチ−レイヤ化されたビデオシステムのための複雑度を適応的にするスケーラブル復号及びストリーミング
WO2013153808A1 (ja) * 2012-04-13 2013-10-17 パナソニック株式会社 画像復号方法および画像復号装置
WO2014034480A1 (ja) * 2012-09-03 2014-03-06 ソニー株式会社 画像処理装置および方法
JP2015515228A (ja) * 2012-04-23 2015-05-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビューコード化及び3dコード化におけるビュー依存性
JP2015167394A (ja) * 2010-07-21 2015-09-24 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチレイヤフレーム準拠ビデオ配信のためのシステム及び方法
JP2016509399A (ja) * 2013-01-04 2016-03-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビューコード化ファイルフォーマットでの深度ビューの空間解像度の信号伝達
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
KR101910192B1 (ko) * 2010-11-12 2018-10-22 한국전자통신연구원 3dtv 서비스에서의 영상 압축 규격 결정 방법 및 장치

Families Citing this family (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068729B2 (en) 2001-12-21 2006-06-27 Digital Fountain, Inc. Multi-stage code generator and decoder for communication systems
US6307487B1 (en) 1998-09-23 2001-10-23 Digital Fountain, Inc. Information additive code generator and decoder for communication systems
US9240810B2 (en) 2002-06-11 2016-01-19 Digital Fountain, Inc. Systems and processes for decoding chain reaction codes through inactivation
JP4546246B2 (ja) 2002-10-05 2010-09-15 デジタル ファウンテン, インコーポレイテッド 連鎖的暗号化反応の系統的記号化および復号化
EP1665539B1 (en) 2003-10-06 2013-04-10 Digital Fountain, Inc. Soft-Decision Decoding of Multi-Stage Chain Reaction Codes
CN103124182B (zh) 2004-05-07 2017-05-10 数字方敦股份有限公司 文件下载和流系统
KR101208498B1 (ko) * 2005-10-10 2012-12-05 엘지전자 주식회사 디지털 방송 시스템, 방법, 및 데이터 구조
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
US8115804B2 (en) * 2006-01-12 2012-02-14 Lg Electronics Inc. Processing multiview video
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
CN101686107B (zh) 2006-02-13 2014-08-13 数字方敦股份有限公司 使用可变fec开销和保护周期的流送和缓冲
US9270414B2 (en) 2006-02-21 2016-02-23 Digital Fountain, Inc. Multiple-field based code generator and decoder for communications systems
WO2007134196A2 (en) 2006-05-10 2007-11-22 Digital Fountain, Inc. Code generator and decoder using hybrid codes
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
US9419749B2 (en) 2009-08-19 2016-08-16 Qualcomm Incorporated Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9178535B2 (en) 2006-06-09 2015-11-03 Digital Fountain, Inc. Dynamic stream interleaving and sub-stream based delivery
TWI344791B (en) 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
US8179969B2 (en) 2006-08-18 2012-05-15 Gwangju Institute Of Science And Technology Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity
ES2389745T3 (es) * 2007-01-04 2012-10-31 Thomson Licensing Método y aparato para la ocultación de error de vídeo en vídeo codificado de multivistas utilizando sintaxis de nivel alto
US8155461B2 (en) * 2007-03-27 2012-04-10 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding multi-view image
BR122018004903B1 (pt) 2007-04-12 2019-10-29 Dolby Int Ab ladrilhamento em codificação e decodificação de vídeo
KR101633576B1 (ko) 2007-04-17 2016-06-27 톰슨 라이센싱 멀티뷰 비디오 코딩을 위한 가설의 참조 디코더
CN101669370B (zh) 2007-04-25 2012-12-12 汤姆逊许可证公司 具有下采样参考图片的视角间预测
EP2001235B1 (en) * 2007-06-08 2013-05-22 Samsung Electronics Co., Ltd. MPEG-4 format extension for recording stereoscopic or synthetic 3D video data with related metadata
US8558832B1 (en) * 2007-06-19 2013-10-15 Nvida Corporation System, method, and computer program product for generating a plurality of two-dimensional images and depth maps for a scene at a point in time
JP2009004940A (ja) * 2007-06-20 2009-01-08 Victor Co Of Japan Ltd 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム
JP2009004939A (ja) * 2007-06-20 2009-01-08 Victor Co Of Japan Ltd 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
KR101460362B1 (ko) 2007-06-25 2014-11-14 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
KR20080114482A (ko) * 2007-06-26 2008-12-31 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
US8023562B2 (en) * 2007-09-07 2011-09-20 Vanguard Software Solutions, Inc. Real-time video coding/decoding
BRPI0816680A2 (pt) 2007-09-12 2015-03-17 Qualcomm Inc Gerar e comunicar informações de identificação de origem pra habilitar comunicações confiáveis.
MY162861A (en) * 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
KR101398168B1 (ko) * 2007-10-10 2014-05-22 한국전자통신연구원 스테레오스코픽 데이터의 저장 및 재생을 위한 메타데이터구조 및 이를 이용하는 스테레오스코픽 콘텐츠 파일의 저장방법
CN101415114B (zh) * 2007-10-17 2010-08-25 华为终端有限公司 视频编解码方法和装置以及视频编解码器
CN101170702B (zh) * 2007-11-23 2010-08-11 四川虹微技术有限公司 多视角视频编码方法
JP5128963B2 (ja) * 2008-01-08 2013-01-23 日本電信電話株式会社 動画像の多重化方法とファイル読み込み方法及び装置,並びにそのプログラムとコンピュータ読み取り可能な記録媒体
EP2804376A1 (en) 2008-04-10 2014-11-19 GVBB Holdings S.A.R.L Method and apparatus for content replacement in live production
WO2009130561A1 (en) * 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
CN103297771B (zh) * 2008-04-25 2017-03-01 汤姆森许可贸易公司 使用基于深度信息的视差估计的多视点视频编码
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
JP5295236B2 (ja) * 2008-06-18 2013-09-18 三菱電機株式会社 三次元映像変換記録装置、三次元映像変換記録方法、記録媒体、三次元映像変換装置、及び三次元映像伝送装置
WO2009157713A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co., Ltd. Image processing method and apparatus
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US20100232521A1 (en) * 2008-07-10 2010-09-16 Pierre Hagendorf Systems, Methods, and Media for Providing Interactive Video Using Scalable Video Coding
WO2012122423A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
WO2010021666A1 (en) 2008-08-20 2010-02-25 Thomson Licensing Refined depth map
KR101012760B1 (ko) * 2008-09-05 2011-02-08 에스케이 텔레콤주식회사 다시점 비디오의 송수신 시스템 및 방법
CN102355590B (zh) * 2008-09-30 2014-11-12 松下电器产业株式会社 3d 影像的记录介质、再现装置、系统lsi、再现方法、眼镜、显示装置
CA2746156A1 (en) * 2008-09-30 2010-04-08 Panasonic Corporation Reproduction device, recording medium, and integrated circuit
US9973739B2 (en) 2008-10-17 2018-05-15 Nokia Technologies Oy Sharing of motion vector in 3D video coding
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
US8760495B2 (en) * 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
KR101154051B1 (ko) * 2008-11-28 2012-06-08 한국전자통신연구원 다시점 영상 송수신 장치 및 그 방법
KR101158491B1 (ko) * 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
US8587639B2 (en) * 2008-12-11 2013-11-19 Alcatel Lucent Method of improved three dimensional display technique
KR20110126103A (ko) 2009-01-07 2011-11-22 톰슨 라이센싱 조인트 깊이 추정
EP2389764A2 (en) 2009-01-26 2011-11-30 Thomson Licensing Frame packing for video coding
CN102396236B (zh) 2009-01-28 2015-03-25 Lg电子株式会社 广播接收机及其视频数据处理方法
JP6159507B2 (ja) * 2009-02-19 2017-07-05 トムソン ライセンシングThomson Licensing 3d映像フォーマット
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
JP4984184B2 (ja) * 2009-04-08 2012-07-25 ソニー株式会社 再生装置および再生方法
EP2425631B1 (en) * 2009-04-27 2015-05-20 LG Electronics Inc. Broadcast receiver and 3d video data processing method thereof
US9088817B2 (en) 2009-06-16 2015-07-21 Lg Electronics Inc. Broadcast transmitter, broadcast receiver and 3D video processing method thereof
US9774882B2 (en) 2009-07-04 2017-09-26 Dolby Laboratories Licensing Corporation Encoding and decoding architectures for format compatible 3D video delivery
US8676041B2 (en) 2009-07-04 2014-03-18 Dolby Laboratories Licensing Corporation Support of full resolution graphics, menus, and subtitles in frame compatible 3D delivery
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
US20120144441A1 (en) * 2009-08-12 2012-06-07 Chang Sik Yun Method for diagnosing 3d state information, and broadcast receiver
US9414080B2 (en) * 2009-08-21 2016-08-09 Broadcom Corporation Method and system for asymmetrical rate control for 3D video compression
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
US8665968B2 (en) * 2009-09-30 2014-03-04 Broadcom Corporation Method and system for 3D video coding using SVC spatial scalability
CN102714741B (zh) 2009-10-14 2016-01-20 汤姆森特许公司 深度图处理的方法和设备
CN102792699A (zh) * 2009-11-23 2012-11-21 通用仪表公司 作为到视频序列的附加通道的深度代码化
US9014276B2 (en) * 2009-12-04 2015-04-21 Broadcom Corporation Method and system for 3D video coding using SVC temporal and spatial scalabilities
US8743178B2 (en) 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
KR101828096B1 (ko) 2010-01-29 2018-02-09 톰슨 라이센싱 블록 기반 인터리빙
US9503757B2 (en) 2010-02-01 2016-11-22 Dolby Laboratories Licensing Corporation Filtering for image and video enhancement using asymmetric samples
US8526488B2 (en) 2010-02-09 2013-09-03 Vanguard Software Solutions, Inc. Video sequence encoding system and algorithms
WO2011108903A2 (ko) * 2010-03-05 2011-09-09 한국전자통신연구원 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치
JP2011214948A (ja) 2010-03-31 2011-10-27 Sony Corp 情報処理装置、行動予測表示方法及びコンピュータプログラム
CN106358045B (zh) 2010-04-13 2019-07-19 Ge视频压缩有限责任公司 解码器、解码方法、编码器以及编码方法
BR122020007923B1 (pt) * 2010-04-13 2021-08-03 Ge Video Compression, Llc Predição interplano
KR102159896B1 (ko) 2010-04-13 2020-09-25 지이 비디오 컴프레션, 엘엘씨 샘플 배열 멀티트리 세부분할에서 계승
TWI815295B (zh) * 2010-04-13 2023-09-11 美商Ge影像壓縮有限公司 樣本區域合併技術
US9013547B2 (en) 2010-04-30 2015-04-21 Lg Electronics Inc. Apparatus of processing an image and a method of processing thereof
US8483271B2 (en) * 2010-05-06 2013-07-09 Broadcom Corporation Method and system for 3D video pre-processing and post-processing
US20110280311A1 (en) 2010-05-13 2011-11-17 Qualcomm Incorporated One-stream coding for asymmetric stereo video
JP2012019329A (ja) * 2010-07-07 2012-01-26 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
WO2012006299A1 (en) 2010-07-08 2012-01-12 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered image and video delivery using reference processing signals
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
EP2605514B1 (en) * 2010-08-09 2017-07-12 Panasonic Corporation Image encoding method, image decoding method, image encoding device, and image decoding device
US8806050B2 (en) 2010-08-10 2014-08-12 Qualcomm Incorporated Manifest file updates for network streaming of coded multimedia data
KR20120020627A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
US20130208090A1 (en) * 2010-10-26 2013-08-15 Korean Broadcasting System Hierarchical broadcasting system and method for 3d broadcasting
US8755438B2 (en) * 2010-11-29 2014-06-17 Ecole De Technologie Superieure Method and system for selectively performing multiple video transcoding operations
KR101303719B1 (ko) * 2011-02-03 2013-09-04 브로드콤 코포레이션 깊이 정보를 강화 계층으로 이용하기 위한 방법 및 시스템
US8958375B2 (en) 2011-02-11 2015-02-17 Qualcomm Incorporated Framing for an improved radio link protocol including FEC
WO2012122330A1 (en) * 2011-03-10 2012-09-13 Vidyo, Inc. Signaling number of active layers in video coding
US20120236115A1 (en) * 2011-03-14 2012-09-20 Qualcomm Incorporated Post-filtering in full resolution frame-compatible stereoscopic video coding
WO2012131895A1 (ja) * 2011-03-29 2012-10-04 株式会社東芝 画像符号化装置、方法及びプログラム、画像復号化装置、方法及びプログラム
KR20120118779A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 전처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 부호화 방법 및 그 장치, 후처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 복호화 방법 및 그 장치
CN102752588B (zh) * 2011-04-22 2017-02-15 北京大学深圳研究生院 使用空间缩放预测的视频编解码方法
US9420259B2 (en) * 2011-05-24 2016-08-16 Comcast Cable Communications, Llc Dynamic distribution of three-dimensional content
JP2012249137A (ja) * 2011-05-30 2012-12-13 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
CN108337521B (zh) * 2011-06-15 2022-07-19 韩国电子通信研究院 存储由可伸缩编码方法生成的比特流的计算机记录介质
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
AU2012295043A1 (en) * 2011-08-09 2014-03-06 Samsung Electronics Co., Ltd. Multiview video data encoding method and device, and decoding method and device
EP2744201A4 (en) * 2011-08-09 2016-03-23 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING A DEPTH CARD OF VIDEO DATA WITH MULTIPLE VIEWPOINTS AND METHOD AND DEVICE FOR DECODING THE CODED DEPTH CARD
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US9253233B2 (en) 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US9390752B1 (en) * 2011-09-06 2016-07-12 Avid Technology, Inc. Multi-channel video editing
WO2013040170A1 (en) * 2011-09-16 2013-03-21 Dolby Laboratories Licensing Corporation Frame-compatible full resolution stereoscopic 3d compression and decompression
JP6156648B2 (ja) * 2011-09-22 2017-07-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号化方法、および、動画像復号化装置
TWI595770B (zh) 2011-09-29 2017-08-11 杜比實驗室特許公司 具有對稱圖像解析度與品質之圖框相容全解析度立體三維視訊傳達技術
EP2761877B8 (en) 2011-09-29 2016-07-13 Dolby Laboratories Licensing Corporation Dual-layer frame-compatible full-resolution stereoscopic 3d video delivery
CN103907346B (zh) * 2011-10-11 2017-05-24 联发科技股份有限公司 运动矢量预测子及视差矢量导出方法及其装置
WO2013074964A1 (en) 2011-11-16 2013-05-23 Vanguard Software Solutions, Inc. Video compression for high efficiency video coding
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
CN103959768B (zh) * 2011-12-04 2017-09-22 Lg电子株式会社 能够显示立体图像的数字广播接收方法和装置
CN107241606B (zh) 2011-12-17 2020-02-21 杜比实验室特许公司 解码系统、方法和设备以及计算机可读介质
WO2013105207A1 (en) * 2012-01-10 2013-07-18 Panasonic Corporation Video encoding method, video encoding apparatus, video decoding method and video decoding apparatus
US20130222537A1 (en) * 2012-02-29 2013-08-29 Qualcomm Incorporated Bitstream extraction in three-dimensional video
US20130243079A1 (en) * 2012-03-19 2013-09-19 Nokia Siemens Networks Oy Storage and processing savings when adapting video bit rate to link speed
KR20130107861A (ko) * 2012-03-23 2013-10-02 한국전자통신연구원 인터 레이어 인트라 예측 방법 및 장치
GB2500712A (en) * 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
KR101682999B1 (ko) * 2012-04-16 2016-12-20 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
KR20130116782A (ko) 2012-04-16 2013-10-24 한국전자통신연구원 계층적 비디오 부호화에서의 계층정보 표현방식
US20150085932A1 (en) * 2012-04-24 2015-03-26 Mediatek Inc. Method and apparatus of motion vector derivation for 3d video coding
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
WO2013169025A1 (ko) * 2012-05-09 2013-11-14 엘지전자 주식회사 스케일러블 비디오 인코딩/디코딩 방법 및 장치
US9762903B2 (en) * 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
TWI630815B (zh) 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
US9838688B2 (en) * 2012-06-22 2017-12-05 Mediatek Inc. Method and apparatus of adaptive intra prediction for inter-layer and inter-view coding
US9998727B2 (en) * 2012-09-19 2018-06-12 Qualcomm Incorporated Advanced inter-view residual prediction in multiview or 3-dimensional video coding
US9426462B2 (en) * 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
KR101648094B1 (ko) * 2012-09-25 2016-08-12 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
CN104704835B (zh) * 2012-10-03 2017-11-24 联发科技股份有限公司 视频编码中运动信息管理的装置与方法
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
WO2014088446A1 (en) * 2012-12-05 2014-06-12 Intel Corporation Recovering motion vectors from lost spatial scalability layers
ITTO20121073A1 (it) * 2012-12-13 2014-06-14 Rai Radiotelevisione Italiana Apparato e metodo per la generazione e la ricostruzione di un flusso video
US9106922B2 (en) 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
US20150350671A1 (en) * 2013-01-04 2015-12-03 Samsung Electronics Co., Ltd. Motion compensation method and device for encoding and decoding scalable video
US9743097B2 (en) * 2013-03-01 2017-08-22 Qualcomm Incorporated Spatial motion vector scaling for scalable video coding
US9369708B2 (en) * 2013-03-27 2016-06-14 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
CN105122805B (zh) * 2013-04-05 2019-10-15 Vid拓展公司 针对多层视频编码的层间参考图片增强的设备
US9807421B2 (en) * 2013-04-05 2017-10-31 Sharp Kabushiki Kaisha NAL unit type restrictions
WO2014166096A1 (en) * 2013-04-11 2014-10-16 Mediatek Singapore Pte. Ltd. Reference view derivation for inter-view motion prediction and inter-view residual prediction
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
WO2015012514A1 (ko) * 2013-07-26 2015-01-29 경희대학교 산학협력단 서로 다른 다계층 비디오 코덱의 통합 부호화/복호화 방법 및 장치
KR101595397B1 (ko) 2013-07-26 2016-02-29 경희대학교 산학협력단 서로 다른 다계층 비디오 코덱의 통합 부호화/복호화 방법 및 장치
CN104427337B (zh) * 2013-08-21 2018-03-27 杭州海康威视数字技术股份有限公司 基于目标检测的感兴趣区域视频编码方法及其装置
US8879858B1 (en) 2013-10-01 2014-11-04 Gopro, Inc. Multi-channel bit packing engine
CN103561255B (zh) * 2013-10-24 2016-01-27 洪丹 一种裸眼立体显示方法
US9854270B2 (en) * 2013-12-19 2017-12-26 Qualcomm Incorporated Device and method for scalable coding of video information
US20150195549A1 (en) * 2014-01-08 2015-07-09 Qualcomm Incorporated Support of non-hevc base layer in hevc multi-layer extensions
US20160050440A1 (en) * 2014-08-15 2016-02-18 Ying Liu Low-complexity depth map encoder with quad-tree partitioned compressed sensing
CN104284195B (zh) * 2014-10-11 2018-12-25 华为技术有限公司 三维视频中的深度图预测方法、装置、编码器和解码器
KR102517570B1 (ko) 2015-02-11 2023-04-05 한국전자통신연구원 3dtv 방송 송수신 장치
WO2016129899A1 (ko) * 2015-02-11 2016-08-18 한국전자통신연구원 3dtv 방송 송수신 장치
CN109559349B (zh) * 2017-09-27 2021-11-09 虹软科技股份有限公司 一种用于标定的方法和装置
FR3080968A1 (fr) * 2018-05-03 2019-11-08 Orange Procede et dispositif de decodage d'une video multi-vue, et procede et dispositif de traitement d'images.
US11468587B2 (en) * 2020-05-12 2022-10-11 Samsung Electronics Co., Ltd. System and method for depth map recovery

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612735A (en) * 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
JPH1118085A (ja) * 1997-06-05 1999-01-22 General Instr Corp ビデオオブジェクト平面のための時間的及び空間的スケーラブル符号化
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
WO2004059980A1 (en) * 2002-12-27 2004-07-15 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding stereoscopic video
JP2005124200A (ja) * 2003-10-16 2005-05-12 Sharp Corp 三次元ビデオ符号化に関するシステム及び方法
WO2005069630A1 (en) * 2004-01-20 2005-07-28 Daeyang Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
WO2005081547A1 (en) * 2004-02-20 2005-09-01 Mitsubishi Denki Kabushiki Kaisha Three-dimensional television system and method for providing three-dimensional television

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR100454194B1 (ko) * 2001-12-28 2004-10-26 한국전자통신연구원 다중 디스플레이 방식을 지원하는 양안식 동영상 부호화/복호화 장치 및 그 방법
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
CN1685730A (zh) * 2002-09-25 2005-10-19 皇家飞利浦电子股份有限公司 用于处理数字视频信号的方法和系统
AU2003263557A1 (en) * 2002-10-23 2004-05-13 Koninklijke Philips Electronics N.V. Method for post-processing a 3d digital video signal
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
US7843959B2 (en) * 2004-01-30 2010-11-30 Telefonaktiebolaget Lm Ericsson Prioritising data elements of a data stream
CA2557533A1 (en) * 2004-02-27 2005-09-09 Td Vision Corporation S.A. De C.V. Method and system for digital coding 3d stereoscopic video images
US7515759B2 (en) * 2004-07-14 2009-04-07 Sharp Laboratories Of America, Inc. 3D video coding using sub-sequences
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
US8731064B2 (en) * 2006-09-11 2014-05-20 Apple Inc. Post-processing for decoder complexity scalability
US20080205791A1 (en) * 2006-11-13 2008-08-28 Ramot At Tel-Aviv University Ltd. Methods and systems for use in 3d video generation, storage and compression

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5612735A (en) * 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
JPH1118085A (ja) * 1997-06-05 1999-01-22 General Instr Corp ビデオオブジェクト平面のための時間的及び空間的スケーラブル符号化
WO2004059980A1 (en) * 2002-12-27 2004-07-15 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding stereoscopic video
JP2006512809A (ja) * 2002-12-27 2006-04-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 立体ビデオの符号化及び復号化方法、符号化及び復号化装置
JP2005124200A (ja) * 2003-10-16 2005-05-12 Sharp Corp 三次元ビデオ符号化に関するシステム及び方法
WO2005069630A1 (en) * 2004-01-20 2005-07-28 Daeyang Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
WO2005081547A1 (en) * 2004-02-20 2005-09-01 Mitsubishi Denki Kabushiki Kaisha Three-dimensional television system and method for providing three-dimensional television
JP2007528631A (ja) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元テレビシステム及び3次元テレビを提供する方法

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501581A (ja) * 2007-10-24 2011-01-06 ファーウェイ デバイス カンパニー リミテッド ビデオ符号化方法、ビデオ復号方法、ビデオコーダおよびビデオデコーダ
JP2011528882A (ja) * 2008-07-21 2011-11-24 トムソン ライセンシング 3dビデオ信号の符号化装置
JP2012525767A (ja) * 2009-05-01 2012-10-22 トムソン ライセンシング 3d映像符号化フォーマット
JP2012525769A (ja) * 2009-05-01 2012-10-22 トムソン ライセンシング 3dvのレイヤ間依存関係情報
US9942558B2 (en) 2009-05-01 2018-04-10 Thomson Licensing Inter-layer dependency information for 3DV
JP2012510733A (ja) * 2009-05-04 2012-05-10 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 深度画像を再構成する方法および深度画像を再構成する復号器
US8704873B2 (en) 2009-10-28 2014-04-22 Sony Corporation Receiving stream data which may be used to implement both two-dimensional display and three-dimensional display
JP2011097227A (ja) * 2009-10-28 2011-05-12 Sony Corp ストリーム受信装置、ストリーム受信方法、ストリーム送信装置、ストリーム送信方法及びコンピュータプログラム
JP2013516906A (ja) * 2010-01-06 2013-05-13 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチ−レイヤ化されたビデオシステムのための複雑度を適応的にするスケーラブル復号及びストリーミング
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US10142611B2 (en) 2010-07-21 2018-11-27 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered frame-compatible video delivery
JP2015167394A (ja) * 2010-07-21 2015-09-24 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチレイヤフレーム準拠ビデオ配信のためのシステム及び方法
JP2016036177A (ja) * 2010-07-21 2016-03-17 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチレイヤフレーム準拠ビデオ配信のためのシステム及び方法
US11044454B2 (en) 2010-07-21 2021-06-22 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered frame compatible video delivery
JP2016149800A (ja) * 2010-07-21 2016-08-18 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチレイヤフレーム準拠ビデオ配信のためのシステム及び方法
JP2016149801A (ja) * 2010-07-21 2016-08-18 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチレイヤフレーム準拠ビデオ配信のためのシステム及び方法
JP2012034138A (ja) * 2010-07-29 2012-02-16 Toshiba Corp 信号処理装置及び信号処理方法
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
US9883161B2 (en) 2010-09-14 2018-01-30 Thomson Licensing Compression methods and apparatus for occlusion data
KR101910192B1 (ko) * 2010-11-12 2018-10-22 한국전자통신연구원 3dtv 서비스에서의 영상 압축 규격 결정 방법 및 장치
WO2013153808A1 (ja) * 2012-04-13 2013-10-17 パナソニック株式会社 画像復号方法および画像復号装置
JP2015515228A (ja) * 2012-04-23 2015-05-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビューコード化及び3dコード化におけるビュー依存性
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
JPWO2014034480A1 (ja) * 2012-09-03 2016-08-08 ソニー株式会社 画像処理装置および方法
JP2016213875A (ja) * 2012-09-03 2016-12-15 ソニー株式会社 画像処理装置および方法
WO2014034480A1 (ja) * 2012-09-03 2014-03-06 ソニー株式会社 画像処理装置および方法
US10349076B2 (en) 2012-09-03 2019-07-09 Sony Corporation Image processing device and method
US10616598B2 (en) 2012-09-03 2020-04-07 Sony Corporation Image processing device and method
US10791315B2 (en) 2013-01-04 2020-09-29 Qualcomm Incorporated Signaling of spatial resolution of depth views in multiview coding file format
US10873736B2 (en) 2013-01-04 2020-12-22 Qualcomm Incorporated Indication of current view dependency on reference view in multiview coding file format
JP2016509399A (ja) * 2013-01-04 2016-03-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated マルチビューコード化ファイルフォーマットでの深度ビューの空間解像度の信号伝達
US11178378B2 (en) 2013-01-04 2021-11-16 Qualcomm Incorporated Signaling of spatial resolution of depth views in multiview coding file format

Also Published As

Publication number Publication date
WO2007047736A3 (en) 2007-07-12
KR101475527B1 (ko) 2014-12-22
KR20080063323A (ko) 2008-07-03
CN101292538A (zh) 2008-10-22
WO2007047736A2 (en) 2007-04-26
US9131247B2 (en) 2015-09-08
BRPI0616745A2 (pt) 2011-06-28
EP1946563A2 (en) 2008-07-23
US20100165077A1 (en) 2010-07-01
CN101292538B (zh) 2012-11-28
JP5587552B2 (ja) 2014-09-10
MY159176A (en) 2016-12-30

Similar Documents

Publication Publication Date Title
JP5587552B2 (ja) スケーラブル映像符号化を用いた多視点映像符号化
JP6825155B2 (ja) ビデオ符号化及び復号化におけるタイリング
KR101354387B1 (ko) 2d 비디오 데이터의 3d 비디오 데이터로의 컨버전을 위한 깊이 맵 생성 기술들
RU2689191C2 (ru) Упаковка кадров для кодирования видео
JP2018186513A (ja) 多視点信号コーデック
JP6446488B2 (ja) ビデオデータデコーディング方法及びビデオデータデコーディング装置
US20070104276A1 (en) Method and apparatus for encoding multiview video
WO2013030452A1 (en) An apparatus, a method and a computer program for video coding and decoding
KR20140035065A (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111228

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130212

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140724

R150 Certificate of patent or registration of utility model

Ref document number: 5587552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees