JP2008182669A - 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム - Google Patents

多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム Download PDF

Info

Publication number
JP2008182669A
JP2008182669A JP2007261773A JP2007261773A JP2008182669A JP 2008182669 A JP2008182669 A JP 2008182669A JP 2007261773 A JP2007261773 A JP 2007261773A JP 2007261773 A JP2007261773 A JP 2007261773A JP 2008182669 A JP2008182669 A JP 2008182669A
Authority
JP
Japan
Prior art keywords
viewpoint
image signal
decoding
image
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007261773A
Other languages
English (en)
Other versions
JP4793366B2 (ja
Inventor
Hiroya Nakamura
博哉 中村
Motoharu Ueda
基晴 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=39303097&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2008182669(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007261773A priority Critical patent/JP4793366B2/ja
Priority to US11/907,188 priority patent/US8139150B2/en
Publication of JP2008182669A publication Critical patent/JP2008182669A/ja
Application granted granted Critical
Publication of JP4793366B2 publication Critical patent/JP4793366B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

【課題】従来の符号化された多視点画像の符号化ビット列を、復号側で並列処理により復号する際に、他の視点を参照する視差補償予測を行う視点において、視差補償予測で参照する他の視点の復号画像の復号処理が完了しているか否かがわからず、視差補償予測の参照画像として利用できるかどうかわからないという問題がある。
【解決手段】符号化管理部101は撮影/表示時間順に入力された視点画像M(0)、M(1)、M(2)、・・・を構成する各符号化対象画像の参照依存関係、符号化順序を管理すると共に、視点参照依存カウントを管理する。符号化ビット列生成部102は、符号化管理部101の出力に基づいて、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を基底視点とし、その基底視点の画像信号の符号化開始時刻に対する基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を生成して符号化する。
【選択図】図1

Description

本発明は多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラムに係り、特に異なる視点から撮影された多視点画像を符号化して多視点画像符号化データを生成する多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、及びその多視点画像符号化データを復号する多視点画像復号装置、多視点画像復号方法、多視点画像復号プログラムに関する。
<動画像符号化方式>
現在、時間軸上に連続する動画像をディジタル信号の情報として取り扱い、その際、効率の高い情報の放送、伝送又は蓄積等を目的とし、時間方向の冗長性を利用して動き補償予測を用い、空間方向の冗長性を利用して離散コサイン変換等の直交変換を用いて符号化圧縮するMPEG(Moving Picture Experts Group)などの符号化方式に準拠した装置、システムが、普及している。
1995年に制定されたMPEG−2ビデオ(ISO/IEC 13818−2)符号化方式は、汎用の動画像圧縮符号化方式として定義されており、プログレッシブ走査画像に加えてインターレース走査画像にも対応し、SDTV(標準解像度画像)のみならずHDTV(高精細画像)まで対応しており、光ディスクであるDVD(Digital Versatile Disk)や、D−VHS(登録商標)規格のディジタルVTRによる磁気テープなどの蓄積メディアや、ディジタル放送等のアプリケーションとして広く用いられている。
また、ネットワーク伝送や携帯端末等のアプリケーションにおいて、より高い符号化効率を目標とする、MPEG−4ビジュアル(ISO/IEC 14496−2)符号化方式の標準化が行われ、1998年に国際標準として制定された。
更に、2003年に、国際標準化機構(ISO)と国際電気標準会議(IEC)の合同技術委員会(ISO/IEC JTC1)と、国際電気通信連合電気通信標準化部門(ITU−T)の共同作業によってMPEG−4 AVC/H.264と呼ばれる符号化方式(ISO/IECでは14496−10、ITU‐TではH.264の規格番号がつけられている。以下、これをAVC/H.264符号化方式と呼ぶ)が国際標準として制定された。このAVC/H.264符号化方式では、従来のMPEG−2ビデオやMPEG−4ビジュアル等の符号化方式に比べ、より高い符号化効率を実現している。
MPEG−2ビデオやMPEG−4ビジュアル等の符号化方式のPピクチャでは、表示順序で直前のIピクチャまたはPピクチャのみから動き補償予測を行う。これに対して、AVC/H.264符号化方式では、複数のピクチャを参照ピクチャとして用いることができ、この中からブロック毎に最適なものを選択して動き補償を行うことができる。また、表示順序で先行するピクチャに加えて、既に符号化済みの表示順序で後続のピクチャも参照することができる。
また、MPEG−2ビデオやMPEG−4ビジュアル等の符号化方式のBピクチャは、表示順序で前方1枚の参照ピクチャ、後方1枚の参照ピクチャ、もしくはその2枚の参照ピクチャを同時に参照し、2つのピクチャの平均値を予測ピクチャとし、対象ピクチャと予測ピクチャの差分データを符号化する。一方、AVC/H.264符号化方式では、表示順序で前方1枚、後方1枚という制約にとらわれず、前方や後方に関係なく任意の参照ピクチャを予測のために参照可能となった。また、Bピクチャを参照ピクチャとして参照することも可能となっている。
更に、MPEG−2ビデオではピクチャ、MPEG−4ではビデオ・オブジェクト・プレーン(VOP)を1つの単位として、ピクチャ(VOP)ごとの符号化モードが決められていたが、AVC/H.264符号化方式では、スライスを符号化の単位としており、1つのピクチャ内にIスライス、Pスライス、Bスライス等異なるスライスを混在させる構成にすることも可能となっている。
更に、AVC/H.264符号化方式ではビデオの画素信号(符号化モード、動きベクトル、DCT係数等)の符号化/復号処理を行うVCL(Video Coding Layer;ビデオ符号化層)と、NAL(Network Abstraction Layer;ネットワーク抽象層)が定義されている。
AVC/H.264符号化方式で符号化された符号化ビット列はNALの一区切りであるNALユニットを単位として構成される。NALユニットはVCLで符号化されたデータ(符号化モード、動きベクトル、DCT係数等)を含むVCL NALユニットと、VCLで生成されたデータを含まないnon−VCL NALユニットがある。non−VCL NALユニットにはシーケンス全体の符号化に関わるパラメータ情報が含まれているSPS(シーケンス・パラメータ・セット)や、ピクチャの符号化に関わるパラメータ情報が含まれているPPS(ピクチャ・パラメータ・セット)、VCLで符号化されたデータの復号に必須ではないSEI(補足付加情報)等がある。
また、AVC/H.264符号化方式における符号化の基本の単位はピクチャを分割したスライスであり、VCL NALユニットはスライス単位となっている。そこで、符号化ビット列の情報をピクチャ単位で扱うために、いくつかのNALユニットを纏めたアクセス・ユニットと呼ばれる単位が定義されており、1アクセス・ユニットに1つの符号化されたピクチャが含まれている。
<多視点画像符号化方式>
一方、2眼式立体テレビジョンにおいては、2台のカメラにより異なる2方向から撮影された左眼用画像、右眼用画像を生成し、これを同一画面上に表示して立体画像を見せるようにしている。この場合、左眼用画像、及び右眼用画像はそれぞれ独立した画像として別個に伝送、あるいは記録されている。しかし、これでは単一の2次元画像の約2倍の情報量が必要となってしまう。
そこで、左右いずれか一方の画像を主画像とし、他方の画像(副画像)情報を一般的な圧縮符号化方法によって情報圧縮して情報量を抑える手法が提案されている(例えば、特許文献1参照)。この特許文献1に記載された立体テレビジョン画像伝送方式では、小領域毎に他方の画像での相関の高い相対位置を求め、その位置偏移量(視差ベクトル)と差信号(予測残差信号)とを伝送するようにしている。差信号も伝送、記録するのは、主画像と視差情報であるずれ量や位置偏移量を用いれば副画像に近い画像が復元できるが、物体の影になる部分など主画像がもたない副画像の情報は復元できないからである。
また、1996年に単視点画像の符号化国際標準であるMPEG−2ビデオ(ISO/IEC 13818−2)符号化方式に、マルチビュープロファイルと呼ばれるステレオ画像の符号化方式が追加された(ISO/IEC 13818−2/AMD3)。MPEG−2ビデオ・マルチビュープロファイルは左眼用画像を基本レイヤー、右眼用画像を拡張レイヤーで符号化する2レイヤーの符号化方式となっており、時間方向の冗長性を利用した動き補償予測や、空間方向の冗長性を利用した離散コサイン変換に加えて、視点間の冗長性を利用した視差補償予測を用いて符号化圧縮する。
また、3台以上のカメラで撮影された多視点画像に対して動き補償予測、視差補償予測を用いて情報量を抑える手法が提案されている(例えば、特許文献2参照)。この特許文献2に記載された画像高能率符号化方式は複数の視点の参照画像とのパターンマッチングを行い、誤差が最小となる動き補償/視差補償予測画像を選択することにより、符号化効率を向上させている。
特開昭61-144191号公報 特開平6−98312号公報
多くの視点数を有する多視点画像が符号化された符号化ビット列を復号しリアルタイムで三次元表示装置等に出力する場合、現状では1つのプロセッサで全ての視点をリアルタイムで復号することは困難であり、複数のプロセッサを用いて、並列処理により復号することが必要である。
しかしながら、従来の立体テレビジョン画像伝送方式、画像高能率符号化方式で符号化された多視点画像の符号化ビット列を、復号側で並列処理により復号する際に、他の視点を参照する視差補償予測を行う視点において、視差補償予測で参照する他の視点の復号画像の復号処理が完了しているか否かがわからず、視差補償予測の参照画像として利用できるかどうかわからないという問題がある。
本発明は以上の点に鑑みてなされたもので、復号側での並列処理によりリアルタイムでの復号処理を考慮した多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラムを提供することを目的とする。
上記目的を達成するため、第1の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化装置であって、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点として指定又は計算する第1の手段と、第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を指定又は計算する第2の手段と、遅延時間を示す情報を符号化する符号化手段とを有することを特徴とする。
また、上記の目的を達成するため、第2の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化方法であって、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点として指定又は計算する第1のステップと、第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を指定又は計算する第2のステップと、遅延時間を示す情報を符号化する第3のステップとを含むことを特徴とする。また、上記の目的を達成するため、第3の発明の多視点画像符号化プログラムは、第2の発明の各ステップをコンピュータに実行させることを特徴とする。
上記の第1乃至第3の発明では、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点とし、その第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を生成して符号化するようにしたため、復号側で上記の遅延時間を示す情報を復号させることで、復号時に第1の基底視点以外の他の視点の画像信号を参照する視差補償予測を行う際に、視差補償予測で参照する他の視点の復号画像の復号処理が完了しているか否かを判別させることができる。
また、上記の目的を達成するため、第4の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号装置であって、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データを復号して第1の基底視点を判別する判別手段と、第2の符号化データを復号して、第1の基底視点の復号開始時刻に対する第1の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を得る遅延時間復号手段と、遅延時間復号手段により復号されたそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第1の基底視点の画像信号を復号すると共に、第1の符号化データ中の第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を第1の基底視点の復号開始時刻に対して遅延して復号する遅延・復号手段とを有することを特徴とする。
また、上記の目的を達成するため、第5の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号方法であって、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データを復号して第1の基底視点を判別する第1のステップと、第2の符号化データを復号して、第1の基底視点の復号開始時刻に対する第1の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を得る第2のステップと、第2のステップにより復号されたそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第1の基底視点の画像信号を復号すると共に、第1の符号化データ中の第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を第1の基底視点の復号開始時刻に対して遅延して復号する第3のステップとを含むことを特徴とする。また、上記の目的を達成するため、第6の発明の多視点画像復号プログラムは、第5の発明の多視点画像復号方法の各ステップをコンピュータにより実行させることを特徴とする。
上記の第4乃至第6の発明では、多視点画像信号が符号化されてなる第1の符号化データと、各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データとが入力され、これら第1及び第2の符号化データを復号する際に、第2の符号化データを復号して、第1の基底視点の復号開始時刻に対する第1の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を復号し、その復号されたそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第1の基底視点の画像信号を復号すると共に、第1の符号化データ中の第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を第1の基底視点の復号開始時刻に対して遅延して復号するようにしたため、復号時に第1の基底視点以外の他の視点の画像信号を参照する視差補償予測を行う際に、視差補償予測で参照する他の視点の復号画像の復号処理が完了しているか否かを判別させることができる。
また、上記の目的を達成するため、第7の発明は設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号装置であって、一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して、参照依存情報を得る復号手段と、各視点の内で、符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、参照依存情報から、第2の基底視点を判別する判別手段と、参照依存情報から、第2の基底視点の復号開始時刻に対する第2の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を算出する遅延時間算出手段と、遅延時間算出手段により算出されたそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第2の基底視点の符号化画像信号を復号すると共に、第1の符号化データ中の第2の基底視点以外の視点の符号化画像信号の復号開始時刻を第2の基底視点の復号開始時刻に対して遅延して復号する遅延・復号手段と、を有することを特徴とする。
また、上記の目的を達成するため、第8の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号方法であって、一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して、参照依存情報を得る第1のステップと、各視点の内で、符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、参照依存情報から、第2の基底視点を判別する第2のステップと、参照依存情報から、第2の基底視点の復号開始時刻に対する第2の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を算出する第3のステップと、第3のステップにより算出されたそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第2の基底視点の符号化画像信号を復号すると共に、第1の符号化データ中の第2の基底視点以外の視点の符号化画像信号の復号開始時刻を第2の基底視点の復号開始時刻に対して遅延して復号する第4のステップと、を含むことを特徴とする。また、上記の目的を達成するため、第9の発明の多視点画像復号プログラムは、第8の発明の多視点画像復号方法の各ステップをコンピュータにより実行させることを特徴とする。
上記の第7乃至第9の発明では、一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して参照依存情報を得て、各視点の内で、符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、参照依存情報から第2の基底視点を判別すると共に、参照依存情報から第2の基底視点の復号開始時刻に対する第2の基底視点以外の視点の復号開始時刻の遅延時間を示す情報を算出し、算出したそれぞれの視点の遅延時間を示す情報に基づいて、入力された第1の符号化データ中の第2の基底視点の符号化画像信号を復号すると共に、第1の符号化データ中の第2の基底視点以外の視点の符号化画像信号を復号するようにしたため、復号時に第2の基底視点以外の他の視点の画像信号を参照する視差補償予測を行う際に、視差補償予測で参照する他の視点の復号画像の復号処理が完了した状態で復号を行うことができる。
本発明によれば、多視点画像の符号化の際に、第1の基底視点(各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点)の復号開始時刻に対する各視点の復号開始時刻の遅延時間を示す情報を符号化しておくので、復号側で各視点の画像信号の符号化ビット列を並列処理によりリアルタイムで復号する際に、第1の基底視点の復号開始時刻に対する第1の基底視点以外の各視点の復号開始時刻を容易に知ることができ、第1の基底視点(他の視点を参照せずに復号する視点)の復号開始時刻に対する各視点の復号開始時刻の遅延時間を示す情報に応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列(符号化データ)の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償される。
また、本発明によれば、多視点画像の復号の際に、第1の基底視点(各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点)の符号化画像信号の復号開始時刻に対する各視点の符号化画像信号の復号開始時刻の遅延時間を示す情報を復号するようにしたため、各視点の画像信号の符号化ビット列を並列処理によりリアルタイムで復号する際に、第1の基底視点の復号開始時刻に対する第1の基底視点以外の各視点の復号開始時刻の遅延時間を容易に知ることができ、第1の基底視点の復号開始時刻に対する各視点の復号開始時刻の遅延時間を示す情報に応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列(符号化データ)の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償されるので、効率的に符号化データの復号を並列処理によりリアルタイムでできる。
更に、本発明によれば、多視点画像の復号の際に、第2の基底視点(符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点)の符号化画像信号の復号開始時刻に対する各視点の符号化画像信号の復号開始時刻の遅延時間を示す情報を算出するようにしたため、第2の基底視点の復号開始時刻に対する第2の基底視点以外の各視点の復号開始時刻の遅延時間を容易に知ることができ、第2の基底視点の復号開始時刻に対する各視点の復号開始時刻の遅延時間を示す情報に応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列(符号化データ)の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償されるので、効率的に符号化データの復号を並列処理によりリアルタイムでできる。
以下、図面と共に本発明の各実施の形態を説明する。まず、本発明の多視点画像復号装置で復号する符号化データを生成する本発明の多視点画像符号化装置、方法、及びプログラムについて図面を参照して説明する。
(第1の実施の形態)
図1は本発明になる多視点画像符号化装置の第1の実施の形態のブロック図を示し、図2は図1の多視点画像符号化装置を構成する視点画像符号化部の一例のブロック図を示す。また、図3は図1の多視点画像符号化装置、及び多視点画像符号化方法、多視点画像符号化プログラムの処理手順を説明するフローチャートである。本実施の形態ではAVC/H.264符号化方式をベースとし、多視点に拡張した多視点画像符号化装置として説明する。
図1に示すように、多視点画像符号化装置は符号化管理部101、符号化ビット列生成部102、視点画像符号化部103、104、105を備えている。M(v)(v=0、1、2、・・・)は本実施の形態の多視点画像符号化装置に供給される多視点画像のそれぞれの視点画像であり、vは視点を特定する視点IDである。S(v)(v=0、1、2、・・・)は符号化の結果得られる各視点の符号化ビット列である。以下、視点IDがvの視点を視点v(視点0、視点1、視点2、・・・)とする。図1ではv=0、1、2の3視点のみ図示しており、vが3以上の視点は省略している。
また、図1の多視点画像符号化装置を構成する視点画像符号化部103、104、105はそれぞれ同一構成であり、図2に示すように、画像バッファ201、動き/視差補償予測部202、符号化モード判定部203、残差信号算出部204、残差信号符号化部205、残差信号復号部206、残差信号重畳部207、復号画像バッファ208、符号化ビット列生成部209、スイッチ210、211を備えている。なお、スイッチ210には他の視点からの参照画像R(v')が入力され、スイッチ211からは他の視点の参照画像R(v)として出力される。
次に、図1に示す本実施の形態の多視点画像符号化装置の動作について、図3のフローチャートを併せ参照して説明する。まず、図1において、符号化管理部101は外部から設定された符号化パラメータをもとに、必要に応じて新たにパラメータを計算し、シーケンス全体に関連する情報、ピクチャに関連する情報、ピクチャのスライスに関連する情報等を含む符号化に関する管理を行う。さらに、符号化管理部101は撮影/表示時間順に入力された視点画像M(0)、M(1)、M(2)、・・・を構成する各符号化対象画像の参照依存関係、符号化順序を管理する。参照依存関係については、視点単位で他の視点の復号画像を参照するか否かを管理するとともに、ピクチャまたはスライス単位で、符号化対象画像を符号化する際に他の視点の復号画像を参照画像として用いる視差補償予測を行うか否か、符号化対象画像を符号化後に復号して得られる復号画像が他の視点の符号化対象画像を符号化する際に参照画像として用いられるか否か、複数ある参照画像の候補の中からどの参照画像を参照するかについて管理する。また、符号化順序については、前記参照依存関係において、復号側で、復号する符号化ビット列の画像が参照する参照画像が復号された後に復号を開始できるように符号化順序を管理する。
また、符号化管理部101は後述する視点参照依存カウントを管理する。視点参照依存カウントは外部から設定されたパラメータの一つとして視点毎に設定されるが、前記参照依存関係、及び前記符号化順序より、算出してもよい。さらに前記管理情報を符号化ビット列生成部102に供給すると共に、視点画像符号化部102、103、104を制御する。
ここで、各視点の視点画像を符号化、及び符号化された符号化ビット列を復号する際の視点間、及び視点画像を構成する符号化対象画像間の参照依存関係について8視点の場合を例にとって説明する。図4は8視点からなる多視点画像を符号化する際の画像間の参照依存関係の一例を示す図であり、横軸は撮影(表示)順序での時間を示している。P(v,t)(視点v=0,1,2,・・・;時間t=0,1,2,・・・)は視点vの視点画像M(v)を構成する画像である。また、矢印の終点で指し示す画像が符号化/復号する画像で、その符号化/復号する画像を符号化/復号する際に動き補償予測や視差補償予測で参照する参照画像は矢印の始点で指し示す画像である。更に、符号化/復号する画像を符号化/復号する際に動き補償予測で参照する参照画像は横方向の矢印の始点で指し示す画像であり、視差補償予測で参照する参照画像は縦方向の矢印の始点で指し示す画像である。
視点0の画像P(0,t)は、すべて他の視点の画像を参照せず、動き補償予測を用いる通常のAVC/H.264と同様に符号化/復号する。本発明では他の視点の復号画像を視差補償予測のために参照しない視点を基底視点と定義し、少なくとも基底視点を1つ以上設定する。図4においては視点0が基底視点(第1の基底視点)となり、視点0以外の視点では他の視点の復号画像から予測する視差補償予測を用いている。例えば、視点2の画像P(2,0)は他の視点である視点0の画像P(0,0)の復号画像を参照画像とし、視差補償予測を用いて、符号化/復号する。また、視点1の画像P(1,0)は他の視点である視点0の画像P(0,0)と視点2の画像P(2,0)の各復号画像を参照画像とし、視差補償予測を用いて、符号化/復号する。
次に、本発明で用いる視点参照依存カウントについて説明する。図5は図4に示す参照依存関係で符号化された符号化ビット列を復号側で各視点を並列処理によりリアルタイムで復号する際の復号順序の一例を示す図であり、横軸は復号順序での時間を示す。図5において、垂直方向に並んでいる画像同士は互いに視差補償することはなく相互に直接参照依存関係が無いので、それらの符号化ビット列を同じ時刻(タイミング)で復号することができることを示している。また、図4と同様に、矢印の終点で指し示す画像が復号する画像で、その復号する画像を復号する際に動き補償予測や視差補償予測で参照する参照画像は矢印の始点で指し示す画像である。ただし、動き補償予測を示す矢印については視点0だけを記している。また、本発明では、1つのアクセス・ユニットの符号化ビット列を復号する時間の単位を1アクセス・ユニット時間と定義する。
第1の基底視点である視点0の符号化ビット列は他の視点に依存することなく復号できる。しかし、視点0以外の視点では他の視点の復号画像から予測する視差補償予測を用いているので、復号の際には参照する視点に依存する。例えば、視点2の画像P(2,0)、画像P(2,4)、画像P(2,8)は視点0の画像P(0,0)、画像P(0,4)、画像P(0,8)の復号画像をそれぞれ参照画像として視差補償予測を行う。従って、視点2の画像P(2,0)、画像P(2,4)、画像P(2,8)の符号化ビット列を復号する際には、それぞれの参照画像として用いる画像P(0,0)、画像P(0,4)、画像P(0,8)の符号化ビット列と同時に復号することはできず、それぞれの参照画像となる画像の復号処理が完了し、参照することができるようになるまで遅延させる必要がある。
その条件を満たすためには、視点2の符号化ビット列の復号には視点0に対して1アクセス・ユニット時間の遅延が必要である。本発明では各視点の符号化画像を復号する際に必要な第1の基底視点に対するアクセス・ユニット単位の遅延を視点参照依存カウントと定義する。すなわち、視点参照依存カウントは視差補償予測する画像を復号する際に参照画像となる他の視点の画像の復号処理が完了していることを補償する復号開始時刻(タイミング)を復号側で容易に知るためのパラメータである。ここで、第1の基底視点の視点参照依存カウントは"0"とする。視点2の場合、視点0に対して1アクセス・ユニット時間の遅延が必要となるので、視点参照依存カウントを"1"とする。
図6は図4に示す参照依存関係で符号化する場合のそれぞれの視点に対応する視点参照依存カウントの一例を示す。図6に示すように、視点IDが「0」、「2」の場合、上記のように視点参照依存カウントは"0"、"1"である。また、視点IDが「1」、「4」の場合は視点参照依存カウントはそれぞれ"2"、視点IDが「3」、「6」の場合は視点参照依存カウントはそれぞれ"3"、視点IDが「5」、「7」の場合は視点参照依存カウントはそれぞれ"4"である。
本実施の形態では符号化時に、それぞれの視点に対応する視点参照依存カウントを符号化することにより、復号側で各視点を並列処理によりリアルタイムで復号する際に、視点参照依存カウントにより第1の基底視点の復号開始時刻(タイミング)に対する各視点の復号開始時刻(タイミング)の遅延時間を容易に知ることができ、視点参照依存カウントに応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることを補償される。
次に、上記の視点参照依存カウントを符号化する方法について説明する。視点参照依存カウントを符号化する方法には、それぞれの視点の視点参照依存カウントを纏めてシーケンス全体に関連するパラメータとして、符号化する方法と、視点参照依存カウントを視点毎に独立でそれぞれ符号化する方法がある。
図7は視点参照依存カウントを符号化する方法として、それぞれの視点の視点参照依存カウントを纏めてシーケンス全体に関連するパラメータとして(例えば、AVC/H.264符号化方式のSPSやSEIとして)符号化する場合の一例を説明する図であり、図7(a)は符号化シンタックス構造を示している。図7において、「num_views_minus1」
は符号化する多視点画像の視点数を符号化するためのパラメータであり、視点数は1以上となるため、視点数から1を引いた値を、8ビットの固定長で符号化する。8ビットの固定長の場合、1から256までの視点数を表すことができる。
また、「view_dependency[i]」は視点参照依存カウントを符号化するためのパラメータであり、視点参照依存カウントの値を同じく8ビットの固定長で符号化する。8ビットの固定長の場合、0から255までの視点参照依存カウントの値を表すことができる。ここで、iは視点IDであり、forループと組み合わせてそれぞれの視点の視点参照依存カウントを符号化することを表している。
図7(b)は図7(a)のシンタックス構造に従って図4〜図6で説明した8視点の視点参照依存カウントを符号化する場合の一例を示す。図7(b)に示すように、8ビットの「num_views_minus1」が「00000111」であることから視点数から1を引いた値が「7」、つまり8視点であることを示しており、続く各8ビットの8つの「view_dependency[0]」〜「view_dependency[7]」により、視点0から視点7までの各視点毎の図6に示した8視点の視点参照依存カウントの値を表している。なお、ここでは固定長で符号化する場合について説明したが、各パラメータをハフマン符号化、算術符号化等のエントロピー符号化で符号化してもよい。
図8は視点参照依存カウントを符号化する方法として、視点参照依存カウントを視点毎に独立で(例えば、AVC/H.264符号化方式のVCL NALユニットとして)それぞれ符号化する場合の一例を説明する図である。図8(a)は符号化シンタックス構造を示している。図8において、「view_id」は視点を特定する視点IDを符号化するためのパラメータであり、8ビットの固定長で符号化する。8ビットの固定長の場合、視点数が256以下において、0から255までの視点IDを表すことができる。また、「view_d
ependency」は視点参照依存カウントの値を同じく8ビットの固定長で符号化する。図8(b)は図8(a)のシンタックス構造に従って図4〜図6で説明した8つの視点の一つである視点1の視点参照依存カウントを符号化する場合の一例である。視点1以外の他の視点についても同様にして視点毎に独立で(AVC/H.264符号化方式のVCL NALユニットとして)それぞれ符号化する。
なお、ここでは固定長で符号化する場合について説明したが、各パラメータをハフマン符号化、算術符号化等のエントロピー符号化で符号化してもよい。また、視点参照依存カウントを必ずしもすべてのスライスで符号化する必要はない。しかし、復号側にはそれぞれの視点において少なくともシーケンスの先頭のアクセス・ユニットでは視点参照依存カウントの値を通知する必要がある。そこで、各視点において視点参照依存カウントのデフォルト値を"0"とし、当該視点の視点参照依存カウントが符号化されている場合は復号し、その値に更新する。
ここで、従来のAVC/H.264方式との互換性を保つために、第1の基底視点については従来のAVC/H.264方式のシンタックス構造で符号化することがある。このようにすることで、第1の基底視点の符号化ビット列については復号側で従来のAVC/H.264方式により復号することができる。しかし、従来のAVC/H.264方式により復号することができるようにするためには、図8(a)に示すシンタックス構造を新たに定義することができず、「view_dependency」を符号化できない場合がある。そこで、従来のAVC/H.264方式で符号化している視点を第1の基底視点と規定し、復号側で従来のAVC/H.264方式で符号化している視点を復号する場合は、この視点を第1の基底視点とし、「view_dependency」の値はデフォルト値である"0"とする。
また、図8は視点参照依存カウントを符号化する方法として、視点参照依存カウントを視点毎に独立で(AVC/H.264符号化方式のVCL NALユニットとして)それぞれ符号化する場合の一例として説明したが、視点参照依存カウントを視点毎に独立で符号化する場合は、AVC/H.264符号化方式のVCL NALユニットに限らず、視点毎の符号化パラメータを符号化する他のパラメータとともに符号化すればよい。
再び、図1に戻って説明する。符号化ビット列生成部102は符号化管理部101から供給されるシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等のそれぞれのパラメータを(AVC/H.264符号化方式のSPS、PPS、SEI情報として)符号化ビット列に符号化する(図3のステップS101)。本実施の形態では復号側でそれぞれの視点が第1の基底視点か否かを判別する必要があるので、復号側でそれぞれの視点について第1の基底視点か否かを判別することができるパラメータを直接的に符号化するか、または他の符号化パラメータから計算できるように間接的に符号化する。また、それぞれの視点の視点参照依存カウントを纏めてシーケンス全体に関連するパラメータとして符号化する場合は、例えば図7(a)のシンタックス構造に従って、(AVC/H.264符号化方式のSPSのパラメータの一つとして)それぞれの視点の視点参照依存カウントを符号化する。
視点画像符号化部103は符号化管理部101により制御され、表示時間順に入力される視点0の視点画像M(0)をアクセス・ユニットと呼ばれる単位で符号化し、視点0の符号化ビット列S(0)を得る(図3のステップS103〜S117)。同様に、視点画像符号化部104、105も符号化管理部101により制御され、それぞれ表示時間順に入力される視点1の視点画像M(1)、視点2の視点画像M(2)を符号化し、視点1の符号化ビット列S(1)、視点2の符号化ビット列S(2)を得るが(図3のステップS103〜S117)、視点2の視点画像符号化部105では視点0の視点画像符号化部103から供給される参照画像R(0)も用いて符号化し、視点1の視点画像符号化部104では視点0の視点画像符号化部103、視点2の視点画像符号化部105から供給される参照画像R(0)、R(2)も用いて符号化する。視点画像符号化部103、104、105は共通の符号化方法で符号化することができる。
次に、視点画像符号化部103、104、105の構成について図2を用いて説明する。符号化管理部101の制御は図2に示した視点画像符号化部103、104、105を構成するすべてのブロック対して及ぶが、特に説明上重要なものに対してのみ、点線の矢印で示している。符号化管理部101の制御により、スイッチ210をオフにして視差補償予測の機能を停止し、スイッチ211をオンにした場合、視点0の視点画像符号化部103と等価となる。また、符号化管理部101の制御により、スイッチ210をオンにし、スイッチ211をオフにすることで、視点1の視点画像符号化部104と等価となり、スイッチ210、及びスイッチ211を共にオンにすることで、視点2の視点画像符号化部105と等価となる。
図2の画像バッファ201は視点毎に表示時間順に供給された視点vの視点画像M(v)(v=0,1,2,・・・)を格納する(図3のステップS103)。また、符号化管理部101では1つの画像を1つのアクセス・ユニットと呼ばれる単位で管理し、さらにアクセス・ユニットをピクチャのスライスに分割し管理して符号化する(図3のステップS104〜S117)。まず、符号化ビット列生成部209は符号化管理部101で管理されるそれぞれのピクチャのスライスに関連する情報を(AVC/H.264符号化方式のVCL NALユニットとして)スライス毎に符号化ビット列に符号化する(図3のステップS105)。
ここで、視点を特定する当該視点IDもピクチャのスライスに関連する情報として符号化する。また、視点参照依存カウントを視点毎に独立で符号化する場合は、例えば図8(a)のシンタックス構造に従って、ピクチャのスライスに関連するパラメータの一つとして当該視点に相当する視点参照依存カウントを符号化する。前記のように、視点参照依存カウントを必ずしもすべてのスライスで符号化する必要はないが、当該視点の視点参照依存カウントの値が"0"で無い場合、少なくとも復号開始となるアクセス・ユニットでは符号化する必要がある。さらに、符号化ビット列生成部209は符号化モード、動き/視差ベクトル、符号化残差信号等の画素ブロックの情報を符号化するが、それについては後述する。
画像バッファ201は、符号化順制御部101で管理される符号化順序に応じて、格納された符号化対象画像を画素ブロック単位で動き/視差補償予測部202、及び残差信号演算部204に供給する。すなわち、表示時間順序に供給された視点画像は符号化順序に並び替えられて画像バッファ201から出力される。
本実施の形態では、参照画像を用いずに画面内で符号化するイントラ符号化方式(図示しない)、既に符号化後に復号された復号画像を参照画像としこの参照画像を用いて動き補償予測を行い動き補償予測の際に算出される動きベクトルを符号化する方式、別視点からの参照画像を用いて視差補償予測を行い視差補償予測の際に算出される視差ベクトルを符号化する方式を用い、これらの符号化方式のモードを複数画素から構成される画素ブロック単位で単独あるいは組み合わせて適応的に切り替える。
動き/視差補償予測部202は、従来のAVC/H.264方式等と同様に動き補償予測を行うのに加えて、第1の基底視点以外の視点では視差補償予測を行う(図3のステップS107)。動き補償予測は後述する復号画像バッファ208から供給される表示順序で前方又は後方の同一視点の復号画像を参照画像とするが、視差補償予測は別視点の視点画像符号化部より供給される復号画像を参照画像とすれば共通の処理を行うことができる。この動き/視差補償予測部202は、符号化管理部101の制御に応じて、画像バッファ201から供給される画素ブロックと、復号画像バッファ208から供給される参照画像との間でブロックマッチングを行い、動き補償予測の場合は動きベクトル、視差補償予測の場合は視差ベクトルを検出し、動き補償予測/視差補償予測ブロック信号を作成して動き補償予測/視差補償予測ブロック信号、及び動きベクトル/視差ベクトルを符号化モード判定部203に供給する。
動き補償予測/視差補償予測を行うか否か、参照画像の数、どの復号画像を参照画像とするか、画素ブロックのサイズ等の候補の組み合わせは符号化管理部101で制御され、この制御に応じて動き補償予測/視差補償予測に関するすべての符号化モードの候補となるすべての組み合わせについて動き補償予測/視差補償予測を行い、それぞれの動き補償予測/視差補償予測ブロック信号、及び動きベクトル/視差ベクトルを符号化モード判定部203に供給する。ここでの画素ブロックのサイズの候補とは、画素ブロックを更に分割したそれぞれの小ブロックのことである。例えば、画素ブロックを水平方向16画素、垂直方向16画素(すなわち、16×16)とした場合、16×8、8×16、8×8、8×4、4×8、4×4等の小ブロックに分割して動き補償予測を行い、候補とする。
符号化モード判定部203では、動き補償予測、視差補償予測のどの手法をどの参照画像を用いてどのような画素ブロック単位で選択、組み合わせると効率の良い符号化が実現できるかを判定して符号化モードを決定し、得られた符号化モード、及び当該動きベクトル/視差ベクトルを符号化ビット列生成部209に供給すると共に、当該予測信号を選択または必要に応じて生成し、残差信号演算部204に供給する(図3のステップS108)。
残差信号演算部204は画像バッファ201から供給される符号化対象の視点画像M(v)から、符号化モード判定部203から供給される予測信号を減算することにより、予測残差信号を得て残差信号符号化部205へ出力する(図3のステップS109)。残差信号符号化部205は入力された予測残差信号に対して直交変換、量子化等の残差信号符号化処理を行い、符号化残差信号を算出する(図3のステップS110)。
符号化管理部101は、処理している当該符号化対象画像(符号化対象の視点画像M(v))が符号化順序で後に続く画像の動き補償予測、もしくは他の視点の視差補償予測の参照画像として利用されるか否かを管理しており(図3のステップS111)、参照画像として利用される場合は、残差信号復号部206を制御して符号化残差信号を復号させ、
それにより得られた復号画像信号を、残差信号重畳部207を介して復号画像バッファ208に供給させて画素ブロック単位で順次格納する(図3のステップS112〜S114)。
すなわち、ステップS112〜S114では、まず、残差信号復号部206は残差信号符号化部107から入力された符号化残差信号に対して、逆量子化、逆直交変換等の残差信号復号処理を行い、復号残差信号を生成する(図3のステップS112)。残差信号重畳部207は符号化モード判定部203から供給される予測信号に残差信号復号部206から供給される復号残差信号を重畳して復号画像信号を算出し(図3のステップS113)、その復号画像信号を復号画像バッファ208に画素ブロック単位で順次格納する(図3のステップS114)。この復号画像バッファ208に格納された復号画像信号は、必要に応じて、符号化順で後に続く画像の動き補償予測、もしくは他の視点の視差補償予測の参照画像となる。
符号化ビット列生成部209は符号化モード判定部203から入力される符号化モード、及び、動きベクトルまたは視差ベクトル、残差信号符号化部205から入力される符号化残差信号等を算術符号化等のエントロピー符号化を用いて順次符号化し、符号化ビット列S(v)(v=0,1,2,・・・)を生成する(図3のステップS115)。
以上、ステップS107からステップS115までの処理を画素ブロック単位でピクチャのスライス内のすべての画素ブロックの符号化が完了するまで繰り返す(図3のステップS106〜S116)。更に、ステップS105からステップS116までの処理をアクセス・ユニット内の全てのスライスの符号化が完了するまで繰り返す(図3のステップS104〜S117)。更に、ステップS103からステップS117までの処理を各視点の符号化対象画像(アクセス・ユニット)毎に繰り返す(図3のステップS102〜S118)。
再び、図1に戻って説明する。符号化ビット列生成部102からシーケンス情報、ピクチャ情報、補足付加情報等の符号化ビット列が出力され、視点画像符号化部103、104、105から各視点の符号化ビット列S(0)、S(1)、S(2)が出力される。これらを必要に応じて多重化部(図示せず)で多重化して1本の符号化ビット列にする。多重化しない場合は上記の各符号化ビット列を独立した符号化ビット列として出力する。
次に、本発明の多視点画像復号装置、方法、及びプログラムの第1の実施の形態について図面を参照して説明する。本実施の形態の多視点画像復号装置は本発明の第1の実施の形態の多視点画像符号化装置により符号化された符号化ビット列を視点毎に並列処理によりリアルタイムで復号する装置である。図9は本発明になる多視点画像復号装置の第1の実施の形態のブロック図であり、図10は図9の多視点画像復号装置を構成する視点画像復号部の一例の構成図である。また、図11は図9の多視点画像復号装置、及び多視点画像復号方法、多視点画像復号プログラムの処理手順を説明するフローチャートである。図9の実施の形態の多視点画像復号装置は多視点画像符号化装置と同様に、AVC/H.264符号化方式をベースとし、多視点に拡張した多視点画像復号装置であるものとして説明する。
図9に示すように、多視点画像復号装置は符号化ビット列復号部301、303、306、309、復号管理部302、バッファ304、307、310、視点画像復号部305、308、311を備えている。符号化ビット列復号部303、306、309に供給される符号化ビット列S(v)(v=0,1,2)は、図1の多視点画像符号化装置により視点毎に生成された各視点の符号化ビット列であり、M'(v)(v=0,1,2)は復号の結果、出力される多視点画像のそれぞれの視点画像である。図9ではv=0、1、2の3視点のみ図示しており、vが3以上の視点は省略している。また、符号化ビット列復号部301に供給される符号化ビット列(シーケンス・パラメータ等)は、図1の多視点画像符号化装置により視点毎に生成されたシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等のそれぞれのパラメータを符号化して得られた符号化ビット列である。
また、多視点画像復号装置の一部を構成する視点画像復号部305、308、311はそれぞれ同一構成であり、図10に示すように、符号化ビット列復号部401、動き/視差補償予測部402、予測信号合成部403、残差信号復号部404、残差信号重畳部405、復号画像バッファ406、スイッチ407、408を備えている。
次に、図9に示す第1の実施の形態の多視点画像復号装置の動作について、図11のフローチャートを併せ参照して説明する。まず、図9において、符号化ビット列復号部301は図1に示した多視点画像符号化装置により符号化された符号化ビット列を復号する(図11のステップS201)。ここで復号する符号化ビット列はシーケンス全体に関連するパラメータ(AVC/H.264符号化方式のSPS)、ピクチャに関連するパラメータ(AVC/H.264符号化方式のPPS)、補足付加情報(AVC/H.264符号化方式のSEI)等である。それぞれの視点の視点参照依存カウントを纏めてシーケンス全体に関連するパラメータとして符号化された符号化ビット列を復号する場合は、例えば図7(a)のシンタックス構造に従って、(AVC/H.264符号化方式のSPSのパラメータの一つとして)それぞれの視点の視点参照依存カウントを復号する。復号されたシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等は復号管理部302にそれぞれ供給される。
続く以下の処理(図11のS202〜S220)は各視点毎に並列で処理される。まず、符号化ビット列復号部303、306、309はそれぞれの視点毎に供給される視点0、視点1、視点2の符号化ビット列S(0)、S(1)、S(2)中の所定のデータを復号する(図11のステップS204)。ここで、符号化ビット列復号部303、306、309が復号するデータは、ピクチャのスライスに関連するパラメータ(AVC/H.264符号化方式のVCL NALユニットのヘッダ、及びスライス・ヘッダとして符号化されたパラメータ)であり、画素ブロックに関連する符号化モード、動き/視差ベクトル、DCT係数等は復号しない。
視点参照依存カウントが視点毎に独立で符号化された符号化ビット列を復号する場合は、例えば図8(a)のシンタックス構造に従って、ピクチャのスライスに関連するパラメータの一つとして当該視点に相当する視点参照依存カウントを復号する。この場合、前述したように、視点参照依存カウントが必ずしもすべてのスライスで符号化されているとは限らないので、後述する復号管理部302では各視点において視点参照依存カウントのデフォルト値を"0"とし、当該視点の視点参照依存カウントが符号化されている場合は符号化ビット列復号部303、306、309で復号し、復号管理部302ではその値に更新する。それぞれ視点毎に復号されたピクチャのスライスに関連するパラメータは復号管理部302に供給される。さらに、符号化ビット列復号部303、306、309は、ここでは復号しない画素ブロックに関連する符号化モード、動き/視差ベクトル、DCT係数等の符号化ビット列を随時バッファ304、307、310に供給する(図11のステップS205)。
更に、ピクチャを複数のスライス単位に分割された符号化ビット列の情報をアクセス・ユニットと呼ばれる単位で扱うために、符号化ビット列復号部303、306、309はステップS204からステップS205までの処理をアクセス・ユニット内の全てのスライスがバッファに供給されるまで繰り返す(図11のステップS203〜S206)。
復号管理部302は符号化ビット列復号部301から供給されるシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータと、符号化ビット列復号部303、306、309から供給される復号されたピクチャのスライスに関連するパラメータとに基づいて、復号に関する管理を行う。本実施の形態では他の視点の復号画像を視差補償予測のための参照画像として参照しない視点である第1の基底視点の復号開始時刻(タイミング)に対して、第1の基底視点でない視点の復号開始時刻(タイミング)を遅延させるので、供給されたパラメータを基に、それぞれの視点が第1の基底視点か否かを判別して管理する。各視点が基底視点かどうかは各視点の視点参照依存カウントが"0"かどうかで判別し、視点参照依存カウントが"0"の場合、基底視点である。また、復号管理部302は符号化ビット列復号部303、306、309から供給される視点参照依存カウントに基づいて、それぞれの視点の復号開始時刻(タイミング)を管理する。更に、復号管理部302は各画像の復号を開始する復号クロックを管理し、それぞれの時刻(タイミング)でそれぞれの視点の復号を開始することが可能か否かを判断し、それぞれの視点の視点参照依存カウントに応じて復号開始時刻(タイミング)を遅延させる(図11のステップS207)。
バッファ304、307、310はそれぞれ視点0、視点1、視点2の符号化ビット列復号部303、306、309から供給されるアクセス・ユニット単位の画素ブロックに関連する符号化モード、動き/視差ベクトル、DCT係数等の符号化ビット列を保持する。また、バッファ304、307、310は復号管理部302に復号開始時刻(タイミング)を制御され、復号を開始する時刻(タイミング)になったら、それぞれ保持している視点0、視点1、視点2の当該符号化ビット列を読み出して視点画像復号部305、308、311に供給し、アクセス・ユニットの復号処理を開始させる(図11のステップS208)。
ここで、復号順序及び復号時刻(タイミング)について図4に示す参照依存関係で符号化された符号化ビット列を図5に示す復号順序で復号する場合の処理手順について説明する。この場合、多視点画像復号装置には、図9の符号化ビット列復号部が303、306、309以外に更に5つの符号化ビット列復号部が並列に設けられており、また、バッファもバッファ304、307、310以外に更に5つ並列に設けられ、視点画像復号部も視点画像復号部305、308、311以外に更に5つ並列に設けられている。
復号管理部302は符号化ビット列の視点毎の1アクセス・ユニット時間周期で"1"ずつ増加するカウンタを"0"にセットする。バッファ304、307、310等の全部で8個のバッファにそれぞれ各視点の符号化ビット列が充分格納され、視点参照依存カウントが"0"である視点のアクセス・ユニット内の全てのスライスの符号化ビット列が揃った後、まず、最初に視点参照依存カウントが"0"である視点0の先頭であるP(0,0)のアクセス・ユニットをバッファ304から読み出して視点画像復号部305で復号する。この時刻(タイミング)では視点参照依存カウントが"0"より大きい視点1〜7は復号せず、遅延させる。そして、復号管理部302は1アクセス・ユニット時間周期でカウンタを1つ増加し"1"とする。
次に、カウンタの値以下の視点参照依存カウントの値を持つ視点0のP(0,4)、及び視点2の先頭であるP(2,0)のアクセス・ユニットをバッファ304、310から読み出して視点画像復号部305、311で同時に並列に復号する。この時刻(タイミング)では視点参照依存カウントの値がカウンタの値である"1"より大きい視点1、及び視点3〜7は復号せず、さらに遅延させる。そして、復号管理部302は1アクセス・ユニット時間周期でカウンタをさらに1つ増加し、"2"とする。
次に、カウンタの値以下の視点参照依存カウントの値を持つ視点0のP(0,2)、視点2のP(2,4)、及び視点1の先頭であるP(1,0)、視点4の先頭であるP(4,0)のアクセス・ユニットをバッファ304、310及び視点4のバッファから読み出して、視点復号部305、311及び視点4の視点復号部で同時に並列に復号する。この時刻(タイミング)では視点参照依存カウントの値がカウンタの値である"2"より大きい視点3、及び視点5〜7は復号せず、さらに遅延させる。そして、復号管理部302は1アクセス・ユニット時間周期でカウンタをさらに1つ増加し、"3"とする。
次に、カウンタの値以下の視点参照依存カウントの値を持つ視点0のP(0,1)、視点1のP(1,4)、視点2のP(2,2)、視点4のP(4,4)及び視点3の先頭であるP(3,0)、視点6の先頭であるP(6,0)のアクセス・ユニットをバッファ304、310及び視点4、視点3、視点6の各バッファから読み出して、視点復号部305、311及び視点4、視点3、視点6の各視点復号部で同時に並列に復号する。この時刻(タイミング)では視点参照依存カウントの値がカウンタの値である"3"より大きい視点5、7は復号せず、さらに遅延させる。そして、復号管理部302は1アクセス・ユニット時間周期でカウンタをさらに1つ増加し、"4"とする。
次に、カウンタの値以下の視点参照依存カウントの値を持つ視点0のP(0,3)、視点1のP(1,2)、視点2のP(2,1)、視点3のP(3,4)、視点4のP(4,2)、視点6のP(6,4)及び視点5の先頭であるP(5,0)、視点7の先頭であるP(7,0)のアクセス・ユニットを、バッファ304、307、310及び視点3、視点4、視点6、視点5、視点7の各バッファから読み出して、視点復号部305、308、311及び視点3、視点4、視点6、視点5、視点7の各視点復号部で同時に並列に復号する。この時刻(タイミング)では全ての視点参照依存カウントの値がカウンタの値である"4"以下なので、すべての視点のアクセス・ユニットが復号できる。以下、同様に全ての8視点の符号化ビット列S(0)〜S(7)を同時に並列で1アクセス・ユニット時間周期で復号する。
このように、視点画像復号部305は復号管理部302により制御され、視点0のバッファ304から1アクセス・ユニット時間周期で供給される視点0の符号化ビット列S(0)を復号し、視点0の視点画像M'(0)を得る(図11のステップS208〜S220)。同様に、視点画像復号部308、311も復号管理部302により制御され、それぞれ1アクセス・ユニット時間周期で視点1の符号化ビット列S(1)、視点2の符号化ビット列S(2)を復号し、視点1の視点画像M(1)、視点2の視点画像M(2)を得るが(図11のステップS208〜S220)、視点2の視点画像復号部311では視点0の視点画像復号部305から供給される参照画像も用いて復号し、視点画像復号部308では視点0の視点画像復号部305及び視点2の視点画像復号部311から供給される参照画像も用いて復号する。視点画像復号部305、308、311は共通の復号方法で復号することができる。
次に、視点画像復号部305、308、311の構成及び動作について図10及び図11を用いて説明する。図10は一つの視点画像復号部の構成を示しており、復号管理部302の制御は図10に示す一つの視点画像復号部のすべてのブロック対して及ぶが、特に説明上重要なものに対してのみ、点線の矢印で示している。復号管理部302の制御により、スイッチ407をオフにして動き/視差補償予測部402の機能を停止し、スイッチ408をオンにした場合、視点0の視点画像復号部305と等価となる。また、復号管理部302の制御により、スイッチ407をオンにし、スイッチ408をオフにすることで、視点1の視点画像符号化部308と等価となり、スイッチ407、及びスイッチ408を共にオンにすることで、視点2の視点画像符号化部311と等価となる。
符号化ビット列復号部401は算術符号化等のエントロピー符号化を用いて符号化された符号化ビット列S(v)(v=0,1,2,・・・)を復号し、画素ブロック単位で、符号化モード、動きベクトルまたは視差ベクトル、符号化残差信号(符号化された予測残差信号)等の情報を得る(図11のステップS211)。
復号された符号化モードにより、復号するブロックがイントラ、動き補償予測、視差補償予測のどの手法をどの参照画像を用いてどのような画素ブロック単位で選択、組み合わせられているかが分かる。動き/視差補償予測部402は動き補償予測及び視差補償予測を行う(図11のステップS212)。動き/視差補償予測部402は当該ブロックで動き補償予測が行われている場合、復号画像バッファ406から供給される復号画像を参照画像として、符号化ビット列復号部401から供給される復号された動きベクトルに応じた動き補償予測を行い、動き補償予測ブロックを得る。更に、当該動き/視差補償予測部402で視差補償予測が行われている場合、別視点の視点画像復号部からスイッチ407を介して供給される復号画像R(v')を参照画像として、符号化ビット列復号部401から供給される復号された視差ベクトルに応じた視差補償予測を行い、視差補償予測ブロックを得る。
予測信号合成部403は符号化モードに応じて合成が必要ならば、動き/視差補償予測部402から供給される動き補償予測ブロック、あるいは視差補償予測ブロックを合成し、合成が必要でなければ、そのままの信号とし、当該ブロックの予測信号を生成する(図11のステップS213)。
一方、残差信号復号部404は符号化ビット列復号部401から供給された符号化残差信号に対して、逆量子化、逆直交変換等の残差信号復号処理を行い、復号残差信号を生成する(図11のステップS214)。残差信号重畳部405は予測信号合成部403から供給される予測信号に、残差信号復号部404から供給される復号残差信号を重畳して復号画像信号を算出し(図11のステップS215)、復号画像バッファ406に画素ブロック単位で順次格納する(図11のステップS216)。
以上、ステップS211からステップS216までの処理を画素ブロック単位でピクチャのスライス内のすべての画素ブロックの復号が完了するまで繰り返す(図11のステップS210〜S217)。更に、ステップS210からステップS217までの処理をアクセス・ユニット内のすべてのスライスの復号が完了するまで繰り返す(図11のステップS209〜S218)。
更に、復号画像バッファ406は復号管理部302により制御される時刻(タイミング)で、格納された復号画像信号M(v')を所定の視点の復号画像信号として表示時間順で表示装置等に出力する(図11のステップS219)。また、この復号画像バッファ406に格納された復号画像信号は、必要に応じてオンとされるスイッチ408を介して他の視点の参照画像R(v')として出力される。そして、ステップS203からステップS219までの処理を各視点の符号化対象画像毎に繰り返す(図11のステップS202〜S220)。ここで、ステップS202からステップS220までの処理は視点毎に並列に行う。
また、図9には図示していないが、本実施の形態の多視点画像復号装置に供給される符号化ビット列が多重化されている場合、AVC/H.264符号化方式のNALユニット単位で分離し、NALユニットのヘッダ部分を復号してNALユニットの種類を判別し、
分離する。NALユニットがシーケンス全体に関連するパラメータ(AVC/H.264符号化方式のSPS)、ピクチャに関連するパラメータ(AVC/H.264符号化方式のPPS)、補足付加情報(AVC/H.264符号化方式のSEI)の場合は、符号化ビット列復号部301に供給し、ピクチャのスライス情報(AVC/H.264符号化方式のVCL NALユニット)の場合は、視点IDに応じて、符号化ビット列S(0)、S(1)、S(2)として、それぞれの視点に割り当てる。
なお、以上の説明においては、各視点を並列処理によりリアルタイムで復号する際に、それぞれの1つ視点を1つのプロセス(視点画像復号部)で復号する場合について述べたが、本発明はこれに限定されることはなく、視点とプロセスの数が一致してなくても本発明を適用できる。例えば、図5に示す8視点の多視点画像を4つのプロセスで復号する場合、2つの視点を1つのプロセスで復号し、アクセス・ユニットの復号周期を2倍速とする。視点0と視点1を1つのプロセスで復号し、視点0のP(0,2)とP(1,0)のアクセス・ユニットを復号する際にはどちらか一方のアクセス・ユニットを復号した後に、もう一方のアクセス・ユニットを復号する。
以上のように、図1に示した第1の実施の形態の多視点画像符号化装置において、それぞれの視点に対応する視点参照依存カウントを符号化することにより、復号側で各視点の符号化ビット列を並列処理によりリアルタイムで復号する際に、第1の基底視点の復号開始時刻(タイミング)に対する各視点の復号開始時刻(タイミング)の遅延時間を容易に知ることができ、視点参照依存カウントに応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列(符号化データ)の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償される。
一方、図9に示した第1の実施の形態の多視点画像復号装置において、それぞれの視点に対応する視点参照依存カウントが符号化されている符号化ビット列を復号することにより、各視点の符号化ビット列を並列処理によりリアルタイムで復号する際に、第1の基底視点の復号開始時刻(タイミング)に対する各視点の復号開始時刻(タイミング)の遅延時間を容易に知ることができ、視点参照依存カウントに応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償されるので、効率的に符号化データの復号を並列処理によりリアルタイムでできる。
(第2の実施の形態)
次に、本発明の第2の実施の形態の多視点画像符号化装置、及び方法について説明する。図12は本発明になる多視点画像符号化装置の第2の実施の形態のブロック図を示す。同図中、図1と同一構成要素には同一符号を付してある。図12に示す第2の実施の形態は、図1に示した第1の実施の形態と比較して、符号化管理部501と符号化ビット列生成部502の処理動作が異なる。
次に、図12に示す第2の実施の形態の多視点画像符号化装置の動作について説明する。まず、図12において、符号化管理部501は外部から設定された符号化パラメータをもとに、シーケンス全体に関連する情報、ピクチャに関連する情報、ピクチャのスライスに関連する情報等を含む符号化に関する管理を行うとともに、参照依存関係、符号化順序を管理する。符号化管理部501の符号化管理の処理動作は、図1の符号化管理部101と同様であるが、第2の実施の形態の多視点画像符号化装置では視点参照依存カウントを符号化しないので、シーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等を符号化ビット列生成部502に供給する際に、視点参照依存カウントは供給しない。
ただし、後述する第2の実施の形態の多視点画像復号装置では、視点参照依存カウントを算出して、復号タイミングを管理するので、第2の実施の形態の多視点画像符号化装置では、視点参照依存カウントが計算できるように、符号化管理部501で参照依存関係を管理し、符号化ビット列生成部502で符号化する。
例えば、AVC/H.264符号化方式を多視点画像に拡張した多視点画像符号化(MVC:Multiview Video Coding。以下、MVC方式と呼ぶ。)の標準化作業が進んでおり、ここでは、シーケンス全体に関連する情報として視点数、及び各視点の参照依存情報を符号化する手法が提案されている(JD1.0:Joint Draft 1.0 on Multiview Video Coding, Joint Video Team of ISO/IEC MPEG & ITU-T VCEG,JVT-U209, November 2006)。この手法では、視点数や各視点の参照依存情報はシーケンス情報のパラメータセットであるSPS(シーケンス・パラメータ・セット)を拡張することにより符号化される。SPSのMVC拡張部分ののシンタックス構造を図19を用いて説明する。図19に示すシンタックス構造はJD1.0で定義されているもので、「seq_parameter_set_mvc_extension」はSPSに含まれるMVCのための拡張である。
図19において、「num_views_minus1」は符号化する多視点画像の視点数を符号化するためのパラメータであり、視点数から1を引いた値である。「num_anchor_refs_l0[i]」は視点IDがiである視点のアンカーピクチャのための参照画像リスト0の参照画像の数である。ここで、アンカーピクチャは復号時に異なる表示時刻の画像を参照画像として参照せずに復号することのできる画像である。アンカーピクチャの復号時に参照画像として用いることができるのは同時刻の他の視点のアンカーピクチャだけである。したがって、アンカーピクチャは動き補償予測を用いることはできない。例えば、図4に示す参照依存関係で符号化する場合は、P(0,0),P(1,0),P(2,0),P(0,4),P(1,4),P(2,4)などがアンカーピクチャである。また、参照画像リストはPスライスやBスライスのインター予測(動き補償予測、視差補償予測)において、複数の参照画像の候補から実際にどの参照画像を参照しているかを指定するために使われる参照画像のリストである。参照画像リストは参照画像リスト0と参照画像リスト1の2つあるが、Pスライスは参照画像リスト0のみを用いてインター予測を行うことが可能であり、Bスライスは参照画像リスト0、参照画像リスト1の両方を用いてインター予測を行うことが可能となる。
また、図19の「anchor_ref_l0[i][j]」は視点IDがiである視点のアンカーピクチャのための参照画像リスト0中のj番目の参照画像として用いられる視点の視点IDの値を示す。「num_anchor_refs_l1[i]」は視点IDがiである視点のアンカーピクチャのための参照画像リスト1の参照画像の数である。「anchor_ref_l1[i][j]」は視点IDがiである視点のアンカーピクチャのための参照画像リスト1中のj番目の参照画像として用いられる視点の視点IDの値を示す。「num_non_anchor_refs_l0[i]」は視点IDがiである視点の非アンカーピクチャのための参照画像リスト0の参照画像の数である。ここで、非アンカーピクチャはアンカーピクチャを除く画像である。非アンカーピクチャの復号時に異なる表示時刻の画像を参照画像として参照することもできる。したがって、動き補償予測を用いることも可能である。例えば、図4では、P(0,1),P(1,1),P(2,1),P(0,2),P(1,2),P(2,2)などが非アンカーピクチャである。
また、図19の「non_anchor_ref_l0[i][j]」は視点IDがiである視点の非アンカーピクチャのための参照画像リスト0中のj番目の参照画像として用いられる視点の視点IDの値を示す。また、「num_non_anchor_refs_l1[i]」は視点IDがiである視点の非アンカーピクチャのための参照画像リスト1の参照画像の数である。更に、「non_anchor_ref_l1[i][j]」は視点IDがiである視点の非アンカーピクチャのための参照画像リスト1中のj番目の参照画像として用いられる視点の視点IDの値を示す。また、各シンタックス要素は指数ゴロム符号化(expothetical Golomb coding)と呼ばれる手法で符号無しで符号化される。ここで用いる指数ゴロム符号化はユニバーサル符号化の一種で、変換テーブルを用いずに可変長符号化する方式である。
また、図19に示すシンタックス構造に従って、8視点の多視点画像を図4に示す参照依存関係で符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例を図20に示す。まず、図20において、num_views_minus1は7が符号無し指数ゴロム符号で符号化される。これは符号化されている多視点画像の視点数が8視点であることを示す。続いて、参照依存情報のシンタックス要素が符号化される。まず、num_anchor_refs_l0[0]の値が0となっており、これは視点0のアンカーピクチャのための参照画像リスト0の参照画像の数が0であることを示す。続くnum_anchor_refs_l1[0]の値も0となっており、これは視点0のアンカーピクチャのための参照画像リスト1の参照画像の数が0であることを示す。続くnum_anchor_refs_l0[1]の値が2となっており、これは視点1のアンカーピクチャのための参照画像リスト0の参照画像の数が2であることを示す。この場合、続いてanchor_ref_l0[1][0]、anchor_ref_l0[1][1]が符号化され、その値はそれぞれ0、2となっており、これは視点1のアンカーピクチャのための参照画像リスト0の参照画像として、視点0と視点2が用いられることを示す。続くアンカーピクチャの他の各視点の参照画像リスト0、リスト1、及び非アンカーピクチャの各視点の参照画像リスト0、リスト1に関する参照依存情報のシンタックス要素も同様に符号化される。
このように、本実施の形態2では、符号化側でシーケンス全体として前記パラメータ、即ち、視点数、及び各視点の参照依存情報を符号化パラメータの一つとして符号化して復号側に転送ないしは送信し、復号側では符号化側から視点数、及び各視点の参照依存情報を含む符号化パラメータを受信して復号することによりシーケンス全体として、各視点の参照依存関係を判別することができる。また、後述する第2の実施の形態の多視点画像復号装置では前記パラメータを用いて視点参照依存カウントを算出する。
再び、図12に戻って説明する。図12において、符号化ビット列生成部502は符号化管理部501から供給されるシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等のそれぞれのパラメータを(AVC/H.264符号化方式のSPS、PPS、SEI情報として)符号化ビット列に符号化する。特に、参照依存関係を示すパラメータから復号側で視点参照依存カウントが計算できるように、例えば図19に示すシンタックス構造で参照依存関係を示すパラメータを符号化する。
この符号化ビット列生成部502の符号化処理(符号化ビット列生成処理)の処理動作は、図1の符号化管理部101と略同様であるが、第2の実施の形態の多視点画像符号化装置では視点参照依存カウントを符号化しないので、視点参照依存カウントは供給されず、視点参照依存カウントを符号化しない点が符号化管理部101の処理動作と異なる。なお、図12に示す視点画像符号化部103、104、105の動作は図1と同様である。
次に、本発明になる多視点画像復号装置、方法、及びプログラムの第2の実施の形態について図面を参照して説明する。この第2の実施の形態の多視点画像復号装置は図12に示した第2の実施の形態の多視点画像符号化装置に対応した復号装置で、図12に示した多視点画像符号化装置により符号化された符号化ビット列を視点毎に並列処理によりリアルタイムで復号する装置である。
図13は本発明になる多視点画像復号装置の第2の実施の形態のブロック図を示す。同図中、図9と同一構成要素には同一符号を付してある。図13に示す第2の実施の形態の多視点画像復号装置は、図9に示した第1の実施の形態の多視点画像復号装置と比較して、視点参照依存カウント算出部612が追加されている点と符号化ビット列復号部601、復号管理部602の処理動作が異なる。更に、図14は図13の多視点画像復号装置、及び多視点画像復号方法、多視点画像復号プログラムの処理手順を説明するフローチャートである。図14に示した処理手順は、図11に示した第1の実施の形態の多視点画像復号装置、及び多視点画像復号方法、多視点画像復号プログラムの処理手順と比較して、ステップS302が追加されている点と、ステップS301の処理動作が異なる。
次に、図13に示す第2の実施の形態の多視点画像復号装置の動作について、図14のフローチャートを併せ参照して説明する。まず、図13において、符号化ビット列復号部601は図12に示した多視点画像符号化装置により符号化された符号化ビット列を復号する(図14のステップS301)。符号化ビット列復号部601の符号化ビット列復号処理動作は、図9の符号化ビット列復号部301と略同様であるが、符号化ビット列復号部601に供給される符号化ビット列には視点依存カウントは符号化されておらず、従って、視点依存カウントを復号しない点が符号化ビット列復号部301と異なる。
符号化ビット列復号部601に供給される符号化ビット列に視点数と参照依存関係を示す情報が図19に示すシンタックス構造で符号化されている場合、視点数の情報は「num_views_minus1」として取得し、参照依存関係を示す情報は「num_anchor_refs_l0[i]」、「anchor_ref_l1[i][j]」、「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」、「num_non_anchor_refs_l0[i]」、「anchor_non_ref_l1[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」として取得する。ただし、「num_views_minus1」は視点数から1を減じた値となっている。復号されたシーケンス全体に関連するパラメータ、ピクチャに関連するパラメータ、補足付加情報等は、復号管理部602に供給されるとともに、復号された視点数と参照依存関係を示す情報が視点参照依存カウント算出部612に供給される。
視点参照依存カウント算出部612は、符号化ビット列復号部601より供給される視点数と参照依存関係を示す情報とから、他の視点の復号画像を視差補償予測のための参照画像として参照しない基底視点を判別し、各視点の視点参照依存カウントを算出する(図14のステップS302)。ここで、ステップS302の各視点の視点参照依存カウントの算出処理手順の一例について図15〜図18のフローチャートと共に説明する。また、具体例として、参照依存関係が図19に示すシンタックス構造で符号化され、それらの値が図20である場合について、説明する。
ここで、視点参照依存カウントを「view_dependency_count[i]」と定義する。この視点参照依存カウント「view_dependency_count[i]」のインデックスiは視点IDを示し、0から(多視点画像の視点数−1)までの値をとる。また、ある視点が視差補償予測等で参照する他の視点を視差補償用参照視点、視差補償用参照視点の視点IDを視差補償用参照視点IDとする。さらに、視差補償用参照視点の数を「num_ref_views[i]」と定義する。また、この視差補償用参照視点の数「num_ref_views[i]」のインデックスiは視点IDを示し、0から(多視点画像の視点数−1)までの値をとる。更に、視差補償用参照IDを「ref_view_id[i][k]」と定義する。この視差補償用参照ID「ref_view_id[i][k]」のインデックスiは視点IDを示し、0から(多視点画像の視点数−1)までの値をとる。また、「ref_view_id[i][k]」のインデックスkはそれぞれの視点における複数の視差補償用参照視点を示すためのインデックスであり、それぞれの視点について0から(num_ref_views[i]−1)までの値をとる。
図14のステップS302の各視点の視点参照依存カウントの算出処理において、まず、それぞれの視点について、視差補償用参照視点の数と各視差補償用参照視点IDの値を重複することなくすべて算出する(図15のステップS401)。例えば、図19に示す参照依存関係がシンタックス構造で符号化される場合、それぞれの視点が動き補償予測、視差補償予測で参照する視点の視点IDは「anchor_ref_l0[i][j]」、「anchor_ref_l1[i][j]」、「non_anchor_ref_l0[i][j]」、「non_anchor_ref_l1[i][j]」に明記されており、これらのパラメータからそれぞれの視点について、重複することなくすべての視差補償用参照視点IDを抽出する。
これらのパラメータの値が図20である場合において、それぞれの視点の各視差補償用参照視点IDの値と視差補償用参照視点の数を図21に示す。図20において、視点0はアンカーピクチャについてはnum_anchor_refs_l0[0]、num_anchor_refs_l1[0]の値が共に0であり、どの視点も参照しない。非アンカーピクチャについては non_anchor_ref_l0[0][0]、non_anchor_ref_l0[0][1]、non_anchor_ref_l1[0][0]、non_anchor_ref_l1[0][1]が”0”となっている。すなわち同じ視点である視点0を動き補償予測により参照し、他の視点の復号画像を視差補償予測のための参照画像として参照しない基底視点(第2の基底視点)である。従って、視点0の視差補償用参照視点の数は”0”となる。つまり、本実施の形態では、符号化ビット列復号部601は入力される符号化ビット列には視点依存カウントが含まれていないので、視点依存カウントを復号しないが、符号化ビット列復号部601で復号された符号化ビット列中の視点数と参照依存関係を示す情報とに基づいて、視点参照依存カウント算出部612によって視点参照依存カウントを算出し、符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点0(第2の基底視点)を判別する。
視点1はanchor_ref_l0[1][0]、anchor_ref_l1[1][1]、non_anchor_ref_l0[1][1]が”
0”、anchor_ref_l0[1][1]、anchor_ref_l1[1][0]、non_anchor_ref_l1[1][1]が”2”
、non_anchor_ref_l0[1][0]、non_anchor_ref_l1[1][0]が”1”であるので、他の視点である視点0、及び視点2を視差補償予測により参照し、同じ視点である視点1を動き補償予測により参照して符号化されていることがわかる。したがって、これらのパラメータから重複することなくすべての視差補償用参照視点IDを抽出すると、視差補償用参照視点の数は”2”、各視差補償用参照視点IDの値は”0”と”2”となる(num_ref_views[1]は”2”、ref_view_id[1][0]は”0”、ref_view_id[1][1]は”2”となる)。
次に、すべての視点の中で、他の視点を参照しないそれぞれの視点、すなわち基底視点の視点参照依存カウントの値を"0"に設定する(図15のステップS402)。例えば、図21では、視差補償用参照視点の数が"0"であるのは視点0だけであるので、視点0の視点参照依存カウントの値のみを"0"に設定する(view_dependency_count[0]のみが"0"となる)。次に、他の視点を参照するそれぞれの視点、すなわち規定視点でない視点の視点参照依存カウントの値を算出する(図15のステップS403)。
このステップS403の算出処理手順の一例について図16のフローチャートと共に説明する。まず、それぞれの視点IDの値を示すインデックスiを初期値として"0"に設定する(図16のステップS501)。次に、当該視点の視点依存カウントview_dependency_count[i]が既に算出しているかどうか判定し(図16のステップS502)、まだ算出されていない場合、ステップS503に進み、当該視点の視点参照依存カウントview_dependency_count[i]が既に算出されている場合、ステップS503からS505までの処理をスキップして、ステップS506に進む。当該視点の視点参照依存カウントview_dependency_count[i]がまだ算出されていない場合、当該視点のすべての視差補償用参照視点の視点参照依存カウントが既に算出されているかどうかを判定する(図16のステップS503)。
このステップS503の判定処理手順の一例について図17のフローチャートと共に説明する。まず、インデックスkの初期値として"0"に設定する(図17のステップS601)。次に、当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]が既に算出されているかどうかを判断する(図17のステップS602)。
ステップS602において当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]が既に算出されていると判断した場合、インデックスkに1を加算する(図17のステップS603)。次に、インデックスkと当該視点の視差補償用参照視点の数num_ref_views[i]とを比較する(図16のステップS604)。インデックスkの値が当該視点の視差補償用参照視点の数num_ref_views[i]の値より小さい場合、再びステップS602に進む。それ以外の場合、当該視点のすべての視差補償用参照視点の視点参照依存カウントが既に算出されていると判定し(図16のステップS605)、ステップS503の処理(図17の処理)を終了する。
一方、ステップS602において当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]がまだ算出されていないと判断した場合、当該視点のすべての視差補償用参照視点の視点参照依存カウントがまだ算出されていないと判定し(図17のステップS606)、ステップS503の処理(図17の処理)を終了する。
再び、図16のフローチャートに戻って説明する。図17と共に説明したステップS503の判定結果に応じて、当該視点の視点参照依存カウントを算出することができるか否かを判断する(図16のステップS504)。ステップS503で当該視点のすべての視差補償用参照視点の視点参照依存カウントがまだ算出されていないと判定した場合、ステップS505をスキップして、ステップS506に進む。ステップS503で当該視点のすべての視差補償用参照視点の視点参照依存カウントが既に算出されていると判定した場合、当該視点の視点参照依存カウントを算出する(図16のステップS505)。
このステップS505の算出処理手順の一例について図18のフローチャートと共に説明する。まず、当該視点の視点参照依存カウントview_dependency_count[i]の値を仮に"1"に設定する(図18のステップS701)。次にインデックスkの初期値として"0"に設定する(図18のステップS702)。次に、当該視点の視点参照依存カウントview_dependency_count[i]の値と当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]の値とを比較する(図18のステップS703)。当該視点の視点参照依存カウントview_dependency_count[i]の値が当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]の値より大きい場合、ステップS704をスキップして、ステップS705に進む。
当該視点の視点参照依存カウントview_dependency_count[i]の値が当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]の値以下場合、当該視点の視点参照依存カウントview_dependency_count[i]に当該視点の視差補償用参照視点の参照依存カウントview_dependency_count[ref_view_id[i][k]]の値に"1"を加えた値を代入して(図18のステップS704)、ステップS705に進む。
ステップS705では、インデックスkに"1"を加算する。続いて、インデックスkと当該視点の視差補償用参照視点の数num_ref_views[i]とを比較する(図18のステップS706)。インデックスkの値が当該視点の視差補償用参照視点の数num_ref_views[i]の値より小さい場合、再びステップS703に進む。それ以外の場合、ステップS505の処理(図18の処理)を終了する。ステップS505の処理が終了した時点での当該視点の視点参照依存カウントview_dependency_count[i]の値が算出結果となる。
再び、図16のフローチャートに戻って説明する。図18と共に説明したステップS505の処理が終了すると、続いてインデックスiに"1"を加算する(図16のステップS506)。続いて、インデックスiと視点数の情報num_views_minus1[i]とを比較する(図16のステップS507)。インデックスiの値が視点数の情報num_views_minus1[i]の値以下の場合、再びステップS502に進む。それ以外の場合、すべての視点の視点参照依存カウントの値が算出されているかどうかを判定する(図16のステップS508)。ステップS508の判定結果に応じて、再びステップS501からS508までの処理を行うかどうかを判断する(図16のステップS509)。ステップS509ですべての視点の視点参照依存カウントの値を算出していないと判断した場合、再びステップS501に進み最初から処理を行う。ステップS509ですべての視点の視点参照依存カウントの値を算出したと判断した場合、図15のステップS403の処理(図16の処理)が終了し、図14のステップS302及び図15の視点参照依存カウント算出処理が終了する。
再び、図13に戻って説明する。視点参照依存カウント算出部612で、図14のステップS302及び図15〜図18のフローチャートと共に説明した方法で判別された各視点が基底視点であるかどうかの基底視点情報、及び算出された各視点の視点参照依存カウントは復号管理部602に供給される。以後、図13の復号管理部602、バッファ304、307、310、視点画像復号部305、308、311は、図14のステップS202〜S220で示す復号動作を行う。この図14のステップS202〜S220で示す復号動作は、図11のステップ202〜S220で示した図9の復号管理部302、バッファ304、307、310、視点画像復号部305、308、311の復号動作と同様であり、各視点毎に並列で処理される点についても同様である。また、図13に示す復号管理部602の管理動作は図9の復号管理部302と略同様であるが、判別された基底視点情報、及び視点参照依存カウントが視点参照依存カウント算出部612から供給される点が復号管理部302と異なる。ただし、復号管理部602では参照依存カウント算出部612で判別された基底視点情報が供給されなくても、参照依存カウント算出部612から供給される各視点の視点参照依存カウントが"0"か否かで各視点が基底視点かどうかを判別することもできる。
以上のように、図12に示した第2の実施の形態の多視点画像符号化装置において、視点数と参照依存関係を示す情報とを符号化することにより、復号側で各視点の符号化ビット列を並列処理によりリアルタイムで復号する際に、視点数と参照依存関係を示す情報とからそれぞれの視点に対応する視点参照依存カウントを算出することにより、第2の基底視点の復号開始時刻(タイミング)に対する各視点の復号開始時刻(タイミング)の遅延時間を容易に知ることができ、視点参照依存カウントに応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列(符号化データ)の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償される。
一方、図13に示した第2の実施の形態の多視点画像復号装置において、多視点画像の視点数と参照依存関係を示す情報が符号化されている符号化ビット列を復号し、それらの情報からそれぞれの視点に対応する視点参照依存カウントを算出することにより、各視点の符号化ビット列を並列処理によりリアルタイムで復号する際に、第2の基底視点の復号開始時刻(タイミング)に対する各視点の復号開始時刻(タイミング)の遅延時間を容易に知ることができ、視点参照依存カウントに応じて各視点の復号開始時刻(タイミング)を遅延させて符号化ビット列の復号を開始することで、視点間の同期が取れ、視差補償予測を用いる画像の復号時に参照画像となる他の視点の画像の復号処理が完了していることが補償されるので、効率的に符号化データの復号を並列処理によりリアルタイムでできる。
なお、以上の説明においては、符号化、復号に用いる多視点画像は異なる視点から実際に撮影された多視点画像を符号化、復号することもできるが、実際には撮影していない仮想的な視点の位置を周辺の視点から補間する等、変換または生成された視点画像を符号化、復号することもでき、本発明に含まれる。
例えば、A,B,C,Dの4つの視点の画像信号を備えた多視点画像信号は、(1)4つの視点の画像信号がすべて各視点で実際に撮影して得られた画像信号である場合、(2)4つの視点の画像信号がすべて各視点で仮想的に撮影したものとして生成した画像信号である場合、(3)A,B視点の画像信号が各視点で実際に撮影して得られた画像信号、C,D視点の画像信号が各視点で仮想的に撮影したものとして生成した画像信号といったように、実際に撮影して得られた画像信号と仮想的に撮影したものとして生成した画像信号とが混在している場合の3つの場合が想定される。
また、コンピュータグラフィックス等の多視点画像を符号化、復号することもでき、本発明に含まれる。
更に、以上の多視点画像符号化、および復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。
本発明の多視点画像符号化装置の第1の実施の形態のブロック図である。 図1中の多視点画像符号化装置を構成する視点画像符号化部の一例のブロック図である。 図1の装置の多視点画像符号化処理説明用フローチャートである。 8視点からなる多視点画像を符号化する際の画像間の参照依存関係の一例を示す図である。 図4に示す参照依存関係で符号化された符号化ビット列を復号側で各視点を並列処理によりリアルタイムで復号する際の復号順序の一例を示す図である。 図4に示す予測関係で符号化する場合のそれぞれの視点に対応する視点参照依存カウントの一例を示す図である。 それぞれの視点の視点参照依存カウントを纏めてシーケンス全体に関連するパラメータとして符号化する場合の一例を説明する図であり、(a)は符号化シンタックス構造の一例を示す図、(b)は(a)のシンタックス構造に従って8視点の視点参照依存カウントを符号化する場合の一例を示す図である。 視点参照依存カウントを視点ごとに独立でそれぞれ符号化する場合の一例を説明する図であり、(a)は符号化シンタックス構造の一例を示す図、(b)は(a)のシンタックス構造に従って8つの視点の一つである視点1の視点参照依存カウントを符号化する場合の一例を示す図である。 本発明の多視点画像復号装置の第1の実施の形態のブロック図である。 図9の多視点画像復号装置を構成する視点画像復号部の一例のブロック図である。 図9の装置の多視点画像復号処理説明用フローチャートである。 本発明の多視点画像符号化装置の第2の実施の形態のブロック図である。 本発明の多視点画像復号装置の第2の実施の形態のブロック図である。 図13の装置の多視点画像復号処理説明用フローチャートである。 図14中のステップ302の視点参照依存カウントの算出処理説明用フローチャートである。 図15中のステップS403の処理手順の一例を説明する図である。 図16中のステップS503の処理手順の一例を説明する図である。 図16中のステップS505の処理手順の一例を説明する図である。 シーケンスの先頭で参照依存関係を符号化する際の参照依存関係のシンタックス構造の一例を示す図である。 図4に示す予測構造の参照依存関係に関する情報を図19に示すシンタックス構造で符号化する際の各シンタックス要素とその値の一例である。 図20における、それぞれの視点の視差補償用参照視点IDの数の値である。
符号の説明
101、501 符号化管理部
102、502 符号化ビット列生成部
103、104、105 視点画像符号化部
201 画像バッファ
202、402 動き/視差補償予測部
203 符号化モード判定部
204 残差信号算出部
205 残差信号符号化部
206、404 残差信号復号部
207、405 残差信号重畳部
208、406 復号画像バッファ
209 符号化ビット列生成部
210、211、407、408 スイッチ
301、303、306、309、601 符号化ビット列復号部
302、602 復号管理部
304、307、310 バッファ
305、308、311 視点画像復号部
401 符号化ビット列復号部
403 予測信号合成部
612 視点参照依存カウント算出部

Claims (9)

  1. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化装置であって、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点として指定又は計算する第1の手段と、
    前記第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を指定又は計算する第2の手段と、
    前記遅延時間を示す情報を符号化する符号化手段と、
    を有することを特徴とする多視点画像符号化装置。
  2. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化方法であって、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点として指定又は計算する第1のステップと、
    前記第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を指定又は計算する第2のステップと、
    前記遅延時間を示す情報を符号化する第3のステップと、
    を含むことを特徴とする多視点画像符号化方法。
  3. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを、コンピュータにより生成させる多視点画像符号化プログラムであって、
    前記コンピュータに、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点として指定又は計算する第1のステップと、
    前記第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報を指定又は計算する第2のステップと、
    前記遅延時間を示す情報を符号化する第3のステップと、
    を実行させることを特徴とする多視点画像符号化プログラム。
  4. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号装置であって、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データを復号して前記第1の基底視点を判別する判別手段と、
    前記第2の符号化データを復号して、前記第1の基底視点の復号開始時刻に対する該第1の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を得る遅延時間復号手段と、
    前記遅延時間復号手段により復号されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第1の基底視点の画像信号を復号すると共に、前記第1の符号化データ中の前記第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を前記第1の基底視点の復号開始時刻に対して遅延して復号する遅延・復号手段と、
    を有することを特徴とする多視点画像復号装置。
  5. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号方法であって、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データを復号して前記第1の基底視点を判別する第1のステップと、
    前記第2の符号化データを復号して、前記第1の基底視点の復号開始時刻に対する該第1の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を得る第2のステップと、
    前記第2のステップにより復号されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第1の基底視点の画像信号を復号すると共に、前記第1の符号化データ中の前記第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を前記第1の基底視点の復号開始時刻に対して遅延して復号する第3のステップと、
    を含むことを特徴とする多視点画像復号方法。
  6. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを、コンピュータにより復号させる多視点画像復号プログラムであって、
    前記コンピュータに、
    前記各視点の画像信号の符号化時に他の視点の画像信号を参照しない視点を第1の基底視点と定義したとき、その第1の基底視点の画像信号の符号化開始時刻に対する該第1の基底視点以外の視点の画像信号の復号開始時刻の遅延時間を示す情報が符号化されてなる第2の符号化データを復号して前記第1の基底視点を判別する第1のステップと、
    前記第2の符号化データを復号して、前記第1の基底視点の復号開始時刻に対する該第1の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を得る第2のステップと、
    前記第2のステップにより復号されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第1の基底視点の画像信号を復号すると共に、前記第1の符号化データ中の前記第1の基底視点以外の視点の符号化されている画像信号の復号開始時刻を前記第1の基底視点の復号開始時刻に対して遅延して復号する第3のステップと、
    を実行させることを特徴とする多視点画像復号プログラム。
  7. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号装置であって、
    前記一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して、前記参照依存情報を得る復号手段と、
    前記各視点の内で、該符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、前記参照依存情報から、前記第2の基底視点を判別する判別手段と、
    前記参照依存情報から、前記第2の基底視点の復号開始時刻に対する該第2の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を算出する遅延時間算出手段と、
    前記遅延時間算出手段により算出されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第2の基底視点の符号化画像信号を復号すると共に、前記第1の符号化データ中の前記第2の基底視点以外の視点の符号化画像信号の復号開始時刻を前記第2の基底視点の復号開始時刻に対して遅延して復号する遅延・復号手段と、
    を有することを特徴とする多視点画像復号装置。
  8. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを復号する多視点画像復号方法であって、
    前記一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して、前記参照依存情報を得る第1のステップと、
    前記各視点の内で、該符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、前記参照依存情報から、前記第2の基底視点を判別する第2のステップと、
    前記参照依存情報から、前記第2の基底視点の復号開始時刻に対する該第2の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を算出する第3のステップと、
    前記第3のステップにより算出されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第2の基底視点の符号化画像信号を復号すると共に、前記第1の符号化データ中の前記第2の基底視点以外の視点の符号化画像信号の復号開始時刻を前記第2の基底視点の復号開始時刻に対して遅延して復号する第4のステップと、
    を含むことを特徴とする多視点画像復号方法。
  9. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号が符号化されてなる第1の符号化データを、コンピュータにより復号させる多視点画像復号プログラムであって、
    前記コンピュータに、
    前記一の視点の符号化画像信号を復号する際に、どの視点の符号化画像信号を参照して復号するかを示す参照依存情報が符号化されてなる第2の符号化データを復号して、前記参照依存情報を得る第1のステップと、
    前記各視点の内で、該符号化画像信号を復号する際に他の視点の符号化画像信号を参照しない視点を第2の基底視点と定義したとき、前記参照依存情報から、前記第2の基底視点を判別する第2のステップと、
    前記参照依存情報から、前記第2の基底視点の復号開始時刻に対する該第2の基底視点以外の視点の復号開始時刻の前記遅延時間を示す情報を算出する第3のステップと、
    前記第3のステップにより算出されたそれぞれの視点の前記遅延時間を示す情報に基づいて、入力された前記第1の符号化データ中の前記第2の基底視点の符号化画像信号を復号すると共に、前記第1の符号化データ中の前記第2の基底視点以外の視点の符号化画像信号の復号開始時刻を前記第2の基底視点の復号開始時刻に対して遅延して復号する第4のステップと、
    を実行させることを特徴とする多視点画像復号プログラム。
JP2007261773A 2006-10-13 2007-10-05 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム Active JP4793366B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007261773A JP4793366B2 (ja) 2006-10-13 2007-10-05 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
US11/907,188 US8139150B2 (en) 2006-10-13 2007-10-10 Method and apparatus for encoding and decoding multi-view video signal, and related computer programs

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2006279364 2006-10-13
JP2006279364 2006-10-13
JP2006354878 2006-12-28
JP2006354878 2006-12-28
JP2007261773A JP4793366B2 (ja) 2006-10-13 2007-10-05 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム

Publications (2)

Publication Number Publication Date
JP2008182669A true JP2008182669A (ja) 2008-08-07
JP4793366B2 JP4793366B2 (ja) 2011-10-12

Family

ID=39303097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007261773A Active JP4793366B2 (ja) 2006-10-13 2007-10-05 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム

Country Status (2)

Country Link
US (1) US8139150B2 (ja)
JP (1) JP4793366B2 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009532931A (ja) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
JP2010507277A (ja) * 2006-10-13 2010-03-04 トムソン ライセンシング 多視点ビデオ符号化を含む参照ピクチャの管理方法
WO2010032419A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法およびプログラム
JP2010514353A (ja) * 2006-12-21 2010-04-30 トムソン ライセンシング 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
WO2010067810A1 (ja) 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法
WO2010116956A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 記録装置、記録方法、再生装置、再生方法、プログラム、および記録媒体
WO2011001864A1 (ja) 2009-07-01 2011-01-06 ソニー株式会社 画像処理装置、及び、画像処理方法
CN102045578A (zh) * 2009-10-16 2011-05-04 索尼公司 图像处理设备和图像处理方法
WO2011074153A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 画像復号装置及び画像復号方法
WO2011129242A1 (ja) 2010-04-14 2011-10-20 ソニー株式会社 データ構造、画像処理装置、画像処理方法、およびプログラム
WO2011142239A1 (ja) 2010-05-13 2011-11-17 ソニー株式会社 画像処理装置および画像処理方法
WO2012029883A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 符号化装置および符号化方法、並びに復号装置および復号方法
WO2012029885A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 画像処理装置および方法
WO2012029886A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 符号化装置および符号化方法、並びに復号装置および復号方法
JP2012124923A (ja) * 2009-04-08 2012-06-28 Sony Corp 再生装置、再生方法、および記録方法
WO2012111757A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
WO2012111755A1 (ja) 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
WO2012111756A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
US8532182B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
EP2672706A1 (en) 2012-06-07 2013-12-11 Canon Kabushiki Kaisha Image encoding apparatus
JP2014526197A (ja) * 2011-07-28 2014-10-02 クゥアルコム・インコーポレイテッド マルチビュービデオコード化
US8948256B2 (en) 2006-10-13 2015-02-03 Thomson Licensing Reference picture list management syntax for multiple view video coding
KR101531240B1 (ko) * 2010-07-27 2015-06-25 한국전자통신연구원 디지털 방송 시스템에서 다시점 프로그램을 송수신하는 방법 및 장치
US9118895B2 (en) 2010-04-16 2015-08-25 Sony Corporation Data structure, image processing apparatus, image processing method, and program
US9219911B2 (en) 2010-04-14 2015-12-22 Sony Corporation Image processing apparatus, image processing method, and program
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9549167B2 (en) 2010-04-20 2017-01-17 Sony Corporation Data structure, image processing apparatus and method, and program
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9667941B2 (en) 2010-09-03 2017-05-30 Sony Corporation Encoding device, encoding method, decoding device, and decoding method

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
KR101385808B1 (ko) * 2006-10-16 2014-04-17 톰슨 라이센싱 비디오 동작 동안 nal 유닛을 이용하여 동시 디코딩 리프레시를 시그널링하는 방법
KR20090085581A (ko) * 2006-10-24 2009-08-07 톰슨 라이센싱 다중-뷰 비디오 코딩을 위한 화상 관리
WO2009005658A2 (en) * 2007-06-28 2009-01-08 Thomson Licensing Single loop decoding of multi-vieuw coded video
KR20100058471A (ko) * 2007-08-15 2010-06-03 톰슨 라이센싱 다시점 코딩된 비디오에서의 오류 은폐를 위한 방법 및 장치
CN101415114B (zh) * 2007-10-17 2010-08-25 华为终端有限公司 视频编解码方法和装置以及视频编解码器
WO2009130561A1 (en) 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
JP5577334B2 (ja) * 2008-07-20 2014-08-20 ドルビー ラボラトリーズ ライセンシング コーポレイション 立体ビデオ配信システムのエンコーダ最適化
CN101897189B (zh) * 2008-10-10 2016-07-06 松下电器产业株式会社 图像解码装置以及图像解码方法
US20100128800A1 (en) * 2008-11-24 2010-05-27 General Instrument Corporation Method and Apparatus for Closed Caption Transcoding
CN101939994B (zh) * 2008-12-08 2013-07-17 松下电器产业株式会社 图像解码装置及图像解码方法
US8823772B2 (en) * 2008-12-18 2014-09-02 Lg Electronics Inc. Digital broadcasting reception method capable of displaying stereoscopic image, and digital broadcasting reception apparatus using the same
CN102427534B (zh) * 2009-01-19 2014-06-18 松下电器产业株式会社 编码方法和编码装置
CA2749065C (en) 2009-01-28 2017-01-17 Lg Electronics Inc. Broadcast receiver and video data processing method thereof
JP4947389B2 (ja) * 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법
US8948241B2 (en) * 2009-08-07 2015-02-03 Qualcomm Incorporated Signaling characteristics of an MVC operation point
US8457155B2 (en) * 2009-09-11 2013-06-04 Nokia Corporation Encoding and decoding a multi-view video signal
JP4927928B2 (ja) * 2009-11-30 2012-05-09 パナソニック株式会社 多視点動画像復号装置及び多視点動画像復号方法
JP4837772B2 (ja) * 2009-12-15 2011-12-14 パナソニック株式会社 多視点動画像復号装置、多視点動画像復号方法、プログラム及び集積回路
US8570361B2 (en) * 2010-01-11 2013-10-29 Mediatek Inc. Decoding method and decoding apparatus for using parallel processing scheme to decode pictures in different bitstreams after required decoded data derived from decoding preceding picture(s) is ready
US20110216827A1 (en) * 2010-02-23 2011-09-08 Jiancong Luo Method and apparatus for efficient encoding of multi-view coded video data
US20110216838A1 (en) * 2010-02-23 2011-09-08 Wanrong Lin Method and apparatus for efficient decoding of multi-view coded video data
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US10448083B2 (en) 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
US11711592B2 (en) 2010-04-06 2023-07-25 Comcast Cable Communications, Llc Distribution of multiple signals of video content independently over a network
JP5505154B2 (ja) * 2010-07-16 2014-05-28 ソニー株式会社 画像処理装置と画像処理方法
MY165186A (en) * 2010-08-09 2018-02-28 Panasonic Corp Image coding method, image decoding method, image coding apparatus, and image decoding apparatus
JP4889836B1 (ja) * 2010-08-18 2012-03-07 パナソニック株式会社 3d符号化装置
WO2012045319A1 (en) * 2010-10-05 2012-04-12 Telefonaktiebolaget L M Ericsson (Publ) Multi-view encoding and decoding technique based on single-view video codecs
EP2630799A4 (en) * 2010-10-20 2014-07-02 Nokia Corp METHOD AND DEVICE FOR VIDEO CODING AND DECODING
US9204123B2 (en) * 2011-01-14 2015-12-01 Comcast Cable Communications, Llc Video content generation
US20120230431A1 (en) 2011-03-10 2012-09-13 Jill Boyce Dependency parameter set for scalable video coding
LT3267681T (lt) * 2011-07-02 2018-12-10 Samsung Electronics Co., Ltd. Vaizdo duomenų multipleksavimo ir demultipleksavimo aparatas vaizdo atkūrimo būklei nustatyti
WO2013009441A2 (en) * 2011-07-12 2013-01-17 Vidyo, Inc. Scalable video coding using multiple coding technologies
AU2012295028B2 (en) * 2011-08-09 2016-07-14 Samsung Electronics Co., Ltd. Method for multiview video prediction encoding and device for same, and method for multiview video prediction decoding and device for same
CN103907347B (zh) * 2011-08-31 2018-01-30 诺基亚技术有限公司 多视图视频编码和解码
JP5206853B2 (ja) * 2011-09-08 2013-06-12 カシオ計算機株式会社 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム
US10063834B2 (en) * 2011-09-13 2018-08-28 Ati Technologies Ulc Method and apparatus for providing video enhancements for display images
GB2562132B (en) * 2011-09-23 2019-01-23 Kt Corp Method for inducing a merge candidate block and device using the same
WO2013162251A1 (ko) * 2012-04-23 2013-10-31 삼성전자 주식회사 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 부호화 방법 및 그 장치, 다시점 비디오 예측을 위한 참조리스트를 이용하는 다시점 비디오 복호화 방법 및 그 장치
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
WO2014047351A2 (en) * 2012-09-19 2014-03-27 Qualcomm Incorporated Selection of pictures for disparity vector derivation
JP6000463B2 (ja) * 2012-09-21 2016-09-28 聯發科技股▲ふん▼有限公司Mediatek Inc. 3d映像符号化の仮想深度値の方法および装置
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
EP2904800A4 (en) * 2012-10-05 2016-05-04 Mediatek Singapore Pte Ltd METHOD AND DEVICE FOR MOTION VECTOR REMOVAL FOR 3D VIDEO CODING
US10045014B2 (en) * 2013-07-15 2018-08-07 Mediatek Singapore Pte. Ltd. Method of disparity derived depth coding in 3D video coding
US20150016503A1 (en) * 2013-07-15 2015-01-15 Qualcomm Incorporated Tiles and wavefront processing in multi-layer context
US9716884B2 (en) * 2014-03-20 2017-07-25 Hfi Innovation Inc. Method of signaling for mode selection in 3D and multi-view video coding
SG10201900632SA (en) 2015-03-10 2019-02-27 Huawei Tech Co Ltd Picture prediction method and related apparatus
MY190934A (en) * 2015-12-14 2022-05-23 Panasonic Ip Corp America Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN113691812B (zh) * 2021-10-25 2022-03-08 广州朗国电子科技股份有限公司 基于鸿蒙系统的分布式视频处理方法、终端和可读介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61144191A (ja) 1984-12-17 1986-07-01 Nippon Hoso Kyokai <Nhk> 立体テレビジョン画像伝送方法
JPH0698312A (ja) 1992-09-16 1994-04-08 Fujitsu Ltd 画像高能率符号化方式
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
TW200845724A (en) * 2004-06-02 2008-11-16 Matsushita Electric Ind Co Ltd Multiplexing apparatus and demultiplexing apparatus

Cited By (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8428130B2 (en) 2006-03-30 2013-04-23 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8611427B2 (en) 2006-03-30 2013-12-17 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8576920B2 (en) 2006-03-30 2013-11-05 Lg Electronics, Inc. Method and apparatus for decoding/encoding a video signal
US8571113B2 (en) 2006-03-30 2013-10-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8526504B2 (en) 2006-03-30 2013-09-03 Lg Electronics Inc. Method and apparatus for decoding/encoding a multi-view video signal with inter-view reference picture list management
US8483273B2 (en) 2006-03-30 2013-07-09 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
JP2009532931A (ja) * 2006-03-30 2009-09-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
US8472519B2 (en) 2006-03-30 2013-06-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8457207B2 (en) 2006-03-30 2013-06-04 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8559523B2 (en) 2006-03-30 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8432972B2 (en) 2006-03-30 2013-04-30 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8411744B2 (en) 2006-03-30 2013-04-02 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8363732B2 (en) 2006-03-30 2013-01-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8559505B2 (en) 2006-03-30 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8565319B2 (en) 2006-03-30 2013-10-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8565303B2 (en) 2006-03-30 2013-10-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8634475B2 (en) 2006-03-30 2014-01-21 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal using a reference picture list for inter-view prediction
US8611419B2 (en) 2006-03-30 2013-12-17 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8711932B2 (en) 2006-08-25 2014-04-29 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8718136B2 (en) 2006-08-25 2014-05-06 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532180B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532184B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8649433B2 (en) 2006-08-25 2014-02-11 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8660179B2 (en) 2006-08-25 2014-02-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8559508B2 (en) 2006-08-25 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8559507B2 (en) 2006-08-25 2013-10-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8681863B2 (en) 2006-08-25 2014-03-25 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532182B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8855200B2 (en) 2006-08-25 2014-10-07 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532181B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8630344B2 (en) 2006-08-25 2014-01-14 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8724700B2 (en) 2006-08-25 2014-05-13 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8761255B2 (en) 2006-08-25 2014-06-24 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8532183B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US8767827B2 (en) 2006-08-25 2014-07-01 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
JP2010507277A (ja) * 2006-10-13 2010-03-04 トムソン ライセンシング 多視点ビデオ符号化を含む参照ピクチャの管理方法
KR101351935B1 (ko) 2006-10-13 2014-01-17 톰슨 라이센싱 멀티뷰 비디오 코딩을 수반하는 참조 화상 관리를 위한 방법
US8948256B2 (en) 2006-10-13 2015-02-03 Thomson Licensing Reference picture list management syntax for multiple view video coding
JP2013153461A (ja) * 2006-12-21 2013-08-08 Thomson Licensing 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP2014222938A (ja) * 2006-12-21 2014-11-27 トムソン ライセンシングThomson Licensing 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP2013034228A (ja) * 2006-12-21 2013-02-14 Thomson Licensing 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP2010514353A (ja) * 2006-12-21 2010-04-30 トムソン ライセンシング 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP5568465B2 (ja) * 2008-09-18 2014-08-06 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法およびプログラム
KR101609890B1 (ko) * 2008-09-18 2016-04-06 파나소닉 아이피 매니지먼트 가부시키가이샤 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법 및 프로그램
WO2010032419A1 (ja) * 2008-09-18 2010-03-25 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法およびプログラム
US8885709B2 (en) 2008-09-18 2014-11-11 Panasonic Corporation Image decoding device, image coding device, image decoding method, image coding method, and program
US8750631B2 (en) 2008-12-09 2014-06-10 Sony Corporation Image processing device and method
WO2010067810A1 (ja) 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法
JP2010263614A (ja) * 2009-04-08 2010-11-18 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録媒体
CN102047672A (zh) * 2009-04-08 2011-05-04 索尼公司 记录设备、记录方法、回放设备、回放方法、程序和记录介质
US8457474B2 (en) 2009-04-08 2013-06-04 Sony Corporation Recording device, recording method, playback device, playback method, program, and recording medium
JP2012130031A (ja) * 2009-04-08 2012-07-05 Sony Corp 再生装置、再生方法、および記録方法
JP2012130029A (ja) * 2009-04-08 2012-07-05 Sony Corp 記録方法
WO2010116956A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 記録装置、記録方法、再生装置、再生方法、プログラム、および記録媒体
JP2012130030A (ja) * 2009-04-08 2012-07-05 Sony Corp 再生装置、再生方法、および記録方法
JP2012124924A (ja) * 2009-04-08 2012-06-28 Sony Corp 再生装置、再生方法、および記録方法
JP2012124923A (ja) * 2009-04-08 2012-06-28 Sony Corp 再生装置、再生方法、および記録方法
US8787691B2 (en) 2009-07-01 2014-07-22 Sony Corporation Image processing device and image processing method of images with pixels arrayed in a checkerboard fashion
WO2011001864A1 (ja) 2009-07-01 2011-01-06 ソニー株式会社 画像処理装置、及び、画像処理方法
CN102045578A (zh) * 2009-10-16 2011-05-04 索尼公司 图像处理设备和图像处理方法
CN102045578B (zh) * 2009-10-16 2013-05-01 索尼公司 图像处理设备和图像处理方法
CN102833564A (zh) * 2009-10-16 2012-12-19 索尼公司 图像处理设备和图像处理方法
JP2011124950A (ja) * 2009-12-14 2011-06-23 Panasonic Corp 画像復号装置及び画像復号方法
WO2011074153A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 画像復号装置及び画像復号方法
CN102835120A (zh) * 2010-04-14 2012-12-19 索尼公司 数据结构、图像处理设备、图像处理方法和程序
US9219911B2 (en) 2010-04-14 2015-12-22 Sony Corporation Image processing apparatus, image processing method, and program
WO2011129242A1 (ja) 2010-04-14 2011-10-20 ソニー株式会社 データ構造、画像処理装置、画像処理方法、およびプログラム
US9118895B2 (en) 2010-04-16 2015-08-25 Sony Corporation Data structure, image processing apparatus, image processing method, and program
US9549167B2 (en) 2010-04-20 2017-01-17 Sony Corporation Data structure, image processing apparatus and method, and program
WO2011142239A1 (ja) 2010-05-13 2011-11-17 ソニー株式会社 画像処理装置および画像処理方法
KR101531240B1 (ko) * 2010-07-27 2015-06-25 한국전자통신연구원 디지털 방송 시스템에서 다시점 프로그램을 송수신하는 방법 및 장치
US9237328B2 (en) 2010-07-27 2016-01-12 Electronics And Telecommunications Research Institute 3D image processing apparatus and method thereof using connection status and glass type selection icons
US9338430B2 (en) 2010-09-03 2016-05-10 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
WO2012029883A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 符号化装置および符号化方法、並びに復号装置および復号方法
WO2012029885A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 画像処理装置および方法
US9667941B2 (en) 2010-09-03 2017-05-30 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US9762884B2 (en) 2010-09-03 2017-09-12 Sony Corporation Encoding device, encoding method, decoding device, and decoding method for encoding multiple viewpoints for compatibility with existing mode allowing fewer viewpoints
WO2012029886A1 (ja) 2010-09-03 2012-03-08 ソニー株式会社 符号化装置および符号化方法、並びに復号装置および復号方法
US9661301B2 (en) 2011-02-18 2017-05-23 Sony Corporation Image processing device and image processing method
WO2012111755A1 (ja) 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
WO2012111756A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
CN103354997A (zh) * 2011-02-18 2013-10-16 索尼公司 图像处理设备和图像处理方法
US10122986B2 (en) 2011-02-18 2018-11-06 Sony Corporation Image processing device and image processing method
US9361734B2 (en) 2011-02-18 2016-06-07 Sony Corporation Image processing device and image processing method
US10055814B2 (en) 2011-02-18 2018-08-21 Sony Corporation Image processing device and image processing method
WO2012111757A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法
US9716873B2 (en) 2011-02-18 2017-07-25 Sony Corporation Image processing device and image processing method
US9674525B2 (en) 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
JP2014526197A (ja) * 2011-07-28 2014-10-02 クゥアルコム・インコーポレイテッド マルチビュービデオコード化
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9344737B2 (en) 2011-12-20 2016-05-17 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
EP2672706A1 (en) 2012-06-07 2013-12-11 Canon Kabushiki Kaisha Image encoding apparatus

Also Published As

Publication number Publication date
JP4793366B2 (ja) 2011-10-12
US8139150B2 (en) 2012-03-20
US20080089428A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP4793366B2 (ja) 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP5059766B2 (ja) 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
JP5698391B2 (ja) マルチビュービデオプラス深度コンテンツのコーディング
JP5268645B2 (ja) カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体
KR100667830B1 (ko) 다시점 동영상을 부호화하는 방법 및 장치
KR101227601B1 (ko) 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
EP2538675A1 (en) Apparatus for universal coding for multi-view video
JP2007180981A (ja) 画像符号化装置、画像符号化方法、及び画像符号化プログラム
JP2009523356A (ja) 多視点ビデオの処理
JP2009100070A (ja) 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム
JP2009505604A (ja) 多視点動映像を符号化する方法及び装置
JP2008034892A (ja) 多視点画像符号化装置
JP6616773B2 (ja) サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置
JP2009004940A (ja) 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム
JP2007180982A (ja) 画像復号装置、画像復号方法、及び画像復号プログラム
JP2023162431A (ja) ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体
Farid et al. Panorama view with spatiotemporal occlusion compensation for 3D video coding
WO2013146636A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
JP2011077722A (ja) 画像復号装置、画像復号方法およびそのプログラム
JP2009004939A (ja) 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
Rusanovskyy et al. Depth-based coding of MVD data for 3D video extension of H. 264/AVC
JP2009100071A (ja) 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
JP2009004942A (ja) 多視点画像送信方法、多視点画像送信装置及び多視点画像送信用プログラム
JP2009159466A (ja) 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
JP2012028960A (ja) 画像復号装置、画像復号方法および画像復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

R151 Written notification of patent or utility model registration

Ref document number: 4793366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250