JP5197591B2 - 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 - Google Patents

映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP5197591B2
JP5197591B2 JP2009520575A JP2009520575A JP5197591B2 JP 5197591 B2 JP5197591 B2 JP 5197591B2 JP 2009520575 A JP2009520575 A JP 2009520575A JP 2009520575 A JP2009520575 A JP 2009520575A JP 5197591 B2 JP5197591 B2 JP 5197591B2
Authority
JP
Japan
Prior art keywords
image
prediction
decoded
decoding
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009520575A
Other languages
English (en)
Other versions
JPWO2009001791A1 (ja
Inventor
信哉 志水
英明 木全
一人 上倉
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009520575A priority Critical patent/JP5197591B2/ja
Publication of JPWO2009001791A1 publication Critical patent/JPWO2009001791A1/ja
Application granted granted Critical
Publication of JP5197591B2 publication Critical patent/JP5197591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Description

本発明は、多視点映像の符号化に用いられる映像符号化装置およびその方法と、その映像符号化技術により符号化された符号化データを復号する映像復号装置およびその方法と、その映像符号化装置の実現に用いられる映像符号化プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体と、その映像復号装置の実現に用いられる映像復号プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
本願は、2007年6月25日に出願された特願2007−165828号に基づき優先権を主張し、その内容をここに援用する。
多視点画像とは、複数のカメラで同じ被写体と背景を撮影した複数の画像のことであり、多視点動画像(多視点映像)とは、その動画像のことである。以下では、1つのカメラで撮影された動画像を“2次元動画像”と呼び、同じ被写体と背景を撮影した2次元動画像群を多視点動画像と呼ぶ。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めている。一方、多視点画像や多視点動画像では、各カメラが同期されていた場合、同じ時間に対応した各カメラの映像は全く同じ状態の被写体と背景を別の位置から撮影したものなので、カメラ間で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
まず、2次元動画像の符号化技術に関する従来技術を述べる。
国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。動き補償と呼ばれる技術がフレーム間の時間相関を利用する方法である。
H.264で使われている動き補償技術の詳細については、下記の非特許文献1に記載されているが、以下で概要を説明する。
H.264の動き補償では、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルを持つことを可能にし、局所的な映像変化に対しても高い符号化効率を達成している。また、参照フレームの候補として、符号化対象フレームに対して過去もしくは未来の既に符号化済みの複数枚のフレームを用意し、各ブロックで異なる参照フレームを用いることを可能にしている。これによって、時間変化によってオクルージョンが生じるような映像に対しても高い符号化効率を達成している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。
多視点動画像の符号化については、動き補償を同じ時刻の異なる視点に置かれたカメラで撮影された画像に適用した“視差補償”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ位置が投影される位置の差である。
図12に、このカメラ間で生じる視差の概念図を示す。この概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ位置が投影される位置は、一般的に対応点と呼ばれる。視差補償は、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。
多視点動画像の各フレームには時間方向の冗長性とカメラ間の冗長性とが同時に存在することから、同時に両方の冗長性を取り除く方法として、下記に示す特許文献1の手法がある。
この手法では、入力画像と視差補償画像との差分画像を時刻ごとに生成し、それを2次元動画像と見立てて動き補償を適用しながら符号化を行う。この方法によると、カメラ間の冗長性を取り除く視差補償では取り除くことのできなかった時間方向の冗長性を、動き補償によって取り除くことができるため、最終的に符号化する予測残差が小さくなり、高い符号化効率を達成することが可能である。
ITU-T Rec. H.264/ISO/IEC 11496-10, "Editor's Proposed Draft Text Modifications for Joint Video Specification (ITU-T Rec. H.264/ISO/IEC 11496-10 AVC), Draft 7", DocumentJVT-E022d7, pp. 10-13, 62-73, September 2002 特開2007−036800号公報
視差補償残差信号(入力画像と視差補償画像との差分画像)を映像と見立てて動き補償を行うような従来の多視点動画像の符号化方法によれば、時間方向とカメラ間の冗長性を同時に持つような部分の予測残差を小さくすることができるため、多視点動画像を効率的に符号化することが可能である。
しかしながら、差分動画像信号のビット深度(量子化ビット数)は通常の映像より1ビット大きくなるため、この方式では符号化/復号器の規模は本来の映像を符号化するものより大きくなる。すなわち、例えば、8ビットの画像の場合、最小値は0で最大値は255であるが、この場合の差分画像は最小値が−255で最大値が+255となることから、差分動画像信号のビット深度は通常の映像より1ビット大きくなるのである。
また、基準視点(1つのカメラが基準視点のカメラとして選出される)に対応するカメラなど、通常の映像のまま符号化/復号を行うカメラも存在するため、多視点動画像符号化/復号器全体としては2種類のビット深度を取り扱うための機構を備える必要があり、回路規模や実装規模が大きなものになってしまうという問題がある。
さらに、オクルージョン等でほかのカメラの映像から符号化/復号対象のカメラの映像を予測できない領域において、差分を使った符号化/復号では差分を使わない場合に比べて効率が悪化してしまうことがある。そのため、差分を使った符号化/復号と差分を使わない符号化/復号とを適応的に切り替えたほうが符号化効率を向上することができる。
しかし、差分の場合とそうでない場合とではビット深度が異なるため、同じ符号化/復号部で処理をすることができない。そのため、適応的に切り替える処理を行うような場合では、1つの視点の映像を符号化/復号する部分だけでも2種類の信号を扱える符号化/復号部を備える必要があり、回路規模や実装規模が大きなものになってしまう問題がある。
これら回路や実装の規模だけでなく、差分動画像において動き補償をする場合、元の映像のときの画素値が許される値の最大値や最小値になっている部分では無駄な信号を符号化してしまうことがありえる。
例えば8ビットの映像において、元の画像のある画素の画素値が255でその位置の合成画像(視差補償画像)の画素値が250であったとする。つまり、この画素における差分画像の画素値は5である。このとき、別の時刻の差分画像を用いてこの画素の画素値を動き補償を用いて予測した際の値が10であった場合、5と10との差の−5という値が符号化されることになる。
しかしながら、元の映像の画素値の最大値は255であり、255より大きな値は全て255にクリッピングされるため、−5を符号化する代わりに0を符号化した際に得られる、合成画像の画素値250に差分画像の動き補償による予測値10を加えることで得られる260という値もまた、255という入力映像の値を示すことができる。つまり、この場合、−5という差分画像間の予測残差を符号化することは無駄であり、符号量の増加を招いてしまう。
このように、差分動画像において動き補償をする場合、元の映像のときの画素値が許される値の最大値や最小値になっている部分では無駄な信号を符号化してしまうことが起こるのである。
本発明はかかる事情に鑑みてなされたものであって、多視点映像を符号化するときに、差分画像を用いた予測値に合成画像の画素値を加算して入力画像に対する予測画像とすることで、符号化/復号器で複数のビット深度の映像信号を扱う必要のない、入力映像と合成映像との差分映像に対する予測を用いた新たな映像符号化復号技術の提供を目的とする。
従って、本発明は、視点の異なる複数のカメラにより撮影された多視点画像を符号化するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に符号済みの参照カメラ画像と、その参照カメラ画像と符号化対象の画像との間の視差情報とから、符号化対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて符号化対象の画像を符号化する映像符号化装置であって、
これから符号化する符号化対象領域の入力画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測手段と、
前記差分画像予測手段の生成した予測差分画像と符号化対象領域の前記合成画像との和で表される、その領域の予測画像を生成する予測画像生成手段と、
前記予測画像生成手段の生成した符号化対象領域の予測画像とその領域の符号化対象画像との差で表される、予測残差を符号化する予測残差符号化手段とを備える
ことを特徴とする映像符号化装置を提供する。
典型例として、前記差分画像予測手段は、符号化対象画像の既に符号化済み領域の復号画像とその領域の前記合成画像との差で表される、符号化対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、前記差分画像予測手段は、符号化対象画像を撮影した視点で撮影された既に符号化済みの画像の復号画像とその復号画像と同じ時刻の前記合成画像との差で表される、符号化対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、
符号化対象画像の符号化データを復号して、符号化対象画像の復号画像を生成する画像復号手段と、
前記画像復号手段の復号した復号画像と前記合成画像との差で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積手段とを備え、
前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、
前記予測残差符号化手段の符号化した予測残差を復号する予測残差復号手段と、
前記予測残差復号手段の復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積手段とを備え、
前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
この場合の好適例として、前記復号差分画像生成蓄積手段は、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う。
別の典型例として、
符号化対象画像の既に符号化済みの領域の復号画像および、符号化対象画像を撮影した視点で撮影され、かつ、符号化対象画像とは別の時刻に撮影された既に符号化済みの画像の復号画像のいずれかを用いて、符号化対象画像の予測画像を生成する元画像予測手段を備え、
前記予測画像生成手段は、選択的に、前記予測差分画像と前記合成画像とに基づいて符号化対象領域の予測画像を生成するか、前記元画像予測手段の生成した予測画像をそのまま利用して符号化対象領域の予測画像を生成するかのいずれかを実行する。
好適例として、前記予測画像生成手段は、前記予測画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う。
本発明はまた、視点の異なる複数のカメラにより撮影された多視点画像の符号化データを復号するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に復号済みの参照カメラ画像と、その参照カメラ画像と復号対象の画像との間の視差情報とから、復号対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて復号対象の画像の符号化データを復号する映像復号装置であって、
符号化データに含まれる復号対象画像の予測残差を復号する予測残差復号手段と、
これから復号する復号対象領域の復号対象画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測手段と、
復号対象領域について、前記差分画像予測手段の生成した予測差分画像と、前記予測残差復号手段の復号した予測残差と、前記合成画像とを足し合わせることで、復号対象画像を復号する画像復号手段とを備える
ことを特徴とする映像復号装置を提供する。
典型例として、前記差分画像予測手段は、復号対象画像の既に復号済み領域の復号画像とその領域の前記合成画像との差で表される、復号対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
別の典型例として、前記差分画像予測手段は、復号対象画像を撮影した視点で撮影された既に復号済みの参照画像とその参照画像と同じ時刻の前記合成画像との差で表される、復号対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
別の典型例として、
前記画像復号手段の生成した復号画像と前記合成画像との差で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積手段を備え、
前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
別の典型例として、
前記予測残差復号手段の復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積手段を備え、
前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
この場合の好適例として、前記復号差分画像生成蓄積手段は、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う。
別の典型例として、
復号対象画像の既に復号済みの画像および、復号対象画像を撮影した視点で撮影され、かつ、復号対象画像とは別の時刻に撮影された既に復号済みの画像のいずれかを用いて、復号対象画像の予測画像を生成する元画像予測手段を備え、
前記画像復号手段は、復号対象領域について、選択的に、前記差分画像予測手段の生成した予測差分画像と、前記予測残差復号手段の復号した予測残差と、前記合成画像とを足し合わせることで復号対象画像を復号するか、前記元画像予測手段の生成した予測画像と、前記予測残差復号手段の復号した予測残差とを足し合わせることで復号対象画像を復号するかのいずれかを実行する。
本発明はまた、視点の異なる複数のカメラにより撮影された多視点画像を符号化するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に符号済みの参照カメラ画像と、その参照カメラ画像と符号化対象の画像との間の視差情報とから、符号化対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて符号化対象の画像を符号化する映像符号化方法であって、
これから符号化する符号化対象領域の入力画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測ステップと、
前記差分画像予測ステップで生成した予測差分画像と符号化対象領域の前記合成画像との和で表される、その領域の予測画像を生成する予測画像生成ステップと、
前記予測画像生成ステップで生成した符号化対象領域の予測画像とその領域の符号化対象画像との差で表される、予測残差を符号化する予測残差符号化ステップとを備える
ことを特徴とする映像符号化方法を提供する。
典型例として、前記差分画像予測ステップでは、符号化対象画像の既に符号化済み領域の復号画像とその領域の前記合成画像との差で表される、符号化対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、前記差分画像予測ステップでは、符号化対象画像を撮影した視点で撮影された既に符号化済みの画像の復号画像とその復号画像と同じ時刻の前記合成画像との差で表される、符号化対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、
前記予測残差符号化ステップで符号化した予測残差を復号する予測残差復号ステップと、
前記予測残差復号ステップで復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積ステップとを備え、
前記差分画像予測ステップでは、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する。
別の典型例として、
符号化対象画像の既に符号化済みの領域の復号画像および、符号化対象画像を撮影した視点で撮影され、かつ、符号化対象画像とは別の時刻に撮影された既に符号化済みの画像の復号画像のいずれかを用いて、符号化対象画像の予測画像を生成する元画像予測ステップを備え、
前記予測画像生成ステップでは、選択的に、前記予測差分画像と前記合成画像とに基づいて符号化対象領域の予測画像を生成するか、前記元画像予測ステップで生成した予測画像をそのまま利用して符号化対象領域の予測画像を生成するかのいずれかを実行する。
本発明はまた、視点の異なる複数のカメラにより撮影された多視点画像の符号化データを復号するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に復号済みの参照カメラ画像と、その参照カメラ画像と復号対象の画像との間の視差情報とから、復号対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて復号対象の画像の符号化データを復号する映像復号方法であって、
符号化データに含まれる復号対象画像の予測残差を復号する予測残差復号ステップと、
これから復号する復号対象領域の復号対象画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測ステップと、
復号対象領域について、前記差分画像予測ステップで生成した予測差分画像と、前記予測残差復号ステップで復号した予測残差と、前記合成画像とを足し合わせることで、復号対象画像を復号する画像復号ステップとを備える
ことを特徴とする映像復号方法を提供する。
典型例として、前記差分画像予測ステップでは、復号対象画像の既に復号済み領域の復号画像とその領域の前記合成画像との差で表される、復号対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
別の典型例として、前記差分画像予測ステップでは、復号対象画像を撮影した視点で撮影された既に復号済みの参照画像とその参照画像と同じ時刻の前記合成画像との差で表される、復号対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
別の典型例として、
前記予測残差復号ステップで復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積ステップを備え、
前記差分画像予測ステップでは、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する。
この場合、好適には、前記復号差分画像生成蓄積ステップでは、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う。
別の典型例として、
復号対象画像の既に復号済みの画像および、復号対象画像を撮影した視点で撮影され、かつ、復号対象画像とは別の時刻に撮影された既に復号済みの画像のいずれかを用いて、復号対象画像の予測画像を生成する元画像予測ステップを備え、
前記画像復号ステップでは、復号対象領域について、選択的に、前記差分画像予測ステップで生成した予測差分画像と、前記予測残差復号ステップで復号した予測残差と、前記合成画像とを足し合わせることで復号対象画像を復号するか、前記元画像予測ステップで生成した予測画像と、前記予測残差復号ステップで復号した予測残差とを足し合わせることで復号対象画像を復号するかのいずれかを実行する。
以上に説明した本発明の映像符号化装置もしくは映像復号装置を構成する各処理手段はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現できる。
上述のように、本発明では、既に符号化済みの領域における入力映像と合成映像との差分映像を用いて、符号化対象の領域における入力映像と合成映像との差分を予測し、それに符号化対象の領域における合成映像を加算して、入力映像に対する予測映像を生成することができる。
そのため、予測残差を符号化する部分では、一般的な映像符号化方法と同様に、入力映像とそれに対する予測映像との予測残差を符号化する。つまり、従来の手法のように、残差符号化ステップで取り扱う信号のビット深度が増加することはない。そして、予測自体は入力映像とそれに対する合成映像との差分に対して行われるため、カメラ間の相関とフレーム内の空間的な相関とを同時に利用することができ、高い符号化効率を達成することができる。
この手法は、合成映像が特許文献1のように1枚の参照映像と撮影シーンの奥行き情報とから生成されても、また、下記の参考文献のように複数の参照映像を用いて対応点を探しながら生成されても、その他の方法を用いて生成されても、符号化対象の視点で撮影したカメラの映像を合成できればどのような方法を用いても構わない。
参考文献:M.Kitahara, H.Kimata, M.Tanimoto, T.Fujii and K.Yamamoto, "Report of Core Experiment on View Interpolation (Multi-view Video Coding CE3)," Document JVT-T119, pp. 1-8, July, 2006.
また、残差の符号化方法も、国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式と同様に、DCTや量子化によっても、テンプレートを用いたベクトル符号化によっても、どんな方法を用いても構わない。
本発明では、同様に差分映像による予測と合成映像とを加えて入力映像に対する予測とする場合において、入力映像と合成映像との差分映像をフレーム内で空間的に予測するのではなく、別の時刻のフレームから差分映像の時間相関を利用して予測を行うこともできる。
この手法も、上記と同様に、予測残差を符号化する部分では、一般的な動画像符号化と同様に、入力映像とそれに対する予測映像との予測残差を符号化するため、従来の手法の問題点であった残差符号化ステップで取り扱う信号のビット深度増加を解決することができる。そして、カメラ間の相関と時間方向の相関とを同時に利用することができるため高い符号化効率を達成することができる。
また、残差映像におけるフレーム内の空間的な相関と時間方向の相関とを選択しながら符号化することもでき、それによればさらに高い符号化効率を達成することができる。
通常の映像符号化方法では、予測映像の生成のために、既に符号済みの入力映像の復号映像を蓄積して利用する。しかしながら、本発明では、入力映像に対する予測映像を生成するために、入力映像と合成映像との差分映像を用いる。つまり、予測映像を生成する度に合成映像を生成し、蓄積されている復号映像との差分を求める必要があるためかなりな演算コストがかかる。
そこで、復号映像を得た後に、予測映像生成のために、既に生成されている合成映像を減算して差分映像を生成し蓄積することで、毎回差分映像を生成する処理を省略し演算コストを大幅に減らすことができる。
また、差分映像を用いて予測を行った場合に、符号化した予測残差の復号データに差分映像の予測値を加えることで、復号映像に対する差分映像を生成することができる。これによって、一度復号映像を生成してから差分映像を生成するよりも、合成映像を減算する演算を省略でき、さらに演算コストを削減することが可能となる。
なお、この際、対応する合成映像の画素値にマイナスを掛けた値を最小値、その最小値と許される復号映像の画素値の最も大きな値との和で表される値を最大値として、復号残差データと差分映像予測との和をクリッピングすることで、復号映像を生成してから差分映像を求める場合とまったく同じ差分映像を生成することができる。
また、差分映像を用いた予測映像生成と差分映像を用いない予測映像生成とを選択しながら入力映像の符号化をすることもできる。
オクルージョン部分などでは合成映像を精度良く生成することができない。そのような部分では、入力映像と合成映像とから生成される差分映像に大きな誤差が含まれてしまい効率的に符号化できない。そのため、そのような部分では、時間方向の相関のみを利用したほうが入力映像を効率よく符号化することが可能である。
従来の方法のように、差分映像を生成して、その差分映像を入力として符号化を行う場合、差分を使わない符号化を実現するには、符号化対象映像信号のビット深度が異なるため、入力信号を切り替えるだけでなく符号化器自体を切り替える必要がある。このことは、1つの映像を処理するエンコーダに2つの異なる信号を取り扱う符号化器が含まれていなければならないことを意味する。
これに対して、本発明によれば、差分映像上で予測を行う場合であっても、入力映像上で予測を行う場合であっても、符号化器が取り扱う入力信号は入力映像であり、予測信号は入力映像に対する予測映像となるため、同じ入力信号と符号化器を使って符号化を行うことが可能となる。つまり、本発明によってエンコーダの回路や実装の規模を大きく減らすことが可能となる。
以上に説明したように、本発明によれば、多視点映像を符号化するときに、入力映像と合成映像との差分映像に対する予測信号を生成して、その生成した予測差分映像と合成映像との和を入力映像に対する予測信号とすることで、差分映像を用いた高効率な符号化を少ない回路規模・実装規模で実現することができるようになる。
従来技術では、入力映像とそれに対する合成映像との差分映像を生成して、その生成した差分映像を動画像符号化するという方法を用いていたが、本発明では、その差分映像に対する予測信号を生成して、その生成した予測差分映像と合成映像との和を入力映像に対する予測信号とすることで、入力画像を直接動画像符号化するという方法を用いており、これにより差分映像の予測を用いた高効率な符号化を少ない回路規模・実装規模で実現することができるようになるのである。
本発明の実施形態例1の映像符号化装置の構成図である。 実施形態例1の映像符号化装置の実行する処理フローである。 予測画像の生成処理の処理フローである。 実施形態例1の映像符号化装置と多視点映像を符号化する従来の映像符号化装置との比較を説明するための、実施形態例1の映像符号化装置側の図である。 上記比較を説明するための、従来の映像符号化装置側の図である。 本発明の実施形態例2の映像符号化装置の構成図である。 実施形態例2の映像符号化装置の実行する処理フローである。 実施形態例2の映像符号化装置と多視点映像を符号化する従来の映像符号化装置との比較を説明するための、実施形態例1の映像符号化装置側の図である。 上記比較を説明するための、従来の映像符号化装置側の図である。 本発明の実施形態例3の映像復号装置の構成図である。 実施形態例3の映像復号装置の実行する処理フローである。 本発明の実施形態例4の映像復号装置の構成図である。 実施形態例4の映像復号装置の実行する処理フローである。 カメラ間で生じる視差の説明図である。
符号の説明
100 映像符号化装置
101 画像入力部
102 合成画像入力部
103 予測画像生成部
104 予測残差符号化部
105 予測残差復号部
106 差分画像復号部
107 差分画像メモリ
108 予測差分画像生成部
以下、実施の形態に従って本発明を詳細に説明する。
ここで、以下に説明する実施形態例では、1つ以上の既に符号化/復号済みの、符号化対象とは別の視点の映像と、それらの視点と符号化対象視点との視差情報とを用いて生成した合成映像を用いて、ある1つの視点の映像を符号化/復号する方法について説明を行う。
合成映像を生成するために必要な視差情報は、符号化器側で生成されて復号器側に伝送されても構わないし、符号化器側・復号器側で同じものが計算されるものでも構わない。また、視差情報から合成映像を生成する手法も、どのようなものであってもよく、複数の視点間の対応点情報から平均値を取る方法でも、1つの代表値を取る方法でも何でも構わない。
〔1〕実施形態例1
まず、第1の実施形態例(以下、実施形態例1と記載する)について説明する。
図1に、本発明の実施形態例1にかかる映像符号化装置100の構成を図示する。
この図に示すように、実施形態例1の映像符号化装置100は、画像入力部101と、合成画像入力部102と、予測画像生成部103と、予測残差符号化部104と、予測残差復号部105と、差分画像復号部106と、差分画像メモリ107と、予測差分画像生成部108とを備える。
この画像入力部101は、符号化対象となるカメラで撮影された映像(画像)を入力する。合成画像入力部102は、そのカメラに対する合成映像(合成画像、即ち、視差補償画像)を入力する。
予測画像生成部103は、予測差分画像生成部108の生成した予測差分画像(復号画像と合成画像との差分画像を用いて予測した、入力画像と合成画像との差分画像に対しての予測画像)と、合成画像入力部102の入力した合成画像とを加算することで、入力画像に対しての予測画像を生成する。
予測残差符号化部104は、画像入力部101の入力した入力画像と予測画像生成部103の生成した予測画像との予測残差を符号化して符号化データを出力する。予測残差復号部105は、予測残差符号化部104の符号化した予測残差を復号する。
差分画像復号部106は、合成画像入力部102の入力した合成画像に従って処理範囲を決定しつつ、予測差分画像生成部108の生成した予測差分画像と、予測残差復号部105の復号した予測残差とを加算することで、復号画像と合成画像との差分で表される差分画像を生成する。差分画像メモリ107は、差分画像復号部106の生成した差分画像を蓄積する。
予測差分画像生成部108は、差分画像メモリ107に蓄積される差分画像を用いて、入力画像と合成画像との差分で表される差分画像に対しての予測画像(予測差分画像)を生成する。
図2に、このように構成される実施形態例1の映像符号化装置100の実行する処理フローを示す。
この処理フローは、実施形態例1の映像符号化装置100によってある時刻の画像(フレーム)を符号化する際の処理を示すものであり、複数フレームの符号化を行う際には、この処理フローが繰り返し実行されることになる。
以下では、この処理フローに従って、実施形態例1の映像符号化装置100の実行する処理について詳細に説明する。
実施形態例1の映像符号化装置100では、まず、画像入力部101で、符号化対象画像を入力する[A1]。以下では、符号化対象画像(入力画像)は Org[・]と表す。また、画像に対して記号[]を付加することで、特定の領域の画像信号であることを表す。
次に、合成画像入力部102で、ここで入力された Org[・]に対する合成画像を入力する[A2]。合成画像は Syn[・]と表す。
本実施形態例1では、画像全体を複数のブロックに分割し、ブロックごとに処理を繰り返すことで画像全体を符号化する。なお、必ずしもブロック状に分割する必要はなく、任意の形状に分割しても構わないし、分割を行わなくても構わない。以下では、ブロックのインデックスをblk 、画像に含まれるブロック数をnumBlkと表す。
従って、blk を0に初期化した後[A3]、blk に1を加算しながら[A11]、blk がnumBlkになるまで[A12]、以下の処理[A4−A10]を繰り返すことで符号化を行う。
すなわち、ブロック毎に繰り返される処理では、まず、予測差分画像生成部108で、差分画像メモリ107に蓄えられている既に符号化済みの別の時刻のフレームや符号化対象フレーム内の既に符号化済みのブロックを用いて、予測差分画像PredDiff[・]を生成する[A4]。
一般に、別の時刻のフレームから予測を行う場合はフレーム間予測と呼ばれ、同じ時刻のフレームの既に符号化済み領域から予測を行う場合はフレーム内予測と呼ばれる。ここで行われるフレーム間予測とフレーム内予測の方法としては、前述の非特許文献1で示されるような既存の映像符号化方式で用いられている任意の方法を用いることができる。
例えば、次の式(1)のように、別の時刻のフレームにおいて、ある領域を指定してそのコピーを予測値としても構わないし、式(2)のように、同じ時刻のフレームの既に符号化済みの周辺画素からDirectional な予測をしても構わない。
∀(x,y) ∈blk, PredDiff[t,x,y]=DecDiff[t-1,x+mvx,y+mvy ] ・・・式(1)
∀(x,y) ∈blk, PredDiff[t,x,y]=DecDiff[t,x,up_line] ・・・式(2)
ここで、 DecDiff[・]は差分画像メモリ107に蓄えられている復号された差分画像(復号差分画像)を表し、tは符号化対象フレームの時刻を表し、( mvx,mvy )は任意の2次元ベクトルを表し、up_lineは blkの直上の画素位置(ライン)を示す。
次に、予測画像生成部103で、予測差分画像PredDiff[・]と合成画像 Syn[・]との和で表される予測画像Pred[・]を生成する[A5]。
この際、各画素の値は有効な範囲にクリッピングされる。画素値の有効範囲は入力画像のビット深度によって決定され、8ビットの画像の場合、最小値は0で最大値は255となる。このクリッピングの処理は、数式を用いると次の式(3)で表される。
∀(x,y) ∈blk, Pred[t,x,y]=Clip(PredDiff[t,x,y]+Syn[t,x,y], min, max) ・・・式(3)
ここで、min は画素値の有効最小値を表し、max は画素値の有効最大値を表す。また、関数Clipは、第一引数で与えられる値が第二引数の値より小さい場合は第二引数の値を返し、第三引数の値よりも大きい場合は第三引数の値を返し、どちらでもない場合は第一引数の値を返すという関数である。
そして、入力画像 Org[・]と予測画像Pred[・]との差分で表される予測残差 Res[・]を生成する[A6]。この生成処理は、数式を用いると次の式(4)で表される。
∀(x,y) ∈blk, Res[t,x,y]=Org[t,x,y]−Pred[t,x,y] ・・・式(4)
予測残差 Res[・]を生成すると、予測残差符号化部104で、この予測残差 Res[・]を符号化する[A7]。
予測残差 Res[・]の符号化にはどのような方式を用いても構わない。一般的な映像符号化方式では、DCT(離散コサイン変換)で周波数変換を行った後、量子化を行い、DCT係数情報を2値化し、それを算術符号化する。
このようにして生成した予測残差 Res[・]の符号化データは映像符号化装置100の出力となる一方で、予測残差復号部105に送られ、予測残差復号部105で、以降の予測のために復号する[A8]。復号された予測残差をDecRes[・]と表す。
予測残差復号部105で復号された予測残差DecRes[・]は差分画像復号部106に送られ、差分画像復号部106で、予測差分画像PredDiff[・]を用いて、復号差分画像 DecDiff[・]を生成する[A9]。
この際、画素値の有効最小値と画素値の有効最大値とによって、
min≦DecRes[t,x,y] +PredDiff[t,x,y] +Syn[t,x,y]≦max
を満たすようにクリッピングが行われる。このクリッピングの処理は、前述した関数Clipを用いると、次の式(5)で表される。
∀(x,y) ∈blk, DecDiff[t,x,y] =Clip(DecRes[t,x,y]+PredDiff[t,x,y], min−Syn[t,x,y], max−Syn[t,x,y]) ・・・式(5)
なお、このクリッピングは行っても構わないし、行わなくてもよい。ただし、クリッピングを行う場合には、符号化器と復号器とで同じ処理をする必要がある。
差分画像復号部106により生成された復号差分画像 DecDiff[・]は差分画像メモリ107に格納され、以降のブロックを符号化する際の予測に利用される[A10]。
このようにして、実施形態例1の映像符号化装置100は、入力画像と合成画像との差分画像に対する予測信号を生成して、その生成した予測差分画像と合成画像との和を入力画像に対する予測信号として、入力画像の符号化を行うのである。
次に、図3の処理フローに従って、図2の処理フローのA5で実行する予測画像Pred[・]の生成処理について詳細に説明する。
符号化対象画像に対する予測画像Pred[・]を生成する処理[A5]は、ブロックに含まれる画素ごとに予測画像生成部103で行われる。この処理を行うために、予測画像生成部103は、図1に示すように、合成画像入力部102の入力した合成画像 Syn[・]の画素値と予測差分画像生成部108の生成した予測差分画像PredDiff[・]の画素値とを加算する加算機能と、この加算機能の加算した画素値をクリッピングするクリッピング機能とを備える。
ここでの処理はブロック内の画素ごとに行われる。つまり、各画素のインデックスを pixとすると、 pixを0で初期化した後[B1]、 pixに1を加算しながら[B7]、 pixがブロック内の画素数numPixになるまで[B8]、以下の処理[B2−B6]を繰り返すことで行う。
すなわち、この繰り返し行う処理では、まず、画素 pixについて予測差分画像生成部108で生成された予測差分画像PredDiff[・]の値をレジスタr0に読み込み[B2]、続いて、画素 pixについて合成画像入力部102で入力された合成画像 Syn[・]の値をレジスタr1に読み込む[B3]。
続いて、上記の加算機能を使って、レジスタr0に格納される画素値とレジスタr1に格納される画素値との加算を実行して、その加算結果をレジスタr2に格納する[B4]。
続いて、上記のクリッピング機能を使って、レジスタr2に格納される画素値を入力画像に対しての有効範囲でクリッピングして、その結果をレジスタr3に格納する[B5]。この有効範囲は入力画像のビット深度によって決定され、8ビットの画像の場合には、最小値は0で最大値は255となる。
続いて、レジスタr3に格納される画素値を、画素 pixについての符号化対象画像に対する予測画像Pred[・]として出力する[B6]。
なお、ここではレジスタを利用したが、レジスタを利用しない構成を採ることも可能である。また、B4やB5の処理において、処理結果を別のレジスタに格納するという構成を採ったが、レジスタr0に上書きするようにしてもよい。また、加算処理を1つのレジスタを用いて行える場合には、レジスタr1に合成画像 Syn[・]の値を読み込む必要はなく、直接加算を実行するようにしてもよい。また、この処理フローでは、各画素についての予測画像Pred[・]を逐次出力するようにしているが、バッファリングを行って一度に出力を行うようにしてもよい。
図4A,4Bに、実施形態例1の映像符号化装置100と、多視点映像を符号化する従来の映像符号化装置とを比較する図を示す。
ここで、図4Aに示す構成が実施形態例1の映像符号化装置100の構成で、図4Bに示す構成が多視点映像を符号化する従来の映像符号化装置の構成である。また、図中に示す一番細い線はNビットを処理する構成部分で、その次に太い線はN+1ビットを処理する構成部分で、一番太い線はN+2ビットを処理する構成部分である。
実施形態例1の映像符号化装置100では、入力映像とそれに対する合成映像との差分映像に対する予測信号を生成して、その生成した予測差分映像と合成映像との和を入力映像に対する予測信号として、入力映像とそれに対する予測映像との差分を符号化するという方法を用いており、これから1回の差分しか実行しないので、図4Aに示すように、動画像を符号化する通常の映像符号化装置と同じビット深度で符号化を行うことができる。
これに対して、多視点映像を符号化する従来の映像符号化装置では、入力映像とそれに対する合成映像との差分映像を生成して、その生成した差分映像を動画像符号化するという方法を用いており、これから2回の差分を実行する必要があるので、図4Bに示すように、動画像を符号化する通常の映像符号化装置よりもビット深度が増加する。
このように、本発明の実施形態によれば、入力映像とそれに対する合成映像との差分映像に対する予測信号を生成して、その生成した予測差分映像と合成映像との和を入力映像に対する予測信号とすることで、差分映像を用いた高効率な符号化を少ない回路規模・実装規模で実現することができるようになる。
しかも、従来技術では、入力映像とそれに対する合成映像との差分映像を生成して、その生成した差分映像を動画像符号化するという方法を用いていたことで、画素値が許される値の最大値や最小値になっている部分で無駄な信号を符号化してしまうという問題があったが、本発明の実施形態では画素値の値をそれが許される最大値や最小値にクリッピングするという構成を採ることから、そのような問題も起こらない。
〔2〕実施形態例2
次に、第2の実施形態例(以下、実施形態例2と記載する)について説明する。
図5に、本発明の実施形態例2にかかる映像符号化装置200の構成を図示する。
この図に示すように、実施形態例2の映像符号化装置200は、画像入力部201と、合成画像入力部202と、第1の予測画像生成部203と、第2の予測画像生成部204と、予測残差符号化部205と、予測残差復号部206と、画像復号部207と、復号画像メモリ208と、差分画像メモリ209と、予測差分画像生成部210と、予測切替スイッチ211とを備える。
この画像入力部201は、符号化対象となるカメラで撮影された映像(画像)を入力する。合成画像入力部202は、そのカメラに対する合成画像(合成映像)を入力する。
第1の予測画像生成部203は、差分画像(入力画像と合成画像との差分画像)に対しての予測に基づいて、入力画像に対しての予測画像を生成するものであり、図3の処理フローと同様の処理を実行することで、クリッピング処理を施しつつ、予測差分画像生成部210の生成した予測差分画像(差分画像に対しての予測画像)と、合成画像入力部202の入力した合成画像とを加算することで、入力画像に対しての予測画像を生成する。
第2の予測画像生成部204は、復号画像に基づいて、入力画像に対しての予測画像を生成するものであり、差分画像を用いずに、復号画像メモリ208に格納される復号画像を使って、入力画像に対しての予測画像を生成する。
予測残差符号化部205は、画像入力部201の入力した入力画像と第1の予測画像生成部203あるいは第2の予測画像生成部204の生成した予測画像との予測残差を符号化して符号化データを出力する。予測残差復号部206は、予測残差符号化部205の符号化した予測残差を復号する。
画像復号部207は、予測残差復号部206の復号した予測残差と第1の予測画像生成部203あるいは第2の予測画像生成部204の生成した予測画像とを加算することで、復号画像を生成する。復号画像メモリ208は、画像復号部207の生成した復号画像を蓄積する。
差分画像メモリ209は、画像復号部207の復号した復号画像と合成画像入力部202の入力した合成画像との差分で表される差分画像を蓄積する。
予測差分画像生成部210は、差分画像メモリ209に蓄積される差分画像を用いて、入力画像と合成画像との差分で表される差分画像に対しての予測画像(予測差分画像)を生成する。
予測切替スイッチ211は、第1の予測画像生成部203の生成した予測画像か、第2の予測画像生成部204の生成した予測画像のいずれか一方を選択して出力する。
図6に、このように構成される実施形態例2の映像符号化装置200の実行する処理フローを示す。
この処理フローは、実施形態例2の映像符号化装置200によってある時刻の画像を符号化する際の処理を示すものであり、複数フレームの符号化を行う際には、この処理フローが繰り返し実行されることになる。
以下では、この処理フローに従って、実施形態例2の映像符号化装置200の実行する処理について詳細に説明する。ここで、前述の実施形態例1で用いた記号をそのまま用いて説明する。
実施形態例2の映像符号化装置200では、まず、画像入力部201で、符号化対象画像 Org[・]を入力し[C1]、合成画像入力部202で、ここで入力された Org[・]に対する合成画像 Syn[・]を入力する[C2]。
本実施形態例2でも、画像全体を複数のブロックに分割し、ブロックごとに処理を繰り返すことで画像全体を符号化する。なお、必ずしもブロック状に分割する必要はなく、任意の形状に分割しても構わないし、分割を行わなくても構わない。以下では、実施形態例1と同様に、ブロックのインデックスをblk 、画像に含まれるブロック数をnumBlkと表す。
従って、blk を0に初期化した後[C3]、blk に1を加算しながら[C15]、blk がnumBlkになるまで[C16]、以下の処理[C4−C14]を繰り返すことで符号化を行う。
ブロック毎に繰り返される処理では、最初に予測画像を生成する[C4−C7]。本実施形態例2では、第1の予測画像生成部203で、差分画像を使って予測画像を生成し(以下、この予測画像を差分予測画像DiffPred[・]と記載する)、第2の予測画像生成部204で、差分画像を使わずに復号画像を使って予測画像を生成して(以下、この予測画像を復号予測画像 DecPred[・]と記載する)、それらを用いて1つの予測画像を生成する。
差分予測画像DiffPred[・]の生成処理については、まず、予測差分画像生成部210で、差分画像メモリ209に蓄えられている既に符号化済みの別の時刻のフレームや符号化対象フレーム内の既に符号化済みのブロックを用いて、予測差分画像PredDiff[・]を生成する[C4]。次に、第1の予測画像生成部203で、予測差分画像PredDiff[・]と合成画像 Syn[・]との和で表される差分予測画像DiffPred[・]を生成する[C5]。
この際、各画素の値は有効な範囲にクリッピングされる。画素値の有効範囲は入力画像のビット深度によって決定され、8ビットの画像の場合、最小値は0で最大値は255となる。このクリッピング処理は、数式を用いると次の式(6)で表される。なお、このC4、C5で行われる処理は、実施形態例1のそれぞれA4、A5で行われる処理と同じである。
∀(x,y) ∈blk, DiffPred[t,x,y]=Clip(PredDiff[t,x,y]+Syn[t,x,y], min, max) ・・・式(6)
一方、復号予測画像 DecPred[・]の生成処理については、第2の予測画像生成部204で、復号画像メモリ208に蓄えられている既に符号化済みの別の時刻のフレームや符号化対象フレーム内の既に符号化済みのブロックの復号画像 Dec[・]を用いて行う[C6]。
この復号予測画像 DecPred[・]の生成法としては、前述の非特許文献1で示されるような既存の映像符号化方式で用いられている任意の方法を用いることができる。
例えば、次の式(7)のように、別の時刻のフレームにおいて、ある領域を指定してそのコピーを予測値としても構わないし、式(8)のように、同じ時刻のフレームの既に符号化済みの周辺画素からDirectional な予測をしても構わない。
∀(x,y) ∈blk, DecPred[t,x,y]=Dec[t-1,x+mvx,y+mvy ] ・・・式(7)
∀(x,y) ∈blk, DecPred[t,x,y]=Dec[t,x,up_line] ・・・式(8)
本実施形態例2では、予測画像は予測切替スイッチ211を用いて、第1の予測画像生成部203の生成した差分予測画像DiffPred[・]か、第2の予測画像生成部204の生成した復号予測画像 DecPred[・]かのどちらか一方を選択することで生成する[C7]。この他に、対応する画素同士の平均値を用いて予測画像とする方法もある。
なお、ここでは、2つの予測画像を選択するのに、どのような方法を用いて選択を行っても構わない。例えば、一度符号化を行って符号化効率の良い方を選んでもいいし、符号化対象画像 Org[・]に対する予測効率を差分絶対値和や差分二乗和を用いて計測し、効率の良い方を選んでも構わない。
また、入力画像に応じて、フレーム毎、フレーム内の部分領域毎、ブロック毎などで、適宜切り替えて選択することも可能である。
予測画像を生成したら、入力画像 Org[・]と予測切替スイッチ211の出力する予測画像との差分で表される予測残差 Res[・]を生成する[C8]。この生成処理は、数式を用いると前述の式(4)で表される。
予測残差 Res[・]を生成すると、予測残差符号化部205で、この予測残差 Res[・]を符号化する[C9]。予測残差の符号化にはどのような方式を用いても構わない。
このようにして生成した予測残差 Res[・]の符号化データは映像符号化装置200の出力となる一方で、予測残差復号部206に送られ、予測残差復号部206で、以降の予測のために復号する[C10]。
予測残差復号部206で復号された予測残差DecRes[・]は画像復号部207に送られ、画像復号部207で、予測切替スイッチ211の出力する予測画像を用いて復号画像 Dec[・]を生成する[C11]。
この際、画素値の有効最小値と画素値の有効最大値とによってクリッピングが行われる。このクリッピング処理は、数式を用いると次の式(9)で表される。
∀(x,y) ∈blk, Dec[t,x,y]=Clip(DecRes[t,x,y]+Pred[t,x,y],min,max)
・・・式(9)
画像復号部207により生成された復号画像 Dec[・]は復号画像メモリ208に格納され、以降のブロックを符号化する際の予測に利用される[C12]。
また、この復号画像 Dec[・]と合成画像 Syn[・]とを用いて、復号差分画像 DecDiff[・]を、次の式(10)に従って生成する[C13]。
∀(x,y) ∈blk, DecDiff[t,x,y]=Dec[t,x,y]−Syn[t,x,y] ・・・式(10)
このように生成された復号差分画像 DecDiff[・]は差分画像メモリ209に格納され、以降のブロックを符号化する際の予測に利用される[C14]。
このようにして、実施形態例2の映像符号化装置200は、入力画像と合成画像との差分画像に対する予測信号を生成して、その生成した予測差分画像と合成画像との和を入力画像に対する予測信号として、入力画像の符号化を行うのである。
図7A,7Bに、実施形態例2の映像符号化装置200と、これに対応した多視点映像を符号化する従来の映像符号化装置とを比較する図を示す。
ここで、図7Aに示す構成が実施形態例2の映像符号化装置200の構成で、図7Bに示す構成がこれに対応した多視点映像を符号化する従来の映像符号化装置の構成である。また、図中に示す一番細い線はNビットを処理する構成部分で、その次に太い線はN+1ビットを処理する構成部分で、一番太い線はN+2ビットを処理する構成部分で、破線は処理するビットが切り替えられる構成部分である。
実施形態例2の映像符号化装置200では、入力映像とそれに対する合成映像との差分映像に対する予測信号を生成して、その生成した予測差分映像と合成映像との和を入力映像に対する予測信号として、入力映像とそれに対する予測映像との差分を符号化するという方法を用いており、これから1回の差分しか実行しないので、図7Aに示すように、動画像を符号化する通常の映像符号化装置と同じビット深度で符号化を行うことができる。
これに対して、多視点映像を符号化する従来の映像符号化装置では、入力映像とそれに対する合成映像との差分映像を生成して、その生成した差分映像を動画像符号化するという方法を用いており、これから2回の差分を実行する必要があるので、図7Bに示すように、動画像を符号化する通常の映像符号化装置よりもビット深度が増加する。
さらに、図7Aと図7Bとを比較すれば分かるように、実施形態例2の映像符号化装置200では、差分映像上で予測を行う場合であっても、入力映像上で予測を行う場合であっても、符号化器が取り扱う入力信号は入力映像であり、予測信号は入力映像に対する予測映像となるため、同じ入力信号と符号化器を使って符号化を行うことが可能となる。
〔3〕実施形態例3
次に、第3の実施形態例(以下、実施形態例3と記載する)について説明する。
図8に、本発明の実施形態例3にかかる映像復号装置300の構成を図示する。
この図に示すように、実施形態例3の映像復号装置300は、符号化データ入力部301と、合成画像入力部302と、予測残差復号部303と、差分画像復号部304と、差分画像メモリ305と、予測差分画像生成部306と、画像復号部307とを備える。
この符号化データ入力部301は、実施形態例1の映像符号化装置100により生成された符号化データ(復号対象となるカメラで撮影された映像の符号化データ)を入力する。合成画像入力部302は、そのカメラに対する合成映像(合成画像、即ち、視差補償画像)を入力する。予測残差復号部303は、符号化データに含まれる予測残差を復号する。
差分画像復号部304は、合成画像入力部302の入力した合成画像に従って処理範囲を決定しつつ、予測差分画像生成部306の生成した予測差分画像(復号対象画像と合成画像との差分画像に対しての予測画像)と、予測残差復号部303の復号した予測残差とを加算することで、復号対象画像と合成画像との差分で表される差分画像を生成する。差分画像メモリ305は、差分画像復号部304の生成した差分画像を蓄積する。
予測差分画像生成部306は、差分画像メモリ305に蓄積される差分画像を用いて、復号対象画像と合成画像との差分で表される差分画像に対しての予測画像(予測差分画像)を生成する。
画像復号部307は、差分画像復号部304の生成した差分画像と、合成画像入力部302の入力した合成画像とを加算することで、復号対象の画像を復号する。
図9に、このように構成される実施形態例3の映像復号装置300の実行する処理フローを示す。
この処理フローは、実施形態例3の映像復号装置300によってある時刻の画像の符号化データを復号する際の処理を示すものであり、複数フレームの復号を行う際には、この処理フローが繰り返し実行されることになる。
以下では、この処理フローに従って、実施形態例3の映像復号装置300の実行する処理について詳細に説明する。ここで、前述の実施形態例1や実施形態例2で用いた記号をそのまま用いて説明する。
実施形態例3の映像復号装置300では、まず、符号化データ入力部301で、復号対象画像の符号化データを入力する[D1]。次に、合成画像入力部302で、復号対象画像に対する合成画像を入力する[D2]。
本実施形態例3では、画像全体は複数のブロックに分割されて符号化されていることを想定しており、ブロックごとに処理を繰り返すことで画像全体を復号することとする。なお、必ずしもブロック状に分割されている必要はなく、任意の形状に分割されていても構わないし、分割されていなくても構わない。以下では、ブロックのインデックスをblk 、画像に含まれるブロック数をnumBlkと表す。
従って、blk を0に初期化した後[D3]、blk に1を加算しながら[D9]、blk がnumBlkになるまで[D10]、以下の処理[D4−D8]を繰り返すことで復号を行う。
すなわち、ブロック毎に繰り返される処理では、まず、予測残差復号部303で、入力した符号化データに含まれる予測残差を復号する[D4]。
次に、予測差分画像生成部306で、差分画像メモリ305に蓄えられている既に復号済みの別の時刻のフレームや復号対象フレーム内の既に復号済みのブロックを用いて、予測差分画像を生成する[D5]。
ここで、予測差分画像の生成法が複数存在するときは、符号化データに含まれるブロックblk での(符号化時の)予測方法を示す情報を用いて1つの生成法を特定し、それに基づいて予測差分画像を生成することになる。
予測差分画像生成部306により予測差分画像が生成されたら、続いて、差分画像復号部304で、生成された予測差分画像と復号された予測残差との和で表される復号差分画像を生成する[D6]。
この際、画素値の有効最小値と画素値の有効最大値とによって、実施形態例1のA9で行われるクリッピング処理と同じクリッピング処理(前述の式(5)で表されるクリッピング処理)が行われる。なお、このクリッピングは行っても構わないし、行わなくてもよい。ただし、クリッピングを行う場合には、符号化器と復号器とで同じ処理をする必要がある。
差分画像復号部304により生成された復号差分画像は差分画像メモリ305に格納され、以降のブロックを復号する際の予測差分画像生成に利用される[D7]。
差分画像復号部304により復号差分画像が生成されたら、画像復号部307で、復号差分画像と合成画像との和で表される復号画像を生成する[D8]。
この際、各画素の値は有効な範囲にクリッピングされる。ただし、D6でクリッピングが行われている場合には、ここでのクリッピングを行う必要はない。このクリッピング処理は、数式を用いると次の式(11)で表される。
∀(x,y) ∈blk, Dec[t,x,y]=Clip(DecDiff[t,x,y]+Syn[t,x,y], min, max) ・・・式(11)
このようにして生成された復号画像が映像復号装置300の出力となる。なお、実施形態例3では、復号された画像がすぐに出力されるが、符号化→復号の順において適正な表示タイミングになっていない場合には、出力前にバッファリングされて適切な表示タイミングが来たときに映像復号装置300から出力されることになる。
ここで、図9に示す処理フローでは、符号化データに含まれる復号対象画像の予測残差を復号するとともに、復号対象画像の既に復号済み領域の画像と合成画像との差で表される差分画像を用いて、これから復号する領域における差分画像の予測画像を生成してから、その生成した予測差分画像と復号した予測残差とを足し合わせることで、復号差分画像を得て、その復号差分画像と合成画像とを足し合わせることで復号画像を復号するという構成を採ったが、復号画像の生成順序はこれに限られるものではない。
すなわち、符号化データに含まれる復号対象画像の予測残差を復号するとともに、復号対象画像の既に復号済み領域の画像と合成画像との差で表される差分画像を用いて、これから復号する領域における差分画像の予測画像を生成してから、その生成した予測差分画像と合成画像とを足し合わせることで復号対象画像の予測画像を得て、その復号対象画像の予測画像と復号した予測残差とを足し合わせることで復号画像を復号するという構成を採ってもよい。
〔4〕実施形態例4
次に、第4の実施形態例(以下、実施形態例4と記載する)について説明する。
図10に、本発明の実施形態例4にかかる映像復号装置400の構成を図示する。
この図に示すように、実施形態例4の映像復号装置400は、符号化データ入力部401と、合成画像入力部402と、予測残差復号部403と、画像復号部404と、復号画像メモリ405と、差分画像メモリ406と、予測差分画像生成部407と、第1の予測画像生成部408と、第2の予測画像生成部409と、予測切替スイッチ410とを備える。
この符号化データ入力部401は、実施形態例2の映像符号化装置200により生成された符号化データ(復号対象となるカメラで撮影された映像の符号化データ)を入力する。合成画像入力部402は、そのカメラに対する合成映像(合成画像)を入力する。予測残差復号部403は、符号化データに含まれる予測残差を復号する。
画像復号部404は、予測残差復号部403の復号した予測残差と第1の予測画像生成部408あるいは第2の予測画像生成部409の生成した予測画像とを加算することで、復号対象の画像を復号する。復号画像メモリ405は、画像復号部404の復号した復号画像を蓄積する。
差分画像メモリ406は、画像復号部404の復号した復号画像と合成画像入力部402の入力した合成画像との差分で表される差分画像(復号差分画像)を蓄積する。
予測差分画像生成部407は、差分画像メモリ406に蓄積される差分画像を用いて、復号対象画像と合成画像との差分で表される差分画像に対しての予測画像(予測差分画像)を生成する。
第1の予測画像生成部408は、予測差分画像生成部407の生成した予測差分画像と、合成画像入力部402の入力した合成画像とを加算することで、復号対象画像に対しての予測画像を生成する。
第2の予測画像生成部409は、復号画像メモリ405に蓄積される復号画像に基づいて、復号対象画像に対しての予測画像を生成する。
予測切替スイッチ410は、第1の予測画像生成部408の生成した予測画像か、第2の予測画像生成部409の生成した予測画像のいずれか一方を選択して出力する。
図11に、このように構成される実施形態例4の映像復号装置400の実行する処理フローを示す。
この処理フローは、実施形態例4の映像復号装置400によってある時刻の画像の符号化データを復号する際の処理を示すものであり、複数フレームの復号を行う際には、この処理フローが繰り返し実行されることになる。
以下では、この処理フローに従って、実施形態例4の映像復号装置400の実行する処理について詳細に説明する。ここで、前述の実施形態例1〜3で用いた記号をそのまま用いて説明する。
実施形態例4の映像復号装置400では、まず、符号化データ入力部401で、復号対象画像の符号化データを入力する[E1]。次に、合成画像入力部402で、復号対象画像に対する合成画像を入力する[E2]。
本実施形態例4では、画像全体は複数のブロックに分割されて符号化されていることを想定しており、ブロックごとに処理を繰り返すことで画像全体を復号することとする。なお、必ずしもブロック状に分割されている必要はなく、任意の形状に分割されていても構わないし、分割をされていなくても構わない。以下では、ブロックのインデックスをblk 、画像に含まれるブロック数をnumBlkと表す。
従って、blk を0に初期化した後[E3]、blk に1を加算しながら[E10]、blk がnumBlkになるまで[E11]、以下の処理[E4−E9]を繰り返すことで復号を行う。
すなわち、ブロック毎に繰り返される処理では、まず、予測残差復号部403で、入力した符号化データに含まれる予測残差を復号する[E4]。
次に、第1の予測画像生成部408で、差分画像メモリ406に蓄えられている既に復号済みの別の時刻のフレームや復号対象フレーム内の既に復号済みのブロックの復号差分画像を用いて予測画像を生成したり、第2の予測画像生成部409で、復号画像メモリ405に蓄えられている既に復号済みの別の時刻のフレームの復号画像を用いて予測画像を生成する[E5]。
ここで、予測画像の生成法は何らかの方法により各ブロックについて1つの生成法が決定される。この決定は、これまでに復号した画像やブロックの情報を用いて決定しても構わないし、符号化データに含まれる予測方法を指定する情報によって決定しても構わない。ただし、映像符号化装置が想定する決定法を用いることが必要である。
本実施形態例4では、第1の予測画像生成部408による差分画像を用いた予測を行うか、第2の予測画像生成部409による差分画像を用いない予測を行うかを、予測切替スイッチ410を用いて切り替えている。
第1の予測画像生成部408を使う差分画像を用いる予測を行う場合には、まず、予測差分画像生成部407で、差分画像メモリ406に蓄えられている差分画像を用いて予測差分画像を生成する。次に、第1の予測画像生成部408で、予測差分画像と合成画像との和で表される予測画像を生成する。この予測画像が復号対象画像に対する予測画像となる。
この際、画素値の有効最小値と画素値の有効最大値とによって、実施形態例2のC4,C5で行われるクリッピング処理と同じクリッピング処理(前述の式(6)で表されるクリッピング処理)が行われる。なお、このクリッピングは行っても構わないし、行わなくてもよい。ただし、クリッピングを行う場合には、符号化器と復号器とで同じ処理をする必要がある。
一方、第2の予測画像生成部409を使う差分画像を用いない予測を行う場合は、第2の予測画像生成部409で、復号画像メモリ405に蓄えられている復号画像を用いて予測画像を生成する。予測画像が復号対象画像に対する予測画像となる。なお、ここで行われる処理は実施形態例2のC6で行われる処理と同じである。
本実施形態例4では、第2の予測画像生成部409と予測差分画像生成部407とを備えているが、両者で行う予測法が同じ場合、入力する画像メモリを切り替えることで1つの予測画像生成部で構成することもできる。その場合、予測画像生成部の出力は差分画像を用いた予測を行った場合にのみ第1の予測画像生成部408に入力されるようになっている必要がある。つまり、連動して動作するスイッチが2つ必要になる。
第1の予測画像生成部408や第2の予測画像生成部409により予測画像が生成されたら、画像復号部404で、その予測画像と予測残差復号部403により復号された予測残差との和で表される復号画像を生成する[E6]。
この際、各画素の値は有効な範囲にクリッピングされる。このクリッピング処理は、実施形態例2のC11で行われる処理と同じである。数式を用いると前述の式(9)で表される。
このようにして生成された復号画像は復号画像メモリ405に格納され、以降のブロックを復号する際の予測画像生成に利用される[E7]。
また、この復号画像と合成画像とを用いて、前述の式(10)に従って、復号差分画像を生成する[E8]。この生成された復号差分画像は差分画像メモリ406に格納され、以降のブロックを復号する際の予測画像生成に利用される[E9]。
E6で生成された復号画像が映像復号装置400の出力となる。なお、本実施形態例4では、復号された画像がすぐに出力されるが、符号化→復号の順において適正な表示タイミングになっていない場合には、出力前にバッファリングされて適切な表示タイミングが来たときに映像復号装置400から出力されることになる。
本発明は、多視点映像の符号化に適用できるものであり、差分映像を用いた高効率な符号化を少ない回路規模・実装規模で実現することができるようになる。

Claims (30)

  1. 視点の異なる複数のカメラにより撮影された多視点画像を符号化するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に符号済みの参照カメラ画像と、その参照カメラ画像と符号化対象の画像との間の視差情報とから、符号化対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて符号化対象の画像を符号化する映像符号化装置であって、
    これから符号化する符号化対象領域の入力画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測手段と、
    前記差分画像予測手段の生成した予測差分画像と符号化対象領域の前記合成画像との和で表される、その領域の予測画像を生成する予測画像生成手段と、
    前記予測画像生成手段の生成した符号化対象領域の予測画像とその領域の符号化対象画像との差で表される、予測残差を符号化する予測残差符号化手段とを備える
    ことを特徴とする映像符号化装置。
  2. 請求項1に記載の映像符号化装置において、
    前記差分画像予測手段は、符号化対象画像の既に符号化済み領域の復号画像とその領域の前記合成画像との差で表される、符号化対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化装置。
  3. 請求項1に記載の映像符号化装置において、
    前記差分画像予測手段は、符号化対象画像を撮影した視点で撮影された既に符号化済みの画像の復号画像とその復号画像と同じ時刻の前記合成画像との差で表される、符号化対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化装置。
  4. 請求項1に記載の映像符号化装置において、
    符号化対象画像の符号化データを復号して、符号化対象画像の復号画像を生成する画像復号手段と、
    前記画像復号手段の復号した復号画像と前記合成画像との差で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積手段とを備え、
    前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化装置。
  5. 請求項1に記載の映像符号化装置において、
    前記予測残差符号化手段の符号化した予測残差を復号する予測残差復号手段と、
    前記予測残差復号手段の復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積手段とを備え、
    前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化装置。
  6. 請求項1に記載の映像符号化装置において、
    符号化対象画像の既に符号化済みの領域の復号画像および、符号化対象画像を撮影した視点で撮影され、かつ、符号化対象画像とは別の時刻に撮影された既に符号化済みの画像の復号画像のいずれかを用いて、符号化対象画像の予測画像を生成する元画像予測手段を備え、
    前記予測画像生成手段は、選択的に、前記予測差分画像と前記合成画像とに基づいて符号化対象領域の予測画像を生成するか、前記元画像予測手段の生成した予測画像をそのまま利用して符号化対象領域の予測画像を生成するかのいずれかを実行する
    ことを特徴とする映像符号化装置。
  7. 請求項1に記載の映像符号化装置において、
    前記予測画像生成手段は、前記予測画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う
    ことを特徴とする映像符号化装置。
  8. 請求項5に記載の映像符号化装置において、
    前記復号差分画像生成蓄積手段は、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う
    ことを特徴とする映像符号化装置。
  9. 視点の異なる複数のカメラにより撮影された多視点画像の符号化データを復号するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に復号済みの参照カメラ画像と、その参照カメラ画像と復号対象の画像との間の視差情報とから、復号対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて復号対象の画像の符号化データを復号する映像復号装置であって、
    符号化データに含まれる復号対象画像の予測残差を復号する予測残差復号手段と、
    これから復号する復号対象領域の復号対象画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測手段と、
    復号対象領域について、前記差分画像予測手段の生成した予測差分画像と、前記予測残差復号手段の復号した予測残差と、前記合成画像とを足し合わせることで、復号対象画像を復号する画像復号手段とを備える
    ことを特徴とする映像復号装置。
  10. 請求項9に記載の映像復号装置において、
    前記差分画像予測手段は、復号対象画像の既に復号済み領域の復号画像とその領域の前記合成画像との差で表される、復号対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号装置。
  11. 請求項9に記載の映像復号装置において、
    前記差分画像予測手段は、復号対象画像を撮影した視点で撮影された既に復号済みの参照画像とその参照画像と同じ時刻の前記合成画像との差で表される、復号対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号装置。
  12. 請求項9に記載の映像復号装置において、
    前記画像復号手段の生成した復号画像と前記合成画像との差で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積手段を備え、
    前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号装置。
  13. 請求項9に記載の映像復号装置において、
    前記予測残差復号手段の復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積手段を備え、
    前記差分画像予測手段は、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号装置。
  14. 請求項9に記載の映像復号装置において、
    復号対象画像の既に復号済みの画像および、復号対象画像を撮影した視点で撮影され、かつ、復号対象画像とは別の時刻に撮影された既に復号済みの画像のいずれかを用いて、復号対象画像の予測画像を生成する元画像予測手段を備え、
    前記画像復号手段は、復号対象領域について、選択的に、前記差分画像予測手段の生成した予測差分画像と、前記予測残差復号手段の復号した予測残差と、前記合成画像とを足し合わせることで復号対象画像を復号するか、前記元画像予測手段の生成した予測画像と、前記予測残差復号手段の復号した予測残差とを足し合わせることで復号対象画像を復号するかのいずれかを実行する
    ことを特徴とする映像復号装置。
  15. 請求項13に記載の映像復号装置において、
    前記復号差分画像生成蓄積手段は、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う
    ことを特徴とする映像復号装置。
  16. 視点の異なる複数のカメラにより撮影された多視点画像を符号化するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に符号済みの参照カメラ画像と、その参照カメラ画像と符号化対象の画像との間の視差情報とから、符号化対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて符号化対象の画像を符号化する映像符号化方法であって、
    これから符号化する符号化対象領域の入力画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測ステップと、
    前記差分画像予測ステップで生成した予測差分画像と符号化対象領域の前記合成画像との和で表される、その領域の予測画像を生成する予測画像生成ステップと、
    前記予測画像生成ステップで生成した符号化対象領域の予測画像とその領域の符号化対象画像との差で表される、予測残差を符号化する予測残差符号化ステップとを備える
    ことを特徴とする映像符号化方法。
  17. 請求項16に記載の映像符号化方法において、
    前記差分画像予測ステップでは、符号化対象画像の既に符号化済み領域の復号画像とその領域の前記合成画像との差で表される、符号化対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化方法。
  18. 請求項16に記載の映像符号化方法において、
    前記差分画像予測ステップでは、符号化対象画像を撮影した視点で撮影された既に符号化済みの画像の復号画像とその復号画像と同じ時刻の前記合成画像との差で表される、符号化対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化方法。
  19. 請求項16に記載の映像符号化方法において、
    前記予測残差符号化ステップで符号化した予測残差を復号する予測残差復号ステップと、
    前記予測残差復号ステップで復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、その生成した復号差分画像を蓄積メモリに蓄積する復号差分画像生成蓄積ステップとを備え、
    前記差分画像予測ステップでは、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記符号化対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像符号化方法。
  20. 請求項16に記載の映像符号化方法において、
    符号化対象画像の既に符号化済みの領域の復号画像および、符号化対象画像を撮影した視点で撮影され、かつ、符号化対象画像とは別の時刻に撮影された既に符号化済みの画像の復号画像のいずれかを用いて、符号化対象画像の予測画像を生成する元画像予測ステップを備え、
    前記予測画像生成ステップでは、選択的に、前記予測差分画像と前記合成画像とに基づいて符号化対象領域の予測画像を生成するか、前記元画像予測ステップで生成した予測画像をそのまま利用して符号化対象領域の予測画像を生成するかのいずれかを実行する
    ことを特徴とする映像符号化方法。
  21. 視点の異なる複数のカメラにより撮影された多視点画像の符号化データを復号するにあたり、符号化対象の画像を撮影したカメラの視点と異なる少なくとも1つの視点における既に復号済みの参照カメラ画像と、その参照カメラ画像と復号対象の画像との間の視差情報とから、復号対象の画像を撮影したカメラに対する合成画像を生成し、その合成画像を用いて復号対象の画像の符号化データを復号する映像復号方法であって、
    符号化データに含まれる復号対象画像の予測残差を復号する予測残差復号ステップと、
    これから復号する復号対象領域の復号対象画像と、それに対する前記合成画像との差分画像の予測画像を生成する差分画像予測ステップと、
    復号対象領域について、前記差分画像予測ステップで生成した予測差分画像と、前記予測残差復号ステップで復号した予測残差と、前記合成画像とを足し合わせることで、復号対象画像を復号する画像復号ステップとを備える
    ことを特徴とする映像復号方法。
  22. 請求項21に記載の映像復号方法において、
    前記差分画像予測ステップでは、復号対象画像の既に復号済み領域の復号画像とその領域の前記合成画像との差で表される、復号対象画像が撮影された時刻と同じ時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号方法。
  23. 請求項21に記載の映像復号方法において、
    前記差分画像予測ステップでは、復号対象画像を撮影した視点で撮影された既に復号済みの参照画像とその参照画像と同じ時刻の前記合成画像との差で表される、復号対象画像が撮影された時刻とは別の時刻の差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号方法。
  24. 請求項21に記載の映像復号方法において、
    前記予測残差復号ステップで復号した復号予測残差と前記予測差分画像との和で表される復号差分画像を生成して、蓄積メモリに蓄積する復号差分画像生成蓄積ステップを備え、
    前記差分画像予測ステップでは、前記蓄積メモリに蓄積されている復号差分画像を用いて、前記復号対象領域の差分画像の予測画像を生成する
    ことを特徴とする映像復号方法。
  25. 請求項21に記載の映像復号方法において、
    復号対象画像の既に復号済みの画像および、復号対象画像を撮影した視点で撮影され、かつ、復号対象画像とは別の時刻に撮影された既に復号済みの画像のいずれかを用いて、復号対象画像の予測画像を生成する元画像予測ステップを備え、
    前記画像復号ステップでは、復号対象領域について、選択的に、前記差分画像予測ステップで生成した予測差分画像と、前記予測残差復号ステップで復号した予測残差と、前記合成画像とを足し合わせることで復号対象画像を復号するか、前記元画像予測ステップで生成した予測画像と、前記予測残差復号ステップで復号した予測残差とを足し合わせることで復号対象画像を復号するかのいずれかを実行する
    ことを特徴とする映像復号方法。
  26. 請求項24に記載の映像復号方法において、
    前記復号差分画像生成蓄積ステップでは、前記復号差分画像の各画素が、所定の有効範囲内の画素値を有するようにクリッピングを行う
    ことを特徴とする映像復号方法。
  27. 請求項1に記載の映像符号化装置の実現に用いられる処理をコンピュータに実行させるための映像符号化プログラム。
  28. 請求項1に記載の映像符号化装置の実現に用いられる処理をコンピュータに実行させるための映像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  29. 請求項9に記載の映像復号装置の実現に用いられる処理をコンピュータに実行させるための映像復号プログラム。
  30. 請求項9に記載の映像復号装置の実現に用いられる処理をコンピュータに実行させるための映像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2009520575A 2007-06-25 2008-06-23 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 Active JP5197591B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009520575A JP5197591B2 (ja) 2007-06-25 2008-06-23 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007165828 2007-06-25
JP2007165828 2007-06-25
PCT/JP2008/061398 WO2009001791A1 (ja) 2007-06-25 2008-06-23 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP2009520575A JP5197591B2 (ja) 2007-06-25 2008-06-23 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JPWO2009001791A1 JPWO2009001791A1 (ja) 2010-08-26
JP5197591B2 true JP5197591B2 (ja) 2013-05-15

Family

ID=40185606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009520575A Active JP5197591B2 (ja) 2007-06-25 2008-06-23 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Country Status (10)

Country Link
US (1) US8204118B2 (ja)
EP (1) EP2161937A4 (ja)
JP (1) JP5197591B2 (ja)
KR (1) KR101103723B1 (ja)
CN (1) CN101690234B (ja)
BR (1) BRPI0813261A2 (ja)
CA (1) CA2692250C (ja)
RU (1) RU2444856C2 (ja)
TW (1) TW200910975A (ja)
WO (1) WO2009001791A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US20120314776A1 (en) * 2010-02-24 2012-12-13 Nippon Telegraph And Telephone Corporation Multiview video encoding method, multiview video decoding method, multiview video encoding apparatus, multiview video decoding apparatus, and program
US9456111B2 (en) * 2010-06-15 2016-09-27 Mediatek Inc. System and method for content adaptive clipping
JP2012023652A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
KR20130105814A (ko) * 2010-09-03 2013-09-26 소니 주식회사 부호화 장치 및 부호화 방법, 및 복호 장치 및 복호 방법
JP4964355B2 (ja) * 2010-09-30 2012-06-27 パナソニック株式会社 立体映像符号化装置、立体映像撮影装置、および立体映像符号化方法
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
CN102438167B (zh) * 2011-10-21 2014-03-12 宁波大学 一种基于深度图像绘制的立体视频编码方法
EP3739886A1 (en) * 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
AU2013287481B2 (en) * 2012-07-11 2015-12-10 Lg Electronics Inc. Method and apparatus for processing video signal
JP2014082540A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラム、および装置、ならびに、互いに類似した情報を含む複数画像を表現するデータ構造
CN114531585B (zh) 2016-10-04 2023-03-24 有限公司B1影像技术研究所 图像数据编码/解码方法、介质和发送比特流的方法
US20190141332A1 (en) * 2017-11-08 2019-05-09 Qualcomm Incorporated Use of synthetic frames in video coding

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212763A (ja) * 1994-01-10 1995-08-11 Graphics Commun Lab:Kk スケーラビリティを有する画像符号化方法と装置
JPH10191394A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH11341521A (ja) * 1998-05-28 1999-12-10 Kdd Corp ステレオ動画像用符号化装置
JP2001186543A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd データ符号化装置及び復号化装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法
JP2004007377A (ja) * 2002-04-18 2004-01-08 Toshiba Corp 動画像符号化/復号化方法及び装置
JP2006081161A (ja) * 2004-07-27 2006-03-23 Microsoft Corp オフラインマルチビュービデオ圧縮のシステムおよび方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790086A (en) 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
JPH10191393A (ja) 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
US6055274A (en) * 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
TWI246389B (en) * 2004-06-30 2005-12-21 First Int Computer Inc Fastening base for interface card
US7512261B2 (en) 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
US7671893B2 (en) * 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
US9088802B2 (en) 2005-01-07 2015-07-21 Nippon Telegraph And Telephone Corporation Video encoding method and apparatus, video decoding method and apparatus, programs therefor, and storage media for storing the programs
WO2006129184A1 (en) * 2005-06-03 2006-12-07 Nokia Corporation Residual prediction mode in scalable video coding
JP4414379B2 (ja) 2005-07-28 2010-02-10 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR100813963B1 (ko) * 2005-09-16 2008-03-14 세종대학교산학협력단 동영상의 무손실 부호화, 복호화 방법 및 장치
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
KR100949979B1 (ko) * 2006-03-30 2010-03-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212763A (ja) * 1994-01-10 1995-08-11 Graphics Commun Lab:Kk スケーラビリティを有する画像符号化方法と装置
JPH10191394A (ja) * 1996-12-24 1998-07-21 Sharp Corp 多視点画像符号化装置
JPH11341521A (ja) * 1998-05-28 1999-12-10 Kdd Corp ステレオ動画像用符号化装置
JP2001186543A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd データ符号化装置及び復号化装置
JP2001285895A (ja) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd 画像データ符号化装置及びその方法
JP2004007377A (ja) * 2002-04-18 2004-01-08 Toshiba Corp 動画像符号化/復号化方法及び装置
JP2006081161A (ja) * 2004-07-27 2006-03-23 Microsoft Corp オフラインマルチビュービデオ圧縮のシステムおよび方法

Also Published As

Publication number Publication date
WO2009001791A1 (ja) 2008-12-31
CA2692250C (en) 2013-08-20
KR101103723B1 (ko) 2012-01-11
KR20100022065A (ko) 2010-02-26
BRPI0813261A2 (pt) 2014-12-30
TW200910975A (en) 2009-03-01
RU2009147012A (ru) 2011-06-27
US20100189177A1 (en) 2010-07-29
TWI364221B (ja) 2012-05-11
EP2161937A1 (en) 2010-03-10
CN101690234A (zh) 2010-03-31
JPWO2009001791A1 (ja) 2010-08-26
RU2444856C2 (ru) 2012-03-10
EP2161937A4 (en) 2015-05-20
CN101690234B (zh) 2012-06-20
CA2692250A1 (en) 2008-12-31
US8204118B2 (en) 2012-06-19

Similar Documents

Publication Publication Date Title
JP5197591B2 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP5111127B2 (ja) 動画像符号化装置及びその制御方法、並びに、コンピュータプログラム
JP5234587B2 (ja) 映像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
JP4999864B2 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記憶媒体
US8228989B2 (en) Method and apparatus for encoding and decoding based on inter prediction
US8503532B2 (en) Method and apparatus for inter prediction encoding/decoding an image using sub-pixel motion estimation
EP3174297B1 (en) Video encoding and decoding with improved error resilience
JP5268645B2 (ja) カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
US9171376B2 (en) Apparatus and method for motion estimation of three dimension video
JP4663792B2 (ja) 多視点動映像を符号化及び復号化する装置及び方法
WO2014010584A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP2008167449A (ja) 映像の符号化、復号化方法及び装置
WO2013039031A1 (ja) 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
JP2010021844A (ja) 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2011114755A1 (ja) 多視点画像符号化装置
JP2007228077A (ja) 動画像符号化装置及びその制御方法、コンピュータプログラム、記憶媒体
US20160037172A1 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP2006246277A (ja) 再符号化装置、再符号化方法、および再符号化用プログラム
JP5706291B2 (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
KR20090078114A (ko) 가변적 화면 그룹 예측 구조를 이용한 다시점 영상 부호화방법 및 장치, 영상 복호화 장치 그리고 상기 방법을수행하는 프로그램이 기록된 기록 매체
JP6232117B2 (ja) 画像符号化方法、画像復号方法、及び記録媒体
JP2010288096A (ja) 動画像符号化方法、動画像符号化装置及び動画像符号化プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5197591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350