JP6027143B2 - 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム - Google Patents

画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム Download PDF

Info

Publication number
JP6027143B2
JP6027143B2 JP2014554426A JP2014554426A JP6027143B2 JP 6027143 B2 JP6027143 B2 JP 6027143B2 JP 2014554426 A JP2014554426 A JP 2014554426A JP 2014554426 A JP2014554426 A JP 2014554426A JP 6027143 B2 JP6027143 B2 JP 6027143B2
Authority
JP
Japan
Prior art keywords
image
depth
decoding
disparity vector
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014554426A
Other languages
English (en)
Other versions
JPWO2014103966A1 (ja
Inventor
信哉 志水
信哉 志水
志織 杉本
志織 杉本
木全 英明
英明 木全
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Application granted granted Critical
Publication of JP6027143B2 publication Critical patent/JP6027143B2/ja
Publication of JPWO2014103966A1 publication Critical patent/JPWO2014103966A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、多視点画像を符号化及び復号する画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラムに関する。
本願は、2012年12月27日に、日本に出願された特願2012−284616号に基づき優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像(Multiview images:マルチビューイメージ)が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。以下の説明では1つのカメラで撮影された画像(動画像)を”2次元画像(動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を”多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間(同じ時刻の異なる2次元画像間)で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体ごとに異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、どちらの場合でも、同じ方法でカメラ間の相関を利用することができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した”視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。図15は、カメラ間で生じる視差を示す概念図である。図15に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラ対や位置ごとに変化するため、視差補償予測を行う領域ごとに視差情報を符号化することが必要である。実際に、H.264の多視点動画像符号化方式では、視差補償予測を用いるブロックごとに視差情報を表すベクトルを符号化している。
視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すことができる。被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として表現する場合もある。どのような表現を用いたとしても本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
図16はエピポーラ幾何拘束の概念図である。エピポーラ幾何拘束によれば、あるカメラの画像上の点に対応する別のカメラの画像上の点はエピポーラ線という直線上に拘束される。このとき、その画素に対するデプスが得られた場合、対応点はエピポーラ線上に一意に定まる。例えば、図16に示すように、第1のカメラ画像においてmの位置に投影された被写体に対する第2のカメラ画像での対応点は、実空間における被写体の位置がM’の場合にはエピポーラ線上の位置m’に、実空間における被写体の位置がM’’の場合にはエピポーラ線上の位置m’’に、投影される。
非特許文献2では、この性質を利用して、参照フレームに対するデプスマップ(距離画像)によって与えられる各被写体の3次元情報に従って、参照フレームから符号化対象フレームに対する予測画像を合成することで、精度の高い予測画像を生成し、効率的な多視点動画像の符号化を実現している。なお、このデプスに基づいて生成される予測画像は視点合成画像、視点補間画像、または視差補償画像と呼ばれる。
さらに、特許文献1では、最初に参照フレームに対するデプスマップを符号化対象フレームに対するデプスマップへと変換し、その変換されたデプスマップを用いて対応点を求めることで、必要な領域に対してのみ視点合成画像を生成することを可能にしている。これによって、符号化対象または復号対象となるフレームの領域ごとに、予測画像を生成する方法を切り替えながら画像または動画像を符号化または復号する場合において、視点合成画像を生成するための処理量や、視点合成画像を一時的に蓄積するためのメモリ量の削減を実現している。
特開2010−21844号公報
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009. Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA and Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April, 2006.
特許文献1に記載の方法によれば、符号化対象フレームに対してデプスが得られるため、符号対象フレームの画素から参照フレーム上の対応する画素を求めることが可能となる。これにより、符号化対象フレームの指定された領域のみに対して視点合成画像を生成することで、符号化対象フレームの一部の領域にしか視点合成画像を必要としない場合には、常に1フレーム分の視点合成画像を生成する場合に比べて、処理量や要求されるメモリの量を削減することができる。
しかしながら、符号化対象フレームの全体に対して視点合成画像が必要になる場合は、参照フレームに対するデプスマップから符号化対象フレームに対するデプスマップを合成する必要が生じるため、参照フレームに対するデプスマップから直接、視点合成画像を生成する場合よりも、その処理量が増加してしまうという問題がある。
本発明は、このような事情に鑑みてなされたもので、処理対象フレームの視点合成画像を生成する際に、視点合成画像の品質低下を抑えつつ、少ない演算量で視点合成画像を生成することが可能な画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラムを提供することを目的とする。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、復号対象画像とは異なる視点に対する復号済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、前記復号対象画像を分割した復号対象領域に対して、前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定部と、前記参照デプス領域におけるデプス情報を前記復号対象領域に対するデプス情報として、前記参照画像から、前記復号対象領域に対する視点間予測画像を生成する視点間予測部とを備える。
本発明の画像復号装置は、前記復号対象領域に対して、参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定部をさらに有してもよく、前記参照デプス設定部では、前記デプス参照視差ベクトルによって示される領域を前記参照デプス領域として設定してもよい。
本発明の画像復号装置において、前記デプス参照視差ベクトル設定部では、前記復号対象領域に隣接する領域を復号する際に使用した視差ベクトルを用いて、前記デプス参照視差ベクトルを設定してもよい。
本発明の画像復号装置において、前記デプス参照視差ベクトル設定部では、前記復号対象領域と同位置の前記参照デプスマップ上の領域に対するデプス情報を用いて、前記デプス参照視差ベクトルを設定してもよい。
本発明の画像復号装置において、前記視点間予測部では、前記復号対象領域を分割した予測領域ごとに、対応する前記参照デプス領域内のデプス情報を用いて、代表デプスを設定してもよく、当該代表デプスと前記参照画像から視点合成画像を生成することで、前記復号対象領域に対する視点間予測画像を生成してもよい。
本発明の画像復号装置において、前記視点間予測部では、前記復号対象領域を分割した予測領域ごとに、対応する前記参照デプス領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定してもよく、当該画像参照視差ベクトルと前記参照画像とを用いて視差補償画像を生成することで、前記復号対象領域に対する視点間予測画像を生成してもよい。
本発明の画像復号装置は、前記画像参照視差ベクトルを蓄積する画像参照視差ベクトル蓄積部と、前記蓄積された画像参照視差ベクトルを用いて、前記復号対象領域に隣接する領域に対する予測視差情報を生成する視差予測部とを更に有してもよい。
本発明の画像復号装置において、前記視差予測部では、前記復号対象領域に隣接する領域に対するデプス参照視差ベクトルを生成してもよい。
本発明の画像復号装置において、前記画像参照視差ベクトルを補正するベクトルである補正視差ベクトルを設定する補正視差ベクトル部をさらに有してもよく、前記視点間予測部では、前記画像参照視差ベクトルを前記補正視差ベクトルで補正したベクトルと、前記参照画像とを用いて視差補償画像を生成することで、前記視点間予測画像を生成してもよい。
本発明の画像復号装置において、前記補正視差ベクトル設定部では、前記復号対象領域に対して1つのベクトルを前記補正視差ベクトルとして設定してもよい。
本発明の画像復号装置は、前記参照デプス領域内のデプス情報に基づいて、前記復号対象領域内の領域分割を設定する予測領域分割設定部をさらに有してもよく、前記視点間予測部では、前記領域分割に従って得られる領域を、前記予測領域としてもよい。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、復号対象画像とは異なる視点に対する復号済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、前記復号対象画像を分割した復号対象領域に対して、前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定ステップと、前記参照デプス領域におけるデプス情報を前記復号対象領域に対するデプス情報として、前記参照画像から、前記復号対象領域に対する視点間予測画像を生成する視点間予測ステップとを有する。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記符号化対象画像を分割した符号化対象領域に対して、前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定部と、前記参照デプス領域におけるデプス情報を前記符号化対象領域に対するデプス情報として、前記参照画像から、前記符号化対象領域に対する視点間予測画像を生成する視点間予測部とを備える。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記符号化対象画像を分割した符号化対象領域に対して、前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定ステップと、前記参照デプス領域におけるデプス情報を前記符号化対象領域に対するデプス情報として、前記参照画像から、前記符号化対象領域に対する視点間予測画像を生成する視点間予測ステップとを有する。
本発明は、コンピュータに、前記画像符号化方法を実行させるための画像符号化プログラムである。
本発明は、コンピュータに、前記画像復号方法を実行させるための画像復号プログラムである。
本発明によれば、処理対象フレーム以外に対するデプスマップを用いて、処理対象フレームの視点合成画像を生成する際に、処理対象フレーム以外に対するデプスマップを直接参照して用いることで、処理対象フレームに対してデプスマップを生成する処理を省き、少ない演算量で視点合成画像を生成することができるという効果が得られる。
本発明の一実施形態における画像符号化装置を示すブロック図である。 図1に示す画像符号化装置の動作を示すフローチャートである。 図2に示すブロックblkに対する視点合成画像を生成する処理(ステップS14)の詳細な処理動作を示すフローチャートである。 図1に示す画像符号化装置の変形例を示すブロック図である。 図1に示す画像符号化装置の動作の変形例を示すフローチャートである。 図1に示す画像符号化装置の他の変形例を示すブロック図である。 本発明の一実施形態における画像復号装置を示すブロック図である。 図7に示す画像復号装置の動作を示すフローチャートである。 図7に示す画像復号装置の変形例を示すブロック図である。 図7に示す画像復号装置の動作の変形例を示すフローチャートである。 図7に示す画像復号装置の動作の他の変形例を示すフローチャートである。 図7に示す画像復号装置の他の変形例を示すブロック図である。 画像符号化装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 画像復号装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 カメラ間で生じる視差を示す概念図である。 エピポーラ幾何拘束を示す概念図である。
以下、図面を参照して、本発明の実施形態による画像符号化装置及び画像復号装置を説明する。以下の説明においては、第1のカメラ(カメラAという)、第2のカメラ(カメラBという)の2つのカメラで撮影された多視点画像を符号化する場合を想定し、カメラAの画像を参照画像としてカメラBの画像を符号化または復号するものとして説明する。
なお、デプス情報から視差を得るために必要となる情報は別途与えられているものとする。具体的には、カメラAとカメラBとの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。これらのカメラパラメータに関する詳しい説明は、例えば、文献「Oliver Faugeras, "Three-Dimension Computer Vision", MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
以下の説明では、画像や映像フレーム、デプスマップに対して、記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックス)を付加することで、その位置の画素によってサンプリングされた画像信号や、それに対するデプスを示すものとする。また、座標値やブロックに対応付け可能なインデックス値とベクトルの加算によって、その座標やブロックをベクトルの分だけずらした位置の座標値やブロックを表すものとする。
図1は本実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照画像入力部103、参照画像メモリ104、参照デプスマップ入力部105、参照デプスマップメモリ106、視差ベクトル設定部107、視点合成画像生成部108及び画像符号化部109を備えている。
符号化対象画像入力部101は、符号化対象となる画像を入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここではカメラBの画像を入力するものとする。また、符号化対象画像を撮影したカメラ(ここではカメラB)を符号化対象カメラと称する。
符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。参照画像入力部103は、視点合成画像(視差補償画像)を生成する際に参照する画像を入力する。以下では、ここで入力された画像を参照画像と呼ぶ。ここではカメラAの画像を入力するものとする。
参照画像メモリ104は、入力された参照画像を記憶する。以下では、参照画像を撮影したカメラ(ここではカメラA)を参照カメラと称する。
参照デプスマップ入力部105は、視点合成画像を生成する際に参照するデプスマップを入力する。ここでは、参照画像に対するデプスマップを入力するものとするが、別のカメラに対するデプスマップでも構わない。以下では、このデプスマップを参照デプスマップと称する。
デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここでは視差量が得られれば構わないので、デプスマップではなく、視差量を直接表現した視差マップを用いても構わない。なお、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。参照デプスマップメモリ106は、入力された参照デプスマップを記憶する。以下では、参照デプスマップに対応するカメラ(ここではカメラA)を参照デプスカメラと称する。
視差ベクトル設定部107は、符号化対象フレームまたは符号化対象フレームを分割したブロックごとに、参照デプスマップに対する視差ベクトルを設定する。視点合成画像生成部108(視点間予測部)は、参照デプスマップを用いて、符号化対象画像の画素と参照画像の画素との対応関係を求め、符号化対象画像に対する視点合成画像を生成する。画像符号化部109は、視点合成画像を用いて、符号化対象画像に対して予測符号化を行い符号データであるビットストリームを出力する。
次に、図2を参照して、図1に示す画像符号化装置100の動作を説明する。図2は、図1に示す画像符号化装置100の動作を示すフローチャートである。 符号化対象画像入力部101は、符号化対象画像を入力し、符号化対象画像メモリ102に記憶する(ステップS11)。次に、参照画像入力部103は参照画像を入力し、参照画像メモリ104に記憶する。これと並行して、参照デプスマップ入力部105は参照デプスマップを入力し、参照デプスマップメモリ106に記憶する(ステップS12)。
ステップS12で入力される参照画像、参照デプスマップは、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。参照デプスマップに関しては、既に符号化済みのものを復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなども、復号側で同じものが得られるものとして用いることができる。
次に、画像符号化装置100は、符号化対象画像を分割したブロックごとに、視点合成画像を作りながら、符号化対象画像を符号化する。すなわち、符号化対象画像のブロックのインデックスを示す変数blkを0に初期化した後(ステップS13)、blkを1ずつ加算しながら(ステップS16)、blkがnumBlksになるまで(ステップS17)、以下の処理(ステップS14、ステップS15)を繰り返す。なお、numBlksは符号化対象画像中の符号化処理を行う単位ブロックの個数を表す。
符号化対象画像のブロックごとに行われる処理では、まず、視差ベクトル設定部107及び視点合成画像生成部108において、ブロックblkに対する視点合成画像を生成する(ステップS14)。ここでの処理は後で詳しく説明する。
次に、視点合成画像を得た後に、画像符号化部109は、視点合成画像を予測画像として、符号化対象画像を予測符号化して出力する(ステップS15)。符号化の結果得られるビットストリームが画像符号化装置100の出力となる。なお、復号側で正しく復号可能であるならば、符号化にはどのような方法を用いてもよい。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化では、ブロックごとに、符号化対象画像と予測画像との差分信号を生成し、差分画像に対してDCTなどの周波数変換を施し、その結果得られた値に対して、量子化、2値化、エントロピー符号化の処理を順に適用することで符号化を行う。
本実施形態では、全てのブロックにおいて視点合成画像を予測画像として用いたが、ブロックごとに異なる方法で生成された画像を予測画像として用いても構わない。その場合、どの方法で生成された画像を予測画像として用いたかを、復号側で判別できる必要がある。例えば、H.264のように、予測画像を生成する方法(モードやベクトル情報など)を示した情報を符号化し、ビットストリームに含めることで、復号側で判断できるようにしても構わない。
次に、図3を参照して、図1に示す視差ベクトル設定部107及び視点合成画像生成部108の処理動作を説明する。図3は、図2に示す符号化対象画像を分割したブロックblk(符号化対象領域)に対する視点合成画像を生成する処理(ステップS14)の詳細な処理動作を示すフローチャートである。まず、視差ベクトル設定部107(参照デプス領域設定部)は、ブロックblkに対して、対応する参照デプスマップ上のブロック(参照デプス領域)を示すための視差ベクトルdv(デプス参照視差ベクトル)を設定する(ステップS1401、参照デプス領域設定ステップおよびデプス参照視差ベクトル設定ステップ)。どのような方法を用いて、視差ベクトルを設定しても構わないが、復号側で同じ視差ベクトルが得られる必要がある。
視差ベクトルdvは、例えば、ブロックblkと同じ位置の参照デプスマップのデプス値から求めることができる。具体的には、視差ベクトルdvは、ブロックblkと同じ位置の参照デプスマップのブロック内に存在するデプス値の最大値、最小値、中央値、平均値などを用いることができる。また、視差ベクトルは、ブロックblkと同じ位置の参照デプスマップ上のブロック内の全ての画素に対するデプス値ではなく、中央や4頂点に位置する画素など、特定の画素に対するデプス値のみを用いて求めても構わない。
また、別の方法としては、参照デプスマップ上を探索することで任意のベクトルを視差ベクトルとして設定し、設定した視差ベクトルを符号化することで復号側へ通知しても構わない。この場合、図4に示すように、画像符号化装置100は視差ベクトル符号化部110と多重化部111とを更に備えればよい。図4は、図1に示す画像符号化装置100の変形例を示すブロック図である。視差ベクトル符号化部110は、視差ベクトル設定部107の設定した視差ベクトルを符号化し、多重化部111は、視差ベクトルのビットストリームと、符号化対象画像のビットストリームとを多重化して出力する。
なお、ブロックごとに視差ベクトルを設定して符号化するのではなく、フレームやスライスなどの大きな単位ごとにグローバルな視差ベクトルを設定して、そのフレームやスライス内のブロックでは同じ視差ベクトルとして、設定されたグローバル視差ベクトルを用いても構わない。この場合、図5に示すように、ブロックごとに行われる処理の前に(ステップS13の前に)、参照デプスマップに対する視差ベクトルを設定し(ステップS18)、図3に示すステップS1401をスキップすればよい。図5は、図2に示す動作の変形例を示すフローチャートである。
グローバル視差ベクトルは、様々な方法を用いて設定することができる。例えば、グローバル視差ベクトルを設定する領域全体を1つのブロックとみなして、ブロックマッチングを行うことでベクトルを求めても構わない。また、グローバル視差ベクトルを設定する領域全体を複数のブロックに分割して、ブロックごとにブロックマッチングを行うことで得られた複数のベクトルから尤もらしいベクトルを選択することで、1つのグローバル視差ベクトルを求めても構わない。また、設定した領域と同位置の参照デプスマップ上の領域に対するデプス値を解析することで、1つのデプス値を求め、そのデプス値に対応する視差ベクトルをグローバル視差ベクトルとしても構わない。
さらに別の方法としては、ブロックblkを符号化するまでに符号化されたブロックにおいて符号化されたベクトル情報から、ブロックblkに対する視差ベクトルを設定しても構わない。具体的には、ブロックblkに空間的または時間的に隣接するブロックやフレームなどを符号化する際に視差補償予測を用いた場合、そのブロックには何らかの視差ベクトルが符号化されている。したがって、予め定められた方法に従って、それらの視差ベクトルから、ブロックblkにおける視差ベクトルを求めても構わない。
予め定められた方法として、隣接ブロックにおける視差ベクトルからメディアン予測を行う方法や、特定のブロックにおける視差ベクトルをそのまま用いる方法がある。この場合、図6に示すように、画像符号化装置100はベクトル情報メモリ112を更に備えるようにすればよい。図6は、図1に示す画像符号化装置100の変形例を示すブロック図である。ベクトル情報メモリ112は、画像符号化部109で予測画像を生成する際に用いたベクトル情報を蓄積する。蓄積されたベクトル情報は、視差ベクトル設定部107で別のブロックblkに対する視差ベクトルを設定する際に利用される。
また、この方法を、前述の視差ベクトルを符号化することで任意のベクトルを視差ベクトルとする方法と組み合わせても構わない。例えば、設定された任意のベクトルと、ブロックblkを符号化するまでに符号化されたブロックにおいて符号化されたベクトル情報から推定したベクトルとの差分ベクトルを生成し、その差分ベクトルを符号化しても構わない。
図3に戻り、ブロックblkに対する視差ベクトルを設定したら、次に、ブロックblkを分割したサブブロックごとに、視点合成画像を生成する。すなわち、サブブロックのインデックスを示す変数sblkを0に初期化した後(ステップS1402)、sblkを1ずつ加算しながら(ステップS1406)、sblkがnumSBlksになるまで(ステップS1407)、以下の処理(ステップS1403〜S1405)を繰り返す。
ここで、numSBlksはブロックblk内のサブブロックの個数を表す。
なお、サブブロックの大きさや形状は様々なものを用いることができるが、復号側で同じサブブロック分割が得られる必要がある。サブブロックの大きさは、例えば、縦×横で、2画素×2画素、4画素×4画素、8画素×8画素など、予め定められた分割を用いても構わない。なお、予め定められた分割としては、1画素×1画素(すなわち画素ごと)や、ブロックblkと同じサイズ(すなわち分割を行わない)を用いても構わない。
復号側と同じサブブロック分割を用いる別の方法として、サブブロック分割の方法を符号化することで復号側へ通知しても構わない。この場合、サブブロック分割の方法に対するビットストリームは、符号化対象画像のビットストリームと多重化され、画像符号化装置100の出力するビットストリームの一部となる。なお、サブブロック分割の方法を選択する場合は、1つのサブブロックに含まれる画素が参照画像に対してできるだけ同じ視差を持ち、できるだけ少ない数のサブブロックに分割するような方法を選ぶことで、後述する視点合成画像の生成処理によって、高品質な予測画像を少ない処理量で生成することが可能となる。なお、この場合、復号側ではビットストリームからサブブロック分割を示す情報を復号し、復号された情報に基づいた方法にしたがってサブブロック分割を行う。
更に別の方法として、ステップS1401で設定された視差ベクトルdvによって示される参照デプスマップ上のブロックblk+dvに対するデプスからサブブロック分割(符号化対象領域内の領域分割)を決定しても構わない(予測領域分割設定ステップ)。例えば、参照デプスマップのブロックblk+dvのデプスをクラスタリングすることでサブブロック分割を求めることができる。また、クラスタリングを行うのではなく、予め定められた分割の種類の中から、最も正しくデプスが分類される分割を選択するようにしても構わない。
サブブロックごとに行われる処理では、まず、参照デプスマップを用いて、サブブロックsblkに対して1つのデプス値を決定する(ステップS1403)。具体的には、ステップS1401で設定された視差ベクトルdvによって示される参照デプスマップ上のブロックsblk+dv内の画素に対するデプスから、1つのデプス値を決定する。
ブロック内の画素に対するデプスから1つのデプスを決定する方法には様々な方法を用いることができる。ただし、復号側と同じ方法を用いることが必要である。例えば、ブロック内の画素に対するデプス値の平均値・最大値・最小値・中央値のいずれかを用いても構わない。また、ブロックの4頂点の画素に対するデプス値の平均値・最大値・最小値・中央値のいずれかを用いても構わない。更に、ブロックの特定の場所(左上や中央など)におけるデプス値を用いても構わない。
なお、視差ベクトルdvが小数画素で与えられた場合、ブロック内のある場所に対するデプス値を利用する際に、その位置のデプス値が参照デプスマップには存在しないことになる。その場合、対応する小数画素位置に対するデプス値を補間して求めた後に用いても構わないし、整数画素位置へ丸めることで整数画素位置に対するデプス値を用いても構わない。
サブブロックsblkに対してデプス値が得られたら、次に、そのデプス値から参照画像に対する視差ベクトルsdv(画像参照視差ベクトル)を求める(ステップS1404)。デプス値から視差ベクトルへの変換は与えられたカメラパラメータ等の定義に従って行う。なお、サブブロックに対する座標値が必要な場合は、サブブロックの左上など特定の位置の画素位置やサブブロックの中央位置を用いることができる。また、カメラ配置が一次元平行の場合、サブブロックの位置によらず、視差の向きはカメラの配置に依存し、視差量はデプス値に依存するため、予め作成したルックアップテーブルを参照することで、デプス値から視差ベクトルを求めることができる。
次に、得られた視差ベクトルsdvと参照画像とを用いて、サブブロックsblkに対する視差補償画像(視点間予測画像)を生成する(ステップS1405、視点間予測ステップ)。ここでの処理は、与えられたベクトルと参照画像とを用いるだけで、従来の視差補償予測や動き補償予測と同様の方法を用いることができる。
なお、ステップS1404とステップS1405とで実現される処理は、サブブロックblkに対して1つのデプス値が与えられた際に、視点合成画像を生成する処理の一例である。ここででは、サブブロックに対して与えられた1つのデプス値から視点合成画像を生成できれば、別の方法を用いても構わない。例えば、サブブロックが1つのデプス平面に属すると仮定することで、参照画像上の対応領域(サブブロックと同じ形状や大きさである必要はない)を同定し、その対応領域に対する参照画像をワーピングすることで視点合成画像を生成しても構わない。
また、カメラの投影モデルをモデル化、多視点画像の平行化(レクティフィケーション)、デプスなどの誤差が存在するため、デプスからカメラパラメータに基づいて求めた視差ベクトルには誤差が含まれる。それを補償するために、視差ベクトルsdvに対して参照画像上での補正ベクトルcmvを用いても構わない。その場合、ステップS1405では、ベクトルsdv+cmvを視差ベクトルとして視差補償画像を生成する。なお、どのようなベクトルを補正ベクトルとしても構わないが、効率的な補正ベクトルの設定には、符号化対象領域における視差補償画像と符号化対象画像の誤差や、符号化対象領域におけるレート歪みコストの最小化を用いることができる。
補正ベクトルは復号側で同じものが得られれば、任意のベクトルを用いても構わない。
例えば、任意のベクトルを設定し、そのベクトルを符号化することで復号側へ通知しても構わない。符号化して伝送する場合は、ブロックblkごとに一つの補正ベクトルを設定することで、その符号化で必要となる符号量を抑えることができる。
なお、補正ベクトルが符号化されている場合は、復号側ではビットストリームから適切なタイミング(サブブロック毎やブロック毎)でベクトルを復号し、復号したベクトルを補正ベクトルとして使用する。
ブロックやサブブロックごとに、使用したカメラ間予測画像に関する情報を蓄積する場合、デプスを用いた視点合成画像を参照したことを示す情報を蓄積しても構わないし、実際にカメラ間予測画像を生成する際に使用した情報(画像参照視差ベクトル)を蓄積しても構わない(画像参照視差ベクトル蓄積ステップ)。なお、蓄積された情報は、別のブロックや別のフレームを符号化または復号する際に参照される。例えば、あるブロックに対するベクトル情報(視差補償予測に用いるベクトルなど)を符号化または復号する際に、そのブロック周辺の既に符号化済みブロックに蓄積されているベクトル情報から、予測ベクトル情報を生成して、予測ベクトル情報との差分のみ符号化または復号しても構わない。別の例としては、あるブロックに対する視差ベクトルdvを、そのブロック周辺の既に符号化または復号済みのブロックに蓄積されているベクトル情報を用いて設定しても構わない。
デプスを用いた視点合成画像を参照したことを示す情報としては、対応する予測モード情報を蓄積しても構わないし、予測モードとしてはフレーム間予測モードに対応する情報を蓄積し、その際の参照フレームとして視点合成画像に対応する参照フレーム情報を蓄積しても構わない。また、ベクトル情報として、視差ベクトルdvを蓄積しても構わないし、視差ベクトルdvと補正ベクトルcmvとを蓄積しても構わない。
実際にカメラ間予測画像を生成する際に使用した情報としては、予測モードとしてはフレーム間予測モードに対応する情報を蓄積し、その際の参照フレームとして参照画像を蓄積しても構わない。また、ベクトル情報としては、サブブロックごとに、参照画像に対する視差ベクトルsdvまたは補正された参照画像に対する視差ベクトルsdv+cmvを蓄積しても構わない。なお、ワーピング等を用いた場合など、サブブロック内で2つ以上のベクトルが使用されている場合がある。その場合は、全てのベクトルを蓄積しても構わないし、予め定められた方法で、サブブロックごとに1つのベクトルを選択して蓄積しても構わない。1つのベクトルを選択する方法としては、例えば、視差量が最大のベクトルとする方法や、サブブロックの特定の位置(左上など)におけるベクトルとする方法などがある。
次に、画像復号装置について説明する。図7は、本実施形態における画像復号装置の構成を示すブロック図である。画像復号装置200は、図7に示すように、ビットストリーム入力部201、ビットストリームメモリ202、参照画像入力部203、参照画像メモリ204、参照デプスマップ入力部205、参照デプスマップメモリ206、視差ベクトル設定部207、視点合成画像生成部208、及び画像復号部209を備えている。
ビットストリーム入力部201は、復号対象となる画像を符号化した符号データのビットストリームを入力する。以下では、この復号対象となる画像を復号対象画像と呼ぶ。ここではカメラBの画像を指す。また、以下では、復号対象画像を撮影したカメラ(ここではカメラB)を復号対象カメラと呼ぶ。
ビットストリームメモリ202は、入力した復号対象画像に対するビットストリームを記憶する。参照画像入力部203は、視点合成画像(視差補償画像)を生成する際に参照する画像を入力する。以下では、ここで入力された画像を参照画像と呼ぶ。ここではカメラAの画像が入力されるものとする。参照画像メモリ204は、入力した参照画像を記憶する。以下では、参照画像を撮影したカメラ(ここではカメラA)を参照カメラと称する。
参照デプスマップ入力部205は、視点合成画像を生成する際に参照するデプスマップを入力する。ここでは、参照画像に対するデプスマップを入力するものとするが、別のカメラに対するデプスマップでも構わない。以下では、このデプスマップを参照デプスマップと呼ぶ。
デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここでは視差量が得られれば構わないので、デプスマップではなく、視差量を直接表現した視差マップを用いても構わない。
なお、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。参照デプスマップメモリ206は、入力された参照デプスマップを記憶する。以下では、参照デプスマップに対応するカメラ(ここではカメラA)を参照デプスカメラと呼ぶ。
視差ベクトル設定部207は、復号対象画像または復号対象画像を分割したブロックごとに、参照デプスマップに対する視差ベクトルを設定する。視点合成画像生成部208(視点間予測部)は、参照デプスマップを用いて、復号対象画像の画素と参照画像の画素との対応関係を求め、復号対象画像に対する視点合成画像を生成する。画像復号部209は、視点合成画像を用いて、ビットストリームから復号対象画像を復号して復号画像を出力する。
次に、図8を参照して、図7に示す画像復号装置200の動作を説明する。図8は、図7に示す画像復号装置200の動作を示すフローチャートである。
ビットストリーム入力部201は、復号対象画像を符号化したビットストリームを入力し、ビットストリームメモリ202に記憶する(ステップS21)。これと並行して、参照画像入力部203は参照画像を入力し、参照画像メモリ204に記憶する。また、参照デプスマップ入力部205は参照デプスマップを入力し、参照デプスマップメモリ206に記憶する(ステップS22)。
ステップS22で入力される参照画像と参照デプスマップは、符号化側で使用されたものと同じものとする。これは画像符号化装置100で使用したものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。参照デプスマップに関しては、別途復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなどを用いることもある。
次に、画像復号装置200は、復号対象画像を分割したブロックごとに、視点合成画像を作りながら、ビットストリームから復号対象画像を復号する。すなわち、復号対象画像のブロックのインデックスを示す変数blkを0に初期化した後(ステップS23)、blkを1ずつ加算しながら(ステップS26)、blkがnumBlksになるまで(ステップS27)、以下の処理(ステップS24、ステップS25)を繰り返す。なお、numBlksは復号対象画像中の復号処理を行う単位ブロックの個数を表す。
復号対象画像のブロックごとに行われる処理では、まず、視差ベクトル設定部207(参照デプス領域設定部)及び視点合成画像生成部208(視点間予測部)において、ブロックblkに対する視点合成画像を生成する(ステップS24)。ここでの処理は前述の図2に示すステップS14(図3に示すステップS1401〜S1407)と同じであるので詳細な説明を省略する。予測領域分割設定部としての視点合成画像生成部208によるサブブロック分割(符号化対象領域内の領域分割)、サブブロックごとに行われる処理についても同様である。
次に、視点合成画像が得られたならば、画像復号部209は、視点合成画像を予測画像として用いながら、ビットストリームから復号対象画像を復号して出力する(ステップS25)。この結果得られる復号画像が画像復号装置200の出力となる。なお、ビットストリームを正しく復号できるならば、復号にはどのような方法を用いてもよい。一般的には、符号化時に用いられた方法に対応する方法が用いられる。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化で符号化されている場合は、ブロックごとに、エントロピー復号、逆2値化、逆量子化などを施した後、IDCTなど逆周波数変換を施して予測残差信号を得た後、予測画像を加え、画素値範囲でクリッピングすることで復号を行う。
本実施形態では、全てのブロックにおいて視点合成画像を予測画像として用いたが、ブロックごとに異なる方法で生成された画像を予測画像として用いても構わない。その場合、どの方法で生成された画像を予測画像として用いたかを、判別して適切な予測画像を使用する必要がある。例えば、H.264のように、予測画像を生成する方法(モードやベクトル情報など)を示した情報が符号化されて、ビットストリームに含まれている場合、その情報を復号することで適切な予測画像を選択して復号を行っても構わない。
なお、図8に示すステップS24の詳細処理は図3に示す処理動作と同等であるが、視差ベクトルdvを設定するステップS1401では、符号化側と同じ処理を行う必要がある。その一つの方法として、視差ベクトルdvがビットストリームに多重化されている場合がある。この場合、図9に示すように、画像復号装置200はビットストリーム分離部210と視差ベクトル復号部211(デプス参照視差ベクトル設定部)とを更に備えればよい。図9は、図7に示す画像復号装置200の変形例を示すブロック図である。
ビットストリーム分離部210は、入力されたビットストリームを視差ベクトルdvに対するビットストリームと、復号対象画像に対するビットストリームとに分離する。また、視差ベクトル復号部211では、分離されたビットストリームから視差ベクトルdvを復号し、復号された視差ベクトルが視点合成画像生成部208で使用される。すなわち、図10に示すようにブロックblkごとに視差ベクトルを復号した後に(ステップS28)、視点合成画像の生成(ステップS24)及び復号対象画像の復号(ステップS25)を行う。図10は、図8に示す動作の変形例を示すフローチャートである。
なお、ブロックごとに視差ベクトルを復号するのではなく、フレームやスライスなどの大きな単位ごとにグローバルな視差ベクトルを復号して、そのフレームやスライス内のブロックでは同じ視差ベクトルとして、復号されたグローバル視差ベクトルを用いても構わない。この場合、図11に示すように、ブロックごとに行われる処理の前に、参照デプスマップに対する視差ベクトルを復号する(ステップS29)。図11は、図8に示す動作の変形例を示すフローチャートである。
別の方法としては、ブロックblkを復号するまでに復号されたブロックにおいて復号されたベクトル情報から、ブロックblkに対する視差ベクトルを設定しても構わない。
具体的には、ブロックblkに空間的または時間的に隣接するブロックやフレームなどを復号する際に視差補償予測を用いた場合、そのブロックには何らかの視差ベクトルが復号されている。したがって、予め定められた方法に従って、それらの視差ベクトルから、ブロックblkにおける視差ベクトルを求めても構わない。
予め定められた方法として、隣接ブロックにおける視差ベクトルからメディアン予測を行う方法や、特定のブロックにおける視差ベクトルをそのまま用いる方法がある。この場合、図12に示すように、画像復号装置200はベクトル情報メモリ212(画像参照視差ベクトル蓄積部)を更に備えればよい。図12は、図7に示す画像復号装置200に変形例を示すブロック図である。ベクトル情報メモリ212は、画像復号部209で予測画像を生成する際に用いたベクトル情報を蓄積する。蓄積されたベクトル情報は、視差ベクトル設定部207で別のブロックblkに対する視差ベクトルを設定する際に利用される。
また、この方法を、前述の視差ベクトルを復号することで任意のベクトルを視差ベクトルとする方法と組み合わせても構わない。例えば、ブロックblkを復号するまでに復号されたブロックにおいて復号されたベクトル情報から推定したベクトルに対して、ビットストリームから復号されたベクトルを加算し、視差ベクトルdvとしても構わない。なお、前述したように、ブロックblkと同じ位置の参照デプスマップのデプス値から視差ベクトルdvを求めても構わない。
前述した説明においては、1フレーム中のすべての画素を符号化及び復号する処理を説明したが、一部の画素にのみ適用し、その他の画素では、H.264/AVCなどで用いられる画面内予測符号化や動き補償予測符号化などを用いて符号化または復号を行ってもよい。その場合には、画素ごとにどの方法を用いて予測したかを示す情報を符号化及び復号する必要がある。また、画素ごとではなくブロック毎に別の予測方式を用いて符号化または復号を行ってもよい。なお、一部の画素やブロックに対してのみ視点合成画像を用いた予測を行う場合は、その画素に対してのみ視点合成画像を生成する処理(図2に示すステップS14、図8に示すステップS24、S28)を行うようにすることで、視点合成処理にかかる演算量を削減することが可能となる。
また、前述した説明においては、1フレームを符号化及び復号する処理を説明したが、複数フレーム繰り返すことで動画像符号化にも適用することができる。また、動画像の一部のフレームや一部のブロックにのみ適用することもできる。さらに、前述した説明では画像符号化装置及び画像復号装置の構成及び処理動作を説明したが、これら画像符号化装置及び画像復号装置の各部の動作に対応した処理動作によって本発明の画像符号化方法及び画像復号方法を実現することができる。
さらに、前述した説明においては、参照デプスマップが符号化対象カメラまたは復号対象カメラとは異なるカメラで撮影された画像に対するデプスマップであるとして説明を行ったが、符号化対象画像または復号対象画像とは異なる時刻に、符号化対象カメラまたは復号対象カメラによって撮影された画像に対するデプスマップを、参照デプスマップとして用いることができる。その場合、ステップS1401、ステップS18、ステップS28、ステップS29では、視差ベクトルではなく動きベクトルを設定または復号する。
図13は、前述した画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。
図13に示すシステムは、プログラムを実行するCPU50と、メモリ51と、符号化対象画像入力部52と、参照画像入力部53と、参照デプスマップ入力部54と、プログラム記憶装置55と、ビットストリーム出力部56とが、バスで接続された構成になっている。
RAM等のメモリ51は、CPU50がアクセスするプログラムやデータを格納する。符号化対象画像入力部52は、カメラ等からの符号化対象の画像信号を入力する。この符号化対象画像入力部52は、画像信号を記憶するディスク装置等の記憶部でもよい。参照画像入力部53は、カメラ等からの参照対象の画像信号を入力する。この参照画像入力部53は、画像信号を記憶するディスク装置等の記憶部でもよい。参照デプスマップ入力部54は、デプスカメラ等からの符号化対象画像を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する。この参照デプスマップ入力部54は、デプスマップを記憶するディスク装置等の記憶部でもよい。プログラム記憶装置55は、画像符号化処理をCPU50に実行させるソフトウェアプログラムである画像符号化プログラム551を格納する。ビットストリーム出力部56は、CPU50がメモリ51にロードされた画像符号化プログラム551を実行することにより生成されたビットストリームを、例えばネットワークを介して出力する。このビットストリーム出力部56は、ビットストリームを記憶するディスク装置等の記憶部でもよい。
図14は、前述した画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。
図14に示すシステムは、プログラムを実行するCPU60と、メモリ51と、ビットストリーム入力部62と、参照画像入力部63と、参照デプスマップ入力部64と、プログラム記憶装置65と、復号対象画像出力部66とが、バスで接続された構成になっている。
RAM等のメモリ51は、CPU60がアクセスするプログラムやデータを格納する。ビットストリーム入力部62は、画像符号化装置が本手法により符号化したビットストリームを入力する。このビットストリーム入力部62は、画像信号を記憶するディスク装置等の記憶部でもよい。参照画像入力部63は、カメラ等からの参照対象の画像信号を入力する。この参照画像入力部63は、画像信号を記憶するディスク装置等の記憶部でもよい。参照デプスマップ入力部64は、デプスカメラ等からの復号対象を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する。この参照デプスマップ入力部64は、デプス情報を記憶するディスク装置等の記憶部でもよい。プログラム記憶装置65は、画像復号処理をCPU60に実行させるソフトウェアプログラムである画像復号プログラム651を格納する。復号対象画像出力部66は、CPU60がメモリ61にロードされた画像復号プログラム651を実行することにより、ビットストリームを復号して得られた復号対象画像を、再生装置などに出力する。この復号対象画像出力部66は、画像信号を記憶するディスク装置等の記憶部でもよい。
また、図1に示す画像符号化装置100及び図7に示す画像復号装置200における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像符号化処理と画像復号処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
符号化(復号)対象画像を撮影したカメラとは異なる位置から撮影された画像に対するデプスマップを用いて、符号化(復号)対象画像に対して視差補償予測を行う際に、高い符号化効率を少ない演算量で達成することが不可欠な用途に適用できる。
101・・・符号化対象画像入力部
102・・・符号化対象画像メモリ
103・・・参照画像入力部
104・・・参照画像メモリ
105・・・参照デプスマップ入力部
106・・・参照デプスマップメモリ
107・・・視差ベクトル設定部
108・・・視点合成画像生成部
109・・・画像符号化部
110・・・視差ベクトル符号化部
111・・・多重化部
112・・・ベクトル情報メモリ
201・・・ビットストリーム入力部
202・・・ビットストリームメモリ
203・・・参照画像入力部
204・・・参照画像メモリ
205・・・参照デプスマップ入力部
206・・・参照デプスマップメモリ
207・・・視差ベクトル設定部
208・・・視差合成画像生成部
209・・・画像復号部
210・・・ビットストリーム分離部
211・・・視差ベクトル復号部
212・・・ベクトル情報メモリ

Claims (15)

  1. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、復号対象画像とは異なる視点に対する復号済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、
    参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定部と、
    前記復号対象画像を分割した復号対象領域に対して、前記デプス参照視差ベクトルによって示される前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定部と、
    前記参照デプス領域におけるデプス情報を前記復号対象領域に対するデプス情報とし、前記デプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定し、前記画像参照視差ベクトルと前記参照画像から、前記復号対象領域に対する視点間予測画像を生成する視点間予測部と
    前記視点間予測画像を用いて前記復号対象画像を復号する画像復号部と
    を備える画像復号装置。
  2. 前記デプス参照視差ベクトル設定部は、前記復号対象領域に対して、参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定す請求項1に記載の画像復号装置。
  3. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、復号対象画像とは異なる視点に対する復号済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、
    前記復号対象画像を分割した復号対象領域に対して、前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定部と、
    前記参照デプス領域におけるデプス情報を前記復号対象領域に対するデプス情報として、前記参照画像から、前記復号対象領域に対する視点間予測画像を生成する視点間予測部と、
    前記視点間予測画像を用いて前記復号対象画像を復号する画像復号部と
    を備え、
    前記復号対象領域に対して、参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定部をさらに有し、
    前記参照デプス領域設定部では、前記デプス参照視差ベクトルによって示される領域を前記参照デプス領域として設定し、
    前記デプス参照視差ベクトル設定部では、前記復号対象領域に隣接する領域を復号する際に使用した視差ベクトルを用いて、前記デプス参照視差ベクトルを設定する画像復号装置。
  4. 前記視点間予測部では、前記復号対象領域を分割した予測領域ごとに、対応する前記参照デプス領域内のデプス情報を用いて、代表デプスを設定し、当該代表デプスと前記参照画像から視点合成画像を生成することで、前記復号対象領域に対する視点間予測画像を生成する請求項1から請求項3のいずれか1項に記載の画像復号装置。
  5. 前記視点間予測部では、前記復号対象領域を分割した予測領域ごとに、対応する前記参照デプス領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定し、当該画像参照視差ベクトルと前記参照画像とを用いて視差補償画像を生成することで、前記復号対象領域に対する視点間予測画像を生成する請求項1から請求項3のいずれか1項に記載の画像復号装置。
  6. 前記画像参照視差ベクトルを蓄積する画像参照視差ベクトル蓄積部と、
    前記蓄積された画像参照視差ベクトルを用いて、前記復号対象領域に隣接する領域に対する予測視差情報を生成する視差予測部とを更に有する請求項に記載の画像復号装置。
  7. 前記視差予測部では、前記復号対象領域に隣接する領域に対するデプス参照視差ベクトルを生成する請求項に記載の画像復号装置。
  8. 前記画像参照視差ベクトルを補正するベクトルである補正視差ベクトルを設定する補正視差ベクトル設定部をさらに有し、
    前記視点間予測部では、前記画像参照視差ベクトルを前記補正視差ベクトルで補正したベクトルと、前記参照画像とを用いて視差補償画像を生成することで、前記視点間予測画像を生成する請求項に記載の画像復号装置。
  9. 前記補正視差ベクトル設定部では、前記復号対象領域に対して1つのベクトルを前記補正視差ベクトルとして設定する請求項に記載の画像復号装置。
  10. 前記参照デプス領域内のデプス情報に基づいて、前記復号対象領域内の領域分割を設定する予測領域分割設定部をさらに有し、
    前記視点間予測部では、前記領域分割に従って得られる領域を、前記予測領域とする請求項から請求項9のいずれか1項に記載の画像復号装置。
  11. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、復号対象画像とは異なる視点に対する復号済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、
    参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定ステップと、
    前記復号対象画像を分割した復号対象領域に対して、前記デプス参照視差ベクトルによって示される前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定ステップと、
    前記参照デプス領域におけるデプス情報を前記復号対象領域に対するデプス情報とし、前記デプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定し、前記画像参照視差ベクトルと前記参照画像から、前記復号対象領域に対する視点間予測画像を生成する視点間予測ステップと
    前記視点間予測画像を用いて前記復号対象画像を復号する画像復号ステップと
    を有する画像復号方法。
  12. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、
    参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定部と、
    前記符号化対象画像を分割した符号化対象領域に対して、前記デプス参照視差ベクトルによって示される前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定部と、
    前記参照デプス領域におけるデプス情報を前記符号化対象領域に対するデプス情報とし、前記デプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定し、前記画像参照視差ベクトルと前記参照画像から、前記符号化対象領域に対する視点間予測画像を生成する視点間予測部と
    前記視点間予測画像を用いて前記符号化対象画像を符号化する画像符号化部と
    を備える画像符号化装置。
  13. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体に対するデプスマップである参照デプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、
    参照デプスマップに対する視差ベクトルであるデプス参照視差ベクトルを設定するデプス参照視差ベクトル設定ステップと、
    前記符号化対象画像を分割した符号化対象領域に対して、前記デプス参照視差ベクトルによって示される前記参照デプスマップ上での対応領域である参照デプス領域を設定する参照デプス領域設定ステップと、
    前記参照デプス領域におけるデプス情報を前記符号化対象領域に対するデプス情報とし、前記デプス情報を用いて、前記参照画像に対する視差ベクトルである画像参照視差ベクトルを設定し、前記画像参照視差ベクトルと前記参照画像から、前記符号化対象領域に対する視点間予測画像を生成する視点間予測ステップと
    前記視点間予測画像を用いて前記符号化対象画像を符号化する画像符号化ステップと
    を有する画像符号化方法。
  14. コンピュータに、請求項11に記載の画像復号方法を実行させるための画像復号プログラム。
  15. コンピュータに、請求項13に記載の画像符号化方法を実行させるための画像符号化プログラム。
JP2014554426A 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム Active JP6027143B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012284616 2012-12-27
JP2012284616 2012-12-27
PCT/JP2013/084376 WO2014103966A1 (ja) 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム

Publications (2)

Publication Number Publication Date
JP6027143B2 true JP6027143B2 (ja) 2016-11-16
JPWO2014103966A1 JPWO2014103966A1 (ja) 2017-01-12

Family

ID=51021049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554426A Active JP6027143B2 (ja) 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム

Country Status (5)

Country Link
US (3) US9924197B2 (ja)
JP (1) JP6027143B2 (ja)
KR (1) KR101737595B1 (ja)
CN (2) CN104885450B (ja)
WO (1) WO2014103966A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039178B2 (ja) * 2011-09-15 2016-12-07 シャープ株式会社 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
KR102137266B1 (ko) * 2012-09-28 2020-07-23 삼성전자주식회사 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치
US20190304160A1 (en) * 2016-07-29 2019-10-03 Sony Corporation Image processing apparatus and image processing method
US10032307B2 (en) * 2016-08-10 2018-07-24 Viacom International Inc. Systems and methods for a generating an interactive 3D environment using virtual depth
CN111033575A (zh) * 2017-08-09 2020-04-17 夏普株式会社 图像处理装置、显示装置、图像发送装置、图像处理方法、控制程序以及记录介质
EP3481067A1 (en) * 2017-11-07 2019-05-08 Thomson Licensing Method, apparatus and stream for encoding/decoding volumetric video
EP3777183A1 (en) * 2018-04-11 2021-02-17 InterDigital VC Holdings, Inc. A method for encoding depth values of a set of 3d points once orthogonally projected into at least one image region of a projection plane
CN109714598B (zh) * 2019-01-31 2021-05-14 上海国茂数字技术有限公司 视频的编码方法、解码方法、处理方法以及视频处理系统
CN113141494A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d图像处理方法、装置和3d显示终端
KR20240020051A (ko) * 2022-08-05 2024-02-14 숙명여자대학교산학협력단 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157826A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2012100019A (ja) * 2010-11-01 2012-05-24 Sharp Corp 多視点画像符号化装置及び多視点画像復号装置
JP2012124564A (ja) * 2010-12-06 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
JP2012191553A (ja) * 2011-03-14 2012-10-04 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
WO2012172634A1 (ja) * 2011-06-13 2012-12-20 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8823821B2 (en) * 2004-12-17 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using motion vector predictor list
US8565319B2 (en) * 2006-03-30 2013-10-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
CN101455082B (zh) * 2006-03-30 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法和装置
JP4605716B2 (ja) * 2006-07-14 2011-01-05 Kddi株式会社 多視点画像圧縮符号化方法、装置及びプログラム
BRPI0716814A2 (pt) * 2006-09-20 2013-11-05 Nippon Telegraph & Telephone Método de codificação de imagem, e método de decodificação, aparelhos para isso, aparelho de decodificação de imagem, programas para isso, e mídias de armazenamento para armazenar os programas
CN101518090B (zh) 2006-09-20 2011-11-16 日本电信电话株式会社 图像编码方法及解码方法、图像编码装置及解码装置
KR101365567B1 (ko) * 2007-01-04 2014-02-20 삼성전자주식회사 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
US10298952B2 (en) * 2007-08-06 2019-05-21 Interdigital Madison Patent Holdings Methods and apparatus for motion skip move with multiple inter-view reference pictures
WO2009091383A2 (en) 2008-01-11 2009-07-23 Thomson Licensing Video and depth coding
JP2011519227A (ja) * 2008-04-25 2011-06-30 トムソン ライセンシング 奥行き信号の符号化
CN100563339C (zh) 2008-07-07 2009-11-25 浙江大学 一种利用深度信息的多通道视频流编码方法
JP5219199B2 (ja) 2008-07-11 2013-06-26 日本電信電話株式会社 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2010025655A1 (zh) * 2008-09-02 2010-03-11 华为终端有限公司 3d视频通信方法、发送设备、系统及图像重构方法和系统
US8311111B2 (en) * 2008-09-11 2012-11-13 Google Inc. System and method for decoding using parallel processing
US7932843B2 (en) * 2008-10-17 2011-04-26 Texas Instruments Incorporated Parallel CABAC decoding for video decompression
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
EP2384000B1 (en) * 2008-12-26 2013-10-16 JVC KENWOOD Corporation Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
BRPI1008226A2 (pt) 2009-02-12 2019-09-24 Nippon Telegraph & Telephone método de codificação de imagem como múltiplas vistas, método de decodificação de imagem com múltiplas vistas, dispositivo de codificação de imagem com múltiplas vistas,dispositivo de codificação de imagem com múltiplas vistas,programa de codificação de imagem como múltiplas vistas, programa de codificação de imagem como múltiplas vistas.
WO2010093351A1 (en) * 2009-02-13 2010-08-19 Thomson Licensing Depth map coding to reduce rendered distortion
WO2010095471A1 (ja) 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
KR20100117888A (ko) 2009-04-27 2010-11-04 주식회사 훈솔루션 시점확인이 가능한 이메일 시스템 및 그 방법
CN102484700A (zh) * 2009-05-01 2012-05-30 汤姆森特许公司 3d视频编码格式
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
CN101695139B (zh) * 2009-10-14 2011-08-17 宁波大学 一种基于可分级块的虚拟视点图像绘制方法
CN101729891B (zh) 2009-11-05 2012-06-20 宁波大学 一种多视点深度视频的编码方法
WO2011105297A1 (ja) 2010-02-23 2011-09-01 日本電信電話株式会社 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム
US20120314776A1 (en) 2010-02-24 2012-12-13 Nippon Telegraph And Telephone Corporation Multiview video encoding method, multiview video decoding method, multiview video encoding apparatus, multiview video decoding apparatus, and program
HUE056926T2 (hu) * 2010-05-25 2022-03-28 Lg Electronics Inc Új síkbeli predikciós mód
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN101895749B (zh) * 2010-06-29 2012-06-27 宁波大学 一种快速视差估计和运动估计方法
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
JPWO2012086829A1 (ja) 2010-12-21 2014-06-05 日本電気株式会社 動き推定装置、動き推定方法、動き推定プログラム、および動画像符号化装置
SG10201609891QA (en) * 2011-06-30 2016-12-29 Sony Corp Image processing device and image processing method
RU2583040C2 (ru) * 2011-08-30 2016-05-10 Нокиа Текнолоджиз Ой Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов
US9712819B2 (en) * 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
WO2013091513A1 (en) * 2011-12-22 2013-06-27 Mediatek Inc. Method and apparatus of texture image compression in 3d video coding
CN102413353B (zh) * 2011-12-28 2014-02-19 清华大学 立体视频编码过程的多视点视频和深度图的码率分配方法
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
CN102801995B (zh) 2012-06-25 2016-12-21 北京大学深圳研究生院 一种基于模板匹配的多视点视频运动和视差矢量预测方法
BR112015006178B1 (pt) * 2012-09-21 2022-11-16 Nokia Technologies Oy Métodos, aparelhos e meio não transitório legível por computador para codificação e decodificação de vídeo
CN104854862A (zh) * 2012-12-27 2015-08-19 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
WO2014172387A1 (en) * 2013-04-15 2014-10-23 Huawei Technologies Co., Ltd. Method and apparatus of depth prediction mode selection
EP3092806A4 (en) * 2014-01-07 2017-08-23 Nokia Technologies Oy Method and apparatus for video coding and decoding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157826A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2012100019A (ja) * 2010-11-01 2012-05-24 Sharp Corp 多視点画像符号化装置及び多視点画像復号装置
JP2012124564A (ja) * 2010-12-06 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> 多視点画像符号化方法,多視点画像復号方法,多視点画像符号化装置,多視点画像復号装置およびそれらのプログラム
JP2012191553A (ja) * 2011-03-14 2012-10-04 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
WO2012172634A1 (ja) * 2011-06-13 2012-12-20 株式会社東芝 画像符号化装置、画像復号化装置、方法およびプログラム

Also Published As

Publication number Publication date
US20170310996A1 (en) 2017-10-26
CN104885450A (zh) 2015-09-02
KR101737595B1 (ko) 2017-05-18
CN107318027A (zh) 2017-11-03
WO2014103966A1 (ja) 2014-07-03
CN107318027B (zh) 2020-08-28
US20170310997A1 (en) 2017-10-26
JPWO2014103966A1 (ja) 2017-01-12
CN104885450B (zh) 2017-09-08
US20150334418A1 (en) 2015-11-19
KR20150085027A (ko) 2015-07-22
US9924197B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP5934375B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP6053200B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
KR101648094B1 (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
JP5947977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
WO2015098948A1 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
WO2013039031A1 (ja) 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
JP6232075B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
KR101750421B1 (ko) 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 프로그램, 및 동화상 복호 프로그램
JP2016127372A (ja) 動画像符号化装置、動画像復号装置、動画像処理システム、動画像符号化方法、動画像復号方法、およびプログラム
WO2015141549A1 (ja) 動画像符号化装置及び方法、及び、動画像復号装置及び方法
JP2016010058A (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161013

R150 Certificate of patent or registration of utility model

Ref document number: 6027143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150