JPWO2010095471A1 - 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム - Google Patents

多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム Download PDF

Info

Publication number
JPWO2010095471A1
JPWO2010095471A1 JP2011500540A JP2011500540A JPWO2010095471A1 JP WO2010095471 A1 JPWO2010095471 A1 JP WO2010095471A1 JP 2011500540 A JP2011500540 A JP 2011500540A JP 2011500540 A JP2011500540 A JP 2011500540A JP WO2010095471 A1 JPWO2010095471 A1 JP WO2010095471A1
Authority
JP
Japan
Prior art keywords
image
decoding
encoding
viewpoint
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011500540A
Other languages
English (en)
Other versions
JP5521202B2 (ja
Inventor
信哉 志水
信哉 志水
木全 英明
英明 木全
正幸 谷本
正幸 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=42633758&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPWO2010095471(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2011500540A priority Critical patent/JP5521202B2/ja
Publication of JPWO2010095471A1 publication Critical patent/JPWO2010095471A1/ja
Application granted granted Critical
Publication of JP5521202B2 publication Critical patent/JP5521202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

本発明の多視点画像符号化/復号装置は、まず、処理対象領域に撮影されている被写体のデプス情報を求める。次に、処理対象領域に隣接する既に符号化(復号)済みの領域において、処理対象領域と同じ被写体が撮影されている画素群をデプス情報から求めてサンプル画素群を設定する。続いて、サンプル画素群に含まれる画素と処理対象領域に含まれる画素に対して視点合成画像を生成する。続いて、サンプル画素群における視点合成画像および復号画像から輝度や色のミスマッチを補正する補正パラメータを推定する。続いて、推定された補正パラメータを用いて、処理対象領域に対して生成された視点合成画像を補正することによって予測画像を生成する。

Description

本発明は、ある被写体を撮影する複数のカメラにより撮影された画像を符号化する多視点画像符号化方法およびその装置と、その多視点画像符号化方法により符号化された符号データを復号する多視点画像復号方法およびその装置と、その多視点画像符号化方法の実現に用いられる多視点画像符号化プログラムと、その多視点画像復号方法の実現に用いられる多視点画像復号プログラムとに関する。
本願は、2009年2月23日に、日本に出願された特願2009−38786号に基づき優先権を主張し、その内容をここに援用する。
多視点画像とは、複数のカメラで同じ被写体と背景を撮影した複数の画像のことであり、多視点動画像(多視点映像)とは、その動画像のことである。
一般的な動画像符号化や多視点動画像符号化に用いられる技術として、動き補償予測と視差補償予測とが提案されている。
動き補償予測は、H.264に代表される近年の動画像符号化方式の国際標準にも採用されている手法であり、符号化対象フレームを既に符号化済みの参照フレームとの間で被写体の動きを補償して画像信号のフレーム間差分を取り、その差分信号のみを符号化する(非特許文献1参照)。
一方、視差補償予測は、参照フレームとして別のカメラで撮影されたフレームを用いることで被写体の視差を補償して、画像信号のフレーム間差分を取りながら符号化する(非特許文献2参照)。
ここで用いられる視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ位置が投影される位置の差である。視差補償予測では、これを二次元ベクトルで表現して符号化を行っている。図9に示す通り、視差がカメラの位置と被写体のカメラからの距離(デプス)Depthとに依存して発生する情報であるため、この原理を利用した視点合成予測(視点補間予測)と呼ばれる方式が存在する。
視点合成予測(視点補間予測)では、符号化側もしくは復号側で得られた多視点映像に対して、カメラの位置情報と三角測量の原理を用いて被写体のデプスを推定し、その推定されたデプス情報を用いて符号化対象フレームを合成(補間)して予測画像とする方式である(特許文献1、非特許文献3参照)。なお、符号化側でデプスを推定する場合には、使用したデプスを符号化する必要がある。
これら別のカメラで撮影した画像を用いた予測では、カメラの撮像素子の応答に個体差があったり、カメラごとにゲインコントロールやガンマ補正が行われていたり、カメラごとに被写界深度や絞りなどの設定が異なっていたり、シーンに方向依存の照明効果があったりすると、符号化効率が劣化する。この理由は、符号化対象フレームと参照フレームとで被写体の輝度や色が同じであるという前提で予測を行っているためである。
こうした被写体の輝度や色の変化に対応すべく検討された方式として、輝度補償や色補正と呼ばれるものがある。この方式においては、参照フレームの輝度や色を補正したものを予測に使用するフレームとすることで、符号化する予測残差を小さく抑える。
H.264では、1次関数を用いて補正するWeighted Prediction が採用されており(非特許文献1参照)、非特許文献3では、色テーブルを用いて補正する方式が提案されている。
特開2007−036800号公報,“映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体”
ITU-T Rec. H.264/ISO/IEC 11496-10, "Advanced video coding for generic audiovisual services", Final Committee Draft, Document JVT-E022d7, September 2002.(pp.10-13, pp.62-73) Hideaki Kimata and Masaki Kitahara, "Preliminary results on multiple view video coding (3DAV)", document M10976 MPEG Redmond Meeting, July, 2004. K.Yamamoto, M.Kitahara, H.Kimata, T.Yendo, T.Fujii, M.Tanimoto, S.Shimizu, K.Kamikura, and Y.Yashima, "Multiview Video Coding Using View Interpolation and Color Correction," IEEE Transactions on Circuits and System for Video Technology, Vol.17, No.11, pp.1436-1449, November, 2007.
上記の輝度補償や色補正を用いた符号化の場合、次の二つの問題が存在する。
一つ目の問題は、輝度補償・色補正パラメータなどを付加することによる符号量の増加である。通常の視差補償予測や視点合成(補間)予測では符号化する必要のなかった輝度補償・色補正パラメータなどを符号化する必要が生じるため、符号化効率が低下する。
二つ目の問題は、補正の精度である。通常の動画像符号化におけるフェードやフラッシュの場合、画面全体が同様に変化するため、単一の補正パラメータで十分な輝度補償や色補正などを行うことが可能である。しかしながら、被写体が完全な拡散反射体ではないことや、カメラごとに被写界深度やフォーカスが完全に一致していないことによるミスマッチ(輝度や色の不一致)は、シーンではなく、被写体に依存するミスマッチである。そのため単一の補正パラメータによる補正では、被写体によってはミスマッチを拡大させてしまう場合がある。
この問題に対して、被写体ごとのミスマッチに対応するために複数の補正パラメータを用いる方法も考えられる。しかしながら、この方法を用いると、複数の補正パラメータを符号化する符号量だけでなく、画像領域ごとにどの補正パラメータを用いるのかを示す情報を符号化する必要が生じるため、更なる符号量の増大を招くことになり一つ目の問題を解決することができない。
本発明はかかる事情に鑑みてなされたものであって、カメラ間で局所的な輝度や色のミスマッチを伴うような多視点画像(多視点の静止画像や動画像)においても、高能率な符号化を実現し、かつ、その実現にあたって必要とされる符号量の削減を実現する新たな多視点画像符号化および復号技術を提供することを目的とする。
〔1〕本発明の基本的な技術思想
前述の課題を解決するために、本発明では、符号化/復号対象フレームを分割して、領域ごとに多視点画像の符号化/復号を行う場合において、以下の手段を講ずる。
まず、処理対象領域に撮影されている被写体のデプス情報を求める。次に、処理対象領域に隣接する既に符号化(復号)済みの領域において、処理対象領域と同じ被写体が撮影されている画素群をデプス情報から求めてサンプル画素群とする。続いて、このサンプル画素群に含まれる画素に対して視点合成画像を生成するとともに、処理対象領域に含まれる画素に対して視点合成画像を生成する。続いて、サンプル画素群における視点合成画像および復号画像から輝度や色のミスマッチを補正する補正パラメータを推定する。続いて、推定された補正パラメータを用いて、処理対象領域に対して生成された視点合成画像を補正することで、処理対象領域における画像信号の符号化(復号)に使用する予測画像を生成する。
符号化対象フレームと参照フレームとを比較して補正パラメータを算出する従来の方法の場合は、符号化対象フレームは復号側では入手不可能なため、補正パラメータを符号化する必要がある。
一方、本発明では、符号化/復号対象フレームの既に符号化/復号済みの領域の画像信号と、参照フレームを用いて生成される視点合成画像の情報とを比較して補正パラメータを算出している。これらは復号側で入手可能なものであるため、補正パラメータを符号化する必要がない。つまり、本発明によって符号量増加の問題を解決することが可能である。
また、符号化処理は入力信号をできるだけ忠実に変換する処理であるため、符号化対象の画像信号と符号化/復号済みの画像信号はほぼ同じものとみなすことが可能である。つまり、本発明によって算出される補正パラメータは視点合成画像を符号化対象フレームに近づけ、符号化しなければならない予測差分を十分小さくすることができる。
また、本発明では、処理対象領域に撮影されている被写体と同じ被写体が撮影されている隣接領域の情報を用いて補正パラメータの推定を行う。これにより、被写体に依存した輝度や色の補正を行うことが可能となる。なお、この被写体の判定には視点合成画像を生成する際に必要となるデプス情報を用いるため、別途情報を符号化して伝送する必要はない。
上記の多視点画像符号化/復号において、処理対象領域におけるデプス情報の分散を求めて予め定められた閾値との比較を行うことで、処理対象領域に複数の被写体が撮影されているのか否かを判定し、複数の被写体が撮影されている場合には、被写体ごとにデプス情報及びサンプル画素群を定めて補正パラメータを推定する。なお、処理対象領域に一定画素未満しか存在しない被写体は別の被写体と同時に処理することで、演算量の増加を防ぐことも可能である。
さらに、上記の多視点画像符号化/復号方法において、サンプル画素群の画素数に基いて、複数存在する補正モデル(補正パラメータ数)を変更する。
〔2〕本発明の構成
次に、本発明の多視点画像符号化装置および多視点画像復号装置の構成について説明する。
[2−1]本発明の多視点画像符号化装置の構成
本発明の多視点画像符号化装置は、第1のカメラで撮影された被写体の入力画像を複数の符号化対象領域に分割し、前記入力画像についてのデプス情報と前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の既に符号化済みの画像とから合成された視点合成画像を用いて、前記符号化対象領域ごとに予測符号化を行うことによって多視点画像(多視点の静止画像や動画像)を符号化する装置であって、(1)前記符号化対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定部と、(2)前記符号化対象領域に隣接する既に符号化済みの領域におけるデプス情報と代表デプス情報とに基づいて、前記符号化対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定部と、(3)サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定部と、(4)前記補正パラメータを用いて、前記符号化対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正部と、(5)前記補正視点合成画像を用いて、前記符号化対象領域の画像信号を符号化して符号データを生成する画像符号化部と、(6)前記符号データを復号して、前記符号化対象領域における復号画像を生成する画像復号部とを備える。
本発明の実施形態による多視点画像符号化装置は、さらに、(7)前記符号化対象領域における画素を、当該画素のデプス情報を基準にしてグルーピングする被写体判定部を備えてもよい。この場合には、代表デプス設定部は、被写体判定部で求められたグループごとに代表デプス情報を設定し、サンプル画素群設定部は、被写体判定部で求められたグループごとにサンプル画素群を設定し、補正パラメータ推定部は、被写体判定部で求められたグループごとに補正パラメータを推定し、視点合成画像補正部は、被写体判定部で求められたグループごとに視点合成画像を補正するようにしてもよい。
また、本発明の実施形態による多視点画像符号化装置は、さらに、(8)サンプル画素群の画素数に応じて前記符号化対象領域についての前記視点合成画像を補正する補正モデルを選択する補正モデル選択部を備えてもよい。この場合には、補正パラメータ推定部は、補正モデル選択部で選択された補正モデルにおける補正パラメータを推定し、視点合成画像補正部は、補正モデル選択部で選択された補正モデルを用いて視点合成画像を補正する。
以上の各処理手段が動作することで実現される本発明の多視点画像符号化方法はコンピュータプログラムでも実現できる。このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することができる。
[2−2]本発明の多視点画像復号装置の構成
本発明の多視点画像復号装置は、第1のカメラで撮影された被写体の画像を前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の画像を用いて符号化した復号対象画像の符号データを、前記復号対象画像についてのデプス情報と前記第2のカメラで撮影された既に復号済みの前記被写体の画像とから合成された視点合成画像を用いて、前記復号対象画像を分割した複数の復号対象領域ごとに復号を行うことによって多視点画像(多視点の静止画像や動画像)の符号データを復号する装置であって、(1)前記復号対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定部と、(2)前記復号対象領域に隣接する既に復号済みの領域におけるデプス情報と前記代表デプス情報とに基づいて、前記復号対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定部と、(3)サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定部と、(4)前記補正パラメータを用いて、前記復号対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正部と、(5)前記補正視点合成画像を用いて、前記復号対象領域の画像信号を復号する画像復号部とを備える。
本発明の実施形態による多視点画像復号装置は、さらに、(6)前記復号対象領域における画素を、当該画素のデプス情報を基準にしてグルーピングする被写体判定部を備えてもよい。この場合には、代表デプス設置部は、被写体判定部で求められたグループごとに代表デプス情報を設定し、サンプル画素群設定部は、被写体判定部で求められたグループごとにサンプル画素群を設定し、補正パラメータ推定部は、被写体判定部で求められたグループごとに補正パラメータを推定し、視点合成画像補正部は、被写体判定部で求められたグループごとに視点合成画像を補正するようにしてもよい。
また、本発明の実施形態による多視点画像復号装置は、さらに、(7)サンプル画素群の画素数に応じて前記復号対象領域についての前記視点合成画像を補正する補正モデルを選択する補正モデル選択部を備えてもよい。この場合には、補正パラメータ推定部は、補正モデル選択部で選択された補正モデルにおける補正パラメータを推定し視点合成画像補正部は、補正モデル選択部で選択された補正モデルを用いて視点合成画像を補正する。
以上の各処理手段が動作することで実現される本発明の多視点画像復号方法はコンピュータプログラムでも実現できる。このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することができる。
本発明によれば、カメラ間で輝度や色のミスマッチが被写体に応じて局所的に生じている場合においても、このミスマッチに対処するための補正パラメータを被写体に応じて局所的に求めるようにしていることから、予測差分を小さくすることができる。したがって、効率的な多視点画像や多視点動画像の符号化および復号を実現することができる。
しかも、本発明によれば、そのようにして求める補正パラメータを別途符号化/復号する必要がないことから、多視点画像や多視点動画像の符号化および復号にあたっての符号量を大幅に削減することができる。
本発明の第1の実施形態による多視点映像符号化装置を示すブロック図である。 本発明の第1の実施形態による多視点映像符号化装置が実行する処理を示すフローチャートである。 本発明の第1の実施形態による多視点映像符号化装置が実行する処理の詳細を示すフローチャートである。 本発明の第1の実施形態による多視点映像符号化装置が実行する処理を示すフローチャートである。 本発明の第2の実施形態による多視点映像復号装置を示すブロック図である。 本発明の第2の実施形態による多視点映像復号装置が実行する処理を示すフローチャートである。 本発明の第2の実施形態による多視点映像復号装置が実行する処理の詳細を示すフローチャートである。 本発明の第1および第2実施形態における補正パラメータ生成部を示すブロック図である。 視差補償予測方式を示す図である。
以下、本発明の実施形態を示す図面を参照して本発明を詳細に説明する。
なお、以下の説明では、映像(フレーム)やデプス情報に、位置を特定可能な情報(記号[]で挟まれた情報であり、座標値もしくは座標値に対応付け可能なインデックス)を付加することで、その位置の画素に撮影された被写体の画像信号やデプス情報(画素ごとに定義される)を示す。
[1]本発明の第1の実施形態による多視点映像符号化装置
図1に、本発明の第1の実施形態に係る多視点映像符号化装置100の装置構成を図示する。
図1に示すように、本実施形態の多視点映像符号化装置100において、符号化対象画像入力部101は、第1のカメラで撮影された被写体の画像(フレーム)を符号化対象として入力する。符号化対象画像メモリ102は、符号化対象画像入力部101から入力された符号化対象フレームを蓄積する。蓄積された符号化対象フレームは、画像符号化部109に供給される。
視点合成画像入力部103は、第1のカメラとは異なる位置に配置された別の第2のカメラで同一の被写体を撮影して得られた画像の符号化済みのフレームを用いて生成された符号化対象フレームについての視点合成画像を入力する。視点合成画像メモリ104は、視点合成画像入力部103から入力された視点合成画像を蓄積する。蓄積された視点合成画像は、補正パラメータ生成部107および視点合成画像補正部108に供給される。
デプス情報入力部105は、符号化対象フレームについてのデプス情報を入力する。デプス情報メモリ106は、デプス情報入力部105から入力されたデプス情報を蓄積する。蓄積されたデプス情報は、補正パラメータ生成部107に供給される。
補正パラメータ生成部107は、符号化対象領域の周辺領域における視点合成画像、デプス情報および復号画像と、符号化対象領域におけるデプス情報とを用いて補正パラメータを推定する。視点合成画像補正部108は、推定された補正パラメータを用いて符号化対象領域の視点合成画像を補正する。
画像符号化部109は、補正された視点合成画像を予測信号として使用しながら符号化対象領域の画像信号を符号化する。画像符号化部109は、符号化された画像信号を復号する。復号画像メモリ111は、画像符号化部109によって復号された画像を蓄積する。復号画像メモリ111に蓄積された復号画像は、補正パラメータ生成部107に供給される。
補正パラメータ生成部107は、図8に示すとおり、デプス情報メモリ106からのデプス情報が供給される被写体判定部107a、この被写体判定部107aの下流に順に接続された代表デプス設定部107bおよびサンプル画素群設定部107cを有する。サンプル画素群設定部107cには、その下流に補正モデル選択部107dおよび補正パラメータ推定部107eが順に接続される。補正パラメータ推定部107eには、復号画像メモリ111からの復号画像および視点合成画像メモリ104からの視点合成画像が供給され、供給された復号画像および視点合成画像を用いて推定した補正パラメータを視点合成画像補正部108に供給する。
図2に、このように構成される本実施形態の多視点映像符号化装置100が実行する処理のフローを示す。
この処理フローに従って、本実施形態の多視点映像符号化装置100が実行する処理について詳細に説明する。
まず、符号化対象画像入力部101により符号化対象フレームOrgが入力されて符号化対象画像メモリ102に格納される。視点合成画像入力部103により符号化対象フレームOrgに対しての視点合成画像Synthが入力されて視点合成画像メモリ104に格納される。デプス情報入力部105により符号化対象フレームOrgに対してのデプス情報Depthが入力されてデプス情報メモリ106に格納される[A1]。
ここで入力される視点合成画像とデプス情報とは復号装置で得られるものと同じものである。これは、復号装置で得られる情報と同じ情報を用いることでドリフト等の符号化ノイズの発生を抑えるためである。ただし、これらの符号化ノイズの発生を許容する場合は、符号化前のオリジナルのものが入力されても構わない。
なお、デプス情報は多視点映像符号化装置100の外部より与えられるものとしているが、非特許文献3に記載されたように、既に符号化済みの別のカメラのフレームから推定して求めることも可能である。したがって、必ずしも送信側から受信側へ伝送される必要はない。また、視点合成画像は、既に符号化済みの第2のカメラのフレームとデプス情報とを用いて生成される。
次に、符号化対象フレームを複数の符号化対象領域に分割し、その領域ごとに視点合成画像を補正しながら、画像符号化部109で符号化対象フレームの画像信号を符号化する[A2−A15]。
つまり、符号化処理ブロックのインデックスをblk 、総符号化処理ブロック数を numBlks で表すとすると、blk を0で初期化した後[A2]、blk に1を加算しながら[A14]、blk が numBlks になるまで[A15]、以下のステップ[A3−A13]を繰り返す。
符号化処理ブロックごとに繰り返される処理では、符号化装置100は、まずブロックblk(符号化対象領域)の周辺の符号化済み領域の画素の集合Nblk を求める[A3]。
周辺領域としてはブロックblk に隣接する符号化処理ブロックや隣接画素など、様々な単位のものを用いることが可能である。どのような定義の周辺領域を使用しても構わないが、復号側で使用する定義と同じものを使用する必要がある。
次に、補正パラメータ生成部107の被写体判定部107aは、画素ごとに与えられたデプス情報を基準にして、ブロックblk 内の画素のグルーピングを行う[被写体判定ステップA4]。
この結果の各グループのインデックスをobj 、グループ数を numObjs と表し、グループobj に属する画素をCobj と表すことにする。
グルーピングにはどのような方法を用いても構わないが、復号側で使用する方法と同じものを使用する必要がある。最も簡単なグルーピング方法としては、ブロックblk内の画素のデプス情報の分散を求め、その値が閾値以下なら全体として1つのグループとし、閾値より大きい場合はデプス値の平均を境界にして2つのグループに分割する方法がある。この場合、全てのグループに含まれる画素のデプス情報の分散がある閾値以下になったらグルーピングを終了する。
より複雑なグルーピング方法としては、初めは各画素が1つのグループを成しているものとし、ある2つのグループを融合した際に、グループ内の画素のもつデプス情報の分散の増加が最も少ないものを順に融合していく方法がある。この場合、どの2つのグループを融合してもある閾値を超える分散を持つグループが発生してしまう場合に、グルーピングを終了する。
なお、グループ数が増加すると演算量が増加するため、予めグループの最大数を定義しておいてもよい。グループ数がその最大値になったらグルーピングを終了したり、予め1グループに含まれる画素の最小数を定義しておき、小さなグループを生成しないようにしたりすることで、グループ数の増大を防ぐことができる。ブロックサイズが、一般的な画像符号化の単位ブロックサイズの16×16画素であった場合、一般に、多数の被写体が同じブロックに撮影されることは稀である。したがって、最大グループ数は2でも精度の高いグルーピングを行うことが可能である。
グルーピングが終了したら、各グループの画素ごとに視点合成画像を補正することで予測画像Pred を生成する[A5−A11]。
つまり、グループインデックスobj を0に初期化した後[A5]、obj に1を加算しながら[A10]、obj が numObjs になるまで[A11]、補正パラメータ生成部107において、視点合成画像を補正するための補正パラメータを推定するステップ[A6−A8]を行う。この処理とともに、視点合成画像補正部108において、推定された補正パラメータを用いてグループobj に含まれる画素についての視点合成画像を補正して予測画像を生成するステップ[A9]とを繰り返す。
補正パラメータの推定処理では、まずデプス情報をもとに、ブロックblk (符号化対象領域)の周辺の符号化済み領域の画素の集合Nblk に含まれる、グループobj と同じ被写体が撮影されている画素の集合Nblk,obj(サンプル画素群)を求める[代表デプス設定ステップおよびサンプル画素群設定ステップA6]。
具体的な処理としては、まず、代表デプス設定部107bにおいて、グループobj の代表デプス値Dobj を求める(代表デプス設定ステップ)。代表デプス値Dobj を求める方法としては、グループobj 内の画素Cobj についてのデプス情報を用いて1つのデプス情報を求めることが可能であれば、どのような方法を用いることができる。ただし、復号側と同じ処理で求める必要がある。例えば、平均値や中央値などを使うことができる。平均値を用いる場合の代表デプス値Dobj は次の式(1)で表すことができる。なお、‖‖はその集合の画素数を表す。
Figure 2010095471
なお、被写体判定ステップA4でデプス情報を基準にして画素のグルーピングを行う際に、グループの代表となる画素やグループを示すデプス情報を決めながら、画素のグルーピングを行う手法が存在する。そのような手法を用いる場合、そのときのグループの代表として用いられた画素の持つデプス情報やグループを示すデプス情報を代表デプス値としても構わない。この場合、代表デプス設定ステップの処理は被写体判定ステップA4で同時に行われる。グループの代表決定とグルーピングとを同時に行う手法として代表的なものにAffinity Propagationと呼ばれる手法がある。この手法は、B. J. Frey and D. Dueck, “Clustering by Passing Messages Between Data Points”, Science 2007, Vol. 315(5814): pp. 972-976に記載されている。
このようにして代表デプス値Dobj を求めると、続いて、サンプル画素群設定部107cにおいて、集合Nblk に含まれるグループobj と同じ被写体が撮影されている画素の集合Nblk,obj (サンプル画素群)を求める(サンプル画素群設定ステップ)。集合Nblk,obj は、次の式(2)で表されるように、その画素についてのデプス値と代表デプス値との差分絶対値が予め与えられた閾値thSameObj未満とすることで定義することができる。
Figure 2010095471
集合Nblk,obj が求まった後、その集合の画素数に応じて、補正モデル選択部107dにおいて、予め準備されている補正モデルの中から使用するものを選択する[補正モデル選択ステップA7]。
幾つの補正モデルを準備しても構わないが、復号側でも同じ補正モデルを準備し、同じ判断基準によって使用する補正モデルを選択しなくてはならない。また、補正モデルが1つしか準備されていない場合は、このステップを省略することができる。
後述するステップA9で実行することになる視点合成画像を補正して予測画像を生成する処理は、視点合成画像を入力として予測画像を出力する関数として表現することが可能である。補正モデルとは、このときに用いる関数のモデルを指す。例えば、オフセットによる補正、1次関数を用いた補正、タップ長kの二次元線形フィルタ処理などがある。補正対象の画素をpとすると、これらは、それぞれ、以下の式(3)〜式(5)で表すことが可能である。
Figure 2010095471
オフセットによる補正や1次関数を用いた補正は、線形フィルタ処理による補正の特殊な例である。なお、補正処理は線形処理である必要はなく、補正パラメータ推定が可能であれば非線形フィルタを使用しても構わない。非線形な補正方法の例としてはガンマ補正がある。ガンマ補正は次の式(6)で表すことができる。
Figure 2010095471
これらの補正モデルの例では、それぞれ、offset、(α,β)、({Fi,j }, o)、(γ,a,b)が補正パラメータとなる。つまり、補正モデルによって補正パラメータの数が変化する。
補正パラメータの数が多いほど精度の高い補正を行うことが可能であるが、これらの補正パラメータを決定するためには、最低でも補正パラメータと同じ数だけのサンプルが必要となる。後述するように、このサンプルが前記の集合Nblk,obj に含まれるサンプル画素の視点合成画像および復号画像となるため、集合Nblk,obj の画素数に応じて補正モデルを決定することによって、精度よく補正を行うことが可能となる。なお、補正パラメータ推定には出来るだけ多くのサンプルを用いたほうが、推定された補正パラメータの頑健性が向上する。したがって、十分な頑健性を保つことのできるように補正モデルの選択を行うことが望ましい。
1つの補正モデルを選択した後、補正パラメータ推定部107eにおいて、集合Nblk,obj に含まれる画素に対しての視点合成画像Synthおよび復号画像Decをサンプルとして、その補正モデルに含まれる補正パラメータの推定を行う[補正パラメータ推定ステップA8]。
ここで行われる補正パラメータの推定では、集合Nblk,obj に含まれる画素の補正前の値を視点合成画像とし、理想的な補正後の値を復号画像とした際に、実際に補正モデルで補正した際の値と理想値との誤差が出来るだけ小さくなるように求める。
例えば、補正が線形処理であるとすると、最小二乗法を用いて補正パラメータを決定することができる。つまり、補正を関数Mで表すとすると、次の式(7)で表される補正パラメータの二次関数で表される値を最小化すればよい。
Figure 2010095471
つまり、各補正パラメータに関する式(7)の偏微分値が0になる連立方程式を解くことで、補正パラメータを求めることができる。
補正パラメータが推定できたら、視点合成画像補正部108において、ブロックblk のグループobj についての視点合成画像Synthを補正パラメータに従って補正することで、ブロックblk のグループobj についての予測画像Pred を生成する[視点合成画像補正ステップA9]。
この予測画像Pred の生成処理は、具体的には、図3の処理フローに示すように、画素ごとに行われる。ここで、図3の処理フローにおいて、pix は画素の識別情報を表し、 numPixblk,obj はブロックblk のグループobj 内の画素数を表す。
例えば、オフセット値を用いた補正を行う場合には、前述した式(3)従って予測画像Pred が生成される。
この予測画像Pred の生成について、補正方法(補正モデル)として、オフセット値を用いた式(3)の補正を行う例について説明する。図4に示すように、補正パラメータ推定ステップA8において、周辺の符号化済み領域に存在する同じ被写体に対しての視点合成画像の画素値をIn とし、その被写体の復号画像の画素値をOutとした場合のoffsetを推定することで、画素値変換式となる補正モデルを決定する。次に、ステップA9で、その決定した画素値変換式のIn に、ブロックblk のグループobj についての視点合成画像の画素値を代入することで、ブロックblk のグループobj についての予測画像を補正するように処理する。
ブロックblk についての予測画像の生成が終了したら、画像符号化部109において、ステップA9で生成した予測画像Pred を予測信号としながら、ブロックblk についての符号化対象フレームOrgの符号化を行う[画像符号化ステップA12]。
この符号化ステップA12においては、どのような符号化方法を用いても構わないが、H.264など一般的な符号化手法では、OrgとPred との差分に対して、DCT・量子化・2値化・エントロピー符号化を施すことによって符号化を行う。
符号化結果のビットストリームは多視点映像符号化装置100の出力となる。また、符号化結果のビットストリームはブロックごとに画像復号部110で復号され、復号結果であるところの復号画像Decが他のブロックにおける補正パラメータ推定のために復号画像メモリ111に格納される[画像復号ステップA13]。
このようにして、図1のように構成される多視点映像符号化装置100は、カメラ間で輝度や色のミスマッチが被写体に応じて局所的に生じている場合においても、多視点映像を高能率に符号化できるようにするために、このミスマッチに対処するための補正パラメータを被写体に応じて局所的に求める。 また、この多視点映像符号化装置100は、符号量の増加を回避するために、その補正パラメータを別途符号化/復号する必要がない形態で求めるようにしつつ、その多視点映像の符号化を実行する。
本実施形態では、視点合成画像を必ず使用してブロックblk の画像信号を符号化する場合を説明したが、本実施形態で説明した視点合成画像を用いた映像予測を、複数存在する予測化モードの1つとして使用することも可能である。
[2]本発明の第2の実施形態による多視点映像復号装置
図5に、本発明の第2の実施形態に係る多視点映像復号装置200の装置構成を図示する。
図5に示すように、本実施形態の多視点映像復号装置200において、符号データ入力部201は、第1のカメラで撮影された被写体の画像(フレーム)の符号データを復号対象として入力する。符号データメモリ202は、符号データ入力部201から入力された符号データを蓄積する。蓄積された符号データは、画像復号部209に供給される。
視点合成画像入力部203は、第1のカメラとは異なる位置に配置された第2のカメラで同一の被写体を撮影して得られた画像の復号済みのフレームを用いて生成された復号対象フレームについての視点合成画像を入力する。視点合成画像メモリ204は、視点合成画像入力部203から入力された視点合成画像を蓄積する。蓄積された視点合成画像は、補正パラメータ生成部207および視点合成画像補正部208に供給される。
デプス情報入力部205は、復号対象フレームについてのデプス情報を入力する。デプス情報メモリ206は、デプス情報入力部205から入力されたデプス情報を蓄積する。蓄積されたデプス情報は、補正パラメータ生成部207に供給される。
補正パラメータ生成部207は、復号対象領域の周辺領域における視点合成画像、デプス情報および復号画像と、復号対象領域におけるデプス情報とを用いて補正パラメータを推定する。視点合成画像補正部208は、推定された補正パラメータを用いて復号対象領域の視点合成画像を補正する。
画像復号部209は、補正された視点合成画像を予測信号として使用しながら復号対象領域の画像信号を復号する。(10)復号画像メモリ210は、画像復号部209で復号された画像を蓄積する。
補正パラメータ生成部207は、図8に示すとおり、デプス情報メモリ206からのデプス情報が供給される被写体判定部207a、この被写体判定部207aの下流に順に接続された代表デプス設定部207bおよびサンプル画素群設定部207cを有する。サンプル画素群設定部207cには、その下流に補正モデル選択部207dおよび補正パラメータ推定部207eが順に接続される。補正パラメータ推定部207eには、復号画像メモリ210からの復号画像および視点合成画像メモリ204からの視点合成画像が供給され、供給された復号画像および視点合成画像を用いて推定した補正パラメータを視点合成画像補正部208に供給する。
図6に、このように構成される第2の実施形態の多視点映像復号装置200が実行する処理のフローを示す。
この処理フローに従って、本実施形態の多視点映像復号装置200が実行する処理について詳細に説明する。
まず、符号データ入力部201により復号対象フレームの符号データが入力されて符号データメモリ202に格納される。視点合成画像入力部203により復号対象フレームに対しての視点合成画像Synthが入力されて視点合成画像メモリ204に格納される。デプス情報入力部205により復号対象フレームに対してのデプス情報Depthが入力されてデプス情報メモリ206に格納される[B1]。
ここで入力される視点合成画像とデプス情報は符号化装置で得られるものと同じものである。これは符号化装置で得られる情報と同じ情報を用いることでドリフト等の符号化ノイズの発生を抑えるためである。ただし、これらの符号化ノイズの発生を許容する場合は、符号化装置と異なるものが入力されても構わない。
なお、デプス情報は多視点映像復号装置200の外部より与えられるものとしているが、非特許文献3に記載されたように、既に復号済みの別のカメラのフレームから推定して求めることも可能である。したがって、必ずしも送信側から受信側へ伝送される必要はない。また、視点合成画像は、既に復号済みの第2のカメラのフレームとデプス情報とを用いて生成される。
次に、復号対象フレームを複数の復号対象領域に分割し、その領域ごとに視点合成画像を補正しながら、画像復号部209で復号対象フレームの画像信号を復号する[B2−B14]。
つまり、復号処理ブロックのインデックスをblk 、総復号処理ブロック数を numBlks で表すとすると、blk を0で初期化した後[B2]、blk に1を加算しながら[B13]、blk が numBlks になるまで[B14]、以下のステップ[B3−B12]を繰り返す。
復号処理ブロックごとに繰り返される処理では、復号装置200は、まずブロックblk (復号対象領域)の周辺の復号済み領域の画素の集合Nblk を求める[B3]。
周辺領域としてはブロックblk に隣接する復号処理ブロックや隣接画素など、様々な単位のものを用いることが可能である。どのような定義の周辺領域を使用しても構わないが、符号化側で使用する定義と同じものを使用する必要がある。
次に、補正パラメータ生成部207の被写体判定部207aは、画素ごとに与えられたデプス情報を基準にして、ブロックblk 内の画素のグルーピングを行う[被写体判定ステップB4]。
この結果の各グループのインデックスをobj 、グループ数を numObjs と表し、グループobj に属する画素をCobj と表すことにする。ここでの処理は第1の実施形態の被写体判定ステップA4と同じである。
グルーピングが終了したら、各グループの画素ごとに視点合成画像を補正することで予測画像Pred を生成する[B5−B11]。
つまり、グループインデックスobj を0に初期化した後[B5]、obj に1を加算しながら[B10]、obj が numObjs になるまで[B11]、補正パラメータ生成部207において、視点合成画像を補正するための補正パラメータを推定するステップ[B6−B8]を行う。この処理とともに、視点合成画像補正部208において、推定された補正パラメータを用いてグループobj に含まれる画素についての視点合成画像を補正して予測画像を生成するステップ[B9]とを繰り返す。
このステップB9での処理は第1の実施形態のステップA9と同じであり、図7の処理フローに示すように、画素ごとに行われる。ここで、図7の処理フローにおいて、pix は画素の識別情報を表し、 numPixblk,obj はブロックblk のグループobj 内の画素数を表す。代表デプス設定部207b、サンプル画素群設定部207c、補正モデル選択部207dおよび補正パラメータ推定部207eによって行われる、補正パラメータの推定ステップ[B6−B8]は、第1の実施形態におけるステップA6−A8と同じである。
ブロックblk についての予測画像の生成が終了したら、画像復号部209において、ステップB9で生成した予測画像Pred を予測信号としながら、ブロックblk についての復号対象画像Decを復号する[B12]。
ここで行われる復号処理は符号データを生成するときに用いられた方法に対応するものを使う必要がある。例えば、H.264を用いて符号化されている場合、エントロピー復号、多値化、逆量子化、逆DCTを行い復号された残差信号に対して予測信号を足し合わせることで復号処理が行われる。
復号結果の復号画像は多視点復号装置200の出力となるとともに、他のブロックにおける補正パラメータ推定のために復号画像メモリ210に格納される。
このようにして、図5のように構成される多視点映像復号装置200は、図1に示された多視点映像符号化装置100の生成した多視点映像復号の符号データを復号する。
本実施形態では、視点合成画像を必ず使用してブロックblk が符号化されているものとして説明を行った。視点合成画像を使う予測モードが複数存在する予測モードの1つとして使われて符号データを復号する場合においても、その予測モードが使われている場合にのみ前述の処理フローに従って画像を復号し、それ以外の予測モードが使われている場合は、その予測モード(それ以外の予測モード)に従った従来の復号方法を用いることで画像を復号することが可能である。
上記説明を行った第1および第2の実施形態では、全てのブロックにおいて補正を行うようにしているが、ブロックごとに1ビットのフラグ情報を符号化することで、補正を行うか否かを選択する構成をとることもできる。
また、1ビットのフラグ情報を符号化せずに、補正パラメータの信頼度を測定し、その信頼度に応じて補正をするのか否かを選択する方法もある。
具体的には、ステップA8およびステップB8において補正パラメータを求めた後に、以下の式(8)〜式(10)に示すような補正の確からしさと有効性を表現する値を求めてもよい。補正パラメータ生成部107および207は、その値があらかじめ与えられた閾値よりも大きな場合にのみ、ステップA9およびステップB9において視点合成画像を補正したものを予測画像とし、それ以外の場合は、視点合成画像をそのまま予測画像とする。
Figure 2010095471
式(8)の第1項は復号画像Decと視点合成画像Synthとの差分絶対値和を示し、第2項は復号画像Decと予測画像Pred との差分絶対値和を示す。すなわち、式(8)は補正することによって真値と予測値との差分絶対値和がどの程度削減されたかを示す。また、式(9)の第1項は復号画像Decと視点合成画像Synthとの差分二乗和を示し、第2項は復号画像Decと予測画像Pred との差分二乗和を示す。すなわち、式(9)は補正することによって真値と予測値との差分二乗和がどの程度削減されたかを示す。また、式(10)は補正モデルが得られているサンプルに対してどの程度確からしいかを表す。ここで、どの値も処理対象ブロックではなく周辺領域の値を用いて求められているため、全体で用いる閾値のみを符号化して復号側に通知するだけでよい。
なお、本実施形態では、1つのカメラの1フレームを符号化又は復号する処理を説明したが、この処理をフレームごとに繰り返すことで多視点映像の符号化又は復号を実現することが可能である。さらに、カメラごとに繰り返すことで複数のカメラの多視点映像の符号化又は復号を実現することが可能である。
以上説明した処理は、コンピュータとソフトウェアプログラムとによっても実現することができ、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。
また、以上の実施の形態では多視点映像符号化装置および多視点映像復号装置を中心に説明したが、この多視点映像符号化装置の各部の動作に対応したステップによって本発明の多視点映像符号化方法を実現することができる。同様に、この多視点映像復号装置の各部の動作に対応したステップによって本発明の多視点映像復号方法を実現することができる。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものでないことは明らかである。したがって、本発明の範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
本発明は多視点画像の符号化手法に適用できる。本発明を適用することで、カメラ間で輝度や色のミスマッチが被写体に応じて局所的に生じている場合においても、効率的な多視点画像や多視点動画像の符号化および復号を実現できるようになるとともに、その実現にあたっての符号量を大幅に削減することができる。
100 多視点映像符号化装置
101 符号化対象画像入力部
102 符号化対象画像メモリ
103 視点合成画像入力部
104 視点合成画像メモリ
105 デプス情報入力部
106 デプス情報メモリ
107 補正パラメータ生成部
108 視点合成画像補正部
109 画像符号化部
110 画像復号部
111 復号画像メモリ
200 多視点映像復号装置
201 符号データ入力部
202 符号データメモリ
203 視点合成画像入力部
204 視点合成画像メモリ
205 デプス情報入力部
206 デプス情報メモリ
207 補正パラメータ生成部
208 視点合成画像補正部
209 画像復号部
210 復号画像メモリ

Claims (10)

  1. 第1のカメラで撮影された被写体の入力画像を複数の符号化対象領域に分割し、前記入力画像についてのデプス情報と前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の既に符号化済みの画像とから合成された視点合成画像を用いて、前記符号化対象領域ごとに予測符号化を行う多視点画像符号化方法であって、
    前記符号化対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定ステップと、
    前記符号化対象領域に隣接する既に符号化済みの領域におけるデプス情報と前記代表デプス情報とに基づいて、前記符号化対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定ステップと、
    前記サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定ステップと、
    前記補正パラメータを用いて、前記符号化対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正ステップと、
    前記補正視点合成画像を用いて、前記符号化対象領域の画像信号を符号化して符号データを生成する画像符号化ステップと、
    前記符号データを復号して、前記符号化対象領域における復号画像を生成する画像復号ステップと、
    を有する多視点画像符号化方法。
  2. 前記符号化対象領域における画素を、当該画素のデプス情報を基準にしてグルーピングする被写体判定ステップを有し、
    前記代表デプス設定ステップでは、前記被写体判定ステップで求められたグループごとに代表デプス情報を設定し、
    前記サンプル画素群設定ステップでは、前記被写体判定ステップで求められたグループごとにサンプル画素群を設定し、
    前記補正パラメータ推定ステップでは、前記被写体判定ステップで求められたグループごとに補正パラメータを推定し、
    前記視点合成画像補正ステップでは、前記被写体判定ステップで求められたグループごとに視点合成画像を補正する
    請求項1に記載の多視点画像符号化方法。
  3. 前記サンプル画素群の画素数に応じて前記符号化対象領域についての前記視点合成画像を補正する補正モデルを選択する補正モデル選択ステップを備え、
    前記補正パラメータ推定ステップでは、前記補正モデル選択ステップで選択された前記補正モデルにおける補正パラメータを推定し、
    前記視点合成画像補正ステップでは、前記補正モデル選択ステップで選択された前記補正モデルを用いて視点合成画像を補正する
    請求項1または2に記載の多視点画像符号化方法。
  4. 第1のカメラで撮影された被写体の画像を前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の画像を用いて符号化した復号対象画像の符号データを、前記復号対象画像についてのデプス情報と前記第2のカメラで撮影された既に復号済みの前記被写体の画像とから合成された視点合成画像を用いて、前記復号対象画像を分割した複数の復号対象領域ごとに復号を行う多視点画像復号方法であって、
    前記復号対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定ステップと、
    前記復号対象領域に隣接する既に復号済みの領域におけるデプス情報と前記代表デプス情報とに基づいて、前記復号対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定ステップと、
    前記サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定ステップと、
    前記補正パラメータを用いて、前記復号対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正ステップと、
    前記補正視点合成画像を用いて、前記復号対象領域の画像信号を復号する画像復号ステップと、
    を有する多視点画像復号方法。
  5. 前記復号対象領域における画素を、当該画素のデプス情報を基準にしてグルーピングする被写体判定ステップを有し、
    前記代表デプス設定ステップでは、前記被写体判定ステップで求められたグループごとに代表デプス情報を設定し、
    前記サンプル画素群設定ステップでは、前記被写体判定ステップで求められたグループごとにサンプル画素群を設定し、
    前記補正パラメータ推定ステップでは、前記被写体判定ステップで求められたグループごとに補正パラメータを推定し、
    前記視点合成画像補正ステップでは、前記被写体判定ステップで求められたグループごとに視点合成画像を補正する
    請求項4に記載の多視点画像復号方法。
  6. 前記サンプル画素群の画素数に応じて前記復号対象領域についての前記視点合成画像を補正する補正モデルを選択する補正モデル選択ステップを備え、
    前記補正パラメータ推定ステップでは、前記補正モデル選択ステップで選択された前記補正モデルにおける補正パラメータを推定し、
    前記視点合成画像補正ステップでは、前記補正モデル選択ステップで選択された前記補正モデルを用いて視点合成画像を補正する
    請求項4または5に記載の多視点画像復号方法。
  7. 第1のカメラで撮影された被写体の入力画像を複数の符号化対象領域に分割し、前記入力画像についてのデプス情報と既に前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の符号化済みの画像とから合成された視点合成画像を用いて、前記符号化対象領域ごとに予測符号化を行う多視点画像符号化装置であって、
    前記符号化対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定部と、
    前記符号化対象領域に隣接する既に符号化済みの領域におけるデプス情報と前記代表デプス情報とに基づいて、前記符号化対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定部と、
    前記サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定部と、
    前記補正パラメータを用いて、前記符号化対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正部と、
    前記補正視点合成画像を用いて、前記符号化対象領域の画像信号を符号化して符号データを生成する画像符号化部と、
    前記符号データを復号して、前記符号化対象領域における復号画像を生成する画像復号部と、
    を有する多視点画像符号化装置。
  8. 第1のカメラで撮影された被写体の画像を前記第1のカメラとは異なる位置に配置された第2のカメラで撮影された前記被写体の画像を用いて符号化した復号対象画像の符号データを、前記復号対象画像についてのデプス情報と前記第2のカメラで撮影された既に復号済みの前記被写体の画像とから合成された視点合成画像を用いて、前記復号対象画像を分割した複数の復号対象領域ごとに復号を行う多視点画像復号装置であって、
    前記復号対象領域において撮影された被写体についての代表デプス情報を設定する代表デプス設定部と、
    前記復号対象領域に隣接する既に復号済みの領域におけるデプス情報と前記代表デプス情報とに基づいて、前記復号対象領域内と同じ被写体が撮影されている画素群を求めてサンプル画素群として設定するサンプル画素群設定部と、
    前記サンプル画素群についての前記視点合成画像および前記サンプル画素群について既に復号された復号画像に基づいて、輝度および色のミスマッチを補正する補正パラメータを推定する補正パラメータ推定部と、
    前記補正パラメータを用いて、前記復号対象領域についての前記視点合成画像を補正して補正視点合成画像を生成する視点合成画像補正部と、
    前記補正視点合成画像を用いて、前記復号対象領域の画像信号を復号する画像復号部と、
    を有する多視点画像復号装置。
  9. 請求項1ないし3のいずれか1項に記載の多視点画像符号化方法をコンピュータに実行させるための多視点画像符号化プログラム。
  10. 請求項4ないし6のいずれか1項に記載の多視点画像復号方法をコンピュータに実行させるための多視点画像復号プログラム。
JP2011500540A 2009-02-23 2010-02-23 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム Active JP5521202B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011500540A JP5521202B2 (ja) 2009-02-23 2010-02-23 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009038786 2009-02-23
JP2009038786 2009-02-23
JP2011500540A JP5521202B2 (ja) 2009-02-23 2010-02-23 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
PCT/JP2010/001213 WO2010095471A1 (ja) 2009-02-23 2010-02-23 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム

Publications (2)

Publication Number Publication Date
JPWO2010095471A1 true JPWO2010095471A1 (ja) 2012-08-23
JP5521202B2 JP5521202B2 (ja) 2014-06-11

Family

ID=42633758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011500540A Active JP5521202B2 (ja) 2009-02-23 2010-02-23 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム

Country Status (11)

Country Link
US (1) US8548228B2 (ja)
EP (1) EP2400759B1 (ja)
JP (1) JP5521202B2 (ja)
KR (1) KR101344425B1 (ja)
CN (1) CN102326391B (ja)
BR (1) BRPI1008500B1 (ja)
CA (1) CA2752567C (ja)
ES (1) ES2524973T3 (ja)
RU (1) RU2498522C2 (ja)
TW (2) TWI433544B (ja)
WO (1) WO2010095471A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5436458B2 (ja) * 2009-02-12 2014-03-05 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
TWI433544B (zh) * 2009-02-23 2014-04-01 Nippon Telegraph & Telephone 多視點圖像編碼方法、多視點圖像解碼方法、多視點圖像編碼裝置、多視點圖像解碼裝置、多視點圖像編碼程式及多視點圖像解碼程式
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
KR20120082606A (ko) * 2011-01-14 2012-07-24 삼성전자주식회사 깊이 영상의 부호화/복호화 장치 및 방법
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
JP6061150B2 (ja) * 2011-03-18 2017-01-18 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6072678B2 (ja) * 2011-04-25 2017-02-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
JP5729825B2 (ja) * 2011-09-26 2015-06-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP5711636B2 (ja) * 2011-09-26 2015-05-07 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム
EP3462742A1 (en) * 2011-11-11 2019-04-03 GE Video Compression, LLC Multi-view coding with exploitation of renderable portions
WO2013068493A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with effective handling of renderable portions
JP2013110555A (ja) * 2011-11-21 2013-06-06 Sharp Corp 画像符号化装置、画像復号装置、並びにそれらの方法及びプログラム
US9288506B2 (en) 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
WO2013115024A1 (ja) * 2012-01-31 2013-08-08 ソニー株式会社 画像処理装置および画像処理方法
WO2013162272A1 (ko) * 2012-04-24 2013-10-31 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN103379349B (zh) * 2012-04-25 2016-06-29 浙江大学 一种视点合成预测编码方法、解码方法、对应的装置及码流
WO2013159330A1 (en) * 2012-04-27 2013-10-31 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
US20130329800A1 (en) * 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
US9615089B2 (en) 2012-12-26 2017-04-04 Samsung Electronics Co., Ltd. Method of encoding and decoding multiview video sequence based on adaptive compensation of local illumination mismatch in inter-frame prediction
CN104885450B (zh) 2012-12-27 2017-09-08 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
WO2014103967A1 (ja) * 2012-12-27 2014-07-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JPWO2015037473A1 (ja) * 2013-09-11 2017-03-02 ソニー株式会社 画像処理装置および方法
JP2016134803A (ja) * 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
KR101764531B1 (ko) 2016-02-29 2017-08-04 한경대학교 산학협력단 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
DE112018006130T5 (de) * 2017-12-01 2020-08-20 Sony Corporation Codierungsvorrichtung, codierungsverfahren, decodierungsvorrichtung und decodierungsverfahren
CN114466174B (zh) * 2022-01-21 2023-04-28 南方科技大学 一种多视点3d图像编码方法、设备、系统和存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875095A (en) * 1987-06-30 1989-10-17 Kokusai Denshin Denwa Kabushiki Kaisha Noise-shaping predictive coding system
US6055330A (en) 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US7064783B2 (en) * 1999-12-31 2006-06-20 Stmicroelectronics, Inc. Still picture format for subsequent picture stitching for forming a panoramic image
JP3519673B2 (ja) * 2000-07-07 2004-04-19 松下電器産業株式会社 動画データ作成装置及び動画符号化装置
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
AU2003269525A1 (en) * 2002-10-15 2004-05-04 Samsung Electronics Co., Ltd. Information storage medium with data structure for multi-angle and apparatus therefor
US8284837B2 (en) * 2004-09-16 2012-10-09 Thomson Licensing Video codec with weighted prediction utilizing local brightness variation
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
JP4414379B2 (ja) 2005-07-28 2010-02-10 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2007081176A1 (en) 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video
US20070177671A1 (en) 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
CN101371571B (zh) * 2006-01-12 2013-06-19 Lg电子株式会社 处理多视图视频
KR101293086B1 (ko) * 2006-02-17 2013-08-06 톰슨 라이센싱 비디오 데이터 밝기 변화를 다루는 지역화된 가중 예측
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法
EP2005752A4 (en) 2006-03-30 2010-06-09 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL
US9456222B2 (en) 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
JP5436458B2 (ja) * 2009-02-12 2014-03-05 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
TWI433544B (zh) * 2009-02-23 2014-04-01 Nippon Telegraph & Telephone 多視點圖像編碼方法、多視點圖像解碼方法、多視點圖像編碼裝置、多視點圖像解碼裝置、多視點圖像編碼程式及多視點圖像解碼程式
US8363721B2 (en) * 2009-03-26 2013-01-29 Cisco Technology, Inc. Reference picture prediction for video coding
JP4986086B2 (ja) * 2010-02-26 2012-07-25 ブラザー工業株式会社 画像形成装置、及び、ずれ量測定プログラム

Also Published As

Publication number Publication date
EP2400759A1 (en) 2011-12-28
EP2400759B1 (en) 2014-08-27
EP2400759A4 (en) 2012-09-05
KR101344425B1 (ko) 2013-12-23
US8548228B2 (en) 2013-10-01
CA2752567A1 (en) 2010-08-26
TWI433544B (zh) 2014-04-01
CN102326391B (zh) 2014-07-09
TW201103339A (en) 2011-01-16
BRPI1008500A2 (pt) 2016-03-08
JP5521202B2 (ja) 2014-06-11
CN102326391A (zh) 2012-01-18
WO2010095471A1 (ja) 2010-08-26
ES2524973T3 (es) 2014-12-16
US20120027291A1 (en) 2012-02-02
TW201424406A (zh) 2014-06-16
KR20110119709A (ko) 2011-11-02
TWI517674B (zh) 2016-01-11
CA2752567C (en) 2014-11-18
RU2498522C2 (ru) 2013-11-10
RU2011133831A (ru) 2013-03-27
BRPI1008500B1 (pt) 2021-08-24

Similar Documents

Publication Publication Date Title
JP5521202B2 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
JP5436458B2 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
JP5303754B2 (ja) 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
JP5284471B2 (ja) ディジタル化された一連の画像を符号化する方法
JP2008154015A (ja) 復号化方法および符号化方法
KR20150135457A (ko) 복수의 입력 화상을 인코딩하는 방법, 프로그램을 격납하는 기억 매체 및 장치
KR20170102015A (ko) 향상된 동적 범위를 갖는 신호들에 대한 계층간 예측
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
EP2177034B1 (en) Method and device for reconstructing a picture
CN114793282B (zh) 带有比特分配的基于神经网络的视频压缩
KR20150137081A (ko) 복수의 입력 화상을 인코딩하는 방법, 프로그램을 격납하는 기억 매체 및 장치
JP2011045143A (ja) 復号化方法、復号化装置、及びプログラム
JP2016066922A (ja) 信号処理装置、撮像装置、および、それらにおける信号処理方法。
JP2018050150A (ja) 画像符号化装置、画像符号化方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130611

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140314

R150 Certificate of patent or registration of utility model

Ref document number: 5521202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250