JP7164813B2 - 予測装置、予測方法、及びプログラム。 - Google Patents

予測装置、予測方法、及びプログラム。 Download PDF

Info

Publication number
JP7164813B2
JP7164813B2 JP2018218459A JP2018218459A JP7164813B2 JP 7164813 B2 JP7164813 B2 JP 7164813B2 JP 2018218459 A JP2018218459 A JP 2018218459A JP 2018218459 A JP2018218459 A JP 2018218459A JP 7164813 B2 JP7164813 B2 JP 7164813B2
Authority
JP
Japan
Prior art keywords
motion vector
block
adjacent
prediction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218459A
Other languages
English (en)
Other versions
JP2020088533A (ja
Inventor
健人 宮澤
幸浩 坂東
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018218459A priority Critical patent/JP7164813B2/ja
Priority to PCT/JP2019/045026 priority patent/WO2020105576A1/ja
Priority to US17/295,121 priority patent/US11653015B2/en
Publication of JP2020088533A publication Critical patent/JP2020088533A/ja
Application granted granted Critical
Publication of JP7164813B2 publication Critical patent/JP7164813B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、予測装置、予測方法、及びプログラムに関する。
H.265/HEVC(High Efficiency Video Coding)におけるインター符号化では、動きベクトルの予測(MVP;Motion Vector Prediction)が行われ、動きベクトルの予測差分のみが伝送される。これにより、復号に必要となる動きベクトルの情報が効率的に伝送される。予測動きベクトルは、次のような優先度で作成される。まず空間方向に最大2つの予測動きベクトルが作成され、次に時間方向に最大1つの予測動きベクトルが作成され、そして最後に零ベクトルが追加される。ここで、空間方向の予測動きベクトルとは、周辺の符号化済みブロックの動きベクトルのコピーである。符号化対象ブロックと周辺の符号化済みブロックとの位置関係に基づいて、動きベクトルをコピーする対象となる符号化済みブロックに関する優先順位が予め決められている。また、時間方向の予測動きベクトルとは、現ピクチャの符号化対象ブロックと同位置(同一の座標)にある、符号化済みピクチャ(参照ピクチャ)における符号化済みブロックの動きベクトルのコピーである。予測動きベクトルが2つ作成された段階で、動きベクトルの予測は終了し、2つの予測動きベクトルのうちどちらの予測動きベクトルを予測に使用するかを示すインデックスと、予測差分とが伝送される。
また、HEVCのスクリーンコンテンツ向け拡張規格として定められた技術のひとつとして、IBC(イントラブロックコピー)がある。IBCは、現ピクチャの符号化済みの領域を参照ピクチャの対象としてインター予測を行う技術である(例えば、非特許文献1)。IBCにおける動きベクトルの探索及び動きベクトルの予測は、HEVCにおけるインター予測と同様の手順で行われる。但し、現ピクチャは、長期参照ピクチャとして参照ピクチャセットに格納される。そのため、IBCでは、通常の動きベクトルの予測とは異なり、フレーム間距離による動きベクトルの予測値のスケーリングが行われず、また、現フレーム以外のフレームに基づく動きベクトルを予測値として用いることがない。
ところで、高臨場感を表現するためには滑らかな運動視差の表現が重要である。運動視差の表現方式としては多眼表示があるが視域の切換えが発生する。多眼表示の指向性密度を向上した超多眼表示又は高密度指向性表示では運動視差は滑らかになるものの連続的な運動視差を表現するには多くの画像数が必要となる。そこで、複数の画像をリニアブレンディングすることにより少ない画像数で連続的な運動視差を表現する表示技術が提案されている。リニアブレンディングは、隣接した2つのカメラによってそれぞれ撮像された2つの画像に対して線形補完を行うことによって、これらのカメラの中間に位置する視点(以下、「中間視点」という。)に対する画像を生成する手法である(例えば、非特許文献2)。このリニアブレンディングを用いて裸眼3D(three-dimensional;3次元)表示を実現するディスプレイを、リニアブレンディングディスプレイという(例えば、非特許文献3)。リニアブレンディングディスプレイは、視点の方向に応じて異なる光線を表示することができる。リニアブレンディングディスプレイは、カメラアレイにより撮像された多視点画像から中間視点に対する画像を生成し、視点の位置に応じた画像を出力する。これにより、視聴者は、移動に伴って変化する視点の位置にそれぞれ対応する画像を見ることができるため、立体感を得ることができる。
なお、リニアブレンディングディスプレイへの入力は、例えば図5に示すように、各視点に対する画像がそれぞれサブサンプリングされた上で、縦方向に積み重ねられた、多視点画像が一枚に合成された画像である。また、リニアブレンディングディスプレイの構成の一例を図6に示す。図示するように、例えば、視点A、視点B、及び視点Cへのそれぞれの光線を作る画素が順に並べられた多視点画像が、液晶パネルに入力される。そして、視点A、視点B、及び視点Cへは、それぞれに対応する光線のみが届くように構成される。また、隣接する複数の視点への光線が中間視点の位置に応じた混合比で混合されることにより、当該中間視点への光線が生成される。これにより、裸眼立体視が実現される。図示するように、例えば、視点Aと視点Bからの距離が均等である中間視点に対する光線は、視点Aに対する光線と視点Bに対する光線とが混合比5:5で混合された光線となる。
M.Budagavi, et al., "AHG8: Video coding using Intra motion compensation," Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, 13th Meeting: Incheon, Korea, 18-26 April 2013. M.Date et al., "Real-time viewpoint image synthesis using strips of multi-camera images," Proc. of SPIE-IS&T, Vol.9391 939109-7, 17 March 2015. 伊達宗和 他, "視覚的に等価なライトフィールド フラットパネル3Dディスプレイ," 第22回日本バーチャルリアリティ学会大会論文集, 1B4-04, 2017年9月
多視点画像が一枚に合成された画像の場合、予測符号化の際に、他の視点に対する画像の同位置のブロックを参照することができるため、予測残差を小さくすることができる。この場合、他の視点に対する画像の同位置のブロックの動きベクトルは、通常の時間方向の動きベクトルと比べてかなり大きくなる。そのため、動きベクトルの予測が重要になる。しかしながら、例えば前景と背景との境界部分等において、通常の動きベクトル探索とIBCとが入り混じるため、動きベクトルの予測がうまく行われず、符号量が増大することがあるという課題がある。
本発明はこのような状況を鑑みてなされたもので、多視点画像が一枚に合成された画像をより効率的に圧縮することができる技術の提供を目的としている。
本発明の一態様は、他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測装置であって、予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶部と、所定の条件を満たす場合に、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、前記記憶部に記憶させる更新部と、を備える予測装置である。
また、本発明の一態様は、上記の予測装置であって、前記所定の条件は、前記符号化対象ブロックが含まれる合成画像と、前記第2の予測動きベクトルを生成するために参照される合成画像とが同一の合成画像であるという条件である。
また、本発明の一態様は、上記の予測装置であって、前記所定の条件は、前記符号化対象ブロックが、合成画像の一番上に位置する視点に含まれるブロックではないという条件である。
また、本発明の一態様は、上記の予測装置であって、前記所定の条件は、前記第1の予測動きベクトルを生成するために参照される隣接ブロックが参照するブロックに対応する視点と、前記符号化対象ブロックが属する画像に対応する視点とが隣接していないという条件である。
また、本発明の一態様は、他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測装置であって、予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶部と、前記記憶部に記憶された前記第1の予測動きベクトルの数が複数存在する場合、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、より優先度が低い前記第1の予測動きベクトルを、前記第2の予測動きベクトルによって上書きする更新部と、を備える予測装置である。
また、本発明の一態様は、他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測方法であって、予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶ステップと、所定の条件を満たす場合に、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、記憶させる更新ステップと、を有する予測方法である。
また、本発明の一態様は、上記の予測装置としてコンピュータを機能させるためのプログラムである。
本発明により、多視点画像が一枚に合成された画像をより効率的に圧縮することができる。
本発明の一実施形態に係る予測装置1の機能構成を示すブロック図である。 本発明の一実施形態に係る予測装置1の隣接視点動きベクトル生成部12の機能構成を示すブロック図である。 本発明の一実施形態に係る予測装置1の動作を示すフローチャートである。 本発明の一実施形態に係る予測装置1の隣接視点動きベクトル生成部12の動作を示すフローチャートである。 リニアブレンディングされた入力画像を説明するための図である。 リニアブレンディングディスプレイの構成を説明するための図である。
<実施形態>
本発明の一実施形態に係る予測装置、予測方法、及びプログラムは、多視点画像が一枚に合成された画像の符号化に用いられるものであり、所定の条件を満たす場合に、予め記憶された2つの予測動きベクトルのうち、より優先度が低い方の予測動きベクトルを、符号化対象ブロックが属する画像に対応する視点に隣接する視点に対する画像における同位置のブロックを指し示す動きベクトルによって上書きすることを特徴とする。以下、本発明の一実施形態に係る予測装置、予測方法、及びプログラムについて、図面を参照しながら説明する。
[予測装置の構成]
図1は、本発明の一実施形態に係る予測装置1の機能構成を示すブロック図である。図1に示すように、予測装置1は、制御部10と、空間方向動きベクトル予測部11と、隣接視点動きベクトル生成部12と、時間方向動きベクトル予測部13と、零ベクトル生成部14と、予測動きベクトル記憶部15と、を含んで構成される。
本実施形態に係る予測装置1に入力される情報は、符号化対象ブロックの座標を示す情報(以下、「符号化対象ブロック情報」という。)、符号化対象ブロックに隣接したブロックの動きベクトル(以下、「隣接ブロック動きベクトル」という。)、符号化済みピクチャにおいて現ピクチャの符号化対象ブロックの位置と同位置にあるブロックの動きベクトル(以下、「他ピクチャ内ブロック動きベクトル」という。)、及び、符号化対象ブロックの参照ピクチャを示す番号(以下、「参照ピクチャ番号」という。)である。なお、これらの入力情報は、H.265/HEVCにおける動きベクトルの予測に用いられる入力情報と同様の情報である。
なお、符号化の対象となる画像の構成は予め定められているものとする。すなわち、合成された多視点画像に含まれる、各視点に対する画像の幅は、GOP(Group Of Pictures)全体で固定されている。このような、符号化の対象となる画像の構成を示す情報は、例えばSPS(Sequence Parameter Set)等のヘッダ情報に含めて伝送される。
制御部10は、予測装置1が備える各機能ブロックの動作を制御する。制御部10は、例えば、予測動きベクトル記憶部15に記憶されている予測動きベクトルの数を認識し、予測動きベクトルの数に基づいて(例えば、予測動きベクトルの数が2つ未満であるか否かを判定することによって)各機能ブロックの動作を制御する。
空間方向動きベクトル予測部11は、外部の装置から、符号化対象ブロック情報と隣接ブロック動きベクトルとを取得する。空間方向動きベクトル予測部11は、制御部10による制御のもとで、取得した符号化対象ブロック情報と隣接ブロック動きベクトルとに基づいて、空間方向の動きベクトルの予測を行う。これにより、H.265/HEVCの場合と同様に、最大2つの空間方向の予測動きベクトル(以下、「空間方向予測動きベクトル」という。)が生成される。
空間方向動きベクトル予測部11は、生成された空間方向予測動きベクトルを、予測動きベクトル記憶部15に記憶させる。また、空間方向動きベクトル予測部11は、生成された空間方向予測動きベクトルを、隣接視点動きベクトル生成部12へ出力する。
隣接視点動きベクトル生成部12は、空間方向動きベクトル予測部11から出力された空間方向予測動きベクトルを取得する。また、隣接視点動きベクトル生成部12は、外部の装置から、符号化対象ブロック情報及び参照ピクチャ番号を取得する。隣接視点動きベクトル生成部12は、取得した空間方向予測動きベクトルと符号化対象ブロック情報と参照ピクチャ番号とに基づいて、隣接視点予測を実施する。隣接視点動きベクトル生成部12は、隣接視点予測の予測結果に基づいて、予測動きベクトル記憶部15に記憶された予測動きベクトルを更新する。なお、隣接視点動きベクトル生成部12のさらに詳細な構成及び隣接視点予測の処理の詳細については後述する。
時間方向動きベクトル予測部13は、外部の装置から、符号化対象ブロック情報及び他ピクチャ内ブロック動きベクトルを取得する。時間方向動きベクトル予測部13は、制御部10による制御のもとで、取得した符号化対象ブロック情報と他ピクチャ内ブロック動きベクトルとに基づいて、時間方向の動きベクトルの予測を行う。これにより、H.265/HEVCの場合と同様に、最大1つの時間方向の予測動きベクトル(以下、「時間方向予測動きベクトル」という。)が生成される。時間方向動きベクトル予測部13は、生成された時間方向予測動きベクトルを、予測動きベクトル記憶部15に記憶させる。
零ベクトル生成部14は、制御部10による制御のもとで、予測動きベクトル記憶部15に記憶されているベクトル(予測動きベクトル候補)が2つになるまで、零ベクトルを予測動きベクトル記憶部15にさらに記憶させる。
予測動きベクトル記憶部15は、外部の装置へ出力される予測動きベクトル(以下、「予測ベクトル候補」という。)を記憶する。予測動きベクトル記憶部15は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SDD(Solid State Drive)、RAM(Random Access Memory;読み書き可能なメモリ)、レジスタ等によって実現される。
[隣接視点動きベクトル生成部の構成]
以下、隣接視点動きベクトル生成部12の構成について更に詳しく説明する。
図2は、本発明の一実施形態に係る予測装置1の隣接視点動きベクトル生成部12の機能構成を示すブロック図である。図2に示すように、隣接視点動きベクトル生成部12は、参照ピクチャ条件判定部121と、符号化対象ブロック座標条件判定部122と、空間方向予測動きベクトル条件判定部123と、隣接視点動きベクトル生成部124と、を含んで構成される。
参照ピクチャ条件判定部121は、参照ピクチャ番号を取得する。参照ピクチャ条件判定部121は、取得した参照ピクチャ番号が0であるか否かについての判定を行う。参照ピクチャ番号が0であるとは、符号化対象ブロックが属するピクチャ(現ピクチャ)を参照していること、すなわち、符号化対象ブロックが属するピクチャと参照するピクチャとがとが同一のピクチャであることである。なお、現ピクチャを参照している場合の処理は、上述したIBC(イントラブロックコピー)を行うことと等価である。
符号化対象ブロック座標条件判定部122は、符号化対象ブロック情報を取得する。符号化対象ブロック座標条件判定部122は、現ピクチャを参照していると参照ピクチャ条件判定部121により判定された場合(すなわち、参照ピクチャ番号が0である場合)、取得した符号化対象ブロック情報に基づいて、符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックであるか否かについての判定を行う。
空間方向予測動きベクトル条件判定部123は、空間方向予測動きベクトルを取得する。空間方向予測動きベクトル条件判定部123は、符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックではないと符号化対象ブロック座標条件判定部122により判定された場合、空間方向予測動きベクトルが隣接視点を参照しているか否かについての判定を行う。
隣接視点動きベクトル生成部124は、空間方向予測動きベクトルが隣接視点を参照していないと空間方向予測動きベクトル条件判定部123により判定された場合、隣接視点予測動きベクトルを生成する。この場合、隣接視点動きベクトル生成部124は、予測動きベクトル記憶部15に2つの空間方向予測動きベクトルが既に記憶されているならば、これら2つの空間方向予測動きベクトルのうち、より優先度が低い方の空間方向予測動きベクトル(例えば、より後に生成された空間方向予測動きベクトル)を、上記生成された隣接視点予測動きベクトルによって上書きする。
[予測装置の動作]
以下、予測装置1の動作について説明する。
図3は、本発明の一実施形態に係る予測装置1の動作を示すフローチャートである。
まず、空間方向動きベクトル予測部11は、符号化対象ブロック情報と隣接ブロック動きベクトルとを取得する。空間方向動きベクトル予測部11は、取得した符号化対象ブロック情報と隣接ブロック動きベクトルとに基づいて、空間方向の動きベクトルの予測を行う(ステップS01)。これにより、最大2つの空間方向予測動きベクトルが生成される。空間方向動きベクトル予測部11は、生成された空間方向予測動きベクトルを、予測動きベクトル記憶部15に記憶させる。
隣接視点動きベクトル生成部12は、空間方向動きベクトル予測部11によって生成された空間方向予測動きベクトルを取得する。また、隣接視点動きベクトル生成部12は、符号化対象ブロック情報及び参照ピクチャ番号を取得する。隣接視点動きベクトル生成部12は、空間方向予測動きベクトルと符号化対象ブロック情報と参照ピクチャ番号とに基づいて、隣接視点予測を実施する(ステップS02)。
以下、隣接視点動きベクトル生成部12による隣接視点予測について更に詳しく説明する。
図4は、本発明の一実施形態に係る予測装置1の隣接視点動きベクトル生成部12の動作を示すフローチャートである。
まず、参照ピクチャ条件判定部121は、参照ピクチャ番号を取得する(ステップS201)。参照ピクチャ条件判定部121は、取得した参照ピクチャ番号が0であるか否かについての判定を行う(ステップS202)。参照ピクチャ番号が0ではないと参照ピクチャ条件判定部121により判定された場合(ステップS202・NO)、この隣接視点予測の処理は終了する。
一方、参照ピクチャ番号が0であると参照ピクチャ条件判定部121により判定された場合(ステップS202・YES)、符号化対象ブロック座標条件判定部122は、符号化対象ブロック情報を取得する(ステップS203)。符号化対象ブロック座標条件判定部122は、取得した符号化対象ブロック情報に基づいて、符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックであるか否かについての判定を行う(ステップS204)。符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックであると符号化対象ブロック座標条件判定部122により判定された場合(ステップS204・YES)、この隣接視点予測の処理は終了する。
一方、符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックではないと符号化対象ブロック座標条件判定部122により判定された場合(ステップS204・NO)、空間方向予測動きベクトル条件判定部123は、空間方向予測動きベクトルを取得する(ステップS205)。空間方向予測動きベクトル条件判定部123は、空間方向予測動きベクトルが隣接視点を参照しているか否かについての判定を行う(ステップS206)。空間方向予測動きベクトルが隣接視点を参照していると空間方向予測動きベクトル条件判定部123により判定された場合(ステップS206・YES)、この隣接視点予測の処理は終了する。
一方、空間方向予測動きベクトルが隣接視点を参照していないと空間方向予測動きベクトル条件判定部123により判定された場合(ステップS206・NO)、隣接視点動きベクトル生成部124は、隣接視点予測動きベクトルを生成する(ステップS207)。
なお、ここで、隣接視点予測動きベクトルは、隣接視点における符号化対象ブロックと同位置の画素を指し示すようなものであればよい。すなわち、隣接視点予測動きベクトルとは、例えば、図5に示した合成された入力画像において、水平方向成分が0であり、垂直方向成分が視点ひとつ分の画素幅であるようなベクトルである。
隣接視点動きベクトル生成部124は、予測動きベクトル記憶部15に2つの空間方向予測動きベクトルが既に記憶されている場合、これら2つの空間方向予測動きベクトルのうち、より優先度が低い方の空間方向予測動きベクトル(例えば、より後に生成された空間方向予測動きベクトル)を、上記生成された隣接視点予測動きベクトルによって上書きする(ステップS208)。
以上で、隣接視点動きベクトル生成部12による隣接視点予測の処理は終了する。
このように、隣接視点予測においては、現ピクチャを参照していること(参照ピクチャ番号が0であること)、符号化対象ブロックが一番上に位置する視点に対応する画像に含まれるブロックではないこと、及び、空間方向予測動きベクトルが隣接視点を参照していないことの3つの条件を満たす場合に、隣接視点予測動きベクトルが生成される。
なお、上記3つの条件のうち、3つ目の条件(すなわち、空間方向予測動きベクトルが隣接視点を参照していないという条件)は省略されてもよい。但し、一般的にIBCでは、隣接したブロックの動きベクトルは一致する傾向にある。そのため、隣接ブロックの動きベクトルが他視点を指しており、かつ隣接視点で同じ位置を指していない場合にはそちらを優先したほうが予測残差が少なくなることが期待されることから、3つ目の条件を加えることが望ましい。
再び図3に戻って説明する。
次に、制御部10は、予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満であるか否かについての判定を行う(ステップS03)。予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満ではない(すなわち、2つである(複数存在する))と制御部10により判定された場合(ステップS03・NO)、予測動きベクトル記憶部15は、記憶している2つの予測動きベクトルを、予測動きベクトル候補として出力する(ステップS07)。
一方、予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満であると制御部10により判定された場合(ステップS03・YES)、時間方向動きベクトル予測部13は、符号化対象ブロック情報と他ピクチャ内ブロック動きベクトルとに基づいて、時間方向の動きベクトル予測を行う(ステップS04)。これにより、最大1つの時間方向予測動きベクトルが生成される。時間方向動きベクトル予測部13は、生成された時間方向予測動きベクトルを、予測動きベクトル記憶部15に記憶させる。
次に、制御部10は、予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満であるか否かについての判定を行う(ステップS05)。予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満ではない(すなわち、2つである)と制御部10により判定された場合、予測動きベクトル記憶部15は、記憶している2つの予測動きベクトルを予測動きベクトル候補として出力する(ステップS07)。
一方、予測動きベクトル記憶部15に記憶された予測動きベクトルが2つ未満であると制御部10により判定された場合、零ベクトル生成部14は、予測動きベクトル記憶部15に記憶されているベクトル(予測動きベクトル候補)が2つになるまで、零ベクトルを追加する(ステップS06)。次に、予測動きベクトル記憶部15は、記憶している2つの予測動きベクトルを、予測動きベクトル候補として出力する(ステップS07)。
以上で、図3のフローチャートに基づく予測装置1の動作が終了する。
以上説明したように、本発明の一実施形態係る予測装置1は、他視点画像が一枚の画像に合成された画像(合成画像)の符号化において符号化対象ブロックの動きベクトルを予測する。予測装置1は、予測された動きベクトルの候補(第1の予測動きベクトル)を記憶する予測動きベクトル記憶部15(記憶部)と、所定の条件を満たす場合に、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである隣接視点動きベクトル(第2の予測動きベクトル)を生成し、予測動きベクトル記憶部15に記憶させる隣接視点動きベクトル生成部12(更新部)とを備える。
すなわち、本発明の一実施形態係る予測装置1は、隣接する視点に対する画像における、符号化対象ブロックと同位置のブロックの動きベクトルを予測ベクトルとして追加する。上記の構成を備えることにより、予測装置1は、多視点映像を一枚に合成した映像を従来の符号化方式よりも効率的に圧縮することができる。
上述した実施形態における予測装置1の一部又は全部を、コンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、上述した機能の一部を実現するためのものであっても良く、さらに上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び要旨を逸脱しない範囲で構成要素の追加、省略、置換、及びその他の変更を行ってもよい。
1…予測装置、10…制御部、11…空間方向動きベクトル予測部、12…隣接視点動きベクトル生成部、13…時間方向動きベクトル予測部、14…零ベクトル生成部、15…予測動きベクトル記憶部、121…参照ピクチャ条件判定部、122…符号化対象ブロック座標条件判定部、123…空間方向予測動きベクトル条件判定部、124…隣接視点動きベクトル生成部

Claims (6)

  1. 他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測装置であって、
    予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶部と、
    所定の条件を満たす場合に、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、前記記憶部に記憶させる更新部と、
    を備え
    前記所定の条件は、前記第1の予測動きベクトルを生成するために参照される隣接ブロックが参照するブロックに対応する視点と、前記符号化対象ブロックが属する画像に対応する視点とが隣接していないという条件である
    予測装置。
  2. 前記所定の条件は、
    前記符号化対象ブロックが含まれる合成画像と、前記第2の予測動きベクトルを生成するために参照される合成画像とが同一の合成画像であるという条件である
    請求項1に記載の予測装置。
  3. 前記所定の条件は、
    前記符号化対象ブロックが、合成画像内で一番上に位置する視点に含まれるブロックではないという条件である
    請求項1又は請求項2に記載の予測装置。
  4. 他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測装置であって、
    予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶部と、
    所定の条件を満たす場合に、 前記記憶部に記憶された前記第1の予測動きベクトルの数が複数存在する場合、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、より優先度が低い前記第1の予測動きベクトルを、前記第2の予測動きベクトルによって上書きする更新部と、
    を備え
    前記所定の条件は、前記第1の予測動きベクトルを生成するために参照される隣接ブロックが参照するブロックに対応する視点と、前記符号化対象ブロックが属する画像に対応する視点とが隣接していないという条件である
    予測装置。
  5. 他視点画像が一枚の画像に合成された合成画像の符号化において符号化対象ブロックの動きベクトルを予測する予測方法であって、
    予測された動きベクトルの候補を示す第1の予測動きベクトルを記憶する記憶ステップと、
    所定の条件を満たす場合に、隣接視点における前記符号化対象ブロックと同位置の画素を指し示すベクトルである第2の予測動きベクトルを生成し、記憶させる更新ステップと、
    を有し、
    前記所定の条件は、前記第1の予測動きベクトルを生成するために参照される隣接ブロックが参照するブロックに対応する視点と、前記符号化対象ブロックが属する画像に対応する視点とが隣接していないという条件である
    予測方法。
  6. 請求項1から請求項のうちいずれか一項に記載の予測装置としてコンピュータを機能させるためのプログラム。
JP2018218459A 2018-11-21 2018-11-21 予測装置、予測方法、及びプログラム。 Active JP7164813B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018218459A JP7164813B2 (ja) 2018-11-21 2018-11-21 予測装置、予測方法、及びプログラム。
PCT/JP2019/045026 WO2020105576A1 (ja) 2018-11-21 2019-11-18 予測装置、予測方法、及びプログラム。
US17/295,121 US11653015B2 (en) 2018-11-21 2019-11-18 Prediction apparatus, prediction method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218459A JP7164813B2 (ja) 2018-11-21 2018-11-21 予測装置、予測方法、及びプログラム。

Publications (2)

Publication Number Publication Date
JP2020088533A JP2020088533A (ja) 2020-06-04
JP7164813B2 true JP7164813B2 (ja) 2022-11-02

Family

ID=70774036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218459A Active JP7164813B2 (ja) 2018-11-21 2018-11-21 予測装置、予測方法、及びプログラム。

Country Status (3)

Country Link
US (1) US11653015B2 (ja)
JP (1) JP7164813B2 (ja)
WO (1) WO2020105576A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995549B (zh) * 2021-05-18 2021-08-03 湖北芯擎科技有限公司 数据处理方法、装置、设备和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130128979A1 (en) 2010-05-11 2013-05-23 Telefonaktiebolaget Lm Ericsson (Publ) Video signal compression coding
WO2017162911A1 (en) 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
WO2017162912A1 (en) 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074474A (ja) * 2004-09-02 2006-03-16 Toshiba Corp 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
KR101697598B1 (ko) * 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
KR101590511B1 (ko) * 2009-01-23 2016-02-02 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법
CN102823251B (zh) * 2010-03-31 2015-08-12 Jvc建伍株式会社 动图像编码装置、动图像编码方法及动图像编码程序、以及动图像解码装置、动图像解码方法及动图像解码程序
EP2745513B1 (en) * 2011-08-19 2020-03-11 Telefonaktiebolaget LM Ericsson (publ) Motion vector processing
JPWO2017061189A1 (ja) * 2015-10-05 2018-09-13 シャープ株式会社 画像復号装置または画像符号化装置のための画像予測装置
US10785494B2 (en) * 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US11128871B2 (en) * 2018-04-25 2021-09-21 Panasonic Intellectual Property Corporation Of America Encoder for adaptively determining information related to splitting based on characteristics of neighboring samples
BR112020026686A2 (pt) * 2018-07-17 2021-03-30 Panasonic Intellectual Property Corporation Of America Sistema e método para codificação de vídeo

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130128979A1 (en) 2010-05-11 2013-05-23 Telefonaktiebolaget Lm Ericsson (Publ) Video signal compression coding
WO2017162911A1 (en) 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
WO2017162912A1 (en) 2016-03-24 2017-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HENRY, Felix et al.,Stereoscopic 360 video compression with the next generation video codec,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 7th Meeting: Torino, IT, 13-21 July 2017, [JVET-G0064],JVET-G0064 (version 2),ITU-T,2017年07月15日,<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/7_Torino/wg11/JVET-G0064-v2.zip>: JVET-G0064_r1.doc: pp. 1-5
LI, Bin and XU, Jizheng,Non-SCCE1: Unification of intra BC and inter modes,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 18th Meeting: Sapporo, JP, 30 June - 9 July 2014, [JCTVC-R0100_r1],JCTVC-R0100 (version 2),ITU-T,2014年06月29日,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/18_Sapporo/wg11/JCTVC-R0100-v2.zip>: JCTVC-R0100_r1.doc: pp. 1-2
SAMELAK, Jaroslaw et al.,Experimental results for frame -compatible multiview video coding using HEVC SCC,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 26th Meeting: Geneva, CH, 12-20 January 2017, [JCTVC-Z0041],JCTVC-Z0041 (version 4),ITU-T,2017年01月18日,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/26_Geneva/wg11/JCTVC-Z0041-v4.zip>: JCTVC-Z0041-v4/MPEG 117 JCTVC Z Screen Content Coding Experiments Jan 2017 v3.docx: pp. 1-5

Also Published As

Publication number Publication date
US20220021897A1 (en) 2022-01-20
US11653015B2 (en) 2023-05-16
JP2020088533A (ja) 2020-06-04
WO2020105576A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
KR102616766B1 (ko) 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
CN108293110B (zh) 多视点视频编码/解码方法
US10306235B2 (en) Image decoding apparatus, image coding apparatus, and prediction-vector deriving device
EP3800891A1 (en) Image data encoding/decoding method and apparatus
ES2970207T3 (es) Método de descodificación y codificación de imágenes por un aparato basándose en una predicción de movimiento en una unidad de subbloque en un sistema de codificación de imágenes
BR112016007760B1 (pt) Método e aparelho de decodificação de dados de vídeo e método de codificação de dados de vídeo
US20160191933A1 (en) Image decoding device and image coding device
JP7183362B2 (ja) サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置
US20160277758A1 (en) Image decoding device and image coding device
WO2013069231A1 (en) Motion vector coding apparatus, method and program for coding motion vector, motion vector decoding apparatus, and method and program for decoding motion vector
JP2021517798A (ja) インター予測モードに基づいた映像処理方法及びそのための装置
WO2014163209A1 (ja) 画像復号装置
JP7164813B2 (ja) 予測装置、予測方法、及びプログラム。
JP2022550593A (ja) 符号化及び復号方法、装置及びデバイス
JP2015019140A (ja) 画像復号装置、画像符号化装置
US20220191535A1 (en) Image encoding/decoding method and apparatus for performing bi-directional prediction, and method for transmitting bitstream
JP6386466B2 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
JP2015080053A (ja) 画像復号装置、及び画像符号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7164813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150