JP2008311781A - 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム - Google Patents

動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム Download PDF

Info

Publication number
JP2008311781A
JP2008311781A JP2007155595A JP2007155595A JP2008311781A JP 2008311781 A JP2008311781 A JP 2008311781A JP 2007155595 A JP2007155595 A JP 2007155595A JP 2007155595 A JP2007155595 A JP 2007155595A JP 2008311781 A JP2008311781 A JP 2008311781A
Authority
JP
Japan
Prior art keywords
motion vector
prediction signal
processing target
block
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007155595A
Other languages
English (en)
Inventor
Junya Takigami
順也 瀧上
Sadaatsu Kato
禎篤 加藤
Chunsen Bun
チュンセン ブン
Toshiro Kawahara
敏朗 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2007155595A priority Critical patent/JP2008311781A/ja
Publication of JP2008311781A publication Critical patent/JP2008311781A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 符号化及び復号化の情報圧縮の効率向上を図る。
【解決手段】 動画像符号化装置10は、フレーム画像信号の時間系列で構成される入力動画像信号を複数のブロックに分割するブロック分割器101と、対象ブロックに対する第1動きベクトルを検出する第1動きベクトル検出器103と、対象ブロックに対する予測信号を生成する予測信号生成器107と、対象ブロックの残差信号を生成する減算器108と、残差信号及び第1動きベクトルを符号化して圧縮データを生成する符号化手段109,110,116とを備える。また、動画像符号化装置10は、第1動きベクトルに基づいて、対象ブロックが区分された複数の対象小ブロックに対する第2動きベクトルを生成する第2動きベクトル生成器105を備える。予測信号生成器107は、対象小ブロックに対する予測信号を生成する。
【選択図】 図1

Description

本発明は、動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムに関する。
静止画像や動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられている。従来の動画像符号化方式の事例として、MPEG1〜4やITU(International Telecommunication Union)H.261〜H.264の方式が広く用いられている。
これらの符号化方式では、符号化の対象となる画像を複数のブロックに分割した上で符号化及び復号化処理を行う。MPEG4やH.264においては、符号化効率をさらに高めるため、画像内の予測符号化については、対象ブロックと同じ画像内にある隣接する既再生の画像信号(圧縮された画像データが復元されたもの)を用いて予測信号を生成した上で、それを対象ブロックの信号から引き算した差分信号を符号化する。画像間の予測符号化については、対象ブロックと異なる画像内にある隣接する既再生の画像信号を参照し、動きの補償を行ない、予測信号を生成し、それを対象ブロックの信号から引き算した差分信号を符号化する(非特許文献1参照)。
非特許文献1では、動き補償の精度を上げるために処理対象ブロックに対する予測信号を対象ブロックよりも小さいブロックごとに生成する方法が開示されており、この方法においては、小さいブロックごとに参照先の画像信号への変位量を示す動きベクトルを符号化及び復号化している。
"ITU-T H.264"TELECOMMUNICATION STANDARDIZATIONSECTOR OF ITU SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure ofaudiovisual services - Coding of moving video
しかし、非特許文献1よる従来技術は、処理対象ブロックに対する予測信号を対象ブロックよりも小さいブロックごとに生成する際に、小さいブロックごとに参照先の画像信号への変位量を示す動きベクトルを符号化しているため、小さいブロックの数の増加に伴って符号量が増えてしまう。
本発明は、上述の課題を解決するために成されたものであり、符号化及び復号化の情報圧縮の効率向上を図ることが可能な動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る動画像符号化装置は、フレーム画像信号の時間系列で構成される入力動画像信号を複数の領域に分割する領域分割手段と、領域分割手段により分割された領域のうちの処理対象領域に対する動きベクトルである第1動きベクトルを検出する動き検出手段と、処理対象領域に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号と処理対象領域の画素信号との残差信号を生成する残差信号生成手段と、残差信号生成手段により生成された残差信号及び動き検出手段により検出された第1動きベクトルを符号化して圧縮データを生成する符号化手段と、を備え、予測信号生成手段は、動き検出手段により検出された第1動きベクトルに基づいて、処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする。
本発明に係る動画像符号化装置によれば、フレーム画像信号の時間系列で構成される入力動画像信号が複数の領域に分割され、分割された領域のうちの処理対象領域に対する第1動きベクトルが検出される。続いて、第1動きベクトルに基づいて処理対象領域に対する予測信号が生成されて、生成された予測信号と処理対象領域の画素信号との残差信号が生成される。当該残差信号及び第1動きベクトルがされて圧縮が算出される。
また、本発明に係る動画像符号化装置によれば、第1動きベクトルに基づいて、処理対象領域が区分された複数の小領域に対する第2動きベクトルが生成される。第2動きベクトルが用いられて当該小領域に対する予測信号が生成される。このように第2動きベクトルが生成されて、第2動きベクトルが用いられて予測信号が生成されることから、より予測精度が高い予測信号が得られ、符号量を減少させることができる。一方で、第2動きベクトルは、第1動きベクトルに基づいて生成されるため、符号化されないので、第2動きベクトルにより符号量が増加することがない。即ち、本発明に係る動画像符号化装置によれば、符号化及び復号化の情報圧縮の効率向上を図ることができる。
予測信号生成手段は、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、小領域に対する第2動きベクトルを生成することが望ましい。この構成によれば、第2動きベクトルの生成が、過去の処理によって取得済みの動きベクトルにも基づくため、第2動きベクトルが、予測精度がより高い予測信号を得るためのものになりえる。これにより、よりいっそう符号化及び復号化の情報圧縮の効率向上を図ることができる。
予測信号生成手段は、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における残差信号と、それぞれの動きベクトルに係る処理対象領域と小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する第2動きベクトルを生成することが望ましい。この構成によれば、動きベクトルに基づいて生成される予測信号の確からしさに基づいて、処理対象領域に対する適応的な予測信号の生成を行うことができ、予測精度を更に高めることができる。これにより、更に符号化及び復号化の情報圧縮の効率向上を図ることができる。
予測信号生成手段は、第1動きベクトルと第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて処理対象領域の予測信号を生成することが望ましい。この構成によれば、動きベクトルの符号量を増やさずに、情報圧縮の効果が高い動きベクトルを選択して利用することができるため、確実に符号化及び復号化の情報圧縮の効率向上を図ることができる。
また、上記目的を達成するために、本発明に係る動画像復号化装置は、動画像信号の圧縮データの中から、当該動画像信号を構成する処理対象領域に関する残差信号と第1動きベクトルとを抽出するデータ抽出手段と、データ抽出手段により抽出された処理対象領域に関する残差信号を再生残差信号に復元する残差信号復元手段と、データ抽出手段により抽出された第1動きベクトルに基づいて、処理対象領域に対する予測信号を生成する予測信号生成手段と、予測信号生成手段により生成された予測信号に残差信号復元手段により復元された再生残差信号を加算することによって、処理対象領域の画素信号を復元する画像復元手段と、を備え、予測信号生成手段は、データ抽出手段により抽出された処理対象領域の第1動きベクトルに基づいて、前記処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする。
本発明に係る動画像復号化装置によれば、圧縮データの中から、処理対象領域に関する残差信号と第1動きベクトルとが抽出される。続いて、抽出された処理対象領域に関する残差信号が再生残差信号に復元される。また、抽出された第1動きベクトルに基づいて、処理対象領域に対する予測信号が生成される。生成された予測信号に復元された再生残差信号が加算されて、処理対象領域の画素信号が復元される。
また、本発明に係る動画像復号化装置によれば、第1動きベクトルに基づいて、処理対象領域が区分された複数の小領域に対する第2動きベクトルが生成される。第2動きベクトルが用いられて当該小領域に対する予測信号が生成される。このように第2動きベクトルが生成されて、第2動きベクトルが用いられて予測信号が生成されることから、第2動きベクトルを外部から受け取らなくても、上記の動画像符号化装置によって第2動きベクトルが用いられて符号化された圧縮データから画素信号を復元することができる。即ち、本発明に係る動画像復号化装置によれば、符号化及び復号化の情報圧縮の効率向上を図ることができる。
予測信号生成手段は、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、小領域に対する第2動きベクトルを生成することが望ましい。この構成によれば、上記の動画像符号化装置等によって第2動きベクトルが用いられて符号化された圧縮データから画素信号を確実に復元することができる。
予測信号生成手段は、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における残差信号と、それぞれの動きベクトルに係る処理対象領域と小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する第2動きベクトルを生成することが望ましい。この構成によれば、上記の動画像符号化装置等によって第2動きベクトルが用いられて符号化された圧縮データから画素信号を確実に復元することができる。
予測信号生成手段は、第1動きベクトルと第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて処理対象領域の予測信号を生成することが望ましい。この構成によれば、上記の動画像符号化装置によって第2動きベクトルが用いられて符号化された圧縮データから、効率的に画素信号を復元することができる。
ところで、本発明は、上記のように動画像符号化装置及び動画像復号化装置の発明として記述できる他に、以下のように動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラムの発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
即ち、本発明に係る動画像符号化方法は、フレーム画像信号の時間系列で構成される入力動画像信号を複数の領域に分割する領域分割ステップと、領域分割ステップにおいて分割された領域のうちの処理対象領域に対する動きベクトルである第1動きベクトルを検出する動き検出ステップと、処理対象領域に対する予測信号を生成する予測信号生成ステップと、予測信号生成ステップにおいて生成された予測信号と処理対象領域の画素信号との残差信号を生成する残差信号生成ステップと、残差信号生成ステップにおいて生成された残差信号及び動き検出ステップにおいて検出された第1動きベクトルを符号化して圧縮データを生成する符号化ステップと、を含み、予測信号生成ステップにおいて、動き検出ステップにおいて検出された第1動きベクトルに基づいて、前記処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする。
予測信号生成ステップにおいて、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、小領域に対する第2動きベクトルを生成することが望ましい。
予測信号生成ステップにおいて、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における残差信号と、それぞれの動きベクトルに係る処理対象領域と小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する第2動きベクトルを生成することが望ましい。
予測信号生成ステップにおいて、第1動きベクトルと第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて処理対象領域の予測信号を生成することが望ましい。
また、本発明に係る動画像復号化方法は、動画像信号の圧縮データの中から、当該動画像信号を構成する処理対象領域に関する残差信号と第1動きベクトルとを抽出するデータ抽出ステップと、データ抽出ステップにおいて抽出された処理対象領域に関する残差信号を再生残差信号に復元する残差信号復元ステップと、データ抽出ステップにおいて抽出された第1動きベクトルに基づいて、処理対象領域に対する予測信号を生成する予測信号生成ステップと、予測信号生成ステップにより生成された予測信号に残差信号復元ステップにおいて復元された再生残差信号を加算することによって、処理対象領域の画素信号を復元する画像復元ステップと、を含み、予測信号生成ステップにおいて、データ抽出ステップにおいて抽出された処理対象領域の第1動きベクトルに基づいて、前記処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする。
予測信号生成ステップにおいて、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、小領域に対する第2動きベクトルを生成することが望ましい。
予測信号生成ステップにおいて、処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における残差信号と、それぞれの動きベクトルに係る処理対象領域と小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する第2動きベクトルを生成することが望ましい。
予測信号生成ステップにおいて、第1動きベクトルと第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて処理対象領域の予測信号を生成することが望ましい。
また、本発明に係る動画像符号化プログラムは、コンピュータを上記の動画像符号化装置として機能させることを特徴とする。
また、本発明に係る動画像復号化プログラムは、コンピュータを上記の動画像復号化装置として機能させることを特徴とする。
本発明では、処理対象領域が区分された小領域に対する第2動きベクトルが生成されて、第2動きベクトルが用いられて予測信号が生成されることから、より予測精度が高い予測信号が得られ、符号量を減少させることができる。一方で、第2動きベクトルは、処理対象領域に対する第1動きベクトルに基づいて生成されるため、符号化されないので、第2動きベクトルにより符号量が増加することがない。即ち、本発明によれば、符号化及び復号化の情報圧縮の効率向上を図ることができる。
以下、図面と共に本発明の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
[動画像符号化装置]
図1に、本発明の実施形態に係る動画像符号化装置10の機能構成を示す。動画像符号化装置10は、フレーム単位の画像信号(フレーム画像信号)の時間系列で構成される動画像信号(入力動画像信号、映像信号)を入力して、フレーム画像信号を順次符号化することにより、動画像信号を符号化した圧縮データを生成する装置である。図1に示すように、動画像符号化装置10は、ブロック分割器101と、フレームメモリ102と、第1動きベクトル検出器103と、動きベクトルメモリ104と、第2動きベクトル生成器105と、動きベクトル選択器106と、予測信号生成器107と、減算器108と、変換器109と、量子化器110と、逆量子化器111と、逆変換器112と、加算器113と、重み係数生成器114と、重み係数メモリ115と、エントロピー符号化器116とを備えて構成される。
ブロック分割器101は、ラインL101を経由して動画像符号化装置10に入力された入力動画像信号のフレーム画像信号を複数の領域(ブロック)に分割する領域分割手段である。ブロック分割器101は、分割したブロックの信号を、符号化処理の対象となる処理対象領域(対象ブロック)の画素信号(対象ブロック信号)として、ラインL102を経由して出力する。本実施形態では8×8の画素からなるブロックに分割するが、それ以外の大きさ又は形に分割してもよい。このブロック単位で以下の符号化処理が行われる。
フレームメモリ102は、ラインL103を経由して入力された再生画像の信号(過去に符号化済みのフレーム画像信号(参照フレーム画像信号))を格納する手段である。フレームメモリ102は、格納している参照フレーム画像信号を、必要に応じてラインL104を経由して出力する。
第1動きベクトル検出器103は、対象ブロックに対する動きベクトルである第1動きベクトルを検出する動き検出手段である。具体的には、第1動きベクトル検出器103は、ラインL102を経由して入力される対象ブロック信号のパターンに類似した信号パターンを、ラインL104を経由して入力される参照フレーム画像信号から所定範囲内で探索し、両信号パターン間の空間的な変位量である動きベクトル(第1動きベクトル)を検出し、ラインL105を経由して出力する。また、その第1動きベクトルが参照するフレームの番号(参照フレーム番号)を、ラインL106を経由して出力する。
動きベクトルメモリ104は、過去の処理によって取得済みの動きベクトルやそれに対応した参照フレーム番号と併せて、ラインL105を経由して入力される第1動きベクトル及び参照フレーム番号と、ラインL106を経由して入力される参照フレーム番号と、ラインL107を経由して入力される第2動きベクトルとを格納する手段である。動きベクトルメモリ104は、格納した各情報を必要に応じてラインL108を経由して出力する。
第2動きベクトル生成器105は、対象ブロックが区分された複数の小領域(対象小ブロック)に対する動きベクトルである第2動きベクトルを生成する、予測信号生成手段の一機能である。具体的には、第2動きベクトル生成器105は、ラインL105を経由して入力される第1動きベクトルと、ラインL106を経由して入力される参照フレーム番号と、ラインL108を経由して入力される過去の処理によって取得済みの動きベクトル及びその参照フレーム番号と、ラインL109を経由して入力される重み係数とから、後述のフローに従って対象小ブロックの第2動きベクトルを生成する。ここで、過去の処理によって取得済みの動きベクトルは、対象ブロック以外のブロックに対する第1動きベクトル及び第2動きベクトルの少なくとも何れかである。
第2動きベクトル生成器105は、生成した第2動きベクトルを、ラインL110を経由して出力する。
動きベクトル選択器106は、ラインL105を経由して入力される第1動きベクトルと、ラインL110を経由して入力される第2動きベクトルとから、生成される予測信号の精度に基づいて何れか一方を選択する、予測信号生成手段の一機能である。動きベクトル選択器106は、選択した動きベクトルを、ラインL111を経由して出力する。また、第2動きベクトルが選択された場合、ラインL107を経由して出力する。また、選択した動きベクトルを示すインデックスを、ラインL112を経由して出力する。
動きベクトルの選択方法について具体例を挙げて説明すると、第1動きベクトルを用いて生成した対象ブロックの予測信号と対象ブロック信号の残差信号と、第2動きベクトルを用いて生成した対象小ブロックの予測信号の集まりによって生成された対象ブロックの予測信号と対象ブロック信号の残差信号を比較し、残差信号が小さくなる動きベクトルを選択する。
動きベクトル選択器106によれば、第1動きベクトルを用いて生成した対象ブロックの予測信号と対象ブロック信号の残差信号と、第2動きベクトルを用いて生成した対象小ブロックの予測信号の集まりによって生成された対象ブロックの予測信号と対象ブロック信号の残差信号を比較し、残差信号がより小さくなる動きベクトルを選択して予測信号の生成に用いることができる。
なお、動きベクトル選択器106は必ずしも動画像符号化装置10に備えられている必要はない。動きベクトル選択器106が備えられていない場合は、何れかの動きベクトルを選択する代わりに、常に第2動きベクトルを出力する。
予測信号生成器107は、動きベクトルに基づいて、対象ブロックに対する予測信号を生成する予測信号生成手段(の一機能)である。予測信号生成器107は、ラインL111を経由して入力される対象ブロックの動きベクトルと、ラインL106を経由して入力される参照フレーム番号と、ラインL104を経由して入力される参照フレーム画像信号とから、対象ブロックの予測画像信号を生成し、ラインL113を経由して出力する。なお、第2動きベクトルが入力される場合は、予測信号生成器107は、第2動きベクトルに基づいて、対象小ブロックに対する予測信号を生成することによって、対象ブロックに対する予測信号を生成する。
減算器108は、ラインL102を経由して入力された対象ブロック信号(画素信号)から、ラインL113を経由して入力された対象ブロックの予測信号を減算して、対象ブロックの予測信号と画素信号との残差信号を生成する残差信号生成手段である。減算器108は、生成した残差信号を、ラインL114を経由して出力する。
変換器109は、ラインL114を経由して入力された残差信号を直交変換する手段である。即ち、変換器109は、残差信号及び第1動きベクトルを符号化して圧縮データを生成する符号化手段の一機能である。変換器109は、変換係数を、ラインL115を経由して出力する。
量子化器110は、ラインL115を経由して入力された変換係数を量子化する手段である。即ち、量子化器110は、残差信号及び第1動きベクトルを符号化して圧縮データを生成する符号化手段の一機能である。量子化器110は、量子化された変換係数を、ラインL116を経由して出力する。
逆量子化器111は、ラインL116を経由して入力された量子化された変換係数を逆量子化する手段である。逆量子化器111は、復元された変換係数を、ラインL117を経由して出力する。
逆変換器112は、ラインL117を経由して入力された変換係数を逆直交変換する手段である。逆変換器112は、復元された残差信号を、ラインL118を経由して出力する。
加算器113は、ラインL118を経由して入力された残差信号にラインL113を経由して入力された対象ブロックに対する予測信号を加算し、対象ブロック信号を復元する手段である。ここで復元される対象ブロック信号は、再生画像の信号(符号化済みのフレーム画像信号)である。加算器113は、復元した対象ブロック信号を、ラインL103を経由して出力する。
重み係数生成器114は、ラインL118を経由して入力された残差信号と、ラインL112を経由して入力された選択した動きベクトルを示すインデックスとから重み係数を生成する手段である。重み係数生成器114は、生成した重み係数を、ラインL119を経由して出力する。重み係数は選択した動きベクトルに該当するブロックに含まれる画素毎の残差信号の合計を、そのブロックに含まれる画素数で割った値の逆数とする。このようにして算出された重み係数は、選択した動きベクトルによって生成された予測信号の確からしさ(選択した動きベクトルによる動き補償の効果の大きさ)を表している。
なお、ブロックごとに量子化のステップQが異なる場合、量子化ステップの違いによる重み係数のばらつきを回避するため、それぞれの画素の残差信号に量子化ステップの半分の値Q/2を加算することで補正することが望ましい。具体的に例を挙げて説明すると、ある画素の残差が0、量子化ステップが10であった場合、その画素の残差は5に補正される。残差が0、量子化ステップが20であった場合、その画素の残差は10に補正される。
なお、重み係数生成器114に入力される残差信号は、ラインL118を経由して入力されるかわりに、ラインL116やラインL117を経由して入力されてもよい。
重み係数メモリ115は、ラインL119を経由して入力された重み係数を格納する手段である。重み係数メモリ115は、格納した重み係数を必要に応じてラインL109を経由して出力する。
エントロピー符号化器116は、ラインL116を経由して入力された量子化された変換係数と、ラインL105を経由して入力された第1動きベクトルと、ラインL106を経由して入力された参照フレーム番号と、L112を経由して入力された選択した動きベクトルを示すインデックスとを符号化して、多重化して圧縮データ(圧縮ストリーム)を生成する符号化手段である。エントロピー符号化器116は、圧縮ストリームをラインL120に出力する。
引き続いて、図2のフローチャートを用いて、本実施形態に係る動画像符号化装置10による符号化処理(動画像符号化方法)を説明する。
まず、動画像符号化装置10では、符号化対象となる動画像信号(入力動画像信号)が入力される。動画像符号化装置10に入力された入力動画像信号は、ラインL101を経由してブロック分割器101に入力される(S01)。続いて、ブロック分割器101によって、入力動画像信号の各フレーム画像信号が複数のブロックに分割される(S02、領域分割ステップ)。分割された各ブロックの画素信号は、順次、対象ブロック信号としてラインL102を経由して出力される。
続いて、当該対象ブロック信号は、第1動きベクトル検出器103に入力される。第1動きベクトル検出器103によって、対象ブロック信号から、対象ブロックに対する第1動きベクトルが検出される(S03、動き検出ステップ)。検出された第1動きベクトルは、ラインL105を経由して、第1動きベクトル検出器103から出力される。また、その第1動きベクトルの参照フレーム番号が、ラインL106を経由して、第1動きベクトル検出器103から出力される。
続いて、第1動きベクトルに基づいて、対象ブロックに対する予測信号が生成される(S04、予測信号生成ステップ)。対象ブロックに対する予測信号の生成は、対象ブロックが区分された対象小ブロックに対する第2動きベクトルが第1動きベクトルに基づいて生成されて行われる。第2動きベクトルの生成については、より詳細に後述する。予測信号の生成では、動きベクトル選択器106によって、ラインL105を経由して入力される第1動きベクトルと、ラインL110を経由して入力される第2動きベクトルとから、予測信号の生成に用いる動きベクトルが選択される。
続いて、選択された動きベクトルが、動きベクトル選択器106からラインL111を経由して、予測信号生成器107に入力される。続いて、予測信号生成器107によって、ラインL111を経由して入力される対象ブロックの動きベクトルと、ラインL106を経由して入力される参照フレーム番号と、ラインL104を経由して入力される参照フレーム画像信号とから、対象ブロックの予測画像信号が生成される。即ち、動きベクトル選択器106によって、第1動きベクトルが選択された場合は、対象ブロックそのものに対する予測信号が生成されて、第2動きブロックが選択された場合は、対象小ブロックに対する予測信号(各対象小ブロックに対する予測信号を集めると、対象ブロックに対する予測信号となる)が生成される。生成された対象ブロックに対する予測信号は、ラインL113を経由して、予測信号生成器107から出力される。また、ここで、動きベクトル選択器106に入力された第2動きベクトルは、ラインL107を経由して動きベクトルメモリ104に入力される。
続いて、減算器108によって、ラインL102を経由して入力された対象ブロック信号から、ラインL113を経由して入力された対象ブロックの予測信号が減算されて、対象ブロックの予測信号と画素信号との残差信号が生成される(S05、残差信号生成ステップ)。生成された残差信号は、ラインL114を経由して、減算器108から出力される。
また、このときに、重み係数生成器114によって、ラインL118を経由して入力された残差信号と、ラインL112を経由して入力された選択した動きベクトルを示すインデックスとから重み係数が算出される。重み係数は、ラインL119を経由して、重み係数生成器114から重み係数メモリ115に出力されて、重み係数メモリ115に格納される。
続いて、残差信号が、変換器109によって直交変換されて変換係数にされ、変換係数が量子化器110によって量子化される。量子化された変換係数は、ラインL116を経由して量子化器110から出力される。続いて、エントロピー符号化器116によって、ラインL116を経由して入力された量子化された変換係数が符号化される。また、エントロピー符号化器116によって、ラインL105を経由して入力された第1動きベクトルが符号化される。また、エントロピー符号化器116によって、予測信号の生成でラインL106を経由して入力された参照フレーム番号と、L112を経由して入力された選択した動きベクトルを示すインデックスとが符号化される。符号化された各データは多重化されて圧縮データとして、ラインL120を経由して、動画像符号化装置10から出力される(S06、符号化ステップ)。
続いて、ラインL116を経由して入力された量子化された変換係数が、逆量子化器111によって逆量子化されて変換係数に復元され、復元された変換係数が、逆変換器112によって逆直交変換されて残差信号に復元される。復元された残差信号は、ラインL118を経由して、逆変換器112から出力される。続いて、加算器113によって、ラインL118を経由して入力された残差信号にラインL113を経由して入力された対象ブロックに対する予測信号が加算されて、対象ブロック信号が復元されて再生画像の信号が生成される(S07)。再生画像の信号は、加算器113からラインL103を経由してフレームメモリ102に入力され格納されて、参照フレーム画像信号として、第1動きベクトルの検出や予測信号の生成に用いられる。
続いて、動画像符号化装置10では、全ての画素が符号化済みであるか否かが判断される(S08)。全ての画素が符号化済みであると判断された場合は、動画像符号化装置10による符号化処理は終了する。一方、全ての画素が符号化済みでないと判断された場合は、次の対象ブロック信号に対して、上記のS03〜S07の処理が行われる。上記が動画像符号化方法である。
引き続いて、本発明の特徴である第2動きベクトルの生成について、より詳細に説明する。図3に、第2動きベクトル生成器105における第2動きベクトルを生成する手順を説明するための模式図を示す。
第2動きベクトルの生成には、過去に符号化済みのブロック(フレームメモリ102に参照フレーム画像信号が格納されているブロック)の動きベクトルが用いられる。互いに近傍にある動きベクトルには高い相関があると予想されるため、過去に符号化済みのブロックの動きベクトルの中でも対象ブロックの近傍のブロックを用いることが好ましい。
図3ではその一例として、対象ブロックをB100とし、ブロックB101をブロックB100の最も左上の画素の真左上の画素を含むブロック、ブロックB102をブロックB100の最も左上の画素の真上の画素を含むブロック、ブロックB103をブロックB100の最も右上の画素の真右上の画素を含むブロック、ブロックB104をブロックB100の最も左上の画素の真左の画素を含むブロックとする。
図3ではブロックB101〜ブロックB104は対象ブロックと同じ大きさであるが、過去の処理によって対象ブロックよりも小さいブロック毎に予測信号が生成されている場合は、ブロックB101〜ブロックB104はその小さいブロックとする。何れのブロックを第2動きベクトルの生成に用いるかは、上記のように対象小ブロックとの位置関係等により予め設定されている。
なお、過去の処理によって対象ブロックよりも小さいブロックごとに予測信号が生成されている場合であっても、対象ブロックと同じ大きさの各ブロックに含まれる複数の小さいブロックに対する残差信号の合計を、対象ブロックと同じ大きさの各ブロックに対する残差信号とすることで、対象ブロックと同じ大きさのブロックをブロックB101〜ブロックB104としてもよい。
図4は、第2動きベクトル生成器105における第2動きベクトルを生成する手順を説明するためのフローチャートである。以下の処理は、予測信号生成ステップに含まれる。
第2動きベクトル生成器105では、対象小ブロックの形状はあらかじめ決められているものとする。図3では対象ブロックの予測信号を同じ大きさの4つの正方形の小ブロックごとに生成しているが、それ以外の大きさ、形、数の小ブロックごとに生成してもよい。
まず、第2動きベクトル生成器105によって、ラインL105を経由して入力される対象ブロックB100の動きベクトルMVと、ラインL106を経由して入力される対象ブロックの動きベクトルMVの参照フレーム番号とが取得される(S001)。
続いて、第2動きベクトル生成器105によって、ラインL108を経由して動きベクトルメモリ104から入力される過去に符号化済みのブロックB101、ブロックB102、ブロックB103、ブロックB104の動きベクトルMV(i=1〜4)と、対応する参照フレーム番号と、ラインL109を経由して入力されるそれぞれの動きベクトルに対応する重み係数C(i=1〜4)とが取得される(S002)。
なお、S002で取得される動きベクトルは、図5のように、対象ブロックB100を含むフレームと、対象ブロックの動きベクトルが参照するフレームとの時間的距離に基づいてスケーリングされることが好ましい。スケーリングの際には各ブロックの動きベクトルが参照するフレームの時刻を用いるため、各ブロックに対応する参照フレーム番号からその時刻を求める必要がある。
スケーリングによって、対象ブロックを含むフレームの時刻tから、対象ブロックの動きベクトルが参照するフレームの時刻tまでの時間的距離(t−t)を基準にして、取得した処理済みのブロックB101、B102、B103、B104の動きベクトルの大きさが変更される。具体的に一例を挙げると、ブロックB104の動きベクトルMVが参照するフレームの時刻をtとすると、スケーリングされた動きベクトルMV’は、下記式(1)によって与えられるベクトルである。
Figure 2008311781
スケーリング処理によって、過去に符号化済みのブロックの動きベクトルが参照するフレームと対象ブロックの動きベクトルが参照するフレームが異なる場合でも、時間的距離に応じて変位量の補正をすることで、対象ブロックの動きベクトルが参照するフレームにおける過去に符号化済みのブロックの参照先を適切に決定することができる。
なお、このスケーリング処理は必須ではなく、スケーリング処理を行わない場合は各ブロックに対応する参照フレーム番号は必要ない。
また、S002において処理済みのブロックそのもの、あるいは処理済みのブロックの動きベクトルが存在しない場合、そのブロックは除いて以下の処理を進める。処理済みのブロックそのもの、あるいは処理済みのブロックの動きベクトルが1つも存在しない場合は対象ブロックの動きベクトルのみから小ブロックの動きベクトルが生成される。
続いて、第2動きベクトル生成器105によって、S002で取得された動きベクトルの重み係数C(i=1〜4)の総和ΣCが算出されて、MVの重み係数Cとされる(S003)。なお、MVの重み係数Cの値としては、重み係数C(i=1〜4)の総和ΣCを用いる代わりに、重み係数C(i=1〜4)の総和ΣCに定数を乗じた値でもよい。重み係数C(i=1〜4)の平均値aveC1−4でもよい。重み係数C(i=1〜4)の平均値aveC1−4に定数を乗じた値でもよい。なお、重み係数Cが存在しない場合は、Cの値としては、予め設定された定数とされる。
続いて、第2動きベクトル生成器105によって、対象小ブロックの中心位置と対象ブロックを含むそれぞれのブロックの中心位置との距離dij(i=0〜4,j=1〜4)が算出される。ここで、添え字jはj番目の対象小ブロックを表している(S004)。
続いて、第2動きベクトル生成器105によって、対象ブロックを含めた全てのブロックの動きベクトルの平均値aveMV0−4が算出される(S005)。
続いて、対象ブロックを含めた全てのブロックの動きベクトルについて、平均値aveMV0−4との差分E=|MV−aveMV0−4|(i=1〜4)が算出される(S006)。ここでE=0となる場合は、後の処理に不都合を生じるため、代わりに十分小さな値を代入することとする。
続いて、第2動きベクトル生成器105によって、対象小ブロックB100の第2動きベクトルMV100(j=1〜4)が次式(2)により算出される(S007)。
Figure 2008311781

ここで、f(C,dij,E)により算出される値は、第2動きベクトルを生成する際に足し合わされる動きベクトルに対する重み付けを示す係数である。f(C,dij,E)は、C,dij,Eの関数である。即ち、予測信号の確からしさに基づく重み、ブロック間の距離に基づく重み及び動きベクトル間の類似性に基づいて、それぞれの動きベクトルを足し合わせる際の重みを決定することができる。一例として、次式(3)のようにf(C,dij,E)をおくと予測信号の確からしさが高く、対象ブロックと距離が近く、周辺の動きベクトルとの類似性が高い動きベクトルの重みを上げることができる。
Figure 2008311781

なお、上記の関数は、予測信号の確からしさを示すC、対象ブロックとの距離を示すdij、及び周辺の動きベクトルとの類似性を示すEの少なくとも何れか一つが用いられていればよい。
最後に、対象小ブロックB100の動きベクトルMV100j(j=1〜4)が第2動きベクトル生成器105から出力され、第2動きベクトル生成器105における処理が終了する(S008)。
なお、図4のフローチャートに示される一連の処理のうち、動きベクトルに関するものは、動きベクトルをx成分、y成分に分けて成分ごとに処理をすることが好ましい。また、x成分、y成分に分けずに、ベクトルの差分の大きさ(具体的にはベクトルノルム等)を算出することで、動きベクトルのx成分、y成分を同時に決定してもよい。
なお、図4のフローチャートに示される一連の処理において、f(C,dij,E)はなくてもよい。その場合、それぞれの動きベクトルに対する重み付けは行われない。
なお、第2動きベクトルの算出は、図6のフローチャートに示される処理により行われてもよい。この処理は、対象小ブロックに対する第2動きベクトルを算出する際に、当該算出に適さない特異な動きベクトルを取り除く処理である。具体的には、図4のフローチャートに示される一連の処理におけるC,Eに関する閾値を設け、周囲のベクトルと比較して確からしさの低いベクトルを、対象小ブロックに対する第2動きベクトルを算出する際に取り除き、考慮しないようにするものである。これにより、対象小ブロックの予測信号生成の精度を高める効果がある。
まず、図4のフローチャートのS001〜S003と同様に以下の処理が行われる。即ち、第2動きベクトル生成器105によって、対象ブロックB100の動きベクトルMVと対象ブロックの動きベクトルMVの参照フレーム番号とが取得される(S101)。続いて、過去に符号化済みのブロックB101〜B104の動きベクトルMV(i=1〜4)と、対応する参照フレーム番号と、それぞれの動きベクトルに対応する重み係数C(i=1〜4)とが取得される(S102)。続いて、MVの重み係数Cが算出される(S103)。
続いて、第2動きベクトル生成器105によって、重み係数の平均値aveC1−4が算出される(S104)。
続いて、図4のフローチャートのS004〜S006と同様に以下の処理が行われる。即ち、第2動きベクトル生成器105によって、対象小ブロックの中心位置と対象ブロックを含むそれぞれのブロックの中心位置との距離dij(i=0〜4,j=1〜4)が算出される(S105)。続いて、対象ブロックを含めた全てのブロックの動きベクトルの平均値aveMV0−4が算出される(S106)。続いて、対象ブロックを含めた全てのブロックの動きベクトルについて、平均値aveMV0−4との差分E=|MV−aveMV0−4|(i=1〜4)が算出される(S107)。
続いて、第2動きベクトル生成器105によって、各動きベクトルEの平均値aveE0−4が算出される(S108)。
続いて、第2動きベクトル生成器105によって、各動きベクトルに対して(各i(i=0〜4)に対して)、重み係数CがS104で算出されたaveC1−4より小さい(C<aveC1−4)、あるいは動きベクトルの差分EがS108で算出されたaveE0−4より大きい(E>aveE0−4)ことを満たすか否かが判断される(S109)。なおここでの各閾値aveC1−4,aveE0−4は、それぞれ独立に定数を乗じることで補正されてもよい。
Ci<aveC1−4又はE>aveE0−4を満たすと判断された場合、そのブロックの動きベクトルを対象小ブロックの動きベクトル生成に用いるか否かを示すインデックスKに0が代入される(S110)。一方、Ci<aveC1−4又はE>aveE0−4を満たさないと判断された場合、Kに1が代入される(S111)。
続いて、第2動きベクトル生成器105によって、対象小ブロックB100の動きベクトルMV100(j=1〜4)が次式(4)により算出される(S112)。
Figure 2008311781
最後に、対象小ブロックB100の動きベクトルMV100j(j=1〜4)が第2動きベクトル生成器105から出力され、第2動きベクトル生成器105における処理が終了する(S113)。
上記の一連の処理では、動きベクトルの信頼度が平均値より低い場合、又は動きベクトルの平均値との差分の絶対値が平均値より大きい場合には、その動きベクトルは第2動きベクトルの生成には用いられないことを示している。上記の条件を満たす動きベクトルは特異な動きベクトルであるので、これらを考慮しないようにすることで、対象小ブロックの予測信号生成の精度を高める効果がある。
同様の効果を得る方法として、複数の組み合わせで過去に符号化済みのブロックを選び、それぞれの組み合わせで過去に符号化済みのブロックの動きベクトルの分散を計算し、そのうちもっとも分散が小さい組み合わせとなる過去に符号化済みのブロックの動きベクトルを用いて、対象ブロックの動きベクトルから対象小ブロックの動きベクトルを生成してもよい。
上記の方法においては、過去に符号化済みのブロックと対象ブロックを含めたブロックから複数の組み合わせで動きベクトルを選び、その分散が最小となる組み合わせの動きベクトルを用いて対象小ブロックの動きベクトルを生成してもよい。
なお、対象小ブロックの第2動きベクトルの生成の際に用いる過去に符号化済みのブロックは図3のように与える代わりに、対象ブロックに隣接する全てのブロックを用いてもよい、具体的には、図7(a)に示すように対象ブロックと1辺を共有する過去に符号化済みのブロック全てを用いてもよい。図7(b)に示すように、対象ブロックと頂点を共有する過去に符号化済みの全てのブロックを用いてもよい。また、図7(c)に示すように、対象小ブロックごとに異なる組み合わせで処理済みのブロックを用いてもよい。なお、図7においては、ハッチングされているブロックが対象小ブロックである。
なお、対象小ブロックの第2動きベクトルの生成の際に用いる過去に符号化済みのブロックは図3のように与える代わりに、対象ブロックを含むフレームと異なるフレーム内のブロックを選んでもよい。その場合は、対象ブロックと同じ空間位置のブロックとその近傍にあるブロック、あるいは対象ブロックの動きベクトルが参照するブロックとその近傍にあるブロック、あるいは対象ブロックとその近傍にあるブロックのそれぞれが参照するブロックを用いるのがよい。このように異なるフレームにある過去に符号化済みのブロックを用いる場合、そのブロックに関しては式(2)あるいは式(4)におけるdijが得られないため、代わりに定数を代入するのがよい。
本実施形態によれば、対象ブロックの第1動きベクトルと、対象小ブロックの動きベクトルに相関があると考えられる過去の処理によって取得済みの動きベクトルのブロックの動きベクトルとから対象小ブロックの第2動きベクトルを生成し、対象ブロックの予測信号を小ブロック毎に生成することで、より精度の高い予測信号を生成することができる。これにより、符号量を減少させることができる。
また、第2動きベクトルは第1動きベクトルに基づいて生成されるため、処理対象小ブロックに対する第2動きベクトルを復号化側に送る必要がないため、符号化されない。従って、第2動きベクトルにより符号量が増加することがない。これにより、対象ブロックの予測信号を対象ブロックよりも小さいブロックごとに生成する従来の方法に比べて動きベクトルの符号量を削減できる。
また、対象ブロックの第1動きベクトルと、過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルを用いた動き補償の精度と、対象小ブロックとの距離と、動きベクトル間での類似性との少なくともひとつに基づいて重み付けすることで、当該動きベクトルによって生成される予測信号の確からしさに基づいて、対象ブロックに対する適応的な予測信号の生成を行うことができ、予測精度を高めることができる。これにより、更に符号化及び復号化の情報圧縮の効率向上を図ることができる。
更に、対象ブロックの第1動きベクトルを用いて生成された予測信号と、小ブロックごとに生成された予測信号から対象ブロックの残差信号がより小さくなる動きベクトルを用いて予測信号を生成することで、効果的に対象小ブロックに対する第2動きベクトルを利用することができる。これにより、確実に符号化及び復号化の情報圧縮の効率向上を図ることができる。
[動画像復号化装置]
図8に、本発明の実施形態に係る動画像復号化装置20の機能構成を示す。動画像復号化装置20は、本実施形態に係る動画像符号化装置10等により、上記の第2動きベクトルが用いられて符号化された動画像である圧縮データ(符号化データ)を復号化する装置である。図8に示すように、動画像復号化装置20は、データ解析器201と、逆量子化器202と、逆変換器203と、フレームメモリ204と、動きベクトルメモリ205と、第2動きベクトル生成器206と、動きベクトル切替器207と、予測信号生成器208と、加算器209と、重み係数生成器210と、重み係数メモリ211とを備えて構成される。
動画像復号化装置20に入力される圧縮ストリームには、復号化対象となるブロックの残差信号(量子化された変換係数)と、復号化対象となるブロックの第1動きベクトルと、参照フレーム番号と、選択された動きベクトルに関する情報とが含まれている。
データ解析器201は、ラインL201を経由して動画像復号化装置20に入力された圧縮ストリームを解析することにより、当該圧縮ストリームの中から、直行変換および量子化された復号化の対象となるブロック(対象ブロック)の残差信号と、当該対象ブロックに対する第1動きベクトルとを抽出するデータ抽出手段である。データ解析器201は、抽出した残差信号を、ラインL202を経由して出力する。また、データ解析器201は、抽出した第1動きベクトルを、ラインL203を経由して出力する。また、データ解析器201は、対象ブロックの参照フレーム番号を抽出し、ラインL204を経由して出力する。また、データ解析器201は、選択された動きベクトルを示すインデックスを抽出し、ラインL205を経由して出力する。
逆量子化器202は、ラインL202を経由して入力された量子化された変換係数を逆量子化して、復元された変換係数とする手段である。即ち、逆量子化器202は、データ解析器201により抽出された対象ブロックに関する残差信号を再生残差信号に復元する残差信号復元手段の一機能である。逆量子化器202は、復元された変換係数を、ラインL206を経由して出力する。
逆変換器203は、ラインL206を経由して入力された変換係数を逆直交変換し、復元された残差信号(再生残差信号)とする手段である。即ち、逆変換器203は、データ解析器201により抽出された対象ブロックに関する残差信号を再生残差信号に復元する残差信号復元手段の一機能である。逆変換器203は、復元された残差信号を、ラインL207を経由して出力する。
フレームメモリ204は、ラインL208を経由して入力される再生画像の信号(過去に復号化済みのフレーム画像信号(参照フレーム画像信号))を格納する手段である。フレームメモリ204は、格納している参照フレーム画像信号を、必要に応じてラインL209を経由して出力する。
動きベクトルメモリ205は、過去に取得済みの動きベクトルとそれに対応した参照フレーム番号と併せて、ラインL203を経由して入力される対象ブロックの動きベクトルとラインL204を経由して入力される対象ブロックの参照フレーム番号とを格納する手段である。また、動きベクトルメモリ205は、ラインL216を経由して入力される第2動きベクトルを格納する。動きベクトルメモリ205は、格納した各情報を、必要に応じてラインL210を経由して出力する。
第2動きベクトル生成器206は、対象ブロックが区分された複数の小領域(対象小ブロック)に対する動きベクトルである第2動きベクトルを生成する、予測信号生成手段の一機能である。具体的には、第2動きベクトル生成器206は、ラインL205を経由して入力される選択された動きベクトルを示すインデックスが第2動きベクトルを示している場合、ラインL203を経由して入力される第1動きベクトルと、L204を経由して入力される参照フレーム番号と、ラインL210を経由して入力される過去に取得済みの動きベクトルとその参照フレーム番号と、ラインL211を経由して入力される重み係数から、後述のフローに従って対象ブロックよりも小さいブロック(対象小ブロック)に対する第2動きベクトルを生成する。ここで、過去の処理によって取得済みの動きベクトルは、対象ブロック以外のブロックに対する第1動きベクトル及び第2動きベクトルの少なくとも何れかである。ラインL205を経由して入力される選択された動きベクトルを示すインデックスが第1動きベクトルを示している場合は何もしない。
第2動きベクトル生成器206は、生成した第2動きベクトルを、ラインL212及びL216を経由して出力する。
動きベクトル切替器207はラインL205を経由して入力される、選択された動きベクトルを示すインデックスにしたがって、ラインL203を経由して入力される第1動きベクトルとラインL212を経由して入力される第2動きベクトルとを切り替えてラインL213を経由して出力する予測信号生成手段の一機能である。上記の選択された動きベクトルを示すインデックスは、第1動きベクトルと第2動きベクトルとの何れを用いるかを示す指示情報である。
なお、動きベクトル切替器207は無くてもよい。その場合は、何れか1つの動きベクトルに切り替えて出力する代わりに、常に第2動きベクトルを出力することが好ましい。
予測信号生成器208は、動きベクトルに基づいて、対象ブロックに対する予測信号を生成する予測信号生成手段(の一機能)である。予測信号生成器208は、ラインL213を経由して入力される対象ブロックの動きベクトルと、ラインL204を経由して入力される参照フレーム番号と、ラインL209を経由して入力される参照フレーム画像信号から、対象ブロックに対する予測画像信号を生成し、ラインL214を経由して出力する。なお、第2動きベクトルが入力される場合は、予測信号生成器208は、第2動きベクトルに基づいて、対象小ブロックに対する予測信号を生成することによって、対象ブロックに対する予測信号を生成する。
加算器209は、ラインL214を経由して入力された対象ブロックの予測信号に、ラインL207を経由して入力された再生残差信号を加算することによって、対象ブロック信号(画素信号)を復元する画像復元手段である。加算器209は、復元した対象ブロック信号を、ラインL208を経由して出力する。
重み係数生成器210は、ラインL207を経由して入力された残差信号と、ラインL205を経由して入力された選択した動きベクトルを示すインデックスから重み係数を生成する手段である。重み係数生成器210は、生成した重み係数を、ラインL215を経由して出力する。重み係数は選択した動きベクトルに該当するブロックに含まれる画素ごとの残差信号の合計を、そのブロックに含まれる画素数で割った値の逆数とする。このようにして算出された重み係数は、選択した動きベクトルによって生成された予測信号の確からしさ(選択した動きベクトルによる動き補償の効果の大きさ)を表している。
なお、ブロックごとに量子化のステップQが異なる場合、量子化ステップの違いによる重み係数のばらつきを回避するため、それぞれの画素の残差信号に量子化ステップの半分の値Q/2を加算することで補正することが望ましい。具体的に例を挙げて説明すると、ある画素の残差が0、量子化ステップが10であった場合、その画素の残差は5に補正される。残差が0、量子化ステップが20であった場合、その画素の残差は10に補正される。
なお、重み係数生成器210に入力される残差信号は、ラインL207を経由して入力される代わりに、ラインL202やラインL206を経由して入力されてもよい。
重み係数メモリ211は、ラインL215を経由して入力された重み係数を格納する手段である。重み係数メモリ211は、格納した重み係数を必要に応じてラインL211を経由して出力する。
引き続いて、図9のフローチャートを用いて、本実施形態に係る動画像復号化装置20による復号化処理(動画像復号化方法)を説明する。
動画像復号化装置20では、動画像符号化装置10等により、上記の第2動きベクトルが用いられて符号化された動画像である圧縮データが入力される。動画像復号化装置20に入力された圧縮データは、ラインL201を経由してデータ解析器201に入力される(S11)。続いて、データ解析器201により、圧縮データから、復号化の対象となる対象ブロックの残差信号と、当該対象ブロックに対する第1動きベクトルと、対象ブロックの参照フレーム番号と、選択された動きベクトルを示すインデックスとが抽出され、それぞれに応じたラインL202,L203,L204,L205を経由して出力される(S12、データ抽出ステップ)。
続いて、残差信号が、逆量子化器202によって、残差信号(量子化された変換係数)が逆量子化されて復元された変換係数にされ、復元された変換係数が逆変換器203によって復元された残差信号(再生残差信号)にされる。再生残差信号は、ラインL207を経由して、逆変換器203から出力される(S13、残差信号復元ステップ)。
また、このときに、重み係数生成器210によって、ラインL207を経由して入力された残差信号と、ラインL205を経由して入力された選択した動きベクトルを示すインデックスとから重み係数が算出される。重み係数は、ラインL119を経由して、重み係数生成器210から重み係数メモリ211に出力されて、重み係数メモリ211に格納される。
続いて、第1動きベクトルに基づいて、対象ブロックに対する予測信号が生成される(S14、予測信号生成ステップ)。対象ブロックに対する予測信号の生成は、対象ブロックが区分された対象小ブロックに対する第2動きベクトルが第1動きベクトルに基づいて生成されて行われる。第2動きベクトルの生成については、より詳細に後述する。予測信号の生成では、動きベクトル選択器106によって、選択された動きベクトルを示すインデックスにしたがって、ラインL205を経由して入力される第1動きベクトルと、ラインL212を経由して入力される第2動きベクトルとから、予測信号の生成に用いる動きベクトルが選択される。
続いて、選択された動きベクトルが、動きベクトル切替器207からラインL213を経由して、予測信号生成器208に入力される。続いて、予測信号生成器208によって、ラインL213を経由して入力される対象ブロックの動きベクトルと、ラインL204を経由して入力される参照フレーム番号と、ラインL209を経由して入力される参照フレーム画像信号とから、対象ブロックの予測画像信号が生成される。即ち、動きベクトル切替器207によって、第1動きベクトルが選択された場合は、対象ブロックそのものに対する予測信号が生成されて、第2動きブロックが選択された場合は、対象小ブロックに対する予測信号(各対象小ブロックに対する予測信号を集めると、対象ブロックに対する予測信号となる)が生成される。生成された対象ブロックに対する予測信号は、ラインL214を経由して、予測信号生成器208から出力される。また、ここで、動きベクトル切替器207に入力された第2動きベクトルは、動きベクトルメモリ205に入力される。
続いて、加算器209によって、ラインL207を経由して入力された残差信号にラインL214を経由して入力された対象ブロックに対する予測信号が加算されて、対象ブロック信号が復元されて再生画像の信号が生成される(S15、画像復元ステップ)。再生画像の信号は、加算器209からラインL208を経由してフレームメモリ204に入力され格納されて、参照フレーム画像信号として、予測信号の生成に用いられる。また、再生画像の信号は、加算器209からラインL208を経由して動画像復号化装置20から出力される。
続いて、動画像復号化装置20では、全ての画素が復号化済みであるか否かが判断される(S16)。全ての画素が復号化済みであると判断された場合は、動画像復号化装置20による復号化処理は終了する。一方、全ての画素が復号化済みでないと判断された場合は、次の対象ブロック信号に対して、上記のS12〜S15の処理が行われる。上記が動画像復号化方法である。
引き続いて、本発明の特徴である第2動きベクトルの生成について、より詳細に説明する。図10に、第2動きベクトル生成器206における第2動きベクトルを生成する手順を説明するための模式図を示す。
第2動きベクトルの生成には、過去に符号化済みのブロック(フレームメモリ204に参照フレーム画像信号が格納されているブロック)の動きベクトルが用いられる。互いに近傍にある動きベクトルには高い相関があると予想されるため、過去に符号化済みのブロックの動きベクトルの中でも対象ブロックの近傍のブロックを用いることが好ましい。
図10ではその一例として、対象ブロックをB200とし、ブロックB201をブロックB200の最も左上の画素の真左上の画素を含むブロック、ブロックB202をブロックB200の最も左上の画素の真上の画素を含むブロック、ブロックB203をブロックB200の最も右上の画素の真右上の画素を含むブロック、ブロックB204をブロックB100の最も左上の画素の真左の画素を含むブロックとする。
図10ではブロックB201〜ブロックB204は対象ブロックと同じ大きさであるが、過去の処理によって対象ブロックよりも小さいブロック毎に予測信号が生成されている場合は、ブロックB101〜ブロックB104はその小さいブロックとする。何れのブロックを第2動きベクトルの生成に用いるかは、上記のように対象小ブロックとの位置関係等により予め設定されている。
なお、過去の処理によって対象ブロックよりも小さいブロックごとに予測信号が生成されている場合であっても、対象ブロックと同じ大きさの各ブロックに含まれる複数の小さいブロックに対する残差信号の合計を、対象ブロックと同じ大きさの各ブロックに対する残差信号とすることで、対象ブロックと同じ大きさのブロックをブロックB201〜ブロックB204としてもよい。
図11は、第2動きベクトル生成器206における第2動きベクトルを生成する手順を説明するためのフローチャートである。以下の処理は、予測信号生成ステップに含まれる。
第2動きベクトル生成器206では、対象小ブロックの形状はあらかじめ決められているものとする。図10では対象ブロックの予測信号を同じ大きさの4つの正方形の小ブロックごとに生成しているが、それ以外の大きさ、形、数の小ブロックごとに生成してもよい。
まず、第2動きベクトル生成器206によって、ラインL203を経由して入力される対象ブロックB200の動きベクトルMVと、ラインL206を経由して入力される対象ブロックの動きベクトルMVの参照フレーム番号とが取得される(S201)。
続いて、第2動きベクトル生成器206によって、ラインL210を経由して動きベクトルメモリ205から入力される過去に符号化済みのブロックB201、ブロックB202、ブロックB203、ブロックB204の動きベクトルMV(i=1〜4)と、対応する参照フレーム番号と、ラインL211を経由して入力されるそれぞれの動きベクトルに対応する重み係数C(i=1〜4)とが取得される(S202)。
なお、S202で取得される動きベクトルは、図12のように、対象ブロックB200を含むフレームと、対象ブロックの動きベクトルが参照するフレームとの時間的距離に基づいてスケーリングされることが好ましい。スケーリングの際には各ブロックの動きベクトルが参照するフレームの時刻を用いるため、各ブロックに対応する参照フレーム番号からその時刻を求める必要がある。
スケーリングによって、対象ブロックを含むフレームの時刻tから、対象ブロックの動きベクトルが参照するフレームの時刻tまでの時間的距離(t−t)を基準にして、取得した処理済みのブロックB101、B102、B103、B104の動きベクトルの大きさが変更される。具体的に一例を挙げると、ブロックB204の動きベクトルMVが参照するフレームの時刻をtとすると、スケーリングされた動きベクトルMV’は、下記式(5)によって与えられるベクトルである。
Figure 2008311781
スケーリング処理によって、過去に符号化済みのブロックの動きベクトルが参照するフレームと対象ブロックの動きベクトルが参照するフレームが異なる場合でも、時間的距離に応じて変位量の補正をすることで、対象ブロックの動きベクトルが参照するフレームにおける過去に符号化済みのブロックの参照先を適切に決定することができる。
なお、このスケーリング処理は必須ではなく、スケーリング処理を行わない場合は各ブロックに対応する参照フレーム番号は必要ない。
また、S202において処理済みのブロックそのもの、あるいは処理済みのブロックの動きベクトルが存在しない場合、そのブロックは除いて以下の処理を進める。処理済みのブロックそのもの、あるいは処理済みのブロックの動きベクトルが1つも存在しない場合は対象ブロックの動きベクトルのみから小ブロックの動きベクトルが生成される。
続いて、第2動きベクトル生成器206によって、S202で取得された動きベクトルの重み係数C(i=1〜4)の総和ΣCが算出されて、MVの重み係数Cとされる(S203)。なお、MVの重み係数Cの値としては、重み係数C(i=1〜4)の総和ΣCを用いる代わりに、重み係数C(i=1〜4)の総和ΣCに定数を乗じた値でもよい。重み係数C(i=1〜4)の平均値aveC1−4でもよい。重み係数C(i=1〜4)の平均値aveC1−4に定数を乗じた値でもよい。なお、重み係数Cが存在しない場合は、Cの値としては、予め設定された定数とされる。
続いて、第2動きベクトル生成器206によって、対象小ブロックの中心位置と対象ブロックを含むそれぞれのブロックの中心位置との距離dij(i=0〜4,j=1〜4)が算出される。ここで、添え字jはj番目の対象小ブロックを表している(S204)。
続いて、第2動きベクトル生成器206によって、対象ブロックを含めた全てのブロックの動きベクトルの平均値aveMV0−4が算出される(S205)。
続いて、対象ブロックを含めた全てのブロックの動きベクトルについて、平均値aveMV0−4との差分E=|MV−aveMV0−4|(i=1〜4)が算出される(S206)。ここでE=0となる場合は、後の処理に不都合を生じるため、代わりに十分小さな値を代入することとする。
続いて、第2動きベクトル生成器206によって、対象小ブロックB100の第2動きベクトルMV100(j=1〜4)が次式(6)により算出される(S207)。
Figure 2008311781

ここで、f(C,dij,E)により算出される値は、第2動きベクトルを生成する際に足し合わされる動きベクトルに対する重み付けを示す係数である。f(C,dij,E)は、C,dij,Eの関数である。即ち、予測信号の確からしさに基づく重み、ブロック間の距離に基づく重み及び動きベクトル間の類似性に基づいて、それぞれの動きベクトルを足し合わせる際の重みを決定することができる。一例として、次式(7)のようにf(C,dij,E)をおくと予測信号の確からしさが高く、対象ブロックと距離が近く、周辺の動きベクトルとの類似性が高い動きベクトルの重みを上げることができる。
Figure 2008311781

なお、上記の関数は、予測信号の確からしさを示すC、対象ブロックとの距離を示すdij、及び周辺の動きベクトルとの類似性を示すEの少なくとも何れか一つが用いられていればよい。
最後に、対象小ブロックB200の動きベクトルMV200j(j=1〜4)が第2動きベクトル生成器206から出力され、第2動きベクトル生成器206における処理が終了する(S208)。
なお、図11のフローチャートに示される一連の処理のうち、動きベクトルに関するものは、動きベクトルをx成分、y成分に分けて成分ごとに処理をすることが好ましい。また、x成分、y成分に分けずに、ベクトルの差分の大きさ(具体的にはベクトルノルム等)を算出することで、動きベクトルのx成分、y成分を同時に決定してもよい。
なお、図11のフローチャートに示される一連の処理において、f(C,dij,E)はなくてもよい。その場合、それぞれの動きベクトルに対する重み付けは行われない。
なお、第2動きベクトルの算出は、図13のフローチャートに示される処理により行われてもよい。この処理は、対象小ブロックに対する第2動きベクトルを算出する際に、当該算出に適さない特異な動きベクトルを取り除く処理である。具体的には、図11のフローチャートに示される一連の処理におけるC,Eに関する閾値を設け、周囲のベクトルと比較して確からしさの低いベクトルを、対象小ブロックに対する第2動きベクトルを算出する際に取り除き、考慮しないようにするものである。これにより、対象小ブロックの予測信号生成の精度を高める効果がある。
まず、図11のフローチャートのS201〜S203と同様に以下の処理が行われる。即ち、第2動きベクトル生成器206によって、対象ブロックB200の動きベクトルMVと対象ブロックの動きベクトルMVの参照フレーム番号とが取得される(S301)。続いて、過去に符号化済みのブロックB201〜B204の動きベクトルMV(i=1〜4)と、対応する参照フレーム番号と、それぞれの動きベクトルに対応する重み係数C(i=1〜4)とが取得される(S302)。続いて、MVの重み係数Cが算出される(S303)。
続いて、第2動きベクトル生成器206によって、重み係数の平均値aveC1−4が算出される(S304)。
続いて、図4のフローチャートのS204〜S206と同様に以下の処理が行われる。即ち、第2動きベクトル生成器206によって、対象小ブロックの中心位置と対象ブロックを含むそれぞれのブロックの中心位置との距離dij(i=0〜4,j=1〜4)が算出される(S305)。続いて、対象ブロックを含めた全てのブロックの動きベクトルの平均値aveMV0−4が算出される(S306)。続いて、対象ブロックを含めた全てのブロックの動きベクトルについて、平均値aveMV0−4との差分E=|MV−aveMV0−4|(i=1〜4)が算出される(S307)。
続いて、第2動きベクトル生成器206によって、各動きベクトルEの平均値aveE0−4が算出される(S308)。
続いて、第2動きベクトル生成器206によって、各動きベクトルに対して(各i(i=0〜4)に対して)、重み係数CがS304で算出されたaveC1−4より小さい(C<aveC1−4)、あるいは動きベクトルの差分EがS308で算出されたaveE0−4より大きい(E>aveE0−4)ことを満たすか否かが判断される(S309)。なおここでの各閾値aveC1−4,aveE0−4は、それぞれ独立に定数を乗じることで補正されてもよい。
Ci<aveC1−4又はE>aveE0−4を満たすと判断された場合、そのブロックの動きベクトルを対象小ブロックの動きベクトル生成に用いるか否かを示すインデックスKに0が代入される(S310)。一方、Ci<aveC1−4又はE>aveE0−4を満たさないと判断された場合、Kに1が代入される(S311)。
続いて、第2動きベクトル生成器206によって、対象小ブロックB200の動きベクトルMV200(j=1〜4)が次式(8)により算出される(S312)。
Figure 2008311781
最後に、対象小ブロックB200の動きベクトルMV100j(j=1〜4)が第2動きベクトル生成器206から出力され、第2動きベクトル生成器206における処理が終了する(S313)。
上記の一連の処理では、動きベクトルの信頼度が平均値より低い場合、又は動きベクトルの平均値との差分の絶対値が平均値より大きい場合には、その動きベクトルは第2動きベクトルの生成には用いられないことを示している。上記の条件を満たす動きベクトルは特異な動きベクトルであるので、これらを考慮しないようにすることで、対象小ブロックの予測信号生成の精度を高める効果がある。
同様の効果を得る方法として、複数の組み合わせで過去に符号化済みのブロックを選び、それぞれの組み合わせで過去に符号化済みのブロックの動きベクトルの分散を計算し、そのうちもっとも分散が小さい組み合わせとなる過去に符号化済みのブロックの動きベクトルを用いて、対象ブロックの動きベクトルから対象小ブロックの動きベクトルを生成してもよい。
上記の方法においては、過去に符号化済みのブロックと対象ブロックを含めたブロックから複数の組み合わせで動きベクトルを選び、その分散が最小となる組み合わせの動きベクトルを用いて対象小ブロックの動きベクトルを生成してもよい。
なお、対象小ブロックの第2動きベクトルの生成の際に用いる過去に符号化済みのブロックは図3のように与える代わりに、対象ブロックに隣接する全てのブロックを用いてもよい、具体的には、図7(a)に示すように対象ブロックと1辺を共有する過去に符号化済みのブロック全てを用いてもよい。図7(b)に示すように、対象ブロックと頂点を共有する過去に符号化済みの全てのブロックを用いてもよい。また、図7(c)に示すように、対象小ブロックごとに異なる組み合わせで処理済みのブロックを用いてもよい。なお、図7においては、ハッチングされているブロックが対象小ブロックである。
なお、対象小ブロックの第2動きベクトルの生成の際に用いる過去に符号化済みのブロックは図10のように与える代わりに、対象ブロックを含むフレームと異なるフレーム内のブロックを選んでもよい。その場合は、対象ブロックと同じ空間位置のブロックとその近傍にあるブロック、あるいは対象ブロックの動きベクトルが参照するブロックとその近傍にあるブロック、あるいは対象ブロックとその近傍にあるブロックのそれぞれが参照するブロックを用いるのがよい。このように異なるフレームにある過去に符号化済みのブロックを用いる場合、そのブロックに関しては式(6)あるいは式(8)におけるdijが得られないため、代わりに定数を代入するのがよい。
本実施形態によれば、対象ブロックの動きベクトルと、対象小ブロックの動きベクトルに相関があると考えられる過去の処理によって取得済みの動きベクトルのブロックの動きベクトルから対象小ブロックの動きベクトルを生成し、対象ブロックの予測信号を小ブロックごとに生成することで、より精度の高い予測信号を生成することができる。これにより、符号量を減少させることができる。
また、第2動きベクトルは第1動きベクトルに基づいて生成されるため、処理対象小ブロックに対する第2動きベクトルを符号化側から取得しなくても、画素信号を復元することができる。従って、第2動きベクトルにより符号量が増加することがない。これにより、対象ブロックの予測信号を対象ブロックよりも小さいブロックごとに生成する従来の方法に比べて動きベクトルの符号量を削減できる。
また、対象ブロックの動きベクトルと、過去の処理によって取得済みの動きベクトルを、それぞれの動きベクトルを用いた動き補償の精度と、対象小ブロックとの距離と、動きベクトル間での類似性の少なくともひとつに基づいて重み付けすることで、当該動きベクトルによって生成される予測信号の確からしさに基づいて、対象ブロックに対する適応的な予測信号の生成を行い、画素信号を復元することができる。即ち、上述した動画像符号化装置10によって第2動きベクトルが用いられて符号化された圧縮データから画素信号を確実に復元することができる。
さらに、第2動きベクトルを用いる場合のみに第2動きベクトルを生成するため、効率よく画素信号を復元することができる。
次に、コンピュータを本発明による動画像符号化装置として動作させるための動画像符号化プログラムについて説明する。図14に、本発明の実施形態に係る動画像符号化プログラムP10の構成を示す。動画像符号化プログラムP10は、コンピュータが備える、ROMや半導体メモリ等の記録媒体に形成されたプログラム格納領域内に格納されている。また、動画像符号化プログラムP10は、フレキシブルディスク、CD−ROM、DVD等の記録媒体に記憶されており、それらからコンピュータに読込まれてもよい。当該動画像符号化プログラムP10によって、コンピュータが本発明による動画像符号化装置として動作することが可能になる。
図14に示すように、動画像符号化プログラムP10は、処理を統括するメインモジュールP101と、ブロック分割モジュールP102と、変換モジュールP103と、量子化モジュールP104と、逆量子化モジュールP105と、逆変換モジュールP106と、記憶モジュールP107と、予測信号生成モジュールP108と、第1動きベクトル検出モジュールP109と、第2動きベクトル生成モジュールP110と、加算モジュールP111と、減算モジュールP112と、動きベクトル選択モジュールP113と、重み係数生成モジュールP114と、エントロピー符号化モジュールP115とを備えて構成されている。
ブロック分割モジュールP102を実行させることにより実現される機能は、上述したブロック分割器101の機能と同様である。変換モジュールP103を実行させることにより実現される機能は、上述した変換器109の機能と同様である。量子化モジュールP104を実行させることにより実現される機能は、上述した量子化器110の機能と同様である。逆量子化モジュールP105を実行させることにより実現される機能は、上述した逆量子化器111の機能と同様である。逆変換モジュールP106を実行させることにより実現される機能は、上述した逆変換器112の機能と同様である。記憶モジュールP107を実行させることにより実現される機能は、上述したフレームメモリ102、動きベクトルメモリ104及び重み係数メモリ115の機能と同様である。予測信号生成モジュールP108を実行させることにより実現される機能は、上述した予測信号生成器107の機能と同様である。
第1動きベクトル検出モジュールP109を実行させることにより実現される機能は、上述した第1動きベクトル検出器103の機能と同様である。第2動きベクトル生成モジュールP110を実行させることにより実現される機能は、上述した第2動きベクトル生成器105の機能と同様である。加算モジュールP111を実行させることにより実現される機能は、上述した加算器113の機能と同様である。減算モジュールP112を実行させることにより実現される機能は、上述した減算器108の機能と同様である。動きベクトル選択モジュールP113を実行させることにより実現される機能は、上述した動きベクトル選択器106の機能と同様である。重み係数生成モジュールP114を実行させることにより実現される機能は、上述した重み係数生成器114の機能と同様である。エントロピー符号化モジュールP115を実行させることにより実現される機能は、上述したエントロピー符号化器116の機能と同様である。
次に、コンピュータを本発明による動画像復号化装置として動作させるための動画像復号化プログラムについて説明する。図15に、本発明の実施形態に係る動画像復号化プログラムP20の構成を示す。動画像復号化プログラムP20は、コンピュータが備える、ROMや半導体メモリ等の記録媒体に形成されたプログラム格納領域内に格納されている。また、動画像復号化プログラムP20は、フレキシブルディスク、CD−ROM、DVD等の記録媒体に記憶されており、それらからコンピュータに読込まれてもよい。当該動画像復号化プログラムP20によって、コンピュータが本発明による動画像復号化装置として動作することが可能になる。
図15に示すように、動画像復号化プログラムP20は、処理を統括するメインモジュールP201と、データ解析モジュールP202と、逆量子化モジュールP203と、逆変換モジュールP204と、記憶モジュールP205と、予測信号生成モジュールP206と、第2動きベクトル生成モジュールP207と、加算モジュールP208と、動きベクトル切替モジュールP209と、重み係数生成モジュールP210とを備えて構成されている。
データ解析モジュールP202を実行させることにより実現される機能は、上述したデータ解析器201の機能と同様である。逆量子化モジュールP203を実行させることにより実現される機能は、上述した逆量子化器202の機能と同様である。逆変換モジュールP204を実行させることにより実現される機能は、上述した逆変換器203の機能と同様である。記憶モジュールP205を実行させることにより実現される機能は、上述したフレームメモリ204、動きベクトルメモリ205及び重み係数メモリ211の機能と同様である。予測信号生成モジュールP206を実行させることにより実現される機能は、上述した予測信号生成器208の機能と同様である。第2動きベクトル生成モジュールP207を実行させることにより実現される機能は、上述した第2動きベクトル生成器206の機能と同様である。加算モジュールP208を実行させることにより実現される機能は、上述した加算器209の機能と同様である。動きベクトル切替モジュールP209を実行させることにより実現される機能は、上述した動きベクトル切替器207の機能と同様である。重み係数生成モジュールP210を実行させることにより実現される機能は、上述した重み係数生成器210の機能と同様である。
図16に、本実施形態に係る動画像符号化装置10及び動画像復号化装置20(動画像符号化プログラム及び動画像復号化プログラムが実行されるコンピュータ30)のハードウェア構成を示す。図17に、動画像符号化装置10及び動画像復号化装置20(動画像符号化プログラム及び動画像復号化プログラムが実行されるコンピュータ30)の外観構成を示す。上記のコンピュータ30としては、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などを含む。
図16に示すように、コンピュータ30は、フレキシブルディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読取装置31と、オペレーティングシステムを常駐させた作業用メモリ(RAM)32と、記録媒体40に記憶されたプログラムを記憶するメモリ33と、ディスプレイといった表示装置34と、入力装置であるマウス35及びキーボード36と、データ等の送受を行うための通信装置37と、プログラムの実行を制御するCPU38とを備えている。コンピュータ30は、記録媒体40が読取装置31に挿入されると、読取装置31から記録媒体40に格納された動画像符号化プログラムP10又は動画像復号化プログラムP20にアクセス可能になり、当該動画像符号化プログラムP10又は動画像復号化プログラムP20によって、本発明による動画像符号化装置10又は動画像復号化装置20として動作することが可能になる。
図17に示すように、動画像符号化プログラムP10又は動画像復号化プログラムP20は、搬送波に重畳されたコンピュータデータ信号50としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置37によって受信した動画像符号化プログラムP10又は動画像復号化プログラムP20をメモリ33に格納し、当該動画像符号化プログラムP10又は動画像復号化プログラムP20を実行することができる。
本発明の実施形態に係る動画像符号化装置の構成を示す図である。 本発明の実施形態に係る動画像符号化装置により実行される符号化処理(動画像符号化方法)を示すフローチャートである。 動画像符号化装置において生成される第2動きベクトルを示した図である。 動画像符号化装置における第2動きベクトルの生成処理を示すフローチャートである。 動きベクトルのスケーリングを示す図である。 動画像符号化装置における第2動きベクトルの生成処理の別の例を示すフローチャートである。 対象小ブロックと、当該対象小ブロックにおける第2動きベクトルの生成に用いられる動きベクトルに係るブロックとの関係を示した図である。 本発明の実施形態に係る動画像復号化装置の構成を示す図である。 本発明の実施形態に係る動画像復号化装置により実行される復号化処理(動画像復号化方法)を示すフローチャートである。 動画像復号化装置において生成される第2動きベクトルを示した図である。 動画像復号化装置における第2動きベクトルの生成処理を示すフローチャートである。 動きベクトルのスケーリングを示す図である。 動画像復号化装置における第2動きベクトルの生成処理の別の例を示すフローチャートである。 本発明の実施形態に係る動画像符号化プログラムの構成を示す図である。 本発明の実施形態に係る動画像復号プログラムの構成を示す図である。 記録媒体に記録されたプログラムを実行されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。 記録媒体に記録されたプログラムを実行されたプログラムを実行するためのコンピュータの斜視図である。
符号の説明
10…動画像符号化装置、101…ブロック分割器、102…フレームメモリ、103…第1動きベクトル検出器、104…動きベクトルメモリ、105…第2動きベクトル生成器、106…動きベクトル選択器、107…予測信号生成器、108…減算器、109…変換器、110…量子化器、111…逆量子化器、112…逆変換器、113…加算器、114…重み係数生成器、115…重み係数メモリ、116…エントロピー符号化器、20…動画像復号化装置、201…データ解析器、202…逆量子化器、203…逆変換器、204…フレームメモリ、205…動きベクトルメモリ、206…第2動きベクトル生成器、207…動きベクトル切替器、208…予測信号生成器、209…加算器、210…重み係数生成器、211…重み係数メモリ、P10…動画像符号化プログラム、P101…メインモジュール、P102…ブロック分割モジュール、P103…変換モジュール、P104…量子化モジュール、P105…逆量子化モジュール、P106…逆変換モジュール、P107…記憶モジュール、P109…予測信号生成モジュール、P109…第1動きベクトル検出モジュール、P110…第2動きベクトル生成モジュール、P111…加算モジュール、P112…減算モジュール、P113…動きベクトル選択モジュール、P114…重み係数生成モジュール、P115…エントロピー符号化モジュール、P20…動画像復号化プログラム、P201…メインモジュール、P202…データ解析モジュール、P203…逆量子化モジュール、P204…逆変換モジュール、P205…記憶モジュール、P206…予測信号生成モジュール、P207…第2動きベクトル生成モジュール、P208…加算モジュール、P209…動きベクトル切替モジュール、P210…重み係数生成モジュール、30…コンピュータ、31…読取装置、32…作業用メモリ、33…メモリ、34…表示装置、35…マウス、36…キーボード、37…通信装置、38…CPU、40…記録媒体、50…コンピュータデータ信号。

Claims (18)

  1. フレーム画像信号の時間系列で構成される入力動画像信号を複数の領域に分割する領域分割手段と、
    前記領域分割手段により分割された領域のうちの処理対象領域に対する動きベクトルである第1動きベクトルを検出する動き検出手段と、
    前記処理対象領域に対する予測信号を生成する予測信号生成手段と、
    前記予測信号生成手段により生成された予測信号と前記処理対象領域の画素信号との残差信号を生成する残差信号生成手段と、
    前記残差信号生成手段により生成された前記残差信号及び前記動き検出手段により検出された第1動きベクトルを符号化して圧縮データを生成する符号化手段と、を備え、
    前記予測信号生成手段は、前記動き検出手段により検出された第1動きベクトルに基づいて、前記処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする動画像符号化装置。
  2. 前記予測信号生成手段は、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、前記小領域に対する前記第2動きベクトルを生成することを特徴とする請求項1に記載の動画像符号化装置。
  3. 前記予測信号生成手段は、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における前記残差信号と、それぞれの動きベクトルに係る処理対象領域と前記小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する前記第2動きベクトルを生成することを特徴とする請求項1又は2に記載の動画像符号化装置。
  4. 前記予測信号生成手段は、前記第1動きベクトルと前記第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて前記処理対象領域の予測信号を生成することを特徴とした請求項1〜3の何れか一項に記載の動画像符号化装置。
  5. 動画像信号の圧縮データの中から、当該動画像信号を構成する処理対象領域に関する残差信号と第1動きベクトルとを抽出するデータ抽出手段と、
    前記データ抽出手段により抽出された前記処理対象領域に関する残差信号を再生残差信号に復元する残差信号復元手段と、
    前記データ抽出手段により抽出された第1動きベクトルに基づいて、前記処理対象領域に対する予測信号を生成する予測信号生成手段と、
    前記予測信号生成手段により生成された予測信号に前記残差信号復元手段により復元された再生残差信号を加算することによって、前記処理対象領域の画素信号を復元する画像復元手段と、を備え、
    前記予測信号生成手段は、前記データ抽出手段により抽出された前記処理対象領域の第1動きベクトルに基づいて、前記処理対象領域が区分された複数の当該小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする動画像復号化装置。
  6. 前記予測信号生成手段は、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、前記小領域に対する前記第2動きベクトルを生成することを特徴とする請求項5に記載の動画像復号化装置。
  7. 前記予測信号生成手段は、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における前記残差信号と、それぞれの動きベクトルに係る処理対象領域と前記小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する前記第2動きベクトルを生成することを特徴とする請求項5又は6に記載の動画像復号化装置。
  8. 前記予測信号生成手段は、前記第1動きベクトルと前記第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて前記処理対象領域の予測信号を生成することを特徴とした請求項5〜7の何れか一項に記載の動画像復号化装置。
  9. フレーム画像信号の時間系列で構成される入力動画像信号を複数の領域に分割する領域分割ステップと、
    前記領域分割ステップにおいて分割された領域のうちの処理対象領域に対する動きベクトルである第1動きベクトルを検出する動き検出ステップと、
    前記処理対象領域に対する予測信号を生成する予測信号生成ステップと、
    前記予測信号生成ステップにおいて生成された予測信号と前記処理対象領域の画素信号との残差信号を生成する残差信号生成ステップと、
    前記残差信号生成ステップにおいて生成された前記残差信号及び前記動き検出ステップにおいて検出された第1動きベクトルを符号化して圧縮データを生成する符号化ステップと、を含み、
    前記予測信号生成ステップにおいて、前記動き検出ステップにおいて検出された第1動きベクトルに基づいて、前記処理対象領域が区分された複数の小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする動画像符号化方法。
  10. 前記予測信号生成ステップにおいて、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、前記小領域に対する前記第2動きベクトルを生成することを特徴とする請求項9に記載の動画像符号化方法。
  11. 前記予測信号生成ステップにおいて、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における前記残差信号と、それぞれの動きベクトルに係る処理対象領域と前記小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する前記第2動きベクトルを生成することを特徴とする請求項9又は10に記載の動画像符号化方法。
  12. 前記予測信号生成ステップにおいて、前記第1動きベクトルと前記第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて前記処理対象領域の予測信号を生成することを特徴とした請求項9〜11の何れか一項に記載の動画像符号化方法。
  13. 動画像信号の圧縮データの中から、当該動画像信号を構成する処理対象領域に関する残差信号と第1動きベクトルとを抽出するデータ抽出ステップと、
    前記データ抽出ステップにおいて抽出された前記処理対象領域に関する残差信号を再生残差信号に復元する残差信号復元ステップと、
    前記データ抽出ステップにおいて抽出された第1動きベクトルに基づいて、前記処理対象領域に対する予測信号を生成する予測信号生成ステップと、
    前記予測信号生成ステップにより生成された予測信号に前記残差信号復元ステップにおいて復元された再生残差信号を加算することによって、前記処理対象領域の画素信号を復元する画像復元ステップと、を含み、
    前記予測信号生成ステップにおいて、前記データ抽出ステップにおいて抽出された前記処理対象領域の第1動きベクトルに基づいて、前記処理対象領域が区分された複数の当該小領域に対する動きベクトルである第2動きベクトルを生成して、生成した第2動きベクトルを用いて当該小領域に対する予測信号を生成することを特徴とする動画像復号化方法。
  14. 前記予測信号生成ステップにおいて、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとに基づいて、前記小領域に対する前記第2動きベクトルを生成することを特徴とする請求項13に記載の動画像復号化方法。
  15. 前記予測信号生成ステップにおいて、前記処理対象領域に対する第1動きベクトルと過去の処理によって取得済みの動きベクトルとを、それぞれの動きベクトルに係る処理対象領域における前記残差信号と、それぞれの動きベクトルに係る処理対象領域と前記小領域との距離と、それぞれの動きベクトル間での類似性との少なくとも何れかに基づいて重み付けして、当該重み付けに基づいて当該小領域に対する前記第2動きベクトルを生成することを特徴とする請求項13又は14に記載の動画像復号化方法。
  16. 前記予測信号生成ステップにおいて、前記第1動きベクトルと前記第2動きベクトルとから何れか一方を選択し、選択された動きベクトルを用いて前記処理対象領域の予測信号を生成することを特徴とした請求項13〜15の何れか一項に記載の動画像復号化方法。
  17. コンピュータを請求項1〜4の何れか一項に記載の動画像符号化装置として機能させる動画像符号化プログラム。
  18. コンピュータを請求項5〜8の何れか一項に記載の動画像復号化装置として機能させる動画像復号化プログラム。
JP2007155595A 2007-06-12 2007-06-12 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム Pending JP2008311781A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007155595A JP2008311781A (ja) 2007-06-12 2007-06-12 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007155595A JP2008311781A (ja) 2007-06-12 2007-06-12 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム

Publications (1)

Publication Number Publication Date
JP2008311781A true JP2008311781A (ja) 2008-12-25

Family

ID=40239023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007155595A Pending JP2008311781A (ja) 2007-06-12 2007-06-12 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム

Country Status (1)

Country Link
JP (1) JP2008311781A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010110126A1 (ja) * 2009-03-23 2010-09-30 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP2010233135A (ja) * 2009-03-30 2010-10-14 Kddi R & D Laboratories Inc 動画像符号化装置および動画像復号装置
EP2432226A1 (en) * 2009-05-11 2012-03-21 NTT DoCoMo, Inc. Moving image encoding device, method, and program, and moving image decoding device, method, and program
JPWO2012042719A1 (ja) * 2010-09-30 2014-02-03 三菱電機株式会社 動画像復号装置及び動画像復号方法
JP2015019420A (ja) * 2009-08-13 2015-01-29 サムスン エレクトロニクス カンパニー リミテッド 映像復号化方法
JP2016158259A (ja) * 2010-04-13 2016-09-01 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
JP2017076980A (ja) * 2016-10-24 2017-04-20 株式会社Jvcケンウッド 画像符号化装置
US9986261B2 (en) 2010-07-20 2018-05-29 Ntt Docomo, Inc. Image prediction encoding/decoding system
US10681390B2 (en) 2010-04-13 2020-06-09 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10687085B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10848767B2 (en) 2010-04-13 2020-11-24 Ge Video Compression, Llc Inter-plane prediction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799661A (ja) * 1993-09-28 1995-04-11 Nec Corp 動き補償予測装置
JPH09130803A (ja) * 1995-10-27 1997-05-16 Fujitsu Ltd 背景画像復元方法および装置
JPH11231832A (ja) * 1998-02-17 1999-08-27 Matsushita Electric Ind Co Ltd 動ベクトル検出方法、動画像表示方法及び動画像表示装置
JP2001508633A (ja) * 1997-11-17 2001-06-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き補償予測画像の符号化及び復号化
JP2004274628A (ja) * 2003-03-11 2004-09-30 Sony Corp 動き検出装置、動き検出方法及びプログラム
JP2005167721A (ja) * 2003-12-03 2005-06-23 Sony Corp データ処理装置およびその方法と符号化装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799661A (ja) * 1993-09-28 1995-04-11 Nec Corp 動き補償予測装置
JPH09130803A (ja) * 1995-10-27 1997-05-16 Fujitsu Ltd 背景画像復元方法および装置
JP2001508633A (ja) * 1997-11-17 2001-06-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 動き補償予測画像の符号化及び復号化
JPH11231832A (ja) * 1998-02-17 1999-08-27 Matsushita Electric Ind Co Ltd 動ベクトル検出方法、動画像表示方法及び動画像表示装置
JP2004274628A (ja) * 2003-03-11 2004-09-30 Sony Corp 動き検出装置、動き検出方法及びプログラム
JP2005167721A (ja) * 2003-12-03 2005-06-23 Sony Corp データ処理装置およびその方法と符号化装置

Cited By (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031125B2 (en) 2009-03-23 2015-05-12 Ntt Docomo, Inc. Image predictive encoding and decoding device
CN102362500A (zh) * 2009-03-23 2012-02-22 株式会社Ntt都科摩 图像预测编码装置、图像预测编码方法、图像预测编码程序、图像预测解码装置、图像预测解码方法及图像预测解码程序
US9549186B2 (en) 2009-03-23 2017-01-17 Ntt Docomo, Inc. Image predictive encoding and decoding device
WO2010110126A1 (ja) * 2009-03-23 2010-09-30 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
US10284847B2 (en) 2009-03-23 2019-05-07 Ntt Docomo, Inc. Image predictive encoding and decoding device
JP5586101B2 (ja) * 2009-03-23 2014-09-10 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
CN104065961A (zh) * 2009-03-23 2014-09-24 株式会社Ntt都科摩 图像预测编码装置及其方法、图像预测解码装置及其方法
US10063855B2 (en) 2009-03-23 2018-08-28 Ntt Docomo, Inc. Image predictive encoding and decoding device
US10284848B2 (en) 2009-03-23 2019-05-07 Ntt Docomo, Inc. Image predictive encoding and decoding device
US10284846B2 (en) 2009-03-23 2019-05-07 Ntt Docomo, Inc. Image predictive encoding and decoding device
JP2010233135A (ja) * 2009-03-30 2010-10-14 Kddi R & D Laboratories Inc 動画像符号化装置および動画像復号装置
EP2432226A4 (en) * 2009-05-11 2015-01-07 Ntt Docomo Inc DEVICE, METHOD AND PROGRAM FOR ENCODING MOVING IMAGES AND DEVICE, METHOD AND PROGRAM FOR DECOMPOSING MOVING IMAGES
US9241172B2 (en) 2009-05-11 2016-01-19 Ntt Docomo, Inc. Moving image encoding and decoding device
EP2432226A1 (en) * 2009-05-11 2012-03-21 NTT DoCoMo, Inc. Moving image encoding device, method, and program, and moving image decoding device, method, and program
JP2015029335A (ja) * 2009-08-13 2015-02-12 サムスン エレクトロニクス カンパニー リミテッド 映像復号化方法
JP2015019420A (ja) * 2009-08-13 2015-01-29 サムスン エレクトロニクス カンパニー リミテッド 映像復号化方法
US9544588B2 (en) 2009-08-13 2017-01-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US10110902B2 (en) 2009-08-13 2018-10-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US9883186B2 (en) 2009-08-13 2018-01-30 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding motion vector
US10880580B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10805645B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11910029B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division preliminary class
US11910030B2 (en) 2010-04-13 2024-02-20 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11900415B2 (en) 2010-04-13 2024-02-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11856240B1 (en) 2010-04-13 2023-12-26 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11810019B2 (en) 2010-04-13 2023-11-07 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11785264B2 (en) 2010-04-13 2023-10-10 Ge Video Compression, Llc Multitree subdivision and inheritance of coding parameters in a coding block
US11778241B2 (en) 2010-04-13 2023-10-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11765363B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US10248966B2 (en) 2010-04-13 2019-04-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
JP2016158259A (ja) * 2010-04-13 2016-09-01 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
US11765362B2 (en) 2010-04-13 2023-09-19 Ge Video Compression, Llc Inter-plane prediction
US11734714B2 (en) 2010-04-13 2023-08-22 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US20190164188A1 (en) 2010-04-13 2019-05-30 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
JP2019083583A (ja) * 2010-04-13 2019-05-30 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
JP2019198081A (ja) * 2010-04-13 2019-11-14 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
US11611761B2 (en) 2010-04-13 2023-03-21 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US10621614B2 (en) 2010-04-13 2020-04-14 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10672028B2 (en) 2010-04-13 2020-06-02 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10681390B2 (en) 2010-04-13 2020-06-09 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2020092449A (ja) * 2010-04-13 2020-06-11 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
US10687086B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10687085B2 (en) 2010-04-13 2020-06-16 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10694218B2 (en) 2010-04-13 2020-06-23 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10708628B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10708629B2 (en) 2010-04-13 2020-07-07 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10721495B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10721496B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10719850B2 (en) 2010-04-13 2020-07-21 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10748183B2 (en) 2010-04-13 2020-08-18 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10764608B2 (en) 2010-04-13 2020-09-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10771822B2 (en) 2010-04-13 2020-09-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11553212B2 (en) 2010-04-13 2023-01-10 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10803485B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10803483B2 (en) 2010-04-13 2020-10-13 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US10848767B2 (en) 2010-04-13 2020-11-24 Ge Video Compression, Llc Inter-plane prediction
US10856013B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10855990B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10855995B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10855991B2 (en) 2010-04-13 2020-12-01 Ge Video Compression, Llc Inter-plane prediction
US10863208B2 (en) 2010-04-13 2020-12-08 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10873749B2 (en) 2010-04-13 2020-12-22 Ge Video Compression, Llc Inter-plane reuse of coding parameters
US10880581B2 (en) 2010-04-13 2020-12-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US11546641B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US10893301B2 (en) 2010-04-13 2021-01-12 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US11037194B2 (en) 2010-04-13 2021-06-15 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11051047B2 (en) 2010-04-13 2021-06-29 Ge Video Compression, Llc Inheritance in sample array multitree subdivision
US20210211743A1 (en) 2010-04-13 2021-07-08 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2021101548A (ja) * 2010-04-13 2021-07-08 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
US11087355B2 (en) 2010-04-13 2021-08-10 Ge Video Compression, Llc Region merging and coding parameter reuse via merging
US11102518B2 (en) 2010-04-13 2021-08-24 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
JP2022188123A (ja) * 2010-04-13 2022-12-20 ジーイー ビデオ コンプレッション エルエルシー 標本の領域の結合
US11546642B2 (en) 2010-04-13 2023-01-03 Ge Video Compression, Llc Coding of a spatial sampling of a two-dimensional information signal using sub-division
US10230987B2 (en) 2010-07-20 2019-03-12 Ntt Docomo, Inc. Image prediction encoding/decoding system
US9986261B2 (en) 2010-07-20 2018-05-29 Ntt Docomo, Inc. Image prediction encoding/decoding system
US10542287B2 (en) 2010-07-20 2020-01-21 Ntt Docomo, Inc. Image prediction encoding/decoding system
US10063888B1 (en) 2010-07-20 2018-08-28 Ntt Docomo, Inc. Image prediction encoding/decoding system
US10225580B2 (en) 2010-07-20 2019-03-05 Ntt Docomo, Inc. Image prediction encoding/decoding system
JP5486091B2 (ja) * 2010-09-30 2014-05-07 三菱電機株式会社 動画像復号装置及び動画像復号方法
US9369730B2 (en) 2010-09-30 2016-06-14 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
JPWO2012042719A1 (ja) * 2010-09-30 2014-02-03 三菱電機株式会社 動画像復号装置及び動画像復号方法
US9894376B2 (en) 2010-09-30 2018-02-13 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US9894375B2 (en) 2010-09-30 2018-02-13 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US9900612B2 (en) 2010-09-30 2018-02-20 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
US9900611B2 (en) 2010-09-30 2018-02-20 Mitsubishi Electric Corporation Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method
JP2017076980A (ja) * 2016-10-24 2017-04-20 株式会社Jvcケンウッド 画像符号化装置

Similar Documents

Publication Publication Date Title
JP2008311781A (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP6405432B2 (ja) 画像予測復号装置および画像予測復号方法
JP6559309B2 (ja) 画像予測復号方法
JP5781313B2 (ja) 画像予測符号化方法、画像予測符号化装置、画像予測符号化プログラム、画像予測復号方法、画像予測復号装置及び画像予測復号プログラム
JP2007300380A (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP6038243B2 (ja) 画像予測復号方法及び画像予測復号装置
JP5298140B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び画像予測復号プログラム
JP5325157B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
JP5775959B2 (ja) 画像予測符号化方法、画像予測符号化装置、画像予測符号化プログラム、画像予測復号方法、画像予測復号装置及び画像予測復号プログラム
JP5375697B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、及びプログラム
JP6310992B2 (ja) 画像予測復号方法及び画像予測復号装置
JP5415495B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP5736083B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130115