JP4571173B2 - 動画像復号化装置 - Google Patents

動画像復号化装置 Download PDF

Info

Publication number
JP4571173B2
JP4571173B2 JP2007233011A JP2007233011A JP4571173B2 JP 4571173 B2 JP4571173 B2 JP 4571173B2 JP 2007233011 A JP2007233011 A JP 2007233011A JP 2007233011 A JP2007233011 A JP 2007233011A JP 4571173 B2 JP4571173 B2 JP 4571173B2
Authority
JP
Japan
Prior art keywords
image
unit
prediction
output
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007233011A
Other languages
English (en)
Other versions
JP2008017527A (ja
Inventor
隆浩 福原
光太郎 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007233011A priority Critical patent/JP4571173B2/ja
Publication of JP2008017527A publication Critical patent/JP2008017527A/ja
Application granted granted Critical
Publication of JP4571173B2 publication Critical patent/JP4571173B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この発明は、入力画像を能率よく符号化及び復号化を行う画像復号化装置に関するものである。
図20は例えば非特許文献1に示された従来の画像符号化器を示す構成図であり、図において、1は入力画像Giから予測画像Geを減算して差分画像Gsを算出する減算器、2は減算器1により算出された差分画像Gsを離散コサイン変換し、その変換結果を差分画像Gsの変換係数Gstとして出力する変換部、3は変換部2から出力された変換係数Gstを量子化し、量子化係数Gqを出力する量子化部、4は量子化部3から出力された量子化係数Gqを符号化して符号化画像Gcを出力する符号化部である。
また、5は量子化部3から出力された量子化係数Gqを逆量子化し、変換係数Gqtを出力する逆量子化部、6は逆量子化部5から出力された変換係数Gqtを逆離散コサイン変換し、誤差画像Ggを出力する逆変換部、7は逆変換部6から出力された誤差画像Ggに予測画像Geを加算し、局部復号化画像Gkを出力する加算器、8は加算器7から出力された局部復号化画像Gkを参照して入力画像Giの動き補償を実行し、予測画像Geを決定する予測部である。
次に動作について説明する。
まず、符号化する入力画像Giが減算器1に入力されると、減算器1が入力画像Giから予測部8が出力する予測画像Geを減算して差分画像Gsを求め、差分画像Gsを出力する。
差分画像Gs=入力画像Gi−予測画像Ge
そして、減算器1から差分画像Gsが出力されると、変換部2が差分画像Gsの情報量を圧縮すべく、差分画像Gsを離散コサイン変換し、その変換結果を差分画像Gsの変換係数Gstとして出力する。
そして、変換部2から変換係数Gstが出力されると、量子化部3が変換係数Gstを量子化し、量子化係数Gqを出力する。
このようにして、量子化部3から量子化係数Gqが出力されると、符号化部4が量子化係数Gqを符号化して符号化画像Gcを生成し、符号化画像Gcを画像復号化器(図示せず)に出力するが、次回の画像の符号化に備えて、逆量子化部5が量子化係数Gqを逆量子化して変換係数Gqtを求めたのち、逆変換部6が変換係数Gqtを逆離散コサイン変換して誤差画像Ggを生成する。
そして、逆変換部6から誤差画像Ggが出力されると、加算器7が誤差画像Ggに予測画像Geを加算して局部復号化画像Gkを生成し、局部復号化画像Gkを出力する。
そして、加算器7から局部復号化画像Gkが出力されると、局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行することにより、予測画像Geを決定し、当該予測画像Geを減算器1に出力する。
以上により、一連の処理を終了する。
画像符号化シンポジウム(PCSJ89)の予稿集「テレビ会議/電話用符号化の標準化動向」(第43頁〜第48頁)
従来の画像符号化器は以上のように構成されているので、入力画像Giの1フレーム中に複数の対象物が存在していても、各対象物の動きが同一であれば入力画像Giと予測画像Geとの誤差を比較的小さくすることができるが、入力画像Giの動き補償をフレーム単位で実行しているため、各対象物の動きが互いに異なる場合には、入力画像Giと予測画像Geとの誤差が大きくなってしまう課題があった。
また、局部復号化画像Gkでは対象物の背後に背景画像が隠れているが、今回入力した入力画像Giでは対象物の背後に背景画像が現れてきたような場合には、参照画像である局部復号化画像Gkに背景画像が存在しないため、入力画像Giと予測画像Geとの誤差が大きくなってしまう課題もあった。
この発明は上記のような課題を解決するためになされたもので、入力画像と予測画像との誤差を小さくできる画像符号化器を得ることを目的とする。
また、この発明は、画像符号化器が出力する符号化画像から精度よく復号化画像を生成できる画像復号化器を得ることを目的とする。
この発明に係る動画像復号化装置は、動き補償予測に用いる参照画像を、時刻の異なる複数の画像フレームとして格納する複数のフレームバッファと、入力ビットストリームから、圧縮符号化の単位となるブロックごとに、該領域の動き補償予測を行う単位となる領域を定める動き補償予測単位領域識別情報と、動き補償予測単位領域識別情報によって定まる動き補償予測単位ごとに、対応する動きベクトルおよび動き補償予測に使用したフレームバッファを指定するフレームバッファ識別情報を復号する復号手段と、フレームバッファに格納される参照画像と復号した動きベクトルとに基づき、動き補償予測の単位となる領域に対応する予測画像を生成する動き補償手段と、フレームバッファに参照画像を格納するにあたり、復号化画像を参照画像として格納するタイミングを制御して、復号化画像をフレームバッファに格納する制御手段とを備え、動き補償手段は、復号手段で復号されたフレームバッファ識別情報で指定されるフレームメモリに格納された参照画像を用いて予測画像の生成を行うことを特徴とする。
この発明によれば、動き補償予測に用いる参照画像を、時刻の異なる複数の画像フレームとして格納する複数のフレームバッファと、入力ビットストリームから、圧縮符号化の単位となるブロックごとに、該領域の動き補償予測を行う単位となる領域を定める動き補償予測単位領域識別情報と、動き補償予測単位領域識別情報によって定まる動き補償予測単位ごとに、対応する動きベクトルおよび動き補償予測に使用したフレームバッファを指定するフレームバッファ識別情報を復号する復号手段と、フレームバッファに格納される参照画像と復号した動きベクトルとに基づき、動き補償予測の単位となる領域に対応する予測画像を生成する動き補償手段と、フレームバッファに参照画像を格納するにあたり、復号化画像を参照画像として格納するタイミングを制御して、復号化画像をフレームバッファに格納する制御手段とを備え、動き補償手段は、復号手段で復号されたフレームバッファ識別情報で指定されるフレームメモリに格納された参照画像を用いて予測画像の生成を行うように構成したので、画像符号化器から送られてくる符号化ビットストリームから精度よく復号化画像を生成できる効果がある。
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による画像符号化器を示す構成図であり、図において、1は入力画像Giから予測画像Geを減算して差分画像Gsを算出する減算器(局部復号化画像生成手段)、2は減算器1により算出された差分画像Gsを離散コサイン変換し、その変換結果を差分画像Gsの変換係数Gstとして出力する変換部(局部復号化画像生成手段)、3は変換部2から出力された変換係数Gstを量子化し、量子化係数Gqを出力する量子化部(局部復号化画像生成手段)、5は量子化部3から出力された量子化係数Gqを逆量子化し、変換係数Gqtを出力する逆量子化部(局部復号化画像生成手段)、6は逆量子化部5から出力された変換係数Gqtを逆離散コサイン変換し、誤差画像Ggを出力する逆変換部(局部復号化画像生成手段)、7は逆変換部6から出力された誤差画像Ggに予測画像Geを加算し、局部復号化画像Gkを出力する加算器(局部復号化画像生成手段)である。
また、11は加算器7から出力された局部復号化画像Gkを記憶するSTFM(第1の記憶手段)であり、STFMはShort Term Frame Memory(ショートターム・フレームメモリ)の略である。12は加算器7から出力された局部復号化画像Gkを一時的に保持し、加算器7から局部復号化画像Gkが出力されたのち所定時間経過後に局部復号化画像GkをLTFM13に記憶させる遅延時間制御部(第2の記憶手段)、13はSTFM11により記憶された局部復号化画像Gkよりも所定時間前に、加算器7から出力された局部復号化画像Gkを記憶するLTFM(第2の記憶手段)であり、LTFMはLong Term Frame Memory(ロングターム・フレームメモリ)の略である。
また、14はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行し、予測画像Ge,動きベクトルUv及び予測誤差Egを生成する第1の予測部としてのブロックベース予測部(予測手段)、15はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して入力画像Giのフレームを構成するセグメント領域毎に動き補償を実行し、予測画像Ge,動きベクトルUv及び予測誤差Egを生成する第2の予測部としてのセグメントベース予測部(予測手段)、16はブロックベース予測部14により生成された予測誤差Egとセグメントベース予測部15により生成された予測誤差Egとの偏差を求め、その偏差に応じてブロックベース予測部14又はセグメントベース予測部15により生成された予測画像Ge及び動きベクトルUvを選択する選択部(予測手段)である。
また、17は量子化部3から出力された量子化係数Gqと選択部16から出力された動きベクトルUv及び予測モードEmとセグメントベース予測部15から出力された予測用パラメータEpとを可変長符号化して可変長符号語Gckを生成する可変長符号化部(符号化手段)、18は可変長符号化部17により生成された可変長符号語Gckを蓄積し、その蓄積量が閾値に到達すると画像復号化器に可変長符号語Gckを符号化ビットストリームCBSとして出力するバッファ(量子化制御手段)、19はバッファ18のバッファ残量Bz(可変長符号語Gckの蓄積量)に応じて量子化部3の量子化値qを制御する量子化制御部(量子化制御手段)である。
図2はブロックベース予測部14の詳細を示す構成図であり、図において、21はSTFM11に記憶された局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行することにより、予測誤差Egaが最小となるような予測画像Geaを生成し、当該予測画像Geaと動きベクトルUvaを出力する予測画像生成部、22は入力画像Giから予測画像Geaを減算し、その減算結果の絶対値を予測誤差Egaとして算出する誤差算出部、23はLTFM13に記憶された局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行することにより、予測誤差Egcが最小となるような予測画像Gecを生成し、当該予測画像Gecと動きベクトルUvcを出力する予測画像生成部、24は入力画像Giから予測画像Gecを減算し、その減算結果の絶対値を予測誤差Egcとして算出する誤差算出部、25は予測画像生成部21により生成された予測画像Geaと予測画像生成部23により生成された予測画像Gecの平均画像(補間画像)を生成し、その補間画像を予測画像Gebとして出力する補間画像生成部、26は入力画像Giから予測画像Gebを減算し、その減算結果の絶対値を予測誤差Egbとして算出する誤差算出部である。
また、27は誤差算出部22,26,24から出力された予測誤差Ega〜Egcのうちの最小の予測誤差を選択し、その最小の予測誤差を予測誤差Egとして出力するとともに、その選択結果Egxを出力する誤差値比較部、28は予測画像Gea〜Gecのうち、予測誤差が最小となる予測画像を誤差値比較部27が出力する選択結果Egxに基づいて選択する予測画像選択部、29は予測画像選択部28により予測画像Geaが選択される場合には動きベクトルUvaを選択して出力し、予測画像Gecが選択される場合には動きベクトルUvcを選択して出力し、予測画像Gebが選択される場合には動きベクトルUvaと動きベクトルUvcを出力する動きベクトル選択部である。
図3はセグメントベース予測部15の詳細を示す構成図であり、図において、31〜34はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して入力画像Giのフレームを構成するセグメント領域毎に動き補償を実行することにより、それぞれ予測誤差Eg1〜Egnが最小となるような予測画像Ge1〜Genを生成し、当該予測画像Ge1〜Genと動きベクトルUv1〜Uvnとセグメント組み合わせ情報Sj1〜Sjnとを出力する予測画像決定部(詳細は図4を参照)、35は予測画像決定部31〜34から出力された予測誤差Eg1〜Egnのうちの最小の予測誤差を選択し、その最小の予測誤差を予測誤差Egとして出力するとともに、その選択結果Egzを出力する予測誤差比較部、36は予測画像Ge1〜Genのうち、予測誤差が最小となる予測画像を選択結果Egzに基づいて選択する予測画像選択部、37はセグメント組み合わせ情報Sj1〜Sjnと選択結果Egzを入力し、予測用パラメータEpを決定するパラメータ決定部、38は動きベクトルUv1〜Uvnのうち、予測誤差が最小となる予測画像に係る動きベクトルを選択結果Egzに基づいて選択する動きベクトル選択部である。
図4はセグメントベース予測部15の予測画像決定部31〜34の詳細を示す構成図であり、図において、41はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して、予め定められたセグメントパターンにおける所定のセグメント領域において動き補償を実行することにより、予測誤差Egaが最小となるような予測画像Geaを生成し、当該予測画像Geaと動きベクトルUvaを出力する予測画像生成部、42は入力画像Giから予測画像Geaを減算し、その減算結果の絶対値を予測誤差Egaとして算出する誤差算出部、43はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して、予め定められたセグメントパターンにおける所定のセグメント領域において動き補償を実行することにより、予測誤差Egbが最小となるような予測画像Gebを生成し、当該予測画像Gebと動きベクトルUvbを出力する予測画像生成部、44は入力画像Giから予測画像Gebを減算し、その減算結果の絶対値を予測誤差Egbとして算出する誤差算出部である。
また、45はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して、予め定められたセグメントパターンにおける所定のセグメント領域において動き補償を実行することにより、予測誤差Egcが最小となるような予測画像Gecを生成し、当該予測画像Gecと動きベクトルUvcを出力する予測画像生成部、46は入力画像Giから予測画像Gecを減算し、その減算結果の絶対値を予測誤差Egcとして算出する誤差算出部、47はSTFM11及びLTFM13により記憶された局部復号化画像Gkを参照して、予め定められたセグメントパターンにおける所定のセグメント領域において動き補償を実行することにより、予測誤差Egdが最小となるような予測画像Gedを生成し、当該予測画像Gedと動きベクトルUvdを出力する予測画像生成部、48は入力画像Giから予測画像Gedを減算し、その減算結果の絶対値を予測誤差Egdとして算出する誤差算出部である。
また、49は誤差算出部42,44,46,48から出力された予測誤差Ega〜Egdのうちの最小の予測誤差を選択し、その最小の予測誤差及びセグメント組み合わせ情報Sj1を出力するとともに、その選択結果Egxを出力する誤差値比較部、50は予測画像Gea〜Gedのうち、予測誤差が最小となる予測画像を選択結果Egxに基づいて選択する予測画像選択部、51は動きベクトルUva〜Uvdのうち、予測誤差が最小となる予測画像に係る動きベクトルを選択結果Egxに基づいて選択する動きベクトル選択部である。
図5は選択部16の詳細を示す構成図であり、図において、61はブロックベース予測部14から出力された予測誤差Egから閾値を減算した結果と、セグメントベース予測部15から出力された予測誤差Egを比較し、その比較結果を予測モードEmとして出力する閾値処理部、62は閾値処理部61が出力する予測モードEmに基づいてブロックベース予測部14が出力する予測画像Ge又はセグメントベース予測部15が出力する予測画像Geの何れか一方を選択する予測画像選択部、63は閾値処理部61が出力する予測モードEmに基づいてブロックベース予測部14が出力する動きベクトルUv又はセグメントベース予測部15が出力する動きベクトルUvの何れか一方を選択する動きベクトル選択部である。
次に動作について説明する。
まず、符号化する入力画像Giが減算器1に入力されると、減算器1が入力画像Giから選択部16が出力する予測画像Ge(予測画像Geについては後述する)を減算して差分画像Gsを求め、差分画像Gsを出力する。
差分画像Gs=入力画像Gi−予測画像Ge ・・・(1)
そして、減算器1から差分画像Gsが出力されると、変換部2が差分画像Gsの情報量を圧縮すべく、差分画像Gsを離散コサイン変換し、その変換結果を差分画像Gsの変換係数Gstとして出力する。
そして、変換部2から変換係数Gstが出力されると、量子化部3が変換係数Gstを量子化し、量子化係数Gqを出力する。
このようにして、量子化部3から量子化係数Gqが出力されると、可変長符号化部17が量子化係数Gq等を可変長符号化するが、次回の画像の符号化に備えて、逆量子化部5が量子化係数Gqを逆量子化して変換係数Gqtを求めたのち、逆変換部6が変換係数Gqtを逆離散コサイン変換して誤差画像Ggを生成する。
そして、逆変換部6から誤差画像Ggが出力されると、加算器7が誤差画像Ggに予測画像Geを加算して局部復号化画像Gkを生成し、局部復号化画像Gkを出力する。
そして、加算器7から出力された局部復号化画像Gkは、直ちにSTFM11に記憶されるが、LTFM13には直ちに記憶されず、所定時間経過後に記憶される。
その理由は、例えば、STFM11に記憶される1つの局部復号化画像Gkにおいては、対象物の背後に背景画像が隠れているが、今回入力した入力画像Giでは対象物の背後に背景画像が現れてきたような場合でも、遅延時間制御部12が、加算器7から局部復号化画像Gkが出力されたのち所定時間経過後に、当該局部復号化画像Gkをもう一つの参照画像としてLTFM13に記憶させるようにすると、2つの参照画像の時間的なずれによって、対象物の背後に背景画像が存在する参照画像(符号化する画像に対して相関の高い参照画像)が得られる場合もあるので、LTFM13には直ちに記憶させず、所定時間経過後に記憶させるようにしている。
なお、遅延時間制御部12は、記憶機能をもっている必要はなく、所定時間経過後に局部復号化画像GkをLTFM13に書き込むためのスイッチの役割をしていると考えてもよい(書き込みタイミング以外の時間ではオフになっている)。
このようにして、STFM11及びLTFM13に参照画像である局部復号化画像Gkが記憶されると、当該局部復号化画像Gkを参照してブロックベース予測部14及びセグメントベース予測部15が予測画像Ge等を決定する。
最初に、図2を用いてブロックベース予測部14の動作から説明する。
まず、STFM11に局部復号化画像Gkが記憶されると、予測画像生成部21が、当該局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行することにより、予測誤差Egaが最小となるような予測画像Geaを生成し、誤差算出部22が、入力画像Giから予測画像Geaを減算して予測誤差Egaを算出する。なお、動き補償を実行した際の動きベクトルUvaは、予測画像生成部21が動きベクトル選択部29に出力する。
一方、LTFM13に局部復号化画像Gkが記憶されると、予測画像生成部23が、当該局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行することにより、予測誤差Egcが最小となるような予測画像Gecを生成し、誤差算出部24が、入力画像Giから予測画像Gecを減算して予測誤差Egcを算出する。なお、動き補償を実行した際の動きベクトルUvcは、予測画像生成部23が動きベクトル選択部29に出力する。
そして、予測画像生成部21から予測画像Geaが出力され、予測画像生成部23から予測画像Gecが出力されると、補間画像生成部25が、予測画像Geaと予測画像Gecの平均画像(補間画像)を生成し、その補間画像を予測画像Gebとして出力する。
なお、入力画像Giの符号化シーケンスを図6に示すようにdtフレーム毎に切り分けた場合、今回入力した入力画像Giが第Nフレームにあるとすると、今回入力した入力画像Giの参照画像としては、下記に示す3つの予測画像Gea,Geb,Gecが参照画像となる。
即ち、第Mフレームにある入力画像Giに係る局部復号化画像Gk(STFM11に記憶された局部復号化画像Gk)に基づいて生成された予測画像Geaと、第Kフレームにある入力画像Giに係る局部復号化画像Gk(LTFM13に記憶された局部復号化画像Gk)に基づいて生成された予測画像Gecと、補間画像生成部25により生成された予測画像Gebとが、参照画像となる。
なお、図6における時間的変化は、図中、左から右に進んでいる。
このようにして、3つの参照画像が生成されると、誤差値比較部27が、誤差算出部22,26,24から出力された予測誤差Ega〜Egcのうちの最小の予測誤差を選択し、その選択結果Egxを出力する。例えば、予測誤差Egaが最も小さい場合には、予測誤差Egaを予測誤差Egとして出力するとともに、予測誤差Egaを選択した旨を示す選択結果Egxを出力する。
そして、誤差値比較部27から選択結果Egxが出力されると、予測画像選択部28が、選択結果Egxに基づいて最小の予測誤差に係る予測画像を選択する。例えば、選択結果Egxが予測誤差Egaを選択した旨を示す場合には、予測画像Geaを予測画像Geとして出力する。
また、誤差値比較部27から選択結果Egxが出力されると、動きベクトル選択部29が、選択結果Egxに基づいて最小の予測誤差に係る動きベクトルを選択する。
具体的には、予測画像選択部28により予測画像Geaが選択される場合には動きベクトルUvaを動きベクトルUvとして出力し、予測画像Gecが選択される場合には動きベクトルUvcを動きベクトルUvとして出力し、予測画像Gebが選択される場合には動きベクトルUvaと動きベクトルUvcの双方を動きベクトルUvとして出力する。
次に、図3及び図4を用いてセグメントベース予測部15の動作を説明する。
まず、STFM11及びLTFM13に局部復号化画像Gkが記憶されると、予測画像決定部31〜34における予測画像生成部41,43,45,47が、STFM11及びLTFM13に記憶された局部復号化画像Gkを参照して、予め定められたセグメントパターンにおける所定のセグメント領域において動き補償を実行することにより、参照画像MB(1)〜MB(4)として予測画像Gea〜Gedを生成する。
なお、この実施の形態1では、図7に示すように、4つのセグメントパターンが設定されているので、予測画像決定部31における予測画像生成部41,43,45,47は図7の垂直パターンが設定され、予測画像決定部32における予測画像生成部41,43,45,47は図7の水平パターンが設定され、予測画像決定部33における予測画像生成部41,43,45,47は図7の右斜めパターンが設定され、予測画像決定部34における予測画像生成部41,43,45,47は図7の左斜めパターンが設定されている。
ここで、予測画像決定部31を例にとって、参照画像MB(1)〜MB(4)としての予測誤差Ega〜Egdの生成について具体的に説明すると、上述したように、予測画像決定部31における予測画像生成部41,43,45,47は図7の垂直パターンが設定されているので、セグメント領域としては、左半分のセグメント領域(黒色の部分)と右半分のセグメント領域(白色の部分)の2つに分けられている。
従って、図8に示すように、例えば、予測画像生成部41の場合は、局部復号化画像Gkを参照して、第Nフレームの左半分及び右半分のセグメント領域毎に動き補償を実行することにより、参照画像MB(1)として予測画像Geaを生成する。
同様にして、予測画像生成部43,45,47は、それぞれ参照画像MB(2),参照画像MB(3),参照画像MB(4)として予測画像Geb,Gec,Gedを生成するが、数式で表すと下記のようになる。
MB(1)=SB(K,1)+SB(K,2) ・・・(2)
MB(2)=SB(K,1)+SB(M,2) ・・・(3)
MB(3)=SB(M,1)+SB(K,2) ・・・(4)
MB(4)=SB(M,1)+SB(M,2) ・・・(5)
ただし、SB()は、セグメント領域において予測誤差が最小となる予測画像
(K,1)は、第Kフレームの左半分のセグメント領域
(K,2)は、第Kフレームの右半分のセグメント領域
(M,1)は、第Mフレームの左半分のセグメント領域
(M,2)は、第Mフレームの右半分のセグメント領域
なお、図8における時間的変化は、図中、左から右に進んでいる。
このようにして、予測画像Ega〜Egdが生成されると、誤差値比較部49が、誤差算出部42,44,46,48からそれぞれ出力された予測誤差Ega〜Egd(入力画像Giと予測画像Gea〜Gedとの誤差)のうちの最小の予測誤差を選択し、その選択結果Egxを出力する。例えば、予測誤差Egaが最も小さい場合には、予測誤差Egaを予測誤差Eg1として出力するとともに、予測誤差Egaを選択した旨を示す選択結果Egxを出力する。また、セグメント組み合わせ情報Sj1(予測画像Egaの内容、即ち、式(2)の内容)を出力する。
そして、誤差値比較部49から選択結果Egxが出力されると、予測画像選択部50が、選択結果Egxに基づいて最小の予測誤差に係る予測画像を選択する。例えば、選択結果Egxが予測誤差Egaを選択した旨を示す場合には、予測画像Geaを予測画像Ge1として出力する。
また、誤差値比較部49から選択結果Egxが出力されると、動きベクトル選択部51が、選択結果Egxに基づいて最小の予測誤差に係る動きベクトルを選択する。例えば、選択結果Egxが予測誤差Egaを選択した旨を示す場合には、予測画像生成部41が生成した動きベクトルUvaを動きベクトルUv1として出力する。
このようにして、N個の予測画像決定部31〜34からそれぞれ予測画像等が出力されると(図7では4つのセグメントパターンを設定しているので、この実施の形態1では、N=4である)、予測誤差比較部35が、予測画像決定部31〜34が出力する予測誤差Eg1〜Egnのうちの最小の予測誤差を選択し、その選択結果Egzを出力する。例えば、予測誤差Eg1が最も小さい場合には、予測誤差Eg1を予測誤差Egとして出力するとともに、予測誤差Eg1を選択した旨を示す選択結果Egzを出力する。
そして、予測誤差比較部35から選択結果Egzが出力されると、予測画像選択部36が、選択結果Egzに基づいて最小の予測誤差に係る予測画像を選択する。例えば、選択結果Egzが予測誤差Eg1を選択した旨を示す場合には、予測画像Ge1を予測画像Geとして出力する。
また、予測誤差比較部35から選択結果Egzが出力されると、パラメータ決定部37が、選択結果Egzとセグメント組み合わせ情報Sj1〜Sjnに基づいて予測用パラメータEpを決定する。図9は予測用パラメータEpを示す構成図であるが、“Pattern”は、N個のセグメントパターンの中で(図7では4つのセグメントパターンを示している)、実際に選択されたセグメントパターンの番号を示しており、N通りのセグメントパターンがあるときは、固定長符号化により2N-1 ビットのビット長が必要となる。
また、“CMB”は、選択された予測画像の番号を示しており、2ビットのビット長が必要となる。
また、予測誤差比較部35から選択結果Egzが出力されると、動きベクトル選択部38が、選択結果Egzに基づいて最小の予測誤差に係る動きベクトルを選択する。例えば、選択結果Egzが予測誤差Eg1を選択した旨を示す場合には、動きベクトルUv1を動きベクトルUvとして出力する。
そして、ブロックベース予測部14及びセグメントベース予測部15からそれぞれ予測画像Ge,予測誤差Eg及び動きベクトルUvが出力されると、まず、選択部16の閾値処理部61が、ブロックベース予測部14から出力された予測誤差Egから閾値を減算したのち、その減算結果と、セグメントベース予測部15から出力された予測誤差Egを比較し、その比較結果を予測モードEmとして出力する。
そして、閾値処理部61から予測モードEmが出力されると、予測画像選択部62が、予測モードEmに基づいてブロックベース予測部14が出力する予測画像Ge又はセグメントベース予測部15が出力する予測画像Geの何れか一方を選択する。例えば、予測モードEmが減算結果の方が大きい旨を示している場合には、ブロックベース予測部14が出力する予測画像Geを選択し、予測モードEmが減算結果の方が小さい旨を示している場合には、セグメントベース予測部15が出力する予測画像Geを選択する。
また、閾値処理部61から予測モードEmが出力されると、動きベクトル選択部63が、予測モードEmに基づいてブロックベース予測部14が出力する動きベクトルUv又はセグメントベース予測部15が出力する動きベクトルUvの何れか一方を選択する。例えば、予測モードEmが減算結果の方が大きい旨を示している場合には、ブロックベース予測部14が出力する動きベクトルUvを選択し、予測モードEmが減算結果の方が小さい旨を示している場合には、セグメントベース予測部15が出力する動きベクトルUvを選択する。
このようにして選択された予測画像Geは、次の画像の符号化に備えて、減算器1に出力され、予測モードEm及び動きベクトルUvは可変長符号化部17に出力される。
そして、選択部16から予測モードEm及び動きベクトルUvが出力されると、可変長符号化部17が、量子化部3から出力された量子化係数Gqと動きベクトルUvと予測モードEmと予測用パラメータEpとを可変長符号化して可変長符号語Gckを生成し、その可変長符号語Gckをバッファ18に蓄積する。
そして、バッファ18は、可変長符号語Gckの蓄積量が閾値に到達すると画像復号化器に可変長符号語Gckを符号化ビットストリームCBSとして出力する。
また、このとき、一定のビットレートで符号化ビットストリームCBSを画像復号化器に出力すべく、量子化制御部19が、バッファ18のバッファ残量Bz(可変長符号語Gckの蓄積量)を監視し、バッファ残量Bzに応じて量子化部3の量子化値qを制御する。
具体的には、バッファ残量Bzが少なくなると、情報量を抑制すべく量子化部3の量子化値qを大きく設定し、バッファ残量Bzが多くなると、情報量を増加すべく量子化部3の量子化値qを小さく設定する。
以上で明らかなように、この実施の形態1によれば、STFM11の他に、STFM11に記憶された局部復号化画像Gkよりも所定時間前に、加算器7から出力された局部復号化画像Gkを記憶するLTFM13を設け、STFM11及びLTFM13により記憶された局部復号化画像Gkを参照して入力画像の動き補償を実行するようにしたので、STFM11に記憶される1つの局部復号化画像Gkにおいては、対象物の背後に背景画像が隠れているが、今回入力した入力画像Giでは対象物の背後に背景画像が現れてきたような場合でも、STFM11に記憶される局部復号化画像Gkと時間的なずれがある参照画像をLTFM13に確保できるため、対象物の背後に背景画像が存在する参照画像が得られる可能性が向上し、画像符号化器の符号化精度が向上する効果が得られる。従って、予測効率の高さが特に要求される動画像の低ビットレート伝送には極めて有利である。
また、局部復号化画像Gkを参照して入力画像Giのフレーム毎に動き補償を実行するブロックベース予測部14と、局部復号化画像Gkを参照して、予め定められたセグメントパターンの各セグメント領域毎に動き補償を実行するセグメントベース予測部15とを設けたので、入力画像Giの1フレーム中に存在する複数の対象物が、互いに異なる動きをする場合でも、入力画像Giと予測画像Geとの誤差を小さくできる効果が得られる。
実施の形態2.
上記実施の形態1では、図7に示すように、1つのマクロブロックが2つのセグメント領域から構成されるセグメントパターンを設定した場合について示したが、3つ以上のセグメント領域から構成されるセグメントパターンを設定してもよく、上記実施の形態1と同様の効果を奏することができる。
例えば、図7の垂直パターンと水平パターンの重複領域をセグメントとする場合には、1つのマクロブロック中に4つのセグメント領域が設定されることになる。
ただし、この場合には、予測用パラメータEpにおける“Pattern”の符号化ビット数は変わらず、2N-1 ビットであるが、“CMB”は16通りのパターンが存在するので、4ビットのビット長が必要となる。
実施の形態3.
上記実施の形態1では、遅延時間制御部12が遅延後の局部復号化画像Gkを逐次LTFM13に記憶させるものについて示したが、所定のタイミングにおいてのみ局部復号化画像Gkを記憶させるようにしてもよい。
なお、この場合には、LTFM13には、次のタイミングまで同じ局部復号化画像Gkが記憶されることになるが、この局部復号化画像Gkは、遅延時間制御部12が遅延した局部復号化画像Gkでもよいし、記憶タイミングのとき加算器7から出力される局部復号化画像Gkでもよい。
実施の形態4.
上記実施の形態1では、STFM11と別個に遅延時間制御部12を設けたものについて示したが、図10に示すように、STFM11の内部に遅延時間制御部12を設けるようにしてもよく、上記実施の形態1と同様の効果を奏することができる。
実施の形態5.
図11はこの発明の実施の形態5による画像符号化器のセグメントベース予測部15の詳細を示す構成図であり、図において、図3のものと同一符号は同一または相当部分を示すので説明を省略する。
71は入力画像Giを分析して複数のセグメント領域に分割する領域画像分割部(画像分割部)、72は領域画像分割部71により分割された各セグメント領域毎に動き補償を実行し、予測画像Ge等を生成する領域画像予測部である。
次に動作について説明する。
上記実施の形態1と同様にして、セグメントベース予測部15が入力画像Giを入力すると、セグメントベース予測部15の領域画像分割部71が、入力画像Giの画像の濃淡値の相違やエッジ等を検出することにより、入力画像Giを複数のセグメント領域に分割する。
このようにして、領域画像分割部71が入力画像Giを複数のセグメント領域に分割すると、領域画像予測部72が、STFM11及びLTFM13により記憶された局部復号化画像Gkを参照して、分割された各セグメント領域毎に動き補償を実行することにより、予測誤差Egが最小となるような予測画像Geを生成し、当該予測画像Geと予測誤差Egと動きベクトルUvと形状情報Kjとを出力する。
即ち、上記実施の形態1における予測画像決定部31等は、予め定められたセグメントパターンにおける各セグメント領域について動き補償を実行するが、領域画像予測部72は、領域画像分割部71により分割された各セグメント領域毎に動き補償を実行する点で相違している。
かかる相違により、この実施の形態5によれば、入力画像Giのセグメント領域が予め定められたセグメントパターンと大きく相違する場合でも、入力画像Giと予測画像Geとの誤差を小さくできる効果を奏する。
なお、領域画像予測部72が出力する形状情報Kjとしては、例えば、各セグメントの輪郭線等が考えられ、形状情報Kjは可変長符号化部17において可変長符号化され、画像復号化器に送られる。
実施の形態6.
図12はこの発明の実施の形態6による画像符号化器のセグメントベース予測部15の詳細を示す構成図であり、図において、図11のものと同一符号は同一または相当部分を示すので説明を省略する。
73は予め設定された複数のセグメントパターン(領域形状パターン)と領域画像分割部71により分割された入力画像Giとの近似度をそれぞれ計算して最も近似度の高いセグメントパターンを抽出する領域形状記述部、74は領域形状記述部73により抽出されたセグメントパターンにおける各セグメント領域毎に動き補償を実行し、予測画像Ge等を生成する領域画像予測部である。
次に動作について説明する。
上記実施の形態5と同様にして、領域画像分割部71が入力画像Giを複数のセグメント領域に分割すると、領域形状記述部73が、図13に示すような予め設定された複数のセグメントパターンと分割された入力画像Giとの近似度をそれぞれ計算して最も近似度の高いセグメントパターンを抽出する。
具体的には、図13の場合、セグメントパターン1〜4のなかで(セグメントパターンの黒色表示部分)、セグメント領域の画素と最も共通領域の画素数が多いセグメントパターンを最も近似度の高いセグメントパターンとして抽出する。
そして、最も近似度の高いセグメントパターンを抽出すると、今度は、セグメントパターンにおける各セグメント領域の形状を具体的にするために、レベルを抽出する。
例えば、セグメントパターン3を最も近似度の高いセグメントパターンとして抽出したとすると、N個のレベルが設定されているので(図14では2つのレベルを例示している)、共通領域の画素数等に基づいてレベルを抽出する。
なお、言うまでもないが、レベルが異なっても、同一のセグメントパターンであれば、セグメント領域の形状の相似関係は保持される。
また、レベルの個数は、各セグメントパターン毎に相違する。
このようにして、セグメントパターンとレベルが抽出されると、領域画像予測部74が、抽出されたセグメントパターンにおける各セグメント領域毎に動き補償を実行することにより、予測誤差Egが最小となるような予測画像Geを生成し、当該予測画像Geと予測誤差Egと動きベクトルUvと形状情報Kjとを出力する。
なお、形状情報Kjとしては、抽出したセグメントパターンとレベルとから構成される。
以上により、この実施の形態6によれば、分割された入力画像Giのセグメント領域が予め定められたセグメントパターンと大きく相違する場合でも、入力画像Giと予測画像Geとの誤差を小さくできる効果を奏する。
実施の形態7.
図15はこの発明の実施の形態7による画像符号化器を示す構成図であり、図において、図1のものと同一符号は同一または相当部分を示すので説明を省略する。
81はバッファ18のバッファ残量Bz(可変長符号語Gckの蓄積量)に応じてSTFM11に対するLTFM13の記憶時間の遅れを制御する遅延時間決定部(遅延時間制御手段)である。
次に動作について説明する。
上記実施の形態1と同様にして、可変長符号化部17に可変長符号化された可変長符号語Gckがバッファ18に蓄積され、その蓄積量が閾値を越えると、その可変長符号語Gckが符号化ビットストリームCBSとして画像復号化器に送られるが、遅延時間決定部81が、バッファ18のバッファ残量Bzに応じてSTFM11に対するLTFM13の記憶時間の遅れを制御するようにしてもよい。
即ち、量子化制御部19が、バッファ18のバッファ残量Bzが少なくなると、情報量を抑制すべく量子化部3の量子化値qを大きく設定するが、さらに、遅延時間決定部81が、STFM11に対するLTFM13の記憶時間の遅れを小さく設定すると、参照フレーム間の距離が小さくなり、入力画像Giと局部復号化画像Gkとの時間的相関が高くなる。これにより、情報発生量を抑制することができる。
一方、量子化制御部19が、バッファ18のバッファ残量Bzが多くなると、情報量を増加すべく量子化部3の量子化値qを小さく設定するが、さらに、遅延時間決定部81が、STFM11に対するLTFM13の記憶時間の遅れを大きく設定すると、参照フレーム間の距離が大きくなり、入力画像Giと局部復号化画像Gkとの時間的相関が低くなる。これにより、情報発生量を増加することができる。
実施の形態8.
図16はこの発明の実施の形態8による画像符号化器を示す構成図であり、図において、図1のものと同一符号は同一または相当部分を示すので説明を省略する。
91は入力画像Giと予測画像Geの差分画像Gsに基づいてシーンチェンジを検出するとともに、当該シーンチェンジを検出したとき、加算器7から出力された局部復号化画像GkをLTFM13に記憶させるシーンチェンジ検出部(シーンチェンジ検出手段)である。
次に動作について説明する。
上記実施の形態1では、遅延時間制御部12が所定時間遅延させたのち、局部復号化画像GkをLTFM13に記憶させるものについて示したが、さらに、シーンチェンジ検出部91が、入力画像Giと予測画像Geの差分画像Gsに基づいてシーンチェンジを検出したとき、加算器7から出力された局部復号化画像GkをLTFM13に記憶させるようにしてもよい。
即ち、シーンチェンジ検出部91が、差分画像Gsの分散や画素値の絶対値和を求め、それらが閾値より大きいときシーンチェンジが発生したものと判断し、シーンチェンジ検出信号Sを遅延時間制御部12に出力する。
そして、シーンチェンジ検出部91からシーンチェンジ検出信号Sが出力されると、遅延時間制御部12が、現在、加算器7から出力されている局部復号化画像GkをLTFM13に記憶させる。
ただし、シーンチェンジ検出部91がシーンチェンジを検出しない通常時においては、上記実施の形態1と同様のタイミングで局部復号化画像GkがLTFM13に記憶される。
これにより、この実施の形態8によれば、入力画像Giに対して極めて相関が低いシーンチェンジが起こる前の局部復号化画像GkがLTFM13に記憶されるのを防止することができるため、入力画像Giと予測画像Geとの誤差を小さくできる効果を奏する。
実施の形態9.
図17はこの発明の実施の形態9による画像復号化器を示す構成図であり、図において、101は画像符号化器から送られてくる符号化ビットストリームCBSを可変長復号化し、量子化係数Grを出力する復号手段としての可変長復号化部(復号化画像生成手段)、102は可変長復号化部101から出力された量子化係数Grを逆量子化し、変換係数Grtを出力する逆量子化部(復号化画像生成手段)、103は逆量子化部102から出力された変換係数Grtを逆離散コサイン変換し、差分画像Gsを再生する逆変換部(復号化画像生成手段)、104は逆変換部103に再生された差分画像Gsに予測画像Geを加算して復号化画像Gfを生成する加算器(復号化画像生成手段)である。
また、105は加算器104から出力された復号化画像Gfを記憶するフレームバッファとしてのSTFM(第1の記憶手段)、106は加算器104から出力された復号化画像Gfを一時的に保持し、加算器104から復号化画像Gfが出力されたのち所定時間経過後に復号化画像GfをLTFM107に記憶させる遅延時間制御部(第2の記憶手段)、107はSTFM105により記憶された復号化画像Gfよりも所定時間前に、加算器104から出力された復号化画像Gfを記憶するフレームバッファとしてのLTFM(第2の記憶手段)である。
また、108はSTFM105又はLTFM107により記憶されたフレーム単位の復号化画像Gfと可変長復号化部101により復号化された動きベクトルUvとに基づいて予測画像Geを生成するブロックベース画像生成部(予測画像生成手段)、109はSTFM105又はLTFM107により記憶されたセグメント領域単位の復号化画像Gfと可変長復号化部101により復号化された動きベクトルUv及び予測用パラメータEpとに基づいて予測画像Geを生成するセグメントベース画像生成部(予測画像生成手段)、110はブロックベース画像生成部108により生成された予測画像Ge又はセグメントベース画像生成部109により生成された予測画像Geの何れか一方を選択する動き補償手段としてのモード選択部(予測画像生成手段)である。この動き補償手段は、ブロックベース画像生成部108、セグメントベース画像生成部109およびモード選択部110から構成される。
図18はモード選択部110の詳細を示す構成図であり、図において、111は予測モードEmに基づいて動きベクトルUvをブロックベース画像生成部108又はセグメントベース画像生成部109の何れか一方に出力するとともに、動きベクトルUvの出力先を示す選択フラグFを出力するモード切り替え部、112はモード切り替え部111から出力された選択フラグFに基づいてブロックベース画像生成部108又はセグメントベース画像生成部109の何れかから出力された予測画像Geを加算器104に出力する予測画像選択部である。
次に動作について説明する。
まず、画像符号化器から符号化ビットストリームCBSが送られてくると、可変長復号化部101が、その符号化ビットストリームCBSを可変長復号化し、量子化係数Gr,予測モードEm,動きベクトルUv及び予測用パラメータEpを出力する。
そして、可変長復号化部101から量子化係数Grが出力されると、逆量子化部102が量子化係数Grを逆量子化して変換係数Grtを出力し、逆変換部103が変換係数Grtを逆離散コサイン変換して差分画像Gsを再生する。
そして、加算器104が差分画像Gsに予測画像Geを加算して復号化画像Gfを生成する。
そして、加算器104から復号化画像Gfが出力されると、上記実施の形態1におけるSTFM11及びLTFM13と同様に、STFM105は直ちに当該復号化画像Gfを記憶し、LTFM107は遅延時間制御部106に所定時間遅延された当該復号化画像Gfを記憶する。
一方、可変長復号化部101から予測モードEm及び動きベクトルUvが出力されると、モード選択部110のモード切り替え部111が予測モードEmを分析し、予測モードEmが、画像符号化器の減算器1に入力された予測画像Geは、ブロックベース予測部14が生成した予測画像Geに係るものであること示す場合には、当該動きベクトルUvをブロックベース画像生成部108に出力する。これに対して、予測モードEmが、画像符号化器の減算器1に入力された予測画像Geは、セグメントベース予測部15が生成した予測画像Geに係るものであること示す場合には、当該動きベクトルUvをセグメントベース画像生成部109に出力する。
また、当該動きベクトルUvの出力先を示す選択フラグFを予測画像選択部112に出力する。
そして、ブロックベース画像生成部108は、モード切り替え部111から動きベクトルUvを出力された場合には、STFM105又はLTFM107により記憶されたフレーム単位の復号化画像Gfと当該動きベクトルUvとに基づいて予測画像Geを生成する。
また、セグメントベース画像生成部109は、モード切り替え部111から動きベクトルUvを出力された場合には、STFM105又はLTFM107により記憶されたセグメント領域単位の復号化画像Gfと当該動きベクトルUvと予測用パラメータEpとに基づいて予測画像Geを生成する。即ち、セグメント領域単位の復号化画像Gf等を適宜組み合わせることにより、予測画像Geを生成する。
なお、予測モードEmは、図19に示すように、いわゆる予測モードと参照すべき画像フレームの情報を含んでおり、各々対応する可変長コードが与えられている。
そして、予測画像選択部112は、選択フラグFが動きベクトルUvの出力先として、ブロックベース画像生成部108を示す場合には、ブロックベース画像生成部108が生成した予測画像Geを加算器104に出力する。
また、選択フラグFが動きベクトルUvの出力先として、セグメントベース画像生成部109を示す場合には、セグメントベース画像生成部109が生成した予測画像Geを加算器104に出力する。
これにより、この実施の形態9によれば、上記実施の形態1等の画像符号化器から送られてくる符号化ビットストリームCBSから精度よく復号化画像Gfを生成できる効果を奏する。
実施の形態10.
上記実施の形態9では、符号化ビットストリームCBSに形状情報Kjが含まれていないものについて示したが、上記実施の形態5等のように、符号化ビットストリームCBSに形状情報Kjが含まれている場合には、可変長復号化部101が形状情報Kjも可変長復号化してセグメントベース画像生成部109に出力し、セグメントベース画像生成部109が形状情報Kjも考慮して予測画像Geを生成するようにしてもよい。
この発明の実施の形態1による画像符号化装置を示す構成図である。 ブロックベース予測部14の詳細を示す構成図である。 セグメントベース予測部15の詳細を示す構成図である。 セグメントベース予測部15の予測画像決定部31〜34の詳細を示す構成図である。 選択部16の詳細を示す構成図である。 ブロックベース予測部14の動作を説明する説明図である。 セグメントパターンを示す説明図である。 セグメントベース予測部15の動作を説明する説明図である。 予測用パラメータEpを示す構成図である。 この発明の実施の形態4による画像符号化装置を示す構成図である。 この発明の実施の形態5による画像符号化器のセグメントベース予測部15の詳細を示す構成図である。 この発明の実施の形態6による画像符号化装置のセグメントベース予測部15の詳細を示す構成図である。 セグメントパターンを示す説明図である。 セグメントパターンのレベルを示す説明図である。 この発明の実施の形態7による画像符号化装置を示す構成図である。 この発明の実施の形態8による画像符号化装置を示す構成図である。 この発明の実施の形態9による画像復号化装置を示す構成図である。 モード選択部110の詳細を示す構成図である。 予測モードEmを示す説明図である。 従来の画像符号化装置を示す構成図である。
符号の説明
1 減算器(局部復号化画像生成手段)、2 変換部(局部復号化画像生成手段)、3 量子化部(局部復号化画像生成手段)、5 逆量子化部(局部復号化画像生成手段)、6 逆変換部(局部復号化画像生成手段)、7 加算器(局部復号化画像生成手段)、11,105 STFM(第1の記憶手段)、12,106 遅延時間制御部(第2の記憶手段)、13,107 LTFM(第2の記憶手段)、14 ブロックベース予測部(予測手段、第1の予測部)、15 セグメントベース予測部(予測手段、第2の予測部)、16 選択部(予測手段)、17 可変長符号化部(符号化手段)、18 バッファ(量子化制御手段)、19 量子化制御部(量子化制御手段)、71 領域画像分割部(画像分割部)、81 遅延時間決定部(遅延時間制御手段)、91 シーンチェンジ検出部(シーンチェンジ検出手段)、101 可変長復号化部(復号化画像生成手段)、102 逆量子化部(復号化画像生成手段)、103 逆変換部(復号化画像生成手段)、104 加算器(復号化画像生成手段)、108 ブロックベース画像生成部(予測画像生成手段)、109 セグメントベース画像生成部(予測画像生成手段)、110 モード選択部(予測画像生成手段)。

Claims (1)

  1. 動画像信号の各フレームを所定のブロックに分割し、該ブロックを単位として動き補償予測を用いて圧縮符号化されたビットストリームを入力として動画像信号を復元する動画像復号化装置において、
    動き補償予測に用いる参照画像を、時刻の異なる複数の画像フレームとして格納する複数のフレームバッファと、
    力ビットストリームから、前記圧縮符号化の単位となるブロックごとに、該領域の動き補償予測を行う単位となる領域を定める動き補償予測単位領域識別情報と、前記動き補償予測単位領域識別情報によって定まる動き補償予測単位ごとに、対応する動きベクトルおよび動き補償予測に使用したフレームバッファを指定するフレームバッファ識別情報を復号する復号手段と、
    前記フレームバッファに格納される参照画像と復号した動きベクトルとに基づき、動き補償予測の単位となる領域に対応する予測画像を生成する動き補償手段と、
    前記フレームバッファに参照画像を格納するにあたり、復号化画像を参照画像として格納するタイミングを制御して、復号化画像をフレームバッファに格納する制御手段とを備え、
    前記動き補償手段は、前記復号手段で復号されたフレームバッファ識別情報で指定されるフレームメモリに格納された参照画像を用いて予測画像の生成を行うことを特徴とする動画像復号化装置。
JP2007233011A 1995-11-02 2007-09-07 動画像復号化装置 Expired - Lifetime JP4571173B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007233011A JP4571173B2 (ja) 1995-11-02 2007-09-07 動画像復号化装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP28599495 1995-11-02
JP2007233011A JP4571173B2 (ja) 1995-11-02 2007-09-07 動画像復号化装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006112422A Division JP2006254485A (ja) 1995-11-02 2006-04-14 動画像復号化装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010133996A Division JP4875187B2 (ja) 1995-11-02 2010-06-11 動画像復号化装置

Publications (2)

Publication Number Publication Date
JP2008017527A JP2008017527A (ja) 2008-01-24
JP4571173B2 true JP4571173B2 (ja) 2010-10-27

Family

ID=39074038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007233011A Expired - Lifetime JP4571173B2 (ja) 1995-11-02 2007-09-07 動画像復号化装置

Country Status (1)

Country Link
JP (1) JP4571173B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01154691A (ja) * 1987-12-11 1989-06-16 Toshiba Corp 動画像伝送装置
JPH07274176A (ja) * 1994-03-30 1995-10-20 Toshiba Corp 動画像伝送装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01154691A (ja) * 1987-12-11 1989-06-16 Toshiba Corp 動画像伝送装置
JPH07274176A (ja) * 1994-03-30 1995-10-20 Toshiba Corp 動画像伝送装置

Also Published As

Publication number Publication date
JP2008017527A (ja) 2008-01-24

Similar Documents

Publication Publication Date Title
JP3347954B2 (ja) 動画像符号化装置及び動画像復号化装置
KR0148154B1 (ko) 움직임크기에 따른 동영상데이타의 부호화방법 및 장치
EP0874526B1 (en) Motion compensation encoding apparatus and motion compensation encoding method for high-efficiency encoding of video information through selective use of previously derived motion vectors in place of motion vectors derived from motion estimation
KR100739281B1 (ko) 움직임 추정 방법 및 장치
JPH03190482A (ja) 動画像符号化装置
KR950010644A (ko) 공간 스케일가능 비디오 엔코딩 및 디코딩
JPS61114677A (ja) 動画像信号の適応予測符号化復号化方式及びその装置
US5394190A (en) Video signal encoding apparatus
KR100202538B1 (ko) 엠펙 비디오 코덱 장치
KR20040016856A (ko) 동화상 압축 부호화장치 및 모션벡터 검출방법
JP4326758B2 (ja) 動画像符号化装置及び動画像復号化装置
JP4571173B2 (ja) 動画像復号化装置
JP4875187B2 (ja) 動画像復号化装置
JP2006254485A (ja) 動画像復号化装置
JPH0546155B2 (ja)
JPS61164390A (ja) 動画像信号のフレ−ム間、フレ−ム内適応予測符号化装置
JPH08154250A (ja) 動画像符号化装置
KR100284696B1 (ko) Mpeg 복호 블럭에서의 수평/수직 주파수 변환장치
JPH02298184A (ja) 動き補償付フレーム間予測復号化装置の適応フレーム内挿方式
KR0181067B1 (ko) 호환성을 갖는 동영상 부호화기
JPH09182081A (ja) 動き補償予測符号化装置
KR0148146B1 (ko) 중요영상데이타의 손실방지장치
KR970003794B1 (ko) 동영상 부호화장치
KR0174959B1 (ko) 초저속 전송을 위한 동영상부호화 장치
JPH06319124A (ja) 画像データ変換装置及びその逆変換装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term