JPH09187015A - 画像符号化器及び画像復号化器 - Google Patents

画像符号化器及び画像復号化器

Info

Publication number
JPH09187015A
JPH09187015A JP27964196A JP27964196A JPH09187015A JP H09187015 A JPH09187015 A JP H09187015A JP 27964196 A JP27964196 A JP 27964196A JP 27964196 A JP27964196 A JP 27964196A JP H09187015 A JPH09187015 A JP H09187015A
Authority
JP
Japan
Prior art keywords
image
prediction
unit
decoded image
locally decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP27964196A
Other languages
English (en)
Other versions
JP3347954B2 (ja
Inventor
Takahiro Fukuhara
隆浩 福原
Kotaro Asai
光太郎 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP27964196A priority Critical patent/JP3347954B2/ja
Publication of JPH09187015A publication Critical patent/JPH09187015A/ja
Priority to US08/976,956 priority patent/US5926225A/en
Application granted granted Critical
Publication of JP3347954B2 publication Critical patent/JP3347954B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 局部復号化画像Gkでは対象物の背後に背景
画像が隠れているが、今回入力した入力画像Giでは対
象物の背後に背景画像が現れてきたような場合には、参
照画像である局部復号化画像Gkに背景画像が存在しな
いため、入力画像Giと予測画像Geとの誤差が大きく
なってしまう等の課題があった。 【解決手段】 STFM11により記憶された局部復号
化画像Gkよりも所定時間前に、加算器7から出力され
た局部復号化画像Gkを記憶するLTFM13を設け、
STFM11及びLTFM13により記憶された局部復
号化画像Gkを参照して入力画像Giの動き補償を実行
するようにしたものである。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、入力画像を能率
よく符号化及び復号化を行う画像符号化器及び画像復号
化器に関するものである。
【0002】
【従来の技術】図20は例えば画像符号化シンポジウム
(PCSJ89)の予稿集「テレビ会議/電話用符号化
の標準化動向」第43頁から第48頁に示された従来の
画像符号化器を示す構成図であり、図において、1は入
力画像Giから予測画像Geを減算して差分画像Gsを
算出する減算器、2は減算器1により算出された差分画
像Gsを離散コサイン変換し、その変換結果を差分画像
Gsの変換係数Gstとして出力する変換部、3は変換
部2から出力された変換係数Gstを量子化し、量子化
係数Gqを出力する量子化部、4は量子化部3から出力
された量子化係数Gqを符号化して符号化画像Gcを出
力する符号化部である。
【0003】また、5は量子化部3から出力された量子
化係数Gqを逆量子化し、変換係数Gqtを出力する逆
量子化部、6は逆量子化部5から出力された変換係数G
qtを逆離散コサイン変換し、誤差画像Ggを出力する
逆変換部、7は逆変換部6から出力された誤差画像Gg
に予測画像Geを加算し、局部復号化画像Gkを出力す
る加算器、8は加算器7から出力された局部復号化画像
Gkを参照して入力画像Giの動き補償を実行し、予測
画像Geを決定する予測部である。
【0004】次に動作について説明する。まず、符号化
する入力画像Giが減算器1に入力されると、減算器1
が入力画像Giから予測部8が出力する予測画像Geを
減算して差分画像Gsを求め、差分画像Gsを出力す
る。 差分画像Gs=入力画像Gi−予測画像Ge
【0005】そして、減算器1から差分画像Gsが出力
されると、変換部2が差分画像Gsの情報量を圧縮すべ
く、差分画像Gsを離散コサイン変換し、その変換結果
を差分画像Gsの変換係数Gstとして出力する。そし
て、変換部2から変換係数Gstが出力されると、量子
化部3が変換係数Gstを量子化し、量子化係数Gqを
出力する。
【0006】このようにして、量子化部3から量子化係
数Gqが出力されると、符号化部4が量子化係数Gqを
符号化して符号化画像Gcを生成し、符号化画像Gcを
画像復号化器(図示せず)に出力するが、次回の画像の
符号化に備えて、逆量子化部5が量子化係数Gqを逆量
子化して変換係数Gqtを求めたのち、逆変換部6が変
換係数Gqtを逆離散コサイン変換して誤差画像Ggを
生成する。
【0007】そして、逆変換部6から誤差画像Ggが出
力されると、加算器7が誤差画像Ggに予測画像Geを
加算して局部復号化画像Gkを生成し、局部復号化画像
Gkを出力する。そして、加算器7から局部復号化画像
Gkが出力されると、局部復号化画像Gkを参照して入
力画像Giのフレーム毎に動き補償を実行することによ
り、予測画像Geを決定し、当該予測画像Geを減算器
1に出力する。以上により、一連の処理を終了する。
【0008】
【発明が解決しようとする課題】従来の画像符号化器は
以上のように構成されているので、入力画像Giの1フ
レーム中に複数の対象物が存在していても、各対象物の
動きが同一であれば入力画像Giと予測画像Geとの誤
差を比較的小さくすることができるが、入力画像Giの
動き補償をフレーム単位で実行しているため、各対象物
の動きが互いに異なる場合には、入力画像Giと予測画
像Geとの誤差が大きくなってしまう課題があった。ま
た、局部復号化画像Gkでは対象物の背後に背景画像が
隠れているが、今回入力した入力画像Giでは対象物の
背後に背景画像が現れてきたような場合には、参照画像
である局部復号化画像Gkに背景画像が存在しないた
め、入力画像Giと予測画像Geとの誤差が大きくなっ
てしまう課題もあった。
【0009】この発明は上記のような課題を解決するた
めになされたもので、入力画像と予測画像との誤差を小
さくできる画像符号化器を得ることを目的とする。ま
た、この発明は、画像符号化器が出力する符号化画像か
ら精度よく復号化画像を生成できる画像復号化器を得る
ことを目的とする。
【0010】
【課題を解決するための手段】請求項1記載の発明に係
る画像符号化器は、第1の記憶手段により記憶された局
部復号化画像よりも所定時間前に、局部復号化画像生成
手段により生成された局部復号化画像を記憶する第2の
記憶手段を設け、第1及び第2の記憶手段により記憶さ
れた局部復号化画像を参照して入力画像の動き補償を実
行するようにしたものである。
【0011】請求項2記載の発明に係る画像符号化器
は、第1及び第2の記憶手段により記憶された局部復号
化画像を参照して入力画像のフレームを構成するブロッ
ク毎に動き補償を実行する第1の予測部と、第1及び第
2の記憶手段により記憶された局部復号化画像を参照し
て入力画像のフレームを構成するブロック内のセグメン
ト領域毎に動き補償を実行する第2の予測部とを設けた
ものである。
【0012】請求項3記載の発明に係る画像符号化器
は、入力画像を分析して複数のセグメント領域に分割す
る画像分割部を第2の予測部に設けたものである。
【0013】請求項4記載の発明に係る画像符号化器
は、複数の領域形状パターンと画像分割部により分割さ
れた入力画像との近似度をそれぞれ計算して最も近似度
の高い領域形状パターンを抽出し、最も近似度の高い領
域形状パターンを構成するセグメント領域毎に動き補償
を実行するようにしたものである。
【0014】請求項5記載の発明に係る画像符号化器
は、符号化手段により符号化された差分画像及び動きベ
クトルを蓄積するとともに、その蓄積量に応じて局部復
号化画像生成手段の量子化値を制御するようにしたもの
である。
【0015】請求項6記載の発明に係る画像符号化器
は、量子化制御手段により蓄積される差分画像及び動き
ベクトルの蓄積量に応じて第1の記憶手段に対する第2
の記憶手段の記憶時間の遅れを制御するようにしたもの
である。
【0016】請求項7記載の発明に係る画像符号化器
は、入力画像と予測画像の差分画像に基づいてシーンチ
ェンジを検出するとともに、当該シーンチェンジを検出
したとき、局部復号化画像生成手段により生成された局
部復号化画像を第2の記憶手段に記憶させるようにした
ものである。
【0017】請求項8記載の発明に係る画像復号化器
は、第1の記憶手段により記憶された復号化画像よりも
所定時間前に、復号化画像生成手段により生成された復
号化画像を記憶する第2の記憶手段を設け、第1又は第
2の記憶手段により記憶された復号化画像と復号化画像
生成手段により復号化された動きベクトルとに基づいて
予測画像を生成するようにしたものである。
【0018】請求項9記載の発明に係る画像復号化器
は、画像符号化器が各セグメント領域毎に動き補償を実
行する場合には、第1又は第2の記憶手段により記憶さ
れた各セグメント領域毎の復号化画像を組み合わせて予
測画像を生成するようにしたものである。
【0019】
【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による画
像符号化器を示す構成図であり、図において、1は入力
画像Giから予測画像Geを減算して差分画像Gsを算
出する減算器(局部復号化画像生成手段)、2は減算器
1により算出された差分画像Gsを離散コサイン変換
し、その変換結果を差分画像Gsの変換係数Gstとし
て出力する変換部(局部復号化画像生成手段)、3は変
換部2から出力された変換係数Gstを量子化し、量子
化係数Gqを出力する量子化部(局部復号化画像生成手
段)、5は量子化部3から出力された量子化係数Gqを
逆量子化し、変換係数Gqtを出力する逆量子化部(局
部復号化画像生成手段)、6は逆量子化部5から出力さ
れた変換係数Gqtを逆離散コサイン変換し、誤差画像
Ggを出力する逆変換部(局部復号化画像生成手段)、
7は逆変換部6から出力された誤差画像Ggに予測画像
Geを加算し、局部復号化画像Gkを出力する加算器
(局部復号化画像生成手段)である。
【0020】また、11は加算器7から出力された局部
復号化画像Gkを記憶するSTFM(第1の記憶手段)
であり、STFMはShort Term Frame
Memory(ショートターム・フレームメモリ)の
略である。12は加算器7から出力された局部復号化画
像Gkを一時的に保持し、加算器7から局部復号化画像
Gkが出力されたのち所定時間経過後に局部復号化画像
GkをLTFM13に記憶させる遅延時間制御部(第2
の記憶手段)、13はSTFM11により記憶された局
部復号化画像Gkよりも所定時間前に、加算器7から出
力された局部復号化画像Gkを記憶するLTFM(第2
の記憶手段)であり、LTFMはLong Term
Frame Memory(ロングターム・フレームメ
モリ)の略である。
【0021】また、14はSTFM11及びLTFM1
3により記憶された局部復号化画像Gkを参照して入力
画像Giのフレーム毎に動き補償を実行し、予測画像G
e,動きベクトルUv及び予測誤差Egを生成する第1
の予測部としてのブロックベース予測部(予測手段)、
15はSTFM11及びLTFM13により記憶された
局部復号化画像Gkを参照して入力画像Giのフレーム
を構成するセグメント領域毎に動き補償を実行し、予測
画像Ge,動きベクトルUv及び予測誤差Egを生成す
る第2の予測部としてのセグメントベース予測部(予測
手段)、16はブロックベース予測部14により生成さ
れた予測誤差Egとセグメントベース予測部15により
生成された予測誤差Egとの偏差を求め、その偏差に応
じてブロックベース予測部14又はセグメントベース予
測部15により生成された予測画像Ge及び動きベクト
ルUvを選択する選択部(予測手段)である。
【0022】また、17は量子化部3から出力された量
子化係数Gqと選択部16から出力された動きベクトル
Uv及び予測モードEmとセグメントベース予測部15
から出力された予測用パラメータEpとを可変長符号化
して可変長符号語Gckを生成する可変長符号化部(符
号化手段)、18は可変長符号化部17により生成され
た可変長符号語Gckを蓄積し、その蓄積量が閾値に到
達すると画像復号化器に可変長符号語Gckを符号化ビ
ットストリームCBSとして出力するバッファ(量子化
制御手段)、19はバッファ18のバッファ残量Bz
(可変長符号語Gckの蓄積量)に応じて量子化部3の
量子化値qを制御する量子化制御部(量子化制御手段)
である。
【0023】図2はブロックベース予測部14の詳細を
示す構成図であり、図において、21はSTFM11に
記憶された局部復号化画像Gkを参照して入力画像Gi
のフレーム毎に動き補償を実行することにより、予測誤
差Egaが最小となるような予測画像Geaを生成し、
当該予測画像Geaと動きベクトルUvaを出力する予
測画像生成部、22は入力画像Giから予測画像Gea
を減算し、その減算結果の絶対値を予測誤差Egaとし
て算出する誤差算出部、23はLTFM13に記憶され
た局部復号化画像Gkを参照して入力画像Giのフレー
ム毎に動き補償を実行することにより、予測誤差Egc
が最小となるような予測画像Gecを生成し、当該予測
画像Gecと動きベクトルUvcを出力する予測画像生
成部、24は入力画像Giから予測画像Gecを減算
し、その減算結果の絶対値を予測誤差Egcとして算出
する誤差算出部、25は予測画像生成部21により生成
された予測画像Geaと予測画像生成部23により生成
された予測画像Gecの平均画像(補間画像)を生成
し、その補間画像を予測画像Gebとして出力する補間
画像生成部、26は入力画像Giから予測画像Gebを
減算し、その減算結果の絶対値を予測誤差Egbとして
算出する誤差算出部である。
【0024】また、27は誤差算出部22,26,24
から出力された予測誤差Ega〜Egcのうちの最小の
予測誤差を選択し、その最小の予測誤差を予測誤差Eg
として出力するとともに、その選択結果Egxを出力す
る誤差値比較部、28は予測画像Gea〜Gecのう
ち、予測誤差が最小となる予測画像を誤差値比較部27
が出力する選択結果Egxに基づいて選択する予測画像
選択部、29は予測画像選択部28により予測画像Ge
aが選択される場合には動きベクトルUvaを選択して
出力し、予測画像Gecが選択される場合には動きベク
トルUvcを選択して出力し、予測画像Gebが選択さ
れる場合には動きベクトルUvaと動きベクトルUvc
を出力する動きベクトル選択部である。
【0025】図3はセグメントベース予測部15の詳細
を示す構成図であり、図において、31〜34はSTF
M11及びLTFM13により記憶された局部復号化画
像Gkを参照して入力画像Giのフレームを構成するセ
グメント領域毎に動き補償を実行することにより、それ
ぞれ予測誤差Eg1〜Egnが最小となるような予測画
像Ge1〜Genを生成し、当該予測画像Ge1〜Ge
nと動きベクトルUv1〜Uvnとセグメント組み合わ
せ情報Sj1〜Sjnとを出力する予測画像決定部(詳
細は図4を参照)、35は予測画像決定部31〜34か
ら出力された予測誤差Eg1〜Egnのうちの最小の予
測誤差を選択し、その最小の予測誤差を予測誤差Egと
して出力するとともに、その選択結果Egzを出力する
予測誤差比較部、36は予測画像Ge1〜Genのう
ち、予測誤差が最小となる予測画像を選択結果Egzに
基づいて選択する予測画像選択部、37はセグメント組
み合わせ情報Sj1〜Sjnと選択結果Egzを入力
し、予測用パラメータEpを決定するパラメータ決定
部、38は動きベクトルUv1〜Uvnのうち、予測誤
差が最小となる予測画像に係る動きベクトルを選択結果
Egzに基づいて選択する動きベクトル選択部である。
【0026】図4はセグメントベース予測部15の予測
画像決定部31〜34の詳細を示す構成図であり、図に
おいて、41はSTFM11及びLTFM13により記
憶された局部復号化画像Gkを参照して、予め定められ
たセグメントパターンにおける所定のセグメント領域に
おいて動き補償を実行することにより、予測誤差Ega
が最小となるような予測画像Geaを生成し、当該予測
画像Geaと動きベクトルUvaを出力する予測画像生
成部、42は入力画像Giから予測画像Geaを減算
し、その減算結果の絶対値を予測誤差Egaとして算出
する誤差算出部、43はSTFM11及びLTFM13
により記憶された局部復号化画像Gkを参照して、予め
定められたセグメントパターンにおける所定のセグメン
ト領域において動き補償を実行することにより、予測誤
差Egbが最小となるような予測画像Gebを生成し、
当該予測画像Gebと動きベクトルUvbを出力する予
測画像生成部、44は入力画像Giから予測画像Geb
を減算し、その減算結果の絶対値を予測誤差Egbとし
て算出する誤差算出部である。
【0027】また、45はSTFM11及びLTFM1
3により記憶された局部復号化画像Gkを参照して、予
め定められたセグメントパターンにおける所定のセグメ
ント領域において動き補償を実行することにより、予測
誤差Egcが最小となるような予測画像Gecを生成
し、当該予測画像Gecと動きベクトルUvcを出力す
る予測画像生成部、46は入力画像Giから予測画像G
ecを減算し、その減算結果の絶対値を予測誤差Egc
として算出する誤差算出部、47はSTFM11及びL
TFM13により記憶された局部復号化画像Gkを参照
して、予め定められたセグメントパターンにおける所定
のセグメント領域において動き補償を実行することによ
り、予測誤差Egdが最小となるような予測画像Ged
を生成し、当該予測画像Gedと動きベクトルUvdを
出力する予測画像生成部、48は入力画像Giから予測
画像Gedを減算し、その減算結果の絶対値を予測誤差
Egdとして算出する誤差算出部である。
【0028】また、49は誤差算出部42,44,4
6,48から出力された予測誤差Ega〜Egdのうち
の最小の予測誤差を選択し、その最小の予測誤差及びセ
グメント組み合わせ情報Sj1を出力するとともに、そ
の選択結果Egxを出力する誤差値比較部、50は予測
画像Gea〜Gedのうち、予測誤差が最小となる予測
画像を選択結果Egxに基づいて選択する予測画像選択
部、51は動きベクトルUva〜Uvdのうち、予測誤
差が最小となる予測画像に係る動きベクトルを選択結果
Egxに基づいて選択する動きベクトル選択部である。
【0029】図5は選択部16の詳細を示す構成図であ
り、図において、61はブロックベース予測部14から
出力された予測誤差Egから閾値を減算した結果と、セ
グメントベース予測部15から出力された予測誤差Eg
を比較し、その比較結果を予測モードEmとして出力す
る閾値処理部、62は閾値処理部61が出力する予測モ
ードEmに基づいてブロックベース予測部14が出力す
る予測画像Ge又はセグメントベース予測部15が出力
する予測画像Geの何れか一方を選択する予測画像選択
部、63は閾値処理部61が出力する予測モードEmに
基づいてブロックベース予測部14が出力する動きベク
トルUv又はセグメントベース予測部15が出力する動
きベクトルUvの何れか一方を選択する動きベクトル選
択部である。
【0030】次に動作について説明する。まず、符号化
する入力画像Giが減算器1に入力されると、減算器1
が入力画像Giから選択部16が出力する予測画像Ge
(予測画像Geについては後述する)を減算して差分画
像Gsを求め、差分画像Gsを出力する。 差分画像Gs=入力画像Gi−予測画像Ge ・・・(1)
【0031】そして、減算器1から差分画像Gsが出力
されると、変換部2が差分画像Gsの情報量を圧縮すべ
く、差分画像Gsを離散コサイン変換し、その変換結果
を差分画像Gsの変換係数Gstとして出力する。そし
て、変換部2から変換係数Gstが出力されると、量子
化部3が変換係数Gstを量子化し、量子化係数Gqを
出力する。
【0032】このようにして、量子化部3から量子化係
数Gqが出力されると、可変長符号化部17が量子化係
数Gq等を可変長符号化するが、次回の画像の符号化に
備えて、逆量子化部5が量子化係数Gqを逆量子化して
変換係数Gqtを求めたのち、逆変換部6が変換係数G
qtを逆離散コサイン変換して誤差画像Ggを生成す
る。
【0033】そして、逆変換部6から誤差画像Ggが出
力されると、加算器7が誤差画像Ggに予測画像Geを
加算して局部復号化画像Gkを生成し、局部復号化画像
Gkを出力する。そして、加算器7から出力された局部
復号化画像Gkは、直ちにSTFM11に記憶される
が、LTFM13には直ちに記憶されず、所定時間経過
後に記憶される。
【0034】その理由は、例えば、STFM11に記憶
される1つの局部復号化画像Gkにおいては、対象物の
背後に背景画像が隠れているが、今回入力した入力画像
Giでは対象物の背後に背景画像が現れてきたような場
合でも、遅延時間制御部12が、加算器7から局部復号
化画像Gkが出力されたのち所定時間経過後に、当該局
部復号化画像Gkをもう一つの参照画像としてLTFM
13に記憶させるようにすると、2つの参照画像の時間
的なずれによって、対象物の背後に背景画像が存在する
参照画像(符号化する画像に対して相関の高い参照画
像)が得られる場合もあるので、LTFM13には直ち
に記憶させず、所定時間経過後に記憶させるようにして
いる。なお、遅延時間制御部12は、記憶機能をもって
いる必要はなく、所定時間経過後に局部復号化画像Gk
をLTFM13に書き込むためのスイッチの役割をして
いると考えてもよい(書き込みタイミング以外の時間で
はオフになっている)。
【0035】このようにして、STFM11及びLTF
M13に参照画像である局部復号化画像Gkが記憶され
ると、当該局部復号化画像Gkを参照してブロックベー
ス予測部14及びセグメントベース予測部15が予測画
像Ge等を決定する。
【0036】最初に、図2を用いてブロックベース予測
部14の動作から説明する。まず、STFM11に局部
復号化画像Gkが記憶されると、予測画像生成部21
が、当該局部復号化画像Gkを参照して入力画像Giの
フレーム毎に動き補償を実行することにより、予測誤差
Egaが最小となるような予測画像Geaを生成し、誤
差算出部22が、入力画像Giから予測画像Geaを減
算して予測誤差Egaを算出する。なお、動き補償を実
行した際の動きベクトルUvaは、予測画像生成部21
が動きベクトル選択部29に出力する。
【0037】一方、LTFM13に局部復号化画像Gk
が記憶されると、予測画像生成部23が、当該局部復号
化画像Gkを参照して入力画像Giのフレーム毎に動き
補償を実行することにより、予測誤差Egcが最小とな
るような予測画像Gecを生成し、誤差算出部24が、
入力画像Giから予測画像Gecを減算して予測誤差E
gcを算出する。なお、動き補償を実行した際の動きベ
クトルUvcは、予測画像生成部23が動きベクトル選
択部29に出力する。
【0038】そして、予測画像生成部21から予測画像
Geaが出力され、予測画像生成部23から予測画像G
ecが出力されると、補間画像生成部25が、予測画像
Geaと予測画像Gecの平均画像(補間画像)を生成
し、その補間画像を予測画像Gebとして出力する。な
お、入力画像Giの符号化シーケンスを図6に示すよう
にdtフレーム毎に切り分けた場合、今回入力した入力
画像Giが第Nフレームにあるとすると、今回入力した
入力画像Giの参照画像としては、下記に示す3つの予
測画像Gea,Geb,Gecが参照画像となる。即
ち、第Mフレームにある入力画像Giに係る局部復号化
画像Gk(STFM11に記憶された局部復号化画像G
k)に基づいて生成された予測画像Geaと、第Kフレ
ームにある入力画像Giに係る局部復号化画像Gk(L
TFM13に記憶された局部復号化画像Gk)に基づい
て生成された予測画像Gecと、補間画像生成部25に
より生成された予測画像Gebとが、参照画像となる。
なお、図6における時間的変化は、図中、左から右に進
んでいる。
【0039】このようにして、3つの参照画像が生成さ
れると、誤差値比較部27が、誤差算出部22,26,
24から出力された予測誤差Ega〜Egcのうちの最
小の予測誤差を選択し、その選択結果Egxを出力す
る。例えば、予測誤差Egaが最も小さい場合には、予
測誤差Egaを予測誤差Egとして出力するとともに、
予測誤差Egaを選択した旨を示す選択結果Egxを出
力する。
【0040】そして、誤差値比較部27から選択結果E
gxが出力されると、予測画像選択部28が、選択結果
Egxに基づいて最小の予測誤差に係る予測画像を選択
する。例えば、選択結果Egxが予測誤差Egaを選択
した旨を示す場合には、予測画像Geaを予測画像Ge
として出力する。また、誤差値比較部27から選択結果
Egxが出力されると、動きベクトル選択部29が、選
択結果Egxに基づいて最小の予測誤差に係る動きベク
トルを選択する。具体的には、予測画像選択部28によ
り予測画像Geaが選択される場合には動きベクトルU
vaを動きベクトルUvとして出力し、予測画像Gec
が選択される場合には動きベクトルUvcを動きベクト
ルUvとして出力し、予測画像Gebが選択される場合
には動きベクトルUvaと動きベクトルUvcの双方を
動きベクトルUvとして出力する。
【0041】次に、図3及び図4を用いてセグメントベ
ース予測部15の動作を説明する。まず、STFM11
及びLTFM13に局部復号化画像Gkが記憶される
と、予測画像決定部31〜34における予測画像生成部
41,43,45,47が、STFM11及びLTFM
13に記憶された局部復号化画像Gkを参照して、予め
定められたセグメントパターンにおける所定のセグメン
ト領域において動き補償を実行することにより、参照画
像MB(1)〜MB(4)として予測画像Gea〜Ge
dを生成する。なお、この実施の形態1では、図7に示
すように、4つのセグメントパターンが設定されている
ので、予測画像決定部31における予測画像生成部4
1,43,45,47は図7の垂直パターンが設定さ
れ、予測画像決定部32における予測画像生成部41,
43,45,47は図7の水平パターンが設定され、予
測画像決定部33における予測画像生成部41,43,
45,47は図7の右斜めパターンが設定され、予測画
像決定部34における予測画像生成部41,43,4
5,47は図7の左斜めパターンが設定されている。
【0042】ここで、予測画像決定部31を例にとっ
て、参照画像MB(1)〜MB(4)としての予測誤差
Ega〜Egdの生成について具体的に説明すると、上
述したように、予測画像決定部31における予測画像生
成部41,43,45,47は図7の垂直パターンが設
定されているので、セグメント領域としては、左半分の
セグメント領域(黒色の部分)と右半分のセグメント領
域(白色の部分)の2つに分けられている。従って、図
8に示すように、例えば、予測画像生成部41の場合
は、局部復号化画像Gkを参照して、第Nフレームの左
半分及び右半分のセグメント領域毎に動き補償を実行す
ることにより、参照画像MB(1)として予測画像Ge
aを生成する。同様にして、予測画像生成部43,4
5,47は、それぞれ参照画像MB(2),参照画像M
B(3),参照画像MB(4)として予測画像Geb,
Gec,Gedを生成するが、数式で表すと下記のよう
になる。
【0043】 MB(1)=SB(K,1)+SB(K,2) ・・・(2) MB(2)=SB(K,1)+SB(M,2) ・・・(3) MB(3)=SB(M,1)+SB(K,2) ・・・(4) MB(4)=SB(M,1)+SB(M,2) ・・・(5) ただし、SB()は、セグメント領域において予測誤差
が最小となる予測画像 (K,1)は、第Kフレームの左半分のセグメント領域 (K,2)は、第Kフレームの右半分のセグメント領域 (M,1)は、第Mフレームの左半分のセグメント領域 (M,2)は、第Mフレームの右半分のセグメント領域 なお、図8における時間的変化は、図中、左から右に進
んでいる。
【0044】このようにして、予測画像Ega〜Egd
が生成されると、誤差値比較部49が、誤差算出部4
2,44,46,48からそれぞれ出力された予測誤差
Ega〜Egd(入力画像Giと予測画像Gea〜Ge
dとの誤差)のうちの最小の予測誤差を選択し、その選
択結果Egxを出力する。例えば、予測誤差Egaが最
も小さい場合には、予測誤差Egaを予測誤差Eg1と
して出力するとともに、予測誤差Egaを選択した旨を
示す選択結果Egxを出力する。また、セグメント組み
合わせ情報Sj1(予測画像Egaの内容、即ち、式
(2)の内容)を出力する。
【0045】そして、誤差値比較部49から選択結果E
gxが出力されると、予測画像選択部50が、選択結果
Egxに基づいて最小の予測誤差に係る予測画像を選択
する。例えば、選択結果Egxが予測誤差Egaを選択
した旨を示す場合には、予測画像Geaを予測画像Ge
1として出力する。また、誤差値比較部49から選択結
果Egxが出力されると、動きベクトル選択部51が、
選択結果Egxに基づいて最小の予測誤差に係る動きベ
クトルを選択する。例えば、選択結果Egxが予測誤差
Egaを選択した旨を示す場合には、予測画像生成部4
1が生成した動きベクトルUvaを動きベクトルUv1
として出力する。
【0046】このようにして、N個の予測画像決定部3
1〜34からそれぞれ予測画像等が出力されると(図7
では4つのセグメントパターンを設定しているので、こ
の実施の形態1では、N=4である)、予測誤差比較部
35が、予測画像決定部31〜34が出力する予測誤差
Eg1〜Egnのうちの最小の予測誤差を選択し、その
選択結果Egzを出力する。例えば、予測誤差Eg1が
最も小さい場合には、予測誤差Eg1を予測誤差Egと
して出力するとともに、予測誤差Eg1を選択した旨を
示す選択結果Egzを出力する。
【0047】そして、予測誤差比較部35から選択結果
Egzが出力されると、予測画像選択部36が、選択結
果Egzに基づいて最小の予測誤差に係る予測画像を選
択する。例えば、選択結果Egzが予測誤差Eg1を選
択した旨を示す場合には、予測画像Ge1を予測画像G
eとして出力する。
【0048】また、予測誤差比較部35から選択結果E
gzが出力されると、パラメータ決定部37が、選択結
果Egzとセグメント組み合わせ情報Sj1〜Sjnに
基づいて予測用パラメータEpを決定する。図9は予測
用パラメータEpを示す構成図であるが、“Patte
rn”は、N個のセグメントパターンの中で(図7では
4つのセグメントパターンを示している)、実際に選択
されたセグメントパターンの番号を示しており、N通り
のセグメントパターンがあるときは、固定長符号化によ
り2N-1 ビットのビット長が必要となる。また、“CM
B”は、選択された予測画像の番号を示しており、2ビ
ットのビット長が必要となる。
【0049】また、予測誤差比較部35から選択結果E
gzが出力されると、動きベクトル選択部38が、選択
結果Egzに基づいて最小の予測誤差に係る動きベクト
ルを選択する。例えば、選択結果Egzが予測誤差Eg
1を選択した旨を示す場合には、動きベクトルUv1を
動きベクトルUvとして出力する。
【0050】そして、ブロックベース予測部14及びセ
グメントベース予測部15からそれぞれ予測画像Ge,
予測誤差Eg及び動きベクトルUvが出力されると、ま
ず、選択部16の閾値処理部61が、ブロックベース予
測部14から出力された予測誤差Egから閾値を減算し
たのち、その減算結果と、セグメントベース予測部15
から出力された予測誤差Egを比較し、その比較結果を
予測モードEmとして出力する。
【0051】そして、閾値処理部61から予測モードE
mが出力されると、予測画像選択部62が、予測モード
Emに基づいてブロックベース予測部14が出力する予
測画像Ge又はセグメントベース予測部15が出力する
予測画像Geの何れか一方を選択する。例えば、予測モ
ードEmが減算結果の方が大きい旨を示している場合に
は、ブロックベース予測部14が出力する予測画像Ge
を選択し、予測モードEmが減算結果の方が小さい旨を
示している場合には、セグメントベース予測部15が出
力する予測画像Geを選択する。
【0052】また、閾値処理部61から予測モードEm
が出力されると、動きベクトル選択部63が、予測モー
ドEmに基づいてブロックベース予測部14が出力する
動きベクトルUv又はセグメントベース予測部15が出
力する動きベクトルUvの何れか一方を選択する。例え
ば、予測モードEmが減算結果の方が大きい旨を示して
いる場合には、ブロックベース予測部14が出力する動
きベクトルUvを選択し、予測モードEmが減算結果の
方が小さい旨を示している場合には、セグメントベース
予測部15が出力する動きベクトルUvを選択する。
【0053】このようにして選択された予測画像Ge
は、次の画像の符号化に備えて、減算器1に出力され、
予測モードEm及び動きベクトルUvは可変長符号化部
17に出力される。
【0054】そして、選択部16から予測モードEm及
び動きベクトルUvが出力されると、可変長符号化部1
7が、量子化部3から出力された量子化係数Gqと動き
ベクトルUvと予測モードEmと予測用パラメータEp
とを可変長符号化して可変長符号語Gckを生成し、そ
の可変長符号語Gckをバッファ18に蓄積する。そし
て、バッファ18は、可変長符号語Gckの蓄積量が閾
値に到達すると画像復号化器に可変長符号語Gckを符
号化ビットストリームCBSとして出力する。
【0055】また、このとき、一定のビットレートで符
号化ビットストリームCBSを画像復号化器に出力すべ
く、量子化制御部19が、バッファ18のバッファ残量
Bz(可変長符号語Gckの蓄積量)を監視し、バッフ
ァ残量Bzに応じて量子化部3の量子化値qを制御す
る。具体的には、バッファ残量Bzが少なくなると、情
報量を抑制すべく量子化部3の量子化値qを大きく設定
し、バッファ残量Bzが多くなると、情報量を増加すべ
く量子化部3の量子化値qを小さく設定する。
【0056】以上で明らかなように、この実施の形態1
によれば、STFM11の他に、STFM11に記憶さ
れた局部復号化画像Gkよりも所定時間前に、加算器7
から出力された局部復号化画像Gkを記憶するLTFM
13を設け、STFM11及びLTFM13により記憶
された局部復号化画像Gkを参照して入力画像の動き補
償を実行するようにしたので、STFM11に記憶され
る1つの局部復号化画像Gkにおいては、対象物の背後
に背景画像が隠れているが、今回入力した入力画像Gi
では対象物の背後に背景画像が現れてきたような場合で
も、STFM11に記憶される局部復号化画像Gkと時
間的なずれがある参照画像をLTFM13に確保できる
ため、対象物の背後に背景画像が存在する参照画像が得
られる可能性が向上し、画像符号化器の符号化精度が向
上する効果が得られる。従って、予測効率の高さが特に
要求される動画像の低ビットレート伝送には極めて有利
である。また、局部復号化画像Gkを参照して入力画像
Giのフレーム毎に動き補償を実行するブロックベース
予測部14と、局部復号化画像Gkを参照して、予め定
められたセグメントパターンの各セグメント領域毎に動
き補償を実行するセグメントベース予測部15とを設け
たので、入力画像Giの1フレーム中に存在する複数の
対象物が、互いに異なる動きをする場合でも、入力画像
Giと予測画像Geとの誤差を小さくできる効果が得ら
れる。
【0057】実施の形態2.上記実施の形態1では、図
7に示すように、1つのマクロブロックが2つのセグメ
ント領域から構成されるセグメントパターンを設定した
場合について示したが、3つ以上のセグメント領域から
構成されるセグメントパターンを設定してもよく、上記
実施の形態1と同様の効果を奏することができる。例え
ば、図7の垂直パターンと水平パターンの重複領域をセ
グメントとする場合には、1つのマクロブロック中に4
つのセグメント領域が設定されることになる。ただし、
この場合には、予測用パラメータEpにおける“Pat
tern”の符号化ビット数は変わらず、2N-1 ビット
であるが、“CMB”は16通りのパターンが存在する
ので、4ビットのビット長が必要となる。
【0058】実施の形態3.上記実施の形態1では、遅
延時間制御部12が遅延後の局部復号化画像Gkを逐次
LTFM13に記憶させるものについて示したが、所定
のタイミングにおいてのみ局部復号化画像Gkを記憶さ
せるようにしてもよい。なお、この場合には、LTFM
13には、次のタイミングまで同じ局部復号化画像Gk
が記憶されることになるが、この局部復号化画像Gk
は、遅延時間制御部12が遅延した局部復号化画像Gk
でもよいし、記憶タイミングのとき加算器7から出力さ
れる局部復号化画像Gkでもよい。
【0059】実施の形態4.上記実施の形態1では、S
TFM11と別個に遅延時間制御部12を設けたものに
ついて示したが、図10に示すように、STFM11の
内部に遅延時間制御部12を設けるようにしてもよく、
上記実施の形態1と同様の効果を奏することができる。
【0060】実施の形態5.図11はこの発明の実施の
形態5による画像符号化器のセグメントベース予測部1
5の詳細を示す構成図であり、図において、図3のもの
と同一符号は同一または相当部分を示すので説明を省略
する。71は入力画像Giを分析して複数のセグメント
領域に分割する領域画像分割部(画像分割部)、72は
領域画像分割部71により分割された各セグメント領域
毎に動き補償を実行し、予測画像Ge等を生成する領域
画像予測部である。
【0061】次に動作について説明する。上記実施の形
態1と同様にして、セグメントベース予測部15が入力
画像Giを入力すると、セグメントベース予測部15の
領域画像分割部71が、入力画像Giの画像の濃淡値の
相違やエッジ等を検出することにより、入力画像Giを
複数のセグメント領域に分割する。
【0062】このようにして、領域画像分割部71が入
力画像Giを複数のセグメント領域に分割すると、領域
画像予測部72が、STFM11及びLTFM13によ
り記憶された局部復号化画像Gkを参照して、分割され
た各セグメント領域毎に動き補償を実行することによ
り、予測誤差Egが最小となるような予測画像Geを生
成し、当該予測画像Geと予測誤差Egと動きベクトル
Uvと形状情報Kjとを出力する。即ち、上記実施の形
態1における予測画像決定部31等は、予め定められた
セグメントパターンにおける各セグメント領域について
動き補償を実行するが、領域画像予測部72は、領域画
像分割部71により分割された各セグメント領域毎に動
き補償を実行する点で相違している。
【0063】かかる相違により、この実施の形態5によ
れば、入力画像Giのセグメント領域が予め定められた
セグメントパターンと大きく相違する場合でも、入力画
像Giと予測画像Geとの誤差を小さくできる効果を奏
する。なお、領域画像予測部72が出力する形状情報K
jとしては、例えば、各セグメントの輪郭線等が考えら
れ、形状情報Kjは可変長符号化部17において可変長
符号化され、画像復号化器に送られる。
【0064】実施の形態6.図12はこの発明の実施の
形態6による画像符号化器のセグメントベース予測部1
5の詳細を示す構成図であり、図において、図11のも
のと同一符号は同一または相当部分を示すので説明を省
略する。73は予め設定された複数のセグメントパター
ン(領域形状パターン)と領域画像分割部71により分
割された入力画像Giとの近似度をそれぞれ計算して最
も近似度の高いセグメントパターンを抽出する領域形状
記述部、74は領域形状記述部73により抽出されたセ
グメントパターンにおける各セグメント領域毎に動き補
償を実行し、予測画像Ge等を生成する領域画像予測部
である。
【0065】次に動作について説明する。上記実施の形
態5と同様にして、領域画像分割部71が入力画像Gi
を複数のセグメント領域に分割すると、領域形状記述部
73が、図13に示すような予め設定された複数のセグ
メントパターンと分割された入力画像Giとの近似度を
それぞれ計算して最も近似度の高いセグメントパターン
を抽出する。
【0066】具体的には、図13の場合、セグメントパ
ターン1〜4のなかで(セグメントパターンの黒色表示
部分)、セグメント領域の画素と最も共通領域の画素数
が多いセグメントパターンを最も近似度の高いセグメン
トパターンとして抽出する。そして、最も近似度の高い
セグメントパターンを抽出すると、今度は、セグメント
パターンにおける各セグメント領域の形状を具体的にす
るために、レベルを抽出する。
【0067】例えば、セグメントパターン3を最も近似
度の高いセグメントパターンとして抽出したとすると、
N個のレベルが設定されているので(図14では2つの
レベルを例示している)、共通領域の画素数等に基づい
てレベルを抽出する。なお、言うまでもないが、レベル
が異なっても、同一のセグメントパターンであれば、セ
グメント領域の形状の相似関係は保持される。また、レ
ベルの個数は、各セグメントパターン毎に相違する。
【0068】このようにして、セグメントパターンとレ
ベルが抽出されると、領域画像予測部74が、抽出され
たセグメントパターンにおける各セグメント領域毎に動
き補償を実行することにより、予測誤差Egが最小とな
るような予測画像Geを生成し、当該予測画像Geと予
測誤差Egと動きベクトルUvと形状情報Kjとを出力
する。なお、形状情報Kjとしては、抽出したセグメン
トパターンとレベルとから構成される。
【0069】以上により、この実施の形態6によれば、
分割された入力画像Giのセグメント領域が予め定めら
れたセグメントパターンと大きく相違する場合でも、入
力画像Giと予測画像Geとの誤差を小さくできる効果
を奏する。
【0070】実施の形態7.図15はこの発明の実施の
形態7による画像符号化器を示す構成図であり、図にお
いて、図1のものと同一符号は同一または相当部分を示
すので説明を省略する。81はバッファ18のバッファ
残量Bz(可変長符号語Gckの蓄積量)に応じてST
FM11に対するLTFM13の記憶時間の遅れを制御
する遅延時間決定部(遅延時間制御手段)である。
【0071】次に動作について説明する。上記実施の形
態1と同様にして、可変長符号化部17に可変長符号化
された可変長符号語Gckがバッファ18に蓄積され、
その蓄積量が閾値を越えると、その可変長符号語Gck
が符号化ビットストリームCBSとして画像復号化器に
送られるが、遅延時間決定部81が、バッファ18のバ
ッファ残量Bzに応じてSTFM11に対するLTFM
13の記憶時間の遅れを制御するようにしてもよい。
【0072】即ち、量子化制御部19が、バッファ18
のバッファ残量Bzが少なくなると、情報量を抑制すべ
く量子化部3の量子化値qを大きく設定するが、さら
に、遅延時間決定部81が、STFM11に対するLT
FM13の記憶時間の遅れを小さく設定すると、参照フ
レーム間の距離が小さくなり、入力画像Giと局部復号
化画像Gkとの時間的相関が高くなる。これにより、情
報発生量を抑制することができる。一方、量子化制御部
19が、バッファ18のバッファ残量Bzが多くなる
と、情報量を増加すべく量子化部3の量子化値qを小さ
く設定するが、さらに、遅延時間決定部81が、STF
M11に対するLTFM13の記憶時間の遅れを大きく
設定すると、参照フレーム間の距離が大きくなり、入力
画像Giと局部復号化画像Gkとの時間的相関が低くな
る。これにより、情報発生量を増加することができる。
【0073】実施の形態8.図16はこの発明の実施の
形態8による画像符号化器を示す構成図であり、図にお
いて、図1のものと同一符号は同一または相当部分を示
すので説明を省略する。91は入力画像Giと予測画像
Geの差分画像Gsに基づいてシーンチェンジを検出す
るとともに、当該シーンチェンジを検出したとき、加算
器7から出力された局部復号化画像GkをLTFM13
に記憶させるシーンチェンジ検出部(シーンチェンジ検
出手段)である。
【0074】次に動作について説明する。上記実施の形
態1では、遅延時間制御部12が所定時間遅延させたの
ち、局部復号化画像GkをLTFM13に記憶させるも
のについて示したが、さらに、シーンチェンジ検出部9
1が、入力画像Giと予測画像Geの差分画像Gsに基
づいてシーンチェンジを検出したとき、加算器7から出
力された局部復号化画像GkをLTFM13に記憶させ
るようにしてもよい。
【0075】即ち、シーンチェンジ検出部91が、差分
画像Gsの分散や画素値の絶対値和を求め、それらが閾
値より大きいときシーンチェンジが発生したものと判断
し、シーンチェンジ検出信号Sを遅延時間制御部12に
出力する。そして、シーンチェンジ検出部91からシー
ンチェンジ検出信号Sが出力されると、遅延時間制御部
12が、現在、加算器7から出力されている局部復号化
画像GkをLTFM13に記憶させる。ただし、シーン
チェンジ検出部91がシーンチェンジを検出しない通常
時においては、上記実施の形態1と同様のタイミングで
局部復号化画像GkがLTFM13に記憶される。
【0076】これにより、この実施の形態8によれば、
入力画像Giに対して極めて相関が低いシーンチェンジ
が起こる前の局部復号化画像GkがLTFM13に記憶
されるのを防止することができるため、入力画像Giと
予測画像Geとの誤差を小さくできる効果を奏する。
【0077】実施の形態9.図17はこの発明の実施の
形態9による画像復号化器を示す構成図であり、図にお
いて、101は画像符号化器から送られてくる符号化ビ
ットストリームCBSを可変長復号化し、量子化係数G
rを出力する可変長復号化部(復号化画像生成手段)、
102は可変長復号化部101から出力された量子化係
数Grを逆量子化し、変換係数Grtを出力する逆量子
化部(復号化画像生成手段)、103は逆量子化部10
2から出力された変換係数Grtを逆離散コサイン変換
し、差分画像Gsを再生する逆変換部(復号化画像生成
手段)、104は逆変換部103に再生された差分画像
Gsに予測画像Geを加算して復号化画像Gfを生成す
る加算器(復号化画像生成手段)である。
【0078】また、105は加算器104から出力され
た復号化画像Gfを記憶するSTFM(第1の記憶手
段)、106は加算器104から出力された復号化画像
Gfを一時的に保持し、加算器104から復号化画像G
fが出力されたのち所定時間経過後に復号化画像Gfを
LTFM107に記憶させる遅延時間制御部(第2の記
憶手段)、107はSTFM105により記憶された復
号化画像Gfよりも所定時間前に、加算器104から出
力された復号化画像Gfを記憶するLTFM(第2の記
憶手段)である。
【0079】また、108はSTFM105又はLTF
M107により記憶されたフレーム単位の復号化画像G
fと可変長復号化部101により復号化された動きベク
トルUvとに基づいて予測画像Geを生成するブロック
ベース画像生成部(予測画像生成手段)、109はST
FM105又はLTFM107により記憶されたセグメ
ント領域単位の復号化画像Gfと可変長復号化部101
により復号化された動きベクトルUv及び予測用パラメ
ータEpとに基づいて予測画像Geを生成するセグメン
トベース画像生成部(予測画像生成手段)、110はブ
ロックベース画像生成部108により生成された予測画
像Ge又はセグメントベース画像生成部109により生
成された予測画像Geの何れか一方を選択するモード選
択部(予測画像生成手段)である。
【0080】図18はモード選択部110の詳細を示す
構成図であり、図において、111は予測モードEmに
基づいて動きベクトルUvをブロックベース画像生成部
108又はセグメントベース画像生成部109の何れか
一方に出力するとともに、動きベクトルUvの出力先を
示す選択フラグFを出力するモード切り替え部、112
はモード切り替え部111から出力された選択フラグF
に基づいてブロックベース画像生成部108又はセグメ
ントベース画像生成部109の何れかから出力された予
測画像Geを加算器104に出力する予測画像選択部で
ある。
【0081】次に動作について説明する。まず、画像符
号化器から符号化ビットストリームCBSが送られてく
ると、可変長復号化部101が、その符号化ビットスト
リームCBSを可変長復号化し、量子化係数Gr,予測
モードEm,動きベクトルUv及び予測用パラメータE
pを出力する。そして、可変長復号化部101から量子
化係数Grが出力されると、逆量子化部102が量子化
係数Grを逆量子化して変換係数Grtを出力し、逆変
換部103が変換係数Grtを逆離散コサイン変換して
差分画像Gsを再生する。そして、加算器104が差分
画像Gsに予測画像Geを加算して復号化画像Gfを生
成する。
【0082】そして、加算器104から復号化画像Gf
が出力されると、上記実施の形態1におけるSTFM1
1及びLTFM13と同様に、STFM105は直ちに
当該復号化画像Gfを記憶し、LTFM107は遅延時
間制御部106に所定時間遅延された当該復号化画像G
fを記憶する。
【0083】一方、可変長復号化部101から予測モー
ドEm及び動きベクトルUvが出力されると、モード選
択部110のモード切り替え部111が予測モードEm
を分析し、予測モードEmが、画像符号化器の減算器1
に入力された予測画像Geは、ブロックベース予測部1
4が生成した予測画像Geに係るものであること示す場
合には、当該動きベクトルUvをブロックベース画像生
成部108に出力する。これに対して、予測モードEm
が、画像符号化器の減算器1に入力された予測画像Ge
は、セグメントベース予測部15が生成した予測画像G
eに係るものであること示す場合には、当該動きベクト
ルUvをセグメントベース画像生成部109に出力す
る。また、当該動きベクトルUvの出力先を示す選択フ
ラグFを予測画像選択部112に出力する。
【0084】そして、ブロックベース画像生成部108
は、モード切り替え部111から動きベクトルUvを出
力された場合には、STFM105又はLTFM107
により記憶されたフレーム単位の復号化画像Gfと当該
動きベクトルUvとに基づいて予測画像Geを生成す
る。また、セグメントベース画像生成部109は、モー
ド切り替え部111から動きベクトルUvを出力された
場合には、STFM105又はLTFM107により記
憶されたセグメント領域単位の復号化画像Gfと当該動
きベクトルUvと予測用パラメータEpとに基づいて予
測画像Geを生成する。即ち、セグメント領域単位の復
号化画像Gf等を適宜組み合わせることにより、予測画
像Geを生成する。なお、予測モードEmは、図19に
示すように、いわゆる予測モードと参照すべき画像フレ
ームの情報を含んでおり、各々対応する可変長コードが
与えられている。
【0085】そして、予測画像選択部112は、選択フ
ラグFが動きベクトルUvの出力先として、ブロックベ
ース画像生成部108を示す場合には、ブロックベース
画像生成部108が生成した予測画像Geを加算器10
4に出力する。また、選択フラグFが動きベクトルUv
の出力先として、セグメントベース画像生成部109を
示す場合には、セグメントベース画像生成部109が生
成した予測画像Geを加算器104に出力する。
【0086】これにより、この実施の形態9によれば、
上記実施の形態1等の画像符号化器から送られてくる符
号化ビットストリームCBSから精度よく復号化画像G
fを生成できる効果を奏する。
【0087】実施の形態10.上記実施の形態9では、
符号化ビットストリームCBSに形状情報Kjが含まれ
ていないものについて示したが、上記実施の形態5等の
ように、符号化ビットストリームCBSに形状情報Kj
が含まれている場合には、可変長復号化部101が形状
情報Kjも可変長復号化してセグメントベース画像生成
部109に出力し、セグメントベース画像生成部109
が形状情報Kjも考慮して予測画像Geを生成するよう
にしてもよい。
【0088】
【発明の効果】以上のように、請求項1記載の発明によ
れば、第1の記憶手段により記憶された局部復号化画像
よりも所定時間前に、局部復号化画像生成手段により生
成された局部復号化画像を記憶する第2の記憶手段を設
け、第1及び第2の記憶手段により記憶された局部復号
化画像を参照して入力画像の動き補償を実行するように
構成したので、第1の記憶手段に記憶される1つの局部
復号化画像においては、対象物の背後に背景画像が隠れ
ているが、今回入力した入力画像では対象物の背後に背
景画像が現れてきたような場合でも、第1の記憶手段に
記憶される局部復号化画像と時間的なずれがある局部復
号化画像を第2の記憶手段に確保できるため、対象物の
背後に背景画像が存在する参照画像が得られる可能性が
向上し、画像符号化器の符号化精度が向上する効果があ
る。
【0089】請求項2記載の発明によれば、第1及び第
2の記憶手段により記憶された局部復号化画像を参照し
て入力画像のフレームを構成するブロック毎に動き補償
を実行する第1の予測部と、第1及び第2の記憶手段に
より記憶された局部復号化画像を参照して入力画像のフ
レームを構成するブロック内のセグメント領域毎に動き
補償を実行する第2の予測部とを設けるように構成した
ので、入力画像の1フレーム中に存在する複数の対象物
が、互いに異なる動きをする場合でも、入力画像と予測
画像との誤差を小さくできる効果がある。
【0090】請求項3記載の発明によれば、入力画像を
分析して複数のセグメント領域に分割する画像分割部を
設けるように構成したので、入力画像のセグメント領域
が予め定められたセグメントパターンと大きく相違する
場合でも、入力画像と予測画像との誤差を小さくできる
効果がある。
【0091】請求項4記載の発明によれば、複数の領域
形状パターンと画像分割部により分割された入力画像と
の近似度をそれぞれ計算して最も近似度の高い領域形状
パターンを抽出し、最も近似度の高い領域形状パターン
を構成するセグメント領域毎に動き補償を実行するよう
に構成したので、分割された入力画像のセグメント領域
が予め定められたセグメントパターンと大きく相違する
場合でも、入力画像と予測画像との誤差を小さくできる
効果がある。
【0092】請求項5記載の発明によれば、符号化手段
により符号化された差分画像及び動きベクトルを蓄積す
るとともに、その蓄積量に応じて局部復号化画像生成手
段の量子化値を制御するように構成したので、一定のビ
ットレートで符号化ビットストリームを画像復号化器に
出力できる効果がある。
【0093】請求項6記載の発明によれば、量子化制御
手段により蓄積される差分画像及び動きベクトルの蓄積
量に応じて第1の記憶手段に対する第2の記憶手段の記
憶時間の遅れを制御するように構成したので、一定のビ
ットレートで符号化ビットストリームを画像復号化器に
出力できる効果がある。
【0094】請求項7記載の発明によれば、入力画像と
予測画像の差分画像に基づいてシーンチェンジを検出す
るとともに、当該シーンチェンジを検出したとき、局部
復号化画像生成手段により生成された局部復号化画像を
第2の記憶手段に記憶させるように構成したので、入力
画像に対して極めて相関が低いシーンチェンジが起こる
前の局部復号化画像が第2の記憶手段に記憶されるのを
防止することができ、その結果、入力画像と予測画像と
の誤差を小さくできる効果がある。
【0095】請求項8記載の発明によれば、第1の記憶
手段により記憶された復号化画像よりも所定時間前に、
復号化画像生成手段により生成された復号化画像を記憶
する第2の記憶手段を設け、第1又は第2の記憶手段に
より記憶された復号化画像と復号化画像生成手段により
復号化された動きベクトルとに基づいて予測画像を生成
するように構成したので、請求項1記載の発明等に係る
画像符号化器から送られてくる符号化ビットストリーム
から精度よく復号化画像を生成できる効果がある。
【0096】請求項9記載の発明によれば、画像符号化
器が各セグメント領域毎に動き補償を実行する場合に
は、第1又は第2の記憶手段により記憶された各セグメ
ント領域毎の復号化画像を組み合わせて予測画像を生成
するように構成したので、請求項2記載の発明等に係る
画像符号化器から送られてくる符号化ビットストリーム
から精度よく復号化画像を生成できる効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による画像符号化器
を示す構成図である。
【図2】 ブロックベース予測部14の詳細を示す構成
図である。
【図3】 セグメントベース予測部15の詳細を示す構
成図である。
【図4】 セグメントベース予測部15の予測画像決定
部31〜34の詳細を示す構成図である。
【図5】 選択部16の詳細を示す構成図である。
【図6】 ブロックベース予測部14の動作を説明する
説明図である。
【図7】 セグメントパターンを示す説明図である。
【図8】 セグメントベース予測部15の動作を説明す
る説明図である。
【図9】 予測用パラメータEpを示す構成図である。
【図10】 この発明の実施の形態4による画像符号化
器を示す構成図である。
【図11】 この発明の実施の形態5による画像符号化
器のセグメントベース予測部15の詳細を示す構成図で
ある。
【図12】 この発明の実施の形態6による画像符号化
器のセグメントベース予測部15の詳細を示す構成図で
ある。
【図13】 セグメントパターンを示す説明図である。
【図14】 セグメントパターンのレベルを示す説明図
である。
【図15】 この発明の実施の形態7による画像符号化
器を示す構成図である。
【図16】 この発明の実施の形態8による画像符号化
器を示す構成図である。
【図17】 この発明の実施の形態9による画像復号化
器を示す構成図である。
【図18】 モード選択部110の詳細を示す構成図で
ある。
【図19】 予測モードEmを示す説明図である。
【図20】 従来の画像符号化器を示す構成図である。
【符号の説明】
1 減算器(局部復号化画像生成手段)、2 変換部
(局部復号化画像生成手段)、3 量子化部(局部復号
化画像生成手段)、5 逆量子化部(局部復号化画像生
成手段)、6 逆変換部(局部復号化画像生成手段)、
7 加算器(局部復号化画像生成手段)、11,105
STFM(第1の記憶手段)、12,106 遅延時
間制御部(第2の記憶手段)、13,107 LTFM
(第2の記憶手段)、14 ブロックベース予測部(予
測手段、第1の予測部)、15 セグメントベース予測
部(予測手段、第2の予測部)、16 選択部(予測手
段)、17 可変長符号化部(符号化手段)、18 バ
ッファ(量子化制御手段)、19 量子化制御部(量子
化制御手段)、71 領域画像分割部(画像分割部)、
81 遅延時間決定部(遅延時間制御手段)、91 シ
ーンチェンジ検出部(シーンチェンジ検出手段)、10
1 可変長復号化部(復号化画像生成手段)、102
逆量子化部(復号化画像生成手段)、103 逆変換部
(復号化画像生成手段)、104 加算器(復号化画像
生成手段)、108 ブロックベース画像生成部(予測
画像生成手段)、109 セグメントベース画像生成部
(予測画像生成手段)、110 モード選択部(予測画
像生成手段)。

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 入力画像と予測画像の差分画像を量子化
    するとともに、その量子化した差分画像を逆量子化し、
    その逆量子化した差分画像に当該予測画像を加算して局
    部復号化画像を生成する局部復号化画像生成手段と、上
    記局部復号化画像生成手段により生成された局部復号化
    画像を記憶する第1の記憶手段と、上記第1の記憶手段
    により記憶された局部復号化画像よりも所定時間前に、
    上記局部復号化画像生成手段により生成された局部復号
    化画像を記憶する第2の記憶手段と、上記第1及び第2
    の記憶手段により記憶された局部復号化画像を参照して
    上記入力画像の動き補償を実行し、上記予測画像及び動
    きベクトルを決定する予測手段と、上記局部復号化画像
    生成手段により量子化された差分画像及び上記予測手段
    により決定された動きベクトルを符号化する符号化手段
    とを備えた画像符号化器。
  2. 【請求項2】 予測手段は、第1及び第2の記憶手段に
    より記憶された局部復号化画像を参照して入力画像のフ
    レームを構成するブロック毎に動き補償を実行し、予測
    画像,動きベクトル及び予測誤差を生成する第1の予測
    部と、上記第1及び第2の記憶手段により記憶された局
    部復号化画像を参照して入力画像のフレームを構成する
    ブロック内のセグメント領域毎に動き補償を実行し、予
    測画像,動きベクトル及び予測誤差を生成する第2の予
    測部と、上記第1の予測部により生成された予測誤差と
    上記第2の予測部により生成された予測誤差との偏差を
    求め、その偏差に応じて何れか一方の予測部により生成
    された予測画像及び動きベクトルを選択する選択部とを
    有することを特徴とする請求項1記載の画像符号化器。
  3. 【請求項3】 第2の予測部は、入力画像を分析して複
    数のセグメント領域に分割する画像分割部を有すること
    を特徴とする請求項2記載の画像符号化器。
  4. 【請求項4】 第2の予測部は、複数の領域形状パター
    ンと画像分割部により分割された入力画像との近似度を
    それぞれ計算して最も近似度の高い領域形状パターンを
    抽出し、最も近似度の高い領域形状パターンを構成する
    セグメント領域毎に動き補償を実行することを特徴とす
    る請求項3記載の画像符号化器。
  5. 【請求項5】 符号化手段により符号化された差分画像
    及び動きベクトルを蓄積するとともに、その蓄積量に応
    じて局部復号化画像生成手段の量子化値を制御する量子
    化制御手段を設けたことを特徴とする請求項1から請求
    項4のうちのいずれか1項記載の画像符号化器。
  6. 【請求項6】 量子化制御手段により蓄積される差分画
    像及び動きベクトルの蓄積量に応じて第1の記憶手段に
    対する第2の記憶手段の記憶時間の遅れを制御する遅延
    時間制御手段を設けたことを特徴とする請求項5記載の
    画像符号化器。
  7. 【請求項7】 入力画像と予測画像の差分画像に基づい
    てシーンチェンジを検出するとともに、当該シーンチェ
    ンジを検出したとき、局部復号化画像生成手段により生
    成された局部復号化画像を第2の記憶手段に記憶させる
    シーンチェンジ検出手段を設けたことを特徴とする請求
    項1から請求項6のうちのいずれか1項記載の画像符号
    化器。
  8. 【請求項8】 符号化された差分画像及び動きベクトル
    を復号化するとともに、その復号化した差分画像を逆量
    子化し、その逆量子化した差分画像に予測画像を加算し
    て復号化画像を生成する復号化画像生成手段と、上記復
    号化画像生成手段により生成された復号化画像を記憶す
    る第1の記憶手段と、上記第1の記憶手段により記憶さ
    れた復号化画像よりも所定時間前に、上記復号化画像生
    成手段により生成された復号化画像を記憶する第2の記
    憶手段と、上記第1又は第2の記憶手段により記憶され
    た復号化画像と上記復号化画像生成手段により復号化さ
    れた動きベクトルとに基づいて上記予測画像を生成する
    予測画像生成手段とを備えた画像復号化器。
  9. 【請求項9】 予測画像生成手段は、画像符号化器が各
    セグメント領域毎に動き補償を実行する場合には、第1
    又は第2の記憶手段により記憶された各セグメント領域
    毎の復号化画像を組み合わせて予測画像を生成すること
    を特徴とする請求項8記載の画像復号化器。
JP27964196A 1995-11-02 1996-10-22 動画像符号化装置及び動画像復号化装置 Expired - Lifetime JP3347954B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27964196A JP3347954B2 (ja) 1995-11-02 1996-10-22 動画像符号化装置及び動画像復号化装置
US08/976,956 US5926225A (en) 1995-11-02 1997-11-24 Image coder which includes both a short-term frame memory and long-term frame memory in the local decoding loop

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP28599495 1995-11-02
JP7-285994 1995-11-02
JP27964196A JP3347954B2 (ja) 1995-11-02 1996-10-22 動画像符号化装置及び動画像復号化装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002199040A Division JP4326758B2 (ja) 1995-11-02 2002-07-08 動画像符号化装置及び動画像復号化装置

Publications (2)

Publication Number Publication Date
JPH09187015A true JPH09187015A (ja) 1997-07-15
JP3347954B2 JP3347954B2 (ja) 2002-11-20

Family

ID=26553415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27964196A Expired - Lifetime JP3347954B2 (ja) 1995-11-02 1996-10-22 動画像符号化装置及び動画像復号化装置

Country Status (2)

Country Link
US (1) US5926225A (ja)
JP (1) JP3347954B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003531532A (ja) * 2000-04-14 2003-10-21 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
JP2003333602A (ja) * 2002-05-03 2003-11-21 Lg Electronics Inc 動画コーディング方法
WO2006028156A1 (ja) * 2004-09-10 2006-03-16 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
WO2006035883A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
JP2006518560A (ja) * 2003-01-09 2006-08-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 映像符号化方法及びデバイス
WO2007102511A1 (ja) * 2006-03-09 2007-09-13 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
JP2009071879A (ja) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp 動画像予測装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2403618A (en) * 2000-05-10 2005-01-05 Picturetel Corp Video coding using multiple buffers
GB2381403B (en) * 2000-05-10 2004-12-01 Picturetel Corp Video coding using multiple buffers
GB2362532B (en) * 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding
JP2003006643A (ja) * 2001-06-25 2003-01-10 Canon Inc 画像処理装置及びその方法、プログラム
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
JP2004007563A (ja) * 2002-04-19 2004-01-08 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
EP1383339A1 (en) * 2002-07-15 2004-01-21 Matsushita Electric Industrial Co., Ltd. Memory management method for video sequence motion estimation and compensation
CN101039424B (zh) * 2002-07-15 2010-05-26 株式会社日立制作所 动态图像编码方法
US7933335B2 (en) * 2004-11-30 2011-04-26 Panasonic Corporation Moving picture conversion apparatus
WO2007043609A1 (ja) * 2005-10-14 2007-04-19 Nec Corporation 画像符号化方法及び、これを用いた装置とコンピュータプログラム
EP1944978A1 (en) * 2007-01-12 2008-07-16 Koninklijke Philips Electronics N.V. Method and system for encoding a video signal. encoded video signal, method and system for decoding a video signal
CN102113326A (zh) 2008-08-04 2011-06-29 杜比实验室特许公司 重叠块差异估计和补偿体系结构
US9232233B2 (en) * 2011-07-01 2016-01-05 Apple Inc. Adaptive configuration of reference frame buffer based on camera and background motion
BR112014010193B1 (pt) 2011-10-28 2022-09-20 Samsung Electronics Co., Ltd Método para previsão inter, método para compensação de movimento, aparelho para previsão inter, aparelho para compensação de movimento, e mídia de gravação legível por computador
SG11201402160XA (en) 2011-11-08 2014-08-28 Samsung Electronics Co Ltd Method and apparatus for motion vector determination in video encoding or decoding
US10805627B2 (en) 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
US10136155B2 (en) 2016-07-27 2018-11-20 Cisco Technology, Inc. Motion compensation using a patchwork motion field

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2514114B2 (ja) * 1991-01-31 1996-07-10 株式会社グラフィックス・コミュニケーション・テクノロジーズ 動画像符号化装置
US5317397A (en) * 1991-05-31 1994-05-31 Kabushiki Kaisha Toshiba Predictive coding using spatial-temporal filtering and plural motion vectors
JP3200196B2 (ja) * 1992-10-15 2001-08-20 株式会社リコー 動きベクトル検出方法
JPH06225288A (ja) * 1993-01-28 1994-08-12 Toshiba Corp 動き補償予測符号化および復号化装置
JP2500439B2 (ja) * 1993-05-14 1996-05-29 日本電気株式会社 動画像の予測符号化方式
JP3228638B2 (ja) * 1994-06-08 2001-11-12 松下電器産業株式会社 背景差分法を用いた移動体検出方法

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071879A (ja) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp 動画像予測装置
JP2011250470A (ja) * 1997-02-13 2011-12-08 Mitsubishi Electric Corp 動画像予測方法
JP2009071877A (ja) * 1997-02-13 2009-04-02 Mitsubishi Electric Corp 動画像予測装置及び動画像予測方法
JP2003531532A (ja) * 2000-04-14 2003-10-21 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
JP4805518B2 (ja) * 2000-04-14 2011-11-02 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
US8976866B2 (en) 2002-05-03 2015-03-10 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
JP2003333602A (ja) * 2002-05-03 2003-11-21 Lg Electronics Inc 動画コーディング方法
US9872039B2 (en) 2002-05-03 2018-01-16 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9860556B2 (en) 2002-05-03 2018-01-02 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9124890B2 (en) 2002-05-03 2015-09-01 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9106891B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9106890B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9106889B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9008183B2 (en) 2002-05-03 2015-04-14 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8982955B2 (en) 2002-05-03 2015-03-17 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8982954B2 (en) 2002-05-03 2015-03-17 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8565306B2 (en) 2002-05-03 2013-10-22 Lg Electronics Inc. Method of determining motion vectors for an image block
US8582651B2 (en) 2002-05-03 2013-11-12 Lg Electronics Inc. Method of decoding a current image block
US8630349B2 (en) 2002-05-03 2014-01-14 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8630348B2 (en) 2002-05-03 2014-01-14 Lg Electronics Inc. Method of predicting an image block
US8634468B2 (en) 2002-05-03 2014-01-21 Lg Electronics Inc. Method of decoding a current image block
US8638857B2 (en) 2002-05-03 2014-01-28 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8743960B2 (en) 2002-05-03 2014-06-03 Lg Electronics Inc. Method of decoding a bi-predictive image block
US8798156B2 (en) 2002-05-03 2014-08-05 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8811489B2 (en) 2002-05-03 2014-08-19 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8837596B2 (en) 2002-05-03 2014-09-16 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8842737B2 (en) 2002-05-03 2014-09-23 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8842736B2 (en) 2002-05-03 2014-09-23 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8848796B2 (en) 2002-05-03 2014-09-30 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8848797B2 (en) 2002-05-03 2014-09-30 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8040949B2 (en) 2003-01-09 2011-10-18 The Regents Of The University Of California Video encoding methods and devices
JP2006518560A (ja) * 2003-01-09 2006-08-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 映像符号化方法及びデバイス
WO2006028156A1 (ja) * 2004-09-10 2006-03-16 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
US7792373B2 (en) 2004-09-10 2010-09-07 Pioneer Corporation Image processing apparatus, image processing method, and image processing program
JPWO2006035883A1 (ja) * 2004-09-30 2008-07-31 パイオニア株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2006035883A1 (ja) * 2004-09-30 2006-04-06 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム
JP4520994B2 (ja) * 2004-09-30 2010-08-11 パイオニア株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8139877B2 (en) 2006-03-09 2012-03-20 Pioneer Corporation Image processing apparatus, image processing method, and computer-readable recording medium including shot generation
JP4866417B2 (ja) * 2006-03-09 2012-02-01 パイオニア株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2007102511A1 (ja) * 2006-03-09 2007-09-13 Pioneer Corporation 画像処理装置、画像処理方法、および画像処理プログラム

Also Published As

Publication number Publication date
JP3347954B2 (ja) 2002-11-20
US5926225A (en) 1999-07-20

Similar Documents

Publication Publication Date Title
JPH09187015A (ja) 画像符号化器及び画像復号化器
EP0874526B1 (en) Motion compensation encoding apparatus and motion compensation encoding method for high-efficiency encoding of video information through selective use of previously derived motion vectors in place of motion vectors derived from motion estimation
KR0148154B1 (ko) 움직임크기에 따른 동영상데이타의 부호화방법 및 장치
KR20060044942A (ko) 라인 및 컬럼 벡터를 사용한 움직임 벡터 추정
JPH05137131A (ja) フレーム間動き予測方法
JPS61114677A (ja) 動画像信号の適応予測符号化復号化方式及びその装置
KR20040016856A (ko) 동화상 압축 부호화장치 및 모션벡터 검출방법
KR101519653B1 (ko) 이미지 무손실 및 손실 압축 장치
JP4326758B2 (ja) 動画像符号化装置及び動画像復号化装置
JPS6171786A (ja) 動画像信号の動静分離装置
JP4571173B2 (ja) 動画像復号化装置
JP4875187B2 (ja) 動画像復号化装置
JP2006254485A (ja) 動画像復号化装置
JPH0546155B2 (ja)
JPS61164390A (ja) 動画像信号のフレ−ム間、フレ−ム内適応予測符号化装置
JPH08154250A (ja) 動画像符号化装置
JPH02298184A (ja) 動き補償付フレーム間予測復号化装置の適応フレーム内挿方式
JPH09139949A (ja) フィードバック制御付ビデオエンコーダ
JP2574572B2 (ja) 画像符号化方法及び画像符号化装置
JPS60229484A (ja) 動画像信号の符号化・復号化装置
JP3400428B2 (ja) 画像伝送方法
JPH06319124A (ja) 画像データ変換装置及びその逆変換装置
JPH08172631A (ja) 画像予測符号化方法
KR100474268B1 (ko) 임베디드 시스템에서 메모리 대역 및 계산 복잡도를줄이기 위한 다중참조영상 압축방법
KR970003794B1 (ko) 동영상 부호화장치

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130906

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term