JP2004007766A - Moving image coding device and moving image coding method - Google Patents

Moving image coding device and moving image coding method Download PDF

Info

Publication number
JP2004007766A
JP2004007766A JP2003203769A JP2003203769A JP2004007766A JP 2004007766 A JP2004007766 A JP 2004007766A JP 2003203769 A JP2003203769 A JP 2003203769A JP 2003203769 A JP2003203769 A JP 2003203769A JP 2004007766 A JP2004007766 A JP 2004007766A
Authority
JP
Japan
Prior art keywords
prediction
prediction mode
information
signal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003203769A
Other languages
Japanese (ja)
Other versions
JP3756897B2 (en
Inventor
Yoshihiro Kikuchi
菊池 義浩
Toshiaki Watanabe
渡邊 敏明
Kenji Datake
駄竹 健志
Takashi Ida
井田 孝
Noboru Yamaguchi
山口 昇
Takeshi Nakajo
中條 健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003203769A priority Critical patent/JP3756897B2/en
Publication of JP2004007766A publication Critical patent/JP2004007766A/en
Application granted granted Critical
Publication of JP3756897B2 publication Critical patent/JP3756897B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image coding device whose error resistance is high. <P>SOLUTION: This moving image coding device is provided with: a means for dividing an input image into a plurality of blocks; a means for performing in a prediction mode selected from a plurality of prediction modes including a motion compensation mode and an in-frame mode for each block to generate a prediction signal; a means for subjecting a prediction residual signal being an error signal between an input moving image signal to DCT(discrete cosine transformation) and a prediction signal to obtain DCT coefficients; a means for quantizing the DCT coefficients; and a multiplexing means for arranging information indicating the prediction mode of the frame in the picture header of each frame of the input image, putting together, for a plurality of blocks, information indicating the predication mode related to each block, motion vector information detected when the motion compensated prediction mode is selected and the information of the DCT coefficients related to each block behind the picture header, and arranging those pieces of information in the descending order of significance for multiplexing them. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、動画像信号を高能率に圧縮符号化する動画像符号化装置及び動画像符号化方法に係り、特に伝送路/蓄積媒体での誤りに強い動画像符号化装置及び動画像符号化方法に関する。
【0002】
【従来の技術】
TV電話、TV会議システム、携帯情報端末、ディジタルビデオディスクシステムおよびディジタルTV放送システムなどのように動画像信号を伝送/蓄積するシステムにおいては、動画像信号をできるだけ少ない情報量に圧縮符号化し、得られた圧縮符号化信号である符号列を伝送路/蓄積媒体へ伝送/蓄積し、伝送/蓄積された符号列を復号化することによって元の動画像信号を再生する。
【0003】
このようなシステムに適用される動画像信号の圧縮符号化技術として、動き補償、離散コサイン変換(DCT)、サブバンド符号化、ピラミッド符号化等の方式や、これらを組み合わせた方式など様々な方式が開発されている。また、動画像の圧縮符号化の国際標準方式としてISO・MPEG1、MPEG2、ITU−T・H.261,H.262が規定されている。これらの符号化方式は、いずれも動き補償適応予測と離散コサイン変換の組み合わせを基本とした方式であり、文献1:安田浩編著、“マルチメディア符号化の国際標準”、丸善、(平成3年6月)等にその詳細が述べられている。
【0004】
ところで、このようにして動画像信号を符号化して得られた符号列を無線伝送路のような誤りが生じやすい媒体を介して伝送/蓄積する場合、復号化側で再生される画像信号が伝送/蓄積の際の誤りにより劣化してしまうことがある。このような誤りの対策として、例えば誤り確率の異なる複数の伝送路を介して符号列を伝送できる条件下では、誤りによる画質劣化を少なくするため、符号列をいくつかの階層に分けて、上位階層の符号列はより誤り確率の低い伝送路で伝送を行う階層的符号化方式が知られている。階層の切り分けとしては、モード情報、動き補償情報、画像信号の低周波成分を上位階層とし、画像信号の高周波数成分を上位階層とする方法等が提案されている。
【0005】
従来の階層的動画像符号化装置の例として、動き補償適応予測とDCTを用いた動画像符号化装置を図5により説明する。図5において、入力動画像信号11はまず予測回路12で予測に供される。予測回路12においては、入力動画像信号11とフレームメモリ13に蓄えられている既に符号化/局部復号化によって得られた参照画像信号との間の動きベクトルが検出され、この動きベクトルに基づいて所定の単位領域(予測領域という)毎に動き補償予測が行われ、動き補償予測信号が作成される。
【0006】
予測回路12は、動き補償予測モード(フレーム間予測モード)と入力動画像信号11をそのまま符号化するフレーム内予測モードを持っており、これらの予測モードから符号化に最適なモードを選択して、それぞれのモードに対応する予測信号14を出力する。すなわち、予測回路12は動き補償予測モードでは動き補償予測信号、フレーム内予測モードでは“0”をそれぞれ予測信号14として出力する。
【0007】
減算器15では、入力動画像信号11から予測信号14が減算されることにより予測残差信号16が生成される。予測残差信号16は、離散コサイン変換(DCT)回路17において一定の大きさのブロック単位で離散コサイン変換され、DCT係数情報18となる。DCT係数情報18は、量子化回路19で量子化される。フレーム内予測モードでは予測信号14は“0”であるから、減算器15からは予測残差信号16として入力動画像信号11がそのまま出力される。
【0008】
量子化回路19からの量子化されたDCT係数情報20は二分岐され、一方では第1の可変長符号化回路21により可変長符号化され、他方では逆量子化回路22により逆量子化される。逆量子化回路22の出力は、逆離散コサイン変換(逆DCT)回路23により逆離散コサイン変換される。すなわち、逆量子化回路22および逆DCT回路23では量子化回路19およびDCT回路17と逆の処理が行われ、逆DCT回路23の出力には予測残差信号16に近似した信号が得られる。逆DCT回路23の出力は、加算回路24において予測回路12からの予測信号14と加算され、局部復号信号25が生成される。この局部復号信号25はフレームメモリ13に参照画像信号として記憶される。
【0009】
予測回路12からは、予測に関わる情報として予測モード/動きベクトル情報26が出力され、可変長符号化回路27により可変長符号化される。可変長符号化回路21,27から出力される符号列は、マルチプレクサ30により多重化されるとともに、上位階層符号列31および下位階層符号列32に分けられ、図示しない伝送路/蓄積媒体へ出力される。すなわち、上位階層符号列31は伝送/蓄積による誤りが生じる確率が比較的低い伝送路/蓄積媒体に出力され、下位階層符号列32は伝送/蓄積による誤りが生じる確率が比較的高い伝送路/蓄積媒体に出力される。
【0010】
ここで、マルチプレクサ30での上位階層符号列31と下位階層符号列32の切り分けは、例えば図6に示すように可変長符号化回路22からの予測回路12での予測モードを表わすモード情報、動きベクトル情報(MV)および可変長符号回路21からの可変長符号化されたDCT係数情報のうちの低域DCT係数情報を上位階層符号列31に当て、可変長符号回路21からの可変長符号化されたDCT係数情報のうちの残った高域DCT係数情報を下位階層符号列32に当てるというように行う。
【0011】
このような従来の階層的動画像符号化装置には、以下のような問題がある。まず、誤りが生じると画質が大きく劣化する動きベクトル情報が各予測領域毎に一つずつしか無いために、動きベクトル情報に誤りが生じると、その予測領域については動き情報を全く復号化できなくなり、大きな画質劣化を生じるという点である。このような画質劣化を少なくするためには、図6(a)に示すように動きベクトル情報(MV)は全て上位階層符号列31に当てればよい。しかし、一般に各階層の符号列の符号量が全階層の符号列の総符号量中で取り得る割合には制限があり、このように全ての動きベクトル情報を上位階層符号列31に含めた場合には、この制限を越えてしまうことがある。これを防ぐために動きベクトル情報を下位階層符号列32に当てると、誤り耐性が大幅に低下してしまうという問題が発生する。
【0012】
また、伝送/蓄積される符号列31,32の各符号語は可変長符号化回路21,27で作成される可変長符号により構成されているので、誤りによって復号化の際に可変長符号の同期外れが起こることがある。ところが、従来の動画像符号化装置では図6に示すように各階層の符号列31,32内に、誤りが生じると復号化画像に大きな劣化を生じるモード情報、動きベクトル情報といった重要な予測に関わる情報と、誤りが生じてもそれほど大きな劣化を生じない予測残差信号のDCT係数情報等が混在して多重化されている。このため、重要でない情報が乗っている符号語の復号化中に同期外れが生じると、重要な情報が乗っている符号語にも誤りを波及させてしまうことがあり、復号画像に大きな劣化を生じさせる。このような場合には、同期符号が現れるまでは同期回復を図ることができないため、それまでの復号画像の情報は全て誤ったものとなり、画面内の広範囲にわたって大きな劣化が生じてしまうという問題がある。
【0013】
【発明が解決しようとする課題】
上述したように従来の動画像符号化装置においては、誤りが生じると復号画像の品質を大きく低下させてしまう動きベクトル情報のような予測に関わる情報が各予測領域毎に一つずつしか符号化されていないため、誤り耐性が低い。
【0014】
誤り耐性を高めるためには、全ての予測に係る情報を誤り確率の低い伝送路/蓄積媒体によって伝送/蓄積しなければならないが、各階層の符号列の符号量が全階層の符号列の総符号量中で取り得る割合に制限があるため、結果的に誤り確率の異なる複数の伝送路/蓄積媒体を用いて符号列の伝送/蓄積を行うことで誤りによる画質劣化を緩和するという階層的符号化の特徴を生かせないという問題が起こる。
【0015】
また、従来の動画像符号化装置では予測に関わる情報のような比較的重要な情報と、それ以外の比較的重要でない情報が混在して符号列中に含まれているために、重要でない情報で生じた誤りが重要な情報に波及して大きな画質劣化を生じるという問題があった。
【0016】
従って、本発明は誤り耐性の高い動画像符号化装置及び動画像符号化方法を提供することを目的とする。
【0017】
【課題を解決するための手段】
上記の課題を解決するため、本発明は入力動画像信号をなす入力画像を複数のブロックに分割し、ブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号をDCT変換してDCT係数を求め、該DCT係数を量子化する動画像符号化を行うに際して、前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及び該予測モードを示す情報より比較的重要度の低い情報をそれぞれ複数ブロック分まとめ、複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該比較的重要度の低い情報を重要度の高い順に並べて多重化することを特徴とする。
【0018】
また、本発明は同様の動画像符号化を行うに際して、前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及びDCT係数の情報をそれぞれ複数ブロック分まとめ、複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該DCT係数の情報を重要度の高い順に並べて多重化することを特徴とする。
【0019】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。図1は、本発明による動画像符号化装置の一実施形態のブロック図であり、動き補償適応予測とDCTを組み合わせた動画像符号化装置に本発明を適用した例を示している。
【0020】
図1において、入力動画像信号101はまず予測回路102での予測に供される。すなわち、予測回路102においては入力動画像信号101とフレームメモリ103に蓄えられている既に符号化/局部復号化によって得られた参照画像信号との間の動きベクトルが検出され、この動きベクトルに基づいて動き補償予測信号が作成される。予測回路102は、動き補償予測モード(フレーム間予測モード)と入力動画像信号101をそのまま符号化するフレーム内予測モードを持っており、符号化に最適な予測モードを選択して、それぞれのモードに対応する予測信号104を出力する。すなわち、予測回路102は動き補償予測モードでは動き補償予測信号、フレーム内予測モードでは“0”を予測信号104としてそれぞれ出力する。
【0021】
減算器105では、入力動画像信号101から予測信号104が減算されることにより予測残差信号106が生成される。予測残差信号106は、離散コサイン変換(DCT)回路107において一定の大きさのブロック単位で離散コサイン変換され、DCT係数情報108となる。DCT係数情報108は、量子化回路109で量子化される。なお、フレーム内予測モードでは、予測信号104は“0”であるから、減算器105からは予測残差信号106として入力動画像信号101がそのまま出力される。
【0022】
量子化回路109からの量子化されたDCT係数情報110は二分岐され、一方では第1の可変長符号化回路111により可変長符号化され、他方では逆量子化回路112により逆量子化される。逆量子化回路112の出力は逆離散コサイン変換(逆DCT)回路113により逆離散コサイン変換される。すなわち、逆量子化回路112および逆DCT回路113では量子化回路109およびDCT回路107と逆の処理が行われ、逆DCT回路113の出力に予測残差信号106に近似した信号が得られる。逆DCT回路113の出力は加算回路114において予測回路102からの予測信号104と加算され、局部復号信号115が生成される。この局部復号信号115は、フレームメモリ103に参照画像信号として記憶される。
【0023】
予測回路102からは後述するように、予測に関わる情報として大領域予測モード/動きベクトル情報116および小領域予測モード/動きベクトル情報117が出力され、可変長符号化回路118および119によりそれぞれ可変長符号化される。可変長符号化回路111,118および119から出力される符号列は、マルチプレクサ120により多重化されるとともに、上位階層符号列121および下位階層符号列122に分けられ、図示しない伝送路/蓄積媒体へ出力される。
【0024】
ここで、符号列を誤り確率が異なる複数の伝送路/蓄積媒体を介して伝送/蓄積を行うことが可能な条件下では、上位階層符号列121についてはより誤り確率の低い伝送路/蓄積媒体を介して伝送/蓄積を行い、下位階層符号列122についてはこれより誤り確率の高い伝送路/蓄積媒体を介して伝送/蓄積を行うことにより、上位階層符号列121にはできるだけ誤りが生じにくいようにする。また、符号化列121,122に対して誤り訂正符号化を行う場合には、上位階層符号化列121は下位階層符号化列122に比べて誤り率が低くなるように、より強力な誤り訂正符号化を行う。
【0025】
次に、図2を参照して予測回路102の構成および動作を詳細に説明する。予測回路102においては、入力動画像信号101を上位段階から下位段階にわたって順次より多くの領域に段階的に分割し、各段階で分割された領域毎に入力動画像信号に対する動き補償予測を行って予測信号を生成する。図2の例では、予測回路102での領域分割および予測を2段階としている。すなわち、予測回路102は第1段階では入力動画像信号101を図2中実線の領域(大領域という)で示すように大きく分割し、これらの大領域について粗い画素精度で動き補償予測を行い、次いで第2段階では必要に応じて大領域を図中破線の領域(小領域という)に示すようにさらに細かく分割し、これらの小領域について細かな画素精度で動き補償予測を行う。
【0026】
そして、可変長符号化回路118,119により、予測回路102から出力される大領域についての予測に関する情報のみでなく、小領域についても大領域についての予測に関する情報を符号化する。このようにすることにより、もし小領域についての予測に関する情報が誤りにより失われた場合でも、復号化装置では大領域についての予測に関する情報が誤り無く復号化されれば、大まかな精度で予測を行うことができ、復号画像の画質の大きな劣化を防ぐことができる。
【0027】
予測回路102から出力される予測に関わる情報は、予測モードを示す情報と動きベクトルを示す情報からなる。大領域の予測モードを示す情報と動きベクトル(図2中実線の矢印で示す)を示す情報、すなわち大領域予測モード/動きベクトル情報116は、可変長符号化回路118で可変長符号化される。この際、動きベクトル情報については、隣接する既に符号化した大領域の動きベクトル情報との差分を可変長符号化してもよいし、差分をとらずにそのまま固定長符号化しても良い。また、ある間隔の領域毎に動きベクトル情報を固定長符号化し、それ以外の領域の動きベクトル情報を可変長符号化するようにしても良い。
【0028】
一方、小領域の予測モードを示す情報と動きベクトル(図2中破線の矢印で示す)を示す情報、すなわち小領域予測モード/動きベクトル情報117は、可変長符号化回路119で可変長符号化される。この場合、各小領域毎に動きベクトル情報と大領域動きベクトル情報との差分をとって可変長符号化しても良いし、各大領域毎にまとめてブロック符号化、ベクトル量子化等を用いて符号化を行っても良い。差分値を可変長符号化する場合、大領域動きベクトルが小領域動きベクトルを基に可逆の関数(例えば平均値)で表せるようにすれば、小領域動きベクトルの中のある一つについては大領域動きベクトルと他の小領域動きベクトルを基に計算により求めることが可能であるため、特に符号化の必要はない。
【0029】
図3は、上位階層符号列121および下位階層符号列122の構成例を示したものである。図3(a)に示す上位階層符号列121には、1符号化フレーム毎またはある領域単位毎に、先頭に一意に復号化可能な同期符号を入れる。PSCがフレーム単位の同期符号を示している。この同期符号PSCの後ろには、当該フレームの符号化情報を示すピクチャヘッダをつける。ピクチャヘッダは、当該フレームの時間的位置を示すフレーム番号、当該フレームの予測モードを示す情報(モード情報)、当該フレームの上位階層および下位階層それぞれの符号列の長さを示す情報(符号量)からなる。
【0030】
さらに、図3(a)に示すようにピクチャヘッダに大領域および小領域の大きさと動き補償の画素精度を示す情報(大領域MC精度、小領域MC精度)を追加すれば、動き補償の精度をフレーム単位に可変化して動きベクトル情報の符号量を制御することが可能になる。これにより、伝送路/蓄積媒体等の制約で上位階層符号列121と下位階層符号列122の符号量の割合が規定されている場合にも、それに対応した符号量振り分けが可能である。また、各フレームの動きベクトル情報の総符号量の制御もできるため、動き補償精度と動きベクトル情報の符号量の関係からみて最適な動き補償精度を選択することが可能であり、それによって符号化効率の向上を図ることができる。
【0031】
図3(a)に示す上位階層符号列121のピクチャヘッダの後ろには、各領域の符号化情報が重要度の高い情報から順番に並べられている点が特徴的である。ここで重要度の高い情報とは、誤りが生じると復号画像に大きな劣化が生じてしまう情報のことである。すなわち、上位階層符号列121のピクチャヘッダの後ろには、まず最も重要度の高い予測モードを示す情報(モード情報)、つまり予測回路102から出力される大領域予測モード/動きベクトル情報116および小領域予測モード情報117を可変長符号化回路118で符号化して得られた符号列のうちの予測モード情報の符号列を入れる。
【0032】
次に、フレーム内予測モードが選択された領域のDCT係数情報のDC成分 (イントラDC)、つまり予測残差信号106をDCT回路107および量子化回路109を通して得たDCT係数情報を可変長符号化回路111で符号化して得られた符号列のうちのDC成分の符号列を入れる。さらに、動き補償予測モードが選択された領域では、大まかな動き情報を示す大領域動きベクトル情報(大領域MV)、つまり予測回路102から出力される大領域予測モード/動きベクトル情報116を可変長符号化回路118で符号化して得られた符号列のうちの動きベクトル情報の符号列を入れる。
【0033】
一方、図3(b)に示す下位階層符号列122には、小領域の動きベクトル情報(小領域MV)、つまり予測回路102から出力される小領域予測モード/動きベクトル情報117を可変長符号化回路119で符号化して得られた符号列のうちの動きベクトル情報の符号列を入れ、さらにその後ろにDCT係数情報の高周波成分、つまり予測残差信号106をDCT回路107および量子化回路109を通して得たDCT係数情報を可変長符号化回路111で符号化して得られた符号列のうちの高周波成分の符号列を入れる。
【0034】
このように動き補償予測を階層化して行い、予測モードを示すモード情報や大まかな予測情報を示す大領域動きベクトル情報を上位階層符号列121に、また精細な動きベクトル情報を下位階層符号列122にそれぞれ割り当てている。従って、伝送路/蓄積媒体での誤りによって下位階層符号列122に含まれる小領域動きベクトル情報が失われた場合でも、動画像復号化装置では上位階層符号列121に含まれる大領域動きベクトル情報を用いて大まかな精度で動き補償予測を行うことができるため、復号画像に大幅な画質劣化が生じる確率を低くすることができる。
【0035】
また、本実施形態では上位および下位の各階層符号列121,122内でも符号列を重要な情報の順に並べているため、重要でない情報で生じた誤りが重要な情報にまで波及することが無く、大幅な画質劣化を防ぐことができる。
【0036】
次に、本発明による動画像復号化装置の一実施形態について説明する。図4は、図1の動画像符号化装置に対応した動画像復号化装置の構成を示すブロック図である。
【0037】
図4において、図1の動画像符号化装置から出力される上位階層符号列121および下位階層符号列122が伝送路/蓄積媒体を介して入力されてきた上位階層符号列201および下位階層符号列202は、デマルチプレクサ203により量子化DCT係数情報の可変長符号204、大領域予測モード/動きベクトル情報の可変長符号205および小領域予測モード/動きベクトル情報の可変長符号206に分離された後、可変長復号化回路207,208および209にそれぞれ入力される。
【0038】
可変長復号化回路207は、可変長符号204を可変長復号化することにより量子化DCT係数情報210を出力する。この量子化DCT係数情報210は、逆量子化回路213により逆量子化され、さらに逆DCT回路214で逆離散コサイン変換されることにより予測残差信号215が生成される。この予測残差信号215は、加算回路216で予測回路217からの予測信号219と加算され、再生画像信号221が生成される。再生画像信号221は、動画像復号化装置の外部へ出力されるとともに、フレームメモリ218に参照画像信号として記憶される。
【0039】
一方、可変長復号化回路208,209では可変長符号205,206から大領域予測モード/動きベクトル情報211および小領域予測モード/動きベクトル情報212が可変長復号化される。これらの情報211,212は、予測回路217へ入力される。予測回路217は、フレームメモリ218に記憶されている参照画像信号と大領域予測モード/動きベクトル情報211および小領域予測モード/動きベクトル情報212から動画像信号の予測を行い、予測信号219を生成する。
【0040】
誤り判定回路220は、デマルチプレクサ203および可変長復号化回路207,208,209の状態に基づいて上位階層符号列201および下位階層符号列202の誤りの有無を判定し、その判定結果を予測回路217に与える。誤り判定回路220で上位および下位階層符号列201,202のいずれにも誤りが検出されなかった場合、予測回路217はフレームメモリ218に記憶されている参照画像信号を基にして、図1における予測信号104と同一の予測信号219を出力する。
【0041】
以上の処理は、図1の動画像符号化装置に対応して画像信号を再生する処理であり、逆量子化回路213、逆DCT回路214、加算回路216、フレームメモリ218が行う処理は、それぞれ図1における逆量子化回路112、逆DCT回路113、加算回路114、フレームメモリ103の処理と基本的に同一である。また、可変長復号化回路207,208,209、マルチプレクサ203は、それぞれ図1における可変長符号化回路111,118,119、マルチプレクサ120の処理の逆の処理を行う。
【0042】
一方、誤り判定回路220で上位および下位階層符号列201,202の少なくとも一方に誤りが検出された場合は、例えば以下のように誤りが検出された情報よりも重要度の高い情報を用いて再生画像が作成される。
【0043】
すなわち、(1)下位階層符号列122に含まれる動き補償予測が行われたブロックのDCT係数情報に誤りが検出された場合は、そのブロックの予測残差信号を0とし、正しく復号化されたモード情報、大領域動きベクトル情報および小領域動きベクトル情報を用いて得られた動き補償予測信号を予測信号219として再生画像信号221を得る。
【0044】
また、(2)小領域動きベクトル情報に誤りが生じた場合には、その小領域については大領域動きベクトル情報を用いて得られた動き補償予測信号を予測信号219として再生画像信号221を得る。
【0045】
さらに、(3)大領域動きベクトル情報に誤りが生じた場合には、その大領域については周囲の領域や既に復号化されたフレームの動きベクトル情報からその大領域の動き補償予測をできる時にはその推定値を用い、周囲の動きベクトル情報にも誤りが生じている場合には既に復号化されたフレームの画像信号をそのまま再生画像信号221として用いる。
【0046】
(4)フレーム内予測モードが選択されたブロックのDCT係数情報のAC成分に誤りが生じた場合には、DCT係数情報のDC成分と周囲ブロックの正しく復号化された画像信号からそのブロックの画像信号を予測して再生画像信号221とするか、既に復号化されたフレームの画像信号から周囲ブロックの正しく復号化された画像信号の予測信号を用いてそのブロックの画像信号を予測して再生画像信号221とする。
【0047】
ところで、各種情報の符号化に可変長符号を用いている場合、誤りにより同期外れが起こり、同期符号検出等により同期回復が図られるまで後続の符号に誤りが波及することがある。そのような場合は後続の符号は復号化には用いない。例えば、下位階層符号列122中の小領域動きベクトル情報に誤りが生じた場合、その小領域以降の動きベクトル情報とそれに続くDCT係数情報に誤りが波及することがあるが、そのような場合には誤りの波及している情報は復号化には用いない。このような同期外れが生じた場合でも、符号列には重要度の高い順に符号語が並べられているため、重要度の低い情報で生じた誤りが重要度の高い情報にまで波及することがなく、再生画像の大幅な劣化を防ぐことができる。
【0048】
誤り判定部220で符号列201,202に誤りが発生していることを検出する具体的な方法としては、以下の方法を挙げることができる。
【0049】
第1は、パリティ符号、CRC符号等の誤り検出符号を用いる方法である。この場合、図1に示した動画像符号化装置のマルチプレクサ120において可変長符号に対して誤り検出符号化を行い、図4に示す動画像復号化装置のデマルチプレクサ203において誤り検出処理を行い、その検出結果を誤り判定部220に与える。
【0050】
第2は、可変長復号化回路207,208,209において、入力の符号語と出力値との対応関係を表わした符号語テーブル中に存在しない符号語が検出された場合に、それを誤りと判定する方法である。特に、可変長符号を用いている場合には、誤りが検出された部分だけでなくその前後の符号列中にも誤りが波及していることがあるので、当該符号語全てに対して誤り検出処理を行う。
【0051】
第3は、復号化された符号語を基に再生された動きベクトル情報、予測信号、DCT係数情報、予測残差信号、再生画像信号等が動画像の符号化において生じ得ない信号であるか否かを判定することにより誤り判定を行う方法である。この方法を用いることは本発明において特徴的であるため、より詳細に説明する。
【0052】
例えば、動きベクトル情報に示される動きベクトルが予め規定された探索範囲を超えていたり、画面外へはみ出している場合には誤りと判定する。
【0053】
また、逆量子化回路213で逆量子化されたDCT係数情報を判定することにより、誤りを検出することも可能である。入力画像信号101の画素値の取り得る範囲を0〜D−1、DCTブロックサイズをN×Nとすると、DCT係数は以下の範囲内の値をとる。
【0054】
<フレーム内予測モード>   DC成分:0〜N×D   AC成分:−(N/2×D)〜(N/2×D)  <フレーム間予測モード>   −(N/2×D)〜(N/2×D) そこで、復号化されたDCT係数の値がこの範囲外の値を取った場合には誤りと判定する。この場合、誤りが検出されたブロックについてはその全てあるいは一部のDCT係数を0とするか、復号値を周囲のブロックの復号値から推定すれば良い。
【0055】
さらに、再生画像信号221の画素値で誤りを判定することも可能である。入力画像信号101の画素値の取り得る範囲を0〜D−1、DCTブロックサイズをN×N、量子化幅をQ(線形量子化の場合)とすると、再生画像信号221の画素値の取り得る範囲は   −N×Q〜D+N×Q となる。そこで、復号化された再生画像信号221の画素値がこの範囲を超えた場合には誤りと判定する。その場合、例えばフレーム間予測モード(動き補償予測モード)では予測残差信号215を“0”とし、フレーム内予測モードでは逆DCT回路214への入力のDCT係数のうち一部を“0”として逆DCTを行って再生画像信号221を得るようにするか、または再生画像信号221の周囲のブロックの画素値から推定を行えば良い。
【0056】
以上のように、本発明では動画像復号化装置における誤り判定部220での誤り判定に、再生された情報や信号が伝送路/蓄積媒体において生じ得ない情報や信号であるか否かの判定も加えることによって、より正確な誤り判定を行うことができるようになる。このため、誤りが生じた情報や信号を誤り処理をせずにそのまま動画像信号の再生に用いることによって生じる再生画像の品質劣化を抑えることができる。
【0057】
本発明は、種々変形して実施することができる。例えば、上記実施形態では動画像符号化装置から出力される符号列を2階層に分ける例を示したが、3階層以上に分けて符号化を行っても良い。例えば、フレーム同期符号(PSC)、ピクチャヘッダ、モード情報を最上位の第1階層とし、フレーム内予測モードでのDCT係数情報のDC成分(イントラDC)と大領域動きベクトル情報を第2階層、小領域動きベクトル情報を第3階層、第1階層に割り当てたDCT係数情報以外のDCT係数情報を第4階層にそれぞれ割り当ててもよい。また、DCT係数を低域成分と高域成分というようにさらにいくつかの階層に分けて符号化を行っても良い。
【0058】
また、大領域動きベクトル情報の符号化において、前記のように固定長符号化を行う動きベクトル情報と、この固定長符号化を行う動きベクトル情報との差分を可変長符号化する動きベクトル情報の2通りに分けて符号化する場合には、同期外れによって後ろの符号列に誤りが波及することがない固定長符号化された動きベクトル情報をフレームないしはある領域単位にまとめて先に入れ、その後ろに可変長符号化された動きベクトル情報を入れるようにすることが有効である。このようにすると、可変長符号化部分で誤りが発生して同期外れが起こっても、可変長符号化された動きベクトル情報には誤りが波及しないため、復号化の際に固定長符号化された動きベクトル情報を基に誤りが生じた動きベクトルを推定して大まかな精度で予測信号を作成することが可能であるため、誤りによる再生画像の画質劣化を小さくすることができる。
【0059】
なお、図4の動画像復号化装置において再生された情報が動画像符号化において生じ得ない情報であるか否かを判定する方法は、階層符号化された符号列に限らず、一般の動画像符号化装置により得られた符号列から元の画像信号を復号化する動画像復号化装置にも適用することが可能である。
【0060】
【発明の効果】
以上説明したように、本発明によれば誤り耐性の高い、つまり符号化列の伝送/蓄積の際に生じる誤りによる復号画像の画質劣化が小さい動画像符号化装置及び動画像符号化方法を提供することができる。
【図面の簡単な説明】
【図1】本発明による動画像符号化装置の一実施形態を示すブロック図
【図2】図1の動画像符号化装置における動き補償領域とそれに対応する動きベクトルを示す図
【図3】図1の動画像符号化装置から出力される上位階層および下位階層符号列の例を示す図
【図4】図1の動画像符号化装置に対応する動画像復号化装置の一実施形態を示すブロック図
【図5】従来の動画像符号化装置の例を示すブロック図
【図6】図5の動画像符号化装置から出力される符号列の例を示す図
【符号の説明】
101…入力画像信号
102…予測回路
103…フレームメモリ
104…予測信号
105…減算器
106…予測残差信号
107…離散コサイン変換回路
108…DCT係数情報
109…量子化回路
110…量子化DCT係数情報
111…可変長符号化回路
112…逆量子化回路
113…逆離散コサイン変換回路
114…加算器
115…局部復号信号
116…大領域予測モード/動きベクトル情報
117…小領域予測モード/動きベクトル情報
118,119…可変長符号化回路
120…マルチプレクサ
121…上位階層符号列
122…下位階層符号列
201…上位階層符号列
202…下位階層符号列
203…デマルチプレクサ
204〜206…可変長符号
207〜209…可変長符号化回路
210…量子化DCT係数
211…大領域予測モード/動きベクトル情報
212…小領域予測モード/動きベクトル情報
213…逆量子化回路
214…逆離散コサイン変換回路
215…予測残差信号
216…加算器
217…予測回路
218…フレームメモリ
219…予測信号
220…誤り判定回路
221…再生画像信号
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving picture coding apparatus and a moving picture coding method for compressively coding a moving picture signal with high efficiency, and more particularly to a moving picture coding apparatus and a moving picture coding which are resistant to errors in a transmission path / storage medium. About the method.
[0002]
[Prior art]
2. Description of the Related Art In a system for transmitting / storing a moving image signal such as a TV phone, a TV conference system, a portable information terminal, a digital video disk system, and a digital TV broadcasting system, the moving image signal is compression-encoded to a minimum amount of information and obtained. The code sequence, which is the compression-encoded signal, is transmitted / stored in a transmission path / storage medium, and the transmitted / stored code sequence is decoded to reproduce the original moving image signal.
[0003]
Various techniques such as motion compensation, discrete cosine transform (DCT), sub-band coding, pyramid coding, and a combination of these techniques are available as compression coding techniques for video signals applied to such a system. Is being developed. In addition, ISO / MPEG1, MPEG2, ITU-T / H. 261, H .; 262 are defined. Each of these coding systems is a system based on a combination of motion compensated adaptive prediction and discrete cosine transform. Reference 1: edited by Hiroshi Yasuda, “International Standard for Multimedia Coding”, Maruzen, (1991 (June) and the like.
[0004]
By the way, when transmitting / accumulating a code sequence obtained by encoding a moving image signal in such a way as to cause an error-prone medium such as a wireless transmission path, the image signal reproduced on the decoding side is transmitted. / Degradation may occur due to an error during storage. As a countermeasure against such errors, for example, under a condition that a code string can be transmitted through a plurality of transmission paths having different error probabilities, the code string is divided into several layers to reduce image quality deterioration due to errors, and Hierarchical coding schemes for transmitting a hierarchical code string through a transmission path with a lower error probability are known. As a method of classifying layers, a method has been proposed in which mode information, motion compensation information, a low-frequency component of an image signal is set as an upper layer, and a high-frequency component of an image signal is set as an upper layer.
[0005]
As an example of a conventional hierarchical video encoding device, a video encoding device using motion compensated adaptive prediction and DCT will be described with reference to FIG. In FIG. 5, an input video signal 11 is first subjected to prediction by a prediction circuit 12. The prediction circuit 12 detects a motion vector between the input video signal 11 and a reference video signal already stored in the frame memory 13 and obtained by encoding / local decoding, and based on this motion vector, Motion compensation prediction is performed for each predetermined unit area (referred to as a prediction area), and a motion compensation prediction signal is created.
[0006]
The prediction circuit 12 has a motion compensation prediction mode (inter-frame prediction mode) and an intra-frame prediction mode for encoding the input video signal 11 as they are, and selects an optimal mode for encoding from these prediction modes. , And outputs a prediction signal 14 corresponding to each mode. That is, the prediction circuit 12 outputs a motion compensation prediction signal as the motion compensation prediction signal in the motion compensation prediction mode and “0” as the prediction signal 14 in the intra-frame prediction mode.
[0007]
The subtractor 15 subtracts the prediction signal 14 from the input video signal 11 to generate a prediction residual signal 16. The prediction residual signal 16 is subjected to discrete cosine transform by a discrete cosine transform (DCT) circuit 17 in units of blocks of a fixed size, and becomes DCT coefficient information 18. The DCT coefficient information 18 is quantized by a quantization circuit 19. Since the prediction signal 14 is “0” in the intra-frame prediction mode, the input video signal 11 is output from the subtracter 15 as the prediction residual signal 16 as it is.
[0008]
The quantized DCT coefficient information 20 from the quantization circuit 19 is bifurcated, one is variable-length encoded by a first variable-length encoding circuit 21, and the other is inversely quantized by an inverse quantization circuit 22. . The output of the inverse quantization circuit 22 is subjected to inverse discrete cosine transform by an inverse discrete cosine transform (inverse DCT) circuit 23. That is, in the inverse quantization circuit 22 and the inverse DCT circuit 23, the inverse processing of the quantization circuit 19 and the DCT circuit 17 is performed, and a signal similar to the prediction residual signal 16 is obtained at the output of the inverse DCT circuit 23. The output of the inverse DCT circuit 23 is added to the prediction signal 14 from the prediction circuit 12 in the addition circuit 24, and a local decoded signal 25 is generated. This local decoded signal 25 is stored in the frame memory 13 as a reference image signal.
[0009]
The prediction mode / motion vector information 26 is output from the prediction circuit 12 as information relating to prediction, and is subjected to variable length coding by a variable length coding circuit 27. The code strings output from the variable length coding circuits 21 and 27 are multiplexed by the multiplexer 30 and divided into an upper layer code string 31 and a lower layer code string 32, which are output to a transmission path / storage medium (not shown). You. That is, the upper layer code string 31 is output to a transmission line / storage medium with a relatively low probability of occurrence of an error due to transmission / storage, and the lower layer code string 32 is output to a transmission line / path having a relatively high probability of an error due to transmission / storage. Output to the storage medium.
[0010]
Here, the separation of the upper-layer code sequence 31 and the lower-layer code sequence 32 by the multiplexer 30 is performed by, for example, the mode information indicating the prediction mode in the prediction circuit 12 from the variable-length coding circuit 22 as shown in FIG. The low band DCT coefficient information of the vector information (MV) and the variable length coded DCT coefficient information from the variable length coding circuit 21 is applied to the upper layer code sequence 31, and the variable length coding from the variable length coding circuit 21 is performed. The remaining high frequency DCT coefficient information of the obtained DCT coefficient information is applied to the lower layer code sequence 32.
[0011]
Such a conventional hierarchical video encoding device has the following problems. First, if an error occurs, the image quality is greatly degraded.Since there is only one motion vector information for each prediction region, if an error occurs in the motion vector information, no motion information can be decoded for that prediction region. That is, the image quality is greatly deteriorated. In order to reduce such image quality deterioration, all the motion vector information (MV) may be applied to the upper layer code sequence 31 as shown in FIG. However, in general, there is a limit on the ratio of the code amount of the code sequence of each layer to the total code amount of the code sequence of all layers. Thus, when all the motion vector information is included in the upper layer code sequence 31, May exceed this limit. If the motion vector information is applied to the lower hierarchical code sequence 32 in order to prevent this, a problem occurs that error resilience is greatly reduced.
[0012]
Also, since each code word of the transmitted / stored code strings 31 and 32 is composed of a variable length code created by the variable length encoding circuits 21 and 27, the variable length code is generated at the time of decoding due to an error. Out of sync may occur. However, in the conventional moving picture coding apparatus, as shown in FIG. 6, important predictions such as mode information and motion vector information in which a decoded picture is greatly degraded when an error occurs are shown in the code strings 31 and 32 of each layer. Related information and DCT coefficient information of a prediction residual signal that does not cause significant degradation even when an error occurs are mixed and multiplexed. For this reason, if out-of-synchronization occurs during the decoding of a codeword carrying insignificant information, errors may propagate to the codeword carrying important information, resulting in a large degradation in the decoded image. Cause. In such a case, the synchronization cannot be recovered until the synchronization code appears, so that all the information of the decoded image up to that point becomes erroneous and a large deterioration occurs in a wide area in the screen. is there.
[0013]
[Problems to be solved by the invention]
As described above, in the conventional video coding apparatus, only one prediction-related information, such as motion vector information, which greatly reduces the quality of a decoded image when an error occurs, is encoded for each prediction region. Error tolerance is low.
[0014]
In order to increase the error resilience, all information related to prediction must be transmitted / stored by a transmission line / storage medium with a low error probability. Since there is a limit to the ratio that can be taken in the code amount, a hierarchical structure is obtained in which the transmission / storage of the code sequence using a plurality of transmission paths / storage media having different error probabilities results in mitigating image quality degradation due to errors. A problem arises in that the characteristics of encoding cannot be used.
[0015]
Further, in the conventional video coding apparatus, since relatively important information such as information related to prediction and other relatively insignificant information are mixed and included in a code string, unimportant information However, there is a problem in that the error generated in the above has an influence on important information and causes a large deterioration in image quality.
[0016]
Accordingly, an object of the present invention is to provide a moving picture coding apparatus and a moving picture coding method having high error resilience.
[0017]
[Means for Solving the Problems]
In order to solve the above problem, the present invention divides an input image forming an input video signal into a plurality of blocks, and selects an input image from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each block. A prediction residual signal which is an error signal between a prediction signal generated when the prediction is performed in the motion compensation prediction mode and the input moving image signal, or a prediction in the intra-frame prediction mode. When the input moving image signal is subjected to DCT conversion to obtain DCT coefficients and the moving image coding for quantizing the DCT coefficients is performed, a prediction mode of the frame is included in a picture header of each frame of the input image. After the picture header, information indicating a prediction mode and information indicating the prediction mode among information related to prediction of each block. Relatively low importance information is collected for each of a plurality of blocks, and the information indicating the prediction mode for the plurality of blocks and the relatively low importance information for the plurality of blocks are arranged and multiplexed in ascending order of importance. It is characterized by the following.
[0018]
Further, when performing the same moving image encoding, the present invention arranges information indicating a prediction mode of the frame in a picture header of each frame of the input image, and behind the picture header, relates to prediction of each block. The information indicating the prediction mode and the information of the DCT coefficient among the information are grouped into a plurality of blocks, respectively, and the information indicating the prediction mode obtained by grouping a plurality of blocks and the information of the DCT coefficient obtained by grouping the plurality of blocks are arranged and multiplexed in descending order of importance. Is characterized in that
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an embodiment of a moving picture coding apparatus according to the present invention, and shows an example in which the present invention is applied to a moving picture coding apparatus combining motion compensation adaptive prediction and DCT.
[0020]
In FIG. 1, an input video signal 101 is first subjected to prediction by a prediction circuit 102. That is, the prediction circuit 102 detects a motion vector between the input video signal 101 and the reference video signal already stored in the frame memory 103 and obtained by encoding / local decoding, and based on this motion vector, Thus, a motion compensation prediction signal is created. The prediction circuit 102 has a motion compensation prediction mode (inter-frame prediction mode) and an intra-frame prediction mode for encoding the input moving image signal 101 as it is. Is output. That is, the prediction circuit 102 outputs a motion compensation prediction signal as the motion compensation prediction signal in the motion compensation prediction mode and “0” as the prediction signal 104 in the intra-frame prediction mode.
[0021]
In the subtractor 105, a prediction residual signal 106 is generated by subtracting the prediction signal 104 from the input moving image signal 101. The prediction residual signal 106 is subjected to discrete cosine transform by a discrete cosine transform (DCT) circuit 107 in units of blocks of a fixed size, and becomes DCT coefficient information 108. The DCT coefficient information 108 is quantized by a quantization circuit 109. In the intra-frame prediction mode, since the prediction signal 104 is “0”, the input video signal 101 is output from the subtracter 105 as the prediction residual signal 106 as it is.
[0022]
The quantized DCT coefficient information 110 from the quantization circuit 109 is bifurcated, one is variable-length encoded by a first variable-length encoding circuit 111, and the other is inversely quantized by an inverse quantization circuit 112. . The output of the inverse quantization circuit 112 is subjected to inverse discrete cosine transform by an inverse discrete cosine transform (inverse DCT) circuit 113. That is, in the inverse quantization circuit 112 and the inverse DCT circuit 113, the inverse processing of the quantization circuit 109 and the DCT circuit 107 is performed, and a signal similar to the prediction residual signal 106 is obtained in the output of the inverse DCT circuit 113. The output of the inverse DCT circuit 113 is added to the prediction signal 104 from the prediction circuit 102 in an addition circuit 114, and a local decoded signal 115 is generated. The local decoded signal 115 is stored in the frame memory 103 as a reference image signal.
[0023]
As will be described later, the large area prediction mode / motion vector information 116 and the small area prediction mode / motion vector information 117 are output from the prediction circuit 102 as information relating to the prediction, and the variable length encoding circuits 118 and 119 output the variable length coding modes 118 and 119, respectively. Encoded. The code strings output from the variable length coding circuits 111, 118, and 119 are multiplexed by the multiplexer 120, divided into an upper layer code string 121 and a lower layer code string 122, and transmitted to a transmission path / storage medium (not shown). Is output.
[0024]
Here, under the condition that the code string can be transmitted / stored through a plurality of transmission paths / storage media with different error probabilities, the transmission path / storage medium with a lower error probability is used for the upper layer code string 121. , And the lower-layer code sequence 122 is transmitted / stored through a transmission path / storage medium with a higher error probability, so that an error is less likely to occur in the upper-layer code sequence 121 as much as possible. To do. When error correction coding is performed on the coded sequences 121 and 122, stronger error correction is performed so that the upper layer coded sequence 121 has a lower error rate than the lower layer coded sequence 122. Perform encoding.
[0025]
Next, the configuration and operation of the prediction circuit 102 will be described in detail with reference to FIG. In the prediction circuit 102, the input video signal 101 is sequentially divided into more and more regions from an upper stage to a lower stage, and motion compensation prediction is performed on the input video signal for each of the regions divided at each stage. Generate a prediction signal. In the example of FIG. 2, the region division and prediction in the prediction circuit 102 are performed in two stages. That is, in the first stage, the prediction circuit 102 divides the input video signal 101 into large areas as shown by solid-line areas (referred to as large areas) in FIG. 2 and performs motion compensation prediction with coarse pixel accuracy on these large areas. Next, in the second stage, the large area is divided into smaller areas as necessary, as indicated by broken lines in the figure (called small areas), and motion compensation prediction is performed on these small areas with fine pixel accuracy.
[0026]
Then, the variable length encoding circuits 118 and 119 encode not only the information about the prediction for the large area output from the prediction circuit 102 but also the information about the prediction for the large area for the small area. By doing in this way, even if the information about the prediction for the small area is lost due to an error, the decoding apparatus can perform the prediction with a rough accuracy if the information about the prediction for the large area is decoded without error. This can prevent the degradation of the image quality of the decoded image.
[0027]
The information related to prediction output from the prediction circuit 102 includes information indicating a prediction mode and information indicating a motion vector. The information indicating the prediction mode of the large area and the information indicating the motion vector (indicated by a solid arrow in FIG. 2), that is, the large area prediction mode / motion vector information 116, are variable-length coded by the variable-length coding circuit 118. . At this time, with respect to the motion vector information, the difference from the motion vector information of the adjacent already coded large area may be variable-length coded, or may be fixed-length coded without taking the difference. Alternatively, the motion vector information may be fixed-length coded for each region at a certain interval, and the motion vector information for the other regions may be variable-length coded.
[0028]
On the other hand, the information indicating the prediction mode of the small area and the information indicating the motion vector (indicated by the dashed arrow in FIG. 2), that is, the small area prediction mode / motion vector information 117 are subjected to the variable length coding Is done. In this case, the difference between the motion vector information and the large area motion vector information may be obtained for each small area and variable length coding may be performed, or block coding, vector quantization, etc. may be collectively performed for each large area. Encoding may be performed. In the case where the difference value is variable-length coded, if a large area motion vector can be represented by a reversible function (for example, an average value) based on the small area motion vector, one of the small area motion vectors is large. Since it can be obtained by calculation based on the area motion vector and other small area motion vectors, there is no particular need for encoding.
[0029]
FIG. 3 shows a configuration example of the upper layer code sequence 121 and the lower layer code sequence 122. In the upper layer code sequence 121 shown in FIG. 3A, a synchronous code that can be uniquely decoded is inserted at the head for each encoded frame or for each area. PSC indicates a frame-based synchronization code. A picture header indicating the coding information of the frame is attached after the synchronization code PSC. The picture header includes a frame number indicating a temporal position of the frame, information indicating a prediction mode of the frame (mode information), and information indicating a length of a code string of each of an upper layer and a lower layer of the frame (code amount). Consists of
[0030]
Furthermore, as shown in FIG. 3A, if information (large area MC precision, small area MC precision) indicating the size of the large area and the small area and the pixel precision of the motion compensation is added to the picture header, the accuracy of the motion compensation is increased. Can be varied in frame units to control the code amount of the motion vector information. Accordingly, even when the ratio of the code amount of the upper layer code sequence 121 to the code amount of the lower layer code sequence 122 is defined by the restriction of the transmission path / storage medium, etc., the code amount distribution corresponding to the ratio is possible. In addition, since the total code amount of the motion vector information of each frame can be controlled, it is possible to select the optimal motion compensation accuracy in view of the relationship between the motion compensation accuracy and the code amount of the motion vector information. Efficiency can be improved.
[0031]
The characteristic feature is that, behind the picture header of the upper layer code sequence 121 shown in FIG. 3A, the coded information of each area is arranged in order from the information having the highest importance. Here, the information having a high degree of importance is information that causes a large deterioration in a decoded image when an error occurs. That is, after the picture header of the upper layer code sequence 121, first, information (mode information) indicating the prediction mode with the highest importance, that is, the large area prediction mode / motion vector information 116 output from the prediction circuit 102 and the small The code sequence of prediction mode information among the code sequences obtained by encoding the region prediction mode information 117 by the variable length coding circuit 118 is entered.
[0032]
Next, the DC component (intra DC) of the DCT coefficient information in the region where the intra-frame prediction mode is selected, that is, the DCT coefficient information obtained by passing the prediction residual signal 106 through the DCT circuit 107 and the quantization circuit 109 is subjected to variable-length coding. The code string of the DC component of the code string obtained by encoding in the circuit 111 is inserted. Further, in an area where the motion compensation prediction mode is selected, large area motion vector information (large area MV) indicating rough motion information, that is, large area prediction mode / motion vector information 116 output from the prediction circuit 102 is variable length. The code sequence of the motion vector information in the code sequence obtained by encoding by the encoding circuit 118 is entered.
[0033]
On the other hand, in the lower layer code sequence 122 shown in FIG. 3B, the motion vector information (small region MV) of the small region, that is, the small region prediction mode / motion vector information 117 output from the prediction circuit 102 is a variable length code. A code string of motion vector information in the code string obtained by encoding by the quantization circuit 119 is inserted, and a high frequency component of the DCT coefficient information, that is, the prediction residual signal 106 is further added to the code string by the DCT circuit 107 and the quantization circuit 109. The code string of the high-frequency component of the code string obtained by encoding the DCT coefficient information obtained through the above by the variable length encoding circuit 111 is entered.
[0034]
In this way, the motion compensation prediction is performed in a hierarchical manner, and mode information indicating the prediction mode and large area motion vector information indicating the rough prediction information are stored in the upper layer code string 121, and fine motion vector information is stored in the lower layer code string 122. Respectively. Therefore, even if the small area motion vector information included in the lower layer code sequence 122 is lost due to an error in the transmission path / storage medium, the moving picture decoding apparatus uses the large area motion vector information included in the upper layer code sequence 121. Can be used to perform motion compensation prediction with rough accuracy, so that the probability that significant image quality degradation will occur in the decoded image can be reduced.
[0035]
Further, in the present embodiment, since the code strings are arranged in the order of important information also in each of the upper and lower hierarchical code strings 121 and 122, errors caused by unimportant information do not spread to important information. Significant image quality degradation can be prevented.
[0036]
Next, an embodiment of the moving picture decoding apparatus according to the present invention will be described. FIG. 4 is a block diagram showing a configuration of a video decoding device corresponding to the video encoding device of FIG.
[0037]
4, an upper layer code string 121 and a lower layer code string 122 output from the moving picture coding apparatus of FIG. 1 are an upper layer code string 201 and a lower layer code string input via a transmission path / storage medium. 202 is demultiplexed by a demultiplexer 203 into a variable length code 204 for quantized DCT coefficient information, a variable length code 205 for large area prediction mode / motion vector information, and a variable length code 206 for small area prediction mode / motion vector information. , 208, and 209, respectively.
[0038]
The variable length decoding circuit 207 outputs the quantized DCT coefficient information 210 by subjecting the variable length code 204 to variable length decoding. The quantized DCT coefficient information 210 is inversely quantized by the inverse quantization circuit 213, and further subjected to inverse discrete cosine transform by the inverse DCT circuit 214 to generate the prediction residual signal 215. The prediction residual signal 215 is added by the addition circuit 216 to the prediction signal 219 from the prediction circuit 217 to generate a reproduced image signal 221. The reproduced image signal 221 is output to the outside of the video decoding device, and is stored in the frame memory 218 as a reference image signal.
[0039]
On the other hand, in the variable length decoding circuits 208 and 209, the large area prediction mode / motion vector information 211 and the small area prediction mode / motion vector information 212 are variable length decoded from the variable length codes 205 and 206. These pieces of information 211 and 212 are input to the prediction circuit 217. The prediction circuit 217 predicts a moving image signal from the reference image signal stored in the frame memory 218 and the large area prediction mode / motion vector information 211 and the small area prediction mode / motion vector information 212, and generates a prediction signal 219. I do.
[0040]
The error determination circuit 220 determines the presence or absence of an error in the upper-layer code sequence 201 and the lower-layer code sequence 202 based on the states of the demultiplexer 203 and the variable-length decoding circuits 207, 208, and 209. 217. When the error determination circuit 220 does not detect any error in any of the upper and lower hierarchical code strings 201 and 202, the prediction circuit 217 performs the prediction in FIG. 1 based on the reference image signal stored in the frame memory 218. The prediction signal 219 identical to the signal 104 is output.
[0041]
The above process is a process of reproducing an image signal corresponding to the moving picture encoding device of FIG. 1, and the processes performed by the inverse quantization circuit 213, the inverse DCT circuit 214, the addition circuit 216, and the frame memory 218 are respectively The processing is basically the same as the processing of the inverse quantization circuit 112, the inverse DCT circuit 113, the addition circuit 114, and the frame memory 103 in FIG. Further, the variable length decoding circuits 207, 208, 209 and the multiplexer 203 respectively perform processes reverse to the processes of the variable length coding circuits 111, 118, 119 and the multiplexer 120 in FIG.
[0042]
On the other hand, when an error is detected in at least one of the upper and lower hierarchical code strings 201 and 202 in the error determination circuit 220, the information is reproduced using information having higher importance than the information in which the error is detected, for example, as follows. An image is created.
[0043]
That is, (1) when an error is detected in the DCT coefficient information of a block for which motion compensation prediction has been performed, which is included in the lower layer code sequence 122, the prediction residual signal of the block is set to 0, and the block is correctly decoded. A reproduced image signal 221 is obtained using a motion compensated prediction signal obtained using the mode information, the large area motion vector information and the small area motion vector information as a prediction signal 219.
[0044]
(2) When an error occurs in the small area motion vector information, a reproduced image signal 221 is obtained for the small area using the motion compensated prediction signal obtained using the large area motion vector information as the prediction signal 219. .
[0045]
Further, (3) when an error occurs in the large area motion vector information, the motion compensation of the large area can be performed from the surrounding area or the motion vector information of the already decoded frame when the motion compensation prediction of the large area can be performed. If the estimated value is used and the surrounding motion vector information also has an error, the image signal of the already decoded frame is used as it is as the reproduced image signal 221.
[0046]
(4) When an error occurs in the AC component of the DCT coefficient information of the block for which the intra-frame prediction mode is selected, the image of the block is obtained from the DC component of the DCT coefficient information and the image signal of the surrounding block that has been correctly decoded. A signal is predicted to be a reproduced image signal 221, or an image signal of an already decoded frame is predicted by using a predicted signal of a correctly decoded image signal of a surrounding block from a previously decoded image signal of a frame. Signal 221 is assumed.
[0047]
By the way, when a variable length code is used for encoding various kinds of information, an out-of-synchronization occurs due to an error, and the error may propagate to a succeeding code until synchronization is recovered by detecting a synchronization code or the like. In such a case, the subsequent code is not used for decoding. For example, when an error occurs in the small area motion vector information in the lower layer code sequence 122, the error may propagate to the motion vector information after the small area and the DCT coefficient information following the error. Does not use the information with the error spread for decoding. Even when such out-of-synchronization occurs, codewords are arranged in the code sequence in the order of importance, so errors that occur in information of low importance can spread to information of high importance. In addition, it is possible to prevent the reproduced image from being significantly deteriorated.
[0048]
As a specific method of detecting that an error has occurred in the code strings 201 and 202 by the error determination unit 220, the following method can be given.
[0049]
The first is a method using an error detection code such as a parity code and a CRC code. In this case, error detection encoding is performed on the variable-length code in the multiplexer 120 of the video encoding device illustrated in FIG. 1, and error detection processing is performed in the demultiplexer 203 of the video decoding device illustrated in FIG. The detection result is provided to the error determination unit 220.
[0050]
Second, when the variable-length decoding circuits 207, 208, and 209 detect a codeword that does not exist in the codeword table representing the correspondence between the input codeword and the output value, it detects this as an error. This is a method of determining. In particular, when a variable length code is used, the error may spread not only in the part where the error is detected but also in the code string before and after the part, so that error detection is performed for all the codewords. Perform processing.
[0051]
Third, are the motion vector information, the prediction signal, the DCT coefficient information, the prediction residual signal, the reproduced image signal, and the like reproduced based on the decoded codeword, a signal that cannot be generated in the encoding of the moving image? This is a method of making an error judgment by judging whether or not there is no error. The use of this method is characteristic of the present invention, and will be described in more detail.
[0052]
For example, when the motion vector indicated by the motion vector information exceeds the search range defined in advance or extends off the screen, it is determined that an error has occurred.
[0053]
In addition, it is possible to detect an error by determining the DCT coefficient information that has been inversely quantized by the inverse quantization circuit 213. Assuming that the possible range of the pixel value of the input image signal 101 is 0 to D−1 and the DCT block size is N × N, the DCT coefficient takes a value within the following range.
[0054]
<Intra-frame prediction mode> DC component: 0 to N × D AC component: − (N / 2 × D) to (N / 2 × D) <Inter-frame prediction mode> − (N / 2 × D) to (N / 2 × D) Therefore, if the value of the decoded DCT coefficient takes a value outside this range, it is determined that an error has occurred. In this case, for the block in which the error is detected, all or some of the DCT coefficients may be set to 0, or the decoded value may be estimated from the decoded values of the surrounding blocks.
[0055]
Further, it is also possible to determine an error based on the pixel value of the reproduced image signal 221. Assuming that the possible range of the pixel value of the input image signal 101 is 0 to D-1, the DCT block size is N × N, and the quantization width is Q (in the case of linear quantization), the pixel value of the reproduced image signal 221 is obtained. The obtainable range is −N × Q to D + N × Q. Therefore, if the pixel value of the decoded reproduced image signal 221 exceeds this range, it is determined that an error has occurred. In this case, for example, in the inter-frame prediction mode (motion compensation prediction mode), the prediction residual signal 215 is set to “0”, and in the intra-frame prediction mode, a part of the DCT coefficients input to the inverse DCT circuit 214 is set to “0”. The reproduction image signal 221 may be obtained by performing inverse DCT, or may be estimated from the pixel values of blocks around the reproduction image signal 221.
[0056]
As described above, according to the present invention, the error determination by the error determination unit 220 in the moving picture decoding apparatus determines whether the reproduced information or signal is information or a signal that cannot occur in the transmission path / storage medium. In addition, more accurate error determination can be performed. For this reason, it is possible to suppress deterioration in the quality of a reproduced image caused by using the erroneous information or signal for reproducing the moving image signal without performing error processing.
[0057]
The present invention can be implemented with various modifications. For example, in the above-described embodiment, an example in which the code sequence output from the video encoding device is divided into two layers has been described, but encoding may be performed in three or more layers. For example, the frame synchronization code (PSC), the picture header, and the mode information are set to the first layer at the highest level, and the DC component (intra DC) of the DCT coefficient information and the large area motion vector information in the intra prediction mode are set to the second layer. DCT coefficient information other than the DCT coefficient information in which the small area motion vector information is allocated to the third layer and the first layer may be allocated to the fourth layer. Further, the DCT coefficients may be further divided into several layers such as a low-frequency component and a high-frequency component for encoding.
[0058]
In addition, in the coding of the large area motion vector information, the difference between the motion vector information for which the fixed-length coding is performed as described above and the motion vector information for which the fixed-length coding is performed is obtained by the variable-length coding. When coding is performed in two ways, fixed-length coded motion vector information in which an error does not spread to a subsequent code string due to loss of synchronization is put together in a frame or a certain area unit, and is first put. It is effective to insert the variable length coded motion vector information at the end. In this way, even if an error occurs in the variable length coded part and the synchronization is lost, the error does not propagate to the variable length coded motion vector information. Since it is possible to estimate a motion vector in which an error has occurred based on the obtained motion vector information and generate a prediction signal with rough accuracy, it is possible to reduce image quality degradation of a reproduced image due to an error.
[0059]
Note that the method of determining whether or not the information reproduced by the moving picture decoding apparatus of FIG. 4 is information that cannot be generated in moving picture coding is not limited to a hierarchically coded code string, and may be a general moving picture. The present invention can also be applied to a moving picture decoding apparatus that decodes an original image signal from a code sequence obtained by an image coding apparatus.
[0060]
【The invention's effect】
As described above, according to the present invention, there is provided a moving picture coding apparatus and a moving picture coding method with high error resilience, that is, with little degradation of the picture quality of a decoded picture due to an error occurring during transmission / storage of a coded sequence. can do.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a moving picture coding apparatus according to the present invention.
FIG. 2 is a diagram showing a motion compensation area and a motion vector corresponding to the motion compensation area in the video encoding apparatus of FIG.
FIG. 3 is a diagram showing an example of an upper layer and a lower layer code string output from the video encoding apparatus of FIG. 1;
FIG. 4 is a block diagram showing an embodiment of a video decoding device corresponding to the video encoding device of FIG. 1;
FIG. 5 is a block diagram showing an example of a conventional moving picture encoding device.
FIG. 6 is a diagram showing an example of a code string output from the moving picture coding device of FIG. 5;
[Explanation of symbols]
101: input image signal
102 ... Prediction circuit
103 ... Frame memory
104: prediction signal
105 ... Subtractor
106: prediction residual signal
107: Discrete cosine transform circuit
108 DCT coefficient information
109 ... Quantization circuit
110 Quantized DCT coefficient information
111 ... variable length coding circuit
112 ... Inverse quantization circuit
113 ... Inverse discrete cosine transform circuit
114 ... Adder
115 ... locally decoded signal
116 large area prediction mode / motion vector information
117: small area prediction mode / motion vector information
118, 119 ... variable length coding circuit
120 ... Multiplexer
121 ... upper layer code string
122... Lower-order code sequence
201: upper layer code sequence
202: Lower layer code string
203 ... Demultiplexer
204 to 206: Variable length code
207-209 ... variable length coding circuit
210: Quantized DCT coefficient
211 large area prediction mode / motion vector information
212... Small area prediction mode / motion vector information
213 ... Inverse quantization circuit
214 ... Inverse discrete cosine transform circuit
215: prediction residual signal
216 ... Adder
217 ... Prediction circuit
218 ... Frame memory
219 ... Predicted signal
220 ... Error determination circuit
221... Reproduced image signal

Claims (4)

入力動画像信号をなす入力画像を複数のブロックに分割する手段と、
ブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行う予測手段と、
前記予測手段が前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記予測手段が前記フレーム内予測モードで予測を行ったときに前記入力動画像信号をDCT変換してDCT係数を得る手段と、
DCT係数を量子化する手段とを備えた動画像符号化装置において、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及び該予測モードを示す情報より比較的重要度の低い情報をそれぞれ複数ブロック分まとめ、該複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該比較的重要度の低い情報を重要度の高い順に並べて多重化する多重化手段を具備したことを特徴とする動画像符号化装置。
Means for dividing an input image forming an input video signal into a plurality of blocks,
Prediction means for performing prediction by a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each block;
A prediction residual signal that is an error signal between a prediction signal generated when the prediction unit performs prediction in the motion compensation prediction mode and the input moving image signal, or the prediction unit performs prediction in the intra-frame prediction mode. Means for DCT transforming the input moving image signal to obtain DCT coefficients when
A moving image encoding apparatus comprising: means for quantizing DCT coefficients;
Information indicating a prediction mode of the frame is arranged in a picture header of each frame of the input image, and information indicating the prediction mode and information indicating the prediction mode among information related to prediction of each block are arranged after the picture header. The relatively less important information is grouped into a plurality of blocks, respectively, and the information indicating the prediction mode combined into the plurality of blocks and the relatively less important information combined into the plurality of blocks are arranged and multiplexed in descending order of importance. A moving picture encoding apparatus comprising a multiplexing means for performing the above operation.
入力動画像信号をなす入力画像を複数のブロックに分割する手段と、
ブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行う予測手段と、
前記予測手段が前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記予測手段が前記フレーム内予測モードで予測を行ったときに前記入力動画像信号をDCT変換してDCT係数を得る手段と、
DCT係数を量子化する手段とを備えた動画像符号化装置において、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及びDCT係数の情報をそれぞれ複数ブロック分まとめ、複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該DCT係数の情報を重要度の高い順に並べて多重化する多重化手段を具備したことを特徴とする動画像符号化装置。
Means for dividing an input image forming an input video signal into a plurality of blocks,
Prediction means for performing prediction by a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each block;
A prediction residual signal that is an error signal between a prediction signal generated when the prediction unit performs prediction in the motion compensation prediction mode and the input moving image signal, or the prediction unit performs prediction in the intra-frame prediction mode. Means for DCT transforming the input moving image signal to obtain DCT coefficients when
A moving image encoding apparatus comprising: means for quantizing DCT coefficients;
Information indicating the prediction mode of the frame is arranged in a picture header of each frame of the input image, and information indicating the prediction mode and information of the DCT coefficient among information relating to prediction of each block are arranged after the picture header. A moving picture, comprising: multiplexing means for multiplexing a plurality of blocks, information indicating the prediction mode combined for a plurality of blocks, and information of the DCT coefficients combined for a plurality of blocks in order of decreasing importance. Encoding device.
入力動画像信号をなす入力画像を複数のブロックに分割し、ブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号をDCT変換してDCT係数を求め、該DCT係数を量子化する動画像符号化方法において、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及び該予測モードを示す情報より比較的重要度の低い情報をそれぞれ複数ブロック分まとめ、複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該比較的重要度の低い情報を重要度の高い順に並べて多重化することを特徴とする動画像符号化方法。
The input image forming the input moving image signal is divided into a plurality of blocks, and prediction is performed according to a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each block. The prediction residual signal which is an error signal between the prediction signal generated when performing prediction in the prediction mode and the input video signal, or the input video signal when performing prediction in the intra-frame prediction mode. In a moving picture coding method for obtaining DCT coefficients by performing DCT transform and quantizing the DCT coefficients,
Information indicating a prediction mode of the frame is arranged in a picture header of each frame of the input image, and information indicating the prediction mode and information indicating the prediction mode among information related to prediction of each block are arranged after the picture header. The relatively less important information is collected for each of a plurality of blocks, and the information indicating the prediction mode of the plurality of blocks and the relatively less important information of the plurality of blocks are arranged and multiplexed in ascending order of importance. A moving picture coding method characterized by the above-mentioned.
入力動画像信号をなす入力画像を複数のブロックに分割し、ブロック毎に動き補償予測モードとフレーム内予測モードを含む複数の予測モードの中から選択された予測モードにより予測を行い、前記動き補償予測モードで予測を行ったときに生成される予測信号と前記入力動画像信号との誤差信号である予測残差信号、または前記フレーム内予測モードで予測を行ったときに前記入力動画像信号をDCT変換してDCT係数を求め、該DCT係数を量子化する動画像符号化方法において、
前記入力画像の各フレームのピクチャヘッダに当該フレームの予測モードを示す情報を配置し、該ピクチャヘッダの後ろに、各ブロックの予測に関わる情報のうち予測モードを示す情報及びDCT係数の情報をそれぞれ複数ブロック分まとめ、複数ブロック分まとめた該予測モードを示す情報及び複数ブロック分まとめた該DCT係数の情報を重要度の高い順に並べて多重化することを特徴とする動画像符号化方法。
The input image forming the input moving image signal is divided into a plurality of blocks, and prediction is performed according to a prediction mode selected from a plurality of prediction modes including a motion compensation prediction mode and an intra-frame prediction mode for each block. The prediction residual signal which is an error signal between the prediction signal generated when performing prediction in the prediction mode and the input video signal, or the input video signal when performing prediction in the intra-frame prediction mode. In a moving picture coding method for obtaining DCT coefficients by performing DCT transform and quantizing the DCT coefficients,
Information indicating the prediction mode of the frame is arranged in a picture header of each frame of the input image, and information indicating the prediction mode and information of the DCT coefficient among information relating to prediction of each block are arranged after the picture header. A moving picture coding method, comprising: multiplexing a plurality of blocks, information indicating the prediction mode of the plurality of blocks, and information of the DCT coefficients of the plurality of blocks, arranged in descending order of importance.
JP2003203769A 2003-07-30 2003-07-30 Moving picture coding apparatus and moving picture coding method Expired - Fee Related JP3756897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003203769A JP3756897B2 (en) 2003-07-30 2003-07-30 Moving picture coding apparatus and moving picture coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003203769A JP3756897B2 (en) 2003-07-30 2003-07-30 Moving picture coding apparatus and moving picture coding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001069357A Division JP3474860B2 (en) 2001-03-12 2001-03-12 Moving picture coding apparatus and moving picture coding method

Publications (2)

Publication Number Publication Date
JP2004007766A true JP2004007766A (en) 2004-01-08
JP3756897B2 JP3756897B2 (en) 2006-03-15

Family

ID=30438518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003203769A Expired - Fee Related JP3756897B2 (en) 2003-07-30 2003-07-30 Moving picture coding apparatus and moving picture coding method

Country Status (1)

Country Link
JP (1) JP3756897B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8428133B2 (en) 2007-06-15 2013-04-23 Qualcomm Incorporated Adaptive coding of video block prediction mode
US8571104B2 (en) 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US10306229B2 (en) 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8428133B2 (en) 2007-06-15 2013-04-23 Qualcomm Incorporated Adaptive coding of video block prediction mode
US8488668B2 (en) 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
US8520732B2 (en) 2007-06-15 2013-08-27 Qualcomm Incorporated Adaptive coding of video block prediction mode
US8571104B2 (en) 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US8619853B2 (en) 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US9578331B2 (en) 2007-06-15 2017-02-21 Qualcomm Incorporated Separable directional transforms
US10306229B2 (en) 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding

Also Published As

Publication number Publication date
JP3756897B2 (en) 2006-03-15

Similar Documents

Publication Publication Date Title
EP0732856B1 (en) Hierarchical video encoder and decoder
JP3657971B2 (en) Decoding method and apparatus
JP2004007753A (en) Image decoding method and device
JP3415548B2 (en) Moving picture decoding apparatus and moving picture decoding method
US6356661B1 (en) Method and device for robust decoding of header information in macroblock-based compressed video data
JP3756897B2 (en) Moving picture coding apparatus and moving picture coding method
JPH08251597A (en) Moving image encoding and decoding device
JP4302093B2 (en) Moving picture coding apparatus and moving picture coding method
JP3474859B2 (en) Moving picture coding apparatus and moving picture coding method
JP3756900B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756899B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474861B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756901B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756902B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3756898B2 (en) Moving picture coding apparatus and moving picture coding method
JP4302094B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474862B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3474860B2 (en) Moving picture coding apparatus and moving picture coding method
JP3905938B2 (en) Image coding apparatus and image decoding apparatus
JPH05336382A (en) In-frame encode/decode system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051222

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110106

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees