JP4140163B2 - Encoding method converter - Google Patents

Encoding method converter Download PDF

Info

Publication number
JP4140163B2
JP4140163B2 JP2000076246A JP2000076246A JP4140163B2 JP 4140163 B2 JP4140163 B2 JP 4140163B2 JP 2000076246 A JP2000076246 A JP 2000076246A JP 2000076246 A JP2000076246 A JP 2000076246A JP 4140163 B2 JP4140163 B2 JP 4140163B2
Authority
JP
Japan
Prior art keywords
parameter
color difference
image
encoding method
difference component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000076246A
Other languages
Japanese (ja)
Other versions
JP2001268578A (en
Inventor
和夫 杉本
悦久 山田
文伸 小川
光太郎 浅井
慎一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000076246A priority Critical patent/JP4140163B2/en
Publication of JP2001268578A publication Critical patent/JP2001268578A/en
Application granted granted Critical
Publication of JP4140163B2 publication Critical patent/JP4140163B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Color Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、符号化方式の異なる画像伝送端末間の通信を行う符号化方式変換装置、画像通信システム、および符号化方式変換方法に関するものである。
【0002】
【従来の技術】
動画像の符号化方式として様々な方式が提案されている。例えば低レート符号化方式として、国際標準化されたものや、標準化の検討をされつつあるものとして、ITU−T(International Telecommunication Union− Telecommunication Standardization Sector)のH.261,ISO(International Organization for Standard)/IEC(International Electrotechnical Commission)のMPEG−4(Moving Picture ExpertsGroup−4)等が挙げられる。
【0003】
これらの方式は、いずれも離散コサイン変換(DCT:Discrete Cosine Transform)器と動き補償(MC:Motion Compensation)付きフレーム間予測符号化器、可変長符号化(VLC:Variable Length Coding)器等から構成されるハイブリッド符号化方式であり、共通となる要素技術が多いものではあるが、それぞれの符号化方式には、それぞれ細部で異なる部分がある。これは標準化作業が行われた時期のH/WやS/Wの性能の限界からくるものや、使用される用途を考慮して、それぞれの方式が最適化されたためである。
【0004】
以下にH.261、MPEG−4のシンプルプロファイル方式(以下の説明では単にMPEG−4と記す)の各方式について説明する。
【0005】
図9は、上記の各方式で使用される符号化器の構成を示す図であり、図において、1は入力画像から予測画像を減算する減算器、2,11は符号化タイプを切り替えるタイプ切替スイッチ、3は直交変換を行うDCT器、4は量子化を行う量子化器、5は可変長符号化により圧縮する可変長符号化器、6は逆量子化を行う逆量子化器、7は逆DCT演算を行う逆DCT器、8は逆DCT器7の出力と予測画像を加算する加算器、9は予測参照画像を記憶するフレームメモリ、10は予測画像を生成する動き補償予測器である。
【0006】
次に動作について説明する。まず、H.261符号化方式について説明する。H.261符号化方式において画像の符号化はマクロブロック単位に行われる。1つのマクロブロックは、8画素×8ラインの輝度信号を4つ(すなわち16画素×16ラインのサイズとなる)と、8画素×8ラインの大きさの2組の色差信号から構成される。
図9において、動き補償予測器10は、マクロブロック単位に処理を行う。動きベクトルの探索は整数画素単位で行われ、探索可能な範囲はフレームメモリ9に記憶されている予測参照画像の内側である。また、色差成分の動きベクトルは、輝度成分の動きベクトルに0.5を乗じて小数点以下を切り捨てて、整数画素精度にしたものである。また、動き補償予測器にはループ内フィルタの機能も備えられており、この機能をオンにすることによって予測画像にローパスフィルタをかけることができる。
【0007】
次にMPEG−4符号化方式について説明する。
MPEG−4符号化方式においても符号化はマクロブロック単位に行われる。具体的には、図9に示す動き補償予測器10では、マクロブロック又はマクロブロックを4分割したブロック(輝度信号では8画素×8ラインに相当する。この予測方式を4V予測と呼ぶことにする)を単位に処理を行う。動きベクトルの探索は、0.5画素単位で行われ、探索可能な範囲は、フレームメモリ9に記憶されている予測参照画像の内側、及び予測参照画像の一部を含む外側(非制限動き補償と呼ぶこととする)である。
【0008】
図10は上記のような異なった符号化方式を備えた端末間の画像通信システムを示す図であり、図において、101はH.261符号化器を備えた送信器、102はMPEG−4復号器を備えた受信器である。また、103は上記送信器101と受信器102とを中継する符号化方式変換装置である。
【0009】
図11は、図10における符号化方式変換装置103の構成を示す図であり、図において、111はH.261復号器であり、112はMPEG−4符号化器である。
【0010】
これら異なった符号化方式を備えた端末間で動画像通信を行おうとした場合、送信器101から送られてきた符号化データは、復号器111に入力して、一度画像に復号しフレームメモリ113に蓄え、通信を行う相手先の受信器102の復号方式を持つ符号化器112に、フレームメモリ113に蓄えられた画像を入力して再度符号化し、相手先の受信器102に送信している。
【0011】
【発明が解決しようとする課題】
しかし、上述の従来の符号化方式変換装置では、いったん第1の符号化方式の符号化信号の符号化方式を変換する際、符号化信号の復号を行うが、復号画像信号に対し新たに動き探索を行って動きベクトルを検出しているので、符号化方式変換装置の規模が大きくなると共に、符号化データを復号・符号化処理するために、処理遅延時間が長くなるという課題があった。
【0012】
この発明は、上記のような課題を解決するためになされたもので、規模が小さく、処理遅延時間も短く、画質劣化も少ない符号化方式変換装置、画像通信システム、および符号化方式変換方法を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る符号化方式変換装置は、入力された第1の符号化データをH.261符号化方式で可変長復号および逆量子化し、復号パラメータとして出力する符号化データ解析部と、上記符号化データ解析部から出力された復号パラメータを色差成分パラメータと輝度値成分パラメータに分離して出力するパラメータ分離部と、上記パラメータ分離部から出力された色差成分パラメータのうちのH.261符号化方式の色差成分の動きベクトルデータを用いて復号画像を生成し、色差成分画像データを出力する色差成分画像生成部と、上記パラメータ分離部から出力された輝度値成分パラメータに含まれる輝度成分動きベクトル情報から、MPEG−4符号化方式の色差成分動きベクトルを求め、この色差成分動きベクトルを用いて上記色差成分画像データに対して動き補償予測を行うことにより色差成分画像パラメータを生成し出力する色差成分画像パラメータ生成部と、上記輝度値成分パラメータと上記色差成分画像パラメータとを多重化して符号化パラメータとして出力するパラメータ多重化部と、上記符号化パラメータを上記MPEG4符号化方式で量子化および可変長符号化し、上記MPEG4符号化方式に適した形式に変換して、上記MPEG4符号化方式の符号化データとして出力する符号化データ出力部とを備えたことを特徴とする。
【0023】
【発明の実施の形態】
以下、本発明に係る符号化方式変換装置、画像通信システム、および符号化方式変換方法の実施の形態を説明する。
【0024】
実施の形態1.
図1は、本発明の実施の形態1による符号化方式変換装置103の構成例を示す図である。図1において、201は第1の符号化方式による符号化データ21を入力し、それを第1の符号化方式の可変長復号および逆量子化を行うことによって得たパラメータを復号パラメータ22として出力する符号化データ解析部、202は上記符号化データ解析部から出力された復号パラメータ22を用いて画像データ23を生成し出力する画像生成部、203は上記画像生成部202で生成された画像データ23と、上記復号パラメータ22を用いて画像パラメータ24を生成し出力する画像パラメータ生成部、204は上記復号パラメータ22と上記画像パラメータ24を多重化して符号化パラメータ25として出力するパラメータ多重化部、205は上記パラメータ多重化部204より出力された符号化パラメータ25を第2の符号化方式で可変長符号化および量子化を行い、第2の符号化方式に適した形式に変換して、第2の符号化方式による符号化データ26として出力する符号化データ出力部である。
【0025】
尚、本実施の形態1の以下の説明では、第1の符号化方式としては、H.261符号化方式を、第2の符号化方式としては、MPEG−2や、MPEG−4(シンプルプロファイル)等の符号化方式を例として説明するが、本発明では、これらの符号化方式の種類は、これらに限定されるものではない。
【0026】
次に動作について説明する。
図1において符号化データ解析部201は、H.261符号化方式による符号化データ21を入力し、それをH.261符号化方式の可変長復号および逆量子化を行うことによって得たパラメータを復号パラメータ22として画像生成部202とパラメータ多重化部204へ出力する。
【0027】
画像生成部202では、符号化データ解析部201から出力された復号パラメータ22を用いて復号画像を生成して画像データ23として画像パラメータ生成部203へ出力し、画像パラメータ生成部203は上記画像データ23と、上記復号パラメータ22を用いて画像パラメータ24を生成してパラメータ多重化部204へ出力する。
【0028】
パラメータ多重化部204は、上記復号パラメータ22と上記画像パラメータ24とを多重化して符号化パラメータ25として出力し、符号化データ出力部205は上記パラメータ多重化部204より出力された符号化パラメータ25をMPEG−4符号化方式で可変長符号化し、第2の符号化方式に適した形式に変換して、MPEG−4符号化方式による符号化データ26として出力する。
【0029】
図2は、図1における符号化データ解析部201の構成例を示す図である。図2において、301はH.261可変長復号器、302はH.261逆量子化器である。
【0030】
図2に示す符号化データ解析部201の構成の動作を説明すると、H.261可変長復号器301は受信したH.261符号化方式による符号化データ21を入力し、H.261符号化方式の可変長復号を行いH.261逆量子化器302へ出力する。H.261逆量子化器302では、H.261可変長復号器301から出力されたデータのうち量子化されたDCT係数31を入力し、そのDCT係数の部分に対してはH.261符号化方式の逆量子化を行い、他の動きベクトルなどを含むデータ32はそのままの形で復号パラメータ22として出力する。
【0031】
図3は、図1における画像生成部202の構成例を示す図である。図3において、401は逆DCT器、402は加算器、403はフレームメモリ、404は動き補償予測器、405はタイプ切替えスイッチである。
【0032】
図3に示す画像生成部202の構成の動作を説明すると、まず、逆DCT器401は、図1または図2における符号化データ解析部201から出力された復号パラメータ22のうち、逆量子化されたDCT係数41を逆DCTして出力する。加算器402は逆DCT器401から出力されたデータと動き補償予測器404からの予測画像データとを加算して、画像データ23として出力する。フレームメモリ403は加算器402から出力された画像データ23を予測参照画像として蓄える。
【0033】
そして、動き補償予測器404は、図1における符号化データ解析部201から出力された復号パラメータ22のうち、動きベクトルデータ42を用いてフレームメモリ403に蓄えられた予測参照画像から予測画像を生成して出力する。タイプ切替えスイッチ405はインター符号化等の動き補償予測を行う符号化タイプか、あるいはイントラ符号化の動き補償予測を行わない符号化タイプであるかを判断して、スイッチを切替える。
【0034】
図4は、図1における画像パラメータ生成部203の構成例を示す図である。図において、501は減算器、502はタイプ切替スイッチ、503はDCT器、504は量子化器、505は逆量子化器、506は逆DCT器、507は加算器、508はフレームメモリ、509は動き補償予測器、510はタイプ切替スイッチである。
【0035】
図4に示す画像パラメータ生成部203の構成の動作を説明すると、まず、減算器501は、図1または図3における画像生成部202から出力された画像データ23を入力し、予測画像を減算する。タイプ切替スイッチ502,510は、画像の符号化タイプに基づき符号化タイプを切り替えるよう動作する。
【0036】
すると、DCT器503は、タイプ切替スイッチ502より出力された画像データにDCT演算を施し、画像パラメータ24として出力する。量子化器504は画像パラメータ24を量子化し、逆量子化器505は量子化された画像パラメータを逆量子化し、逆DCT器506は逆量子化器505から出力されたDCT係数に逆DCT演算を施して画像データを出力する。
【0037】
加算器507は逆DCT器506から出力された画像データと、タイプ切替スイッチ510を介した動き補償予測器509からの予測画像データとを加算して、予測参照画像をフレームメモリ508へ出力する。フレームメモリ508は加算器507から出力された予測参照画像を蓄える。そして、動き補償予測器509が、図1における符号化データ解析部201から出力された復号パラメータ22に含まれる動きベクトルを用いて、フレームメモリ508に蓄えられた予測参照画像から予測画像を生成する。
【0038】
図5は、図1における符号化データ出力部205の構成例を示す図である。図5において、601はMPEG−4量子化器、602はMPEG−4可変長符号化器である。
【0039】
図5に示す符号化データ出力部205の構成の動作を説明すると、まず、MPEG−4量子化器601は図1におけるパラメータ多重化部204から出力された符号化パラメータ25のうち逆量子化されたDCT係数61をMPEG−4符号化方式の量子化を行い、他の動きベクトルなどを含むデータ62はそのまま出力する。MPEG−4可変長符号化器602はMPEG−4量子化器601から出力されたおよび動きベクトルなどを含むデータ62にMPEG−4符号化方式の可変長符号化を行い、MPEG−4符号化データ26として出力する。
【0040】
従って、本実施の形態1によれば、符号化方式変換装置103の画像生成部202や画像パラメータ生成部203では、画像データ23や画像パラメータ24を生成する際、第1の符号化方式であるH.261の符号化の際に求めた動きベクトル等を含むパラメータを復号してそれを第2の符号化方式であるMPEG−4等の符号化方式に変換する際に利用するようにしたため、新たに動きベクトルを検索する等してパラメータを求める必要が無くなり、符号化方式変換装置の規模を小さくできると共に、処理遅延時間も短くできるという効果が得られる。また、画像パラメータ生成部203によってDCT係数を再度算出するため、画質の劣化を小さくすることができるという効果が得られる。
【0041】
なお、上記の実施の形態1では、画像パラメータ生成部203において復号パラメータ22に含まれる動きベクトルを用いて画像パラメータ24を生成するよう構成したが、本発明では、これに限らず、例えば、動きベクトルの他に、CBP(Coded Block Pattern)を用いることによっても同様の効果が得られる。CBPとは、マクロブロック内の各ブロックにおいて、DCT係数のAC成分が含まれるか否かを示す情報であり、このCBPを新たに求めるのことなく、復号したCBPを出力することにより、CBPを求めるための処理や機構を不要に出来る。
【0042】
実施の形態2.
図6は、本発明の実施の形態2による符号化方式変換装置103の構成例を示す図である。図6において、201は第1の符号化方式による符号化データ21を入力し、それを第1の符号化方式の可変長復号および逆量子化を行うことによって得たパラメータを復号パラメータ22として出力する符号化データ解析部、702は符号化データ解析部201から出力された復号パラメータ22を輝度値成分パラメータ73と色差成分パラメータ74に分離して出力するパラメータ分離部、703は上記パラメータ分離部から出力された色差成分パラメータ74を用いて色差成分画像データ75を生成し出力する色差成分画像生成部、704は上記色差成分画像生成部703で生成された色差成分画像データ75と、上記輝度値成分パラメータ73を用いて色差成分画像パラメータ76を生成し出力する色差成分画像パラメータ生成部、204は上記輝度値成分パラメータ73と上記色差成分画像パラメータ76を多重化して符号化パラメータ27として出力するパラメータ多重化部、205は上記パラメータ多重化部204より出力された符号化パラメータ27を第2の符号化方式で可変長符号化および量子化を行い、第2の符号化方式に適した形式に変換して、第2の符号化方式による符号化データ28として出力する符号化データ出力部である。
【0043】
尚、本実施の形態2の以下の説明では、上記実施の形態1と同様に、第1の符号化方式としては、H.261符号化方式を、第2の符号化方式としては、MPEG−2や、MPEG−4(シンプルプロファイル)等の符号化方式を例として説明するが、本発明では、これらの符号化方式の種類は、これらに限定されるものではない。
【0044】
次に動作について説明する。
一般に、MPEG−4復号器は、H.261符号化方式の機能の大半を有しているが、色差成分に対する動きベクトルの計算方法(H.261符号化方式は整数画素精度に丸めるが、MPEG−4符号化方式は0.5画素(半画素)精度に丸める)が異なる部分である。
【0045】
そこで、本実施の形態2では、図6において、まず、符号化データ解析部201はH.261符号化方式による符号化データ21を入力し、それをH.261符号化方式の可変長復号および逆量子化を行うことによって得たパラメータを復号パラメータ22として出力する。パラメータ分離部702は符号化データ解析部201から出力された復号パラメータ22を輝度値成分パラメータ73と色差成分パラメータ74に分離して出力し、色差成分画像生成部703は上記パラメータ分離部から出力された色差成分パラメータ74を用いて復号画像の色差成分を生成して色差成分画像データ75として出力する。
【0046】
色差成分画像パラメータ生成部704は、上記色差成分画像データ75と、上記輝度値成分パラメータ73を用いて色差成分画像パラメータ76を生成して出力し、パラメータ多重化部204は上記輝度値成分パラメータ73と上記色差成分画像パラメータ76を多重化して符号化パラメータ27として出力し、符号化データ出力部205は上記パラメータ多重化部204より出力された符号化パラメータ27をMPEG−4符号化方式で可変長符号化し、第2の符号化方式に適した形式に変換して、MPEG−4符号化方式による符号化データ28として出力する。
【0047】
図7は、図6における色差成分画像生成部703の構成例を示す図である。図7において、81は逆量子化されたDCT係数、82は色差成分の動きベクトルデータ、801は逆DCT器、802は加算器、803はフレームメモリ、804は動き補償予測器、805はタイプ切替えスイッチである。
【0048】
図7に示す色差成分画像生成部703の構成の動作を説明すると、図7において、まず、逆DCT器801は図6におけるパラメータ分離部702から出力された色差成分パラメータ74のうち、色差成分の逆量子化されたDCT係数81を逆DCTして出力する。加算器802は逆DCT器801から出力されたデータと予測画像データを加算し色差成分画像データ75として出力する。フレームメモリ803は加算器802から出力された色差成分画像データ75を予測参照画像として蓄える。動き補償予測器804は図6におけるパラメータ分離部702から出力された色差成分パラメータ74のうち、色差成分の動きベクトルデータ82を用いてフレームメモリ803に蓄えられた予測参照画像から予測画像を生成して出力する。タイプ切替えスイッチ805は符号化タイプを切替えるよう動作する。
【0049】
図8は、図6における色差成分画像パラメータ生成部704の構成例を示す図である。図8において、901は減算器、902,910はタイプ切替スイッチ、903はDCT器、904量子化器、905は逆量子化器、906は逆DCT器、907は加算器、908はフレームメモリ、909は動き補償予測器である。
【0050】
図8に示す色差成分画像パラメータ生成部704の構成の動作を説明すると、図8において、まず、減算器901は図6における画像生成部703から出力された色差成分画像データ75を入力し、予測画像を減算する。タイプ切替スイッチ902,910は符号化タイプを切り替えるよう動作する。DCT器903はタイプ切替スイッチより出力された画像データにDCT演算を施し、色差成分画像パラメータ76として出力する。量子化器904は色差成分画像パラメータ76を量子化し、逆量子化器905は量子化された色差成分画像パラメータを逆量子化する。
【0051】
逆DCT器906は、逆量子化器905から出力されたDCT係数に逆DCT演算を施して画像データを出力する。加算器907は逆DCT器906から出力された画像データと予測画像データを加算し、予測参照画像を出力する。フレームメモリ908は加算器907から出力された予測参照画像を蓄える。動き補償予測器909は図6におけるパラメータ分離器702から出力された輝度値成分パラメータ73に含まれる輝度値成分に対する動きベクトルよりMPEG−4符号化方式の色差成分に対する動きベクトルを算出し、フレームメモリ908に蓄えられた予測参照画像から予測画像を生成する。
【0052】
従って、本実施の形態2によれば、符号化方式変換装置103の色差成分画像生成部703や色差成分画像パラメータ生成部704では、色差成分画像データ75や色差成分画像パラメータ76を生成する際、第1の符号化方式であるH.261の符号化の際に求めた第1の符号化方式であるH.261の符号化の際に求めた動きベクトル等を含むパラメータを復号してそれを第2の符号化方式であるMPEG−4等の符号化方式に変換する際に利用するようにしたため、新たに動きベクトルを検索する等してパラメータを求める必要が無くなり、上記実施の形態1と同様に、符号化方式変換装置の規模を小さくできると共に、処理遅延時間も短くできるという効果が得られる。
【0053】
特に、本実施の形態2では、輝度値成分に関してはDCT係数の再算出が不要にしたため、符号化方式変換装置の規模を小さくできると共に、処理遅延時間も短くできるという効果が得られる。
【0054】
また、本実施の形態2では、色差成分画像パラメータ生成部704によって色差成分のDCT係数を再度算出するため、画質の劣化を小さくすることができるという効果が得られる。
【0055】
なお、上記の実施の形態2では、色差成分画像パラメータ生成部704において輝度値成分パラメータ73に含まれる動きベクトルを用いて色差成分画像パラメータ76を生成するように説明したが、本発明ではこれに限らず、上記実施の形態1と同様に、動きベクトルの他にCBP(Coded Block Pattern)を用いることによっても同様の効果が得られる。
【発明の効果】
以上説明したように、本発明では、符号化方式変換装置の画像生成部や画像パラメータ生成部では、画像データや画像パラメータを生成する際、第1の符号化方式による符号化の際に求めた動きベクトル等を含むパラメータを復号してそれを第2の符号化方式に変換する際に利用するようにしたため、新たに動きベクトルを検索する等してパラメータを求める必要が無くなり、符号化方式変換装置の規模を小さくできると共に、処理遅延時間も短くできるという効果が得られる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による符号化方式変換装置の構成を示す図。
【図2】 この発明の実施の形態1による符号化方式変換装置の符号化データ解析部の構成を示す図。
【図3】 この発明の実施の形態1による画像生成部の構成を示す図。
【図4】 この発明の実施の形態1による画像パラメータ生成部の構成を示す図。
【図5】 この発明の実施の形態1による符号化データ解析部の構成を示す図。
【図6】 この発明の実施の形態2による符号化方式変換装置の構成を示す図。
【図7】 この発明の実施の形態2による色差成分画像生成部の構成を示す図。
【図8】 この発明の実施の形態2による色差成分画像パラメータ生成部の構成を示す図。
【図9】 従来の画像符号化器の構成を示す図。
【図10】 画像通信システムの構成を示す図。
【図11】 従来の符号化方式変換装置の構成を示す図。
【符号の説明】
21 第1の符号化方式による符号化データ、22 復号パラメータ、23 画像データ、24 画像パラメータ、25 符号化パラメータ、26 第2の符号化方式による符号化データ、101 送信器(H.261符号化器)、102受信器(MPEG−4復号器)、103 符号化方式変換装置、201 符号化データ解析部、202 画像生成部、203 画像パラメータ生成部、204パラメータ多重化部、205 符号化データ出力部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an encoding method conversion apparatus, an image communication system, and an encoding method conversion method for performing communication between image transmission terminals having different encoding methods.
[0002]
[Prior art]
Various systems have been proposed as moving picture encoding systems. For example, as a low-rate encoding method, an international standardized standard, or a standard being studied, an ITU-T (International Telecommunication Union-Telecommunication Standardization Sector) H.264 standard. 264, ISO (International Organization for Standard) / IEC (International Electrotechnical Commission) MPEG-4 (Moving Picture Experts Group-4), and the like.
[0003]
Each of these schemes is composed of a discrete cosine transform (DCT) unit, an inter-frame prediction encoder with motion compensation (MC), a variable length coding (VLC) unit, and the like. Although there are many common element technologies, each encoding method has different parts in detail. This is because each method has been optimized in consideration of the limitations of H / W and S / W performance at the time when the standardization work is performed and the application used.
[0004]
H. Each method of the H.261, MPEG-4 simple profile method (hereinafter simply referred to as MPEG-4) will be described.
[0005]
FIG. 9 is a diagram illustrating a configuration of an encoder used in each of the above-described schemes. In FIG. 9, 1 is a subtracter that subtracts a predicted image from an input image, and 2 and 11 are type switches that switch an encoding type. Switch, 3 is a DCT unit that performs orthogonal transformation, 4 is a quantizer that performs quantization, 5 is a variable length encoder that compresses by variable length encoding, 6 is an inverse quantizer that performs inverse quantization, and 7 An inverse DCT unit that performs an inverse DCT operation, 8 is an adder that adds the output of the inverse DCT unit 7 and a predicted image, 9 is a frame memory that stores a predicted reference image, and 10 is a motion compensated predictor that generates a predicted image. .
[0006]
Next, the operation will be described. First, H. The H.261 encoding method will be described. H. In the H.261 encoding method, image encoding is performed in units of macroblocks. One macroblock includes four luminance signals of 8 pixels × 8 lines (that is, 16 pixels × 16 lines) and two sets of color difference signals of 8 pixels × 8 lines.
In FIG. 9, the motion compensated predictor 10 performs processing in units of macroblocks. The search for the motion vector is performed in units of integer pixels, and the searchable range is inside the predicted reference image stored in the frame memory 9. Further, the motion vector of the color difference component is obtained by multiplying the motion vector of the luminance component by 0.5 and rounding off the decimal part to obtain integer pixel accuracy. The motion compensated predictor also has an in-loop filter function. By turning on this function, a low-pass filter can be applied to the predicted image.
[0007]
Next, the MPEG-4 encoding method will be described.
In the MPEG-4 encoding method, encoding is performed in units of macroblocks. Specifically, in the motion compensated predictor 10 shown in FIG. 9, the macroblock or a block obtained by dividing the macroblock into four (equivalent to 8 pixels × 8 lines in the luminance signal. This prediction method will be referred to as 4V prediction). ) Is processed in units. The search for motion vectors is performed in units of 0.5 pixels, and the searchable range is the inside of the prediction reference image stored in the frame memory 9 and the outside including a part of the prediction reference image (unrestricted motion compensation). Will be called).
[0008]
FIG. 10 is a diagram showing an image communication system between terminals having the different encoding methods as described above. In FIG. A transmitter having a H.261 encoder 102 is a receiver having an MPEG-4 decoder. Reference numeral 103 denotes an encoding method conversion apparatus that relays between the transmitter 101 and the receiver 102.
[0009]
FIG. 11 is a diagram showing the configuration of the coding method conversion apparatus 103 in FIG. A H.261 decoder 112 is an MPEG-4 encoder.
[0010]
When moving picture communication is to be performed between terminals having these different encoding methods, encoded data sent from the transmitter 101 is input to the decoder 111, and is once decoded into an image to be decoded into the frame memory 113. The image stored in the frame memory 113 is input to the encoder 112 having the decoding method of the other-party receiver 102 that performs communication, is encoded again, and is transmitted to the other-party receiver 102. .
[0011]
[Problems to be solved by the invention]
However, in the above-described conventional encoding method conversion apparatus, when the encoding method of the encoded signal of the first encoding method is once converted, the encoded signal is decoded. Since the motion vector is detected by performing the search, there is a problem that the scale of the encoding method conversion apparatus becomes large and the processing delay time becomes long in order to decode and encode the encoded data.
[0012]
The present invention has been made to solve the above-described problems. An encoding method conversion apparatus, an image communication system, and an encoding method conversion method that are small in scale, have a short processing delay time, and have little image quality degradation. The purpose is to provide.
[0013]
[Means for Solving the Problems]
In order to solve the above-described problem, an encoding method conversion apparatus according to the present invention converts input first encoded data into H.264 format. Variable length decoding and inverse quantization 261 coding scheme, the coded data analyzer to output a decoding parameter, the decoded parameter outputted from the coded data analyzer color difference Ingredient parameter and luminance value component parameters A parameter separation unit that outputs the separated data, and H.H. of the color difference component parameters output from the parameter separation unit. A luminance difference included in the luminance value component parameter output from the parameter separation unit and a color difference component image generation unit that generates a decoded image using the motion vector data of the color difference component of the H.261 encoding method and outputs the color difference component image data The color difference component motion vector of the MPEG-4 encoding method is obtained from the component motion vector information, and the color difference component image parameter is generated by performing motion compensation prediction on the color difference component image data using the color difference component motion vector. An output color difference component image parameter generation unit; a parameter multiplexing unit that multiplexes the luminance value component parameter and the color difference component image parameter and outputs the result as an encoding parameter; and the encoding parameter is quantized by the MPEG4 encoding method. reduction and variable-length coding, into a format suitable for the above Symbol M PEG4 coding scheme And an encoded data output unit that outputs the encoded data of the MPEG4 encoding method.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of an encoding scheme conversion apparatus, an image communication system, and an encoding scheme conversion method according to the present invention will be described.
[0024]
Embodiment 1 FIG.
FIG. 1 is a diagram illustrating a configuration example of a coding scheme conversion apparatus 103 according to Embodiment 1 of the present invention. In FIG. 1, 201 receives encoded data 21 according to the first encoding scheme, and outputs parameters obtained by performing variable length decoding and inverse quantization of the first encoding scheme as decoding parameters 22. An encoded data analysis unit 202 that generates and outputs image data 23 using the decoding parameters 22 output from the encoded data analysis unit; and 203, image data generated by the image generation unit 202. 23, an image parameter generation unit that generates and outputs an image parameter 24 using the decoding parameter 22, and a parameter multiplexing unit 204 that multiplexes the decoding parameter 22 and the image parameter 24 and outputs the result as an encoding parameter 25. 205 designates the encoding parameter 25 output from the parameter multiplexing unit 204 as a second encoding method. In performs variable length coding and quantization, and converted into a form suitable for the second encoding method is an encoding data output unit for outputting as encoded data 26 according to the second coding scheme.
[0025]
In the following description of the first embodiment, the first encoding method is H.264. The H.261 encoding method will be described as an example of an encoding method such as MPEG-2 or MPEG-4 (simple profile) as the second encoding method. In the present invention, the types of these encoding methods are described. Is not limited to these.
[0026]
Next, the operation will be described.
In FIG. The encoded data 21 according to the H.261 encoding method is input, The parameters obtained by performing variable length decoding and inverse quantization of the H.261 coding scheme are output as decoding parameters 22 to the image generation unit 202 and the parameter multiplexing unit 204.
[0027]
The image generation unit 202 generates a decoded image using the decoding parameter 22 output from the encoded data analysis unit 201 and outputs the decoded image as image data 23 to the image parameter generation unit 203. The image parameter generation unit 203 23 and the decoding parameter 22 are used to generate an image parameter 24 and output it to the parameter multiplexing unit 204.
[0028]
The parameter multiplexing unit 204 multiplexes the decoding parameter 22 and the image parameter 24 and outputs the result as the encoding parameter 25, and the encoded data output unit 205 outputs the encoding parameter 25 output from the parameter multiplexing unit 204. Is converted into a format suitable for the second encoding method and output as encoded data 26 based on the MPEG-4 encoding method.
[0029]
FIG. 2 is a diagram illustrating a configuration example of the encoded data analysis unit 201 in FIG. In FIG. 261 variable length decoder, 302 It is a H.261 inverse quantizer.
[0030]
The operation of the configuration of the encoded data analysis unit 201 shown in FIG. The H.261 variable length decoder 301 receives the received H.264. The encoded data 21 according to the H.261 encoding method is input. H.261 encoding system variable length decoding is performed. It outputs to the H.261 inverse quantizer 302. H. In the H.261 inverse quantizer 302, the H.264 inverse quantization is performed. The quantized DCT coefficient 31 of the data output from the H.261 variable length decoder 301 is input. The inverse quantization of the H.261 coding method is performed, and the data 32 including other motion vectors is output as the decoding parameter 22 as it is.
[0031]
FIG. 3 is a diagram illustrating a configuration example of the image generation unit 202 in FIG. In FIG. 3, 401 is an inverse DCT unit, 402 is an adder, 403 is a frame memory, 404 is a motion compensation predictor, and 405 is a type changeover switch.
[0032]
The operation of the configuration of the image generation unit 202 shown in FIG. 3 will be described. First, the inverse DCT unit 401 is inversely quantized among the decoding parameters 22 output from the encoded data analysis unit 201 in FIG. 1 or FIG. The DCT coefficient 41 is inversely DCTed and output. The adder 402 adds the data output from the inverse DCT unit 401 and the predicted image data from the motion compensated predictor 404 and outputs the result as image data 23. The frame memory 403 stores the image data 23 output from the adder 402 as a predicted reference image.
[0033]
Then, the motion compensation predictor 404 generates a prediction image from the prediction reference image stored in the frame memory 403 using the motion vector data 42 among the decoding parameters 22 output from the encoded data analysis unit 201 in FIG. And output. The type changeover switch 405 determines whether it is a coding type that performs motion compensation prediction such as inter coding or a coding type that does not perform motion compensation prediction of intra coding, and switches the switch.
[0034]
FIG. 4 is a diagram illustrating a configuration example of the image parameter generation unit 203 in FIG. In the figure, 501 is a subtracter, 502 is a type changeover switch, 503 is a DCT unit, 504 is a quantizer, 505 is an inverse quantizer, 506 is an inverse DCT unit, 507 is an adder, 508 is a frame memory, and 509 is a frame memory. A motion compensation predictor 510 is a type changeover switch.
[0035]
The operation of the configuration of the image parameter generation unit 203 illustrated in FIG. 4 will be described. First, the subtractor 501 receives the image data 23 output from the image generation unit 202 in FIG. 1 or 3 and subtracts the predicted image. . The type changeover switches 502 and 510 operate so as to switch the encoding type based on the encoding type of the image.
[0036]
Then, the DCT unit 503 performs a DCT operation on the image data output from the type changeover switch 502 and outputs the result as an image parameter 24. The quantizer 504 quantizes the image parameter 24, the inverse quantizer 505 inversely quantizes the quantized image parameter, and the inverse DCT 506 performs an inverse DCT operation on the DCT coefficient output from the inverse quantizer 505. To output image data.
[0037]
The adder 507 adds the image data output from the inverse DCT unit 506 and the predicted image data from the motion compensated predictor 509 via the type changeover switch 510 and outputs the predicted reference image to the frame memory 508. The frame memory 508 stores the prediction reference image output from the adder 507. Then, the motion compensated predictor 509 generates a prediction image from the prediction reference image stored in the frame memory 508 using the motion vector included in the decoding parameter 22 output from the encoded data analysis unit 201 in FIG. .
[0038]
FIG. 5 is a diagram illustrating a configuration example of the encoded data output unit 205 in FIG. In FIG. 5, reference numeral 601 denotes an MPEG-4 quantizer, and 602 denotes an MPEG-4 variable length encoder.
[0039]
The operation of the configuration of the encoded data output unit 205 shown in FIG. 5 will be described. First, the MPEG-4 quantizer 601 performs inverse quantization on the encoded parameter 25 output from the parameter multiplexing unit 204 in FIG. The DCT coefficient 61 is quantized by the MPEG-4 encoding method, and data 62 including other motion vectors is output as it is. The MPEG-4 variable length encoder 602 performs variable length encoding of the MPEG-4 encoding method on the data 62 output from the MPEG-4 quantizer 601 and including the motion vector and the like, and MPEG-4 encoded data 26 is output.
[0040]
Therefore, according to the first embodiment, the image generation unit 202 and the image parameter generation unit 203 of the encoding method conversion apparatus 103 use the first encoding method when generating the image data 23 and the image parameter 24. H. Since a parameter including a motion vector obtained at the time of 261 encoding is decoded and converted to a second encoding method such as MPEG-4, it is newly used. There is no need to obtain a parameter by searching for a motion vector or the like, and it is possible to reduce the scale of the encoding method conversion device and to shorten the processing delay time. In addition, since the DCT coefficient is calculated again by the image parameter generation unit 203, an effect that deterioration in image quality can be reduced is obtained.
[0041]
In the first embodiment, the image parameter generation unit 203 is configured to generate the image parameter 24 using the motion vector included in the decoding parameter 22. However, the present invention is not limited to this, for example, the motion parameter Similar effects can be obtained by using CBP (Coded Block Pattern) in addition to the vector. CBP is information indicating whether or not the AC component of the DCT coefficient is included in each block in the macroblock. The CBP is output by outputting the decoded CBP without newly obtaining this CBP. It is possible to eliminate the need for processing and mechanisms.
[0042]
Embodiment 2. FIG.
FIG. 6 is a diagram illustrating a configuration example of the coding scheme conversion apparatus 103 according to Embodiment 2 of the present invention. In FIG. 6, 201 receives encoded data 21 according to the first encoding scheme, and outputs parameters obtained by performing variable length decoding and inverse quantization of the first encoding scheme as decoding parameters 22. An encoded data analysis unit 702, a parameter separation unit 702 for separating and outputting the decoding parameter 22 output from the encoded data analysis unit 201 into a luminance value component parameter 73 and a color difference component parameter 74, and 703 from the parameter separation unit A color difference component image generation unit 704 generates and outputs color difference component image data 75 using the output color difference component parameter 74, and 704 indicates the color difference component image data 75 generated by the color difference component image generation unit 703 and the luminance value component. A color difference component image parameter generation unit that generates and outputs a color difference component image parameter 76 using the parameter 73; 04 is a parameter multiplexing unit that multiplexes the luminance value component parameter 73 and the chrominance component image parameter 76 and outputs the result as the encoding parameter 27, and 205 is a second encoding parameter 27 output from the parameter multiplexing unit 204. An encoded data output unit that performs variable-length encoding and quantization using the encoding method, converts the data into a format suitable for the second encoding method, and outputs the encoded data 28 according to the second encoding method. is there.
[0043]
In the following description of the second embodiment, as in the first embodiment, the first encoding method is H.264. The H.261 encoding method will be described as an example of an encoding method such as MPEG-2 or MPEG-4 (simple profile) as the second encoding method. In the present invention, the types of these encoding methods are described. Is not limited to these.
[0044]
Next, the operation will be described.
In general, MPEG-4 decoders are H.264. Although most of the functions of the H.261 encoding method are used, a motion vector calculation method for the color difference component (the H.261 encoding method rounds to integer pixel precision, while the MPEG-4 encoding method uses 0.5 pixels ( The half pixel) is rounded to the accuracy).
[0045]
Therefore, in the second embodiment, first, in FIG. The encoded data 21 according to the H.261 encoding method is input, A parameter obtained by performing variable length decoding and inverse quantization of the H.261 coding system is output as a decoding parameter 22. The parameter separation unit 702 separates and outputs the decoding parameter 22 output from the encoded data analysis unit 201 into the luminance value component parameter 73 and the color difference component parameter 74, and the color difference component image generation unit 703 outputs from the parameter separation unit. Using the color difference component parameter 74, a color difference component of the decoded image is generated and output as color difference component image data 75.
[0046]
The color difference component image parameter generation unit 704 generates and outputs a color difference component image parameter 76 using the color difference component image data 75 and the luminance value component parameter 73, and the parameter multiplexing unit 204 outputs the luminance value component parameter 73. And the color difference component image parameter 76 are multiplexed and output as the encoding parameter 27. The encoded data output unit 205 variable-length encodes the encoding parameter 27 output from the parameter multiplexing unit 204 in the MPEG-4 encoding method. The data is encoded, converted into a format suitable for the second encoding method, and output as encoded data 28 by the MPEG-4 encoding method.
[0047]
FIG. 7 is a diagram illustrating a configuration example of the color difference component image generation unit 703 in FIG. In FIG. 7, 81 is a dequantized DCT coefficient, 82 is a color difference component motion vector data, 801 is an inverse DCT unit, 802 is an adder, 803 is a frame memory, 804 is a motion compensated predictor, and 805 is a type switch. Switch.
[0048]
The operation of the configuration of the color difference component image generation unit 703 shown in FIG. 7 will be described. In FIG. 7, first, the inverse DCT unit 801 includes the color difference component of the color difference component parameters 74 output from the parameter separation unit 702 in FIG. The inversely quantized DCT coefficient 81 is inversely DCTed and output. The adder 802 adds the data output from the inverse DCT unit 801 and the predicted image data, and outputs the result as color difference component image data 75. The frame memory 803 stores the color difference component image data 75 output from the adder 802 as a predicted reference image. The motion compensation predictor 804 generates a prediction image from the prediction reference image stored in the frame memory 803 using the motion vector data 82 of the color difference component among the color difference component parameters 74 output from the parameter separation unit 702 in FIG. Output. The type changeover switch 805 operates to change the encoding type.
[0049]
FIG. 8 is a diagram illustrating a configuration example of the color difference component image parameter generation unit 704 in FIG. In FIG. 8, 901 is a subtracter, 902 and 910 are type changeover switches, 903 is a DCT unit, 904 quantizer , 905 is an inverse quantizer, 906 is an inverse DCT device, 907 is an adder, 908 is a frame memory, Reference numeral 909 denotes a motion compensation predictor.
[0050]
The operation of the configuration of the color difference component image parameter generation unit 704 shown in FIG. 8 will be described. In FIG. 8, first, the subtractor 901 receives the color difference component image data 75 output from the image generation unit 703 in FIG. Subtract images. The type changeover switches 902 and 910 operate to change the encoding type. The DCT unit 903 performs DCT operation on the image data output from the type changeover switch and outputs the result as a color difference component image parameter 76. The quantizer 904 quantizes the color difference component image parameter 76, and the inverse quantizer 905 inversely quantizes the quantized color difference component image parameter.
[0051]
The inverse DCT unit 906 performs inverse DCT operation on the DCT coefficient output from the inverse quantizer 905 and outputs image data. An adder 907 adds the image data output from the inverse DCT unit 906 and the predicted image data, and outputs a predicted reference image. The frame memory 908 stores the prediction reference image output from the adder 907. The motion compensation predictor 909 calculates a motion vector for the color difference component of the MPEG-4 encoding method from the motion vector for the luminance value component included in the luminance value component parameter 73 output from the parameter separator 702 in FIG. A predicted image is generated from the predicted reference images stored in 908.
[0052]
Therefore, according to the second embodiment, when the color difference component image generation unit 703 and the color difference component image parameter generation unit 704 of the encoding scheme conversion apparatus 103 generate the color difference component image data 75 and the color difference component image parameter 76, The first encoding method is H.264. H.261, which is the first encoding method obtained in the encoding of H.261. Since a parameter including a motion vector obtained at the time of 261 encoding is decoded and converted to a second encoding method such as MPEG-4, it is newly used. There is no need to obtain a parameter by searching for a motion vector or the like, and the effect that the scale of the encoding method conversion apparatus can be reduced and the processing delay time can be shortened as in the first embodiment.
[0053]
In particular, in Embodiment 2, since it is not necessary to recalculate the DCT coefficient for the luminance value component, it is possible to reduce the scale of the encoding method conversion apparatus and to shorten the processing delay time.
[0054]
In the second embodiment, since the DCT coefficient of the color difference component is calculated again by the color difference component image parameter generation unit 704, there is an effect that deterioration in image quality can be reduced.
[0055]
In the second embodiment, the color difference component image parameter generation unit 704 has been described as generating the color difference component image parameter 76 using the motion vector included in the luminance value component parameter 73. The same effect can be obtained by using CBP (Coded Block Pattern) in addition to the motion vector, as well as the first embodiment.
【The invention's effect】
As described above, in the present invention, the image generation unit and the image parameter generation unit of the encoding method conversion apparatus obtain the image data and the image parameter when encoding by the first encoding method. Since parameters including motion vectors are decoded and used to convert them to the second encoding method, there is no need to newly find parameters by searching for motion vectors, etc. The effect is that the scale of the apparatus can be reduced and the processing delay time can be shortened.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a coding method conversion apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a diagram showing a configuration of an encoded data analysis unit of the encoding method conversion apparatus according to Embodiment 1 of the present invention.
FIG. 3 is a diagram showing a configuration of an image generation unit according to Embodiment 1 of the present invention.
FIG. 4 is a diagram showing a configuration of an image parameter generation unit according to Embodiment 1 of the present invention.
FIG. 5 is a diagram showing a configuration of an encoded data analysis unit according to the first embodiment of the present invention.
FIG. 6 is a diagram showing a configuration of an encoding scheme conversion apparatus according to Embodiment 2 of the present invention.
FIG. 7 is a diagram showing a configuration of a color difference component image generation unit according to Embodiment 2 of the present invention.
FIG. 8 is a diagram showing a configuration of a color difference component image parameter generation unit according to Embodiment 2 of the present invention.
FIG. 9 is a diagram showing a configuration of a conventional image encoder.
FIG. 10 is a diagram showing a configuration of an image communication system.
FIG. 11 is a diagram illustrating a configuration of a conventional encoding method conversion apparatus.
[Explanation of symbols]
21 Encoded data according to the first encoding scheme, 22 Decoding parameters, 23 Image data, 24 Image parameters, 25 Encoding parameters, 26 Encoded data according to the second encoding scheme, 101 Transmitter (H.261 encoding) ), 102 receiver (MPEG-4 decoder), 103 encoding system conversion device, 201 encoded data analysis unit, 202 image generation unit, 203 image parameter generation unit, 204 parameter multiplexing unit, 205 encoded data output Department.

Claims (1)

H.261符号化方式により符号化された第1の符号化データを入力し、MPEG4符号化方式により符号化された第2の符号化データを出力する符号化方式変換装置において、
上記入力された第1の符号化データを、上記H.261符号化方式で可変長復号および逆量子化し、復号パラメータとして出力する符号化データ解析部と、
上記符号化データ解析部から出力された復号パラメータを色差成分パラメータと輝度値成分パラメータに分離して出力するパラメータ分離部と、
上記パラメータ分離部から出力された色差成分パラメータのうちのH.261符号化方式の色差成分の動きベクトルデータを用いて復号画像を生成し、色差成分画像データを出力する色差成分画像生成部と、
上記パラメータ分離部から出力された輝度値成分パラメータに含まれる輝度成分動きベクトル情報から、MPEG−4符号化方式の色差成分動きベクトルを求め、この色差成分動きベクトルを用いて上記色差成分画像データに対して動き補償予測を行うことにより色差成分画像パラメータを生成し出力する色差成分画像パラメータ生成部と、
上記輝度値成分パラメータと上記色差成分画像パラメータとを多重化して符号化パラメータとして出力するパラメータ多重化部と、
上記符号化パラメータを上記MPEG4符号化方式で量子化および可変長符号化し、上記MPEG4符号化方式に適した形式に変換して、上記MPEG4符号化方式の符号化データとして出力する符号化データ出力部と
を備えたことを特徴とする符号化方式変換装置。
H. In an encoding method conversion apparatus for inputting first encoded data encoded by the H.261 encoding method and outputting second encoded data encoded by the MPEG4 encoding method,
The input first encoded data is stored in the H.264 format. An encoded data analysis unit that performs variable length decoding and inverse quantization with a H.261 encoding method and outputs the result as a decoding parameter;
A parameter separation unit separates and outputs the decoded parameter outputted from the coded data analyzer color difference Ingredient parameter and luminance value component parameters,
Of the color difference component parameters output from the parameter separation unit, H.H. A color difference component image generation unit that generates a decoded image using the motion vector data of the color difference component of the H.261 encoding method and outputs the color difference component image data;
From the luminance component motion vector information included in the luminance value component parameter output from the parameter separation unit, a color difference component motion vector of the MPEG-4 encoding method is obtained, and the color difference component image data is obtained using the color difference component motion vector. A color difference component image parameter generation unit that generates and outputs a color difference component image parameter by performing motion compensation prediction on the image;
A parameter multiplexing unit that multiplexes the luminance value component parameter and the color difference component image parameter and outputs the result as an encoding parameter;
The coding parameters are quantized and variable length coding by the MPEG4 coding method is converted into a format suitable for the above Symbol M PEG4 encoding method, encoded data to be output as the coded data of the MPEG4 encoding system An encoding method conversion apparatus comprising: an output unit.
JP2000076246A 2000-03-17 2000-03-17 Encoding method converter Expired - Fee Related JP4140163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000076246A JP4140163B2 (en) 2000-03-17 2000-03-17 Encoding method converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000076246A JP4140163B2 (en) 2000-03-17 2000-03-17 Encoding method converter

Publications (2)

Publication Number Publication Date
JP2001268578A JP2001268578A (en) 2001-09-28
JP4140163B2 true JP4140163B2 (en) 2008-08-27

Family

ID=18594017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000076246A Expired - Fee Related JP4140163B2 (en) 2000-03-17 2000-03-17 Encoding method converter

Country Status (1)

Country Link
JP (1) JP4140163B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074635A (en) 2004-09-06 2006-03-16 Hitachi Ltd Method and device for converting encoded video signal

Also Published As

Publication number Publication date
JP2001268578A (en) 2001-09-28

Similar Documents

Publication Publication Date Title
US6081295A (en) Method and apparatus for transcoding bit streams with video data
US8897360B2 (en) Method and apparatus for encoding and decoding images by adaptively using an interpolation filter
US20050002458A1 (en) Spatial scalable compression
JP4226172B2 (en) Video compression encoding apparatus and decoding apparatus using adaptive conversion method and method thereof
JP2005506815A5 (en)
US20060133475A1 (en) Video coding
KR20040054743A (en) Spatial scalable compression
US20080123748A1 (en) Compression circuitry for generating an encoded bitstream from a plurality of video frames
JPH06189290A (en) Video signal encoding device using 1d/2d dct
US20240195992A1 (en) Decoding device, program, and decoding method
KR100566191B1 (en) Mpeg-4 encoder using h.263 multimedia chip
JPH1013859A (en) High efficiency encoder for picture, high efficiency decoder for picture and high efficiency encoding and decoding system
JP4140163B2 (en) Encoding method converter
KR20020066498A (en) Apparatus and method for coding moving picture
US20130195180A1 (en) Encoding an image using embedded zero block coding along with a discrete cosine transformation
Yu et al. Review of the current and future technologies for video compression
KR100497760B1 (en) Moving-Picture Coding System And Method For Mobile Communication Terminal
KR0181067B1 (en) Moving picture encoder of having compatibility
US20060181650A1 (en) Encoding method and device
JPH0556416A (en) In-loop filter control system for inter-frame predictive coding device
KR100213283B1 (en) Moving picture encoder
KR20110087871A (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR0178225B1 (en) Encoder of image system
JPH03136586A (en) Compression coder
KR101810198B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees