JP3883618B2 - Data compression method - Google Patents

Data compression method Download PDF

Info

Publication number
JP3883618B2
JP3883618B2 JP28437896A JP28437896A JP3883618B2 JP 3883618 B2 JP3883618 B2 JP 3883618B2 JP 28437896 A JP28437896 A JP 28437896A JP 28437896 A JP28437896 A JP 28437896A JP 3883618 B2 JP3883618 B2 JP 3883618B2
Authority
JP
Japan
Prior art keywords
unit
macroblock
block
variable length
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28437896A
Other languages
Japanese (ja)
Other versions
JPH09186995A (en
Inventor
震 鶴 李
光 勳 朴
柱 橲 文
在 均 金
勝 文 千
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SK Hynix Inc
Original Assignee
Hynix Semiconductor Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hynix Semiconductor Inc filed Critical Hynix Semiconductor Inc
Publication of JPH09186995A publication Critical patent/JPH09186995A/en
Application granted granted Critical
Publication of JP3883618B2 publication Critical patent/JP3883618B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明はフレーム内の映像データを可変長コード化データに変換して伝送するデータ圧縮方法に関する。
【0002】
【従来の技術】
近年、ビデオフォンや映像会議などをISDN網(Integrated Service Digital Network:統合サービスディジタル網)を用いて提供するH.261や公衆電話交換網(PSTN)を用いたビデオフォンサービスのためのH.263などが画像圧縮技術の世界標準化のための技術標準として提案されている。
【0003】
ビデオフォンのように超低速動映像の圧縮技術を提供するH.261及びH.263では画像の品質が低下することが知られており、画像品質の高級化のための改良が要求されている。一方、動画像関連圧縮技術はDSM(Digital Storage Media:ディジタル蓄積媒体)のためのMPEG1(Motion Picture Expert Group:動画像エクスパートグループ)と、DSM,HDTV(High Density Television:高品位テレビジョン),ATV(Advanced Television:次世代テレビジョン)などのためのMPEG2とが標準化されている。
【0004】
これらのH.261,H.263,MPEG1,MPEG2の圧縮技術にはブロックを基盤とした符号化方法が採用されているが、これらの符号化方法を超低速伝送に応用した場合には画質の低下が目立つ。このため、MPEG4として既存の方式とは差別化された全く新たな方式が提案されており、物体概念の導入されたブロック基盤符号化へ標準化が進んでいる。
【0005】
このうち、物体中心符号化方式(Object Oriented Coding)はブロックを基盤とせずに2つの映像間を動く領域内の物体(Object)を基盤とすることにより、全体映像を、背景(Background)、非被覆領域(Uncovered Region)、動き補償の可能な領域(MC−Region)、動き補償の不可能な領域(MF−Region)に区分して符号化する方式である。
ここで、動き補償可能物体(MC−object)とは3次元空間上の物体を2次元的な物体に変換して水平移動、回転移動、線形変形など一定の法則をもって動く物体を言い、動き補償不可能物体(MF−object)とはこの一定の法則が適用されない物体をいう。
【0006】
図7は1つのフレームグリッド31において1つの単位マクロブロック33との関係を示す図面である。1つのフレームグリッド31はX軸及びY軸方向にアレイ状に分割されてあり、分割された各々が単位マクロブロック33となる。図7(A)はグリッド開始位置点がX−0,Y−0であるフレームグリッドを示し、図7(B)は1つの単位マクロブロックを拡大して示すもので、1つの単位マクロブロックがX軸に8、Y軸に8分割された状態を示す。ここで、分割された素子を画素(ピクセル)34という。単位マクロブロック33は画素数に応じてN×Mマクロブロックと呼ばれる。従って、図7(B)の単位マクロブロックは8×8マクロブロックになる。
【0007】
このように分割した物体を符号化するための技法として用いられる従来の模様適応形技法を図8を参照して考察してみる。
ここで、フレームグリッドは8×8のマクロブロックを有し、このマクロブロック内に移動補償不可能物体が全て満たされた場合には、2次元DCT(Discrete Cosine Transform:離散コサイン変換)と同一の効率となる。ブロック内に移動補償不可能物体が全ては満たされない場合には該当する移動補償不可能物体の模様部分だけX軸で1次元DCTをし、さらにY軸で1次元DCTをする。
【0008】
以下、このような従来の模様適応形技法をより詳しく説明する。
図8(A)は、8×8のマクロブロック内に移動補償不可能物体(斜線の引かれた部分)が存在する様子を示している。
この移動補償不可能物体を模様適応形DCTにより符号化するために、まず図8(B)に示すようにブロックの上方境界に移動補償不可能物体を満たしておいて垂直方向に、即ちY方向に1次元DCTにより符号化を行う。
【0009】
図8(C)の黒い円印は垂直方向1次元DCTの離散コサイン変換(DC)値を表すものである。この状態でY方向1次元DCTを行う。このようにY方向1次元DCTが行われ図8(D)の状態が得られると、図8(E)のように再びブロックの左側境界に満たしておいて水平方向(X方向)に1次元DCT符号化を行う。X方向1次元DCTを完了させると、結局X方向及びY方向1次元模様適応形DCTが図8(F)に示すように完了する。
【0010】
最終形態の図8(F)をもってジグザグスキャン(ZIGZAG SCAN)を行い、一番左側の最上のブロックから対角線方向に移動物体をスキャンする。
前述したブロック中心符号化を用いるMPEG−1,MPEG−2,JPEG,H.261,H.263など既存の標準では、図3に示すような形態のマクロブロックMBを使用する。この場合、1つのマクロブロック内には図3に示すように4つのブロックY1,Y2,Y3,Y4が存在する。マクロブロックMB内に存在する4つのブロック(block)を符号化する際に、各ブロックY1,Y2,Y3,Y4内にデータが存在する場合と存在しない場合とが発生する。既存の標準ではこのようにブロック内にデータが存在するか否かを表示するためにコードブロックパターン(Coded Block Pattern)を使用する。
【0011】
図4はH.263標準で使用するコードブロックパターンに対する可変長符号表(variable length code table)を示したものである。この可変長符号表は、16の状態をそれぞれ示すインデックス欄、イントラ(INTRA)モード時におけるコードブロックパターン(CBPY)を示すCBPY(イントラモード)欄、インター(INTER)モード時におけるコードブロックパターン(CBPY)を示すCBPY(インターモード)欄、可変長コード化データのビット長を示すビット数欄及び可変長コード化データを示す可変長コード化データ欄から構成されている。
【0012】
またCBPY欄の(1,2,3,4)はデータの存在する4つの単位ブロックY1,Y2,Y3,Y4に対応しており、1がY1に、2がY2に、3がY3に、4がY4に対応する。従って、例えばインデックス1においてCBPY(イントラモード)の値が(0,0,0,1)で表わされているのは、ブロックY1,Y2,Y3にはデータが存在せず、ブロックY4にはデータが存在することを示す。なおこの場合には可変長コード化データは5ビットで、00101と表わされる。このように可変長符号表を使用することにより、各マクロブロックにデータが存在するか否かを効果的に表示することが出来、しかも変換により得られた可変長コード化データを用いて伝送するデータの量を減少させる、即ち、データ圧縮を実現することができる。
【0013】
【発明が解決しようとする課題】
しかし、このような従来のブロック中心映像信号符号化によるデータ圧縮方法では、マクロブロックにデータが存在するか否かを表示するためにコードブロックパターンを使用するが、この際、コードブロックパターンに対する可変長符号表が1つに固定されているので伝送されるデータ減縮効率が低下するという問題点があった。
【0014】
つまり、1つのマクロブロック内には物体の個数が互いに異なって分布(例えば、マクロブロックの一部分にのみ小さい物体が存在するか、或いはマクロブロック全体に物体が存在する場合)するにも拘わらず同一の可変長符号表を適用するため、データ減縮効率が低下する。
本発明はかかる従来の物体中心符号化時に発生する符号化効率の低下問題を解決するためのもので、伝送されるデータの減縮効率を高くするデータ圧縮方法を提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明のデータ圧縮方法は、1つのフレームの映像情報を物体別に複数の単位ブロックを有するマクロブロックに分割し、各マクロブロック内の前記単位ブロックに符号化するデータが存在するか否かを表わすコードブロックパターン(CBPY)を作成し、このコードブロックパターン(CBPY)に可変長符号表を適用して前記コードブロックパターンに対応する可変長コード化データを得る物体中心符号化方式によるデータ圧縮方法において、前記映像情報の模様情報を符号化情報として伝送すると共に、前記各マクロブロック内に映像データが存在する単位ブロックの個数に応じて異なる可変長符号表を前記コードブロックパターン(CBPY)に適用するように構成する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態を添付図面に基づいて詳細に説明する。
本発明が適用されるシステムは図5に示されている一般的な映像符号化システムであり、映像信号が入力され、1つのフレームの映像を物体別に映像分割するVOP(Video Object Plane:映像物体面)形成部10と、そのVOP形成部10から得られる各物体の模様情報を符号化する符号化部20と、前記符号化部20内のそれぞれの符号化器21,22,23,…からそれぞれ得られる符号化された映像信号を多重化する多重化部30とから構成される。VOP形成部10で映像信号入力手段から入力される1つのフレームの映像情報を物体別に分割し、符号化部20内のそれぞれの符号化器21,22,23,…でそれぞれ物体別に模様情報を符号化する。
【0017】
ここで、符号化部20内の1つの符号化器21は図6に示すように構成される。物体模様情報を選択するためのスイッチ21aと、スイッチ21aによって選択された模様情報を符号化する模様情報符号化部21cと、模様情報符号化部21cで符号化された模様情報と任意の模様情報とを選択するための選択スイッチ21dと、スイッチ21aによって選択された模様情報の動きを、再現された以前の模様情報または任意模様の情報によって推定する動き推定部21eと、動き推定部21eで推定される動き量に応じて模様情報の動きを補償する動き補償部21fと、VOP形成部10で得られる映像から動き補償部21fで補償された映像を減算する減算器21gと、減算器21gから得られる映像信号を符号化する映像信号符号化部21hと、映像信号符号化部21hから得られる映像情報と動き補償部21fで動き補償された映像信号とを加算する加算器21iと、加算器21iから得られる映像信号でVOPを再現するVOP再現部21jと、マクロブロック内の物体の存在するブロックの個数に応じた互いに異なるブロックパターンのための可変長符号表が貯蔵されたメモリ21bとから構成される。
【0018】
このように構成された符号化器21は、スイッチ21aによってVOP形成部10から得られる物体模様情報を選択し、その選択された模様情報は模様情報符号化部21cで該当物体の模様情報として符号化される。そして、選択スイッチ21dで前記符号化された模様情報と任意の模様情報のVOPとを選択的に多重化部21kへ伝達し、動き推定部21eはVOP形成部10で得られる模様情報から動きを推定し、動き補償部21fはその推定された物体の動き量に応じて動きを補償する。
【0019】
そして、動きの補償された映像はVOP形成部10から得られる物体模様情報と減算器21gで減算された後、映像信号符号化21hで映像信号が符号化された信号情報として多重化部21kに伝達される。
この際、映像信号符号化部21hは、マクロブロック内の物体の存在するブロック個数に応じてメモリ21bに貯蔵された互いに異なるブロックパターンのための可変長符号表を選択的に適用してコードブロックパターンを生成する。
【0020】
尚、映像信号符号化部21hで符号化された映像信号は、加算器21iで動き補償された映像信号と加算された後、VOP再現部21jで以前VOPとして再現され、その再現されたVOPによって動き推定部21eはVOP形成部10から得られる物体模様情報の動きを推定し、その結果によって推定された動き情報を多重化部21kに伝達する。
【0021】
その後、多重化部21kはそれぞれ入力される符号化された模様情報,動き情報及び信号情報を多重化して出力させ、その多重化された信号はバッファ部21mを介して図示しないデコーダへビットストリームとして伝送される。
ここで、本発明の核心は、マクロブロック内の各単位ブロックの物体存在個数に応じてメモリ21bに貯蔵された多数の可変長符号表を選択的に適用することにある。
【0022】
次に、このための本発明の実施の形態を説明する。
即ち、図1に示すように、物体Pは必ずしも正方形を成していないため、マクロブロックMB単位で分割すると、その分割されたマクロブロックMB内に物体Pが含まれるブロックと含まれていないブロックとが出来る。
【0023】
図1(A)に示すように、多数のマクロブロックMBに分割された1つのフレーム内の映像情報データとして表わされる物体Pは分割された各マクロブロックにデータとして存在する部分と、存在しない部分とがある。
図1(B)は図1(A)中で点線で囲まれた領域Qの部分を拡大して示した図である。図中に斜線で示した部分が物体Pを示している。図1(B)では4つのマクロブロックMB1,MB2,MB3,MB4が示されており、各マクロブロックは4つの単位ブロックY1,Y2,Y3,Y4から構成される。
従ってマクロブロックMB内に物体Pが含まれる単位ブロックと、物体Pが含まれていない単位ブロックとがあることがわかる。これを区別して図2に示した。
【0024】
つまり、図2の(A)に示したマクロブロック1(MB1)は1番目の単位ブロックY1を除いたその他の単位ブロックY2,Y3,Y4内には物体が全て存在し、(B)のマクロブロック2(MB2)は全ての単位ブロックY1,Y2,Y3,Y4内に物体が全て存在し、(C)のマクロブロック3(MB3)は2番目の単位ブロックY2内にのみ物体が存在し、(D)のマクロブロック4(MB4)は1番目の単位ブロックY1と2番目の単位ブロックY2にのみ物体が存在する。
【0025】
このようにマクロブロック内の各単位ブロックには物体が選択的に存在するので、それぞれの場合に対して互いに異なる可変長符号表を適用して符号化利得を高め、且つデータ減縮効率を高める。
【0026】
即ち、マクロブロック1(MB1)内には3つの単位ブロックY2,Y3,Y4にのみ物体が存在するので、表1のような可変長符号表を適用すると、データ減縮が可能になって符号化利得を高めることができる。
【表4】

Figure 0003883618
【0027】
マクロブロック2(MB2)には4つの単位ブロックY1,Y2,Y3,Y4に全て物体が存在するので、この場合には図4に示す既存の可変長符号表をそのまま適用し、マクロブロック3(MB3)には1つの単位ブロックY2にのみ物体が存在するので、表3のような可変長符号表を適用し、マクロブロック4(MB4)には2つの単位ブロックY1,Y2にのみ物体が存在するので、表2のような可変長符号表を適用する。
【表5】
Figure 0003883618
【表6】
Figure 0003883618
【0028】
なお上述した実施の形態では、各マクロブロックを4つの正方形単位ブロックに分割した場合について互いに異なる可変長符号表を適用する場合について説明したが、分割数はこれに限定されるものではなく、他の分割数を採用した場合には、それぞれの単位ブロック内の物体存在可否に応じて符号化利得の一番高い互いに異なる可変長符号表を実験により同様に求めることが出来る。
このようにマクロブロック内の各単位ブロックの物体存在有無に応じて互いに異なる可変長符号表(符号化利得の一番良い可変長符号表)を適用することにより、データ減縮率と符号化利得を高めることができる。
【0029】
ここで、表1,2,3に示される互いに異なる可変長符号表は実験によって求められた新しい可変長符号表であり、ここで、イントラ(INTRA)とインター(INTER)の用語は次のように定義される。
時間軸上における物体の特性は、以前のフレームには無かったが現在のフレームには現れた物体の場合(物体タイプI)と、極めて小さい物体の場合(10画素以内の物体;物体タイプII)と、相対的に極めて大きい物体の場合(10画素以上の物体;物体タイプIII)とに大別されるが、ここで、以前のフレームには無かったが現在のフレームに現れた物体の場合と、大きさが10画素未満の極めて小さい物体の場合には符号化タイプをINTRAモード(非予測モード)に決定し、前記特性を持っていない物体の場合にはINTERモード(予測モード)に決定する。
【0030】
【発明の効果】
以上説明したように、本発明は各マクロブロック内を分割した単位ブロック内の物体存在可否に応じて符号化利得の一番高い互いに異なる可変長符号表を適用するようにしたので、伝送されるデータの減縮率を高めることができ、且つ符号化利得も高めることができるという利点がある。
【図面の簡単な説明】
【図1】任意の物体をマクロブロック単位で分割した例示図。
【図2】マクロブロック内に物体が存在する単位ブロックを表示した図。
【図3】MPEG−1,MPEG−2,H.261,H.263などの既存の標準で使用する4つの単位ブロックY1,Y2,Y3,Y4を含むマクロブロックMBを示す図。
【図4】H.263標準で使用するコートブロックパターンに対する可変長符号化表。
【図5】本発明が適用される物体映像符号化システムのブロック構成図。
【図6】図5中の1つの符号化器21の詳細構成図。
【図7】一般的なフレームグリッドとマクロブロックとの説明図。
【図8】一般的な模様適応形DCT変換の説明図。
【符号の説明】
10 VOP形成部
20 符号化部
30 多重化部
MB1〜MB4 マクロブロック
Y1〜Y4 単位ブロック[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data compression method for converting video data in a frame into variable length coded data and transmitting it.
[0002]
[Prior art]
In recent years, H.264 has provided videophones and video conferencing using an ISDN network (Integrated Service Digital Network). H.261 and H.264 for videophone services using the public switched telephone network (PSTN). H.263 has been proposed as a technical standard for global standardization of image compression technology.
[0003]
H. provides an ultra-low speed video compression technology like a videophone. 261 and H.H. In H.263, it is known that the quality of an image is lowered, and an improvement for upgrading the image quality is required. On the other hand, motion picture-related compression technologies are MPEG1 (Motion Picture Expert Group) for DSM (Digital Storage Media), DSM, HDTV (High Density Television), MPEG2 for ATV (Advanced Television) is standardized.
[0004]
These H.C. 261, H.M. The compression techniques of H.263, MPEG1, and MPEG2 employ block-based encoding methods. However, when these encoding methods are applied to ultra-low speed transmission, the image quality is noticeably degraded. For this reason, a completely new system that is differentiated from the existing system is proposed as MPEG4, and standardization is proceeding to block-based coding in which the object concept is introduced.
[0005]
Among these, the object-oriented coding method (Object Oriented Coding) is based on an object (Object) in a region that moves between two images without using a block as a basis. In this method, coding is performed by dividing into a covered region (Uncovered Region), a region where motion compensation is possible (MC-Region), and a region where motion compensation is impossible (MF-Region).
Here, a motion-compensable object (MC-object) refers to an object that moves with a certain rule such as horizontal movement, rotational movement, linear deformation, etc. by converting an object in a three-dimensional space into a two-dimensional object. An impossible object (MF-object) refers to an object to which this certain rule is not applied.
[0006]
FIG. 7 is a diagram showing the relationship between one unit macroblock 33 in one frame grid 31. One frame grid 31 is divided into an array in the X-axis and Y-axis directions, and each divided frame becomes a unit macroblock 33. FIG. 7A shows a frame grid whose grid start position points are X-0 and Y-0, and FIG. 7B shows an enlarged view of one unit macroblock. A state where the X-axis is divided into 8 and the Y-axis is divided into 8 is shown. Here, the divided elements are referred to as pixels (pixels) 34. The unit macroblock 33 is called an N × M macroblock depending on the number of pixels. Accordingly, the unit macroblock in FIG. 7B is an 8 × 8 macroblock.
[0007]
A conventional pattern adaptive technique used as a technique for encoding an object divided in this way will be considered with reference to FIG.
Here, the frame grid has an 8 × 8 macroblock, and when all the objects that cannot be compensated for movement are filled in this macroblock, the same as two-dimensional DCT (Discrete Cosine Transform) It becomes efficiency. If not all of the objects that cannot be compensated for movement within the block, only the pattern portion of the object that cannot be compensated for movement is subjected to one-dimensional DCT on the X axis and further one-dimensional DCT on the Y axis.
[0008]
Hereinafter, the conventional pattern adaptive technique will be described in more detail.
FIG. 8A shows a state in which an object that cannot be compensated for movement (the hatched portion) exists in an 8 × 8 macroblock.
In order to encode this motion uncompensated object by the pattern adaptive DCT, first, as shown in FIG. 8B, the upper boundary of the block is filled with the motion uncompensated object in the vertical direction, that is, in the Y direction. In addition, encoding is performed by one-dimensional DCT.
[0009]
The black circles in FIG. 8C represent discrete cosine transform (DC) values in the vertical one-dimensional DCT. In this state, Y direction one-dimensional DCT is performed. When the one-dimensional DCT in the Y direction is performed in this way and the state of FIG. 8D is obtained, the one-dimensional in the horizontal direction (X direction) is filled again with the left boundary of the block as shown in FIG. 8E. DCT encoding is performed. When the one-dimensional DCT in the X direction is completed, the one-dimensional pattern adaptive DCT in the X direction and the Y direction is eventually completed as shown in FIG.
[0010]
A zigzag scan (ZIGZAG SCAN) is performed with the final configuration shown in FIG. 8F, and a moving object is scanned diagonally from the uppermost block on the left side.
MPEG-1, MPEG-2, JPEG, H.264 using the block center coding described above. 261, H.M. In an existing standard such as H.263, a macro block MB having a form as shown in FIG. 3 is used. In this case, there are four blocks Y1, Y2, Y3, Y4 in one macroblock as shown in FIG. When four blocks existing in the macroblock MB are encoded, there are cases where data exists in each block Y1, Y2, Y3, Y4 and cases where data does not exist. In the existing standard, a coded block pattern is used to display whether or not data exists in the block.
[0011]
FIG. 2 shows a variable length code table for a code block pattern used in the H.263 standard. The variable-length code table includes an index field indicating 16 states, a CBPY (intra mode) field indicating a code block pattern (CBPY) in the intra (INTRA) mode, and a code block pattern (CBPY) in the inter (INTER) mode. ) CBPY (inter mode) column, a bit number column indicating the bit length of the variable length encoded data, and a variable length encoded data column indicating the variable length encoded data.
[0012]
Also the CBPY column (1, 2, 3, 4) corresponds to the four unit blocks Y1, Y2, Y3, Y4 that exist in the data, to 1 Y1, the 2 Y2, the 3 Y3 4 corresponds to Y4. Therefore, for example, in the index 1, the value of CBPY (intra mode) is represented by (0, 0, 0, 1). There is no data in the blocks Y1, Y2, and Y3, and the block Y4 has no data. Indicates that data exists. In this case, the variable length coded data is 5 bits and is represented as 00101. By using the variable length code table in this way, it is possible to effectively display whether or not data exists in each macro block, and to transmit using the variable length coded data obtained by the conversion. The amount of data can be reduced, i.e. data compression can be realized.
[0013]
[Problems to be solved by the invention]
However, in such a conventional data compression method using block-centered video signal encoding, a code block pattern is used to indicate whether or not data exists in a macroblock. At this time, a variable for the code block pattern is used. Since the long code table is fixed to one, there is a problem that the data reduction efficiency of transmitted data is lowered.
[0014]
In other words, the number of objects in one macroblock is different from each other and distributed (for example, a small object exists only in a part of the macroblock or an object exists in the entire macroblock). Therefore, the data reduction efficiency is reduced.
An object of the present invention is to provide a data compression method for increasing the reduction efficiency of transmitted data, in order to solve the problem of lowering the coding efficiency that occurs during the conventional object-center coding.
[0015]
[Means for Solving the Problems]
The data compression method of the present invention divides video information of one frame into macroblocks having a plurality of unit blocks for each object, and indicates whether or not there is data to be encoded in the unit blocks in each macroblock. In a data compression method based on an object-centered coding method that creates a code block pattern (CBPY) and applies a variable length code table to the code block pattern (CBPY) to obtain variable length coded data corresponding to the code block pattern The pattern information of the video information is transmitted as encoded information, and a variable-length code table that varies depending on the number of unit blocks in which video data exists in each macroblock is applied to the code block pattern (CBPY) . Configure as follows.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
The system to which the present invention is applied is a general video encoding system shown in FIG. 5, and receives a video signal and divides the video of one frame into video according to objects. Surface) forming unit 10, an encoding unit 20 that encodes pattern information of each object obtained from the VOP forming unit 10, and respective encoders 21, 22, 23,... In the encoding unit 20. It comprises a multiplexing unit 30 that multiplexes the obtained encoded video signals. The video information of one frame input from the video signal input means is divided by object in the VOP forming unit 10, and the pattern information for each object is obtained by the respective encoders 21, 22, 23,. Encode.
[0017]
Here, one encoder 21 in the encoder 20 is configured as shown in FIG. A switch 21a for selecting object pattern information, a pattern information encoding unit 21c for encoding the pattern information selected by the switch 21a, pattern information encoded by the pattern information encoding unit 21c, and arbitrary pattern information The motion estimation unit 21e for estimating the motion of the pattern information selected by the switch 21a based on the reproduced previous pattern information or information on the arbitrary pattern, and the motion estimation unit 21e. A motion compensation unit 21f that compensates the motion of the pattern information according to the amount of motion performed, a subtractor 21g that subtracts the video compensated by the motion compensation unit 21f from the video obtained by the VOP forming unit 10, and a subtractor 21g The video signal encoding unit 21h that encodes the obtained video signal and the video information obtained from the video signal encoding unit 21h and the motion compensation unit 21f An adder 21i that adds the compensated video signal, a VOP reproduction unit 21j that reproduces a VOP using the video signal obtained from the adder 21i, and different blocks according to the number of blocks in which an object exists in the macroblock And a memory 21b in which a variable length code table for the pattern is stored.
[0018]
The encoder 21 configured as described above selects object pattern information obtained from the VOP forming unit 10 by the switch 21a, and the selected pattern information is encoded as pattern information of the object by the pattern information encoding unit 21c. It becomes. The selection switch 21d selectively transmits the encoded pattern information and the VOP of arbitrary pattern information to the multiplexing unit 21k, and the motion estimation unit 21e performs motion from the pattern information obtained by the VOP formation unit 10. Then, the motion compensation unit 21f compensates the motion according to the estimated amount of motion of the object.
[0019]
Then, the motion compensated video is subtracted by the object pattern information obtained from the VOP forming unit 10 by the subtractor 21g, and then the signal information obtained by encoding the video signal by the video signal encoding 21h is sent to the multiplexing unit 21k. Communicated.
At this time, the video signal encoding unit 21h selectively applies the variable length code table for different block patterns stored in the memory 21b according to the number of blocks in which the object in the macroblock exists, Generate a pattern.
[0020]
The video signal encoded by the video signal encoding unit 21h is added to the video signal compensated for motion by the adder 21i, and then reproduced as a previous VOP by the VOP reproduction unit 21j. The motion estimation unit 21e estimates the motion of the object pattern information obtained from the VOP formation unit 10, and transmits the motion information estimated based on the result to the multiplexing unit 21k.
[0021]
Thereafter, the multiplexing unit 21k multiplexes and outputs the encoded pattern information, motion information, and signal information that are respectively input, and the multiplexed signal is sent as a bit stream to a decoder (not shown) via the buffer unit 21m. Is transmitted.
Here, the core of the present invention is to selectively apply a large number of variable length code tables stored in the memory 21b in accordance with the number of objects present in each unit block in the macroblock.
[0022]
Next, an embodiment of the present invention for this purpose will be described.
That is, as shown in FIG. 1, since the object P does not necessarily form a square, when divided in units of macroblocks MB, blocks in which the object P is included and blocks that are not included in the divided macroblock MB You can.
[0023]
As shown in FIG. 1A, an object P represented as video information data in one frame divided into a large number of macroblocks MB is a portion that exists as data in each divided macroblock and a portion that does not exist There is.
FIG. 1B is an enlarged view of a region Q surrounded by a dotted line in FIG. The hatched portion in the figure indicates the object P. In FIG. 1B, four macroblocks MB1, MB2, MB3, and MB4 are shown, and each macroblock is composed of four unit blocks Y1, Y2, Y3, and Y4.
Therefore, it can be seen that there are unit blocks in which the object P is included in the macroblock MB and unit blocks in which the object P is not included. This is shown in FIG.
[0024]
That is, the macroblock 1 (MB1) shown in FIG. 2A has all the objects in the other unit blocks Y2, Y3, Y4 except the first unit block Y1, and the macro of (B). Block 2 (MB2) has all objects in all unit blocks Y1, Y2, Y3, Y4, and macroblock 3 (MB3) in (C) has objects only in the second unit block Y2. Macroblock 4 (MB4) in (D) has an object only in the first unit block Y1 and the second unit block Y2.
[0025]
As described above, since an object is selectively present in each unit block in the macroblock, a different variable length code table is applied to each case to increase the coding gain and increase the data reduction efficiency.
[0026]
That is, since an object exists only in the three unit blocks Y2, Y3, and Y4 in the macroblock 1 (MB1), applying a variable length code table as shown in Table 1 enables data reduction and encoding. Gain can be increased.
[Table 4]
Figure 0003883618
[0027]
Since all objects exist in the four unit blocks Y1, Y2, Y3, and Y4 in the macroblock 2 (MB2), in this case, the existing variable length code table shown in FIG. Since an object exists only in one unit block Y2 in MB3), a variable length code table as shown in Table 3 is applied, and an object exists only in two unit blocks Y1 and Y2 in macroblock 4 (MB4). Therefore, the variable length code table as shown in Table 2 is applied.
[Table 5]
Figure 0003883618
[Table 6]
Figure 0003883618
[0028]
In the above-described embodiment, a case has been described in which different variable-length code tables are applied when each macroblock is divided into four square unit blocks. However, the number of divisions is not limited to this, When the number of divisions is adopted, different variable length code tables having the highest coding gain can be obtained in the same manner by experiments in accordance with the presence / absence of an object in each unit block.
In this way, by applying different variable length code tables (variable length code tables having the best coding gain) according to the presence / absence of an object in each unit block in the macroblock, the data reduction rate and coding gain can be reduced. Can be increased.
[0029]
Here, the different variable-length code tables shown in Tables 1, 2, and 3 are new variable-length code tables obtained by experiments. Here, the terms “INTRA” and “INTER” are as follows. Defined in
The characteristics of the object on the time axis are the object that did not appear in the previous frame but appeared in the current frame (object type I), and the case of an extremely small object (object within 10 pixels; object type II). In the case of relatively large objects (objects of 10 pixels or more; object type III), there are cases where objects that were not in the previous frame but appeared in the current frame are The encoding type is determined to be the INTRA mode (non-prediction mode) in the case of an extremely small object having a size of less than 10 pixels, and the INTER mode (prediction mode) is determined in the case of an object not having the above characteristics. .
[0030]
【The invention's effect】
As described above, according to the present invention, different variable length code tables having the highest coding gain are applied in accordance with the presence / absence of an object in a unit block obtained by dividing each macroblock, so that transmission is performed. There is an advantage that the data reduction rate can be increased and the coding gain can also be increased.
[Brief description of the drawings]
FIG. 1 is an exemplary diagram in which an arbitrary object is divided in units of macroblocks.
FIG. 2 is a diagram showing a unit block in which an object is present in a macro block.
FIG. 3 shows MPEG-1, MPEG-2, H.264. 261, H.M. The figure which shows macroblock MB containing four unit blocks Y1, Y2, Y3, Y4 used by the existing standards, such as H.263.
FIG. A variable length coding table for a coat block pattern used in the H.263 standard.
FIG. 5 is a block diagram of an object video encoding system to which the present invention is applied.
6 is a detailed configuration diagram of one encoder 21 in FIG. 5;
FIG. 7 is an explanatory diagram of a general frame grid and a macro block.
FIG. 8 is an explanatory diagram of a general pattern adaptive DCT transform.
[Explanation of symbols]
10 VOP formation unit 20 Encoding unit 30 Multiplexing unit MB1 to MB4 Macroblock Y1 to Y4 Unit block

Claims (5)

1つのフレームの映像情報を物体別に複数の単位ブロックを有するマクロブロックに分割し、各マクロブロック内の前記単位ブロックに符号化するデータが存在するか否かを表わすコードブロックパターン(CBPY)を作成し、このコードブロックパターン(CBPY)に可変長符号表を適用して前記コードブロックパターンに対応する可変長コード化データを得る物体中心符号化方式によるデータ圧縮方法において、
前記映像情報の模様情報を符号化情報として伝送すると共に、
前記各マクロブロック内に映像データが存在する単位ブロックの個数に応じて異なる可変長符号表を前記コードブロックパターン(CBPY)に適用することを特徴とするデータ圧縮方法。
Divide video information of one frame into macro blocks having a plurality of unit blocks for each object, and create a code block pattern (CBPY) indicating whether or not data to be encoded exists in the unit block in each macro block In the data compression method using the object-centered coding method , the variable length code table is applied to the code block pattern (CBPY) to obtain variable length coded data corresponding to the code block pattern.
While transmitting the pattern information of the video information as encoded information,
A data compression method characterized by applying a variable length code table that differs according to the number of unit blocks in which video data exists in each macroblock to the code block pattern (CBPY) .
前記マクロブロックの分割は、前記各マクロブロックを4つの正方形単位ブロックに分割することを特徴とする請求項1に記載のデータ圧縮方法。  2. The data compression method according to claim 1, wherein the macroblock is divided into four square unit blocks. 1つのマクロブロック内で3つの単位ブロックにのみ前記映像データが存在する場合には表1で定義される可変長符号表を適用することを特徴とする請求項1又は2記載のデータ圧縮方法。
Figure 0003883618
3. The data compression method according to claim 1, wherein when the video data exists only in three unit blocks in one macro block, the variable length code table defined in Table 1 is applied.
Figure 0003883618
1つのマクロブロック内で2つの単位ブロックにのみ前記映像データが存在する場合には、表2で定義される可変長符号表を適用することを特徴とする請求項1又は2記載のデータ圧縮方法。
Figure 0003883618
3. The data compression method according to claim 1, wherein when the video data exists only in two unit blocks in one macroblock, the variable length code table defined in Table 2 is applied. .
Figure 0003883618
1つのマクロブロック内で1つの単位ブロックにのみ前記映像データが存在する場合には表3で定義される可変長符号表を適用することを特徴とする請求項1又は2記載のデータ圧縮方法。
Figure 0003883618
3. The data compression method according to claim 1, wherein the variable length code table defined in Table 3 is applied when the video data exists only in one unit block within one macroblock.
Figure 0003883618
JP28437896A 1995-10-26 1996-10-25 Data compression method Expired - Lifetime JP3883618B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1995P-37918 1995-10-26
KR19950037918 1995-10-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003421635A Division JP4405794B2 (en) 1995-10-26 2003-12-18 Encoding block pattern encoding apparatus and encoding block pattern encoding method

Publications (2)

Publication Number Publication Date
JPH09186995A JPH09186995A (en) 1997-07-15
JP3883618B2 true JP3883618B2 (en) 2007-02-21

Family

ID=19431815

Family Applications (4)

Application Number Title Priority Date Filing Date
JP28437896A Expired - Lifetime JP3883618B2 (en) 1995-10-26 1996-10-25 Data compression method
JP2003421635A Expired - Lifetime JP4405794B2 (en) 1995-10-26 2003-12-18 Encoding block pattern encoding apparatus and encoding block pattern encoding method
JP2007062209A Expired - Lifetime JP4572210B2 (en) 1995-10-26 2007-03-12 Method for decoding luminance information
JP2007062205A Expired - Lifetime JP4572209B2 (en) 1995-10-26 2007-03-12 Luminance information decoding device

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2003421635A Expired - Lifetime JP4405794B2 (en) 1995-10-26 2003-12-18 Encoding block pattern encoding apparatus and encoding block pattern encoding method
JP2007062209A Expired - Lifetime JP4572210B2 (en) 1995-10-26 2007-03-12 Method for decoding luminance information
JP2007062205A Expired - Lifetime JP4572209B2 (en) 1995-10-26 2007-03-12 Luminance information decoding device

Country Status (2)

Country Link
JP (4) JP3883618B2 (en)
CN (1) CN1102824C (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3883618B2 (en) * 1995-10-26 2007-02-21 株式会社ハイニックスセミコンダクター Data compression method
KR100947399B1 (en) * 2001-11-22 2010-03-12 파나소닉 주식회사 Coding method
CN101742329B (en) * 2008-11-24 2013-02-13 北京中星微电子有限公司 Image coding method and device
CN107083633B (en) * 2017-03-31 2019-07-23 苏州大学 A kind of continuous photocatalytic is stripped machine

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3883618B2 (en) * 1995-10-26 2007-02-21 株式会社ハイニックスセミコンダクター Data compression method

Also Published As

Publication number Publication date
JPH09186995A (en) 1997-07-15
JP4405794B2 (en) 2010-01-27
JP2007202183A (en) 2007-08-09
JP4572209B2 (en) 2010-11-04
JP4572210B2 (en) 2010-11-04
CN1102824C (en) 2003-03-05
JP2007202184A (en) 2007-08-09
CN1159714A (en) 1997-09-17
JP2004112842A (en) 2004-04-08

Similar Documents

Publication Publication Date Title
US6256423B1 (en) Intra-frame quantizer selection for video compression
JP4324844B2 (en) Image decoding apparatus and image decoding method
EP1257127B1 (en) Video transcoder with spatial resolution reduction
KR100679031B1 (en) Method for encoding/decoding video based on multi-layer, and apparatus using the method
US6005980A (en) Motion estimation and compensation of video object planes for interlaced digital video
JP4617644B2 (en) Encoding apparatus and method
EP0644697B1 (en) Method for half-pixel motion compensation in image decoding
JPH10341443A (en) Moving image encoder and decoder and moving image encoding method and decoding method
KR100211917B1 (en) Object shape information coding method
JP3855522B2 (en) Video converter
JPH0998429A (en) Digital video signal encoding device and decoding device therefor
JP2004520771A (en) Video transcoder with drift correction
EP0856995B1 (en) Video coding and decoding apparatus with motion compensation
JP4572209B2 (en) Luminance information decoding device
JP2004504782A (en) Alternate block order for better prediction
KR100568649B1 (en) Moving-picture decording apparatus and moving-picture decording method
JP3086585B2 (en) Stereo image coding device
KR101368943B1 (en) Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
JP2003061091A (en) Method and apparatus for up-sampling compressed bitstream
JP4950381B2 (en) Method and apparatus for the processing of digitized images with pixels
KR20010073608A (en) An Efficient Edge Prediction Methods In Spatial Domain Of Video Coding
JP3671286B2 (en) Image processing method, image processing apparatus, and data storage medium
JPH0750836A (en) Picture coder
EP0892559A1 (en) Padding of object border blocks for motion estimation and transform coding in an object-oriented video coder
JP4213526B2 (en) Image processing method

Legal Events

Date Code Title Description
A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131124

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term