JP3075049B2 - Image coding device - Google Patents

Image coding device

Info

Publication number
JP3075049B2
JP3075049B2 JP05300217A JP30021793A JP3075049B2 JP 3075049 B2 JP3075049 B2 JP 3075049B2 JP 05300217 A JP05300217 A JP 05300217A JP 30021793 A JP30021793 A JP 30021793A JP 3075049 B2 JP3075049 B2 JP 3075049B2
Authority
JP
Japan
Prior art keywords
prediction
pixel
value
state
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05300217A
Other languages
Japanese (ja)
Other versions
JPH07154607A (en
Inventor
幾朗 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP05300217A priority Critical patent/JP3075049B2/en
Publication of JPH07154607A publication Critical patent/JPH07154607A/en
Application granted granted Critical
Publication of JP3075049B2 publication Critical patent/JP3075049B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は画像データ符号化装置
に関するものである。
BACKGROUND OF THE INVENTION This invention relates to image picture data encoding device.

【0002】[0002]

【従来の技術】ファクシミリ等での2値画像符号化法と
して、マルコフモデル符号化が有効とされており、これ
を利用した技術は、特開平2−305225などに示さ
れている。以下に、従来のマルコフモデル符号化につい
て説明する。
2. Description of the Related Art Markov model coding is effective as a binary image coding method in facsimile and the like, and a technique utilizing this is disclosed in Japanese Patent Application Laid-Open No. 2-305225. Hereinafter, conventional Markov model coding will be described.

【0003】ここで、ある情報でP(xi )を情報源
シンボルxi の生じる確率とすると、その情報源のエン
トロピ(平均情報量)は式(1)で定義される。
Here, if P (x i ) is the probability of occurrence of an information source symbol x i in a certain information source , the entropy (average information amount) of the information source is defined by equation (1).

【0004】[0004]

【数1】 (Equation 1)

【0005】この式はシンボルxi が生じたことを知っ
たことにより得られる情報量−log2 P(xi )を各
シンボルの生起確率で重み付けして平均をとることを意
味している。2値画像の場合(xi =0または1)なら
ば、エントロピは式(2)で表される。
[0005] This equation means that taking the average weighted by the probability of occurrence of each symbol of the information amount -log 2 P (x i) obtained by learning that symbol x i occurs. In the case of a binary image (x i = 0 or 1), entropy is represented by equation (2).

【0006】[0006]

【数2】 (Equation 2)

【0007】また、この値は、符号化対象となる1画素
のみに注目して符号を割り当てたとき、これ以下の符号
量では符号化できない理論的圧縮限界を示すことが一般
に知られている。従って、符号化に当たっては、符号量
をできる限りエントロピHに近づけるように、各シンボ
ルの生起確率P(xi )に適するエントロピ符号化を行
う必要がある。
Further, it is generally known that this value indicates a theoretical compression limit that cannot be encoded with a code amount smaller than this when a code is assigned while focusing on only one pixel to be encoded. Therefore, in encoding, it is necessary to perform entropy encoding suitable for the occurrence probability P (x i ) of each symbol so that the code amount approaches the entropy H as much as possible.

【0008】一般に、画像データにおいてある画素の値
が0となるか1となるかの確率はそれに先行する複数の
画素の値が何であったかに依存する。先行するn個の画
素(以下、参照画素)の値に依存する場合、その情報源
をn重マルコフ情報源という。n重マルコフ情報源のエ
ントロピ、つまり、注目画素(xi )に先行するn個の
画素値(xi-1 ,…,xi-n )を知った上でのエントロ
ピ(条件付きエントロピ)は式(3)で表される。ここ
で、P(xi-1 ,…,xi-n )は参照画素の値がx
i-1 ,…,xi-n となる確率(結合確率)、P(xi
i-1 ,…,xi-n)は参照画素の値がxi-1 ,…,x
i-n となった場合に、注目画素値がxi となる確率(条
件付き確率)を示す。
In general, the probability of a pixel having a value of 0 or 1 in image data depends on what the values of a plurality of pixels preceding it are. When the information source depends on the values of the preceding n pixels (hereinafter referred to as reference pixels), the information source is referred to as an n-fold Markov information source. The entropy of the n-fold Markov information source, that is, the entropy (conditional entropy) after knowing the n pixel values (x i−1 ,..., x in ) preceding the pixel of interest (x i ) is expressed by the formula ( It is represented by 3). Here, P (x i−1 ,..., X in ) indicates that the value of the reference pixel is x
i−1 ,..., x in (joining probability), P (x i /
x i−1 ,..., x in ) indicates that the value of the reference pixel is x i−1 ,.
When “in” , the probability (conditional probability) that the pixel value of interest becomes xi is shown.

【0009】[0009]

【数3】 (Equation 3)

【0010】この条件付きエントロピH’と式(2)の
Hとの関係では、 H’≦H (4) が成り立ち、等号が成立するのは情報源がマルコフ情報
源でない場合である。
In the relationship between the conditional entropy H ′ and H in the equation (2), H ′ ≦ H (4) holds, and the equality holds when the information source is not a Markov information source.

【0011】ここで、n個の参照画素のとりうる2n
の状態をマルコフ情報源の状態と呼ぶことにし、各状態
をSi で表す。そして、式(3)を変形すると式(5)
が得られる。
[0011] Here, the n-number of the 2 n possible states of the reference pixels to be referred to as the state of the Markov information source, representing each state S i. Then, when formula (3) is transformed, formula (5) is obtained.
Is obtained.

【0012】[0012]

【数4】 (Equation 4)

【0013】これは、各状態でのエントロピh(si
=−ΣP(xi /si )log2 P(xi /si )を各
状態の出現確率P(si )で重み付けして平均をとった
ものである。符号化の際には、各状態ごとに、注目画素
が0または1をとる確率P(xi /si )に適するエン
トロピ符号化を行えば各状態での符号量をそのエントロ
ピh(si )に近づけることができ、全体としての符号
量も式(5)のH’に近づけることができる。従って、
参照画素は条件付きエントロピが低下するように選択す
る必要がある。このように、参照画素の状態によって注
目画素を分類して、各状態ごとに適切なエントロピ符号
化を行う符号化方式をマルコフモデル符号化という。
This is because the entropy h (s i ) in each state
= -ShigumaP a (x i / s i) log 2 P (x i / s i) in which it averaged and weighted by occurrence probabilities P (s i) of each state. During encoding, for each state, the probability the target pixel takes 0 or 1 P (x i / s i ) the amount of codes in each state by performing the entropy coding suitable for the entropy h (s i ), And the code amount as a whole can also approach H ′ in equation (5). Therefore,
The reference pixels need to be selected such that the conditional entropy is reduced. In this manner, a coding method that classifies the target pixel according to the state of the reference pixel and performs appropriate entropy coding for each state is called Markov model coding.

【0014】マルコフモデル符号化の例として特開平2
−305225に記載されている算術符号型MELCO
DEについて説明する。その構成図を図2に示す。11
は符号化対象の2値画像データ、12は注目画素以前の
入力の画素からマルコフ状態の分類に使用するための参
照画素を選択して、参照画素パターンを作成する参照画
素パターン作成手段、18は参照画素パターン13を用
いて注目画素の予測値とその予測の的中率(予測一致
率)を算出する予測値・予測一致率決定手段、19は参
照画素パターンに対する予測値と予測一致率が記憶され
ている予測値・予測一致率参照テーブル、20は予測値
(0または1)、21は予測一致率、22は予測値と注
目画素との一致/不一致を示す符号化対象シンボル、2
3は予測一致率21に応じて符号化対象シンボルを符号
化する算術符号化器、24は算術符号化器から出力され
る符号である。
An example of Markov model coding is disclosed in
Arithmetic code type MELCO described in −305225
The DE will be described. FIG. 2 shows the configuration diagram. 11
Denotes reference image data to be coded, 12 denotes a reference pixel pattern creating means for selecting a reference pixel to be used for Markov state classification from input pixels before the target pixel and creating a reference pixel pattern, and 18 denotes a reference pixel pattern. Predicted value / predicted coincidence determining means for calculating the predicted value of the target pixel and the hit rate (prediction coincidence) of the prediction using the reference pixel pattern 13; 19 stores the predicted value and the predicted coincidence for the reference pixel pattern Predicted value / predicted match rate reference table, 20 is a predicted value (0 or 1), 21 is a predicted match rate, 22 is an encoding target symbol indicating match / mismatch between the predicted value and the pixel of interest, 2
Numeral 3 denotes an arithmetic encoder for encoding a symbol to be encoded according to the prediction coincidence rate 21, and numeral 24 denotes a code output from the arithmetic encoder.

【0015】[0015]

【表1】 [Table 1]

【0016】次に、この符号化器の動作を表1に示す2
値画像を例にとり説明する。この例では、図3の31が
注目画素xi 、32が参照画素xi-1 とxi-2 とする。
参照画素が2画素なので表1の通り状態はs0 〜s3
4種類で、各状態の生起確率P(si )、各状態で注目
画素が0となる確率P(0/si )、1となる確率P
(1/si )は表1の値となる。この場合、注目画素が
0となる確率P(0)=0.47、注目画素が1となる
確率P(1)=0.53なので、式(2)よりH=0.
997bitが得られる。この値は上述したように、符
号化対象となる1画素のみに注目して符号を割り当てた
ときの理論的圧縮限界である。また、xi-1 とxi-2
2画素の状態si により注目画素を分類し式(5)から
算出した条件付きエントロピはH’=0.72bitと
なる。このようにマルコフ状態に分類して、各状態ごと
に適切な符号化を行うことによりH’=0.72bit
に近い符号量で符号化を行うことが可能となる。
Next, the operation of this encoder is shown in Table 1 below.
A description will be given using a value image as an example. In this example, 31 in FIG. 3 is the pixel of interest x i , and 32 is the reference pixels x i-1 and x i-2 .
Since the reference pixel is 2 pixels as condition of Table 1 at four s 0 ~s 3, probability P (s i) of each state, the probability P that the pixel of interest becomes zero in each state (0 / s i) , The probability P of 1
(1 / s i ) is the value in Table 1. In this case, since the probability P (0) = 0.47 that the target pixel is 0 and the probability P (1) = 0.53 that the target pixel is 1, H = 0.
997 bits are obtained. As described above, this value is a theoretical compression limit when a code is assigned while paying attention to only one pixel to be encoded. In addition, the conditional entropy calculated from Equation (5) by classifying the target pixel based on the state s i of two pixels x i−1 and x i−2 is H ′ = 0.72 bits. As described above, by classifying into Markov states and performing appropriate encoding for each state, H ′ = 0.72 bits
It is possible to perform encoding with a code amount close to.

【0017】符号化時にはまず、参照画素パターン作成
手段12により画素xi-1 とxi-2が符号化済みの画素
から選択され参照画素パターン13が作成される。この
参照画素パターン13をもとに予測値20、予測一致率
21を予測値・予測一致率参照テーブルから読み出す。
もし、参照画素の状態がs1 であったとすれば、表1よ
り予測値=1、予測一致率=0.6となる。そして、こ
の予測一致率21を算術符号化器23に入力する。
At the time of encoding, first, the reference pixel pattern creating means 12 selects the pixels x i-1 and x i-2 from the encoded pixels to create the reference pixel pattern 13. Based on the reference pixel pattern 13, the predicted value 20 and the predicted matching rate 21 are read from the predicted value / predicted matching rate reference table.
If the state of the reference pixels if was s 1, the predicted value from Table 1 = 1, the predicted match rate = 0.6. Then, the prediction matching rate 21 is input to the arithmetic encoder 23.

【0018】ここで、符号化対象画素値が1であったと
すれば、予測が的中したので予測が的中したことを示す
シンボル0を符号化対象シンボル22として、算術符号
化器23に入力する。もし、符号化対象画素値が0であ
ったとすれば、予測が外れたので予測が外れたことを示
すシンボル1を符号化対象シンボル22として、算術符
号化器23に入力する。算術符号化器23では、予測一
致率に適した符号化パラメータで符号化対象シンボル2
2を符号化することにより、ほぼエントロピと同じ符号
量で符号化ができる。
If the value of the pixel to be coded is 1, the prediction was successful and the symbol 0 indicating that the prediction was successful is input to the arithmetic encoder 23 as the symbol 22 to be coded. I do. If the pixel value to be encoded is 0, the prediction is missed, and the symbol 1 indicating that the prediction was missed is input to the arithmetic encoder 23 as the encoding symbol 22. In the arithmetic encoder 23, the encoding target symbol 2 is encoded using an encoding parameter suitable for the prediction coincidence rate.
By encoding 2, encoding can be performed with substantially the same code amount as entropy.

【0019】この時、予測値・予測一致率を記憶するの
に各状態でk(bit)必要とすれば、予測値・予測一
致率参照テーブル19の大きさは、参照画素の画素数が
2画素なのでk×22 bitとなる。
[0019] At this time, if at k (bit) requires each state to store the prediction value and prediction matching rate, the magnitude of the predicted value and prediction match rate reference table 19, the number of pixels reference pixels Since there are two pixels, it is k × 2 2 bits.

【0020】[0020]

【発明が解決しようとする課題】マルコフモデル符号化
では、参照画素数を増加し状態数を増やせば一般にエン
トロピは減少するが、状態ごとの予測値・予測一致率を
記憶している参照テーブル19の大きさが参照画素数の
増加にともない指数関数的に増大するため、参照画素数
を大幅に増やすことは困難であるという問題点があっ
た。
In Markov model coding, entropy generally decreases when the number of reference pixels is increased and the number of states is increased, but a reference table 19 storing predicted values and prediction coincidence rates for each state. Has a problem that it is difficult to greatly increase the number of reference pixels because the size of the reference pixel increases exponentially with the number of reference pixels.

【0021】表1では参照画素のとりうる値により4通
りの状態に注目画素を分類したが、この4通りの状態の
いくつかをまとめて新たに1つの状態とすることを考え
る。以後、この処理をマルコフ状態の縮退、または単に
縮退と呼ぶ。例えば、表1の状態s1 とs2 をまとめて
1つの状態とすると、表2に示すs’0 〜s’3 の3通
りの状態に縮退される。
In Table 1, the target pixel is classified into four states according to possible values of the reference pixel. However, it is considered that some of the four states are collectively set as one state. Hereinafter, this processing is referred to as Markov state degeneration, or simply degeneration. For example, if the states s 1 and s 2 in Table 1 are combined into one state, the states are reduced to three states s ′ 0 to s ′ 3 shown in Table 2.

【0022】[0022]

【表2】 [Table 2]

【0023】状態を縮退すれば一般にエントロピは上昇
するが、予測一致率の近い状態同士を縮退すれば、エン
トロピの上昇はわずかに抑えられる。表1から表2への
縮退では、縮退した2つの状態の予測一致率が等しいの
でエントロピの上昇なしに、縮退が達成されている。こ
の発明は、このように効率的な縮退を行うマルコフモデ
ル符号化装置を実現することを目的としている。
When the states are degenerated, the entropy generally increases. However, when the states having close predicted coincidence rates are degenerated, the entropy is slightly suppressed. In the degeneration from Table 1 to Table 2, degeneration is achieved without increasing entropy because the predicted matching rates of the two degenerated states are equal. An object of the present invention is to realize a Markov model coding apparatus that performs such efficient degeneration.

【0024】[0024]

【課題を解決するための手段】この発明に係わるマルコ
フ状態縮退手段は、注目画素の性質を示す値を予測し、
予測レベルの近い状態を1つの状態にまとめることによ
り、マルコフ状態の縮退を行うものである。
The Markov state reduction means according to the present invention predicts a value indicating the property of a pixel of interest,
By bringing together near the predicted level state into one state, and performs degeneracy of Markov states.

【0025】この発明の符号化器では予測対象を注目画
素の値または注目画素の黒画素出現確率とし、その値に
基づいて注目画素の分類(すなわち、状態の縮退)を行
う。
In the encoder of the present invention, the prediction target is the value of the target pixel or the black pixel appearance probability of the target pixel, and the target pixel is classified (that is, the state is degenerated) based on the value.

【0026】この発明の符号化器では予測手段、予測レ
ベル分類手段を複数用意しておき、参照画素の性質に応
じて、画面内でそれらを適応的に選択してマルコフ状態
の縮退を行うものである。
In the encoder according to the present invention, a plurality of prediction means and prediction level classification means are prepared, and the Markov state is degenerated by adaptively selecting them in the screen according to the properties of the reference pixels. It is.

【0027】[0027]

【作用】請求項第1〜3項の発明において、注目画素
値、黒画素出現確率などを対象とした予測により参照画
素の性質を反映した値が得られ、この予測レベルの近い
状態をまとめることによりエントロピの上昇を抑えたマ
ルコフ状態の縮退が行われる。請求項第4項の発明にお
いて、請求項第1〜3項の発明での注目画素値、黒画素
出現確率などを対象とした予測における予測手段、予測
レベル分類手段を参照画素の状態に応じて切り換えるこ
とにより、エントロピの上昇を抑えたマルコフ状態の縮
退が行われる。
According to the first to third aspects of the present invention, a value reflecting the property of a reference pixel is obtained by performing prediction on a target pixel value, a black pixel appearance probability, and the like. As a result, the Markov state is degenerated with the increase in entropy suppressed. According to the fourth aspect of the present invention, the prediction means and the prediction level classification means in the prediction for the target pixel value, the black pixel appearance probability, etc. according to the first to third aspects of the present invention are arranged according to the state of the reference pixel. By performing the switching, the Markov state is degenerated while suppressing an increase in entropy.

【0028】[0028]

【実施例】実施例1.以下、この発明の一実施例を説明
する。図1は本発明を用いた算術符号型MELCODE
の構成図である。図1において、14は参照画素パター
ン作成手段12により作成された参照画素パターン13
を用いて注目画素値を予測する注目画素予測手段、16
は注目画素予測手段14での予測により算出された予測
レベル15を量子化し、予測レベルの近い状態をまとめ
て1つの状態に分類する予測レベル分類手段、18は予
測レベル分類手段16による分類結果17に応じて、予
測値・予測一致率参照テーブル19から予測値、予測一
致率を読み出す予測値・予測一致率決定手段である。図
2と比べて異なるのは以上の部分だけなので、他につい
ては説明を省略する。
[Embodiment 1] Hereinafter, an embodiment of the present invention will be described. FIG. 1 shows an arithmetic code type MELCODE using the present invention.
FIG. In FIG. 1, reference numeral 14 denotes a reference pixel pattern 13 created by the reference pixel pattern creation means 12.
Pixel prediction means for predicting the pixel value of interest using
Is a prediction level classifying unit that quantizes the prediction level 15 calculated by the prediction by the target pixel prediction unit 14 and classifies states close to the prediction level into one state collectively. Reference numeral 18 denotes a classification result 17 obtained by the prediction level classification unit 16. Is a prediction value / prediction match rate determination unit that reads out a prediction value and a prediction match rate from the prediction value / prediction match rate reference table 19 in accordance with (1). Only the above-described parts are different from those in FIG. 2, and the description of the other parts will be omitted.

【0029】次に、動作について表1に示す確率分布を
とる2値画像を用いて説明する。まず、参照画素パター
ン13の参照画素xi-1 ,xi-2 を用いて、注目画素予
測手段14により式(6)から予測レベルyi 15を算
出する。このyi は、実数値をとり、予測値20(0ま
たは1)と区別するために予測レベルと呼ぶ。 yi =0.52xi-1 +0.44xi-2 (6)
Next, the operation will be described using a binary image having a probability distribution shown in Table 1. First, using the reference pixels x i−1 and x i−2 of the reference pixel pattern 13, the target pixel prediction unit 14 calculates a prediction level y i 15 from Expression (6). This y i takes a real value and is called a prediction level to distinguish it from the predicted value 20 (0 or 1). y i = 0.52x i-1 + 0.44x i-2 (6)

【0030】この予測関数は、次に示す通り注目画素値
と予測レベルとの平均2乗誤差が最小となるように予め
設計しておく。ei を予測誤差、ai を予測係数とする
と、予測誤差ei は次式で表される。 ei =yi −xi =a1 ・xi-1 +a2 ・xi-2 −xi (7) ここで、E[ei 2]を予測誤差ei の2乗平均とすれ
ば、E[ei 2]を最小化する予測係数を求めるには、式
(8)を満たす予測係数a1 ,a2 を算出すればよい。 ∂E[ei 2]/∂a1 =0 ∂E[ei 2]/∂a2 =0 (8) 式(8)は次式のように書ける。これをYule−Wa
lker方程式という。
This prediction function is designed in advance so that the mean square error between the pixel value of interest and the prediction level is minimized as shown below. When e i is a prediction error and a i is a prediction coefficient, the prediction error e i is represented by the following equation. In e i = y i -x i = a 1 · x i-1 + a 2 · x i-2 -x i (7) wherein, if the E [e i 2] and mean squared prediction error e i , E [e i 2 ] can be obtained by calculating the prediction coefficients a 1 and a 2 that satisfy Expression (8). ∂E [e i 2] / ∂a 1 = 0 ∂E [e i 2] / ∂a 2 = 0 (8) Equation (8) can be written as the following equation. This is Yule-Wa
It is called the lker equation.

【0031】[0031]

【数5】 (Equation 5)

【0032】式(6)の予測係数は、表1の確率分布の
2値画像を対象として、式(9)を解くことにより得ら
れたものである。
The prediction coefficient of the equation (6) is obtained by solving the equation (9) for the binary image of the probability distribution of Table 1.

【0033】[0033]

【表3】 [Table 3]

【0034】[0034]

【表4】 [Table 4]

【0035】[0035]

【表5】 [Table 5]

【0036】このようにして得られた予測レベル15
は、表1のyi となる。次に予測レベル分類手段16で
表3に示すように予測レベルyi をしきい値0.4で2
レベルに量子化することにより、予測レベルの近い状態
同士を1つにまとめ、状態を縮退する。この縮退によ
り、条件付きエントロピは、0.78bitとなる。こ
の値は、表1で示したエントロピH=0.72bitに
比べて縮退を行ったため高くなっている。しかし、表4
あるいは表5のように参照画素をxi-1 あるいはxi-2
の1画素のみとして同じ状態数とした場合のエントロピ
に比べ低くなっており、本発明の縮退の効果を確認でき
る。つまり、表3に示す各状態に対応する予測値20、
予測一致率21を予測値・予測一致率参照テーブル19
から読みだし、算術符号化することにより同一の大きさ
の予測値・予測一致率参照テーブル19を持つ表4ある
いは表5の場合に比べ、少ない符号量で符号化できる。
The prediction level 15 thus obtained
Is y i in Table 1. Next, as shown in Table 3, the prediction level y i
By quantizing to a level, states having close prediction levels are combined into one, and the states are degenerated. Due to this degeneration, the conditional entropy becomes 0.78 bits. This value is higher than that of the entropy H = 0.72 bit shown in Table 1 due to the degeneration. However, Table 4
Alternatively, as shown in Table 5, the reference pixel is x i-1 or x i-2
Is smaller than the entropy when only one pixel has the same number of states, and the effect of the degeneration of the present invention can be confirmed. That is, the predicted value 20 corresponding to each state shown in Table 3,
The predicted matching rate 21 is converted to a predicted value / predicted matching rate reference table 19.
, And by performing arithmetic coding, it is possible to perform coding with a smaller code amount than in the case of Table 4 or Table 5 having a prediction value / prediction matching rate reference table 19 of the same size.

【0037】実施例2.実施例1では、注目画素予測手
段14として線形予測関数を用いたが、たとえば予測関
数として図4に示す階層型のニューラルネットを用いて
もよい。各層は図の左から順に入力層、中間層、出力層
と呼ばれ、各層はいくつかのユニット43から構成され
ている。入力層の各ユニットは入力信号41をそのまま
次の層に送り、中間層、出力層では、各ユニットは前層
の各ユニット出力の荷重和をとりその値に応じて各ユニ
ットの出力値を算出する。そして、出力層のユニットの
出力がニューラルネットの出力42となる。ニューラル
ネットの入出力特性を決定するのは前層の出力の荷重和
をとる際の重み係数で、重み係数は結合ごとに異なった
値を持っている。この重み係数は、予め学習と呼ばれる
処理により決定しておく。
Embodiment 2 FIG. In the first embodiment, a linear prediction function is used as the pixel-of-interest prediction means 14. However, for example, a hierarchical neural network shown in FIG. 4 may be used as the prediction function. Each layer is called an input layer, an intermediate layer, and an output layer in order from the left of the figure, and each layer is composed of several units 43. Each unit in the input layer sends the input signal 41 to the next layer as it is, and in the intermediate layer and the output layer, each unit calculates the output value of each unit according to its value by taking the weighted sum of the output of each unit in the previous layer. I do. Then, the output of the unit in the output layer becomes the output 42 of the neural network. What determines the input / output characteristics of the neural network is a weighting factor when the weighted sum of outputs of the previous layer is obtained, and the weighting factor has a different value for each connection. The weight coefficient is determined in advance by a process called learning.

【0038】次に動作を説明するが、予測関数として
ューラルネットを用いること以外は実施例1と同一なの
で、他については説明を省略する。まず、参照画素パタ
ーン13は図4のニューラルネットに入力され、ニュー
ラルネットから注目画素値の予測レベル15が出力され
る。そして、その予測レベル15を予測レベル分類手段
16で分類することにより状態が決定される。
Next, the operation will be described. Since the operation is the same as that of the first embodiment except that a neural network is used as the prediction function, the description of the other operations is omitted. First, the reference pixel pattern 13 is input to the neural network of FIG. 4, and the prediction level 15 of the pixel value of interest is output from the neural network. Then, the prediction level 15 is classified by the prediction level classification means 16 to determine the state.

【0039】この時のニューラルネットの重み係数は、
注目画素と出力値の平均2乗誤差を最小化するように予
めバックプロパゲーション学習則により決定しておく。
これは、入力信号を与え、その出力が教師信号と呼ばれ
る出力として望ましい値に近づくように重み係数を修正
することを何回も繰り返すという操作である。例えば、
表1の確率分布をとる2値画像の場合、各状態での参照
画素値(xi-1 ,xi-2 )とそれに対する教師信号xi
を順にニューラルネットに与え、学習を出力値と教師信
号の2乗誤差が収束するまで繰り返す。つまり、各状態
0 ,S1 ,S2 ,S3 での教師信号は、それぞれ0,
1,1,1となる。
The weighting factor of the neural network at this time is
It is determined in advance by a back propagation learning rule so as to minimize the mean square error between the target pixel and the output value.
This is an operation of repeatedly inputting an input signal and correcting the weight coefficient so that the output approaches a desired value as an output called a teacher signal. For example,
In the case of the binary image having the probability distribution shown in Table 1, the reference pixel value (x i-1 , x i-2 ) in each state and the teacher signal x i corresponding thereto
Are sequentially given to the neural network, and learning is repeated until the square error between the output value and the teacher signal converges. That is, the teacher signals in each state S 0 , S 1 , S 2 , S 3 are 0,
1,1,1.

【0040】[0040]

【表6】 [Table 6]

【0041】このようにして決定された重み係数により
構成されるニューラルネットの各状態での出力yi は表
6に示されている。これを表3に示す予測レベル分類手
段16に入力すれば、実施例1と同様なマルコフ状態の
縮退が可能となる。
The output y i of each state of the neural network constituted by the weight coefficients determined in this way is shown in Table 6. If this is input to the prediction level classification means 16 shown in Table 3, it is possible to degenerate the Markov state as in the first embodiment.

【0042】実施例3.実施例1,2では、注目画素値
を予測対象としたが、注目画素が黒画素となる確率(黒
画素出現確率)を予測してもよい。例えば、表1の2値
画像を対象とした実施例2ではニューラルネットの学習
の際、教師信号として予測対象である注目画素値xi
用いたが、その代わりに黒画素出現確率P(1/si
を用いる。つまり、各状態S0 ,S1 ,S2 ,S3 での
教師信号は、それぞれ0.2,0.6,0.6,0.9
となる。
Embodiment 3 FIG. In the first and second embodiments, the target pixel value is set as the prediction target. However, the probability that the target pixel becomes a black pixel (black pixel appearance probability) may be predicted. For example, when the learning of Example 2 in neural networks intended for binary images in Table 1, was used target pixel value x i is a prediction target as a teacher signal, a black pixel appearance probability P (1 instead / S i )
Is used. That is, the teacher signals in the states S 0 , S 1 , S 2 , and S 3 are 0.2, 0.6, 0.6, and 0.9, respectively.
Becomes

【0043】実施例4.実施例1〜3では、予測関数と
予測レベルを分類するのに使用する量子化器は1種類の
みであったが、これらを複数用意しておき、参照画素に
応じて画面内で適応的に切り換えてもよい。
Embodiment 4 FIG. In the first to third embodiments, only one type of quantizer is used to classify the prediction function and the prediction level. However, a plurality of quantizers are prepared, and adaptively in the screen according to the reference pixel. You may switch.

【0044】[0044]

【表7】 [Table 7]

【0045】[0045]

【表8】 [Table 8]

【0046】参照画素は、図5の3画素xi-1 ,x
i-2 ,xi-3 とする。また、この時の2値画像は、表7
に示す確率分布をとるものとする。参照画素のとり得る
値により状態S0 〜S7 に分類した場合の条件付きエン
トロピH’は、式(4)よりH’=0.77bitとな
る。実施例4では、まず式(10)により予測レベル1
5を算出する。
The reference pixels are the three pixels x i-1 and x
i-2 and xi -3 . The binary image at this time is shown in Table 7
It is assumed that the probability distribution shown in FIG. The conditional entropy H ′ when classified into the states S 0 to S 7 based on the value that the reference pixel can take is H ′ = 0.77 bits according to the equation (4). In the fourth embodiment, first, the prediction level 1 is calculated by the equation (10).
5 is calculated.

【0047】[0047]

【数6】 (Equation 6)

【0048】表7に示す画像の場合、各状態の予測レベ
ル15は表7のyi となる。次に、表8に示すように予
測レベル15をxi-3 の値に応じて別々の量子化器で量
子化する。つまり、xi-3 =0の場合はしきい値0.4
で、xi-3 =1の場合はしきい値0.5で2レベルに分
類する。実施例1〜3と比べて異なるのは、参照画素x
i-3 の値により予測関数、量子化器を切り換えているこ
とである。これにより、表7の2値画像は表8の4状態
に分類され、条件付きエントロピH’=0.80bit
となる。
In the case of the image shown in Table 7, the prediction level 15 of each state is y i in Table 7. Next, as shown in Table 8, the prediction level 15 is quantized by different quantizers according to the value of x i−3 . That is, when x i−3 = 0, the threshold value is 0.4
In the case of x i−3 = 1, the data is classified into two levels with a threshold value of 0.5. The difference from the first to third embodiments is that the reference pixel x
That is, the prediction function and the quantizer are switched according to the value of i-3 . Thereby, the binary image of Table 7 is classified into the four states of Table 8, and the conditional entropy H ′ = 0.80 bit
Becomes

【0049】[0049]

【表9】 [Table 9]

【0050】表9は、xi-1 とxi-3 のとり得る値によ
り4状態に分類した場合の確率分布と条件付きエントロ
ピである。表8と同じ4状態に分類したにもかかわら
ず、表8に比べてエントロピは高くなっており、実施例
4の効果を確認できる。
Table 9 shows the probability distribution and the conditional entropy when classified into four states according to the possible values of x i-1 and x i-3 . Despite being classified into the same four states as in Table 8, the entropy is higher than in Table 8, and the effect of Example 4 can be confirmed.

【0051】[0051]

【発明の効果】この発明により、符号化パラメータ参照
テーブルの大きさを大幅に増大することなく画像データ
の条件付きエントロピを低下させ、符号量の削減を可能
にする。
According to the present invention, the conditional entropy of the image data can be reduced without greatly increasing the size of the encoding parameter reference table, and the code amount can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を用いた算術符号型MELCODEの構
成図である。
FIG. 1 is a configuration diagram of an arithmetic code type MELCODE using the present invention.

【図2】従来の算術符号型MELCODEの構成図であ
る。
FIG. 2 is a configuration diagram of a conventional arithmetic code type MELCODE.

【図3】従来例、本発明の実施例1〜3における注目画
素、参照画素の画素配置を示す図である。
FIG. 3 is a diagram illustrating a pixel arrangement of a target pixel and a reference pixel in a conventional example and Examples 1 to 3 of the present invention.

【図4】本発明における実施例2,3でのニューラルネ
ットワークの構造を示す図である。
FIG. 4 is a diagram showing a structure of a neural network according to Embodiments 2 and 3 of the present invention.

【図5】本発明の実施例4における注目画素、参照画素
の画素配置を示す図である。
FIG. 5 is a diagram illustrating a pixel arrangement of a target pixel and a reference pixel according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

14 注目画素予測手段 15 予測レベル 16 予測レベル分類手段 18 予測値・予測一致率決定手段 19 予測値・予測一致率参照テーブル 31 注目画素 32 参照画素 14 Target pixel prediction means 15 Prediction level 16 Prediction level classification means 18 Prediction value / prediction match rate determination means 19 Prediction value / prediction match rate reference table 31 Target pixel 32 Reference pixel

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 注目画素周辺で且つ符号化済みの参照画
素を用いて注目画素の性質を示す値を予測する予測手段
と、前記予測手段から出力される予測レベルの近い注目
画素をまとめて一つのマルコフ状態として分類する予測
レベル分類手段を備え、前記注目画素に対し前記予測手
段から出力される予測レベルにより定まる前記予測レベ
ル分類手段の予測レベル分類結果に応じて各分類に適し
たエントロピ符号化を行うことを特徴とするマルコフモ
デル符号化による画像符号化装置。
1. A predicting means for predicting a value indicating the property of a target pixel using a coded reference pixel around the target pixel, and a target pixel having a similar prediction level output from the predicting means. One of the provided prediction level classification means for classifying a Markov state, the estimated hand relative to the pixel of interest
The prediction level determined by the prediction level output from the stage.
An image coding apparatus based on Markov model coding, wherein entropy coding suitable for each classification is performed according to the prediction level classification result of the classification means .
【請求項2】 予測対象を注目画素値とすることを特徴
とする請求項第1項に記載の画像符号化装置。
2. A picture coding device of claim 1 wherein, characterized in that the target pixel value prediction target.
【請求項3】 予測対象を注目画素が黒画素となる確率
(以下、黒画素出現確率)とすることを特徴とする請求
項第1項に記載の画像符号化装置。
Wherein the probability of the target pixel prediction target becomes black pixels (hereinafter, a black pixel appearance probability) picture image encoding apparatus of claim 1 wherein, characterized in that a.
【請求項4】 上記予測手段、上記予測レベル分類手段
を複数個有し、上記参照画素の状態に応じて、上記予測
手段、上記予測レベル分類手段を画面内で適応的に選択
することを特徴とする請求項第1項及び第2項及び第3
項に記載の画像符号化装置。
4. The apparatus according to claim 1, further comprising a plurality of said prediction means and said plurality of prediction level classification means, wherein said prediction means and said prediction level classification means are adaptively selected in a screen according to a state of said reference pixel. Claims 1, 2 and 3
Picture coding device according to claim.
JP05300217A 1993-11-30 1993-11-30 Image coding device Expired - Fee Related JP3075049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05300217A JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05300217A JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Publications (2)

Publication Number Publication Date
JPH07154607A JPH07154607A (en) 1995-06-16
JP3075049B2 true JP3075049B2 (en) 2000-08-07

Family

ID=17882135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05300217A Expired - Fee Related JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Country Status (1)

Country Link
JP (1) JP3075049B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4717860B2 (en) * 2007-08-22 2011-07-06 眞一郎 湯村 Data compression method, image display method, and display image enlargement method
EP3562162A1 (en) * 2018-04-27 2019-10-30 InterDigital VC Holdings, Inc. Method and apparatus for video encoding and decoding based on neural network implementation of cabac

Also Published As

Publication number Publication date
JPH07154607A (en) 1995-06-16

Similar Documents

Publication Publication Date Title
US5903676A (en) Context-based, adaptive, lossless image codec
JP3017380B2 (en) Data compression method and apparatus, and data decompression method and apparatus
KR970011859B1 (en) Encoding method and device for using fuzzy control
EP0777386B1 (en) Method and apparatus for encoding and decoding an image
JP2009509418A (en) Classification filtering for temporal prediction
US6072909A (en) Image coding devise and image decoding devise using with image disassembly
JP4801778B2 (en) Video compression / encoding device, video restoration device, video compression program, and video restoration program
US6633677B1 (en) Method and apparatus for processing an image in an image compression/decompression system that uses hierachical coding
Baligar et al. High compression and low order linear predictor for lossless coding of grayscale images
US6188795B1 (en) Data compression
JP3075049B2 (en) Image coding device
US6909746B2 (en) Fast robust data compression method and system
Lee Edge-adaptive prediction for lossless image coding
JP2007306513A (en) Method and device for image data compression
JP3966117B2 (en) Image processing apparatus, image encoding apparatus, image printing apparatus, and methods thereof
Jiang et al. Lossless compression for medical imaging systems using linear/nonlinear prediction and arithmetic coding
JPH08204971A (en) Image compression method using predictive coding and error diffusion
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
Puthooran et al. Lossless image compression using BPNN predictor with contextual error feedback
US6681049B1 (en) Image encoding method and apparatus
Cierniak An image compression algorithm based on neural networks
JP2007049594A (en) Processing method for image data
Chen et al. Lossless bit-plane compression of images with context tree modeling
JP2598410B2 (en) Encoding device
JP2003153275A (en) Image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080609

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees