JPH07154607A - Binary picture encoder - Google Patents

Binary picture encoder

Info

Publication number
JPH07154607A
JPH07154607A JP30021793A JP30021793A JPH07154607A JP H07154607 A JPH07154607 A JP H07154607A JP 30021793 A JP30021793 A JP 30021793A JP 30021793 A JP30021793 A JP 30021793A JP H07154607 A JPH07154607 A JP H07154607A
Authority
JP
Japan
Prior art keywords
prediction
pixel
value
state
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30021793A
Other languages
Japanese (ja)
Other versions
JP3075049B2 (en
Inventor
Ikurou Ueno
幾朗 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP05300217A priority Critical patent/JP3075049B2/en
Publication of JPH07154607A publication Critical patent/JPH07154607A/en
Application granted granted Critical
Publication of JP3075049B2 publication Critical patent/JP3075049B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

PURPOSE:To attain efficient degeneration by predicting a value indicating the property of picture elements and integrating two of them whose prediction level is close to each other into one state. CONSTITUTION:A picture element prediction means 14 uses a reference picture element pattern 13 generated by a reference picture element generating means 12 to predict a picture element. A prediction level classification means 16 quantizes a prediction level 15 calculated by the prediction of the picture element prediction means 14 and classifies states whose prediction levels are close to each other into one state. A prediction value/prediction coincidence rate decision means 18 reads a prediction value 20 and a prediction coincidence rate 21 from a prediction value/prediction rate reference table 19 based on the result of classification 17 by the prediction level classification means 16. Thus, conditional entropy of picture data is reduced without remarkable increase in the size of the coding parameter reference table to reduce the code quantity.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は2値画像データ符号化
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a binary image data coding device.

【0002】[0002]

【従来の技術】ファクシミリ等での2値画像符号化法と
して、マルコフモデル符号化が有効とされており、これ
を利用した技術は、特開平2−305225などに示さ
れている。以下に、従来のマルコフモデル符号化につい
て説明する。
2. Description of the Related Art Markov model coding is considered to be effective as a binary image coding method for facsimiles and the like, and a technique using this is disclosed in Japanese Patent Laid-Open No. 2-305225. The conventional Markov model coding will be described below.

【0003】ここで、ある情報でP(xi )を情報源シ
ンボルxi の生じる確率とすると、その情報源のエント
ロピ(平均情報量)は式(1)で定義される。
Here, if P (x i ) is the probability of occurrence of the information source symbol x i in certain information, the entropy (average amount of information) of that information source is defined by equation (1).

【0004】[0004]

【数1】 [Equation 1]

【0005】この式はシンボルxi が生じたことを知っ
たことにより得られる情報量−log2 P(xi )を各
シンボルの生起確率で重み付けして平均をとることを意
味している。2値画像の場合(xi =0または1)なら
ば、エントロピは式(2)で表される。
This expression means that the information amount −log 2 P (x i ) obtained by knowing that the symbol x i has occurred is weighted by the occurrence probability of each symbol and the average is taken. In the case of a binary image (x i = 0 or 1), entropy is expressed by equation (2).

【0006】[0006]

【数2】 [Equation 2]

【0007】また、この値は、符号化対象となる1画素
のみに注目して符号を割り当てたとき、これ以下の符号
量では符号化できない理論的圧縮限界を示すことが一般
に知られている。従って、符号化に当たっては、符号量
をできる限りエントロピHにに近づけるように、各シン
ボルの生起確率P(xi )に適するエントロピ符号化を
行う必要がある。
It is generally known that this value shows a theoretical compression limit that cannot be coded with a code amount less than this value when a code is assigned by focusing on only one pixel to be coded. Therefore, in encoding, it is necessary to perform entropy encoding suitable for the occurrence probability P (x i ) of each symbol so that the code amount is as close to the entropy H as possible.

【0008】一般に、画像データにおいてある画素の値
が0となるか1となるかの確率はそれに先行する複数の
画素の値が何であったかに依存する。先行するn個の画
素(以下、参照画素)の値に依存する場合、その情報源
をn重マルコフ情報源という。n重マルコフ情報源のエ
ントロピ、つまり、注目画素(xi )に先行するn個の
画素値(xi-1 ,…,xi-n )を知った上でのエントロ
ピ(条件付きエントロピ)は式(3)で表される。ここ
で、P(xi-1 ,…,xi-n )は参照画素の値がx
i-1 ,…,xi-n となる確率(結合確率)、P(xi
i-1 ,…,xi-n)は参照画素の値がxi-1 ,…,x
i-n となった場合に、注目画素値がxi となる確率(条
件付き確率)を示す。
In general, the probability of a pixel having a value of 0 or 1 in image data depends on what the values of a plurality of pixels preceding it are. When dependent on the values of the preceding n pixels (hereinafter referred to as reference pixels), the information source is called an n-fold Markov information source. The entropy of the n-fold Markov information source, that is, the entropy (conditional entropy) after knowing the n pixel values (x i-1 , ..., X in ) preceding the pixel of interest (x i ) is It is represented by 3). Here, P (x i-1 , ..., X in ) has a reference pixel value of x.
i−1 , ..., Probability of being x in (join probability), P (x i /
x i-1 , ..., X in ) has reference pixel values of x i-1 , ..., X
The probability (conditional probability) that the pixel value of interest becomes x i when it becomes in is shown.

【0009】[0009]

【数3】 [Equation 3]

【0010】この条件付きエントロピH’と式(2)の
Hとの関係では、 H’≦H (4) が成り立ち、等号が成立するのは情報源がマルコフ情報
源でない場合である。
In the relation between the conditional entropy H'and H in the equation (2), H'≤H (4) holds, and the equal sign holds when the information source is not a Markov information source.

【0011】ここで、n個の参照画素のとりうる2n
の状態をマルコフ情報源の状態と呼ぶことにし、各状態
をSi で表す。そして、式(3)を変形すると式(5)
が得られる。
Here, the 2 n possible states of the n reference pixels are called the states of the Markov information source, and each state is represented by S i . Then, when the formula (3) is transformed, the formula (5) is obtained.
Is obtained.

【0012】[0012]

【数4】 [Equation 4]

【0013】これは、各状態でのエントロピh(si
=−ΣP(xi /si )log2 P(xi /si )を各
状態の出現確率P(si )で重み付けして平均をとった
ものである。符号化の際には、各状態ごとに、注目画素
が0または1をとる確率P(xi /si )に適するエン
トロピ符号化を行えば各状態での符号量をそのエントロ
ピh(si )に近づけることができ、全体としての符号
量も式(5)のH’に近づけることができる。従って、
参照画素は条件付きエントロピが低下するように選択す
る必要がある。このように、参照画素の状態によって注
目画素を分類して、各状態ごとに適切なエントロピ符号
化を行う符号化方式をマルコフモデル符号化という。
This is the entropy h (s i ) in each state.
= −ΣP (x i / s i ) log 2 P (x i / s i ) is weighted by the appearance probability P (s i ) of each state and averaged. At the time of encoding, if the entropy encoding suitable for the probability P (x i / s i ) that the pixel of interest takes 0 or 1 is performed for each state, the code amount in each state is the entropy h (s i ), And the code amount as a whole can also approach H'in Expression (5). Therefore,
The reference pixel should be selected so that the conditional entropy is reduced. In this way, an encoding method that classifies a pixel of interest according to the state of a reference pixel and performs appropriate entropy encoding for each state is called Markov model encoding.

【0014】マルコフモデル符号化の例として特開平2
−305225に記載されている算術符号型MELCO
DEについて説明する。その構成図を図2に示す。11
は符号化対象の2値画像データ、12は注目画素以前の
入力の画素からマルコフ状態の分類に使用するための参
照画素を選択して、参照画素パターンを作成する参照画
素パターン作成手段、18は参照画素パターン13を用
いて注目画素の予測値とその予測の的中率(予測一致
率)を算出する予測値・予測一致率決定手段、19は参
照画素パターンに対する予測値と予測一致率が記憶され
ている予測値・予測一致率参照テーブル、20は予測値
(0または1)、21は予測一致率、22は予測値と注
目画素との一致/不一致を示す符号化対象シンボル、2
3は予測一致率21に応じて符号化対象シンボルを符号
化する算術符号化器、24は算術符号化器から出力され
る符号である。
As an example of the Markov model encoding, Japanese Patent Laid-Open No. Hei 2
-305225 arithmetic code type MELCO
The DE will be described. The block diagram is shown in FIG. 11
Is binary image data to be encoded, 12 is a reference pixel pattern creating means for creating a reference pixel pattern by selecting a reference pixel to be used for classification of Markov state from input pixels before the target pixel, and 18 is Prediction value / prediction match rate determining means for calculating the prediction value of the pixel of interest and the prediction hit rate (prediction match rate) using the reference pixel pattern 13, and 19 stores the prediction value and the prediction match rate for the reference pixel pattern. Predicted value / predicted matching rate reference table, 20 is a predicted value (0 or 1), 21 is a predicted matching rate, 22 is an encoding target symbol indicating matching / mismatch between the predicted value and the target pixel, 2
Reference numeral 3 is an arithmetic encoder that encodes the encoding target symbol according to the predictive matching rate 21, and reference numeral 24 is a code output from the arithmetic encoder.

【0015】[0015]

【表1】 [Table 1]

【0016】次に、この符号化器の動作を表1に示す2
値画像を例にとり説明する。この例では、図3の31が
注目画素xi 、32が参照画素xi-1 とxi-2 とする。
参照画素が2画素なので表1の通り状態はs0 〜s3
4種類で、各状態の生起確率P(si )、各状態で注目
画素が0となる確率P(0/si )、1となる確率P
(1/si )は表1の値となる。この場合、注目画素が
0となる確率P(0)=0.47、注目画素が1となる
確率P(1)=0.53なので、式(2)よりH=0.
997bitが得られる。この値は上述したように、符
号化対象となる1画素のみに注目して符号を割り当てた
ときの理論的圧縮限界である。また、xi-1 とxi-2
2画素の状態si により注目画素を分類し式(5)から
算出した条件付きエントロピはH’=0.72bitと
なる。このようにマルコフ状態に分類して、各状態ごと
に適切な符号化を行うことによりH’=0.72bit
に近い符号量で符号化を行うことが可能となる。
Next, the operation of this encoder is shown in Table 1-2.
The value image will be described as an example. In this example, 31 in FIG. 3 is a target pixel x i , and 32 is a reference pixel x i-1 and x i-2 .
Since the reference pixel is 2 pixels, as shown in Table 1, there are four kinds of states s 0 to s 3 , the occurrence probability P (s i ) of each state, and the probability P (0 / s i ) that the pixel of interest becomes 0 in each state. Probability of 1
(1 / s i ) has the values shown in Table 1. In this case, the probability P (0) = 0.47 that the target pixel is 0 and the probability P (1) = 0.53 that the target pixel is 1, so that H = 0.
997 bits are obtained. As described above, this value is a theoretical compression limit when only one pixel to be coded is focused and a code is assigned. Further, the conditional entropy calculated from Expression (5) by classifying the target pixel according to the state s i of the two pixels of x i-1 and x i-2 is H ′ = 0.72 bit. In this way, H ′ = 0.72 bit by classifying into Markov states and performing appropriate encoding for each state.
It is possible to perform coding with a code amount close to.

【0017】符号化時にはまず、参照画素パターン作成
手段12により画素xi-1 とxi-2が符号化済みの画素
から選択され参照画素パターン13が作成される。この
参照画素パターン13をもとに予測値20、予測一致率
21を予測値・予測一致率参照テーブルから読み出す。
もし、参照画素の状態がs1 であったとすれば、表1よ
り予測値=1、予測一致率=0.6となる。そして、こ
の予測一致率21を算術符号化器23に入力する。
At the time of coding, first, the reference pixel pattern creating means 12 selects the pixels x i-1 and x i-2 from the coded pixels and creates the reference pixel pattern 13. Based on this reference pixel pattern 13, the predicted value 20 and the predicted matching rate 21 are read from the predicted value / predicted matching rate reference table.
If the state of the reference pixel is s 1 , then from Table 1, the predicted value is 1, and the predicted matching rate is 0.6. Then, the predicted matching rate 21 is input to the arithmetic encoder 23.

【0018】ここで、符号化対象画素値が1であったと
すれば、予測が的中したので予測が的中したことを示す
シンボル0を符号化対象シンボル22として、算術符号
化器23に入力する。もし、符号化対象画素値が0であ
ったとすれば、予測が外れたので予測が外れたことを示
すシンボル1を符号化対象シンボル22として、算術符
号化器23に入力する。算術符号化器23では、予測一
致率に適した符号化パラメータで符号化対象シンボル2
2を符号化することにより、ほぼエントロピと同じ符号
量で符号化ができる。
If the pixel value to be encoded is 1, the prediction is correct, so the symbol 0 indicating that the prediction is correct is input to the arithmetic encoder 23 as the encoding target symbol 22. To do. If the pixel value to be encoded is 0, the prediction is incorrect, and therefore the symbol 1 indicating that the prediction is incorrect is input to the arithmetic encoder 23 as the encoding target symbol 22. In the arithmetic encoder 23, the encoding target symbol 2 is encoded with an encoding parameter suitable for the predictive matching rate.
By encoding 2, it is possible to perform encoding with almost the same code amount as entropy.

【0019】この時、予測値・予測一致率を記憶するの
に各状態でk(bit)必要とすれば、参照予測値・予
測一致率参照テーブル19の大きさは、参照画素の画素
数が2画素なのでk×22 bitとなる。
At this time, if k (bit) is required in each state to store the predicted value / predicted matching rate, the size of the reference predicted value / predicted matching rate reference table 19 is determined by the number of reference pixels. Since there are two pixels, k × 2 2 bits are obtained.

【0020】[0020]

【発明が解決しようとする課題】マルコフモデル符号化
では、参照画素数を増加し状態数を増やせば一般にエン
トロピは減少するが、状態ごとの予測値・予測一致率を
記憶している参照テーブル19の大きさが参照画素数の
増加にともない指数関数的に増大するため、参照画素数
を大幅に増やすことは困難であるという問題点があっ
た。
In the Markov model coding, entropy generally decreases as the number of reference pixels increases and the number of states increases, but a reference table 19 storing predicted values / predicted concordance rates for each state. There is a problem in that it is difficult to increase the number of reference pixels drastically, because the size of the number increases exponentially with the increase of the number of reference pixels.

【0021】表1では参照画素のとりうる値により4通
りの状態に注目画素を分類したが、この4通りの状態の
いくつかをまとめて新たに1つの状態とすることを考え
る。以後、この処理をマルコフ状態の縮退、または単に
縮退と呼ぶ。例えば、表1の状態s1 とs2 をまとめて
1つの状態とすると、表2に示すs’0 〜s’3 の3通
りの状態に縮退される。
In Table 1, the pixel of interest is classified into four states according to the values that the reference pixel can take, but it is considered that some of these four states are newly combined into one state. Hereinafter, this process is called degeneracy of Markov state, or simply degeneracy. For example, if the states s 1 and s 2 in Table 1 are combined into one state, the states are degenerated into three states s ′ 0 to s ′ 3 shown in Table 2.

【0022】[0022]

【表2】 [Table 2]

【0023】状態を縮退すれば一般にエントロピは上昇
するが、予測一致率の近い状態同士を縮退すれば、エン
トロピの上昇はわずかに抑えられる。表1から表2への
縮退では、縮退した2つの状態の予測一致率が等しいの
でエントロピの上昇なしに、縮退が達成されている。こ
の発明は、このように効率的な縮退を行うマルコフモデ
ル符号化装置を実現することを目的としている。
When the states are degenerated, the entropy generally rises. However, when the states having similar predicted coincidence rates are degenerated, the entropy rise is slightly suppressed. In the degeneracy from Table 1 to Table 2, degeneracy is achieved without an increase in entropy because the predicted concordance rates of the two degenerate states are equal. An object of the present invention is to realize a Markov model coder that performs such efficient degeneracy.

【0024】[0024]

【課題を解決するための手段】この発明に係わるマルコ
フ状態縮退手段は、注目画素の性質を示す値を予測し、
予測レベルの近い状態同士を1つの状態にまとめること
により、マルコフ状態の縮退を行うものである。
The Markov state degeneracy means according to the present invention predicts a value indicating the property of a pixel of interest,
The Markov state is degenerated by combining states with similar prediction levels into one state.

【0025】この発明の符号化器では予測対象を注目画
素の値または注目画素の黒画素出現確率とし、その値に
基づいて注目画素の分類(すなわち、状態の縮退)を行
う。
In the encoder of the present invention, the prediction target is the value of the target pixel or the black pixel appearance probability of the target pixel, and the target pixel is classified (that is, the state is degenerated) based on the value.

【0026】この発明の符号化器では予測手段、予測レ
ベル分類手段を複数用意しておき、参照画素の性質に応
じて、画面内でそれらを適応的に選択してマルコフ状態
の縮退を行うものである。
In the encoder of the present invention, a plurality of prediction means and prediction level classification means are prepared, and those are adaptively selected in the screen according to the property of the reference pixel to degenerate the Markov state. Is.

【0027】[0027]

【作用】請求項第1〜3項の発明において、注目画素
値、黒画素出現確率などを対象とした予測により参照画
素の性質を反映した値が得られ、この予測レベルの近い
状態をまとめることによりエントロピの上昇を抑えたマ
ルコフ状態の縮退が行われる。請求項第4項の発明にお
いて、請求項第1〜3項の発明での注目画素値、黒画素
出現確率などを対象とした予測における予測手段、予測
レベル分類手段を参照画素の状態に応じて切り換えるこ
とにより、エントロピの上昇を抑えたマルコフ状態の縮
退が行われる。
According to the inventions of claims 1 to 3, a value reflecting the nature of the reference pixel is obtained by the prediction target pixel value, black pixel appearance probability, etc., and a state in which the prediction levels are close is summarized. As a result, the degeneracy of Markov state that suppresses the rise in entropy is performed. In the invention of claim 4, the predicting means and the prediction level classifying means in the prediction for the pixel value of interest, the black pixel appearance probability, etc. in the inventions of claims 1 to 3 are set according to the state of the reference pixel. By switching, the Markov state is degenerated with the increase in entropy suppressed.

【0028】[0028]

【実施例】実施例1.以下、この発明の一実施例を説明
する。図1は本発明を用いた算術符号型MELCODE
の構成図である。図1において、14は参照画素パター
ン作成手段12により作成された参照画素パターン13
を用いて注目画素値を予測する注目画素予測手段、16
は注目画素予測手段14での予測により算出された予測
レベル15を量子化し、予測レベルの近い状態をまとめ
て1つの状態に分類する予測レベル分類手段、18は予
測レベル分類手段16による分類結果17に応じて、予
測値・予測一致率参照テーブル19から予測値、予測一
致率を読み出す予測値・予測一致率決定手段である。図
2と比べて異なるのは以上の部分だけなので、他につい
ては説明を省略する。
EXAMPLES Example 1. An embodiment of the present invention will be described below. FIG. 1 shows an arithmetic code type MELCODE using the present invention.
It is a block diagram of. In FIG. 1, 14 is a reference pixel pattern 13 created by the reference pixel pattern creating means 12.
Pixel-of-interest predicting means for predicting a pixel-of-interest value using
Is a prediction level classification unit that quantizes the prediction level 15 calculated by the prediction by the pixel-of-interest prediction unit 14 and classifies states with close prediction levels into one state. 18 is a classification result 17 by the prediction level classification unit 16. The prediction value / prediction coincidence rate reference table 19 reads out the prediction value / prediction coincidence rate in accordance with the above. The only difference from FIG. 2 is the above-mentioned part, and the description of the other parts will be omitted.

【0029】次に、動作について表1に示す確率分布を
とる2値画像を用いて説明する。まず、参照画素パター
ン13の参照画素xi-1 ,xi-2 を用いて、注目画素予
測手段14により式(6)から予測レベルyi 15を算
出する。このyi は、実数値をとり、予測値20(0ま
たは1)と区別するために予測レベルと呼ぶ。 yi =0.52xi-1 +0.44xi-2 (6)
Next, the operation will be described using the binary image having the probability distribution shown in Table 1. First, using the reference pixels x i-1 and x i-2 of the reference pixel pattern 13, the pixel -of- interest prediction unit 14 calculates the prediction level y i 15 from the equation (6). This y i takes a real value and is called a prediction level to distinguish it from the prediction value 20 (0 or 1). y i = 0.52x i-1 + 0.44x i-2 (6)

【0030】この予測関数は、次に示す通り注目画素値
と予測レベルとの平均2乗誤差が最小となるように予め
設計しておく。ei を予測誤差、ai を予測係数とする
と、予測誤差ei は次式で表される。 ei =yi −xi =a1 ・xi-1 +a2 ・xi-2 −xi (7) ここで、E[ei 2]を予測誤差ei の2乗平均とすれ
ば、E[ei 2]を最小化する予測係数を求めるには、式
(8)を満たす予測係数a1 ,a2 を算出すればよい。 ∂E[ei 2]/∂a1 =0 ∂E[ei 2]/∂a2 =0 (8) 式(8)は次式のように書ける。これをYule−Wa
lker方程式という。
This prediction function is designed in advance so that the mean square error between the pixel value of interest and the prediction level is minimized as shown below. When e i is a prediction error and a i is a prediction coefficient, the prediction error e i is expressed by the following equation. e i = y i −x i = a 1 · x i−1 + a 2 · x i −2 −x i (7) Here, if E [e i 2 ] is the mean square of the prediction error e i , , E [e i 2 ] can be obtained by calculating the prediction coefficients a 1 and a 2 that satisfy the equation (8). ∂E [e i 2 ] / ∂a 1 = 0 ∂E [e i 2 ] / ∂a 2 = 0 (8) Expression (8) can be written as the following expression. This is Yule-Wa
This is called the lker equation.

【0031】[0031]

【数5】 [Equation 5]

【0032】式(6)の予測係数は、表1の確率分布の
2値画像を対象として、式(9)を解くことにより得ら
れたものである。
The prediction coefficient of the equation (6) is obtained by solving the equation (9) for the binary image of the probability distribution shown in Table 1.

【0033】[0033]

【表3】 [Table 3]

【0034】[0034]

【表4】 [Table 4]

【0035】[0035]

【表5】 [Table 5]

【0036】このようにして得られた予測レベル15
は、表1のyi となる。次に予測レベル分類手段16で
表3に示すように予測レベルyi をしきい値0.4で2
レベルに量子化することにより、予測レベルの近い状態
同士を1つにまとめ、状態を縮退する。この縮退によ
り、条件付きエントロピは、0.78bitとなる。こ
の値は、表1で示したエントロピH=0.72bitに
比べて縮退を行ったため高くなっている。しかし、表4
あるいは表5のように参照画素をxi-1 あるいはxi-2
の1画素のみとして同じ状態数とした場合のエントロピ
に比べ低くなっており、本発明の縮退の効果を確認でき
る。つまり、表3に示す各状態に対応する予測値20、
予測一致率21を予測値・予測一致率参照テーブル19
から読みだし、算術符号化することにより同一の大きさ
の予測値・予測一致率参照テーブル19を持つ表4ある
いは表5の場合に比べ、少ない符号量で符号化できる。
Prediction level 15 thus obtained
Becomes y i in Table 1. Next, the prediction level classification means 16 sets the prediction level y i to 2 with a threshold value of 0.4 as shown in Table 3.
By quantizing into levels, states with similar prediction levels are combined into one and the states are degenerated. Due to this degeneracy, the conditional entropy becomes 0.78 bit. This value is higher than the entropy H = 0.72 bit shown in Table 1 due to degeneration. However, Table 4
Alternatively, as shown in Table 5, the reference pixel is set to x i-1 or x i-2.
This is lower than the entropy when only one pixel has the same number of states, and the degeneracy effect of the present invention can be confirmed. That is, the predicted value 20 corresponding to each state shown in Table 3,
The predicted matching rate 21 is set to the predicted value / predicted matching rate reference table 19
It is possible to perform coding with a smaller code amount as compared with the case of Table 4 or Table 5 having the same predicted value / predictive coincidence rate reference table 19 by performing arithmetic coding.

【0037】実施例2.実施例1では、注目画素予測手
段14として線形予測関数を用いたが、たとえば予測関
数として図4に示す階層型のニューラルネットを用いて
もよい。各層は図の左から順に入力層、中間層、出力層
と呼ばれ、各層はいくつかのユニット43から構成され
ている。入力層の各ユニットは入力信号41をそのまま
次の層に送り、中間層、出力層では、各ユニットは前層
の各ユニット出力の荷重和をとりその値に応じて各ユニ
ットの出力値を算出する。そして、出力層のユニットの
出力がニューラルネットの出力42となる。ニューラル
ネットの入出力特性を決定するのは前層の出力の荷重和
をとる際の重み係数で、重み係数は結合ごとに異なった
値を持っている。この重み係数は、予め学習と呼ばれる
処理により決定しておく。
Example 2. In the first embodiment, the linear prediction function is used as the pixel-of-interest prediction unit 14, but a hierarchical neural network shown in FIG. 4 may be used as the prediction function, for example. Each layer is called an input layer, an intermediate layer, and an output layer in order from the left of the figure, and each layer is composed of several units 43. Each unit of the input layer sends the input signal 41 to the next layer as it is, and in the intermediate layer and the output layer, each unit takes the weighted sum of the output of each unit of the previous layer and calculates the output value of each unit according to the value. To do. Then, the output of the unit in the output layer becomes the output 42 of the neural network. The input / output characteristics of the neural network are determined by the weighting coefficient when the weighted sum of the outputs of the previous layer is taken, and the weighting coefficient has a different value for each connection. This weighting factor is previously determined by a process called learning.

【0038】次に動作を説明するが、予測関数がニュー
ラルネットを用いること以外は実施例1と同一なので、
他については説明を省略する。まず、参照画素パターン
13は図4のニューラルネットに入力され、ニューラル
ネットから注目画素値の予測レベル15が出力される。
そして、その予測レベル15を予測レベル分類手段16
で分類することにより状態が決定される。
The operation will be described below. Since the prediction function is the same as that of the first embodiment except that a neural network is used,
Descriptions of other parts are omitted. First, the reference pixel pattern 13 is input to the neural network of FIG. 4, and the prediction level 15 of the pixel value of interest is output from the neural network.
Then, the prediction level 15 is converted to the prediction level classification means 16
The state is determined by classifying with.

【0039】この時のニューラルネットの重み係数は、
注目画素と出力値の平均2乗誤差を最小化するように予
めバックプロパゲーション学習則により決定しておく。
これは、入力信号を与え、その出力が教師信号と呼ばれ
る出力として望ましい値に近づくように重み係数を修正
することを何回も繰り返すという操作である。例えば、
表1の確率分布をとる2値画像の場合、各状態での参照
画素値(xi-1 ,xi-2 )とそれに対する教師信号xi
を順にニューラルネットに与え、学習を出力値と教師信
号の2乗誤差が収束するまで繰り返す。つまり、各状態
0 ,S1 ,S2 ,S3 での教師信号は、それぞれ0,
1,1,1となる。
The weighting coefficient of the neural network at this time is
It is determined in advance by the back propagation learning rule so as to minimize the mean square error between the pixel of interest and the output value.
This is an operation in which an input signal is applied and the weighting coefficient is modified many times so that its output approaches a desired value called an output called a teacher signal. For example,
In the case of the binary image having the probability distribution shown in Table 1, the reference pixel values (x i-1 , x i-2 ) in each state and the teacher signal x i corresponding thereto
Are sequentially applied to the neural network, and learning is repeated until the squared error between the output value and the teacher signal converges. That is, the teacher signals in the states S 0 , S 1 , S 2 , and S 3 are 0,
It becomes 1,1,1.

【0040】[0040]

【表6】 [Table 6]

【0041】このようにして決定された重み係数により
構成されるニューラルネットの各状態での出力yi は表
6に示されている。これを表3に示す予測レベル分類手
段16に入力すれば、実施例1と同様なマルコフ状態の
縮退が可能となる。
Table 6 shows the outputs y i in each state of the neural network constituted by the weighting factors thus determined. By inputting this into the prediction level classification means 16 shown in Table 3, it becomes possible to degenerate the Markov state as in the first embodiment.

【0042】実施例3.実施例1,2では、注目画素値
を予測対象としたが、注目画素が黒画素となる確率(黒
画素出現確率)を予測してもよい。例えば、表1の2値
画像を対象とした実施例2ではニューラルネットの学習
の際、教師信号として予測対象である注目画素値xi
用いたが、その代わりに黒画素出現確率P(1/si
を用いる。つまり、各状態S0 ,S1 ,S2 ,S3 での
教師信号は、それぞれ0.2,0.6,0.6,0.9
となる。
Example 3. In the first and second embodiments, the target pixel value is used as the prediction target, but the probability that the target pixel is a black pixel (black pixel appearance probability) may be predicted. For example, in the second embodiment for the binary image in Table 1, the target pixel value x i which is the prediction target is used as the teacher signal when learning the neural network, but instead, the black pixel appearance probability P (1 / S i )
To use. That is, the teacher signals in the states S 0 , S 1 , S 2 , and S 3 are 0.2, 0.6, 0.6, and 0.9, respectively.
Becomes

【0043】実施例4.実施例1〜3では、予測関数と
予測レベルを分類するのに使用する量子化器は1種類の
みであったが、これらを複数用意しておき、参照画素に
応じて画面内で適応的に切り換えてもよい。
Example 4. In the first to third embodiments, only one type of quantizer is used to classify the prediction function and the prediction level. However, a plurality of quantizers are prepared, and adaptively in the screen according to the reference pixel. You may switch.

【0044】[0044]

【表7】 [Table 7]

【0045】[0045]

【表8】 [Table 8]

【0046】参照画素は、図5の3画素xi-1 ,x
i-2 ,xi-3 とする。また、この時の2値画像は、表7
に示す確率分布をとるものとする。参照画素のとり得る
値により状態S0 〜S7 に分類した場合の条件付きエン
トロピH’は、式(4)よりH’=0.77bitとな
る。実施例4では、まず式(10)により予測レベル1
5を算出する。
The reference pixels are the three pixels x i−1 , x in FIG.
i-2 and x i-3 . The binary image at this time is shown in Table 7.
The probability distribution shown in is taken. The conditional entropy H ′ when classified into the states S 0 to S 7 according to the value that the reference pixel can take is H ′ = 0.77 bit from the equation (4). In the fourth embodiment, first, the prediction level 1 is calculated by the equation (10).
Calculate 5.

【0047】[0047]

【数6】 [Equation 6]

【0048】表7に示す画像の場合、各状態の予測レベ
ル15は表7のyi となる。次に、表8に示すように予
測レベル15をxi-3 の値に応じて別々の量子化器で量
子化する。つまり、xi-3 =0の場合はしきい値0.4
で、xi-3 =1の場合はしきい値0.5で2レベルに分
類する。実施例1〜3と比べて異なるのは、参照画素x
i-3 の値により予測関数、量子化器を切り換えているこ
とである。これにより、表7の2値画像は表8の4状態
に分類され、条件付きエントロピH’=0.80bit
となる。
In the case of the images shown in Table 7, the prediction level 15 in each state is y i in Table 7. Next, as shown in Table 8, the prediction level 15 is quantized by different quantizers according to the value of x i-3 . That is, when x i-3 = 0, the threshold value 0.4
Then, when x i−3 = 1 is set, the threshold value is 0.5 and the level is classified into two levels. The difference from the first to third embodiments is that the reference pixel x
The prediction function and the quantizer are switched according to the value of i-3 . As a result, the binary image in Table 7 is classified into four states in Table 8, and the conditional entropy H '= 0.80 bit.
Becomes

【0049】[0049]

【表9】 [Table 9]

【0050】表9は、xi-1 とxi-3 のとり得る値によ
り4状態に分類した場合の確率分布と条件付きエントロ
ピである。表8と同じ4状態に分類したにもかかわら
ず、表8に比べてエントロピは高くなっており、実施例
4の効果を確認できる。
Table 9 shows the probability distribution and conditional entropy when the state is classified into four states according to the possible values of x i-1 and x i-3 . Despite being classified into the same four states as in Table 8, the entropy is higher than in Table 8, and the effect of Example 4 can be confirmed.

【0051】[0051]

【発明の効果】この発明により、符号化パラメータ参照
テーブルの大きさを大幅に増大することなく画像データ
の条件付きエントロピを低下させ、符号量の削減を可能
にする。
According to the present invention, the conditional entropy of image data can be reduced without significantly increasing the size of the coding parameter reference table, and the code amount can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を用いた算術符号型MELCODEの構
成図である。
FIG. 1 is a configuration diagram of an arithmetic code type MELCODE using the present invention.

【図2】従来の算術符号型MELCODEの構成図であ
る。
FIG. 2 is a configuration diagram of a conventional arithmetic code type MELCODE.

【図3】従来例、本発明の実施例1〜3における注目画
素、参照画素の画素配置を示す図である。
FIG. 3 is a diagram showing a pixel arrangement of a target pixel and a reference pixel in a conventional example and Examples 1 to 3 of the present invention.

【図4】本発明における実施例2,3でのニューラルネ
ットワークの構造を示す図である。
FIG. 4 is a diagram showing a structure of a neural network according to Examples 2 and 3 of the present invention.

【図5】本発明の実施例4における注目画素、参照画素
の画素配置を示す図である。
FIG. 5 is a diagram showing a pixel arrangement of a target pixel and a reference pixel according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

14 注目画素予測手段 15 予測レベル 16 予測レベル分類手段 18 予測値・予測一致率決定手段 19 予測値・予測一致率参照テーブル 31 注目画素 32 参照画素 14 Target Pixel Predicting Means 15 Prediction Level 16 Prediction Level Classifying Means 18 Prediction Value / Prediction Matching Rate Determining Means 19 Prediction Value / Prediction Matching Rate Reference Table 31 Target Pixels 32 Reference Pixels

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 注目画素周辺の参照画素を用いて注目画
素の性質を示す値を予測する予測手段と、前記予測手段
から出力される予測レベルの近い注目画素同士をまとめ
て一つのマルコフ状態として分類する予測レベル分類手
段を備え、予測レベル分類結果に応じて各分類に適した
エントロピ符号化を行うことを特徴とするマルコフモデ
ル符号化による2値画像符号化装置。
1. A prediction unit that predicts a value indicating the property of a target pixel by using reference pixels around the target pixel, and target pixels with similar prediction levels output from the prediction unit are collectively set as one Markov state. A binary image coding apparatus by Markov model coding, comprising prediction level classification means for classifying, and performing entropy coding suitable for each classification according to a prediction level classification result.
【請求項2】 予測対象を注目画素値とすることを特徴
とする請求項第1項に記載の2値画像符号化装置。
2. The binary image coding device according to claim 1, wherein the prediction target is a pixel value of interest.
【請求項3】 予測対象を注目画素が黒画素となる確率
(以下、黒画素出現確率)とすることを特徴とする請求
項第1項に記載の2値画像符号化装置。
3. The binary image coding apparatus according to claim 1, wherein the prediction target is a probability that the pixel of interest is a black pixel (hereinafter, black pixel appearance probability).
【請求項4】 上記予測手段、上記予測レベル分類手段
を複数個有し、上記参照画素の状態に応じて、上記予測
手段、上記予測レベル分類手段を画面内で適応的に選択
することを特徴とする請求項第1項及び第2項及び第3
項に記載の2値画像符号化装置。
4. The prediction means and the prediction level classification means are provided in plural, and the prediction means and the prediction level classification means are adaptively selected on the screen according to the state of the reference pixel. The first claim, the second claim, and the third claim
Item 2. The binary image coding device according to item.
JP05300217A 1993-11-30 1993-11-30 Image coding device Expired - Fee Related JP3075049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05300217A JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05300217A JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Publications (2)

Publication Number Publication Date
JPH07154607A true JPH07154607A (en) 1995-06-16
JP3075049B2 JP3075049B2 (en) 2000-08-07

Family

ID=17882135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05300217A Expired - Fee Related JP3075049B2 (en) 1993-11-30 1993-11-30 Image coding device

Country Status (1)

Country Link
JP (1) JP3075049B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009025347A1 (en) * 2007-08-22 2009-02-26 Shinichiro Yumura Data compression method, image display method and display image enlargement method
JP2021520087A (en) * 2018-04-27 2021-08-12 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Methods and equipment for video coding and decoding based on CABAC's neural network implementation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009025347A1 (en) * 2007-08-22 2009-02-26 Shinichiro Yumura Data compression method, image display method and display image enlargement method
JP2009049895A (en) * 2007-08-22 2009-03-05 Shinichiro Yumura Data compressing method, image display method and display image enlarging method
JP4717860B2 (en) * 2007-08-22 2011-07-06 眞一郎 湯村 Data compression method, image display method, and display image enlargement method
JP2021520087A (en) * 2018-04-27 2021-08-12 インターデジタル ヴイシー ホールディングス, インコーポレイテッド Methods and equipment for video coding and decoding based on CABAC's neural network implementation

Also Published As

Publication number Publication date
JP3075049B2 (en) 2000-08-07

Similar Documents

Publication Publication Date Title
US5903676A (en) Context-based, adaptive, lossless image codec
EP0777386B1 (en) Method and apparatus for encoding and decoding an image
JP3017380B2 (en) Data compression method and apparatus, and data decompression method and apparatus
US6078689A (en) Image information encoding device
JP2009509418A (en) Classification filtering for temporal prediction
CN113748605A (en) Method and apparatus for compressing parameters of neural network
Baligar et al. High compression and low order linear predictor for lossless coding of grayscale images
JP3466058B2 (en) Image decoding apparatus and image decoding method
EP1113395A2 (en) Method and apparatus for hierarchical image coding
US6909746B2 (en) Fast robust data compression method and system
Matsuda et al. Lossless coding using predictors and arithmetic code optimized for each image
EP1156679A2 (en) Image encoding and decoding method and apparatus, and recording medium in which program therefor is recorded
JP3075049B2 (en) Image coding device
Agrawal Finite-State Vector Quantization Techniques for Image Compression
Jiang et al. Lossless compression for medical imaging systems using linear/nonlinear prediction and arithmetic coding
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
US6681049B1 (en) Image encoding method and apparatus
Puthooran et al. Lossless image compression using BPNN predictor with contextual error feedback
Cierniak An image compression algorithm based on neural networks
JP2007049594A (en) Processing method for image data
Maxemchuk et al. An adaptive intraframe DPCM codec based upon nonstationary image model
KR20170075974A (en) Apparatus and Method for Encoding and Decoding of Image
Chang et al. Enhancement algorithm for nonlinear context-based predictors
JP3837850B2 (en) Image coding method and apparatus
Amashi et al. Experimental study on JPEG-LS algorithm

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20080609

LAPS Cancellation because of no payment of annual fees