JP2608285B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2608285B2
JP2608285B2 JP10300387A JP10300387A JP2608285B2 JP 2608285 B2 JP2608285 B2 JP 2608285B2 JP 10300387 A JP10300387 A JP 10300387A JP 10300387 A JP10300387 A JP 10300387A JP 2608285 B2 JP2608285 B2 JP 2608285B2
Authority
JP
Japan
Prior art keywords
information
block
color
brightness
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP10300387A
Other languages
Japanese (ja)
Other versions
JPS63269684A (en
Inventor
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10300387A priority Critical patent/JP2608285B2/en
Priority to US07/185,024 priority patent/US4974071A/en
Publication of JPS63269684A publication Critical patent/JPS63269684A/en
Priority to US07/946,148 priority patent/US5359438A/en
Application granted granted Critical
Publication of JP2608285B2 publication Critical patent/JP2608285B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、カラー画像を表すところの明るさ情報と色
情報とを符号化する画像処理装置に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus that encodes brightness information and color information representing a color image.

[従来の技術] 従来、カラー画像の符号化装置には、カラー画像デー
タを、明るさ情報と色情報とに分解して、それぞれを符
号化するものがある。
2. Description of the Related Art Conventionally, some color image coding apparatuses divide color image data into brightness information and color information, and code each of them.

[発明が解決しようとする問題点] しかしながら従来の符号化方式では、解像度の高い画
像を符号化した場合に、カラー画像データの色の情報量
が少なくなるような符号化を行ってしまうとエッジ部が
効率よく再現されない。
[Problems to be Solved by the Invention] However, in the conventional coding method, when a high-resolution image is coded, if the coding is performed such that the amount of color information of the color image data is reduced, an edge is generated. Parts are not reproduced efficiently.

逆に、中間調画像を符号化した場合に、カラー画像デ
ータの色の情報量が少なくなるような符号化を行わない
と符号化効率が悪くなってしまう。
Conversely, when a halftone image is encoded, the encoding efficiency is reduced unless encoding is performed such that the amount of color information of the color image data is reduced.

またカラー画像データを復号する際に符号化データを
含むデータユニットのデータ量が所定画像単位毎に異な
るとデータを取り扱いにくいという問題がある。
Further, when decoding color image data, if the data amount of a data unit including coded data differs for each predetermined image unit, there is a problem that it is difficult to handle the data.

本発明は、上述従来例の欠点を除去する為に提案され
たものであり、その目的は画像の明るさ情報と色情報を
符号化する際に、符号化されたカラー画像データを復号
化する時等の為に扱いやすいデータユニットに符号化す
ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been proposed to eliminate the above-mentioned drawbacks of the conventional example, and its purpose is to decode encoded color image data when encoding image brightness information and color information. The purpose is to encode data units that are easy to handle for time and the like.

特に、符号化対象の画像の種別を利用した効率の良い
符号化を行うことを目的とする。
In particular, an object of the present invention is to perform efficient encoding using the type of the image to be encoded.

[問題点を解決するための手段] 上記課題を解決するため、本発明の画像処理装置によ
れば、 複数ブロックに分割されたカラー画像を処理する画像
処理装置であって、 分割されたブロックの色情報に基づいて個々のブロッ
クの画素値の分布を示す特徴量を抽出し、該特徴量に応
じて個々のブロックを該ブロック中にエッジが所定量含
まれる第1のブロックと前記第1のブロックと異なる第
2のブロックとに分類する分類手段と、 前記分割されたブロックの明るさ情報と色情報とを符
号化する符号化手段と、 前記符号化手段により符号化された明るさ情報と色情
報とに対して、前記分類手段による分類結果を示す分類
情報を付加する付加手段とを有し、 前記符号化手段は、前記第1のブロックの画像に対し
ては色情報を長い符号長の符号で符号化すると共に明る
さ情報を短い符号長で符号化し、前記第2のブロックの
画像に対しては色情報を短い符号長の符号で符号化する
と共に明るさ情報を長い符号長で符号化し、 更に、前記付加手段は、分割されたブロックの前記符
号化手段により符号化された明るさ情報と色情報及びこ
れらの情報に付加された分類情報を含むデータユニット
を、前記分類手段による該ブロックの分類結果に関り無
く、所定のデータ量に設定することを特徴とする。
[Means for Solving the Problems] In order to solve the above problems, according to an image processing apparatus of the present invention, an image processing apparatus for processing a color image divided into a plurality of blocks, A feature amount indicating a distribution of pixel values of each block is extracted based on the color information, and each block is divided into a first block including a predetermined amount of edges in the block and the first block according to the feature amount. Classifying means for classifying the divided blocks into second blocks different from the blocks; coding means for coding brightness information and color information of the divided blocks; brightness information coded by the coding means; And an adding unit for adding classification information indicating a classification result by the classification unit to the color information, wherein the encoding unit converts the color information into a long code length for the image of the first block. With the sign of And the brightness information is encoded with a short code length, and for the image of the second block, the color information is encoded with a code having a short code length, and the brightness information is encoded with a long code length. Further, the adding unit converts the data unit including the brightness information and the color information encoded by the encoding unit of the divided block and the classification information added to the information into the data unit of the block by the classification unit. It is characterized in that a predetermined data amount is set regardless of the classification result.

[実施例] 以下、第1図〜第17図の添付図面に従つて、本発明に
係る実施例を2例挙げて説明する。
[Embodiment] Hereinafter, two embodiments according to the present invention will be described with reference to the accompanying drawings in FIGS.

[第一実施例] 〈画素ブロック〉 この第一実施例では説明を簡易にするために、画素ブ
ロックの大きさとして2×2画素とする。第2図はその
画素ブロックの分割を示す図である。第2図では、画像
は4ブロック(2a〜2d)に分割されている。1はカラー
画素を示す。カラー画素1は色の原刺激であるところの
R(赤)、G(緑)、B(青)の情報を複数ビットの情
報(以下、これを多値情報とする)として持つている。
ここでは説明の便宜上、R,G,Bの各信号は8ビットずつ
とする。従つて、1つのカラー画素は全体で24ビットの
情報量をもつ。第3図はそうした画素のブロック内の構
成を表す。
First Embodiment <Pixel Block> In this first embodiment, for simplicity of description, the size of a pixel block is 2 × 2 pixels. FIG. 2 is a diagram showing the division of the pixel block. In FIG. 2, the image is divided into four blocks (2a to 2d). 1 indicates a color pixel. The color pixel 1 has information of R (red), G (green), and B (blue), which are original stimuli of color, as a plurality of bits of information (hereinafter referred to as multi-valued information).
Here, for convenience of explanation, each of the R, G, and B signals is assumed to be 8 bits. Therefore, one color pixel has a total information amount of 24 bits. FIG. 3 shows the configuration of such a pixel in a block.

同図において、3a〜3dは第2図の1つのカラー画素を表
す。以下、この画素ブロック内のカラー画素3a,3b,3c,3
dのカラー画像データを夫々順に、X11,X12,X21,X22とす
る。各画素のX11〜X22は前述のようにR,G,Bの多値情報
である。X11のRの情報をR11とし、同様にG,Bに対してG
11,B11とし、X12,X21,X22についても同様とすると、 X11={R11,G11,B11}、 X12={R12,G12,B12}、 X21={R21,G21,B21}、 X22={R22,G22,B22}、 となる。
3, 3a to 3d represent one color pixel in FIG. Hereinafter, the color pixels 3a, 3b, 3c, 3 in this pixel block
Let the color image data of d be X 11 , X 12 , X 21 , and X 22 , respectively. X 11 to X 22 of each pixel is multivalue information of R, G, B as described above. Let the information of R of X 11 be R 11, and similarly, G for G and B
11 , B 11, and the same applies to X 12 , X 21 , X 22 , X 11 = {R 11 , G 11 , B 11 }, X 12 = {R 12 , G 12 , B 12 }, X 21 = {R 21, G 21, B 21}, X 22 = {R 22, G 22, B 22}, and made.

〈第一実施例全体の概略〉 第1図は第一実施例に係る符号化装置の全体ブロック
図である。この符号化装置は、4画素を1ブロックとし
てブロック毎に符号化して、そのブロックの特徴に応じ
て第9A図又は第9B図に示した如き符号化コードに変換す
るものである。その符号化過程で、RGB信号は、ROM4に
より、Y(明るさ)IQ(色差)信号に変換され、変換さ
れたYIQ信号はその信号毎に、演算器8,9,10により特徴
を抽出され、更にその特徴に応じて、符号器11,12によ
り2通りに符号化(符号器11は第9A図のフオーマツトに
従つて、符号器12は第9B図のフオーマツトに従つて符号
化する)し、これら2つの符号化コードのいずれか一方
を、合成器13から出力するものである。
<Overview of Overall First Embodiment> FIG. 1 is an overall block diagram of an encoding device according to a first embodiment. This encoding apparatus encodes each block with four pixels as one block, and converts it into an encoded code as shown in FIG. 9A or 9B according to the characteristics of the block. In the encoding process, the RGB signal is converted by the ROM 4 into a Y (brightness) IQ (color difference) signal, and the converted YIQ signal is extracted by the arithmetic units 8, 9, and 10 for each signal. And, depending on its characteristics, two encodings by encoders 11 and 12 (encoder 11 encodes according to the format of FIG. 9A and encoder 12 encodes according to the format of FIG. 9B). One of these two encoded codes is output from the synthesizer 13.

第4図は、第9A図,第9B図と共に、第一実施例に係る
符号化の概略を表わしたものである。同図において、符
号化の特徴を理解し易くするために、復号化の手法も合
せて示す。mYはブロック内の平均の明るさを示す。σ
はブロック内の明るさについてのエッジ情報(本実施例
では、Yijの標準偏差をエッジ情報とする)である。ま
た、Nijは、ブロック中心(明るさmYをもつ)から各画
素方向への明るさ変化を上記標準偏差σで規格化した
もの、即ち、 Nij=(Yij−mY)/σ である。従つて、復号化により、 Yij′=Nij・σ+mY II′=mI IQ′=mQ が得られる。第1図実施例の回路は上記符号化を実現す
るように構成されている。
FIG. 4 shows an outline of the encoding according to the first embodiment together with FIGS. 9A and 9B. In the figure, a decoding method is also shown to make it easier to understand the characteristics of the coding. m Y indicates the average brightness in the block. σ Y
Is edge information on the brightness in the block (in this embodiment, the standard deviation of Y ij is used as edge information). N ij is a value obtained by standardizing a change in brightness from the block center (having brightness m Y ) in each pixel direction by the standard deviation σ Y , that is, N ij = (Y ij −m Y ) / σ Y. Accordance connexion, by decoding, Y ij '= N ij · σ Y + m Y I I' = m I I Q '= m Q is obtained. The circuit of the embodiment shown in FIG. 1 is configured to realize the above encoding.

〈RGB→YIQ変換〉 第1図に戻つて、4はRGB情報をYIQ情報に、テーブル
を参照して変換するための信号変換用の読み出し専用メ
モリ(以下、ROMと略す)であり、Y,I,Qは一般にTV信号
として用いられている輝度情報Yと色差情報I,Qであ
る。この信号変換用ROM4は入力アドレスとしてR,G,B情
報を使用し、出力データとしてY,I,Q情報を出力する。
そこで、X11から算出されるY情報をY11,I情報をI11,Q
情報をQ11とする。以下、X12,X21,X22についても同様で
ある。
<RGB → YIQ Conversion> Returning to FIG. 1, reference numeral 4 denotes a signal conversion read-only memory (hereinafter abbreviated as ROM) for converting RGB information into YIQ information with reference to a table. I and Q are luminance information Y and color difference information I and Q generally used as TV signals. This signal conversion ROM 4 uses R, G, B information as an input address and outputs Y, I, Q information as output data.
Therefore, the Y-information calculated from X 11 Y 11, I information I 11, Q
Information is referred to as Q 11. Hereinafter, the same applies to X 12 , X 21 , and X 22 .

5,6,7は信号変換用ROM4によつて変換された1ブロッ
クのY,I,Q情報を、YIQ毎に蓄積するレジスタである。即
ち、5はY情報レジスタ、6はI情報レジスタ、7はQ
情報レジスタである。これらのレジスタ5,6,7には、
X11,X12,X21,X22から算出されたY11〜Y22,I11〜I22,Q11
〜Q22情報が順番に取り込まれる。
Reference numerals 5, 6, and 7 denote registers for accumulating the Y, I, and Q information of one block converted by the signal conversion ROM 4 for each YIQ. That is, 5 is a Y information register, 6 is an I information register, 7 is Q
It is an information register. These registers 5, 6, 7 contain
X 11, X 12, X 21 , Y calculated from X 22 11 ~Y 22, I 11 ~I 22, Q 11
~Q 22 information is incorporated into the order.

〈特徴抽出〉 ブロック内の情報としてX11〜X22の全ての情報は、レ
ジスタ5〜7に蓄積された後、レジスタに接続している
演算器8〜10に入力される。これらの演算器8〜10の構
成は第5図に示した通りである。ここで、演算器8は第
5図に示した回路構成であり、演算器9,10は第5図中で
平均値算出器22を含む破線で示した部分34の構成と等価
である。
All information X 11 to X 22 as information for <feature extraction> block, after being stored in the register 5-7 is input to the arithmetic unit 8-10 connected to the register. The configurations of these arithmetic units 8 to 10 are as shown in FIG. Here, the arithmetic unit 8 has the circuit configuration shown in FIG. 5, and the arithmetic units 9 and 10 are equivalent to the configuration of the portion 34 indicated by a broken line including the average value calculator 22 in FIG.

演算器8は、ブロック内の信号Yについての平均値
mY、明るさについてのエッジ情報を示す標準偏差σ
そして各画素方向について前記平均値mYから各画素のY
11〜Y22の明度変化を前記σにより規格化したものを
算出する。又、演算器9,10は、夫々I情報のブロック内
の平均値mI、Q情報のブロック内の平均値mQを算出す
る。
The arithmetic unit 8 calculates the average value of the signal Y in the block.
m Y , a standard deviation σ Y indicating edge information about brightness,
Then, for each pixel direction, Y of each pixel is calculated from the average value mY.
11 brightness change of to Y 22 calculates those normalized by the sigma Y. Further, the calculator 9 and 10, the average value m I in a block of each I information, calculates the average value m Q in the block of Q information.

演算器について第5図を用いて、Y情報の特徴抽出を
行なう演算器8を例にして説明する。端子18はY11情報
を入力し、端子19はY12、端子20はY21、端子21はY22
報を入力する。平均値算出器22はこれらの情報を全て加
算し、その和を入力情報の数(4個)で除算する。この
場合は、平均値算出器22の出力のうち下位の2ビットを
下位側へシフトすることにより、4の除算を行う。従つ
て、平均値算出器22の出力mYは、 となる。
The arithmetic unit will be described with reference to FIG. 5 by taking as an example an arithmetic unit 8 for extracting a feature of Y information. Terminal 18 inputs the Y 11 information, the terminal 19 is Y 12, the terminal 20 is Y 21, the terminal 21 inputs the Y 22 information. The average value calculator 22 adds all of these pieces of information, and divides the sum by the number of input information (four). In this case, the lower 2 bits of the output of the average value calculator 22 are shifted to the lower side, thereby dividing by 4. Therefore, the output m Y of the average calculator 22 is Becomes

尚、前述したように、演算器9,10は第5図の破線34で
囲んだ部分のみで構成された回路を流用し、その出力端
子28よりI,Qについてのブロック内の平均値mI,mQを出力
する。
As described above, the arithmetic units 9 and 10 use a circuit composed only of the portion surrounded by the broken line 34 in FIG. 5, and output the average value m I in the block for I and Q from the output terminal 28 thereof. , m Q is output.

続いて演算器8によって算出される明るさについての
エッジ情報量について説明する。この第一実施例では、
明るさについてのエッジ情報量として、ブロック内の標
準偏差σを用いる。この標準偏差σを求めるため
に、減算器23、ROM24,26、そして平均値算出器25が用い
られる。ROM26から出力されるσは、 で計算される。
Subsequently, the edge information amount regarding the brightness calculated by the calculator 8 will be described. In this first embodiment,
The standard deviation σ Y in the block is used as the edge information amount regarding the brightness. To determine the standard deviation sigma Y, subtractor 23, ROM24,26, and the average value calculator 25 are used. Σ Y output from ROM 26 is Is calculated.

即ち、減算器23には画素の明るさ情報Y11〜Y22が被減
算値として入力され、ブロック内の平均値mYが減算値と
して入力される。従つて、減算器23からは各画素の明る
さ情報Yijの平均値mYからの差分値Sijが出力される。即
ち、 Sij=Yij−mY {i=1,2,j=1,2} である。これら差分値SijはROM24に入力される。ROM24
は入力の2乗したものを出力するROMである。ROM24の出
力は各画素の差分値Sijを2乗したもの、つまり、 Sij 2=(Yij−mY {i=1,2,j=1,2} を出力する。これら各画素の差分値Sijの2乗値は平均
値算出器25に入力されその出力σY 2となり、これはブロック内の分散である。この結果はRO
M26に入力される。ROM26は入力の平方根を出力する。つ
まり、 を出力する。これはブロック内の標準偏差を表す。これ
を明るさについてのエッジ情報量として端子29より出力
する。上記のROM24,26はLUT(ルックアップテーブル)
方式のROM等を用いればよい。
That is, subtractor brightness of the pixel in the 23 information Y 11 to Y 22 is input as minuend value, the average value m Y in the block is input as a subtraction value. Accordingly, the subtractor 23 outputs a difference value S ij from the average value m Y of the brightness information Y ij of each pixel. That is, S ij = Y ij −m Y {i = 1,2, j = 1,2}. These difference values S ij is input to the ROM 24. ROM24
Is a ROM for outputting the square of the input. The output of the ROM 24 is the square of the difference value S ij of each pixel, that is, S ij 2 = (Y ij −m Y ) 2 {i = 1,2, j = 1,2}. The square value of the difference value S ij of each pixel is input to the average value calculator 25 and the output σ Y 2 is Which is the variance within the block. This result is RO
Input to M26. ROM 26 outputs the square root of the input. That is, Is output. This represents the standard deviation within the block. This is output from the terminal 29 as the edge information amount regarding brightness. The above ROMs 24 and 26 are LUT (Look Up Table)
A method ROM or the like may be used.

第一実施例では、このσの値を、ブロック内にエッ
ジが存在するか否かの目安としている。
In the first embodiment, the value of σ Y is used as a criterion for determining whether an edge exists in a block.

次に、Y情報Y11〜Y22を規格化する方法について述べ
る。前述の減算器23の出力は、平均値mYと各Y11〜Y21
の差分値S11〜S22である。除算器27にて、これらの差分
値を標準偏差値σで除算する。即ち、この商をNij
すると、 である。ただし、標準偏差σが“0"のときは、Nij
全て0とする。σは標準偏差であり、即ち、各画素の
平均的なバラツキである。このσでSijを除したN
ijは、第4図の示すように、ブロックの中心位置から各
画素方向への明るさの勾配を示すものと考えられる。S
ijも勾配と考えられるが、σで規格化することによ
り、Nijはブロックの大きさに依存しない勾配を示す量
となる。尚、NijはYIQが夫々8ビットであることに鑑
み、9ビット長とする。
It will now be described a method for normalizing the Y information Y 11 to Y 22. The output of the aforementioned subtracter 23 is the difference value S 11 to S 22 of the mean value m Y and each Y 11 to Y 21. At divider 27 divides these difference values in the standard deviation sigma Y. That is, if this quotient is N ij , It is. However, when the standard deviation σ Y is “0”, N ij is all zero. σ Y is a standard deviation, that is, an average variation of each pixel. N obtained by dividing S ij by this σ Y
ij is considered to indicate the gradient of brightness from the center position of the block to each pixel direction as shown in FIG. S
Although ij is also considered to be a gradient, by normalizing with σ Y , N ij is an amount indicating a gradient independent of the block size. Incidentally, N ij In view of the fact YIQ is respectively 8 bits, and 9 bits long.

端子30からはYijの規格値C11を、以下、端子31からは
Y12の規格値C12、端子32からはY21の規格値C21を、端子
33からはY22の規格値C22を出力する。
The standard value C 11 in the Y ij from the terminal 30, or less, from the terminal 31
Standard value C 12 in the Y 12, the standard value C 21 in the Y 21 from the terminal 32, the terminal
From 33 outputs the standard value C 22 in the Y 22.

〈符号化〉 これら演算器8の出力であるmYY,Nijは符号器11に
入力され、そして演算器9,10の出力であるmI,mQと前記
σとは符号器12に入力される(第1図参照)。
<Encoding> The outputs m Y , σ Y , and N ij of the arithmetic unit 8 are input to the encoder 11, and the outputs m I , m Q of the arithmetic units 9 and 10 and the σ Y are encoded. Is input to the device 12 (see FIG. 1).

明るさ情報の符号器11のブロック図を第6図に示す。
符号器11はROM41、ROM42及びセレクタ43から成ってい
る。端子37〜40には、第5図の演算器8から出力である
σY,Nijが入力され、入力端子36には同様にエッジ情報
量σが入力する。ROM41、ROM42は、夫々入力規格化値
N11〜N22をその大きさによつて数段階に量子化する。前
述の様に、R,G,Bが各8ビットであるとき、Y,I,Q情報も
各8ビットの情報を持ち、また規格化値N11〜N22も9ビ
ット(=512段階)の情報量をそれぞれ持つている。そ
こで、各規格化値Nijを、ROM41では、4ビット(=16段
階)に等分割量子化し、ROM42では3ビット(=8段
階)に等分割量子化して、夫々情報量を減じる。このよ
うに、量子化の程度を変えているのは、ブロックがエッ
ジ等の構造を含まない場合は、量子化を粗くしても問題
がないからである。従つて、ROM41からの出力はN11,
N12,N21,N22の順で16ビット長、ROM42からの出力は同じ
く12ビット長となる。
FIG. 6 shows a block diagram of the encoder 11 for brightness information.
The encoder 11 comprises a ROM 41, a ROM 42 and a selector 43. Terminals 37 to 40 receive the outputs σ Y and N ij from the computing unit 8 in FIG. 5, and the input terminal 36 similarly receives the edge information amount σ Y. ROM41 and ROM42 are input standardized values respectively
N 11 to N 22 are quantized in several steps according to their size. As described above, when the R, G, B are each 8 bits, Y, I, Q information also has information about each 8 bits and the normalized value N 11 to N 22 nine-bit (= 512 steps) Has the information amount of each. Therefore, each normalized value N ij is equally divided and quantized into 4 bits (= 16 steps) in the ROM 41 and is equally divided and quantized into 3 bits (= 8 steps) in the ROM 42 to reduce the information amount. The reason why the degree of quantization is changed is that there is no problem even if the quantization is coarse when the block does not include a structure such as an edge. Therefore, the output from the ROM 41 is N 11 ,
N 12 , N 21 , and N 22 have a 16-bit length in the order, and the output from the ROM 42 has a 12-bit length.

ROM41出力はセレクタ43へ送出される。一方、ROM42の
出力の12ビットは、更に、下位ビットに4ビットの“00
00"を付加して、セレクタ43に送出される。セレクタ43
は、これらROM41、ROM42の出力は、明るさについてのエ
ッジ情報量σの大きさに応じて選択出力する。即ち、
T1を予め決められた閾値とすると、 Nij:4ビット量子化(σ>T1) Nij:3ビット量子化(σ>T1) である。このようにσの大きさによつて異なる量子化
を行なうのは、明るさ情報Yに基づいてブロック内に明
るさの大きな変化が存在したと判断したときは、明るさ
に関連する情報(特に、Nij)の量子化密度を細かくと
るためであり、逆に、ブロック内に明るさの大きな変化
が存在しないと判断したときは、明るさ情報の情報量を
小さくとることにより、結果的に色情報の情報量を大き
くとることを可能にするためである。
The output of the ROM 41 is sent to the selector 43. On the other hand, the 12 bits of the output of the ROM 42 further have 4-bit “00” as lower bits.
00 "is transmitted to the selector 43.
Outputs the outputs of the ROM 41 and the ROM 42 in accordance with the magnitude of the edge information amount σ Y regarding the brightness. That is,
Assuming that T 1 is a predetermined threshold value, N ij : 4-bit quantization (σ Y > T 1 ) N ij : 3-bit quantization (σ Y > T 1 ). Performing different quantization depending on the magnitude of σ Y in this way is because when it is determined based on the brightness information Y that there is a large change in brightness in the block, information related to the brightness ( In particular, this is because the quantization density of N ij ) is made fine. Conversely, when it is determined that there is no large change in brightness in the block, the information amount of the brightness information is made small, and as a result, This is because it is possible to increase the amount of color information.

このようにして選択されたセレクタ43の出力の最上位
ビットの部分に対して、明るさについてのエッジ情報量
σ(7ビット)を付加し、さらにその下位にブロック
内の明るさ情報の平均値mY(8ビット)を付加して、明
るさ情報(全31ビット)として端子44より出力する。
The edge information amount σ Y (7 bits) regarding the brightness is added to the most significant bit portion of the output of the selector 43 selected in this manner, and further below that, the average of the brightness information in the block is averaged. The value m Y (8 bits) is added and output from the terminal 44 as brightness information (31 bits in total).

尚、第6図中の「MSB∨LSB」等の符号はシフト器を表
わし、例えば、シフト器63は、MSB側の入力データをMSB
から順にその入力幅で入力して並べ、次にLSB入力側の
入力データを、前記MSB側入力データの次から順に並べ
る事を行なう。
In FIG. 6, a symbol such as “MSB∨LSB” represents a shifter. For example, the shifter 63 converts the MSB side input data into MSB.
The input data on the LSB input side is arranged in order from the MSB side input data.

次に、色情報(I,Q)についての符号化を行なう符号
器12(第1図)のブロック図を第7図に示す。
Next, FIG. 7 shows a block diagram of the encoder 12 (FIG. 1) for encoding the color information (I, Q).

端子46は演算器9(第1図)から出力されたI情報の
ブロック内の平均値mIを入力する。同様に端子47はQ情
報のブロック内の平均値mQを入力する。セレクタ48の一
方の入力は、mI,mQをI,Qの順番で結合したものである。
mI,mQは夫々8ビットの大きさであるから、結合したも
のは16ビットである。一方、セレクタ48の他方の入力
は、シフト器64,65にて、平均値mI,mQをそれぞれ下位2
ビットずつ削除したものを、シフト器66により、上位ビ
ットよりI,Qの順番で結合したものに、シフト器67によ
り、上位ビットに4ビットの“0"を付加したものであ
る。セレクタ48は、これらの2つの入力をエッジ情報量
σの大きさによつて選択出力する。つまり、平均値
mI,mQは、 6ビットに量子化(σ>T1ならば) 8ビットに量子化(σ>T1ならば) される。エッジ情報量σの大きさが前述の予め決定さ
れた閾値T1より大きければ(σ>T1ならば)、後者の
入力、即ち、6ビットの平均値mI,mQの上位にさらに4
ビットの“0"を付加したものを選択する。逆に、σ
大きさが前述閾値T1より小さければ、前者の入力、即
ち、8ビットの平均値mI,mQをそのまま結合したものを
選択する。つまり、明るさ情報によつて、ブロック内に
明るさの大きな変化が存在したと判断したときは、色情
報の情報量を小さくし、逆に、存在しないと判断したと
きは色情報の情報量を大きくする。
Terminal 46 inputs the average value m I in the block of I information outputted from the arithmetic unit 9 (Figure 1). Similarly, a terminal 47 inputs an average value m Q in the block of Q information. One input of the selector 48 is obtained by combining m I and m Q in the order of I and Q.
Since m I and m Q are each 8 bits in size, the combined one is 16 bits. On the other hand, the other inputs of the selector 48 are shifted by the shifters 64 and 65 to the average values m I and m Q , respectively, in the lower two positions.
The bits deleted one by one are combined by the shifter 66 in the order of I and Q from the upper bits, and the shifter 67 adds 4-bit “0” to the upper bits. The selector 48 Yotsute selectively outputs these two inputs to the size of the edge information amount sigma Y. That is, the average value
m I and m Q are quantized to 6 bits (if σ Y > T 1 ) and to 8 bits (if σ Y > T 1 ). If the magnitude of the edge information amount σ Y is larger than the above-described predetermined threshold T 1 (if σ Y > T 1 ), the latter input, that is, the higher order of the 6-bit average values m I and m Q 4 more
Select the one with the bit "0" added. Conversely, if the magnitude of σ Y is smaller than the threshold T 1 , the former input, that is, a combination of the 8-bit average values m I and m Q as they are, is selected. In other words, when it is determined based on the brightness information that a large change in brightness exists in the block, the information amount of the color information is reduced, and when it is determined that the block does not exist, the information amount of the color information is reduced. To increase.

このようにして選択されたセレクタ48の出力は端子49
より第3図に示した合成器13の一方の入力となる。
The output of the selector 48 selected in this way is
This is one input of the synthesizer 13 shown in FIG.

〈合成〉 符号器11,12の出力は合成器13へ入力される。この合
成器13の構成を第8図に示す。同図において、端子50は
符号器11からの、明るさ情報を符号化したものを入力す
る。端子51は符号器12からの、色情報を符号化したもの
を入力する。シフト器70にて明るさ情報から下位4ビッ
トを、シフト器71にて色情報から上位4ビットを取り出
し、OR回路52によつて、上記の4ビットについての論理
和を上位ビットから計算する。
<Synthesis> The outputs of the encoders 11 and 12 are input to the synthesizer 13. FIG. 8 shows the configuration of the synthesizer 13. In the figure, a terminal 50 inputs the encoded brightness information from the encoder 11. The terminal 51 receives the encoded color information from the encoder 12. The shifter 70 extracts the lower 4 bits from the brightness information, and the shifter 71 extracts the upper 4 bits from the color information. The OR circuit 52 calculates the logical sum of the 4 bits from the upper bits.

つまり、明るさについてのエッジ情報量σの大きさ
が前記閾値T1より大きい場合、シフト器70のLSB出力の
4ビットには明るさ情報の有意な情報が入つており、シ
フト器71のMSB出力の4ビットには“0"が入つているの
で、OR回路52の出力は明るさについての有意な情報(4
ビット長)となる。逆に、σが前記閾値T1より小さい
場合は、シフト器70のLSB出力には“0"が、シフト器71
のMSB出力には色情報の有意な情報が入つているので、O
R回路52の出力は色についての4ビットの有意な情報と
なる。
That is, when the magnitude of the edge information amount σ Y regarding the brightness is larger than the threshold value T 1 , significant information of the brightness information is contained in 4 bits of the LSB output of the shifter 70, and Since "0" is entered in the four bits of the MSB output, the output of the OR circuit 52 contains significant information (4
Bit length). Conversely, when σ Y is smaller than the threshold value T 1 , “0” is output to the LSB output of the shifter 70 and the shifter 71
Because significant information of color information is included in the MSB output of
The output of R circuit 52 is 4-bit significant information about the color.

シフト器72では、明るさ情報の下位4ビットを除いた
情報(27ビット)を最上位とし、次にOR回路52の出力
(4ビット)を配置し、最下位に色情報の上位4ビット
を除いた情報(12ビット)配置して端子53より出力して
符号化を終了する。
In the shifter 72, the information (27 bits) excluding the lower 4 bits of the brightness information is set as the highest order, then the output (4 bits) of the OR circuit 52 is arranged, and the upper 4 bits of the color information are set at the lowest order. The removed information (12 bits) is arranged and output from the terminal 53, thereby completing the encoding.

このようにして符号化された43ビットのビットの配置
を第9A図,第9B図に示す。第9A図はエッジ情報量σ
閾値T1より大きかつた場合、第9B図はσが前記閾値T1
より小さかつた場合の符号のビットの配置である。又、
同図の上の数字はビットの位置を示している。
FIGS. 9A and 9B show the arrangement of the 43 bits thus encoded. Figure 9A if the edge information amount sigma Y is greater than thresholds T 1 Katsuta, FIG. 9B is sigma Y said thresholds T 1
This is the arrangement of the bits of the code in the case of being smaller. or,
The numbers on the top of the figure indicate the bit positions.

〈復号化〉 また、第一実施例よる符号の復号化は前述の手順の逆
を行えば良い。即ち、入力符号の最上位の37〜42ビット
(σ)を取り出し、前記の閾値T1と比較して、ブロッ
クが明るさの大きな変化を含むものであるかを調べて、
符号のビットの配置が第9A図に示すものか、第9B図に示
すものかを判断する。次に、36〜28番目のビットをY情
報の平均値mYとして取り出す。
<Decoding> The decoding of the code according to the first embodiment may be performed by reversing the above-described procedure. That is, 37 to 42 most significant bits of the input code to (sigma Y) is taken out, as compared with the thresholds T 1 of said, check whether those containing large changes in block brightness,
It is determined whether the code bit arrangement is as shown in FIG. 9A or FIG. 9B. Next, take out the 36-28 th bit as the mean value m Y of Y information.

また、各画素のY情報Y11〜Y22を規格化したN11〜N22
を、ブロック内に明るさの大きな変化が有ると判断した
場合(第9A図)は4ビットずつ取り出し、ないと判断し
た場合(第9B図)は3ビットずつ取り出して得る。残り
のビットについては、これらを2つに分けて、上位をI
情報のブロック内平均値mI、下位をQ情報のブロック内
平均値mQとして得る。
Further, N 11 to N 22 the Y information Y 11 to Y 22 of each pixel normalized
Is obtained by extracting four bits at a time when it is determined that there is a large change in brightness in the block (FIG. 9A), and is obtained by extracting three bits at a time when it is determined that there is no change (FIG. 9B). For the remaining bits, these are divided into two,
The average value m I in the block of information and the lower order are obtained as the average value m Q in the block of Q information.

従つて、再生されるY情報、I情報、Q情報を各画素
毎にY11′〜Y22′,I11′〜I22′,Q11〜Q22′とすると、 Yij′=Nij×σ+mY Iij=mI Qij=mQ 但し、i=1,2,j=1,2 である。
Therefore, assuming that Y information, I information, and Q information to be reproduced are Y 11 ′ to Y 22 ′, I 11 ′ to I 22 ′, and Q 11 to Q 22 ′ for each pixel, Y ij ′ = N ij × σ Y + m Y I ij = m I Q ij = m Q where i = 1,2, j = 1,2.

さらに、符号化時と同様にYIQ情報をRGB情報に、テー
ブルを参照して変換するためのROMを用いて再生されたR
GB情報R′,G′,B′を得る。このようにして符号化の逆
手順によつて復号すればよい。
Furthermore, as in the case of encoding, R information reproduced using a ROM for converting YIQ information into RGB information with reference to a table is used.
GB information R ', G', B 'is obtained. In this manner, decoding may be performed by the reverse procedure of encoding.

〈第一実施例の変形〉 上記第一実施例では、明るさについてのエッジ情報量
としてブロック内の標準偏差値を使用したが、他にもブ
ロック内の画素値の最大値と最小値の差を使用して、回
路構成を簡易化することもできる。また、実施例では符
号化するための情報形態としてTV方式のY,I,Q情報を用
いたが、他の明るさ情報と色情報に分解する情報形態、
例えばCIE1976(L,a,b)空間のL,a,b
報であつても勿論良い。また実施例では説明を簡易とす
るために、符号器としてビットの間引き割り付けを用い
たが、他の符号化、例えばベクトル量子化符号化であつ
ても勿論良い。
<Modification of First Embodiment> In the first embodiment, the standard deviation value in the block is used as the edge information amount regarding the brightness. However, the difference between the maximum value and the minimum value of the pixel values in the block is also used. Can be used to simplify the circuit configuration. Further, in the embodiment, Y, I, Q information of TV system is used as an information form for encoding, but an information form for decomposing into other brightness information and color information,
For example, L * , a * , b * information in the CIE1976 (L * , a * , b * ) space may of course be used. Further, in the embodiment, thinning allocation of bits is used as an encoder for simplicity of description, but other encoding, for example, vector quantization encoding may be used.

〈第一実施例の効果〉 この第一実施例によると、符号化前にはブロックあた
りの情報量は96ビットであつたが、これを符号化して43
ビットとし、圧縮率44.8%を達成している。更に、エッ
ジの有無に応じた符号化を行なわないで明るさ情報、色
情報を独立に固定長符号化を行つたとき、明るさ情報31
ビット、色情報16ビット、合計47ビット必要であるが、
エッジの有無に応じた符号化を行なうことにより、これ
を更に4ビット減じて、かつ視覚的劣化の少ない符号化
が可能となる。
<Effects of First Embodiment> According to the first embodiment, the information amount per block was 96 bits before encoding.
It achieves a compression ratio of 44.8%. Further, when brightness information and color information are independently subjected to fixed-length encoding without performing encoding according to the presence or absence of an edge, the brightness information 31
Bits, color information 16 bits, a total of 47 bits are required,
By performing encoding in accordance with the presence or absence of an edge, this can be further reduced by 4 bits, and encoding with less visual deterioration can be performed.

かくして、カラー画像を複数の画素ブロックに分割し
てブロック単位で明るさ情報と色情報を分解し、全体で
固定長の符号化を行うとき、 :符号化の途中で容易に生成される明るさについての
エッジ情報量(例えば標準偏差)の情報をもとに、明る
さ情報と色情報の情報量の大きさを変え、可変符号化
し、全体で固定長の符号化を行うことによつて、人間の
マスキングの視覚特性を生かして視覚的な劣化がなく、
高能率が得られる符号化を実施できる。
Thus, when a color image is divided into a plurality of pixel blocks, and the brightness information and the color information are decomposed in units of blocks, and a fixed-length encoding is performed as a whole, the brightness that is easily generated during the encoding is as follows: By changing the magnitudes of the information amounts of the brightness information and the color information based on the information of the edge information amount (for example, the standard deviation) with respect to, and performing variable coding, and performing fixed-length coding as a whole, Utilizing the visual characteristics of human masking, there is no visual deterioration,
Encoding that provides high efficiency can be performed.

:また、ブロック単位で固定長の符号化であるため
に、画像メモリ等に格納する場合、画素の画像内の位置
関係を保つことが可能である。従つて、画像の大きさに
よつて必要なメモリ量は一定とすることができ、かつ画
像処理を施すときも、周辺近傍画素の情報が容易に抽出
することが可能となる。
: In addition, since the encoding is of fixed length in block units, when the image data is stored in an image memory or the like, it is possible to maintain the positional relationship of the pixels in the image. Therefore, the required amount of memory can be kept constant depending on the size of the image, and even when performing image processing, it is possible to easily extract information on pixels near the periphery.

[第二実施例] 第10図以下を用いて第二実施例を説明する。Second Embodiment A second embodiment will be described with reference to FIG.

〈第二実施例の概略〉 この第二実施例の概略を第一実施例との比較から説明
する。
<Outline of Second Embodiment> The outline of the second embodiment will be described in comparison with the first embodiment.

:解像度情報 第一実施例は解像度に関する情報を明るさのエッジと
して検出し、このエッジ情報をも符号化して保存した。
この第二実施例では、色エッジを色情報そのものから検
出する。色エッジは2つの色夫々について検出する。そ
して、第11図に示すように色エッジで分割された2つの
領域の夫々についての色情報の平均値ma1(又はmb1)、
ma2(又はmb2)を出力する。色エッジがない場合はブロ
ック全体の平均値ma若しくはmbを量子化したものを符号
化コードとする。
: Resolution Information In the first embodiment, information on resolution is detected as an edge of brightness, and this edge information is also encoded and stored.
In the second embodiment, the color edge is detected from the color information itself. Color edges are detected for each of the two colors. Then, as shown in FIG. 11, the average value m a1 (or m b1 ) of the color information for each of the two regions divided by the color edge,
Output m a2 (or m b2 ). If no color edges what the mean value m a or m b of the entire block is quantized and encoded code.

:エッジ検出 第一実施例では、共にブロック内の標準偏差σから
エッジを検出したが、この第二実施例では色情報の最大
値と最小値との差から検出する。
: Edge detection In the first embodiment, the edge is detected from the standard deviation σ Y in the block. In the second embodiment, the edge is detected from the difference between the maximum value and the minimum value of the color information.

:表色系 第一実施例ではYIQであるのに対し、第二実施例では1
975年CIE会議で均等知覚色空間として提案されたCIE197
6(L,a,b)空間の指数であるL,a,bを用
いる。ここで、Lの値は明度を表し、a,bの値は
知覚色度を表す。
: Color system YIQ in the first embodiment, whereas 1 in the second embodiment
CIE197, proposed as a uniform perceived color space at the 975 CIE Conference
6 (L *, a *, b *) L * is an index of the space, a *, using b *. Here, the value of L * represents lightness, and the values of a * and b * represent perceived chromaticity.

:画素ブロック 第3図の4画素/ブロックを用いる。但し、説明の便
宜上、第二実施例においては画素X11,X12,X21,X22に関
連する信号を、信号名に夫々添字1,2,3,4を付す。
: Pixel block 4 pixels / block shown in FIG. 3 are used. However, for convenience of explanation, in the second embodiment, signals related to the pixels X 11 , X 12 , X 21 , and X 22 are given suffixes 1, 2, 3, and 4 to the signal names, respectively.

以上の特徴を踏まえた上で、第10図以下に従つて第二
実施例を説明する。
Based on the above features, the second embodiment will be described with reference to FIG. 10 and subsequent figures.

変換部208は、端子205からR1,R2,R3,R4の順にR情報
を入力し、端子206からはG1,G2,G3,G4の順で情報を入力
し、端子207からB1,B2,B3,B4の順でB情報を入力する。
変換部208は更に、入力されたR,G,B情報からそれぞれの
画素について明るさ情報Lと色情報a,bを分離し
て出力する。209,210,211はブロック単位でL,a,b
の値を一時格納しておくレジスタである。これらのレ
ジスタはシリアル入力→パラレル出力である。
The conversion unit 208 inputs R information in the order of R 1 , R 2 , R 3 , R 4 from the terminal 205, inputs information in the order of G 1 , G 2 , G 3 , G 4 from the terminal 206, , B information is input in the order of B 1 , B 2 , B 3 , B 4 .
The conversion unit 208 further separates brightness information L * and color information a * , b * for each pixel from the input R, G, B information and outputs them. 209, 210, 211 are L * , a * , b in block units
This register temporarily stores the value of * . These registers are serial input → parallel output.

〈明るさLの符号化〉 明るさ情報、つまりL*情報の符号化について第12図
を用いて述べる。まず、この第12図回路中の277〜282に
ついて簡単にその動作を述べる。平均値算出器277は、
第1実施例における第5図で入力されるY11〜22と同
様、4画素分のL*情報Lp(p=1〜4)入力し、これ
らの入力値の和を取り、L*情報のブロックない平均値
mLを出力する。
<Encoding of Brightness L * > Encoding of brightness information, that is, L * information will be described with reference to FIG. First, the operation of 277 to 282 in the circuit of FIG. 12 will be briefly described. The average calculator 277 is
As in Y11 to Y22 input in FIG. 5 in the first embodiment, L * information L p (p = 1 to 4) for four pixels is input, the sum of these input values is calculated, and the L * information Average value without block
Output m L.

続いて、減算器278によって、各画素の情報Lpからブ
ロック内平均値mLを引いたSp(p=1〜4)を Sp=Lp−mL と得る。ROM279、平均値算出器280、ROM281により、 が得られ、これはブロック内の標準偏差値を表す。
Subsequently, the subtractor 278, the S p (p = 1~4) minus the block mean m L from the information L p of each pixel obtained as S p = L p -m L. ROM279, average value calculator 280, ROM281, Is obtained, which represents the standard deviation value within the block.

最後に、L*情報Lp(p=1〜4)の規格化について
述べる。コード器282は第1実施例と同様に規格化コー
ド値CL1〜CL14を、 CLp(p=1〜4)=(Lp−mL)/σ に従つて演算し、出力する。
Finally, normalization of L * information L p (p = 1 to 4) will be described. The encoder 282 calculates and outputs the standardized code values C L1 to C L14 in accordance with C Lp (p = 1 to 4) = (L p −m L ) / σ L as in the first embodiment. .

平均値算出器277の出力は、4画素のL情報の平均
値mLとして、8ビットの情報量をもつている。そこで、
シフト器300は、この平均値mLを8ビットの情報として
入力し、3ビットシフトすることにより、5ビットの情
報に量子化し、下位に2ビットの“0"を付加して、セレ
クタ287の一方の入力に入力する。セレクタ287の他方の
入力は平均値mLである。セレクタ287はこれらの2入力
を、端子289より入力されたOR回路214(第10図)より出
力されたaエッジ信号(後述のSa)とbエッジ信号
(Sb)の論理和であるセレクト信号SELによつてセレク
トする。即ち、 SEL=Sa+Sb であり、セレクタ287の出力は: 5ビットmL(SEL=1…色エッジ有り) または 8ビットmL(SEL=0…色エッジ無) である。
The output of the average value calculator 277 has an 8-bit information amount as an average value m L of L * information of four pixels. Therefore,
The shifter 300 receives the average value m L as 8-bit information, shifts it by 3 bits, quantizes it into 5-bit information, and adds 2 bits of “0” to the lower order. Input to one input. The other input of the selector 287 is an average value m L. The selector 287 uses these two inputs as the logical sum of the a * edge signal (S a described later) and the b * edge signal (S b ) output from the OR circuit 214 (FIG. 10) input from the terminal 289. Selection is made by a certain select signal SEL. That is, SEL = S a + S b, the output of the selector 287: 5 bits m L (SEL = 1 ... color edge there) or 8-bit m L (SEL = 0 ... Mu color edges).

同様に、ROM281より出力されたブロック内の標準偏差
値σも7ビットの情報量をもつているが、シフト器30
1は、このσを4ビットに量子化し、下位に3ビット
の“0"を付加する。即ち、セレクタ288の出力は: 4ビットσ(SEL=1…色エッジ有り) または 7ビットσ(SEL=0…色エッジ無) であり、このσを端子291より出力する。
Similarly, the standard deviation value σ L in the block output from the ROM 281 also has a 7-bit information amount.
1 quantizes this σ L to 4 bits and adds 3 bits “0” to the lower bits. That is, the output of the selector 288: 4 bits σ L (SEL = 1 ... color edge there) or 7 bits σ L (SEL = 0 ... Mu color edge), and outputs the sigma L from the terminal 291.

〈エッジ検出〉 第13図は判断部212,213の構成図である。判断部212,2
13は回路構成自体は互いに等価であるので、判断部212
について説明する。
<Edge Detection> FIG. 13 is a configuration diagram of the determination units 212 and 213. Judgment unit 212,2
13 is equivalent to the circuit configuration itself,
Will be described.

この判断部212は、ブロック内の色のエッジの有無を
ブロック内のaの情報から調べ、それをaについて
のエッジ信号Saとして送出する。色のエッジの有無を調
べる目安として、判断部212は、色平面であるa
平面上のa軸について、その最大値と最小値の差、 Ea=Max(a1 a2 a3 a4)−Min(a1 a2 a3 a4) を用いる。この色エッジの有無の目安となるEaを色エッ
ジ量とする。最大最小器228が、最大値Max(a1,a2,a3,a
4)、最小値Min(a1,a2,a3,a4)を出力し、減算器229が
エッジ量Eaを出力する。比較器230は予め決められた閾
値T4と比較して、 Sa=0(T4>Ea)…aの色エッジ無し Sa 1(T4≦Ea)…aの色エッジ有り となる色エッジ信号Saを出力する。
The determination unit 212 checks whether the color of an edge in a block from a * of the information in the block, and sends it as an edge signal S a for a *. As a guide for checking for the presence or absence of a color edge, the determination unit 212 uses the color plane a * b *
For the a * axis in the plane, using a difference between the maximum value and the minimum value, E a = Max (a 1 a 2 a 3 a 4) -Min (a 1 a 2 a 3 a 4). Ea, which is a measure of the presence or absence of the color edge, is defined as the color edge amount. The maximum / minimum unit 228 generates a maximum value Max (a 1 , a 2 , a 3 , a
4), and outputs the minimum value Min (a 1, a 2, a 3, a 4), the subtracter 229 outputs the edge amount E a. The comparator 230 compares the threshold T4 previously determined, S a = 0 (T4> Ea) ... a * without color edge S a = 1 (T4 ≦ Ea ) ... a * color edge there to become color The edge signal Sa is output.

同様に、判断部213ではブロック内の色エッジの有無
を、ブロック内のb情報に基づいて、 Eb=Max(b1 b2 b3 b4)−Min(b1 b2 b3 b4) Sb=0(T5>Eb)…bの色エッジ無し Sb=1(T5≦Eb)…bの色エッジ有り となる色エッジ信号Sbを出力する。SEL=Sa+Sbとなる
のは前述した通りである。このように、SELはSaとSb
いずれか一方が“1"であるときは“1"となるが、この場
合でもSaかSbのいずれか一方は“0"の場合もあり得るこ
とに留意すべきである。このことは後述する第二実施例
の色の符号化結果に関連する(第17図参照)。
Similarly, the determination unit 213 determines whether or not there is a color edge in the block based on b * information in the block, E b = Max (b 1 b 2 b 3 b 4 ) −Min (b 1 b 2 b 3 b) 4) S b = 0 (T5 > Eb) ... b * color edge without S b = 1 (T5 ≦ Eb ) ... b * output color edge signal S b to be there color edges. SEL = S a + of the S b are as described above. Thus, SEL is set to "1" when either one of the S a and S b is "1", one of the S a or S b even in this case also be a "0" Note that you get This relates to the color encoding result of the second embodiment described later (see FIG. 17).

〈色の階調情報〉 ブロック平均値算出器215,216はブロック内のa
はb情報の平均値ma又はmbを求める。つまり、 を算出し出力する。
<Color gradation information> block average value calculator 215 and 216 the average value m a or m b of a * or b * information in the block. That is, Is calculated and output.

〈色エッジ分布検出〉 2値化部218,219の構成を第14図に示す。2値化部21
8,219は回路的には互いに等価であるので、a情報の
2値化を行う2値化部218を例にとつて説明する。この
二値化部はブロック内に色エッジがあり、その色エッジ
により当該ブロックが二分される場合に、その二分され
た2つの領域の分布を二値コードCa1〜Ca4で表わすもの
である。即ち、例えばCa1が“1"であれば、画素X1の色
は、そのブロック内で、色の値が大きい方の領域に
属している事を示す。
<Color Edge Distribution Detection> FIG. 14 shows the configuration of the binarization units 218 and 219. Binarization unit 21
8 and 219 are equivalent to each other in terms of circuit, and therefore, the binarization unit 218 that binarizes the a * information will be described as an example. This binarization unit expresses the distribution of the two divided areas by binary codes C a1 to C a4 when a block has a color edge and the block is bisected by the color edge. . That is, for example, if Ca1 is “1”, it indicates that the color a * of the pixel X1 belongs to the area of the larger color value in the block.

第14図に基づいて説明すると、比較器238は、a1〜a4
の夫々とブロック内平均値maとを比較して、その比較結
果をBa1〜Ba4とすると、i=1〜4に対して、 Bai=1(ai>maのとき)、 または 0(ai<ma) を出力する。これらBa1〜Ba4は2入力ANDゲート239〜24
2にそれぞれ入力される。ANDゲートの他方の入力はa
エッジ信号Saが入力される。各画素のBaiとSaとの論理
積を求める。つまり、ANDゲート239〜242は、Sa=1の
とき、つまり色エッジがブロック内に存在するとき、各
画素の情報の2値化値Ba1〜Ba4をa情報の2値化情報
Ca1〜Ca4として出力する。逆にSa=0とき、つまり色エ
ッジがブロック内に存在しないとき、“0"をCa1〜Ca4
して出力する。これらのCa1〜Ca4は、色エッジによつて
分割された2つの領域内の平均の色を演算するのに用い
られる。
Referring to FIG. 14, the comparator 238 includes a 1 to a 4
By comparing the respective and block average value m a of, when the comparison result as B a1 .about.B a4, against i = 1 to 4, (when ai> m a) B ai = 1, or 0 (ai <m a ) is output. These B a1 to B a4 are 2-input AND gates 239 to 24
Entered in 2 respectively. The other input of the AND gate is a *
The edge signal Sa is input. The logical product of B ai and S a of each pixel is obtained. That is, when S a = 1, that is, when a color edge exists in the block, the AND gates 239 to 242 convert the binarized values B a1 to B a4 of the information of each pixel into the binarized information of the a * information.
Output as C a1 to C a4 . Conversely, when S a = 0, that is, when no color edge exists in the block, “0” is output as C a1 to C a4 . These C a1 to C a4 are used to calculate the average color in two regions divided by the color edge.

〈領域内色情報抽出〉 第15図は平均部220,221の構成図である。平均部220,2
21は同じ構成であるので平均部220について述べる。平
均部220への入力は、上記2値化情報Ca1〜Ca4、各画素
のa情報a1〜a4である。を入力する。カウンタ255はC
a1〜Ca4の“1"の数を計数する。又、カウンタ265はCa1
〜Ca4の“0"である数を計数する。
<Extraction of Intra-region Color Information> FIG. 15 is a configuration diagram of the averaging units 220 and 221. Average part 220,2
Since 21 has the same configuration, the averaging unit 220 will be described. The inputs to the averaging unit 220 are the above-mentioned binarized information C a1 to C a4 and the a * information a1 to a4 of each pixel. Enter Counter 255 is C
The number of "1" s in a1 to Ca4 is counted. Counter 265 is C a1
Count the number of "0" of ~ Ca4 .

カウンタ255、ANDゲート256〜259、平均値算出器260
は、ブロック内に色エッジ(Sa=1)があるときの、平
均値maよりa情報が大きい画素のみをふるいにかけ
て、その平均値ma1を求める。この部分が第11図のma1
対応する。尚、色のエッジがブロック内にないとき、Ca
iは“0"なので、平均値ma1は“0"となる。又、平均値m
a1は8ビットの情報量をもつ。一方、カウンタ265、AND
回路266〜269、平均値算出器270は、maよりa情報が
小さい画素のa情報の平均値ma2を出力する。
Counter 255, AND gate 256-259, average value calculator 260
Is when there is a color edge (S a = 1) in the block, sieved only pixel a * information is larger than the average value m a, calculate the average m a1. This part corresponds to ma1 in FIG. When the color edge is not in the block, Ca
Since i is “0”, the average value ma1 is “0”. Average value m
a1 has an information amount of 8 bits. Meanwhile, counter 265, AND
Circuit 266-269, an average value calculator 270 outputs the average value m a2 of a * information of the pixel a * information is smaller than m a.

こうして、平均部220はma1(8ビット),ma2(8ビッ
ト)を出力する。尚、色のエッジがブロック内にないと
き、平均値ma1は“0"となり、平均値ma2はブロック全体
のa情報の平均maと等しくなる。
Thus, the averaging unit 220 outputs m a1 (8 bits) and m a2 (8 bits). The color of the edge when not in the block, the mean value m a1 is "0", the mean value m a2 is equal to the average m a of the entire block a * information.

又、平均部221もmb1,mb2を出力し、同じく、色のエッ
ジがブロック内にないとき、平均値mb1は“0"となり、
平均値mb2はブロック全体のb情報の平均mbと等しく
なる。
The average unit 221 also outputs the m b1, m b2, likewise, when the color of the edge is not in the block, the mean value m b1 is "0",
Average m b2 is equal to the average m b of the entire block b * information.

選択器222について説明する。この選択器222は、二値
化部218,219の出力Ca1〜Ca4とCb1〜Cb4を、エッジ信号S
a,Sbの組合せによつて選択する。その出力C1〜C4は以下
のようになる。
The selector 222 will be described. The selector 222 converts the outputs C a1 to C a4 and C b1 to C b4 of the binarization units 218 and 219 into edge signals S
a, is Yotsute selected combination of S b. The output C 1 -C 4 is as follows.

Sa=Sb=0のとき、 C1〜C4=Cb1〜Cb4 (但し、Cb1〜Cb4の前述の2値化器の結果から全て“0"
である) Sa=0,Sb=1のとき、 C1〜C4=Cb1〜Cb4 Sa=1,Sb=0のとき C1〜C4=Ca1〜Ca4 Sa=Sb=1のとき、 C1〜C4=Ca1〜Ca4 (ただし、aとbのブロック内の2色分布は大きく
違わないので、aの分布に従うものと考えられるから
である) である。
When S a = S b = 0, C 1 to C 4 = C b1 to C b4 (however, from the results of the above-described binarizer of C b1 to C b4 , all “0”
When S a = 0 and S b = 1, C 1 to C 4 = C b1 to C b4 When S a = 1 and S b = 0, C 1 to C 4 = C a1 to Ca 4 S a = S b = 1, C 1 -C 4 = C a1 -C a4 (However, since the two-color distribution in the block of a * and b * does not differ greatly, it is considered that the distribution follows the distribution of a *. Is).

以上のことから、選択器222は、Saの値のみをみて、C
1〜C4を、Cb1〜Cb4又はCa1〜Ca4から選択すればよい。
第17図の表を参照。
From the above, the selector 222 looks at only the value of S a and
1 to C 4 may be selected from C b1 to C b4 or C a1 to C a4 .
See the table in FIG.

〈合成〉 以上のようにして得られた、SEL,mLL,CL1〜CL4,
Sa,Sb,ma1,ma2,mb1,mb2,C1〜C4が合成器223に入力す
る。
Obtained in <Synthesis> above, SEL, m L, σ L , C L1 ~C L4,
S a , S b , m a1 , m a2 , m b1 , m b2 , and C 1 to C 4 are input to the combiner 223.

前述したように、セレクタ287(第12図)の出力は、 5ビットmL(SEL=1…色エッジ有り) 8ビットmL(SEL=0…色エッジ無) であり、同様に、セレクタ288の出力は、 4ビットσ(SEL=1…色エッジ有り) 7ビットσ(SEL=0…色エッジ無) であるから、先ず、合成器223はSELの値に応じたmL
のビット長を選んで、シフト合成する(第16図参
照)。CL1〜CL4については、そのまま合成器223から出
力する。
As described above, the output of the selector 287 (FIG. 12) is 5 bits m L (SEL = 1... With color edge) and 8 bits m L (SEL = 0... Without color edge). Is 4-bit σ L (SEL = 1... With color edge) and 7-bit σ L (SEL = 0... Without color edge). Therefore, first, the synthesizer 223 outputs m L , σ according to the SEL value.
The bit length of L is selected and shift-combined (see FIG. 16). C L1 to C L4 are output from the synthesizer 223 as they are.

ma1,ma2,mb1,mb2の合成については、合成器223は、
Sa,Sbの値に応じて、第17図のように合成する。ここ
で、ma1,ma2,mb1,mb2は本来8ビットであるが、例え
ば、aにエッジがあるとき(Sa=1)は、ma1,ma2
上位4ビットが出力される。又は、例えば、bにエッ
ジがない(Sb=0)ときは、mb2をそのままmb(8ビッ
ト)として出力する。
For the synthesis of m a1 , m a2 , m b1 , m b2 , the synthesizer 223
Synthesis is performed as shown in FIG. 17 according to the values of S a and S b . Here, m a1 , m a2 , m b1 , and m b2 are originally 8 bits. For example, when there is an edge at a * (S a = 1), the upper 4 bits of m a1 and m a2 are output. Is done. Alternatively, for example, when b * has no edge ( Sb = 0), mb2 is output as mb (8 bits) as it is.

このようにして、情報と情報、即ち、色情報と明るさ
情報をそれぞれ色エッジの有無によつて情報量が変化す
る符号とした。第16A,第16B図から明らかなように、ブ
ロック内の色エッジの有無によつて符号内の明るさ情報
と色情報が占める割合が変化している。
In this manner, the information and the information, that is, the color information and the brightness information are each a code whose information amount changes depending on the presence or absence of the color edge. As is clear from FIGS. 16A and 16B, the ratio occupied by the brightness information and the color information in the code changes depending on the presence or absence of the color edge in the block.

〈復号化〉 最後に第二実施例の復号化について簡単に述べる。第
16A図,第16B図のような符号化を受けとつた後に、最上
位ビットのSELを参照する。
<Decoding> Finally, the decoding of the second embodiment will be briefly described. No.
After receiving the encoding as shown in FIGS. 16A and 16B, the SEL of the most significant bit is referred to.

まず、SELが“0"であつた場合、ブロック内に色エッ
ジがないものとして復号する。各画素の復号後のL
報を対応する画素毎にL1′,L2′,L3′,L4′とすると、
次の式で表される。
First, when SEL is “0”, decoding is performed assuming that there is no color edge in the block. Assuming that L * information after decoding of each pixel is L 1 ′, L 2 ′, L 3 ′, L 4 ′ for each corresponding pixel,
It is expressed by the following equation.

Li′=ML+σ×C1i また、復号後のa′及びb′は次式で表わされ
る。
L i ′ = M L + σ L × C 1i Further , a * ′ and b * ′ after decoding are represented by the following equations.

′=ma′=mb これら復号された各画素のL′,a′,b′に符号
化のとき、変換器208で行った変換の逆変換を行い、復
号されたR,G,B情報であるR′,G′,B′を得る。
a * '= m a b * ' = m b of each pixel thereof decoded L * ', a *', when coding the b * ', performs inverse transformation of the transformation performed by the converter 208, decoding The obtained R, G, B information R ', G', B 'is obtained.

SELが“1"であつた場合、ブロック内に色エッジがあ
るものとして復号する。
If SEL is "1", decoding is performed as if there is a color edge in the block.

SEL=0と同様にL1′〜L4′は Li′=mL+σ×C1i となる。Similarly to SEL = 0, L 1 ′ to L 4 ′ are L i ′ = m L + σ L × C 1i .

情報、b情報については、符号(第16図)中の
SaビットとSbビットの組合せから、第17図の例に従つて
決定される。即ち、 Sa=0,Sb=1のとき、 ai′=ma bi′=mb1×Ci+mb2×Ci Sa=1,Sb=0のとき、 ai′=ma1×Ci+ma2×Ci bi′=mb Sa=1,Sb=1のとき、 ai′=ma1×Ci+ma2×Ci bi′=mb1×Ci+mb2×Ci である。
Regarding a * information and b * information, reference numerals in FIG.
It is determined according to the example of FIG. 17 from the combination of the S a bit and the S b bit. That is, when S a = 0, S b = 1, when a i '= m a b i ' = m b1 × C i + m b2 × C i S a = 1, S b = 0, a i '= m a1 × C i + m a2 × C i b i ′ = m b When S a = 1 and S b = 1, a i ′ = m a1 × C i + m a2 × C i b i ′ = m b1 × C i is a + m b2 × C i.

このようにして復号されたL,a,b情報L,
a,bはSEL=0のときと同様にして復号されたR,G,B
情報R′,G′,B′を得る。
L * , a * , b * information L * ,
a * , b * are R, G, B decoded in the same manner as when SEL = 0.
Information R ', G', B 'is obtained.

〈第二実施例の変形〉 第二実施例では明るさ情報の符号化をブロック内の平
均値と標準偏差と2値コードによつて実現したが、標準
偏差の代わりに画素間の値の最小差分値等を用いること
ももちろんよい。さらには明るさ情報の符号化を他の符
号化方法、例えばベクトル量子化を行つてもよい。
<Modification of Second Embodiment> In the second embodiment, the encoding of the brightness information is realized by the average value, the standard deviation, and the binary code in the block. Of course, a difference value or the like may be used. Further, the encoding of the brightness information may be performed by another encoding method, for example, vector quantization.

第二実施例では明るさ、色情報としてY,I,Q情報を用
いたが、明るさ情報と色情報を分離するような情報系、
例えばCIE1976で規定されているL,a,b空間、又
は一般にTVなどで用いられるY,I,Q空間を使用すること
ももちろんよい。
In the second embodiment, the brightness, Y, I, Q information is used as color information, but an information system that separates brightness information and color information,
For example, the L * , a * , b * space defined in CIE1976, or the Y, I, Q space generally used in TV or the like may be used.

画素ブロックの大きさも、本実施例では2×2であつ
たが、2×2以上であってももちろんかまわない。また
実施例中の各構成ブロック、又は回路の一部を予め決め
られたROMによつて置換することも可能である。
The size of the pixel block is 2 × 2 in this embodiment, but may be 2 × 2 or more. It is also possible to replace a part of each component block or circuit in the embodiment with a predetermined ROM.

また複数色を実施例では2色としたが、ブロックの大
きさが大きくなれば、3色、4色となる。従つてブロッ
クの大きさによつてその複数色の数をブロック内に含ま
れると考えられる数だけの色の分布情報と多値化し、同
時に各色の色情報も増加すればよい。
In the embodiment, the plurality of colors are two, but if the size of the block is large, the number of colors is three or four. Therefore, the number of colors may be multi-valued by the number of colors considered to be included in the block depending on the size of the block, and the color information of each color may be increased at the same time.

第二実施例では色の分布情報を、明るさの解像度情報
とは別個に符号内に含んでいるが、色の分布情報を明る
さの解像度で代用することは可能である。
In the second embodiment, the color distribution information is included in the code separately from the brightness resolution information. However, it is possible to substitute the color distribution information with the brightness resolution.

また、色エッジの有無判定の閾値との比較をa,b
別個に行つたが、a,bの情報を統合した情報、例え
ばaのブロック内の最大、最小amax,amin、bの最
大、最小bmax,bminからの {(amax−amin)+(bmax−bmin)}、または、 {(amax−amin+(bmax−bmin1/2 などを用いることも考えられる。
Further, the comparison with the threshold value for judging the presence / absence of a color edge is performed using a * , b *.
Separately but having conducted, a *, information that integrates information of b *, for example, a * of the maximum in the block, a minimum a max, a min, b * of the maximum, minimum b max, from b min {(a max -a min) + (b max -b min)}, or, is also considered to use such {(a max -a min) 2 + (b max -b min) 2} 1/2.

〈第二実施例の効果〉 以上説明したように、カラー画像を複数の画素から成
るブロックに分割して、ブロック単位で明るさ情報と色
情報とに分解して、ブロック単位で固定長の符号化を行
う場合、色情報からエッジ情報を抽出し、これをもとに
明るさ情報と色情報を個別に可変長符号化した時のそれ
ぞれの符号長を切換え、必要に応じて色情報に解像度情
報をもたせることによつて色のにじみ等の劣化を押える
とともに、人間の視覚特性に適合した高能率のカラー画
像信号の符号化が可能となつた。
<Effects of Second Embodiment> As described above, a color image is divided into blocks each including a plurality of pixels, and is decomposed into brightness information and color information in block units. Edge information from color information, and based on this information, switch the code length when brightness information and color information are individually variable-length coded, and change the resolution to color information as necessary. By providing information, deterioration such as color bleeding can be suppressed, and high-efficiency color image signals suitable for human visual characteristics can be encoded.

また、ブロック単位で固定長の符号化を行う為、画像
メモリに格納する際には画素の画像内の位置関係を維持
できるという効果がある。従つて画像の大きさによつて
必要な画像メモリの量が一意に決定することが可能であ
る。また、このカラー画像に対して画像処理を施す際に
も周辺近傍画素の情報を容易に得ることが可能になり、
かつブロック単位で処理が可能なので画像処理の高速化
が行えるという効果がある。
In addition, since fixed-length encoding is performed in block units, there is an effect that the positional relationship of pixels in an image can be maintained when the pixels are stored in an image memory. Therefore, the required amount of image memory can be uniquely determined by the size of the image. In addition, even when performing image processing on this color image, it is possible to easily obtain information on peripheral neighboring pixels,
In addition, since processing can be performed in units of blocks, there is an effect that image processing can be speeded up.

[第一実施例,第二実施例に共通の効果] 第一実施例〜第二実施例に開示された符号化装置をま
とめてみると、 A−1: 第一実施例〜第二実施例には共通して、ブロック内に
エッジが検出されたことを示す固定長の符号語を生成
し、明るさ情報及び色情報とを夫々、エッジの有無に応
じて異なる長さの所定ビット長の符号に符号化する構成
が開示されている。
[Effects Common to First Embodiment and Second Embodiment] The encoding apparatuses disclosed in the first embodiment and the second embodiment can be summarized as follows: A-1: First Embodiment to Second Embodiment In common, a fixed-length codeword indicating that an edge has been detected in a block is generated, and the brightness information and the color information each have a predetermined bit length of a different length depending on the presence or absence of an edge. A configuration for encoding into codes is disclosed.

この構成により、明るさ情報(Y若しくはL)と色
情報(IQ若しくはa)とを、エッジの程度に応じ
て、第9A図,第16A図、又は第9B,第16B図のように、ビ
ット長(量子化密度)を短く(粗く)符号化する。この
ために、圧縮効率が上がると同時に、人間の視覚特性に
マツチした圧縮画像が得られる。
With this configuration, the brightness information (Y or L * ) and the color information (IQ or a * b * ) are converted according to the degree of the edge in FIG. 9A, FIG. 16A, or FIG. 9B or FIG. 16B. In this way, the bit length (quantization density) is encoded to be short (coarse). For this reason, the compression efficiency is increased, and at the same time, a compressed image matching the human visual characteristics can be obtained.

エッジが検出されたことを示す固定長の符号語は、例
えば第一実施例では固定長のσであり、第二実施例で
はSELが相当する。これは、第二実施例ではσをエッ
ジの存在に応じて2通りの長さに符号化(量子化)して
いるために、SELが必要となるためである。
Fixed length code word which indicates that the edge is detected, for example, in the first embodiment has a fixed length of sigma Y, in the second embodiment corresponds is SEL. This is because in the second embodiment, σ Y is encoded (quantized) into two lengths in accordance with the presence of an edge, so that a SEL is required.

尚、1ブロックのカラー画像データに対応する符号化
コードの全長(第一実施例では43ビット、第二実施例で
は36ビット)を、エッジの有無にかかわらず固定的とす
れば、前述したような画像メモリ等に格納する場合に、
画素の画像内の位置関係を保つことができる等の効果が
ある。
If the total length of the encoded code corresponding to one block of color image data (43 bits in the first embodiment, 36 bits in the second embodiment) is fixed regardless of the presence or absence of an edge, as described above. When storing in a simple image memory, etc.,
There are effects such as the positional relationship between pixels in an image can be maintained.

A−2: エッジ検出は、明るさ情報から明るさエッジを検出
(第一実施例)、色情報から色エッジを検出(第二実施
例)するなどする。
A-2: Edge detection includes detecting a brightness edge from brightness information (first embodiment) and detecting a color edge from color information (second embodiment).

A−3: 符号化コードの明るさ部分は標準偏差(σ),平均
明るさ(mY),明るさのブロック内勾配(Nij若しくはC
ij)を所定長に符号化(量子化)したものであり、色部
分は、色平均値(mI,mQ,ma,mb)や色勾配(EI,EQ,ma1,m
a2,mb1,mb2)を所定長に符号化(量子化)したものであ
る。
A-3: The brightness portion of the coded code has a standard deviation (σ Y ), an average brightness (m Y ), and a gradient (N ij or C
ij ) is encoded (quantized) to a predetermined length, and the color portion is a color average value (m I , m Q , m a , m b ) or a color gradient (E I , E Q , m a1 , m
a2 , mb1 , mb2 ) are encoded (quantized) to a predetermined length.

B−1: 第二実施例では、ブロック内にエッジが検出されたこ
とを示す固定長の符号語を生成し、エッジが検出される
と、明るさ情報(Y,L)、並びに色情報からの色の平
均値mI,mQ,ma,mb)と色の勾配(EI,EQ,ma1,ma2,mb1,
mb2)とを、エッジの有無に応じて異なる長さの所定ビ
ット長の符号語に符号化する構成が開示されている。
B-1: In the second embodiment, a fixed-length codeword indicating that an edge is detected in a block is generated, and when an edge is detected, brightness information (Y, L * ) and color information are generated. Mean values m I , m Q , m a , m b ) and color gradients (E I , E Q , m a1 , m a2 , m b1 ,
m b2 ) is encoded into a code word of a predetermined bit length having a different length depending on the presence or absence of an edge.

この構成により、エッジに関する情報が効率良く圧縮
かつ保存され、復号化された画像も人間の視覚特性に合
致している。
With this configuration, information on edges is efficiently compressed and stored, and the decoded image also matches human visual characteristics.

C−1: 第一実施例,第二実施例に共通して、ブロック内にエ
ッジが検出されたことを示す固定長の符号語を生成し、
カラー画像データのブロック内における分布構成を示す
情報並びに各分布領域におけるカラー画像データの平均
値とが、エッジの有無に応じて異なる長さの所定ビット
長の符号語に符号化される構成が開示されている。
C-1: Common to the first and second embodiments, a fixed-length codeword indicating that an edge has been detected in a block is generated,
A configuration is disclosed in which information indicating a distribution configuration in a block of color image data and an average value of the color image data in each distribution region are encoded into codewords having predetermined bit lengths of different lengths depending on the presence or absence of an edge. Have been.

この構成により、エッジに関する情報が効率良く圧縮
かつ保存され、復号化された画像も人間の視覚特性を合
致している。
With this configuration, information about edges is efficiently compressed and stored, and the decoded image also matches human visual characteristics.

C−2: 第二実施例では、色情報のブロック内平均値ma,mb
演算し、この平均値と各画素の色情報値との差からブロ
ック内の色分布Caz〜Ca4,Cb1〜Cb4を検出し、この色分
布に対応する各領域の色情報の平均値ma1,ma2,mb1,mb2
を演算する。
C-2: In the second embodiment, block mean value m a color information, calculates the m b, the color distribution in the block from the difference between the average value and the color information values of the pixels C az -C a4 , C b1 to C b4 are detected, and the average value m a1 , m a2 , m b1 , m b2 of the color information of each area corresponding to this color distribution is detected.
Is calculated.

[発明の効果] 以上説明したように本発明によれば、明るさ情報と色
情報及びこれらの情報に付加された分類情報を含むデー
タユニットを、所定のデータに量に設定するので、画像
の明るさ情報と色情報を符号化する際に、符号化された
カラー画像データを復号化する時等の為に扱いやすいデ
ータユニットに符号化することができ、扱いやすいもの
となる。
[Effects of the Invention] As described above, according to the present invention, a data unit including brightness information, color information, and classification information added to these information is set to a predetermined amount of data, so that the When encoding the brightness information and the color information, the encoded color image data can be encoded into a data unit that is easy to handle, for example, when decoding the encoded color image data.

特に、符号化対象の画像の種別を利用した効率のい符
号化を行う為に、エッジが含まれるブロックに対しては
色情報を長い符号長の符号で符号化すると共に明るさ情
報を短い符号長で符号化し、エッジが含まれないブロッ
クに対しては色情報を短い符号長の符号で符号化すると
共に明るさ情報を長い符号長で符号化するので、なるべ
く画像の劣化を抑えるような効率の良い符号化を行うこ
とができる。
In particular, in order to perform efficient encoding using the type of the image to be encoded, for a block including an edge, color information is encoded with a long code length code and brightness information is encoded with a short code. For blocks that do not contain edges, color information is coded with a code with a short code length and brightness information is coded with a long code length, so efficiency is reduced as much as possible to minimize image degradation. Encoding can be performed.

【図面の簡単な説明】[Brief description of the drawings]

第1図は第一実施例に係る符号化回路の全体構成図、 第2図,第3図は第一〜第二実施例に用いられる画素ブ
ロックを説明する図、 第4図は第一実施例における符号化結果、復号化結果を
説明する図、 第5図は第一実施例の演算器の構成を示すブロック図、 第6図は第一実施例の符号器11の構成を示すブロック
図、 第7図は第一実施例の符号器12の構成を示すブロック
図、 第8図は第一実施例の合成器13の構成を示すブロック
図、 第9A,9B図は第一実施例における符号化コードのフォー
マットの構成を示すブロック図、 第10図は第二実施例の全体構成を示すブロック図、 第11図は第二実施例においてブロックがエッジにより分
割される様子を説明する図、 第12図は第二実施例のL符号化部217の構成を示すブ
ロック図、 第13図は第二実施例の判断部212の構成を示すブロック
図、 第14図は第二実施例の二値化部218の構成を示すブロッ
ク図、 第15図は第二実施例の平均部220の構成を示すブロック
図、 第16A図,第16B図は第二実施例における符号化コードの
フォーマツトの構成を示すブロック図、 第17図は第二実施例において、色エッジの存在に応じた
色情報の符号化フォーマツトの例を示す図である。 図中、 8,9,10……演算器、11,12……符号器、13……合成器、2
12,213……判断部、215,216……ブロック平均器、217…
…L符号化部、220,221……平均部、222……選択器で
ある。
1 is an overall configuration diagram of an encoding circuit according to a first embodiment, FIGS. 2 and 3 are diagrams illustrating pixel blocks used in the first and second embodiments, and FIG. 4 is a first embodiment. FIG. 5 is a block diagram showing the configuration of an arithmetic unit according to the first embodiment; FIG. 6 is a block diagram showing the configuration of an encoder 11 according to the first embodiment; 7 is a block diagram showing the configuration of the encoder 12 of the first embodiment, FIG. 8 is a block diagram showing the configuration of the synthesizer 13 of the first embodiment, and FIGS. 9A and 9B are diagrams of the first embodiment. FIG. 10 is a block diagram showing the configuration of an encoded code format, FIG. 10 is a block diagram showing the entire configuration of the second embodiment, FIG. 11 is a diagram illustrating how blocks are divided by edges in the second embodiment, FIG. 12 is a block diagram showing the configuration of the L * encoding unit 217 of the second embodiment, and FIG. 13 is a block diagram of the second embodiment. FIG. 14 is a block diagram showing a configuration of the binarizing unit 218 of the second embodiment, FIG. 15 is a block diagram showing a configuration of the averaging unit 220 of the second embodiment, 16A and 16B are block diagrams showing the configuration of the format of an encoded code in the second embodiment. FIG. 17 is an example of the encoded format of color information according to the presence of a color edge in the second embodiment. FIG. In the figure, 8,9,10 ... Calculator, 11,12 ... Encoder, 13 ... Synthesizer, 2
12,213 …… Judgment unit, 215,216 …… Block averager, 217…
.. L * encoding unit, 220,221... Average unit, 222.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数のブロックに分割されたカラー画像を
処理する画像処理装置であって、 分割されたブロックの色情報に基づいて個々のブロック
の画素値の分布を示す特徴量を抽出し、該特徴量に応じ
て個々のブロックを該ブロック中にエッジが所定量含ま
れる第1のブロックと前記第1のブロックと異なる第2
のブロックとに分類する分類手段と、 前記分割されたブロックの明るさ情報と色情報とを符号
化する符号化手段と、 前記符号化手段により符号化された明るさ情報と色情報
とに対して、前記分類手段による分類結果を示す分類情
報を付加する付加手段とを有し、 前記符号化手段は、前記第1のブロックの画像に対して
は色情報を長い符号長の符号で符号化すると共に明るさ
情報を短い符号長で符号化し、前記第2のブロックの画
像に対しては色情報を短い符号長の符号で符号化すると
共に明るさ情報を長い符号長で符号化し、 更に、前記付加手段は、分割されたブロックの前記符号
化手段により符号化された明るさ情報と色情報及びこれ
らの情報に付加された分類情報を含むデータユニット
を、前記分類手段による該ブロックの分類結果に関り無
く、所定のデータ量に設定することを特徴とする画像処
理装置。
1. An image processing apparatus for processing a color image divided into a plurality of blocks, comprising extracting a feature amount indicating a distribution of pixel values of each block based on color information of the divided blocks. In accordance with the feature amount, each block is divided into a first block including a predetermined amount of edges in the block and a second block different from the first block.
Classifying means for classifying the divided blocks into blocks; coding means for coding brightness information and color information of the divided blocks; and brightness information and color information coded by the coding means. And an adding unit for adding classification information indicating a classification result by the classification unit, wherein the encoding unit encodes color information with a code having a long code length for the image of the first block. And the brightness information is coded with a short code length, and for the image of the second block, the color information is coded with a code having a short code length and the brightness information is coded with a long code length. The adding unit converts a data unit including the brightness information and the color information of the divided block encoded by the encoding unit and the classification information added to the information into a classification result of the block by the classification unit. To An image processing apparatus characterized in that a predetermined data amount is set regardless of the data amount.
JP10300387A 1987-04-28 1987-04-28 Image processing device Expired - Fee Related JP2608285B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP10300387A JP2608285B2 (en) 1987-04-28 1987-04-28 Image processing device
US07/185,024 US4974071A (en) 1987-04-28 1988-04-22 Color image data encoding apparatus having improved resolution/efficiency characteristics
US07/946,148 US5359438A (en) 1987-04-28 1992-09-17 Encoding apparatus for color image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10300387A JP2608285B2 (en) 1987-04-28 1987-04-28 Image processing device

Publications (2)

Publication Number Publication Date
JPS63269684A JPS63269684A (en) 1988-11-07
JP2608285B2 true JP2608285B2 (en) 1997-05-07

Family

ID=14342488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10300387A Expired - Fee Related JP2608285B2 (en) 1987-04-28 1987-04-28 Image processing device

Country Status (1)

Country Link
JP (1) JP2608285B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69031186D1 (en) * 1989-03-10 1997-09-11 Canon Kk Method and device for coding image information
JP4533683B2 (en) * 2004-06-29 2010-09-01 株式会社リコー Image processing apparatus and image forming apparatus
KR20090099720A (en) * 2008-03-18 2009-09-23 삼성전자주식회사 Method and apparatus for video encoding and decoding
US8923613B2 (en) 2011-04-15 2014-12-30 Panasonic Corporation Image compression device, image compression method, integrated circuit, program, and picture display apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
画像電子学会誌,15[4](1986)P.225−231

Also Published As

Publication number Publication date
JPS63269684A (en) 1988-11-07

Similar Documents

Publication Publication Date Title
US5359438A (en) Encoding apparatus for color image data
US4797945A (en) Image data coding apparatus
EP0969656B1 (en) Compression for image boundaries
JPH0258814B2 (en)
EP0507601A2 (en) Image processing method and apparatus
CN101375313A (en) Compression of images for computer graphics
EP1771823A1 (en) Multi-mode image processing
US6205252B1 (en) Two channel HVQ (hierarchical vector quantization) compression
JP2608285B2 (en) Image processing device
US6512853B2 (en) Method and apparatus for compressing digital image data
JP2608284B2 (en) Image processing device
EP0969412B1 (en) Vector data compression
WO1997007635A2 (en) A method and apparatus for compressing digital image data
EP0973339A2 (en) Compression by splitting each word and applying lossy compression to least significant bits
JPS63269683A (en) System for encoding color picture data
JP3119373B2 (en) Image coding device
JPS63129474A (en) Color image processing device
EP0556654B1 (en) A method for compressing color image data
JP2952007B2 (en) Image coding device
JP2802629B2 (en) Image data compression device and image processing device
JP2801182B2 (en) Image coding method
JP2872334B2 (en) Color image encoding device
JP2555338B2 (en) Color image processing device
JPH0799853B2 (en) Image data compression / decompression method for printing
JPS63184478A (en) Color picture processing unit

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees