JP4766230B2 - Encoding device, data processing device, decoding device, and program - Google Patents

Encoding device, data processing device, decoding device, and program Download PDF

Info

Publication number
JP4766230B2
JP4766230B2 JP2005083504A JP2005083504A JP4766230B2 JP 4766230 B2 JP4766230 B2 JP 4766230B2 JP 2005083504 A JP2005083504 A JP 2005083504A JP 2005083504 A JP2005083504 A JP 2005083504A JP 4766230 B2 JP4766230 B2 JP 4766230B2
Authority
JP
Japan
Prior art keywords
data
prediction
unit
target
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005083504A
Other languages
Japanese (ja)
Other versions
JP2006270324A (en
Inventor
太郎 横瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2005083504A priority Critical patent/JP4766230B2/en
Publication of JP2006270324A publication Critical patent/JP2006270324A/en
Application granted granted Critical
Publication of JP4766230B2 publication Critical patent/JP4766230B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データを符号化又は復号化する画像処理方法に関する。   The present invention relates to an image processing method for encoding or decoding image data.

データの自己相関関係に着目して符号化する方法としては、例えば、ランレングス符号化、JPEG−LS及びLZ符号化(Ziv-Lempel符号化)などがある。特に、画像データの場合には、近傍の画素同士が高い相関関係を有するので、この点に着目して画像データを高い圧縮率で符号化することができる。
また、特許文献1は、複数の予測部を用いる予測符号化方式を開示する。
特開2000−350215号公報
As a method of encoding paying attention to data autocorrelation, there are, for example, run length encoding, JPEG-LS, LZ encoding (Ziv-Lempel encoding), and the like. In particular, in the case of image data, since neighboring pixels have a high correlation, it is possible to encode image data at a high compression rate by paying attention to this point.
Patent Document 1 discloses a predictive coding method using a plurality of prediction units.
JP 2000-350215 A

本発明は、上述した背景からなされたものであり、より高い圧縮率でデータを符号化する符号化装置を提供することを目的とする。   The present invention has been made from the above-described background, and an object thereof is to provide an encoding device that encodes data at a higher compression rate.

[符号化装置]
上記目的を達成するために、本発明にかかる符号化装置は、符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予測手段と、前記第1の予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを登録すべきと判定する登録判定手段と、前記登録判定手段により登録すべきと判定された注目部分データを記憶するデータ記憶手段と、前記データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予測手段と、前記第1の予測手段による予測結果、及び、前記第2の予測手段による予測結果に基づいて、前記注目部分データの符号データを生成する符号生成手段とを有する。
[Encoder]
In order to achieve the above object, an encoding apparatus according to the present invention is an encoding target using image data of a reference area at a predetermined relative position with respect to image data of an attention area to be encoded. The attention part data should be registered on condition that the first prediction means for predicting the attention part data, the prediction data predicted by the first prediction means, and the attention part data do not match. A registration determination unit that determines that, a data storage unit that stores target portion data determined to be registered by the registration determination unit, and any one of the target portion data stored in the data storage unit, second prediction means for predicting the target partial data to be encoded, the prediction result by the first prediction means, and, based on the prediction result by the second prediction unit, wherein the note And a code generating means for generating code data of the partial data.

好適には、前記注目部分データと、前記第1の予測手段により予測された予測データとの差分を予測誤差として生成する予測誤差生成手段をさらに有し、前記符号生成手段は、前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データが、いずれも注目部分データと一致しない場合に、前記予測誤差生成手段により生成された予測誤差に基づいて、この注目部分データの符号データを生成し、前記登録判定手段は、前記予測誤差に基づいて符号データが生成されたことを条件として、前記注目部分データを登録すべきと判定する。 Preferably, the method further includes a prediction error generation unit that generates a difference between the attention partial data and the prediction data predicted by the first prediction unit as a prediction error, and the code generation unit includes the first generation unit. Based on the prediction error generated by the prediction error generation unit when the prediction data predicted by the prediction unit and the prediction data predicted by the second prediction unit do not match the target partial data. Then, code data of the target portion data is generated, and the registration determining unit determines that the target portion data should be registered on the condition that the code data is generated based on the prediction error.

好適には、前記第2の予測手段は、少なくとも前記第1の予測手段により予測された予測データと一致しない注目部分データを、前記データ記憶手段により記憶されている注目部分データの中から選択して、符号化対象となる注目部分データの予測に用いる。 Preferably, the second prediction means selects the target partial data that does not match the prediction data predicted by at least said first prediction means, from the target partial data stored by said data storage means Thus, it is used to predict the target partial data to be encoded .

好適には、前記登録判定手段は、予め定められたデータ値を有する注目部分データを、登録すべきでない注目部分データであると判定する。 Preferably, the registration determination means determines that the target partial data having a predetermined data value, a target partial data that should not be registered.

また、本発明にかかる符号化装置は、符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予備予測手段と、前記第1の予備予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを記憶する予備データ記憶手段と、前記予備データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予備予測手段と、前記第1の予備予測手段により予測された予測データ、及び、前記第2の予備予測手段により予測された予測データについて、符号化対象となる注目部分データとの差分を評価する誤差評価手段と、前記誤差評価手段による評価結果に応じて、符号化対象となる注目部分データを、前記第1の予備予測手段により予測された予測データ、及び、前記第2の予備予測手段により予測された予測データで置換するデータ置換手段と、少なくとも前記第1の予備予測手段により適用される予測方法、及び、前記第2の予備予測手段により適用される予測方法を用いて、前記データ置換手段により少なくとも一部の注目部分データがいずれかの予測データで置換されたデータを予測符号化する予測符号化手段とを有する。 In addition, the encoding apparatus according to the present invention predicts target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of a target region to be encoded. First preliminary prediction means; preliminary data storage means for storing the target portion data on condition that the prediction data predicted by the first preliminary prediction portion and the target portion data do not match; The second preliminary prediction unit that predicts the target partial data to be encoded using any target partial data stored in the preliminary data storage unit, and the first preliminary prediction unit prediction data and the prediction data predicted by the second preliminary prediction means, and an error evaluating means for evaluating the difference between the target partial data to be encoded, the error Depending on the result of evaluation by the valence unit, the target partial data to be encoded, predictive data predicted by said first preliminary prediction means, and, substituted with prediction data predicted by the second preliminary prediction means Data replacement means, at least a prediction method applied by the first preliminary prediction means, and a prediction method applied by the second preliminary prediction means, and at least a part of attention by the data replacement means Predictive encoding means for predictively encoding data in which partial data is replaced with any predictive data.

好適には、符号化対象となる注目部分データは、画像の一部に相当する画像データである。 Preferably, the target partial data to be encoded is image data corresponding to a part of an image.

[データ処理装置]
また、本発明にかかるデータ処理装置は、符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予測手段と、前記第1の予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを記憶するデータ記憶手段と、前記データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予測手段と、前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データについて、符号化対象となる注目部分データとの差分を評価する誤差評価手段と、前記誤差評価手段による評価結果に応じて、符号化対象となる注目部分データを、前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データで置換するデータ置換手段とを有する。
[Data processing equipment]
In addition, the data processing apparatus according to the present invention predicts target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of a target region to be encoded. First prediction means, data storage means for storing the target portion data on condition that the predicted data predicted by the first prediction means and the target portion data do not match, and the data A second prediction unit that predicts the target partial data to be encoded using any target partial data stored in the storage unit; prediction data predicted by the first prediction unit; and For the prediction data predicted by the second prediction means, an error evaluation means for evaluating a difference from the target partial data to be encoded, and an evaluation result by the error evaluation means And Flip has a portion of interest data to be encoded, predictive data predicted by said first prediction means, and, a data replacement means for replacing the forecast data predicted by said second prediction means.

[復号化装置]
また、本発明にかかる復号化装置は、注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて予測された注目部分データの予測データを符号化した符号データと、この予測データと一致しなかった注目部分データの符号データとを復号化する復号化手段と、前記復号化手段により復号化された符号データから参照位置を特定し、この参照位置に対応する参照データを読み出し、読み出された参照データに基づいて、注目部分データを生成するデータ参照手段と、前記復号化手段により復号化された符号データに含まれる差分データに基づいて、注目部分データを生成する差分処理手段と、前記差分処理手段により生成された注目部分データを記憶する記憶手段と、前記記憶手段により記憶されている注目部分データの中から、前記データ参照手段において特定された参照位置に応じて、いずれかの注目部分データを選択するデータ選択手段とを有する。
[Decryption device]
Further, the decoding apparatus according to the present invention is encoded data obtained by encoding the prediction data of the target partial data predicted using the image data of the reference region at a predetermined relative position with respect to the image data of the target region , Decoding means for decoding the code data of the partial data of interest that did not match the prediction data, a reference position is specified from the code data decoded by the decoding means, and the reference data corresponding to the reference position , And based on the read reference data, the data reference means for generating the attention partial data, and the attention partial data is generated based on the difference data included in the code data decoded by the decoding means. Difference processing means, storage means for storing the attention partial data generated by the difference processing means, and attention partial data stored by the storage means From the, according to the identified reference positions in the data reference means, and a data selection means for selecting one of the target partial data.

[プログラム]
また、本発明にかかるプログラムは、符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測するステップと、予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを予測候補として登録するステップと、前記予測候補として登録されている注目部分データのいずれかを用いて、符号化対象となる注目部分データを予測するステップと、前記既定の相対位置にある参照領域の画像データを用いて予測された予測結果、及び、前記予測候補の注目部分データを用いて予測された予測結果に基づいて、前記注目部分データの符号データを生成するステップとをコンピュータに実行させる。
[program]
The program according to the present invention includes a step of predicting target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of the target region to be encoded. Any one of the step of registering the target partial data as a prediction candidate on the condition that the predicted data predicted and the target partial data do not match, and the target partial data registered as the prediction candidate Are used to predict the target partial data to be encoded, the prediction result predicted using the image data of the reference region at the predetermined relative position , and the target partial data of the prediction candidate And generating a code data of the target partial data based on the predicted result.

また、本発明にかかるプログラムは、注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて予測された注目部分データの予測データを符号化した符号データと、この予測データと一致しなかった注目部分データの符号データとを復号化し、前記復号化された符号データから参照位置を特定し、この参照位置に対応する参照データを読み出し、読み出された参照データに基づいて、注目部分データを生成するステップと、前記復号化された符号データが差分データを示す場合に、注目部分データを生成するステップと、前記差分データに基づいて生成された注目部分データを予測候補として登録するステップと、前記復号化された符号データが前記予測候補のいずれかを示す場合に、前記予測候補として登録されている注目部分データの中から、いずれかの画像データを選択するステップとをコンピュータに実行させる。 In addition, the program according to the present invention includes encoded data obtained by encoding prediction data of attention partial data predicted using image data of a reference region that is in a predetermined relative position with respect to image data of the attention region, and the prediction The code data of the partial data of interest that did not match the data is decoded, the reference position is specified from the decoded code data, the reference data corresponding to the reference position is read out, and the reference data is read out A step of generating the target portion data; and a step of generating the target portion data when the decoded code data indicates the difference data; and the target portion data generated based on the difference data as a prediction candidate. And when the decoded code data indicates one of the prediction candidates, it is registered as the prediction candidate. From the target partial data are, and a step of selecting one of the image data to the computer.

本発明の符号化装置によれば、より高い圧縮率で画像データを符号化することができる。   According to the encoding apparatus of the present invention, image data can be encoded at a higher compression rate.

[背景と概略]
まず、本発明の理解を助けるために、その背景及び概略を説明する。
図1は、動的にデータ辞書を変更しながら、入力データを符号化する符号化方式を説明する図であり、図1(A)は、注目領域に応じてスライドするデータ辞書を用いる符号化方式を説明し、図1(B)は、注目領域に対して複数の方向にデータ辞書を有する符号化方式を説明する。
例えば、LZ77符号化方式などの予測符号化方式では、既定の参照位置の画素値を参照して予測データを生成し、生成された予測データと、符号化対象である注目部分の部分データとが一致する場合に、一致した予測データの参照位置などが注目部分の符号データとして符号化される。
より具体的には、LZ77符号化方式は、図1(A)に例示するように、符号化対象となる注目領域の位置に応じてスライドするウインドウ領域内で、注目領域のデータと最長一致する最長一致列を探索し、その一致情報(最長一致列の位置情報など)を符号化する。
[Background and outline]
First, in order to help understanding of the present invention, its background and outline will be described.
FIG. 1 is a diagram for explaining an encoding method for encoding input data while dynamically changing a data dictionary. FIG. 1A shows an encoding using a data dictionary that slides according to a region of interest. FIG. 1B illustrates an encoding method having a data dictionary in a plurality of directions with respect to a region of interest.
For example, in a predictive encoding method such as the LZ77 encoding method, prediction data is generated with reference to a pixel value at a predetermined reference position, and the generated prediction data and partial data of a target portion to be encoded are obtained. If they match, the reference position of the matched prediction data is encoded as the code data of the target portion.
More specifically, as illustrated in FIG. 1A, the LZ77 encoding method has the longest match with the data of the attention area within the window area that slides according to the position of the attention area to be encoded. The longest matching string is searched, and the matching information (position information of the longest matching string, etc.) is encoded.

また、図1(B)に示すように、注目領域(注目画素X)に対して、主走査方向及び副走査方向又はこれらのいずれか一方に変位した位置に参照位置A〜Dを設定し、設定された参照位置A〜Dのデータ(画素値)をデータ辞書として、参照画素の画素値と注目画素Xの画素値との一致情報(画素値が一致した参照位置の識別情報など)を符号化する方式もある。   Further, as shown in FIG. 1B, reference positions A to D are set at positions displaced in the main scanning direction and / or the sub-scanning direction with respect to the attention area (target pixel X), Using the data (pixel values) of the set reference positions A to D as a data dictionary, the matching information (such as the identification information of the reference position where the pixel values match) between the pixel value of the reference pixel and the pixel value of the target pixel X is encoded. There is also a method to make it.

図2は、入力画像を例示する図であり、図2(A)は、副走査方向の線を含む入力画像を例示し、図2(B)は、ディザパターンを含む入力画像を例示する。
図2(A)に例示する入力画像を符号化する場合に、図1(A)を参照して説明したLZ77符号化方式では、ウインドウ領域内に同一の画素値(余白部分を除く)が存在しないため、入力画像に含まれる線画像を効率的に符号化することができない。
なお、図1(B)を参照して説明した方式は、線画像の領域で、参照位置B又は参照位置Cと、注目画素Xとで画素値が一致するため、効率的に符号化できる。
しかしながら、図2(B)に例示するように、入力画像の中に孤立点が存在する場合に、図1(B)を参照して説明した方式では、このような孤立点の領域で、いずれの参照位置でも画素値が一致せず、効率的に符号化することができない。
FIG. 2 is a diagram illustrating an input image. FIG. 2A illustrates an input image including a line in the sub-scanning direction, and FIG. 2B illustrates an input image including a dither pattern.
When the input image illustrated in FIG. 2A is encoded, in the LZ77 encoding method described with reference to FIG. 1A, the same pixel value (excluding the blank portion) exists in the window area. Therefore, the line image included in the input image cannot be efficiently encoded.
Note that the method described with reference to FIG. 1B can be efficiently encoded because the pixel values of the reference position B or the reference position C and the target pixel X match in the area of the line image.
However, as illustrated in FIG. 2B, when there is an isolated point in the input image, the method described with reference to FIG. Since the pixel values do not match even at the reference position, it cannot be encoded efficiently.

そこで、本実施形態における画像処理装置2は、注目領域の位置に応じて動的に変化するデータ辞書に加えて、注目領域の位置に依存しない非依存辞書を設ける。換言すると、本画像処理装置2は、注目領域との相対位置に依存する予測器に加えて、注目領域との相対位置に依存しない予測器を設けて、予測符号化処理を行う。
これにより、動的なデータ辞書から外れたデータ(注目領域との相対位置に依存する予測器で予測できないデータ)が参照可能になり、図2に示した副走査方向の線や孤立点をより効率的に符号化することが可能になる。
Therefore, the image processing apparatus 2 according to the present embodiment provides an independent dictionary that does not depend on the position of the attention area in addition to the data dictionary that dynamically changes according to the position of the attention area. In other words, the present image processing apparatus 2 performs a predictive coding process by providing a predictor that does not depend on the relative position with the attention area in addition to the predictor that depends on the relative position with the attention area.
This makes it possible to refer to data deviating from the dynamic data dictionary (data that cannot be predicted by a predictor that depends on the relative position to the region of interest), and can more easily identify lines and isolated points in the sub-scanning direction shown in FIG. It becomes possible to encode efficiently.

[ハードウェア構成]
次に、本実施形態における画像処理装置2のハードウェア構成を説明する。
図3は、本発明にかかる符号化方法及び復号化方法が適応される画像処理装置2のハードウェア構成を、制御装置21を中心に例示する図である。
図3に例示するように、画像処理装置2は、CPU212及びメモリ214などを含む制御装置21、通信装置22、HDD・CD装置などの記録装置24、並びに、LCD表示装置あるいはCRT表示装置およびキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)25から構成される。
画像処理装置2は、例えば、本発明にかかる符号化プログラム5(後述)及び復号化プログラム6(後述)がプリンタドライバの一部としてインストールされた汎用コンピュータであり、通信装置22又は記録装置24などを介して画像データを取得し、取得された画像データを符号化又は復号化してプリンタ装置3に送信する。
[Hardware configuration]
Next, a hardware configuration of the image processing apparatus 2 in the present embodiment will be described.
FIG. 3 is a diagram illustrating a hardware configuration of the image processing apparatus 2 to which the encoding method and the decoding method according to the present invention are applied, centering on the control apparatus 21.
As illustrated in FIG. 3, the image processing apparatus 2 includes a control device 21 including a CPU 212 and a memory 214, a communication device 22, a recording device 24 such as an HDD / CD device, an LCD display device or a CRT display device, and a keyboard. A user interface device (UI device) 25 including a touch panel and the like is included.
The image processing apparatus 2 is, for example, a general-purpose computer in which an encoding program 5 (described later) and a decoding program 6 (described later) according to the present invention are installed as a part of a printer driver, such as a communication device 22 or a recording device 24. The image data is acquired via, and the acquired image data is encoded or decoded and transmitted to the printer apparatus 3.

[符号化プログラム]
図4は、制御装置21(図3)により実行され、本発明にかかる符号化方法を実現する符号化プログラム5の機能構成を例示する図である。
図4に例示するように、符号化プログラム5は、位置依存予測部500、非依存予測部510、予測誤差算出部520、ラン計数部530、選択部530、及び符号生成部550を有する。
[Encoding program]
FIG. 4 is a diagram illustrating a functional configuration of the encoding program 5 which is executed by the control device 21 (FIG. 3) and implements the encoding method according to the present invention.
As illustrated in FIG. 4, the encoding program 5 includes a position-dependent prediction unit 500, an independent prediction unit 510, a prediction error calculation unit 520, a run counting unit 530, a selection unit 530, and a code generation unit 550.

符号化プログラム5において、位置依存予測部500は、符号化対象となる注目部分の位置に対応する参照位置の部分データに基づいて、予測データを生成し、生成された予測データと、注目部分の部分データとを比較して、比較結果(予測結果)をラン計数部530に出力する。
より具体的には、位置依存予測部500は、注目画素の画素値を符号化する場合に、この注目画素に対して既定の相対位置にある参照位置の画素値を読み出し、読み出された参照位置の画素値を予測データとして、予測データと注目画素の画素値との比較を行う。
本例の位置依存予測部500は、図1(B)に例示したように、注目画素Xの位置に対応する複数の参照位置A〜Dの画素値を予測データとし、注目画素Xの画素値と、各参照位置A〜Dの画素値(予測データ)とを比較して、画素値が一致した場合(すなわち、予測が的中した場合)に、参照位置を識別する参照位置IDをラン計数部530に対して出力し、いずれの予測データも一致しなかった場合に、一致しなかった旨をラン計数部530に対して出力する。
なお、位置依存予測部500は、少なくとも1つの参照位置を参照して、少なくとも1つの予測データを生成すればよく、例えば、参照位置Aのみを参照して予測データを生成してもよい。この場合に、位置依存予測部500による予測データで生成される符号データは、連長符号化方式(ランレングス符号化方式)で生成されるものと同様になる。
In the encoding program 5, the position-dependent prediction unit 500 generates prediction data based on the partial data at the reference position corresponding to the position of the target portion to be encoded, and the generated prediction data and the target portion The partial data is compared and the comparison result (prediction result) is output to the run counter 530.
More specifically, when encoding the pixel value of the pixel of interest, the position-dependent prediction unit 500 reads out the pixel value of the reference position at a predetermined relative position with respect to the pixel of interest, and the read reference Using the pixel value at the position as prediction data, the prediction data and the pixel value of the target pixel are compared.
As illustrated in FIG. 1B, the position-dependent prediction unit 500 of this example uses the pixel values of a plurality of reference positions A to D corresponding to the position of the target pixel X as prediction data, and the pixel value of the target pixel X Are compared with the pixel values (prediction data) of the reference positions A to D, and when the pixel values match (that is, when the prediction is correct), the reference position ID for identifying the reference position is run-counted. When the prediction data does not match, the fact that they did not match is output to the run counting unit 530.
The position-dependent prediction unit 500 may generate at least one prediction data with reference to at least one reference position. For example, the position-dependent prediction unit 500 may generate prediction data with reference to only the reference position A. In this case, the code data generated by the prediction data by the position-dependent prediction unit 500 is the same as that generated by the run length encoding method (run length encoding method).

非依存予測部510は、注目部分の位置に依存しない予測手法を用いて、注目部分の予測データを生成し、生成された予測データと、注目部分の部分データとを比較して、比較結果(予測結果)をラン計数部530に出力する。
ここで、「注目部分の位置に依存しない」とは、注目部分(注目画素)との相対位置によって規定されるものではないことを意味するが、「注目部分よりも前に処理されたデータ群(画像領域)内に存在する」という意味での依存関係はこの場合除外されている。すなわち、非依存予測部510による予測手法は、注目部分よりも前に処理されたデータ群(画像領域)内に存在する部分データを用いるという点では、注目部分の位置に依存しているとも考えられる。
より具体的には、非依存予測部510は、予測データの候補として記憶されている画素値のいずれかを予測データとして選択し、選択された予測データと注目画素の画素値との比較結果をラン計数部530に出力する。
非依存予測部510は、例えば、位置依存予測部500による予測データがいずれも注目画素の画素値と一致しなかった場合(これらの予測データがいずれも的中しなかった場合)に、この注目画素の画素値を予測データの候補として記憶する。
これにより、位置依存予測部500による予測が的中しない画素(例えば、孤立点の画素値)は、予測データの候補として登録され、非依存予測部510による予測に用いられる。
なお、非依存予測部510は、予測誤差算出部520により算出された予測誤差が符号化されたことを条件として、この予測誤差が算出された注目画素の画素値を予測データの候補として記憶してもよい。
The independent prediction unit 510 generates prediction data of the target portion using a prediction method that does not depend on the position of the target portion, compares the generated prediction data with the partial data of the target portion, and compares the result ( The prediction result is output to the run counting unit 530.
Here, “independent of the position of the target part” means that it is not defined by the relative position with the target part (target pixel), but “a data group processed before the target part”. In this case, the dependency in the meaning of “exists in (image region)” is excluded. That is, the prediction method by the independent prediction unit 510 may be dependent on the position of the target portion in that it uses partial data existing in a data group (image region) processed before the target portion. It is done.
More specifically, the independent prediction unit 510 selects any one of pixel values stored as prediction data candidates as prediction data, and compares the selected prediction data with the pixel value of the target pixel. Output to the run counter 530.
For example, the non-dependent prediction unit 510 performs this attention when the prediction data from the position-dependent prediction unit 500 does not match the pixel value of the target pixel (when these prediction data do not match). The pixel value of the pixel is stored as a candidate for prediction data.
As a result, pixels that are not correctly predicted by the position-dependent prediction unit 500 (for example, pixel values of isolated points) are registered as prediction data candidates and used for prediction by the independent prediction unit 510.
The independent prediction unit 510 stores the pixel value of the target pixel for which the prediction error is calculated as a prediction data candidate on the condition that the prediction error calculated by the prediction error calculation unit 520 is encoded. May be.

予測誤差算出部520は、予め定められた予測方法で、注目部分の予測データを生成し、生成された予測データ値と、この注目部分の部分データ値との差分を算出し、算出された差分を予測誤差として選択部540に出力する。
より具体的には、予測誤差算出部520は、既定の参照位置(注目画素Xの位置に対応付けられた参照位置)の画素値に基づいて、注目画素の画素値を予測し、その予測値を注目画素の実際の画素値から減算し、予測誤差値として選択部540に対して出力する。予測誤差算出部520の予測方法は、符号データの復号化処理における予測方法と対応していればよい。
本例の予測誤差算出部520は、位置依存予測部500と同じ参照位置(参照位置A)の画素値を予測値とし、この予測値と実際の画素値(注目画素Xの画素値)との差分を予測誤差値として算出する。
なお、注目画素Xが最左端である場合のように、参照位置Aが画像中に実在しない場合に、予測誤差算出部520は、デフォルトの値(復号化プログラムと同一の既定値)を予測値として、予測誤差を算出する。
The prediction error calculation unit 520 generates prediction data of the attention portion by a predetermined prediction method, calculates a difference between the generated prediction data value and the partial data value of the attention portion, and the calculated difference Is output to the selection unit 540 as a prediction error.
More specifically, the prediction error calculation unit 520 predicts the pixel value of the target pixel based on the pixel value of a predetermined reference position (a reference position associated with the position of the target pixel X), and the predicted value Is subtracted from the actual pixel value of the pixel of interest and output to the selection unit 540 as a prediction error value. The prediction method of the prediction error calculation unit 520 only needs to correspond to the prediction method in the decoding process of code data.
The prediction error calculation unit 520 of this example uses a pixel value at the same reference position (reference position A) as that of the position-dependent prediction unit 500 as a predicted value, and calculates the predicted value and the actual pixel value (the pixel value of the target pixel X). The difference is calculated as a prediction error value.
When the reference position A does not actually exist in the image as in the case where the target pixel X is at the leftmost end, the prediction error calculation unit 520 uses the default value (the same default value as that of the decoding program) as the predicted value. As shown in FIG.

ラン計数部530は、位置依存予測部500から入力される比較結果と、非依存予測部510から入力される比較結果とに基づいて、的中した予測データの連続数をカウントする。
より具体的には、ラン計数部530は、位置依存予測部500から入力される参照位置ID、及び、非依存予測部510から入力される参照位置IDに基づいて、同一の参照位置IDが連続する数をカウントし、参照位置ID及びその連続数を選択部540に対して出力する。
本例のラン計数部530は、位置依存予測部500及び非依存予測部510による予測データがいずれも注目画素の画素値と一致しなかった場合に、内部カウンタでカウントされている参照位置ID及びその連続数を出力する。
The run counting unit 530 counts the number of consecutive hit prediction data based on the comparison result input from the position-dependent prediction unit 500 and the comparison result input from the non-dependent prediction unit 510.
More specifically, in the run counting unit 530, based on the reference position ID input from the position-dependent prediction unit 500 and the reference position ID input from the non-dependent prediction unit 510, the same reference position ID is consecutive. The reference position ID and its continuous number are output to the selection unit 540.
The run counting unit 530 of this example includes the reference position ID and the reference position ID counted by the internal counter when the prediction data by the position-dependent prediction unit 500 and the non-dependent prediction unit 510 do not match the pixel value of the target pixel. The continuous number is output.

選択部540は、ラン計数部530から入力された参照位置ID及び連続数、並びに、予測誤差算出部520から入力された予測誤差値に基づいて、最も長く連続した参照位置IDを選択し、この参照位置ID及びその連続数並びに予測誤差値を一致データとして符号生成部550に対して出力する。   The selection unit 540 selects the longest continuous reference position ID based on the reference position ID and the continuous number input from the run counting unit 530 and the prediction error value input from the prediction error calculation unit 520. The reference position ID, the number of consecutive positions, and the prediction error value are output to the code generation unit 550 as coincidence data.

符号生成部550は、選択部540から入力された参照位置ID、連続数及び予測誤差値に対して符号を割り当て、割り当てられた符号を通信装置22(図3)又は記録装置24(図3)などに出力する。   The code generation unit 550 assigns a code to the reference position ID, the number of continuations, and the prediction error value input from the selection unit 540, and assigns the assigned code to the communication device 22 (FIG. 3) or the recording device 24 (FIG. 3). Output to etc.

図5は、非依存予測部510(図4)の構成をより詳細に説明する図である。
図5に例示するように、非依存予測部510は、登録制御部512、候補値記憶部514、候補値選択部516及び一致判定部518を含む。
登録制御部512は、予測データの候補として登録すべき部分データを選択し、選択された部分データ(画素値)を候補値記憶部514に登録する。より具体的には、登録制御部516は、位置依存予測部500(図4)において全ての予測データが注目画素の画素値と一致しなかった旨を検知したことを条件として、この注目画素の画素値を候補値記憶部514に登録する。
本例の登録制御部512は、候補値記憶部514に登録されるエントリ数の上限を2つとしており、候補値記憶514への登録順が早いエントリ(予測データの候補となる画素値)により高い優先順位を与えて、各エントリ(候補となる画素値)を管理する。
FIG. 5 is a diagram illustrating the configuration of the independent prediction unit 510 (FIG. 4) in more detail.
As illustrated in FIG. 5, the independent prediction unit 510 includes a registration control unit 512, a candidate value storage unit 514, a candidate value selection unit 516, and a match determination unit 518.
The registration control unit 512 selects partial data to be registered as a candidate for prediction data, and registers the selected partial data (pixel value) in the candidate value storage unit 514. More specifically, the registration control unit 516 determines that the position-dependent prediction unit 500 (FIG. 4) detects that all prediction data does not match the pixel value of the target pixel. The pixel value is registered in the candidate value storage unit 514.
The registration control unit 512 of this example sets the upper limit of the number of entries registered in the candidate value storage unit 514 to two, and the entry with the earlier registration order in the candidate value storage 514 (pixel value that is a candidate for prediction data) Each entry (candidate pixel value) is managed by giving a high priority.

また、登録制御部512は、予め設定された登録禁止条件に基づいて、たとえ位置依存予測部500(図4)において全ての予測データが注目画素の画素値と一致しなかった場合であっても、この注目画素の画素値を候補値記憶部514に登録することを禁止する。登録禁止条件は、例えば、「既定のデータ値と一致すること」などである。
本例の登録制御部512は、背景色、黒及び白に相当する画素値と一致することを登録禁止条件として、これらの色に相当する画素値の登録を禁止する。背景色、黒及び白は、他の色と比較して孤立点となりにくいからである。
Further, the registration control unit 512 is based on a preset registration prohibition condition, even if all the prediction data does not match the pixel value of the pixel of interest in the position-dependent prediction unit 500 (FIG. 4). The registration of the pixel value of the target pixel in the candidate value storage unit 514 is prohibited. The registration prohibition condition is, for example, “matching a predetermined data value”.
The registration control unit 512 of this example prohibits registration of pixel values corresponding to these colors, with the registration prohibition condition being coincident with pixel values corresponding to the background color, black, and white. This is because the background color, black and white are less likely to be isolated points compared to other colors.

候補値記憶部514は、登録制御部512により登録された画素値を予測データの候補値として記憶する。
本例の候補値記憶部514は、2つの画素値を予測データの候補値として記憶し、より早く登録された画素値を第1候補値、より遅くに登録された画素値を第2候補値として記憶する。
The candidate value storage unit 514 stores the pixel value registered by the registration control unit 512 as a candidate value of prediction data.
The candidate value storage unit 514 of this example stores two pixel values as candidate values of prediction data, the pixel value registered earlier is the first candidate value, and the pixel value registered later is the second candidate value. Remember as.

候補値選択部516は、候補値記憶部514に記憶されている部分データ(候補値)の中から、いずれかの部分データを予測データとして一致判定部518に出力する。
例えば、候補値選択部516は、位置依存予測部500で適用される予測データと一致しないことを選択条件として、候補値を選択する。
本例の候補値選択部516は、参照位置Aの画素値と一致しない候補値を、候補値記憶部514に記憶されている画素値の中から選択する。なお、候補値記憶部514に記憶されている画素値(第1候補値及び第2候補値)がいずれも参照位置Aの画素値と一致しない場合に、候補値選択部516は、第1候補値を選択する。
The candidate value selection unit 516 outputs any partial data from the partial data (candidate values) stored in the candidate value storage unit 514 to the match determination unit 518 as predicted data.
For example, the candidate value selection unit 516 selects candidate values on the condition that the prediction data does not match the prediction data applied by the position-dependent prediction unit 500.
In this example, the candidate value selection unit 516 selects a candidate value that does not match the pixel value at the reference position A from the pixel values stored in the candidate value storage unit 514. Note that if none of the pixel values (first candidate value and second candidate value) stored in the candidate value storage unit 514 matches the pixel value at the reference position A, the candidate value selection unit 516 selects the first candidate. Select a value.

一致判定部518は、注目部分の部分データと、候補値選択部516から入力された予測データとを比較して、比較結果をラン計数部510(図4)に出力する。
本例の一致判定部518は、注目画素の画素値と、候補値選択部516から入力された画素値(予測データ)とを比較し、一致している場合に、非依存予測部を識別する参照位置ID(すなわち、候補値記憶部514に記憶されている画素値が参照先であることを示す参照位置ID)をラン計数部530に出力する。
The coincidence determination unit 518 compares the partial data of the target portion with the prediction data input from the candidate value selection unit 516, and outputs the comparison result to the run counting unit 510 (FIG. 4).
The coincidence determination unit 518 of this example compares the pixel value of the target pixel with the pixel value (prediction data) input from the candidate value selection unit 516, and identifies the independent prediction unit if they match. The reference position ID (that is, the reference position ID indicating that the pixel value stored in the candidate value storage unit 514 is a reference destination) is output to the run counting unit 530.

図6は、符号化プログラム4(図4)によりなされる符号化処理を説明する図であり、図6(A)は、位置依存予測部500により参照される参照位置を例示し、図6(B)は、それぞれの参照位置に対応付けられた符号を例示し、図6(C)は、非依存予測部510に対応付けられた符号を例示し、図6(D)は、符号生成部550により生成される符号データを例示する。
図6(A)に例示するように、位置依存予測部500の参照位置は、注目画素Xとの相対位置として設定されている。具体的には、参照位置Aは、注目画素Xの主走査方向上流に設定され、参照位置B〜Dは、注目画素Xの上方(副走査方向上流)の主走査ライン上に設定されている。
FIG. 6 is a diagram for explaining the encoding process performed by the encoding program 4 (FIG. 4). FIG. 6A illustrates a reference position referred to by the position-dependent prediction unit 500, and FIG. B) illustrates the codes associated with the respective reference positions, FIG. 6C illustrates the codes associated with the independent prediction unit 510, and FIG. 6D illustrates the code generation unit. The code data produced | generated by 550 is illustrated.
As illustrated in FIG. 6A, the reference position of the position-dependent prediction unit 500 is set as a relative position with respect to the target pixel X. Specifically, the reference position A is set upstream of the target pixel X in the main scanning direction, and the reference positions B to D are set on the main scanning line above the target pixel X (upstream in the sub-scanning direction). .

また、図6(B)に例示するように、それぞれの参照位置A〜Eには符号が対応付けられている。
同様に、図6(C)に例示するように、非依存予測部510による予測データに対しても符号が対応付けられている。
いずれかの参照位置から読み出された画素値(予測データ)が注目画素Xの画素値と一致した場合(すなわち、いずれかの参照位置で予測が的中した場合)には、ラン計数部530(図4)は、予測が的中した参照位置について、参照位置IDの連続数を増加させ、非依存予測部510による予測データが的中した場合には、ラン計数部530は、非依存予測部510による予測について、参照位置IDの連続数を増加させ、全ての予測データが予測が的中しなかった場合に、カウントしていた参照位置IDの連続数を選択部540に出力する。
符号生成部550は、図6(B)及び図6(C)に例示するように、各予測データ(位置依存予測部500により生成される複数の予測データ、及び、非依存予測部510により生成される予測データ)と符号とを互いに対応付けており、注目画素Xと画素値が一致した予測データに対応する符号を出力する。なお、それぞれの予測データに対応付けられている符号は、例えば、予測の的中率に応じて設定されたエントロピー符号であり、的中率に応じた符号長となる。
In addition, as illustrated in FIG. 6B, the reference positions A to E are associated with codes.
Similarly, as illustrated in FIG. 6C, codes are also associated with prediction data by the independent prediction unit 510.
When the pixel value (prediction data) read from any reference position matches the pixel value of the target pixel X (that is, when the prediction is correct at any reference position), the run counter 530 (FIG. 4) increases the number of consecutive reference position IDs for the reference position where the prediction is correct, and when the prediction data by the independent prediction unit 510 is correct, the run counting unit 530 performs the independent prediction. For the prediction by the unit 510, the number of consecutive reference position IDs is increased, and when all the prediction data are not predicted correctly, the number of consecutive reference position IDs that have been counted is output to the selection unit 540.
As illustrated in FIGS. 6B and 6C, the code generation unit 550 generates each prediction data (a plurality of prediction data generated by the position-dependent prediction unit 500 and the independent prediction unit 510). Prediction data) and a code are associated with each other, and a code corresponding to the prediction data whose pixel value matches the pixel of interest X is output. The code associated with each prediction data is, for example, an entropy code set in accordance with the prediction hit rate, and has a code length in accordance with the hit rate.

また、符号生成部550は、同一の参照位置で連続して画素値が一致する場合、又は、非依存予測部510による予測が連続して的中する場合には、ラン計数部536によりカウントされたその連続数を符号化する。これにより、符号量が少なくなる。このように、符号化プログラム5は、図6(D)に例示するように、いずれかの予測データが注目画素の画素値と一致した場合には、その予測データに対応する符号と、この予測データが的中する連続数とを符号化し、いずれの予測データも注目画素の画素値と一致しなかった場合には、既定の参照位置の画素値と注目画素Xの画素値との差分(予測誤差値)を符号化する。   In addition, the code generation unit 550 is counted by the run counting unit 536 when the pixel values continuously match at the same reference position, or when the prediction by the independent prediction unit 510 continues to hit. The sequence number is encoded. Thereby, the code amount is reduced. In this way, as illustrated in FIG. 6D, the encoding program 5, when any prediction data matches the pixel value of the target pixel, and a code corresponding to the prediction data, and the prediction If the number of consecutive hits in the data is encoded and no prediction data matches the pixel value of the target pixel, the difference between the pixel value of the predetermined reference position and the pixel value of the target pixel X (prediction Error value).

図7は、符号化プログラム5(図4)による符号化処理(S10)のフローチャートである。
図7に示すように、ステップ100(S100)において、符号化プログラム5は、入力された画像データの中から、順に注目画素Xを設定する。
本例の注目画素Xは、入力画像の左上端の画素から順に主走査方向に選択されていき、主走査ラインの右端まで選択されると、次に、副走査方向下方の主走査ラインに移行し、この主走査ラインの左端から順に選択される。
FIG. 7 is a flowchart of the encoding process (S10) by the encoding program 5 (FIG. 4).
As shown in FIG. 7, in step 100 (S100), the encoding program 5 sets the target pixel X in order from the input image data.
The target pixel X in this example is selected in the main scanning direction in order from the pixel at the upper left end of the input image, and when it is selected up to the right end of the main scanning line, it then moves to the main scanning line below the sub scanning direction. The main scanning lines are selected in order from the left end.

ステップ110(S110)において、位置依存予測部500(図4)は、選択された注目画素Xに対応する参照位置A〜Dの画素値をそれぞれ予測データとし、それぞれの予測データと、注目画素Xの画素値とを比較して、これらの画素値が一致している場合には、参照位置に対応する参照位置IDをラン計数部530に出力し、いずれの予測データも注目画素Xの画素値と一致しなかった場合に、一致しなかった旨を非依存予測部510及びラン計数部530に出力する。
また、非依存予測部510は、候補値として記憶されている画素値の中から、1つの画素値を予測データとして選択し、選択された予測データと、注目画素Xの画素値とを比較し、これらの画素値が一致している場合には、この非依存予測部510に対応する参照位置IDをラン計数部530に出力し、これらの画素値が一致しなかった場合には、一致しなかった旨をラン計数部530に出力する。
また、予測誤差算出部520は、注目画素Xの画素値と、参照位置Aの画素値との差分を算出し、算出された差分を予測誤差として選択部540に出力する。
In step 110 (S110), the position-dependent prediction unit 500 (FIG. 4) uses the pixel values of the reference positions A to D corresponding to the selected target pixel X as prediction data, and sets the prediction data and the target pixel X. If these pixel values match each other, the reference position ID corresponding to the reference position is output to the run counter 530, and any prediction data is the pixel value of the target pixel X. Is not matched, the fact that they did not match is output to the independent prediction unit 510 and the run counting unit 530.
The independent prediction unit 510 selects one pixel value as prediction data from the pixel values stored as candidate values, and compares the selected prediction data with the pixel value of the target pixel X. When these pixel values match, the reference position ID corresponding to this independent prediction unit 510 is output to the run counting unit 530, and when these pixel values do not match, they match. The fact that there was no output is output to the run counter 530.
Further, the prediction error calculation unit 520 calculates a difference between the pixel value of the target pixel X and the pixel value of the reference position A, and outputs the calculated difference to the selection unit 540 as a prediction error.

ステップ130(S130)において、符号化プログラム5は、位置依存予測部500から一致しなかった旨が出力され、かつ、非依存予測部510から一致しなかった旨が出力された場合に、S150の処理に移行し、位置依存予測部500又は非依存予測部510から参照位置IDが出力された場合に、S140の処理に移行する。   In step 130 (S130), the encoding program 5 outputs a message indicating that there is no match from the position-dependent prediction unit 500 and a message indicating that there is no match from the independent prediction unit 510. When the process proceeds to step S140 and the reference position ID is output from the position-dependent prediction unit 500 or the non-dependence prediction unit 510, the process proceeds to step S140.

ステップ140(S140)において、ラン計数部530(図4)は、位置依存予測部500及び非依存予測部510又はこれらのいずれか一方から入力された参照位置IDに基づいて、この参照位置IDに対応するカウント値を1つ増加させる。
なお、符号化プログラム5は、次の画素に対する処理を行うべくS100に戻る。
In step 140 (S140), the run counting unit 530 (FIG. 4) sets the reference position ID based on the reference position ID input from the position-dependent prediction unit 500 and / or the non-dependent prediction unit 510. The corresponding count value is incremented by one.
Note that the encoding program 5 returns to S100 to perform processing for the next pixel.

ステップ150(S150)において、ラン計数部530は、位置依存予測部500及び非依存予測部510の比較結果(予測結果)に基づいて、位置依存予測部500及び非依存予測部510による予測データがいずれも注目画素Xの画素値と一致しなかった旨を検知すると、各参照位置IDに対応するカウント値を選択部540に出力する。
選択部540は、ラン計数部530から各参照位置IDのカウント値が入力されると、入力されたカウント値に基づいて、参照位置IDの最長連続数を算出し、算出された最長連続数及び参照位置IDを符号生成部550に出力する。
その後に、選択部540は、予測誤差算出部520から入力された最新の予測誤差(すなわち、全ての予測データが的中しなかった注目画素Xに関する予測誤差)を符号生成部550に出力する。
In step 150 (S150), the run counting unit 530 receives the prediction data from the position-dependent prediction unit 500 and the independent prediction unit 510 based on the comparison result (prediction result) between the position-dependent prediction unit 500 and the independent prediction unit 510. When it is detected that none of them matches the pixel value of the target pixel X, the count value corresponding to each reference position ID is output to the selection unit 540.
When the count value of each reference position ID is input from the run counter 530, the selection unit 540 calculates the longest continuous number of the reference position ID based on the input count value, and calculates the calculated longest continuous number and The reference position ID is output to the code generation unit 550.
Thereafter, the selection unit 540 outputs the latest prediction error input from the prediction error calculation unit 520 (that is, the prediction error related to the target pixel X for which all the prediction data did not hit) to the code generation unit 550.

ステップ160(S160)において、符号生成部550(図4)は、選択部540から順に入力される参照位置ID、連続数、及び予測誤差を符号化し、符号データを通信装置22(図3)又は記録装置24(図3)に出力する。   In step 160 (S160), the code generation unit 550 (FIG. 4) encodes the reference position ID, the continuous number, and the prediction error that are sequentially input from the selection unit 540, and converts the code data into the communication device 22 (FIG. 3) or The data is output to the recording device 24 (FIG. 3).

ステップ170(S170)において、非依存予測部510は、この注目画素Xの画素値を予測データの候補として登録する。すなわち、本例の非依存予測部510は、位置依存予測部500及び非依存予測部510による予測データのいずれもが注目画素Xの画素値と一致しなかったことを条件に、この注目画素Xの画素値を予測データの新たな候補として記憶する。   In step 170 (S170), the independent prediction unit 510 registers the pixel value of the target pixel X as a prediction data candidate. That is, the non-dependent prediction unit 510 of the present example uses the target pixel X on the condition that none of the prediction data from the position-dependent prediction unit 500 and the non-dependent prediction unit 510 matches the pixel value of the target pixel X. Are stored as new candidates for prediction data.

ステップ180(S180)において、符号化プログラム5は、入力された画像データの全ての画素について符号化処理が終了したか否かを判定し、未処理の画素が存在する場合に、S100の処理に戻って、次の画素に対する処理を行い、これ以外の場合に、符号化処理(S10)を終了する。   In step 180 (S180), the encoding program 5 determines whether or not the encoding process has been completed for all the pixels of the input image data. If there are unprocessed pixels, the process of S100 is performed. Returning, the process for the next pixel is performed, and in other cases, the encoding process (S10) is terminated.

図8は、非依存予測部510(図4,図5)による予測処理(S110a)をより詳細に説明するフローチャートである。すなわち、本予測処理(S110a)は、図7に示された画素値予測処理(S110)のうち、非依存予測部510によりなされる部分に相当する。
図8に示すように、ステップ112(S112)において、候補値選択部516(図5)は、参照位置Aの画素値(例えば、位置依存予測部500から通知された参照位置Aの画素値)と、候補値記憶部514に登録されている第1候補値とを比較する。
FIG. 8 is a flowchart for explaining the prediction process (S110a) by the independent prediction unit 510 (FIGS. 4 and 5) in more detail. That is, the main prediction process (S110a) corresponds to a part performed by the independent prediction unit 510 in the pixel value prediction process (S110) shown in FIG.
As shown in FIG. 8, in step 112 (S112), the candidate value selection unit 516 (FIG. 5) displays the pixel value at the reference position A (for example, the pixel value at the reference position A notified from the position-dependent prediction unit 500). And the first candidate value registered in the candidate value storage unit 514.

ステップ114(S114)において、非依存予測部510(図5)は、参照位置Aの画素値と第1候補値とが一致する場合に、S118の処理に移行し、参照位置Aの画素値と第1候補値とが一致しない場合に、S116の処理に移行する。   In step 114 (S114), when the pixel value at the reference position A matches the first candidate value, the non-dependent prediction unit 510 (FIG. 5) proceeds to the process at S118, and the pixel value at the reference position A When the first candidate value does not match, the process proceeds to S116.

ステップ116(S116)において、候補値選択部516は、候補値記憶部514に登録されている第1候補値を、予測データとして選択し、選択された第1候補値を一致判定部518に出力する。   In step 116 (S116), the candidate value selection unit 516 selects the first candidate value registered in the candidate value storage unit 514 as prediction data, and outputs the selected first candidate value to the coincidence determination unit 518. To do.

ステップ118(S118)において、候補値選択部516(図5)は、候補値記憶部514に登録されている第2候補値を、予測データとして選択し、選択された第2候補値を一致判定部518に出力する。
すなわち、本例の候補値選択部516は、第1候補値が参照位置Aの画素値と一致しない場合に、そのまま第1候補値を予測データとして選択し、第1候補値が参照位置Aの画素値と一致する場合に、第2候補値を選択する。
In step 118 (S118), the candidate value selection unit 516 (FIG. 5) selects the second candidate value registered in the candidate value storage unit 514 as prediction data, and determines whether the selected second candidate value matches. To the unit 518.
That is, when the first candidate value does not match the pixel value at the reference position A, the candidate value selection unit 516 of this example selects the first candidate value as the prediction data as it is, and the first candidate value is the reference position A. If the pixel value matches, the second candidate value is selected.

ステップ120(S120)において、一致判定部518は、候補値選択部516から入力された予測データと、注目画素Xの画素値とを比較する。
ステップ122(S122)において、一致判定部518は、候補値選択部516から入力された予測データと、注目画素Xの画素値とが一致している場合には、この非依存予測部に対応する参照位置IDをラン計数部530(図4)に出力し、これらの画素値が一致しなかった場合には、一致しなかった旨をラン計数部530に出力する。
In step 120 (S120), the coincidence determination unit 518 compares the prediction data input from the candidate value selection unit 516 with the pixel value of the target pixel X.
In step 122 (S122), the coincidence determination unit 518 corresponds to the independent prediction unit when the prediction data input from the candidate value selection unit 516 and the pixel value of the target pixel X match. The reference position ID is output to the run counter 530 (FIG. 4), and when these pixel values do not match, the fact that they do not match is output to the run counter 530.

図9は、非依存予測部510(図4,図5)による候補値登録処理(S170)をより詳細に説明するフローチャートである。
図9に示すように、ステップ172(S172)において、登録制御部512(図5)は、注目画素Xの画素値が、登録禁止条件に合致する画素値であるか否かを判定する。
非依存予測部510は、注目画素Xの画素値が登録禁止条件に合致する場合に、この注目画素Xの画素値の登録を禁止して、そのまま候補値登録処理(S170)を終了し、注目画素Xの画素値が登録禁止条件に合致しない場合に、S174の処理に移行する。
FIG. 9 is a flowchart for explaining in more detail the candidate value registration process (S170) by the independent prediction unit 510 (FIGS. 4 and 5).
As shown in FIG. 9, in step 172 (S172), the registration control unit 512 (FIG. 5) determines whether or not the pixel value of the target pixel X is a pixel value that matches the registration prohibition condition.
When the pixel value of the target pixel X matches the registration prohibition condition, the independent prediction unit 510 prohibits registration of the pixel value of the target pixel X, and ends the candidate value registration process (S170) as it is. When the pixel value of the pixel X does not match the registration prohibition condition, the process proceeds to S174.

ステップ174(S174)において、登録制御部512は、候補値記憶部514に登録されている第1候補値を削除し、登録されている第2候補値を第1候補値に繰り上げる。   In step 174 (S174), the registration control unit 512 deletes the first candidate value registered in the candidate value storage unit 514 and raises the registered second candidate value to the first candidate value.

ステップ176(S176)において、登録制御部512は、注目画素Xの画素値を、第2候補値として候補値記憶部514に登録する。   In step 176 (S176), the registration control unit 512 registers the pixel value of the target pixel X in the candidate value storage unit 514 as the second candidate value.

このように、本実施形態における符号化プログラム5は、注目画素Xとの相対位置に依存する位置依存予測部500と、注目画素Xとの相対位置に依存しない非依存予測部510とで、注目画素Xの画素値を予測し、その予測結果(予測が的中したか否か)を符号化する。   As described above, the encoding program 5 in the present embodiment uses the position-dependent prediction unit 500 that depends on the relative position to the target pixel X and the independent prediction unit 510 that does not depend on the relative position to the target pixel X. The pixel value of the pixel X is predicted, and the prediction result (whether or not the prediction is correct) is encoded.

[復号化プログラム]
次に、上記のように符号化された符号データの復号化方法について説明する。
図10は、制御装置21(図3)により実行され、本発明にかかる復号化方法を実現する復号化プログラム6の機能構成を例示する図である。
図10に例示するように、復号化プログラム6は、符号解析部600、画素値参照部610、差分処理部620、復号値記憶部630、データ選択部640、及びデータ出力部650を有する。
[Decryption program]
Next, a method for decoding the encoded data encoded as described above will be described.
FIG. 10 is a diagram illustrating a functional configuration of the decryption program 6 that is executed by the control device 21 (FIG. 3) and implements the decryption method according to the present invention.
As illustrated in FIG. 10, the decoding program 6 includes a code analysis unit 600, a pixel value reference unit 610, a difference processing unit 620, a decoded value storage unit 630, a data selection unit 640, and a data output unit 650.

復号化プログラム6において、符号解析部600は、図6(B)及び図6(C)に例示したものと同様に、符号と参照位置ID(参照位置A〜D、又は、非依存予測部)とを互いに対応付けるテーブルを有し、入力された符号データを、参照位置IDに復号化する。
また、符号解析部600は、入力された符号データに基づいて、参照位置IDの連続数、及び、予測誤差などの数値も復号化する。
符号解析部600により復号化された参照位置ID(参照位置A〜Dに相当するもの)及びその連続数は、画素値参照部610に出力される。また、符号解析部600により復号化された参照位置ID(非依存予測部に相当するもの)及びその連続数は、データ選択部640に出力される。また、符号解析部600により復号化された予測誤差は、差分処理部620に出力される。
In the decoding program 6, the code analysis unit 600 is similar to those illustrated in FIGS. 6B and 6C, the code and the reference position ID (reference positions A to D or independent prediction unit). Are correlated with each other, and the input code data is decoded into a reference position ID.
In addition, the code analysis unit 600 also decodes the number of consecutive reference position IDs and numerical values such as prediction errors based on the input code data.
The reference position ID (corresponding to the reference positions A to D) decoded by the code analysis unit 600 and the continuous number thereof are output to the pixel value reference unit 610. Further, the reference position ID (corresponding to the independent prediction unit) decoded by the code analysis unit 600 and the number of continuous positions thereof are output to the data selection unit 640. Further, the prediction error decoded by the code analysis unit 600 is output to the difference processing unit 620.

画素値参照部610は、符号解析部600から入力された参照位置IDに基づいて、この参照位置IDに対応する参照位置を参照して、画素値を読み出し、読み出された画素値を、入力された連続数だけ繰り返してデータ出力部650に出力する。   Based on the reference position ID input from the code analysis unit 600, the pixel value reference unit 610 refers to the reference position corresponding to the reference position ID, reads the pixel value, and inputs the read pixel value. The data is output to the data output unit 650 by repeating the number of consecutive times.

差分処理部620は、符号解析部600から入力された予測誤差と、既定の予測データ(参照位置Aの画素値)とを合算し、この合算値を復号値記憶部630及びデータ出力部650に出力する。   The difference processing unit 620 adds the prediction error input from the code analysis unit 600 and the predetermined prediction data (the pixel value at the reference position A), and sends the sum to the decoded value storage unit 630 and the data output unit 650. Output.

復号値記憶部630は、差分処理部620から入力された合算値(すなわち、予測誤差を用いて復号化された画素値)を記憶する。
本例の復号値記憶部630は、記憶できるエントリ数の上限が2つ(符号化プログラム5と同じ)であり、差分処理部620から入力される合算値のうち、最新の合算値を第2登録値として記憶し、一つ前に入力された合算値を第1登録値として記憶する。
The decoded value storage unit 630 stores the sum value (that is, the pixel value decoded using the prediction error) input from the difference processing unit 620.
The decoded value storage unit 630 of this example has an upper limit of the number of entries that can be stored (same as the encoding program 5), and among the total values input from the difference processing unit 620, the latest total value is the second. Stored as a registered value, and the total value input immediately before is stored as the first registered value.

データ選択部640は、符号解析部600から入力された参照位置ID(非依存予測部に相当するもの)に応じて、復号値記憶部630に記憶されている合算値(画素値)の中から、いずれか1つの画素値を選択し、選択された画素値を、入力された連続数(参照位置IDの連続数)だけ繰り返してデータ出力部650に出力する。
本例のデータ選択部640は、復号値記憶部630に記憶されている第1登録値が、直前に復号化された画素値(すなわち、参照位置Aの画素値)と一致しない場合に、この第1登録値を選択し、復号値記憶部630に記憶されている第1登録値が、直前に復号化された画素値と一致する場合に、この第2登録値を選択して、データ出力部650に出力する。
The data selection unit 640 selects from among the total values (pixel values) stored in the decoded value storage unit 630 according to the reference position ID (corresponding to the independent prediction unit) input from the code analysis unit 600. , Any one pixel value is selected, and the selected pixel value is output to the data output unit 650 by repeating the input continuous number (the continuous number of the reference position ID).
When the first registered value stored in the decoded value storage unit 630 does not match the pixel value decoded immediately before (that is, the pixel value at the reference position A), the data selection unit 640 of this example When the first registered value is selected, and the first registered value stored in the decoded value storage unit 630 matches the pixel value decoded immediately before, the second registered value is selected and data output is performed. To the unit 650.

データ出力部650は、画素値参照部610、差分処理部620及びデータ選択部640から順に入力される画素値を、一つのデータファイル(画像データ)にまとめて通信装置22(図3)又は記録装置24(図3)に出力する。   The data output unit 650 collects pixel values sequentially input from the pixel value reference unit 610, the difference processing unit 620, and the data selection unit 640 into one data file (image data), or the communication device 22 (FIG. 3) or recording. Output to the device 24 (FIG. 3).

図11は、復号化プログラム6(図10)による復号化処理(S20)のフローチャートである。
図11に示すように、ステップ200(S200)において、符号解析部600(図10)は、入力される符号データを順に復号化して、参照位置ID及びその連続数、又は、予測誤差を生成する。
FIG. 11 is a flowchart of the decrypting process (S20) by the decrypting program 6 (FIG. 10).
As shown in FIG. 11, in step 200 (S200), the code analysis unit 600 (FIG. 10) sequentially decodes input code data to generate a reference position ID and the number of continuous positions or a prediction error. .

ステップ202(S202)において、符号解析部600は、参照位置A〜Dのいずれかに相当する参照位置IDが復号化された場合に、この参照位置ID及びその連続数を画素値参照部610に出力して、S204の処理に移行し、予測誤差が復号化された場合に、この予測誤差を差分処理部620に出力して、S208の処理に移行し、非依存予測部に相当する参照位置IDが復号化された場合に、この参照位置ID及びその連続数をデータ選択部640に出力して、S212の処理に移行する。   In step 202 (S202), when the reference position ID corresponding to any of the reference positions A to D is decoded, the code analysis unit 600 sends the reference position ID and the number of consecutive positions to the pixel value reference unit 610. If the prediction error is decoded, the prediction error is output to the difference processing unit 620, and the process proceeds to S208, where the reference position corresponding to the independent prediction unit is output. When the ID is decrypted, this reference position ID and the number of continuous positions are output to the data selection unit 640, and the process proceeds to S212.

ステップ204(S204)において、画素値参照部610(図10)は、符号解析部600から入力された参照位置IDに基づいて、この参照位置IDに対応する参照位置の画素値を読み出し、読み出された画素値を注目画素Xの画素値としてデータ出力部650に出力する。
ステップ206(S206)において、画素値参照部610は、符号解析部600から入力された連続数だけS204の処理を繰り返したか否かを判定し、連続数だけ繰り返していない場合に、注目画素Xの位置を主走査方向に1つずらして、S204の処理に戻り、連続数だけS204の処理を繰り返した場合に、S220の処理に移行する。
In step 204 (S204), the pixel value reference unit 610 (FIG. 10) reads out and reads out the pixel value of the reference position corresponding to the reference position ID based on the reference position ID input from the code analysis unit 600. The obtained pixel value is output to the data output unit 650 as the pixel value of the target pixel X.
In step 206 (S206), the pixel value reference unit 610 determines whether or not the process of S204 has been repeated for the continuous number input from the code analysis unit 600. If the position is shifted by one in the main scanning direction and the process returns to S204, and the process of S204 is repeated for the number of consecutive times, the process proceeds to S220.

ステップ208(S208)において、差分処理部620(図10)は、符号解析部600から入力された予測誤差と、既定の予測データ(参照位置Aの画素値)とを合算し、この合算値を注目画素Xの画素値としてデータ出力部650に出力する。なお、注目画素Xが画像の左端に相当するために、参照位置Aに対応する参照画素が実在しない場合には、差分処理部620は、既定の画素値と、予測誤差とを合算して出力する。
ステップ210(S210)において、差分処理部620は、予測誤差と予測データとの合算値を、第2登録値として復号値記憶部630に登録する。この場合に、復号値記憶部630は、第2登録値を新規に登録する前に、既に登録されている第2登録値を第1登録値に繰り上げる。
In step 208 (S208), the difference processing unit 620 (FIG. 10) adds the prediction error input from the code analysis unit 600 and the predetermined prediction data (the pixel value at the reference position A), and this sum is obtained. The pixel value of the target pixel X is output to the data output unit 650. If the reference pixel corresponding to the reference position A does not actually exist because the target pixel X corresponds to the left end of the image, the difference processing unit 620 adds the predetermined pixel value and the prediction error and outputs the sum. To do.
In step 210 (S210), the difference processing unit 620 registers the sum of the prediction error and the prediction data in the decoded value storage unit 630 as a second registered value. In this case, the decoded value storage unit 630 raises the already registered second registered value to the first registered value before newly registering the second registered value.

ステップ212(S212)において、データ選択部640(図10)は、符号解析部600から入力された参照位置ID(非依存予測部に相当するもの)に応じて、復号値記憶部630に記憶されている第1登録値(画素値)を読み出し、読み出された第1登録値と、直前に復号化された画素値(すなわち、参照位置Aの画素値)とを比較する。
データ選択部640は、これらの値が一致する場合に、S214の処理に移行し、これらの値が一致しない場合に、S216の処理に移行する。
ステップ214(S214)において、データ選択部640は、復号値記憶部630から、第2登録値を読み出して、読み出された第2登録値を注目画素Xの画素値としてデータ出力部650に出力する。
ステップ216(S216)において、データ選択部640は、読み出された第1登録値を注目画素Xの画素値としてデータ出力部650に出力する。
ステップ218(S218)において、データ選択部640は、符号解析部600から入力された連続数だけ、上記S212〜S216の処理を繰り返したか否かを判定し、入力された連続数まで上記S212〜S216の処理を繰り返していない場合に、S212の処理に戻って、次の注目画素Xの画素値を出力し、入力された連続数だけS212〜S216の処理を繰り返した場合に、S220の処理に移行する。
In step 212 (S212), the data selection unit 640 (FIG. 10) is stored in the decoded value storage unit 630 according to the reference position ID (corresponding to the independent prediction unit) input from the code analysis unit 600. The first registered value (pixel value) is read, and the read first registered value is compared with the pixel value decoded immediately before (that is, the pixel value at the reference position A).
The data selection unit 640 proceeds to the process of S214 when these values match, and proceeds to the process of S216 when these values do not match.
In step 214 (S214), the data selection unit 640 reads the second registered value from the decoded value storage unit 630 and outputs the read second registered value as the pixel value of the pixel of interest X to the data output unit 650. To do.
In step 216 (S216), the data selection unit 640 outputs the read first registration value to the data output unit 650 as the pixel value of the target pixel X.
In step 218 (S218), the data selection unit 640 determines whether or not the processes of S212 to S216 have been repeated for the number of continuous input input from the code analysis unit 600, and the above-described S212 to S216 up to the input continuous number. If the process of S212 is not repeated, the process returns to the process of S212, the pixel value of the next pixel of interest X is output, and the process of S212 to S216 is repeated for the input continuous number, the process proceeds to S220. To do.

ステップ220(S220)において、データ出力部650(図10)は、画素値参照部610、差分処理部620又はデータ選択部640から入力される画素値を順に配列して、記録装置24(図3)等に出力する。
復号化プログラム6は、全ての符号データについて復号化処理が終了したと判定した場合に、復号化処理(S20)を終了し、復号化していない符号データが存在すると判定した場合に、S200の処理に戻って、次の符号データを復号化する。
In step 220 (S220), the data output unit 650 (FIG. 10) sequentially arranges the pixel values input from the pixel value reference unit 610, the difference processing unit 620, or the data selection unit 640, and the recording device 24 (FIG. 3). ) Etc.
When the decoding program 6 determines that the decoding process has been completed for all code data, the decoding program 6 ends the decoding process (S20), and if it is determined that there is code data that has not been decoded, the process of S200 Returning to FIG. 4, the next code data is decoded.

このように、本例の復号化プログラム6は、上記符号化プログラム5(図4)により生成された符号データを復号化する。   Thus, the decoding program 6 of this example decodes the code data generated by the encoding program 5 (FIG. 4).

以上説明したように、本実施形態の画像処理装置2は、注目画素Xの位置に対応する参照位置の画素値を用いて、注目画素Xの画素値を予測すると共に、この予測が外れたときの注目画素Xの画素値を独立して予測データの候補として記憶し、これらの候補を用いて以後の注目画素Xの画素値を予測することにより、孤立点などの画素値についても予測を的中させることができ、より高い圧縮率を実現できる。   As described above, the image processing apparatus 2 according to the present embodiment predicts the pixel value of the target pixel X using the pixel value at the reference position corresponding to the position of the target pixel X, and when this prediction is lost. The pixel value of the pixel of interest X is independently stored as prediction data candidates, and the pixel value of the pixel of interest X is predicted using these candidates to predict the pixel values of isolated points and the like. It is possible to achieve a higher compression ratio.

[第1の変形例]
次に、上記実施形態の変形例を説明する。
上記実施形態では、可逆な符号化方式を適用する形態を説明したが、第1の変形例では、非可逆な符号化方式を実現する形態を説明する。
より具体的には、上記実施形態で説明した可逆符号化処理(S10)の前段で、非可逆な画像処理を行って、より高い圧縮率を実現する。
[First Modification]
Next, a modification of the above embodiment will be described.
In the above-described embodiment, the form in which the reversible encoding method is applied has been described. In the first modification, a form in which the lossy encoding method is realized will be described.
More specifically, irreversible image processing is performed before the lossless encoding process (S10) described in the above embodiment to achieve a higher compression rate.

図12は、非可逆な画像処理を行う画像処理プログラム7の構成を説明する図である。
図12に例示するように、画像処理プログラム7は、予測値提供部710、誤差判定部720及び画素値変更処理部730を有する。
この画像処理プログラム7は、図4に示された符号化プログラム5の前段に設けられ、入力された画像データに対して非可逆な画像処理を施し、非可逆画像処理が施された画像データを符号化プログラム5に出力する。
なお、本画像処理プログラム7がインストールされたコンピュータ装置は、本発明にかかるデータ処理装置の一例である。
FIG. 12 is a diagram illustrating the configuration of the image processing program 7 that performs irreversible image processing.
As illustrated in FIG. 12, the image processing program 7 includes a predicted value providing unit 710, an error determination unit 720, and a pixel value change processing unit 730.
The image processing program 7 is provided in the preceding stage of the encoding program 5 shown in FIG. 4 and performs irreversible image processing on the input image data, and the image data subjected to the irreversible image processing is processed. Output to the encoding program 5.
The computer apparatus in which the image processing program 7 is installed is an example of the data processing apparatus according to the present invention.

画像処理プログラム7において、予測値提供部710は、入力された画像データに基づいて、注目領域の予測データを生成し、生成された予測データを誤差判定部720に提供する。
本例の予測値提供部710は、符号化プログラム5に設けられた位置依存予測部500及び非依存予測部510(図4)と同じ手法によって、注目画素Xについての予測データを生成する。
このように、本画像処理プログラム7は、後段の符号化プログラム5によりなされる予測符号化処理に対応し、この符号化プログラム5と協働して符号量を低減させる。
In the image processing program 7, the prediction value providing unit 710 generates prediction data for the attention area based on the input image data, and provides the generated prediction data to the error determination unit 720.
The prediction value providing unit 710 of this example generates prediction data for the target pixel X by the same method as the position dependent prediction unit 500 and the independent prediction unit 510 (FIG. 4) provided in the encoding program 5.
As described above, the image processing program 7 corresponds to the predictive encoding process performed by the encoding program 5 at the subsequent stage, and reduces the code amount in cooperation with the encoding program 5.

誤差判定部720は、入力された画像データの注目領域と、予測値提供部710により生成されたこの注目領域の予測データとを比較して、この注目領域のデータ値を変更するか否かを判定する。
より具体的には、誤差判定部720は、注目領域のデータ値と、この注目領域の予測データとの差分を算出し、算出された差分が既定の許容範囲内であるか否かを判定し、許容範囲内である場合に、データ値を変更できると判定し、許容範囲を超える場合に、階調値の変更を禁止する。
本例の誤差判定部720は、注目画素Xの画素値と、この注目画素Xに対する予測データ(位置依存予測部500及び非依存予測部510と同じ手法で生成された予測データ)との差分値を予測データ毎に算出し、いずれかの予測データについて算出された差分値が許容範囲内である場合に、この注目画素Xの画素値をこの予測データで置換することを許可し、いずれの予測データについて差分値も許容範囲外である場合に、この注目画素Xの画素値の変更を禁止する。
The error determination unit 720 compares the attention area of the input image data with the prediction data of the attention area generated by the prediction value providing unit 710 and determines whether or not to change the data value of the attention area. judge.
More specifically, the error determination unit 720 calculates a difference between the data value of the attention area and the prediction data of the attention area, and determines whether or not the calculated difference is within a predetermined allowable range. If it is within the allowable range, it is determined that the data value can be changed, and if it exceeds the allowable range, the change of the gradation value is prohibited.
The error determination unit 720 in this example is a difference value between the pixel value of the target pixel X and the prediction data (prediction data generated by the same method as the position-dependent prediction unit 500 and the independent prediction unit 510) for the target pixel X. Is calculated for each prediction data, and when the difference value calculated for any prediction data is within the allowable range, the pixel value of the target pixel X is allowed to be replaced with the prediction data, and any prediction data is When the difference value of the data is also outside the allowable range, the change of the pixel value of the target pixel X is prohibited.

画素値変更処理部730は、誤差判定部720による判定結果に応じて、注目領域のデータ値を変更する。
より具体的には、画素値変更処理部730は、誤差判定部720によりデータ値の変更が許可された場合に、符号化プログラム5(図4)による予測の的中率が向上するように注目領域のデータ値を変更し、誤差判定部720により階調値の変更が禁止された場合に、入力された注目領域のデータ値をそのまま出力する。
本例の画素値変更処理部730は、誤差判定部720により画素値の変更が許可された場合に、注目画素Xの画素値を、差分の最も小さい予測データで置換し、誤差判定部720により全ての予測データについて画素値の変更が禁止された場合に、注目画素Xの画素値をそのまま符号化プログラム5に出力する。
The pixel value change processing unit 730 changes the data value of the attention area according to the determination result by the error determination unit 720.
More specifically, the pixel value change processing unit 730 pays attention so that the accuracy of prediction by the encoding program 5 (FIG. 4) is improved when the data determination is permitted by the error determination unit 720. When the data value of the area is changed and the change of the gradation value is prohibited by the error determination unit 720, the input data value of the attention area is output as it is.
The pixel value change processing unit 730 of this example replaces the pixel value of the target pixel X with prediction data having the smallest difference when the error determination unit 720 permits the change of the pixel value, and the error determination unit 720 When the change of the pixel value is prohibited for all the prediction data, the pixel value of the target pixel X is output to the encoding program 5 as it is.

図13は、予測値提供部710(図12)の構成をより詳細に説明する図である。
図13に例示するように、予測値提供部710は、画素値参照部712、登録制御部714、候補値記憶部716、及び候補値選択部718を含む。なお、画素値参照部712は、図4に例示した位置依存予測部500と同様の手法により予測データを生成するブロックであり、登録制御部714、候補値記憶部716及び候補値選択部718のセットは、図4に例示した非依存予測部510と同様の手法により予測データを生成するブロックである。
FIG. 13 is a diagram for explaining the configuration of the predicted value providing unit 710 (FIG. 12) in more detail.
As illustrated in FIG. 13, the predicted value providing unit 710 includes a pixel value reference unit 712, a registration control unit 714, a candidate value storage unit 716, and a candidate value selection unit 718. Note that the pixel value reference unit 712 is a block that generates prediction data by the same method as the position-dependent prediction unit 500 illustrated in FIG. 4, and includes a registration control unit 714, a candidate value storage unit 716, and a candidate value selection unit 718. The set is a block that generates prediction data by the same method as the independent prediction unit 510 illustrated in FIG.

画素値参照部712は、図4で例示した位置依存予測部500により参照される参照位置A〜Dの少なくとも一箇所を参照して、その参照位置にある画素値を予測データとして誤差判定部720(図12)に出力する。   The pixel value reference unit 712 refers to at least one of the reference positions A to D referred to by the position-dependent prediction unit 500 illustrated in FIG. 4, and uses the pixel value at the reference position as prediction data as an error determination unit 720. (FIG. 12).

登録制御部714は、図5で例示した登録制御部512に相当し、予測データの候補として登録すべき部分データを選択し、選択された部分データ(画素値)を候補値記憶部716に登録する。
より具体的には、登録制御部714は、誤差判定部720によっていずれの予測データも注目画素Xの画素値と一致しないと判定されたことを条件に、この注目画素Xの画素値を候補値記憶部716に登録する。
本例の登録制御部714は、誤差判定部720によってそれぞれの予測データと注目画素Xの画素値との差分が全て許容範囲外であると判定された場合にのみ、この注目画素Xの画素値を候補値記憶部716に登録する。
The registration control unit 714 corresponds to the registration control unit 512 illustrated in FIG. 5, selects partial data to be registered as a candidate for prediction data, and registers the selected partial data (pixel value) in the candidate value storage unit 716. To do.
More specifically, the registration control unit 714 determines the pixel value of the target pixel X as a candidate value on the condition that any prediction data is determined not to match the pixel value of the target pixel X by the error determination unit 720. Register in the storage unit 716.
The registration control unit 714 of the present example only determines the pixel value of the target pixel X when the error determination unit 720 determines that the differences between the respective prediction data and the pixel value of the target pixel X are all outside the allowable range. Is registered in the candidate value storage unit 716.

候補値記憶部716は、図5で例示した候補値記憶部514に相当し、登録制御部714により登録された画素値を予測データの候補値として記憶する。   The candidate value storage unit 716 corresponds to the candidate value storage unit 514 illustrated in FIG. 5, and stores the pixel value registered by the registration control unit 714 as a candidate value of prediction data.

候補値選択部718は、図5で例示した候補値選択部516に相当し、候補値記憶部716に記憶されている候補値(本例では、第1候補値及び第2候補値)の中から、いずれかの候補値を選択し、選択された候補値を予測データとして誤差判定部720(図12)に出力する。
より具体的には、候補値選択部718は、画素値参照部712により生成される予測データと値が一致しない候補値を、候補値記憶部716に記憶されている候補値の中から選択し、選択された候補値を予測データとして出力する。
The candidate value selection unit 718 corresponds to the candidate value selection unit 516 illustrated in FIG. 5 and is a candidate value stored in the candidate value storage unit 716 (in this example, the first candidate value and the second candidate value). Then, one of the candidate values is selected, and the selected candidate value is output as prediction data to the error determination unit 720 (FIG. 12).
More specifically, the candidate value selection unit 718 selects candidate values whose values do not match the prediction data generated by the pixel value reference unit 712 from among the candidate values stored in the candidate value storage unit 716. The selected candidate value is output as prediction data.

画素値参照部712から出力される予測データ、及び、候補値選択部718から出力される予測データは、誤差判定部720において、注目画素Xの画素値との差分を算出され、それぞれの差分(誤差)が許容範囲内であるか否かが評価される。   The prediction data output from the pixel value reference unit 712 and the prediction data output from the candidate value selection unit 718 are calculated by the error determination unit 720 as a difference from the pixel value of the target pixel X, and each difference ( It is evaluated whether or not (error) is within an acceptable range.

図14は、画像処理プログラム7(図12)及び符号化プログラム5(図4)により実現される非可逆符号化処理(S30)のフローチャートである。
図14に示すように、ステップ300(S300)において、画像処理プログラム7は、入力された画像データの中から、順に注目画素Xを設定する。
予測部提供部710(図12,13)に設けられた画素値参照部712(図13)は、注目画素Xの位置に対応する参照位置A〜Dを参照し、これらの参照位置A〜Dの画素値を読み出し、読み出された複数の画素値をそれぞれ予測データとして誤差判定部720(図12)に出力する。
また、画素値参照部712は、参照位置Aの画素値を候補値選択部718(図13)に通知する。
FIG. 14 is a flowchart of the lossy encoding process (S30) realized by the image processing program 7 (FIG. 12) and the encoding program 5 (FIG. 4).
As shown in FIG. 14, in step 300 (S300), the image processing program 7 sets the target pixel X in order from the input image data.
The pixel value reference unit 712 (FIG. 13) provided in the prediction unit providing unit 710 (FIGS. 12 and 13) refers to the reference positions A to D corresponding to the position of the target pixel X, and these reference positions A to D. And the plurality of read pixel values are output as prediction data to the error determination unit 720 (FIG. 12).
In addition, the pixel value reference unit 712 notifies the candidate value selection unit 718 (FIG. 13) of the pixel value at the reference position A.

ステップ302(S302)において、候補値選択部718(図13)は、参照位置Aの画素値(すなわち、画素値参照部712から通知された参照位置Aの画素値)と、候補値記憶部716に登録されている第1候補値とを比較する。   In step 302 (S302), the candidate value selection unit 718 (FIG. 13) displays the pixel value at the reference position A (that is, the pixel value at the reference position A notified from the pixel value reference unit 712) and the candidate value storage unit 716. Is compared with the first candidate value registered.

ステップ304(S304)において、候補値選択部718は、参照位置Aの画素値と第1候補値とが一致する場合に、S308の処理に移行し、参照位置Aの画素値と第1候補値とが一致しない場合に、S306の処理に移行する。   In step 304 (S304), when the pixel value at the reference position A matches the first candidate value, the candidate value selection unit 718 proceeds to the process of S308, and the pixel value at the reference position A and the first candidate value are determined. Is not matched, the process proceeds to S306.

ステップ306(S306)において、候補値選択部718は、候補値記憶部716に登録されている第1候補値を、予測データとして選択し、選択された第1候補値(予測データ)を誤差判定部720(図12)に出力する。   In step 306 (S306), the candidate value selection unit 718 selects the first candidate value registered in the candidate value storage unit 716 as prediction data, and performs error determination on the selected first candidate value (prediction data). It outputs to the part 720 (FIG. 12).

ステップ308(S308)において、候補値選択部718(図13)は、候補値記憶部716に登録されている第2候補値を、予測データとして選択し、選択された第2候補値(予測データ)を誤差判定部720(図12)に出力する。
すなわち、本例の候補値選択部718は、第1候補値が参照位置Aの画素値と一致しない場合に、そのまま第1候補値を予測データとして選択し、第1候補値が参照位置Aの画素値と一致する場合に、第2候補値を選択する。
In step 308 (S308), the candidate value selection unit 718 (FIG. 13) selects the second candidate value registered in the candidate value storage unit 716 as prediction data, and selects the selected second candidate value (prediction data). ) Is output to the error determination unit 720 (FIG. 12).
That is, when the first candidate value does not match the pixel value at the reference position A, the candidate value selection unit 718 of this example selects the first candidate value as the prediction data as it is, and the first candidate value is the reference position A. If the pixel value matches, the second candidate value is selected.

ステップ310(S310)において、誤差判定部720(図12)は、予測値提供部710(すなわち、画素値参照部712及び候補値選択部718)から入力された複数の予測データそれぞれと、注目画素Xの画素値との差分を算出する。
ステップ312(S312)において、誤差判定部720は、予測値提供部710から入力された複数の予測データのいずれかについて、注目画素Xの画素値との差分が既定の許容範囲内である場合に、S314の処理に移行し、予測値提供部710から入力された複数の予測データの全てについて、注目画素Xの画素値との差分が既定の許容範囲外である場合に、S318の処理に移行する。
すなわち、画像処理プログラム7は、いずれかの予測データと注目画素Xの画素値との差分が許容範囲内である場合に、この注目画素Xの画素値変更処理に移行し、予測データと注目画素Xの画素値との差分がいずれも許容範囲外である場合に、候補値記憶部514に登録されている候補値の更新処理に移行する。
In step 310 (S310), the error determination unit 720 (FIG. 12) determines each of the plurality of prediction data input from the prediction value providing unit 710 (that is, the pixel value reference unit 712 and the candidate value selection unit 718), and the target pixel. The difference from the pixel value of X is calculated.
In step 312 (S312), the error determination unit 720 determines that any of the plurality of pieces of prediction data input from the prediction value providing unit 710 has a difference from the pixel value of the target pixel X within a predetermined allowable range. The process proceeds to S314, and the process proceeds to S318 when the difference between the pixel value of the target pixel X is outside the predetermined allowable range for all of the plurality of prediction data input from the predicted value providing unit 710. To do.
That is, the image processing program 7 shifts to the pixel value changing process of the target pixel X when the difference between any prediction data and the pixel value of the target pixel X is within the allowable range, and the prediction data and the target pixel If any difference between the pixel value of X and the pixel value is outside the allowable range, the process shifts to a candidate value update process registered in the candidate value storage unit 514.

ステップ314(S314)において、誤差判定部720(図12)は、注目画素Xとの差分が許容範囲内であると判定された予測データの中から、適用すべき予測データを選択し、画素値変更処理部730に通知する。
誤差判定部720は、例えば、注目画素Xの画素値との差分が最も小さい予測データを、適用すべき予測データとして選択する。なお、誤差判定部720は、既定の優先順に従って、適用すべき予測データを選択してもよい。
In step 314 (S314), the error determination unit 720 (FIG. 12) selects the prediction data to be applied from the prediction data determined that the difference from the target pixel X is within the allowable range, and the pixel value The change processing unit 730 is notified.
For example, the error determination unit 720 selects prediction data having the smallest difference from the pixel value of the target pixel X as prediction data to be applied. Note that the error determination unit 720 may select prediction data to be applied according to a predetermined priority order.

ステップ316(S316)において、画素値変更処理部730(図12)は、誤差判定部720から通知された予測データで、注目画素Xの画素値を置換し、置換後の注目画素Xの画素値を符号化プログラム5(図4)に出力する。
すなわち、画像処理プログラム7は、注目画素Xの画素値を、この注目画素Xとの差分が許容範囲内にある予測データ(すなわち、符号化プログラム5において生成される予測データと一致するデータ値)で置換することにより、符号化プログラム5による予測処理の的中率を向上させて、より高い圧縮率を実現する。また、適切な許容範囲を設定することにより、注目画素Xの画素値を予測データで置換することによる画質劣化を、一定の範囲内に抑えることができる。
In step 316 (S316), the pixel value change processing unit 730 (FIG. 12) replaces the pixel value of the target pixel X with the prediction data notified from the error determination unit 720, and the pixel value of the target pixel X after replacement. Is output to the encoding program 5 (FIG. 4).
That is, the image processing program 7 sets the pixel value of the target pixel X to prediction data in which the difference from the target pixel X is within an allowable range (that is, a data value that matches the prediction data generated in the encoding program 5). By replacing with, the accuracy of prediction processing by the encoding program 5 is improved, and a higher compression rate is realized. Further, by setting an appropriate allowable range, it is possible to suppress image quality degradation caused by replacing the pixel value of the target pixel X with the prediction data within a certain range.

ステップ318(S318)において、誤差判定部720(図12)は、この注目画素Xの画素値と、予測データとの差分が許容範囲外であった旨を予測値提供部710及び画素値変更処理部730に通知する。
画素値変更処理部730は、誤差判定部720からの通知に応じて、入力された注目画素Xの画素値をそのまま符号化プログラム5(図4)に出力する。
また、予測値提供部710の登録制御部714(図13)は、誤差判定部720からの通知に応じて、候補値記憶部716に登録されている第2候補値を、第1候補値に繰り上げる。
ステップ320(S320)において、登録制御部714は、この注目画素Xの画素値を、第2候補値として候補値記憶部716に登録する。
In step 318 (S318), the error determination unit 720 (FIG. 12) indicates that the difference between the pixel value of the target pixel X and the prediction data is outside the allowable range, and the predicted value providing unit 710 and the pixel value changing process. Notification to the unit 730.
In response to the notification from the error determination unit 720, the pixel value change processing unit 730 outputs the input pixel value of the target pixel X to the encoding program 5 (FIG. 4) as it is.
Further, the registration control unit 714 (FIG. 13) of the predicted value providing unit 710 sets the second candidate value registered in the candidate value storage unit 716 as the first candidate value in response to the notification from the error determination unit 720. Raise it.
In step 320 (S320), the registration control unit 714 registers the pixel value of the target pixel X in the candidate value storage unit 716 as the second candidate value.

ステップ322(S322)において、画像処理プログラム7(図12)は、入力された画像データの全ての画素について処理が終了したか否かを判断し、全ての画素についてS300〜S320までの処理が終了した場合に、S10の処理に移行し、未処理の画素が存在する場合に、S300の処理に戻って、次の注目画素Xを設定する。   In step 322 (S322), the image processing program 7 (FIG. 12) determines whether or not the processing has been completed for all the pixels of the input image data, and the processing from S300 to S320 has been completed for all the pixels. In this case, the process proceeds to S10, and when there is an unprocessed pixel, the process returns to S300 and the next target pixel X is set.

ステップ10(S10)において、符号化プログラム5(図4)は、画像処理プログラム7(すなわち、画素値変更処理部730)から入力された画像データを、図7を参照して説明した符号化処理で符号化する。   In step 10 (S10), the encoding program 5 (FIG. 4) uses the encoding process described with reference to FIG. 7 for the image data input from the image processing program 7 (that is, the pixel value change processing unit 730). Encode with

このように、本変形例の画像処理装置2は、画像処理プログラム7(図12)における非可逆処理(画素値の置換)により、符号化プログラム5(図4)による予測の的中率を向上させて、より高い圧縮率を実現する。   As described above, the image processing apparatus 2 according to the present modified example improves the prediction accuracy of the encoding program 5 (FIG. 4) by irreversible processing (pixel value replacement) in the image processing program 7 (FIG. 12). To achieve a higher compression ratio.

[その他の変形例]
上記実施形態では、位置依存予測部500は、注目画素Xとの相対位置が既定されている複数の参照位置A〜Dを参照して、予測データを生成しているが、これに限定されるものではなく、例えば、入力された画像データの周期性を判定し、判定された周期性に応じて参照位置を決定してもよい。
この場合に、位置依存予測部500は、画像の周期性に応じた参照位置の画素値を予測データとすることができるため、周期性を有する画像データをより効率的に符号化することができる。
[Other variations]
In the above embodiment, the position-dependent prediction unit 500 generates prediction data with reference to a plurality of reference positions A to D whose relative positions with respect to the target pixel X are predetermined, but the present invention is not limited to this. For example, the periodicity of the input image data may be determined, and the reference position may be determined according to the determined periodicity.
In this case, since the position-dependent prediction unit 500 can use the pixel value at the reference position according to the periodicity of the image as the prediction data, the image data having the periodicity can be encoded more efficiently. .

動的にデータ辞書を変更しながら、入力データを符号化する符号化方式を説明する図であり、(A)は、注目領域に応じてスライドするデータ辞書を用いる符号化方式を説明し、(B)は、注目領域に対して複数の方向にデータ辞書を有する符号化方式を説明する。It is a figure explaining the encoding system which encodes input data, changing a data dictionary dynamically, (A) explains the encoding system using the data dictionary which slides according to an attention area, ( B) describes an encoding method having a data dictionary in a plurality of directions with respect to a region of interest. 入力画像を例示する図であり、(A)は、副走査方向の線を含む入力画像を例示し、(B)は、ディザパターンを含む入力画像を例示する。4A and 4B are diagrams illustrating input images, where FIG. 5A illustrates an input image including lines in the sub-scanning direction, and FIG. 5B illustrates an input image including a dither pattern. 本発明にかかる符号化方法及び復号化方法が適応される画像処理装置2のハードウェア構成を、制御装置21を中心に例示する図である。It is a figure which illustrates the hardware constitutions of the image processing apparatus 2 to which the encoding method and decoding method concerning this invention are applied centering on the control apparatus 21. FIG. 制御装置21(図3)により実行され、本発明にかかる符号化方法を実現する符号化プログラム5の機能構成を例示する図である。It is a figure which illustrates the functional structure of the encoding program 5 which is performed by the control apparatus 21 (FIG. 3) and implement | achieves the encoding method concerning this invention. 非依存予測部510(図4)の構成をより詳細に説明する図である。It is a figure explaining the structure of the non-dependent prediction part 510 (FIG. 4) in detail. 符号化プログラム4(図4)によりなされる符号化処理を説明する図であり、(A)は、位置依存予測部500により参照される参照位置を例示し、(B)は、それぞれの参照位置に対応付けられた符号を例示し、(C)は、非依存予測部510に対応付けられた符号を例示し、(D)は、符号生成部550により生成される符号データを例示する。It is a figure explaining the encoding process performed by the encoding program 4 (FIG. 4), (A) illustrates the reference position referred by the position dependence prediction part 500, (B) is each reference position. (C) illustrates a code associated with the independent prediction unit 510, and (D) illustrates code data generated by the code generation unit 550. 符号化プログラム5(図4)による符号化処理(S10)のフローチャートである。It is a flowchart of the encoding process (S10) by the encoding program 5 (FIG. 4). 非依存予測部510(図4,図5)による予測処理(S110a)をより詳細に説明するフローチャートである。It is a flowchart explaining the prediction process (S110a) by the non-dependent prediction part 510 (FIG. 4, FIG. 5) in detail. 非依存予測部510(図4,図5)による候補値登録処理(S170)をより詳細に説明するフローチャートである。It is a flowchart explaining in more detail the candidate value registration process (S170) by the non-dependent prediction part 510 (FIG. 4, FIG. 5). 制御装置21(図3)により実行され、本発明にかかる復号化方法を実現する復号化プログラム6の機能構成を例示する図である。It is a figure which illustrates the functional structure of the decoding program 6 which is performed by the control apparatus 21 (FIG. 3) and implement | achieves the decoding method concerning this invention. 復号化プログラム6(図10)による復号化処理(S20)のフローチャートである。It is a flowchart of the decoding process (S20) by the decoding program 6 (FIG. 10). 非可逆な画像処理を行う画像処理プログラム7の構成を説明する図である。It is a figure explaining the structure of the image processing program 7 which performs an irreversible image process. 予測値提供部710(図12)の構成をより詳細に説明する図である。It is a figure explaining the structure of the predicted value provision part 710 (FIG. 12) in detail. 画像処理プログラム7(図12)及び符号化プログラム5(図4)により実現される非可逆符号化処理(S30)のフローチャートである。It is a flowchart of the irreversible encoding process (S30) implement | achieved by the image processing program 7 (FIG. 12) and the encoding program 5 (FIG. 4).

符号の説明Explanation of symbols

2・・・画像処理装置
5・・・符号化プログラム
500・・・位置依存予測部
510・・・非依存予測部
512・・・登録制御部
514・・・候補値記憶部
516・・・候補値選択部
518・・・一致判定部
520・・・予測誤差算出部
530・・・ラン計数部
540・・・選択部
550・・・符号生成部
6・・・復号化プログラム
600・・・符号解析部
610・・・画素値参照部
620・・・差分処理部
630・・・復号値記憶部
640・・・データ選択部
650・・・データ出力部
7・・・画像処理プログラム
710・・・予測値提供部
712・・・画素値参照部
714・・・登録制御部
716・・・候補値記憶部
718・・・候補値選択部
720・・・誤差判定部
730・・・画素値変更処理部
DESCRIPTION OF SYMBOLS 2 ... Image processing apparatus 5 ... Coding program 500 ... Position dependence prediction part 510 ... Independent prediction part 512 ... Registration control part 514 ... Candidate value storage part 516 ... Candidate Value selection unit 518 ... Match determination unit 520 ... Prediction error calculation unit 530 ... Run counting unit 540 ... Selection unit 550 ... Code generation unit 6 ... Decoding program 600 ... Code Analysis unit 610 ... Pixel value reference unit 620 ... Difference processing unit 630 ... Decoded value storage unit 640 ... Data selection unit 650 ... Data output unit 7 ... Image processing program 710 ... Predicted value providing unit 712 ... Pixel value reference unit 714 ... Registration control unit 716 ... Candidate value storage unit 718 ... Candidate value selection unit 720 ... Error determination unit 730 ... Pixel value change processing Part

Claims (10)

符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予測手段と、
前記第1の予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを登録すべきと判定する登録判定手段と、
前記登録判定手段により登録すべきと判定された注目部分データを記憶するデータ記憶手段と、
前記データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予測手段と、
前記第1の予測手段による予測結果、及び、前記第2の予測手段による予測結果に基づいて、前記注目部分データの符号データを生成する符号生成手段と
を有する符号化装置。
First prediction means for predicting target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of the target region to be encoded;
Registration determination means for determining that the target portion data should be registered on condition that the predicted data predicted by the first prediction unit and the target portion data do not match;
Data storage means for storing the attention partial data determined to be registered by the registration determination means;
Second predicting means for predicting target partial data to be encoded using any target partial data stored in the data storage means;
The prediction result by the first prediction means, and, based on the prediction result by the second prediction unit, the encoding device having a code generating means for generating code data of the target partial data.
前記注目部分データと、前記第1の予測手段により予測された予測データとの差分を予測誤差として生成する予測誤差生成手段
をさらに有し、
前記符号生成手段は、前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データが、いずれも注目部分データと一致しない場合に、前記予測誤差生成手段により生成された予測誤差に基づいて、この注目部分データの符号データを生成し、
前記登録判定手段は、前記予測誤差に基づいて符号データが生成されたことを条件として、前記注目部分データを登録すべきと判定する
請求項1に記載の符号化装置。
A prediction error generating unit that generates a difference between the attention partial data and the prediction data predicted by the first prediction unit as a prediction error;
The code generation unit generates the prediction error when the prediction data predicted by the first prediction unit and the prediction data predicted by the second prediction unit do not match the target partial data. Based on the prediction error generated by the means, generate code data of this attention partial data,
The encoding apparatus according to claim 1, wherein the registration determination unit determines that the target partial data should be registered on the condition that code data is generated based on the prediction error.
前記第2の予測手段は、少なくとも前記第1の予測手段により予測された予測データと一致しない注目部分データを、前記データ記憶手段により記憶されている注目部分データの中から選択して、符号化対象となる注目部分データの予測に用いる
請求項1又は2に記載の符号化装置。
The second predicting unit selects at least target portion data that does not match the predicted data predicted by the first predictor from the target portion data stored in the data storage unit, and encodes the target portion data. The encoding apparatus according to claim 1, wherein the encoding apparatus is used for prediction of target partial data to be processed.
前記登録判定手段は、予め定められたデータ値を有する注目部分データを、登録すべきでない注目部分データであると判定する
請求項1〜3のいずれかに記載の符号化装置。
The encoding apparatus according to any one of claims 1 to 3, wherein the registration determination unit determines that the target partial data having a predetermined data value is the target partial data that should not be registered.
符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予備予測手段と、
前記第1の予備予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを記憶する予備データ記憶手段と、
前記予備データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予備予測手段と、
前記第1の予備予測手段により予測された予測データ、及び、前記第2の予備予測手段により予測された予測データについて、符号化対象となる注目部分データとの差分を評価する誤差評価手段と、
前記誤差評価手段による評価結果に応じて、符号化対象となる注目部分データを、前記第1の予備予測手段により予測された予測データ、又は、前記第2の予備予測手段により予測された予測データで置換するデータ置換手段と、
少なくとも前記第1の予備予測手段により適用される予測方法、及び、前記第2の予備予測手段により適用される予測方法を用いて、前記データ置換手段により少なくとも一部の注目部分データがいずれかの予測データで置換されたデータを予測符号化する予測符号化手段と
を有する符号化装置。
First preliminary prediction means for predicting target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of the target region to be encoded;
Preliminary data storage means for storing the target portion data on the condition that the prediction data predicted by the first preliminary prediction unit and the target portion data do not match,
Second preliminary prediction means for predicting target partial data to be encoded using any target partial data stored in the preliminary data storage means;
The first preliminary prediction means prediction data predicted by, and for the prediction data predicted by the second preliminary prediction means, and an error evaluating means for evaluating the difference between the target partial data to be encoded,
According to the evaluation result by the error evaluation unit, the target partial data to be encoded is predicted data predicted by the first preliminary prediction unit, or predicted data predicted by the second preliminary prediction unit. Data replacement means for replacement with,
Using at least a prediction method applied by the first preliminary prediction unit and a prediction method applied by the second preliminary prediction unit, at least a part of the target partial data is selected by the data replacement unit. A predictive encoding means for predictively encoding the data replaced with the predictive data.
符号化対象となる注目部分データは、画像の一部に相当する画像データである
請求項1〜5のいずれかに記載の符号化装置。
The encoding device according to any one of claims 1 to 5, wherein the target partial data to be encoded is image data corresponding to a part of an image.
符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測する第1の予測手段と、
前記第1の予測手段により予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを記憶するデータ記憶手段と、
前記データ記憶手段に記憶されているいずれかの注目部分データを用いて、符号化対象となる注目部分データを予測する第2の予測手段と、
前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データについて、符号化対象となる注目部分データとの差分を評価する誤差評価手段と、
前記誤差評価手段による評価結果に応じて、符号化対象となる注目部分データを、前記第1の予測手段により予測された予測データ、及び、前記第2の予測手段により予測された予測データで置換するデータ置換手段と
を有するデータ処理装置。
First prediction means for predicting target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of the target region to be encoded;
Data storage means for storing the target portion data on condition that the predicted data predicted by the first prediction unit and the target portion data do not match;
Second predicting means for predicting target partial data to be encoded using any target partial data stored in the data storage means;
The first prediction data predicted by the prediction means, and, the prediction data predicted by said second prediction means, and an error evaluating means for evaluating the difference between the target partial data to be encoded,
Depending on the evaluation result of the error evaluating means, the target partial data to be encoded, predictive data predicted by said first prediction means, and, substituted with prediction data predicted by said second prediction means A data processing device.
注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて予測された注目部分データの予測データを符号化した符号データと、この予測データと一致しなかった注目部分データの符号データとを復号化する復号化手段と、
前記復号化手段により復号化された符号データから参照位置を特定し、この参照位置に対応する参照データを読み出し、読み出された参照データに基づいて、注目部分データを生成するデータ参照手段と、
前記復号化手段により復号化された符号データに含まれる差分データに基づいて、注目部分データを生成する差分処理手段と、
前記差分処理手段により生成された注目部分データを記憶する記憶手段と、
前記記憶手段により記憶されている注目部分データの中から、前記データ参照手段において特定された参照位置に応じて、いずれかの注目部分データを選択するデータ選択手段と
を有する復号化装置。
Code data obtained by encoding the prediction data of the target portion data predicted using the image data of the reference region at a predetermined relative position with respect to the image data of the target region, and the target portion data that does not match the prediction data Decoding means for decoding the encoded data of
A data reference means for identifying a reference position from the code data decoded by the decoding means, reading reference data corresponding to the reference position, and generating attention partial data based on the read reference data;
Difference processing means for generating the target partial data based on the difference data included in the code data decoded by the decoding means;
Storage means for storing the partial data of interest generated by the difference processing means;
A decoding apparatus comprising: data selecting means for selecting any one of the attention part data from the attention part data stored in the storage means according to the reference position specified by the data reference means.
符号化対象となる注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて、符号化対象となる注目部分データを予測するステップと、
予測された予測データと、前記注目部分データとが一致しなかったことを条件として、この注目部分データを予測候補として登録するステップと、
前記予測候補として登録されている注目部分データのいずれかを用いて、符号化対象となる注目部分データを予測するステップと、
前記既定の相対位置にある参照領域の画像データを用いて予測された予測結果、及び、前記予測候補の注目部分データを用いて予測された予測結果に基づいて、前記注目部分データの符号データを生成するステップと
をコンピュータに実行させるプログラム。
Predicting target partial data to be encoded using image data of a reference region at a predetermined relative position with respect to image data of the target region to be encoded;
Registering the target part data as a prediction candidate on the condition that the predicted data predicted and the target part data do not match,
Predicting target partial data to be encoded using any of the target partial data registered as the prediction candidates;
Wherein the predetermined relative position predicted predicted result using the image data of the reference region in the, and, on the basis of the prediction candidate of the target partial data predicted predicted results using the code data of the target partial data A program that causes a computer to execute the generating step.
注目領域の画像データに対して既定の相対位置にある参照領域の画像データを用いて予測された注目部分データの予測データを符号化した符号データと、この予測データと一致しなかった注目部分データの符号データとを復号化し、
前記復号化された符号データから参照位置を特定し、この参照位置に対応する参照データを読み出し、読み出された参照データに基づいて、注目部分データを生成するステップと、
前記復号化された符号データが差分データを示す場合に、注目部分データを生成するステップと、
前記差分データに基づいて生成された注目部分データを予測候補として登録するステップと、
前記復号化された符号データが前記予測候補のいずれかを示す場合に、前記予測候補として登録されている注目部分データの中から、いずれかの画像データを選択するステップと
をコンピュータに実行させるプログラム。
Code data obtained by encoding the prediction data of the target portion data predicted using the image data of the reference region at a predetermined relative position with respect to the image data of the target region, and the target portion data that does not match the prediction data The encoded data of
Identifying a reference position from the decoded code data, reading reference data corresponding to the reference position, and generating attention partial data based on the read reference data;
Generating the partial data of interest when the decoded code data indicates difference data;
Registering the target partial data generated based on the difference data as a prediction candidate;
When the decoded code data indicates any of the prediction candidates, a program for causing a computer to execute any one of the image data items of interest registered as the prediction candidate. .
JP2005083504A 2005-03-23 2005-03-23 Encoding device, data processing device, decoding device, and program Expired - Fee Related JP4766230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005083504A JP4766230B2 (en) 2005-03-23 2005-03-23 Encoding device, data processing device, decoding device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005083504A JP4766230B2 (en) 2005-03-23 2005-03-23 Encoding device, data processing device, decoding device, and program

Publications (2)

Publication Number Publication Date
JP2006270324A JP2006270324A (en) 2006-10-05
JP4766230B2 true JP4766230B2 (en) 2011-09-07

Family

ID=37205839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005083504A Expired - Fee Related JP4766230B2 (en) 2005-03-23 2005-03-23 Encoding device, data processing device, decoding device, and program

Country Status (1)

Country Link
JP (1) JP4766230B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012134659A (en) * 2010-12-20 2012-07-12 Ricoh Co Ltd Image processing device and image processing method
JP5487401B2 (en) * 2011-07-15 2014-05-07 株式会社アクセル Image data encoding method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04220086A (en) * 1990-12-19 1992-08-11 Ricoh Co Ltd Image data control system
JPH06274311A (en) * 1993-03-19 1994-09-30 Fujitsu Ltd Data compression device and data restoration device
JP3359215B2 (en) * 1995-12-28 2002-12-24 株式会社リコー Multi-level image coding device
JPH09246992A (en) * 1996-03-12 1997-09-19 Seiko Epson Corp Data encoder and method therefor and data decoder and method therefor
JPH1013690A (en) * 1996-06-27 1998-01-16 Tec Corp Article image display system
JPH10136356A (en) * 1996-09-04 1998-05-22 Seiko Epson Corp Image data compressing device and image data compression method
JPH11234683A (en) * 1998-02-12 1999-08-27 Fuji Xerox Co Ltd Image coding method and system
JP2001257887A (en) * 2000-03-14 2001-09-21 Fuji Xerox Co Ltd Encoding device and decoding device for image, and encoding method and decoding method for image
US7206450B2 (en) * 2002-04-25 2007-04-17 Microsoft Corporation Compression of bi-level images with explicit representation of ink clusters

Also Published As

Publication number Publication date
JP2006270324A (en) 2006-10-05

Similar Documents

Publication Publication Date Title
KR100819992B1 (en) Image encoding apparatus and method, and computer-readable storage medium
US7382294B2 (en) Coding apparatus, decoding apparatus, coding method, decoding method, computer readable medium and computer data signal
EP2475175A2 (en) Video encoding device, video encoding method, video encoding program, video decoding device, video decoding method, and video decoding program
JP2007088687A (en) Image processing apparatus, image processing method and program thereof
JP2006270326A (en) Coder, coding method and program
JP4766230B2 (en) Encoding device, data processing device, decoding device, and program
JP2006270325A (en) Image compression apparatus, image decompression apparatus, image data, image processing method and program
JP2001352550A (en) Image decoder and image decoding method
KR100739110B1 (en) Method for compressing binary image rapidly
US20060245658A1 (en) Coding device, decoding device, coding method, decoding method, and storage medium storing program for execution of those
JP3966117B2 (en) Image processing apparatus, image encoding apparatus, image printing apparatus, and methods thereof
JP4013716B2 (en) Image processing device
US5987182A (en) Markov model image encoding device and method
JP2006340134A (en) Coding device, coding method, and program
CN112073733A (en) Video coding and decoding method and device based on motion vector angle prediction
JP2019057886A (en) Encoder, encoding method, and program
JP4078548B2 (en) Encoding device, encoding method, and program
US8170113B2 (en) Encoder, data file, encoding method, computer readable medium and computer data signal
JP2007088684A (en) Encoder, decoder, encoding method, decoding method and program
JP3855376B2 (en) Image encoding device
JP2007005965A (en) Coding apparatus, coding method, and program
JP2007028394A (en) Image compression apparatus, image extension apparatus, image data, image processing method, edge detection method, and program
JP2891818B2 (en) Encoding device
JP2007049594A (en) Processing method for image data
JP2007306187A (en) Encoder, encoding method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees