JPH1132206A - Image processor - Google Patents

Image processor

Info

Publication number
JPH1132206A
JPH1132206A JP9185315A JP18531597A JPH1132206A JP H1132206 A JPH1132206 A JP H1132206A JP 9185315 A JP9185315 A JP 9185315A JP 18531597 A JP18531597 A JP 18531597A JP H1132206 A JPH1132206 A JP H1132206A
Authority
JP
Japan
Prior art keywords
image
line
pixel
pixel value
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9185315A
Other languages
Japanese (ja)
Inventor
Yumi Manjiyoume
ゆみ 万城目
Hiroshi Sekine
弘 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP9185315A priority Critical patent/JPH1132206A/en
Publication of JPH1132206A publication Critical patent/JPH1132206A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor which can suppress the occurrence of voiding or color image deterioration at the time of compositing images and can image enhance compression efficiency at the time of performing separation and compression. SOLUTION: In an image processor, an image separating section 2 separates an image inputted to an image inputting section 1 into an image S indicating the state of a character or a line drawing, an image P indicating the color information of the character or line drawing, and an image I which is obtained by deleting the data of characters and of line drawings from the inputted image. An image-storing section 3 temporarily stores an image I in which the existing area of the characters or line drawings is voided. In the image element in the voided area of the image I, an image processing section 4 fills up the voided area with an image element value by referring to the image element value in the periphery of the voided area. Thus, even the existing areas of the characters and line drawings in the image also become flat image, and the characters and line drawings can be composited with each other without causing voids, and compression efficiency can be enhanced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力された画像情
報を複数の画像情報に分離して処理を行なう画像処理装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for separating input image information into a plurality of pieces of image information and performing processing.

【0002】[0002]

【従来の技術】入力された画像を保存や転送する場合に
は、なるべくデータ量を減少させることが望まれる。デ
ータ量を削減するために、入力画像を例えば文字や線画
情報と、それ以外の1以上の画像情報に分離し、それぞ
れ最適なデータ圧縮処理が施される場合がある。また、
データ圧縮処理前に、分離された画像情報毎に異なる解
像度へ画像を変換し、データ量をさらに削減する場合も
ある。
2. Description of the Related Art When an input image is stored or transferred, it is desired to reduce the data amount as much as possible. In order to reduce the amount of data, an input image may be separated into, for example, character or line drawing information and one or more pieces of other image information, and optimal data compression processing may be performed on each of the information. Also,
Before the data compression processing, the image may be converted into a different resolution for each separated image information to further reduce the data amount.

【0003】特開平4−105178号公報では、入力
画像から文字領域と図表領域とイメージ領域を分離抽出
し、各領域に含まれる情報に適するデータに変換後、再
構築する構成が開示されている。
Japanese Patent Laying-Open No. 4-105178 discloses a configuration in which a character area, a chart area, and an image area are separated and extracted from an input image, converted into data suitable for information included in each area, and then reconstructed. .

【0004】図16は、従来の画像処理装置における画
像分離処理の具体例の説明図である。図16(A)は入
力画像であり、ハッチングを施して示した部分はイメー
ジであり、イメージの上に文字「ABC」が重なってい
る。このような入力画像に対して画像分離処理を行なう
と、図16(B)に示すような文字領域を表わす画像
と、図16(B)に示すようなイメージ領域を表わす画
像に分離される。上述の文献では、分離された文字領域
について文字認識処理を行ない、データ量を削減してい
る。
FIG. 16 is an explanatory diagram of a specific example of image separation processing in a conventional image processing apparatus. FIG. 16A shows an input image, and the hatched portion is an image, and a character “ABC” is superimposed on the image. When the image separation processing is performed on such an input image, the image is separated into an image representing a character area as shown in FIG. 16B and an image representing an image area as shown in FIG. In the above document, character recognition processing is performed on the separated character area to reduce the data amount.

【0005】一般にイメージ部分の画像は、データ量が
多い。例えば600dpiのスキャナーからA4サイズ
の画像をRGB各色8ビットで読み取った場合のデータ
量は、約108Mバイトになってしまう。現状では一般
に文字や線画部分の解像度は600dpiまたはこれ以
上の高解像度が必要とされているが、イメージ部分の解
像度は文字や線画部分と比べて低解像度でも差し支えな
い。そのため、イメージ部分の解像度を文字部分よりも
下げたり、JPEGベースライン方式に代表されるよう
な圧縮手法を用いてデータ量を削減し、データの保持や
通信が行なわれている。
Generally, the image portion has a large data amount. For example, when an A4 size image is read from a 600 dpi scanner with 8 bits for each color of RGB, the data amount is about 108 Mbytes. At present, generally, the resolution of characters and line drawings is required to be 600 dpi or higher, but the resolution of image portions may be lower than that of characters and line drawings. For this reason, the resolution of the image portion is lower than that of the character portion, or the amount of data is reduced by using a compression method typified by the JPEG baseline method, and data storage and communication are performed.

【0006】例えば図16(A)に示す入力画像からイ
メージ部分のみピックアップした図16(C)に示す画
像を低解像度で保持する場合を考える。出力する際には
低解像度で保持している画像を元の解像度へ解像度変換
し、図16(B)に示す文字部画像と合成する。このと
き、イメージ部分を元の解像度へ変換した際に図16
(C)に示す画像とエッジ部分で相違することがあり、
文字部分とイメージ部分の境界部に白抜けが発生する可
能性がある。
For example, consider a case where an image shown in FIG. 16C, which is obtained by picking up only an image portion from the input image shown in FIG. At the time of output, the image held at the low resolution is converted into the original resolution and combined with the character part image shown in FIG. At this time, when the image portion is converted to the original resolution, FIG.
There may be differences between the image shown in FIG.
White spots may occur at the boundary between the character portion and the image portion.

【0007】また、図16(C)に示すように、イメー
ジ領域のみを分離した画像上では、文字が存在していた
領域が白抜けする。特にイメージ上に細かい文字が多く
書かれている場合には、イメージ領域のみ分離した画像
上で白抜けが頻繁に存在し、画像中の高周波成分が大き
くなる。このような画像を、JPEGベースライン方式
等の離散コサイン変換を用いた可変長かつ非可逆データ
圧縮方式を用いて圧縮すると、圧縮率の低下や、圧縮伸
長後の画像品質の劣化するという問題もある。
On the other hand, as shown in FIG. 16 (C), on an image obtained by separating only the image area, the area where the character was present becomes blank. In particular, when many fine characters are written on an image, white spots frequently appear on an image in which only the image area is separated, and high-frequency components in the image become large. When such an image is compressed using a variable-length and irreversible data compression method using a discrete cosine transform such as a JPEG baseline method, there is also a problem that the compression rate is reduced and the image quality after compression / decompression is deteriorated. is there.

【0008】[0008]

【発明が解決しようとする課題】本発明は、上述した事
情に鑑みてなされたもので、合成時の白抜けや画像品質
の劣化を抑え、また、分離圧縮時の圧縮効率を高めた画
像処理装置を提供することを目的とするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned circumstances, and has been made in consideration of the above circumstances. It is intended to provide a device.

【0009】[0009]

【課題を解決するための手段】本発明は、入力された画
像情報を文字または線画情報からなる第1の画像情報
と、文字または線画情報以外の情報からなる第2の画像
情報に分離し、分離された第2の画像情報については、
第1の画像情報として分離された領域の一部または全部
に対して、当該領域の周囲の画素を参照して画像情報を
埋め込む。これによって第2の画像情報を低解像度に変
換し、再び元の解像度に戻して第1の画像情報と合成し
ても、埋め込まれた画像情報によって白抜けを起こすこ
とはない。また、イメージ部分に文字や線画が存在して
いても、第2の画像情報では文字や線画の部分に周囲の
画素を参照して、例えば圧縮効率が高くなるように画像
情報を埋め込むことができる。そのため、文字や線画が
存在していた部分で第2の画像情報の圧縮効率が低下す
ることはなく、効率よく圧縮することができるととも
に、復元時の画像品質を維持することができる。
SUMMARY OF THE INVENTION The present invention separates input image information into first image information consisting of character or line drawing information and second image information consisting of information other than character or line drawing information. Regarding the separated second image information,
The image information is embedded in a part or all of the area separated as the first image information with reference to pixels around the area. As a result, even if the second image information is converted to a low resolution, restored to the original resolution, and combined with the first image information, no white spot is caused by the embedded image information. Further, even if a character or a line drawing exists in the image portion, the second image information can embed the image information by referring to surrounding pixels in the portion of the character or the line drawing so as to increase the compression efficiency, for example. . Therefore, the compression efficiency of the second image information does not decrease in the portion where the character or the line image exists, and the compression can be performed efficiently, and the image quality at the time of restoration can be maintained.

【0010】[0010]

【発明の実施の形態】図1は、本発明の画像処理装置の
実施の一形態を示すブロック図である。図中、1は画像
入力部、2は画像分離部、3,5〜7は画像記憶部、4
は画像処理部である。画像入力部1は、イメージスキャ
ナ等の画像入力装置あるいはネットワークから画像を入
力するインターフェース部などによって構成され、入力
された画像を画像分離部2に渡す。入力された画像は、
カラー画像や濃淡画像などであってよい。
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention. In the drawing, 1 is an image input unit, 2 is an image separation unit, 3, 5 to 7 are image storage units, 4
Denotes an image processing unit. The image input unit 1 is configured by an image input device such as an image scanner or an interface unit for inputting an image from a network, and passes the input image to the image separation unit 2. The input image is
It may be a color image or a grayscale image.

【0011】画像分離部2は、入力された画像を文字ま
たは線画の領域とそれ以外の領域に分離する。この例で
は、文字または線画の領域については、「文字または線
画の形状を示すデータ」と、「文字または線画の色情報
を示すパレットデータ」の2つのデータに分離する。ま
た文字または線画の領域以外の領域の画像とは、入力画
像から「文字または線画のデータを削除したデータ」で
ある。以下、「文字または線画の形状を示すデータ」を
画像S、「文字または線画の色情報を示すパレットデー
タ」を画像P、「文字または線画のデータを削除したデ
ータ」を画像Iと略す。分離した画像Iは画像記憶部3
へ、画像Sは画像記憶部6へ、画像Pは画像記憶部7へ
それぞれ格納する。この画像分離部2における画像の分
離方法は、例えば特開平3−126180号公報や、上
述の特開平4−105178号公報に記載されている方
式など、多くの方式が提案されており、どのような方式
を採用するかは任意である。
The image separating section 2 separates an input image into a character or line drawing area and other areas. In this example, the character or line drawing area is separated into two data, "data indicating the shape of the character or line drawing" and "palette data indicating the color information of the character or line drawing". The image in the area other than the character or line drawing area is “data obtained by deleting character or line drawing data” from the input image. Hereinafter, “data indicating the shape of a character or a line drawing” is abbreviated as an image S, “palette data indicating color information of a character or a line drawing” is abbreviated as an image P, and “data obtained by deleting character or line drawing data” is abbreviated as an image I. The separated image I is stored in the image storage unit 3
, The image S is stored in the image storage unit 6, and the image P is stored in the image storage unit 7, respectively. As a method of separating an image in the image separating section 2, many methods have been proposed, such as a method described in Japanese Patent Application Laid-Open No. 3-126180 and a method described in Japanese Patent Application Laid-Open No. 4-105178 described above. It is optional to adopt a suitable method.

【0012】画像処理部4は、画像記憶部3に格納され
ている画像I中の文字または線画として抽出されて抜け
ている部分に対し、画像記憶部6に格納されている画像
Sを用いて補正処理を施し、画像記憶部5に格納する。
The image processing section 4 uses the image S stored in the image storage section 6 for a portion extracted as a character or a line drawing in the image I stored in the image storage section 3 and missing. A correction process is performed, and the result is stored in the image storage unit 5.

【0013】画像記憶部5は、画像処理部4で補正処理
された画像Iが格納される。画像記憶部5,6,7に格
納されている補正処理された画像I、画像S、画像P
は、それぞれ出力される。出力された各画像は、例えば
解像度変換したり符号化して、データベースに格納した
り、あるいはネットワークなどによって通信したりする
ことができる。解像度変換や符号化の際には、それぞれ
の画像について、それぞれの画像の特性に応じた解像度
に変換したり、それぞれの画像の特性に応じた符号化方
式で符号化すればよい。一例としては、画像Iは解像度
を下げてJPEGベースライン方式等により符号化して
格納することができる。また、画像Sはそのままの解像
度で例えばJBIG方式などによって符号化して格納す
ることができる。画像Pは、非常に解像度を下げて、例
えばJPEGベースライン方式等によって符号化して格
納することができる。
The image storage unit 5 stores the image I corrected by the image processing unit 4. The corrected image I, the image S, and the image P stored in the image storage units 5, 6, and 7
Are output respectively. Each output image can be converted in resolution or encoded, stored in a database, or communicated via a network or the like. At the time of resolution conversion or encoding, each image may be converted into a resolution according to the characteristics of each image, or may be encoded using an encoding method according to the characteristics of each image. As an example, the image I can be encoded and stored by a JPEG baseline method or the like with a reduced resolution. The image S can be encoded and stored at the same resolution, for example, by the JBIG method. The image P can be stored with a very low resolution, for example, encoded by the JPEG baseline method or the like.

【0014】以下、画像処理部4における処理動作の例
について説明する。図2は、画像データの説明図であ
る。以下の説明では画像を2次元の座標で扱い、図2に
示すように画像の左上の座標を(i,j)=(1,
1)、右上の座標を(i,j)=(imax ,1)、左下
の座標を(i,j)=(1,jmax )、右下の座標を
(i,j)=(imax ,jmax )とする。
Hereinafter, an example of the processing operation in the image processing section 4 will be described. FIG. 2 is an explanatory diagram of image data. In the following description, the image is treated as two-dimensional coordinates, and the upper left coordinates of the image are represented by (i, j) = (1,
1), the upper right coordinate is (i, j) = (i max , 1), the lower left coordinate is (i, j) = (1, j max ), and the lower right coordinate is (i, j) = (i max , j max ).

【0015】また以下の説明において、S(i,j)は
画像Sの座標(i,j)に対応する画素値、I(i,
j)は画像Iの座標(i,j)に対応する画素値を表わ
すものとする。ここで、画像Sは1ビットのデータであ
り、各画素値S(i,j)=1は「文字または線画」で
あることを示し、S(i,j)=0は当該画素が「文字
または線画」以外であることを表わす。また、画像Iは
階調を持ったデータであり、カラーの場合には画素値I
(i,j)は例えば「赤(R)、青(B)、緑(G)」
のような複数の色に分色されたデータをそれぞれ多値デ
ータ(例えば8ビットで256階調)で表わされる。以
下の説明では一つの色成分について示すが、複数の色成
分に分色されている場合には、それぞれの色に対して同
じ演算を施せばよい。
In the following description, S (i, j) is a pixel value corresponding to the coordinates (i, j) of the image S, and I (i, j).
j) represents a pixel value corresponding to the coordinates (i, j) of the image I. Here, the image S is 1-bit data, and each pixel value S (i, j) = 1 indicates “character or line drawing”, and S (i, j) = 0 indicates that the pixel is “character”. Or line drawing ". The image I is data having a gradation, and in the case of color, the pixel value I is
(I, j) is, for example, "red (R), blue (B), green (G)"
Is represented by multi-valued data (for example, 8 bits and 256 gradations). In the following description, one color component is shown. However, when the color components are divided into a plurality of color components, the same operation may be performed on each color.

【0016】図3、図4は、画像処理部の第1の動作例
を示すフローチャートである。ここでは、画像処理部4
は、画像I中の文字または線画として抽出されて抜けて
いる部分に対し、その部分の両端部の画素値を用いて埋
め込む例を示している。より具体的には、各ライン(各
j)ごとに画像Sを参照し、画素値が0から1に変わる
点を検出して文字や線画の存在する部分の左端(開始
点)とする。同様に、画像Sの画素値が1から0に変わ
る点を検出して右端(終了点)を求める。検出された開
始点から終了点までが画像Iにおける白抜け部分であ
る。この白抜け部分を埋める処理として、この例では、
その中央より左側では左端部の画像Iの画素値により埋
め、中央より右側では右端部の画像Iの画素値により埋
める。これによって画像I中の文字または線画として抽
出されて白抜け部分を各ラインごとに埋めてゆく。
FIGS. 3 and 4 are flowcharts showing a first operation example of the image processing unit. Here, the image processing unit 4
Shows an example in which a missing portion extracted as a character or a line drawing in the image I is embedded using pixel values at both ends of the portion. More specifically, the image S is referred to for each line (each j), and a point at which the pixel value changes from 0 to 1 is detected and set as a left end (start point) of a portion where a character or a line drawing exists. Similarly, the point at which the pixel value of the image S changes from 1 to 0 is detected to determine the right end (end point). A portion from the detected start point to the detected end point is a blank portion in the image I. In this example, as a process for filling the blank portion,
The left side of the center is filled with the pixel value of the leftmost image I, and the right side of the center is filled with the pixel value of the rightmost image I. Thereby, it is extracted as a character or a line drawing in the image I, and the blank portion is filled for each line.

【0017】まずS21において、処理を行なうライン
jを0として初期化し、次にS22において、jに1を
加えて次のラインを処理ラインとする。処理開始直後で
はj=0に1を加え、j=1となって先頭ラインを示す
ようになる。またS22では処理ラインj中の処理すべ
き列iを0として初期化し、S23においてiに1を加
え、次の画素を注目画素とする。各ラインの先頭では、
i=0に1を加え、i=1となってラインの先頭画素を
示すようになる。
First, in step S21, a line j to be processed is initialized to 0, and in step S22, 1 is added to j to make the next line a processing line. Immediately after the start of the process, 1 is added to j = 0, and j = 1, indicating the first line. In S22, the column i to be processed in the processing line j is initialized to 0, and in S23, 1 is added to i, and the next pixel is set as the target pixel. At the beginning of each line,
1 is added to i = 0, and i = 1, indicating the first pixel of the line.

【0018】S23〜S29では、画像Iにおける白抜
け領域の開始点を検出する。S23でiを更新後、S2
4において画像Sを参照して開始点か否かを判定する。
すなわち、画像Sにおける注目画素に対応する位置の画
素値S(i,j)が0で、次の画素値S(i+1,j)
が1か否かを検出する。この条件を満足する場合、文字
や線画領域の開始点であるものとして、S47において
変数αに画像Iにおいて対応する座標を持つ画素値I
(i,j)を格納し、変数Aにその座標iを格納してS
30に進む。変数αは、白抜け領域の開始点における画
素値を保存し、変数Aは開始点の座標を保存する。
In S23 to S29, the starting point of the blank area in the image I is detected. After updating i in S23, S2
At 4, it is determined whether or not it is the start point by referring to the image S.
That is, the pixel value S (i, j) at the position corresponding to the target pixel in the image S is 0, and the next pixel value S (i + 1, j)
Is 1 or not. When this condition is satisfied, the pixel value I having the coordinate corresponding to the image I in the variable α is determined in S47 as the start point of the character or line drawing area.
(I, j) is stored, the coordinate i is stored in a variable A, and S
Go to 30. The variable α stores the pixel value at the start point of the blank area, and the variable A stores the coordinates of the start point.

【0019】また、S24の条件を満足しない場合、ラ
インの先頭から白抜け領域となっている場合も考えられ
るので、S25においてi=1、すなわちラインの先頭
か否かを判定して、ラインの先頭の場合にはS28にお
いて画像Sの画素値S(i,j)が1か否かを判定す
る。ラインの先頭で画像Sの画素値S(i,j)が1の
場合には、ラインの先頭から白抜け領域となっている。
この場合にはS29において埋めるべき画素値として変
数αに0を、開始点の座標として変数Aに1を格納し、
S30に進む。
If the condition of S24 is not satisfied, a blank area may be formed from the head of the line. Therefore, in S25, it is determined whether or not i = 1, that is, whether or not the head of the line. In the first case, it is determined in S28 whether the pixel value S (i, j) of the image S is 1 or not. When the pixel value S (i, j) of the image S is 1 at the head of the line, a blank area is formed from the head of the line.
In this case, 0 is stored in the variable α as the pixel value to be filled in S29, and 1 is stored in the variable A as the coordinates of the start point,
Proceed to S30.

【0020】S25において注目画素がラインの先頭で
ない場合には、S26において注目画素がラインの右端
の1画素手前まで達したか否かを判定し、右端の1画素
手前まで達していれば、次のラインの処理に移行すべく
S39へ進む。なお、右端の画素については次の画素が
存在しないのでS24における判定を行なう必要はな
く、開始点の検出の処理は行なわない。S24で開始点
が検出されず、さらにS26において注目画素がライン
の右端の2画素以上手前である場合、またはS25にお
いてラインの開始点と判定されたがS28において開始
点が文字や線画でなかった場合には、S23へ戻り、i
に1を加えて注目画素を次の画素に移す。
If it is determined in step S25 that the pixel of interest is not at the head of the line, it is determined in step S26 whether or not the pixel of interest has reached one pixel before the right end of the line. The process proceeds to S39 to shift to the processing of the line. Since the next pixel does not exist for the rightmost pixel, it is not necessary to perform the determination in S24, and the process of detecting the start point is not performed. If the start point is not detected in S24 and the pixel of interest is two or more pixels at the right end of the line in S26 or it is determined that the start point of the line is in S25, but the start point is not a character or a line drawing in S28 In this case, the process returns to S23 and i
And shifts the pixel of interest to the next pixel.

【0021】このような処理を繰り返してゆく過程で、
ラインj上の白抜け部分の開始点(ラインの先頭から始
まる場合を含む)が検出された場合には、S30へ進
む。S30〜S34では白抜け領域の終了点を検出する
処理である。S30においてiに1を加えて注目画素を
次の画素に移した後、S31において、画像Sにおける
注目画素に対応する位置の画素値S(i,j)が1で、
次の画素値S(i+1,j)が0か否かを判定する。条
件を満たす場合、S33において変数βに画像Iにおい
て対応する座標を持つ画素値I(i+1,j)を格納
し、変数Bにはその座標i+1を代入して、S35に進
む。変数βは、白抜け領域の終了点における画素値を保
存し、変数Bは終了点の座標を保存する。
In the process of repeating such processing,
If the start point of the blank portion on the line j (including the case starting from the head of the line) is detected, the process proceeds to S30. S30 to S34 are processing for detecting the end point of the blank area. After adding 1 to i in S30 and moving the target pixel to the next pixel, in S31, the pixel value S (i, j) at the position corresponding to the target pixel in the image S is 1, and
It is determined whether or not the next pixel value S (i + 1, j) is 0. If the condition is satisfied, the pixel value I (i + 1, j) having the corresponding coordinates in the image I is stored in the variable β in S33, and the coordinate i + 1 is substituted for the variable B, and the process proceeds to S35. The variable β stores the pixel value at the end point of the blank area, and the variable B stores the coordinates of the end point.

【0022】S31において条件を満たさない場合に
は、S32において注目画素が右端の手前の画素か否か
を判定する。すなわち、白抜け領域がラインの右端まで
連続している場合を判定する。白抜け領域がラインの右
端まで達している場合には、S34において変数βに画
素値として0を格納し、変数Bに終了点の座標としてi
max を格納する。S31で終了点が検出されず、注目画
素がラインの右端の2画素以上手前である場合には、S
30へ戻り、iに1を加えて次の画素を注目画素とす
る。
If the condition is not satisfied in S31, it is determined in S32 whether or not the target pixel is a pixel immediately before the right end. That is, it is determined that the blank area continues to the right end of the line. If the blank area has reached the right end of the line, 0 is stored as a pixel value in a variable β in S34, and i is set in a variable B as coordinates of an end point.
Stores max . If the end point is not detected in S31 and the target pixel is two or more pixels at the right end of the line,
Returning to step 30, 1 is added to i to make the next pixel the target pixel.

【0023】このような処理を繰り返すことによって、
S23〜S29の処理で白抜け領域の開始点が検出され
た場合のその白抜け領域の終了点を検出する。そしてS
35へ進む。
By repeating such processing,
When the start point of the blank area is detected in the processing of S23 to S29, the end point of the blank area is detected. And S
Proceed to 35.

【0024】S35〜S37は、白抜け領域に保存して
おいた画素値を埋め込む処理を行なう。まずS35にお
いて、白抜け領域の開始点における画素値(変数αの
値)と終了点における画素値(変数βの値)を比較し、
同じ値であればS37において画像Iの画素値I(A,
j)〜I(B,j)までを一律に変数αまたは変数βの
値とする。また、変数αと変数βの値が異なる場合に
は、S36において、画像Iの画素値I(A,j)〜I
(A+[(B−A)/2],j)を変数αの値とし、画
素値I(A+[(B−A)/2]+1,j)〜I(B,
j)を変数βの値とする。ここで、[]はガウス記号を
表わしている。このようにして白抜け領域はその開始点
または終了点の画素値によって埋められる。
In steps S35 to S37, processing for embedding the pixel values stored in the blank area is performed. First, in S35, the pixel value (value of variable α) at the start point of the blank area is compared with the pixel value (value of variable β) at the end point.
If the values are the same, the pixel value I (A, A,
j) to I (B, j) are uniformly set to the value of the variable α or the variable β. If the values of the variable α and the variable β are different, in S36, the pixel values I (A, j) to I
(A + [(BA) / 2], j) is the value of the variable α, and pixel values I (A + [(BA) / 2] + 1, j) to I (B,
j) is the value of the variable β. Here, [] represents a Gaussian symbol. In this way, the blank area is filled with the pixel value of the start point or the end point.

【0025】S38において注目画素がラインの右端ま
で達したか否か、すなわち1ラインの処理を全て終えた
か否かを判定し、ラインの途中である場合にはS23へ
戻り、白抜け領域の開始点の検出を続ける。また、1ラ
インの処理を終えた場合には、S39において処理ライ
ンが最終ラインであったか否かを判定し、最終ラインで
ない場合にはS22へ戻り、次のラインを処理ラインと
して処理を続ける。最終ラインまで処理を繰り返し行な
い、最終ラインの処理が終了した場合は画像処理部4に
おける処理を終了する。
In S38, it is determined whether or not the pixel of interest has reached the right end of the line, that is, whether or not the processing of one line has been completed. If it is in the middle of the line, the flow returns to S23 to start the blank area. Continue finding points. When the processing of one line is completed, it is determined whether or not the processing line is the last line in S39, and when it is not the last line, the process returns to S22, and the processing is continued with the next line as the processing line. The processing is repeated up to the last line, and when the processing of the last line ends, the processing in the image processing unit 4 ends.

【0026】上述の例では白抜け領域の開始点と終了点
における画素値が異なる場合に、中央点C=A+[(B
−A)/2]を境としてその左側を開始点における画素
値、その右側を終了点における画素値とした。しかしこ
れに限らず、境界とする点は開始点、終了点に依存する
ものであれば任意に決めることができる。もちろん、開
始点あるいは終了点の画素値のいずれかで白抜け領域す
べてを埋めてもよい。
In the above example, when the pixel values at the start point and the end point of the blank area are different, the center point C = A + [(B
-A) / 2], the pixel value at the start point is on the left side, and the pixel value at the end point is on the right side. However, the present invention is not limited to this, and the boundary can be arbitrarily determined as long as it depends on the start point and the end point. Of course, the entire white area may be filled with either the pixel value of the start point or the pixel value of the end point.

【0027】また、上述の第1の動作例ではライン毎に
処理を行なうため、必要とするメモリ量は少なくてよ
い。さらに、1画素毎ではなく連続した白抜け部分の画
素値を一度に変換するために、処理時間が短縮できる。
しかも、処理後の画像Iにおいては、文字や線画の存在
していた部分において開始点や終了点から同じ画素値が
連続するため、例えばラインごとに変化点を検出するよ
うな圧縮方法を用いて画像Iを符号化した場合、符号化
効率を向上させることができる。
In the above-described first operation example, the processing is performed for each line, so that the required memory amount may be small. Further, the processing time can be reduced because the pixel values of continuous white spots are converted at once, instead of one pixel at a time.
Moreover, in the processed image I, since the same pixel value continues from the start point and the end point in the portion where the character or the line drawing was present, for example, a compression method for detecting a change point for each line is used. When the image I is encoded, encoding efficiency can be improved.

【0028】上述の第1の動作例を、具体例を用いて説
明する。図5は、入力画像および分離された各画像の具
体例の説明図である。図5(A)は入力画像の具体例を
示しており、写真などの中間調画像上に「ABC」の3
文字が書かれている画像である。中間調部分にはその濃
度に応じたハッチングを施して示している。このような
入力画像は、画像分離部2によって図5(B)に示す画
像I、図5(C)に示す画像S、図5(D)に示す画像
Pに分離される。この状態では画像Iにおいて文字「A
BC」が書かれていた部分が図5(B)に示すように白
抜けの状態となっている。
The above-described first operation example will be described using a specific example. FIG. 5 is an explanatory diagram of a specific example of the input image and each separated image. FIG. 5A shows a specific example of an input image, in which “ABC” is displayed on a halftone image such as a photograph.
This is an image with characters written on it. The halftone portion is hatched according to the density. Such an input image is separated by the image separation unit 2 into an image I shown in FIG. 5B, an image S shown in FIG. 5C, and an image P shown in FIG. In this state, the character "A"
The portion where "BC" is written is in a blank state as shown in FIG.

【0029】図6は、分離された各画像および処理後の
画像Iにおける画素値の具体例の説明図である。図5
(B)および図5(C)における横線11上の画素値の
一部を図6(B)および図6(A)に示している。な
お、図6では説明を簡単にするため非常に低解像度の場
合を示している。図6(B)に示す画像Iにおいて、画
素値は8ビットで「0」を白、「255」を黒とし、図
5において右上がりのハッチングを施した部分を画素値
20、クロスハッチングを施した部分を画素値50、境
界を画素値90としている。画像分離部2によって分離
した結果、図5(B)に示す画像Iにおいて文字「AB
C」が削除された部分は、図6(B)に示すように画素
値が0になっている。また、文字や線画として分離され
た画像Sにおいては、図6(A)に示すように、文字
「ABC」が存在している部分についてのみ1となって
いる。なおこの例では、文字「ABC」の濃度等は画像
Pに分離されている。
FIG. 6 is an explanatory diagram of a specific example of pixel values in each of the separated images and the processed image I. FIG.
FIGS. 6B and 6A show part of the pixel values on the horizontal line 11 in FIGS. 6B and 5C. FIG. 6 shows a case of a very low resolution to simplify the description. In the image I shown in FIG. 6B, the pixel value is 8 bits, "0" is white, "255" is black, and the hatched portion in FIG. The resulting portion is referred to as a pixel value 50, and the boundary is referred to as a pixel value 90. As a result of the separation by the image separation unit 2, the character "AB" in the image I shown in FIG.
The portion where "C" is deleted has a pixel value of 0 as shown in FIG. In the image S separated as a character or a line drawing, as shown in FIG. 6A, the value is 1 only in a portion where the character "ABC" exists. In this example, the density and the like of the character “ABC” are separated into the image P.

【0030】いま、処理ラインjが図5(B)および図
5(C)において示した横線11のラインであるものと
する。図3、図4に示したフローチャートに従い、この
ラインの左端から順に注目画素を右方向にずらしながら
処理を進めてゆく。i=pのとき、図6(A)からS
(p,j)=0、S(p+1,j)=1であるのでS2
4の条件が成立し、画像Iにおける開始点が検出され
る。S27において変数αにI(p,j)=20が格納
され、変数Aにpが格納される。
Now, it is assumed that the processing line j is the horizontal line 11 shown in FIGS. 5B and 5C. According to the flowcharts shown in FIGS. 3 and 4, the process proceeds while shifting the target pixel to the right in order from the left end of this line. When i = p, S from FIG.
Since (p, j) = 0 and S (p + 1, j) = 1, S2
Condition 4 is satisfied, and the starting point in the image I is detected. In S27, I (p, j) = 20 is stored in the variable α, and p is stored in the variable A.

【0031】次にi=qにおいてS(q,j)=1、S
(q+1,j)=0となり、S31の条件が成立する。
これによって画像Iの白抜け部分の終了点を検出し、S
33において変数βにI(q+1,j)=20、変数B
にq+1が格納される。
Next, when i = q, S (q, j) = 1, S
(Q + 1, j) = 0, and the condition of S31 is satisfied.
As a result, the end point of the blank portion of the image I is detected, and S
33, I (q + 1, j) = 20 and B
Is stored in q + 1.

【0032】そして、変数Aに格納されている位置pか
ら変数Bに格納されている位置q+1までの白抜け部分
を埋める。S35において、変数αと変数βの値を比較
すると、値は等しいのでS37において白抜け部分を変
数αまたは変数βの値20で埋める。これによって図6
(C)に示すように位置pからq+1までの白抜け領域
が値20となり、白抜け領域であった部分を含め、値2
0の部分が連続することになる。
Then, a blank portion from the position p stored in the variable A to the position q + 1 stored in the variable B is filled. In S35, when the values of the variable α and the variable β are compared, since the values are equal, the blank portion is filled with the value 20 of the variable α or the variable β in S37. As a result, FIG.
As shown in (C), the blank area from the position p to q + 1 has a value of 20, and the value 2 including the blank area is included.
The portion of 0 is continuous.

【0033】同様にして位置rからs+1までの領域、
位置tからu+1までの領域、位置vからw+1までの
領域の各白抜け部分では、その開始点あるいは終了点の
画素値50によって埋められる。さらに、位置xからy
+1までの白抜け領域では、開始点の画素値αが50、
終了点の画素値βが20であり、αとβが等しくない。
そのため、S36において、位置x+1,x+2につい
ては画素値50、位置y−1,yについては画素値20
が埋められる。
Similarly, the region from the position r to s + 1,
Each blank portion of the region from the position t to u + 1 and the region from the position v to w + 1 is filled with the pixel value 50 of the start point or the end point. Further, from position x to y
In the white area up to +1, the pixel value α at the start point is 50,
The pixel value β at the end point is 20, and α and β are not equal.
Therefore, in S36, the pixel value 50 for the positions x + 1 and x + 2 and the pixel value 20 for the positions y−1 and y
Is buried.

【0034】このようにして、図6(C)に示すような
一連の画素値が得られる。これは図6(B)において存
在していた白抜け部分が埋められた画像を示している。
さらに図6(C)に示すように、白抜け部分を埋めるこ
とによってその周囲とも画素値が連続し、同じ画素値を
有する区間が長くなっている。これによって例えばMH
符号化等のようにランレングスを用いた符号化や、ライ
ンごとの予測符号化を行なう場合には、ラン長が長くな
りまた予測が的中しやすくなるため、符号化効率を向上
させることができる。
In this way, a series of pixel values as shown in FIG. 6C is obtained. This shows an image in which a blank portion existing in FIG. 6B is filled.
Further, as shown in FIG. 6 (C), by filling the blank portion, the pixel value is continuous around the blank portion, and the section having the same pixel value is longer. Thus, for example, MH
In the case of encoding using run length, such as encoding, or predictive encoding for each line, since the run length becomes longer and prediction is more likely to be achieved, it is possible to improve encoding efficiency. it can.

【0035】また、図5(B)に示すように白抜け部分
を有する画像Iを、データ量を減少させるために低解像
度の画像に解像度変換して保存しておき、出力時に元の
解像度に戻すと、白抜け部分のエッジが例えばぎざぎざ
になるなどして、もとの形状に戻らない場合がある。こ
のような状態で図5(C)および図5(D)に示す画像
Sおよび画像Pを用いて合成すると、文字の周囲に白抜
けが発生する恐れがある。しかし、本発明では白抜け部
分を埋めているので、文字との境界は画像Iには存在し
なくなり、解像度変換による影響は受けない。そのた
め、合成後の画像に白抜けが発生する恐れはなくなり、
良好な画像を出力することが可能となる。
Further, as shown in FIG. 5B, the image I having a blank portion is converted into a low-resolution image in order to reduce the amount of data and stored, and is restored to the original resolution at the time of output. When it is returned, the edge of the blank portion may be jagged, for example, and may not return to the original shape. If the image S and the image P shown in FIGS. 5C and 5D are combined in such a state, a white spot may occur around the character. However, in the present invention, since the blank portion is filled, the boundary with the character does not exist in the image I and is not affected by the resolution conversion. Therefore, there is no possibility that white spots will occur in the image after composition,
It is possible to output a good image.

【0036】さらに、この第1の動作例ではライン毎の
処理を行なうため、必要とするメモリが非常に少なくて
済み、また埋め込む画素値を周辺画素と同じ画素値とす
ることによって処理が簡単であり、高速な処理が可能で
ある。
Further, in the first operation example, since the processing for each line is performed, the memory required is very small, and the processing is simple by setting the pixel value to be embedded to be the same as the peripheral pixel. Yes, high-speed processing is possible.

【0037】図7、図8は、画像処理部の第2の動作例
を示すフローチャートである。上述の第1の動作例で
は、白抜け部分を埋める際に、白抜け部分の開始点およ
び終了点の画素値をそのまま用いて埋めた。この第2の
動作例では、白抜け部分の開始点および終了点の画素値
から、新たに白抜け部分の画素値を作り出す場合を示
す。
FIGS. 7 and 8 are flowcharts showing a second operation example of the image processing section. In the above-described first operation example, when the blank portion is filled, the pixel values of the start point and the end point of the blank portion are used as they are. In the second operation example, a case will be described in which a pixel value of a blank portion is newly created from pixel values of a start point and an end point of a blank portion.

【0038】図7、図8において、図3、図4と同様の
処理を行なう部分には同じ符号を付してあり、その部分
の説明を省略する。上述の第1の動作例と異なるのは、
S36の処理がS41の処理に変更されている点のみで
ある。S35に至るまでの処理によって、白抜け部分の
開始点の座標とその画素値および終了点の座標とその画
素値が得られている。S35において開始点の画素値α
と終了点の画素値βが等しくない場合、S41において
白抜け部分の画素値を生成する。
In FIGS. 7 and 8, parts performing the same processing as in FIGS. 3 and 4 are denoted by the same reference numerals, and description thereof will be omitted. The difference from the first operation example described above is that
The only difference is that the process of S36 is changed to the process of S41. By the processing up to S35, the coordinates of the start point of the blank area and its pixel value, and the coordinates of the end point and its pixel value are obtained. In S35, the pixel value α at the start point
If the pixel value β is not equal to the pixel value β at the end point, a pixel value of a blank portion is generated in S41.

【0039】S41では、白抜け部分の画素値すなわち
画素値I(A,j)〜I(B,j)を、それぞれ開始点
Aと終了点Bからの距離に応じて次のように決定する。 I(i,j)={(i−A)β+(B−i)α}/(B−A) …(1) 画素値I(A,j)〜I(B,j)をこの(1)式によ
って変換した後はS38へ進み、終了するまで処理を続
ける。
In S41, the pixel values of the blank portion, that is, the pixel values I (A, j) to I (B, j) are determined as follows according to the distance from the start point A and the end point B, respectively. . I (i, j) = {(i−A) β + (B−i) α} / (B−A) (1) Pixel values I (A, j) to I (B, j) are calculated as (1) After the conversion by the expression, the process proceeds to S38, and the process is continued until the process is completed.

【0040】図9は、画像処理部の第2の動作例におけ
る画像Iの画素値の具体例の説明図である。上述の第1
の動作例と同様に、図5(A)に示す入力画像が図5
(B)〜(D)に示す各画像に分離されたものとする。
図9(A),(B)は図6(A),(B)と同じもので
あり、図5(C),(B)に示す画像S,画像Iの横線
11上の一部の画素値の具体例を示している。この第2
の動作例では、特に一点鎖線で囲んだ部分が上述の第1
の動作例と異なる動作を行なう部分である。
FIG. 9 is an explanatory diagram of a specific example of the pixel values of the image I in the second operation example of the image processing section. The first mentioned above
5A, the input image shown in FIG.
It is assumed that the images are separated into the images shown in (B) to (D).
FIGS. 9 (A) and 9 (B) are the same as FIGS. 6 (A) and 6 (B), and some pixels on the horizontal line 11 of the images S and I shown in FIGS. 5 (C) and 5 (B). Specific examples of values are shown. This second
In the operation example of (1), the portion surrounded by the dashed line
This is a part that performs an operation different from the operation example of FIG.

【0041】図7、図8に示したフローチャートに沿っ
て具体例について動作を説明するが、特に上述の第1の
動作例と異なる部分のみについて説明する。位置p〜q
+1,位置r〜s+1,位置t〜u+1,位置v〜w+
1の各白抜け領域については、その開始点および終了点
の画素値が等しいので、S37において開始点あるいは
終了点の画素値で白抜け領域が埋められる。
The operation of a specific example will be described with reference to the flowcharts shown in FIGS. 7 and 8, but only the parts that are different from the first operation example will be described. Positions p to q
+1, positions r to s + 1, positions t to u + 1, positions v to w +
Since the pixel values at the start point and the end point of each white area are equal to each other, the white area is filled with the pixel values at the start point or the end point in S37.

【0042】位置xにおいて開始点が検出され、その位
置が変数Aに格納されるとともに画素値50が変数αに
格納される。また、位置yにおいて終了点が検出され、
その位置y+1が変数Bに格納されるとともに画素値2
0が変数βに格納される。S35において変数αと変数
βの値を比べると異なるので、S41において白抜け領
域を埋める処理が行なわれる。例えばI(x+1,j)
は上述の(1)式より、 (1・β+4・α)/5=(20+200)/5=44 となり、画素値44が埋め込まれる。同様にして位置y
の画素まで埋められる。このようにして画素が埋められ
た結果を図9(C)に示している。位置xから位置y+
1までの間の画素値が段階的に変化していることがわか
る。
A start point is detected at the position x, and the position is stored in the variable A, and the pixel value 50 is stored in the variable α. Also, an end point is detected at the position y,
The position y + 1 is stored in the variable B and the pixel value 2
0 is stored in the variable β. Since the value of the variable α is different from the value of the variable β in S35, a process of filling a blank area is performed in S41. For example, I (x + 1, j)
From the above equation (1), (1 · β + 4 · α) / 5 = (20 + 200) / 5 = 44, and the pixel value 44 is embedded. Similarly, position y
Up to the pixel. FIG. 9C shows the result of the pixel filling in this way. From position x to position y +
It can be seen that the pixel values up to 1 change stepwise.

【0043】このように、白抜け領域の画素を段階的に
変化させて埋め込むことによって、階調の急激な変動を
少なくし、高周波成分の発生を抑えることができる。そ
のため、例えば離散コサイン変換等の周波数成分への変
換を伴う符号化方式を用いる場合においては、符号量を
低減し、また復号された画像の品質劣化を抑えることが
できる。
As described above, by embedding the pixels in the white area in a stepwise manner, it is possible to reduce a rapid change in gradation and suppress generation of high frequency components. Therefore, for example, when using an encoding method that involves conversion to frequency components such as discrete cosine transform, it is possible to reduce the code amount and suppress the quality degradation of the decoded image.

【0044】もちろん、画像Iにおいて文字や線画とし
て分離されて白抜けとなっている部分が埋められている
ので、画像Iを低解像度に変換後、元の解像度に再変換
して文字や線画と合成しても、文字や線画のエッジ部分
に白抜けは発生せず、良好な合成画像を得ることができ
る。また、この第2の動作例もライン毎の処理を行なう
ため、必要とするメモリが非常に少なくて済むという利
点がある。
Of course, since the portion of the image I which is separated as a character or a line drawing and becomes blank is buried, the image I is converted to a low resolution and then converted back to the original resolution to be converted to a character or a line drawing. Even when the images are combined, no white spots occur at the edges of the characters and line drawings, and a good combined image can be obtained. Also, in the second operation example, since processing is performed for each line, there is an advantage that a very small memory is required.

【0045】次に画像処理部4の第3の動作例について
説明する。上述の第1および第2の動作例では、画像I
において白抜けした部分を埋める際に、同じライン上に
ある周辺2画素を参照し、白抜け部分の画素値を決定し
た。この第3の動作例では、同じライン上の周辺2画素
とともに、同じカラム上の周辺2画素を参照し、合計4
画素の画素値から新たに白抜け領域の各画素値を作り出
す例を示している。
Next, a third operation example of the image processing section 4 will be described. In the first and second operation examples described above, the image I
In filling the white spot, the pixel values of the white spot are determined with reference to two surrounding pixels on the same line. In the third operation example, two peripheral pixels on the same column are referenced together with two peripheral pixels on the same line, and a total of four pixels are referred to.
An example is shown in which each pixel value of a white area is newly created from the pixel value of a pixel.

【0046】図10ないし図12は、画像処理部の第3
の動作例を示すフローチャートである。S51〜S53
は図3におけるS21〜S23と同様の処理であり、ま
ずS21においてj=0として初期化し、次にS22に
おいて、jに1を加えて次のラインを処理ラインとす
る。またS22ではi=0として初期化し、S23にお
いてiに1を加え、次の画素を注目画素とする。
FIGS. 10 to 12 show a third example of the image processing unit.
6 is a flowchart showing an operation example of the above. S51 to S53
Is a process similar to S21 to S23 in FIG. 3. First, in S21, j is initialized to 0, and then in S22, 1 is added to j to make the next line a processing line. Also, in S22, i = 0 is initialized, and in S23, 1 is added to i, and the next pixel is set as a target pixel.

【0047】S53〜S59は図3におけるS23〜S
29と同様の処理であり、画像Iにおける白抜け領域の
開始点を検出する。S53でiを更新後、S54におい
て画像Sを参照して開始点か否かを判定する。すなわ
ち、画像Sにおける注目画素に対応する位置の画素値S
(i,j)が0で、次の画素値S(i+1,j)が1か
否かを検出する。この条件を満足する場合、文字や線画
領域の開始点であるものとして、S57において変数α
1に画像Iにおいて対応する座標を持つ画素値I(i,
j)を格納し、変数A1にその座標iを格納する。さら
に、このときの座標jを変数Cに格納し、S60に進
む。変数α1は、白抜け領域のライン方向の開始点にお
ける画素値を保存し、変数A1にはライン方向の開始点
の座標を保存する。
S53 to S59 correspond to S23 to S in FIG.
This is the same processing as in step 29, and detects the start point of the blank area in the image I. After updating i in S53, it is determined whether or not it is the start point by referring to the image S in S54. That is, the pixel value S at the position corresponding to the pixel of interest in the image S
It is detected whether (i, j) is 0 and the next pixel value S (i + 1, j) is 1. If this condition is satisfied, the variable α is determined in S57 as the start point of the character or line drawing area.
1 has a pixel value I (i, i,
j) is stored, and its coordinate i is stored in the variable A1. Further, the coordinate j at this time is stored in the variable C, and the process proceeds to S60. The variable α1 stores the pixel value at the start point in the line direction of the blank area, and the variable A1 stores the coordinates of the start point in the line direction.

【0048】また、S54の条件を満足しない場合、ラ
インの先頭から白抜け領域となっている場合も考えられ
るので、S55においてi=1、すなわちラインの先頭
か否かを判定して、ラインの先頭の場合にはS58にお
いて画像Sの画素値S(i,j)が1か否かを判定す
る。ラインの先頭で画像Sの画素値S(i,j)が1の
場合には、ラインの先頭から白抜け領域となっている。
この場合にはS59においてライン方向の開始点の画素
値として変数α1に0を、ライン方向の開始点の座標と
して変数A1に1を格納する。さらに、このときの座標
jを変数Cに格納し、S60に進む。
If the condition of S54 is not satisfied, a blank area may be formed from the head of the line. Therefore, in S55, it is determined whether or not i = 1, that is, whether or not the head of the line. In the first case, it is determined in S58 whether the pixel value S (i, j) of the image S is 1 or not. When the pixel value S (i, j) of the image S is 1 at the head of the line, a blank area is formed from the head of the line.
In this case, in S59, 0 is stored in the variable α1 as the pixel value of the start point in the line direction, and 1 is stored in the variable A1 as the coordinates of the start point in the line direction. Further, the coordinate j at this time is stored in the variable C, and the process proceeds to S60.

【0049】S55において注目画素がラインの先頭で
ない場合には、S56において注目画素がラインの右端
の1画素手前まで達したか否かを判定し、右端の1画素
手前まで達していれば、次のラインの処理に移行すべく
S82へ進む。なお、右端の画素については次の画素が
存在しないのでS54における判定を行なう必要はな
く、開始点の検出の処理は行なわない。S54で開始点
が検出されず、さらにS56において注目画素がライン
の右端の2画素以上手前である場合、またはS55にお
いてラインの開始点と判定されたがS58において開始
点が文字や線画でなかった場合には、S53へ戻り、i
に1を加えて注目画素を次の画素に移す。
If the target pixel is not at the head of the line in S55, it is determined in S56 whether the target pixel has reached one pixel before the right end of the line. The process proceeds to S82 in order to shift to the processing of the line. Since the next pixel does not exist for the rightmost pixel, it is not necessary to perform the determination in S54, and the process of detecting the start point is not performed. If the start point is not detected in S54 and the pixel of interest is two or more pixels at the right end of the line in S56, or it is determined in S55 that the start point is the line, but in S58 the start point is not a character or a line drawing. In this case, the process returns to S53, and i
And shifts the pixel of interest to the next pixel.

【0050】このような処理を繰り返してゆく過程で、
ラインj上の白抜け部分の開始点が検出できる。開始点
が検出された場合には、S60へ進む。S60〜S64
では、図3のS30〜S34と同様に、白抜け領域のラ
イン方向の終了点を検出する。S60においてiに1を
加えて注目画素を次の画素に移した後、S61におい
て、画像Sにおける注目画素に対応する位置の画素値S
(i,j)が1で、次の画素値S(i+1,j)が0か
否かを判定する。条件を満たす場合、S63において変
数β1画像Iにおいて対応する座標を持つ画素値I(i
+1,j)を格納し、変数B1はその座標i+1を代入
して、S65に進む。変数β1は、白抜け領域のライン
方向の終了点における画素値を保存し、変数B1はライ
ン方向の終了点の座標を保存する。
In the process of repeating such processing,
The start point of the blank portion on line j can be detected. When the start point is detected, the process proceeds to S60. S60-S64
Then, similarly to S30 to S34 in FIG. 3, the end point in the line direction of the blank area is detected. After adding 1 to i in S60 to shift the target pixel to the next pixel, in S61, the pixel value S at the position corresponding to the target pixel in the image S
It is determined whether (i, j) is 1 and the next pixel value S (i + 1, j) is 0. If the condition is satisfied, in step S63, the pixel value I (i
+1 and j), and substitutes the coordinate i + 1 for the variable B1, and proceeds to S65. The variable β1 stores the pixel value at the end point in the line direction of the white area, and the variable B1 stores the coordinates of the end point in the line direction.

【0051】S61において条件を満たさない場合に
は、S62において注目画素が右端の手前の画素か否か
を判定する。すなわち、白抜け領域がラインの右端まで
連続している場合を判定する。白抜け領域がラインの右
端まで達している場合には、S64において変数β1に
画素値として0を格納し、変数B1に終了点の座標とし
てimax を格納する。S61で終了点が検出されず、注
目画素がラインの右端の2画素以上手前である場合に
は、S60へ戻り、iに1を加えて次の画素を注目画素
とする。
If the condition is not satisfied in S61, it is determined in S62 whether or not the pixel of interest is a pixel immediately before the right end. That is, it is determined that the blank area continues to the right end of the line. If the blank area has reached the right end of the line, 0 is stored as a pixel value in a variable β1 and i max is stored as a coordinate of an end point in a variable B1 in S64. If the end point is not detected in S61 and the target pixel is two or more pixels at the right end of the line, the process returns to S60, adds 1 to i, and sets the next pixel as the target pixel.

【0052】このような処理を繰り返すことによって、
S53〜S59の処理で白抜け領域のライン方向の開始
点が検出された場合のその白抜け領域のライン方向の終
了点を検出することができる。そしてS65へ進む。
By repeating such processing,
When the start point of the white area in the line direction is detected in the processing of S53 to S59, the end point of the white area in the line direction can be detected. Then, the process proceeds to S65.

【0053】S65〜S80では、上述のようにして検
出した白抜け領域の開始点の次の画素から終了点の手前
の画素までについて、それぞれの画素値を算出して埋め
込む処理を行なう。S65においてiを白抜け領域のラ
イン方向の開始点である変数A1にセットし、S66に
おいて、iに1を加えて画素値を埋め込むべき画素を次
の画素に設定する。例えばS65でiを変数A1にセッ
トした直後では、白抜け領域の開始点の次の画素とな
る。そしてS67〜S79で画素値を算出して埋め込
み、S80で座標iが白抜け領域のライン方向の終了点
B1の手前の画素の座標であるか否か、すなわち白抜け
領域のライン方向のすべての画素について埋め込み処理
が終了したか否かを判定し、未処理の画素が残っている
場合にはS66へ戻って座標iに1を加え、画素値を埋
め込むべき画素として次の画素を設定して処理を繰り返
す。
In steps S65 to S80, a process of calculating and embedding the respective pixel values from the pixel next to the start point of the blank area detected as described above to the pixel immediately before the end point is performed. In S65, i is set to a variable A1, which is the starting point in the line direction of the white area, and in S66, 1 is added to i to set a pixel in which a pixel value is to be embedded as the next pixel. For example, immediately after i is set to the variable A1 in S65, the pixel is the pixel next to the start point of the blank area. Then, pixel values are calculated and embedded in S67 to S79, and in S80, it is determined whether or not the coordinate i is the coordinate of the pixel immediately before the end point B1 in the line direction of the white area, that is, all the coordinates in the line direction of the white area. It is determined whether or not the embedding process has been completed for the pixel. If there is any unprocessed pixel, the process returns to S66, where 1 is added to the coordinate i, and the next pixel is set as the pixel to be embedded with the pixel value. Repeat the process.

【0054】S67〜S79において埋め込むべき画素
値を算出して埋め込む処理を行なうが、この動作例では
同じカラム上の白抜け領域の開始点および終了点の2画
素の画素値も参照する。そのために、S67〜S71で
はカラム方向の白抜け領域の開始点を求め、S72〜S
77ではカラム方向の白抜け領域の終了点を求める。
In steps S67 to S79, a process of calculating and embedding the pixel value to be embedded is performed. In this operation example, the pixel values of the two pixels at the start point and the end point of the blank area on the same column are also referred to. For this purpose, in S67 to S71, the starting point of the blank area in the column direction is obtained, and in S72 to S71.
At 77, the end point of the blank area in the column direction is obtained.

【0055】S67〜S71では、画素値を埋め込むべ
き画素についてカラム方向の座標jを減少させてゆき、
カラム方向の開始点を検出する。S67においてjから
1を減じ、S68においてラインjの同じカラム位置に
おける画像Sの画素値S(i,j)が0で、次のライン
j+1の同じカラム位置における画像Sの画素値S
(i,j+1)が1か否かを判定する。条件を満たす場
合、S70において変数α2に画像Iにおいて対応する
座標を持つ画素値I(i,j)を格納し、変数A2には
その座標jを代入して、S72に進む。変数α2は、白
抜け領域のカラム方向の開始点における画素値を保存
し、変数A2はカラム方向の開始点の座標を保存する。
In steps S67 to S71, the coordinates j in the column direction are reduced for the pixel in which the pixel value is to be embedded.
Find the starting point in the column direction. In S67, 1 is subtracted from j. In S68, the pixel value S (i, j) of the image S at the same column position of the line j is 0, and the pixel value S of the image S at the same column position of the next line j + 1.
It is determined whether (i, j + 1) is 1 or not. If the condition is satisfied, the pixel value I (i, j) having the corresponding coordinates in the image I is stored in the variable α2 in S70, and the coordinates j are substituted for the variable A2, and the process proceeds to S72. The variable α2 stores the pixel value at the start point in the column direction of the white area, and the variable A2 stores the coordinates of the start point in the column direction.

【0056】S68において条件を満たさない場合に
は、S69においてj=1か否か、すなわち上端のライ
ンまで達したか否かを判定する。この判定で、白抜け領
域が上端のラインまで連続している場合を判定する。白
抜け領域が上端のラインまで達している場合には、S7
1において変数α2に画素値として0を格納し、変数A
2に開始点の座標として1を格納する。S68で終了点
が検出されず、また上端のラインまで達していない場合
には、S67へ戻り、jから1を減じて1ライン前の同
じカラム位置について、白抜け領域のカラム方向の開始
点か否かを判定する。このような処理を繰り返すことに
よって、カラムiにおける画素値を埋め込むべき画素に
対する白抜け領域のカラム方向の開始点を求めることが
できる。
If the condition is not satisfied in S68, it is determined in S69 whether j = 1, that is, whether the line has reached the upper end line. In this determination, it is determined that the blank area is continuous up to the top line. If the blank area has reached the top line, S7
1 stores 0 as a pixel value in a variable α2,
1 is stored in 2 as the coordinates of the start point. If the end point is not detected in S68 and the line does not reach the upper end line, the process returns to S67, and 1 is subtracted from j to determine whether the same column position one line before is the start point in the column direction of the blank area in the column direction. Determine whether or not. By repeating such processing, it is possible to obtain the starting point in the column direction of the blank area for the pixel in which the pixel value in column i is to be embedded.

【0057】同様にして、S72〜S77においてカラ
ムiにおける白抜け領域のカラム方向の終了点を求め
る。S72においてjをもとの処理ラインの手前のライ
ン(C−1)にセットし、S73においてjに1を加え
る。S74において、ラインjにおける画像Sの画素値
S(i,j)が1で、次のラインj+1の画像Sの画素
値S(i,j+1)が0か否かを判定する。条件を満た
す場合、S76において変数β2に画像Iにおいて対応
する座標を持つ画素値I(i,j+1)を格納し、変数
B2にはその座標j+1を代入して、S78に進む。変
数β2は、白抜け領域のカラム方向の終了点における画
素値を保存し、変数B2はカラム方向の終了点の座標を
保存する。
Similarly, in steps S72 to S77, the end point in the column direction of the blank area in column i is obtained. In S72, j is set to the line (C-1) before the original processing line, and 1 is added to j in S73. In S74, it is determined whether the pixel value S (i, j) of the image S on the line j is 1 and the pixel value S (i, j + 1) of the image S on the next line j + 1 is 0. If the condition is satisfied, the pixel value I (i, j + 1) having the corresponding coordinates in the image I is stored in the variable β2 in S76, and the coordinate j + 1 is substituted for the variable B2, and the process proceeds to S78. The variable β2 stores the pixel value at the end point in the column direction of the blank area, and the variable B2 stores the coordinates of the end point in the column direction.

【0058】S74において条件を満たさない場合に
は、S75において最終ラインまで達したか否かを判定
する。すなわち、白抜け領域が最終ラインまで連続して
いる場合を判定する。白抜け領域が最終ラインまで達し
ている場合には、S77において変数β2に画素値とし
て0を格納し、変数B2に終了点の座標としてjmax
格納する。S74で終了点が検出されず、最終ラインで
もない場合には、S73へ戻り、jに1を加えて次のラ
インの同じカラムの画素について判定を行なう。このよ
うな処理を繰り返すことによって、カラムiにおける白
抜け領域の終了点を検出することができる。
If the condition is not satisfied in S74, it is determined in S75 whether the last line has been reached. That is, it is determined that the blank area continues to the last line. If the blank area reaches the last line, 0 is stored as a pixel value in a variable β2 and j max is stored as a coordinate of an end point in a variable B2 in S77. If the end point is not detected in S74 and it is not the last line, the process returns to S73, and 1 is added to j to make a determination on a pixel in the same column of the next line. By repeating such processing, the end point of the blank area in column i can be detected.

【0059】次にS78においてラインjを変数Cに保
存しておいた座標に戻し、S79において白抜け領域内
の画素I(i,j)の画素値を計算して埋め込む。画素
I(i,j)の画素値は、次の(2)式によって求める
ことができる。 I(i,j)={(B1−i+B2−A2)α1+(i−A1+B2−A2 )β1+(B1−A1+B2−C)α2+(B1−A1+C−A2)β2}/3 (B1−A1+B2−A2) …(2) この式は、ライン方向の開始点A1、終了点B1、カラ
ム方向の開始点A2、終了点B2の4点からの距離に応
じた画素値を算出するものである。なお、画素値I
(i,j)を定める算出式は(2)式に限らず、白抜け
部分の周辺4画素の値と、注目画素から周辺4画素まで
の距離に依存する算出式であれば任意に定めることがで
きる。
Next, in step S78, the line j is returned to the coordinates stored in the variable C, and in step S79, the pixel value of the pixel I (i, j) in the blank area is calculated and embedded. The pixel value of the pixel I (i, j) can be obtained by the following equation (2). I (i, j) = {(B1-i + B2-A2) α1 + (i-A1 + B2-A2) β1 + (B1-A1 + B2-C) α2 + (B1-A1 + C-A2) β2} / 3 (B1-A1 + B2-A2) .. (2) This equation calculates a pixel value according to the distance from four points of the line direction start point A1, end point B1, column direction start point A2, and end point B2. Note that the pixel value I
The calculation formula for determining (i, j) is not limited to formula (2), and may be arbitrarily determined as long as the calculation formula depends on the values of the four surrounding pixels of the blank area and the distance from the target pixel to the four surrounding pixels. Can be.

【0060】S80においてi=B1−1か否か、すな
わち白抜け領域のライン方向の終了点の手前の画素まで
埋め込み処理を終了したか否かを判定し、まだ未処理の
画素が残っている場合にはS66へ戻り、同様の処理を
i=B1−1となるまで繰り返す。i=B1−1となっ
たらS81へ進む。
In S80, it is determined whether or not i = B1-1, that is, whether or not the embedding processing has been completed up to the pixel immediately before the end point in the line direction of the blank area, and unprocessed pixels still remain. In this case, the flow returns to S66, and the same processing is repeated until i = B1-1. When i = B1-1, the process proceeds to S81.

【0061】S81では処理ラインの右端まで処理を終
えたか否かを判定し、右端まで達していない場合には他
の白抜け領域を検出すべくS53に戻り、処理を繰り返
す。処理ラインの右端の画素まで処理を終えたら、S8
2において最終ラインまで処理を終えたか否かを判定
し、最終ラインに達していない場合にはS52に戻って
同様の処理を最終ラインの処理がすべて終了するまで行
なう。最終ラインの処理が終了すると、画像処理部4の
処理を終了する。
In S81, it is determined whether or not the processing has been completed up to the right end of the processing line. If the processing has not been completed up to the right end, the process returns to S53 to detect another blank area, and the processing is repeated. When the processing is completed up to the rightmost pixel of the processing line, S8
In step 2, it is determined whether or not the processing has been completed up to the last line. If the processing has not reached the last line, the process returns to step S52 and the same processing is performed until all the processing on the last line is completed. When the processing of the last line ends, the processing of the image processing unit 4 ends.

【0062】図13は、画像処理部の第3の動作例にお
いて分離された画像Iの画素値の具体例の説明図、図1
4は、同じく画像Sの具体例の説明図、図15は、同じ
く画像Iの一部の埋め込み処理前後の画素値の変化の説
明図である。この例では説明を簡単にするために6×8
画素で構成される画像を分離した場合を示しており、画
像Pは省略した。それぞれ便宜上、1〜6のカラム番号
と1〜8のライン番号を付した。なお、図13、図14
において‘*’で示している画素は、説明に関係ないの
でその画素値の記載を省略している。また、図15で
は、図13、図14に一点鎖線で囲んだライン3のカラ
ム2〜5の部分のみについて、埋め込み処理前(図15
(A))と埋め込み処理後(図15(B))の画素値を
示している。
FIG. 13 is an explanatory diagram of a specific example of the pixel values of the image I separated in the third operation example of the image processing unit.
4 is an explanatory diagram of a specific example of the image S, and FIG. 15 is an explanatory diagram of changes in pixel values of a part of the image I before and after the embedding process. In this example, 6 × 8
This shows a case where an image composed of pixels is separated, and the image P is omitted. For convenience, column numbers 1 to 6 and line numbers 1 to 8 are given. 13 and FIG.
In FIG. 7, the pixel indicated by '*' is not related to the description, and the description of the pixel value is omitted. In FIG. 15, only the portions of columns 2 to 5 of the line 3 surrounded by the dashed line in FIGS.
(A)) and the pixel value after the embedding process (FIG. 15 (B)).

【0063】以下、図10〜図12に示したフローチャ
ートに従って具体例における動作を説明してゆく。い
ま、ライン3が処理ラインであるものとする。S53で
i=1となるとS54においてS(1,3)=0,S
(2,3)=1となり、白抜け領域のライン方向の開始
点が検出される。そのため、S57においてα1=I
(1,3)=20、A1=1、C=3が格納される。
The operation of the specific example will be described below with reference to the flowcharts shown in FIGS. Now, it is assumed that line 3 is a processing line. When i = 1 in S53, S (1,3) = 0, S in S54
(2, 3) = 1, and the starting point in the line direction of the blank area is detected. Therefore, in S57, α1 = I
(1,3) = 20, A1 = 1, and C = 3 are stored.

【0064】次にS60でi=5となると、S61にお
いてS(5,3)=1,S(6,3)=0となり、白抜
け領域のライン方向の終了点が検出される。そのため、
S63においてβ1=I(6,3)=50、B1=6が
格納される。
Next, when i = 5 in S60, S (5,3) = 1 and S (6,3) = 0 in S61, and the end point of the blank area in the line direction is detected. for that reason,
In S63, β1 = I (6,3) = 50 and B1 = 6 are stored.

【0065】S65でi=1とし、S66でi=1+1
=2とした後、S67でjを1減じて2とする。S68
において、S(2,2)=0、S(2,3)=1である
からカラム方向の開始点が検出され、S70においてα
2=I(2,2)=20、A2=2が格納される。
In step S65, i = 1, and in step S66, i = 1 + 1.
= 2, j is reduced by 1 in S67 to 2; S68
In S, since S (2,2) = 0 and S (2,3) = 1, the starting point in the column direction is detected.
2 = I (2,2) = 20 and A2 = 2 are stored.

【0066】続いてS72でj=3−1=2とし、S7
3で1加算してj=3とした後、S74の条件を判定す
るが、条件を満足しない。S73でjの値の加算が繰り
返され、j=7となるとS(2,7)=1、S(2,
8)=0となってS74の条件を満足する。すなわちカ
ラム方向の終了点が検出された。S76においてβ2=
I(2,8)=20、B2=8が格納される。
Subsequently, in S72, j = 3-1 = 2, and in S7
After adding 1 to 3 and setting j = 3, the condition of S74 is determined, but the condition is not satisfied. The addition of the value of j is repeated in S73, and when j = 7, S (2,7) = 1, S (2,
8) = 0, thereby satisfying the condition of S74. That is, the end point in the column direction was detected. In S76, β2 =
I (2,8) = 20 and B2 = 8 are stored.

【0067】このようにして、白抜け領域のライン方向
の開始点A1=1、その画素値α1=20、ライン方向
の終了点B1=6、その画素値β1=50が得られ、さ
らにその白抜け領域内の画素(2,3)について、カラ
ム方向の開始点A2=2、その画素値α2=20、カラ
ム方向の終了点B2=8、その画素値β2=20が得ら
れた。S78においてj=C=3に戻した後、S79に
おいて上述の(2)式に従ってI(2,3)を計算する
と、 I(2,3)={(6−2+8−2)×20+(2−1
+8−2)×50+(6−1+8−3)×20+(6−
1+3−2)×20}/{3×(6−1+8−2)}≒
26 となる。この値をI(2,3)として図15(B)に示
すように埋め込む。
In this way, the starting point A1 = 1 in the line direction of the blank area, the pixel value α1 = 20, the ending point B1 = 6 in the line direction, the pixel value β1 = 50 are obtained, and the white point is further obtained. For the pixel (2, 3) in the missing area, the starting point A2 = 2 in the column direction, the pixel value α2 = 20, the ending point B2 = 8 in the column direction, and the pixel value β2 = 20 were obtained. After returning to j = C = 3 in S78, when I (2,3) is calculated according to the above equation (2) in S79, I (2,3) = {(6−2 + 8−2) × 20 + (2 -1
+ 8-2) × 50 + (6-1 + 8-3) × 20 + (6-
1 + 3-2) × 20} / {3 × (6-1 + 8-2)}
26. This value is embedded as I (2, 3) as shown in FIG.

【0068】S80でiがライン3の右端まで達してい
ないのでS66に戻り、iに1を加えてi=3とする。
i=3のカラムにおいて同様にして白抜け領域のカラム
方向の開始点および終了点を求めると、カラム方向の開
始点A2=1、その画素値α2=20、カラム方向の終
了点B2=5、その画素値β2=90が得られる。
(2)式より、I(3,3)=44と求められる。同様
にしてI(4,3)=53、I(5,3)=44と求め
られ、I(2,3)〜I(5,3)の値は図15(B)
に示すように変換される。
Since i has not reached the right end of the line 3 in S80, the flow returns to S66, and 1 is added to i to make i = 3.
When the start point and end point of the white area in the column direction in the column of i = 3 are similarly obtained, the start point A2 = 1 in the column direction, the pixel value α2 = 20, the end point B2 = 5 in the column direction, The pixel value β2 = 90 is obtained.
From equation (2), I (3,3) = 44 is obtained. Similarly, I (4,3) = 53 and I (5,3) = 44 are obtained, and the values of I (2,3) to I (5,3) are obtained as shown in FIG.
Is converted as shown in

【0069】上述の例ではライン3について説明した
が、他のラインについても同様の埋め込み処理が行なわ
れる。このようにして変換された画像Iは、文字や線画
として抽出されて白抜け状態であった画素が、i座標方
向だけではなくj座標方向の画素値の変化にも対応した
値によって埋められている。そのため、変換後の画像I
では文字や線画の存在していた部分が2次元的に滑らか
に変化するように埋められており、高周波成分の増加を
防いでいる。そのため、例えば2次元離散コサイン変換
等の2次元の周波数成分を符号化するような符号化方式
を採用して符号化を行なった場合でも、符号量を低減
し、復号された画像の品質の低下を防止することができ
る。
In the above example, line 3 has been described, but the same embedding process is performed for other lines. In the image I converted in this way, pixels that are extracted as characters or line drawings and are in a white spot state are filled with values corresponding to changes in pixel values not only in the i-coordinate direction but also in the j-coordinate direction. I have. Therefore, the converted image I
In the document, a portion where a character or a line drawing was present is buried so as to smoothly change two-dimensionally, thereby preventing an increase in high frequency components. Therefore, even when encoding is performed by employing an encoding method that encodes two-dimensional frequency components such as two-dimensional discrete cosine transform, the amount of code is reduced, and the quality of a decoded image is reduced. Can be prevented.

【0070】もちろん、文字や線画として分離されて白
抜けとなっている部分が埋められているので、画像Iを
低解像度に変換後、元の解像度に再変換して文字や線画
と合成しても、文字や線画のエッジ部分に白抜けは発生
せず、良好な合成画像を得ることができる。このとき、
i座標方向だけではなくj座標方向に対する最近周辺画
素の値も参照して変換後の画素値を決めているために、
文字部との合成の際にはi座標方向に対しても不具合を
生じることはない。
Of course, since the portions which are separated as characters and line drawings and become blank are filled in, the image I is converted to a low resolution, then converted back to the original resolution and synthesized with the characters and line drawings. Also, no white spots occur at the edges of characters and line drawings, and a good composite image can be obtained. At this time,
Since the pixel value after conversion is determined by referring not only to the i-coordinate direction but also to the values of the nearest neighbor pixels in the j-coordinate direction,
When combining with the character portion, no problem occurs in the i-coordinate direction.

【0071】なお、上述の説明においては、画像分離部
2において入力された画像を画像I、画像S、画像Pの
3つに分離した。例えばカラー画像であれば例えばR,
G,BやC,M,Y等の各色座標系に応じた各色軸毎に
3つの画像に分離すればよい。ここで、画像Sは2値の
画像、画像Pは濃度を有する画像として文字や線画部分
を分離したが、本発明はこれに限らない。画像Sと画像
Pを別の画像とせず、濃度を有する1つの文字・線画画
像として分離してもよい。この場合、上述の説明におい
て画像Sを参照して値を比較する際には、0かそれ以外
の値かを調べればよい。また、さらに入力画像の分離の
際に属性データを生成し、生成した属性データも保存す
るように構成してもよい。
In the above description, the image input in the image separation unit 2 is separated into three images, namely, an image I, an image S, and an image P. For example, for a color image, for example, R,
What is necessary is just to separate into three images for each color axis corresponding to each color coordinate system such as G, B, C, M, and Y. Here, the image S is a binary image, and the image P is an image having density, in which characters and line drawings are separated. However, the present invention is not limited to this. The image S and the image P may be separated as one character / line drawing image having a density without being different images. In this case, when comparing the values with reference to the image S in the above description, it is sufficient to check whether the value is 0 or any other value. Further, it may be configured such that attribute data is generated when the input image is separated, and the generated attribute data is also stored.

【0072】[0072]

【発明の効果】以上の説明から明らかなように、本発明
によれば、入力された画像情報を、文字または線画情報
からなる第1の画像情報と、文字または線画情報以外の
情報からなる第2の画像情報とに分離した際に、第2の
画像情報中の第1の画像情報に対応して削除されて白抜
けとなった箇所を、当該箇所の周囲の画素を参照して画
像情報を埋め込む。これによって、第2の画像情報を低
解像度で保持し、画像出力時に元の解像度へ変換し、第
1の画像情報と合成した場合でも、イメージ上に書かれ
た文字の輪郭部分での白抜けはなくなり、良好な合成画
像を得ることができる。
As is apparent from the above description, according to the present invention, the input image information is converted into first image information consisting of character or line drawing information and second image information consisting of information other than character or line drawing information. When the image information is separated into the second image information and the image information is deleted corresponding to the first image information in the second image information and becomes a white spot, the image information is referred to by referring to pixels surrounding the area. Embed As a result, even when the second image information is held at a low resolution, converted to the original resolution at the time of outputting the image, and combined with the first image information, the outline of the character written on the image has a white spot. And a good composite image can be obtained.

【0073】また、イメージ上に細かい文字や線画が多
く書かれている場合でも、第2の画像情報中での文字や
線画が存在していた領域の白抜けがなくなり、なるべく
平坦な画素値を有する画像となるので、符号化した際に
符号量を低減することができ、復号後の画質の低下を抑
えることができる。例えばJPEGベースライン方式等
の離散コサイン変換を用いた可変長且つ非可逆データ圧
縮方式を用いた場合でも、圧縮率の低下や、伸長後の画
像品質の劣化を防止することが可能となるという効果が
ある。
Further, even when many fine characters and line drawings are written on the image, white areas in the regions where the characters and line drawings existed in the second image information are eliminated, and pixel values as flat as possible are reduced. Since the image has an image, it is possible to reduce the amount of code at the time of encoding, and to suppress a decrease in image quality after decoding. For example, even when a variable length and irreversible data compression method using a discrete cosine transform such as a JPEG baseline method is used, it is possible to prevent a reduction in compression rate and a deterioration in image quality after decompression. There is.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の画像処理装置の実施の一形態を示す
ブロック図である。
FIG. 1 is a block diagram illustrating an embodiment of an image processing apparatus according to the present invention.

【図2】 画像データの説明図である。FIG. 2 is an explanatory diagram of image data.

【図3】 画像処理部の第1の動作例を示すフローチャ
ートである。
FIG. 3 is a flowchart illustrating a first operation example of the image processing unit.

【図4】 画像処理部の第1の動作例を示すフローチャ
ート(続き)である。
FIG. 4 is a flowchart (continued) illustrating a first operation example of the image processing unit.

【図5】 入力画像および分離された各画像の具体例の
説明図である。
FIG. 5 is an explanatory diagram of a specific example of an input image and separated images.

【図6】 分離された各画像および処理後の画像Iにお
ける画素値の具体例の説明図である。
FIG. 6 is an explanatory diagram of a specific example of pixel values in each of the separated images and the processed image I.

【図7】 画像処理部の第2の動作例を示すフローチャ
ートである。
FIG. 7 is a flowchart illustrating a second operation example of the image processing unit.

【図8】 画像処理部の第2の動作例を示すフローチャ
ート(続き)である。
FIG. 8 is a flowchart (continued) illustrating a second operation example of the image processing unit.

【図9】 画像処理部の第2の動作例における画像Iの
画素値の具体例の説明図である。
FIG. 9 is an explanatory diagram of a specific example of pixel values of an image I in a second operation example of the image processing unit.

【図10】 画像処理部の第3の動作例を示すフローチ
ャートである。
FIG. 10 is a flowchart illustrating a third operation example of the image processing unit.

【図11】 画像処理部の第3の動作例を示すフローチ
ャート(続き)である。
FIG. 11 is a flowchart (continued) illustrating a third operation example of the image processing unit.

【図12】 画像処理部の第3の動作例を示すフローチ
ャート(続き)である。
FIG. 12 is a flowchart (continued) illustrating a third operation example of the image processing unit.

【図13】 画像処理部の第3の動作例において分離さ
れた画像Iの画素値の具体例の説明図である。
FIG. 13 is an explanatory diagram of a specific example of pixel values of an image I separated in a third operation example of the image processing unit.

【図14】 画像処理部の第3の動作例において分離さ
れた画像Sの具体例の説明図である。
FIG. 14 is an explanatory diagram of a specific example of the image S separated in the third operation example of the image processing unit.

【図15】 画像処理部の第3の動作例において分離さ
れた画像Iの一部の埋め込み処理前後の画素値の変化の
説明図である。
FIG. 15 is an explanatory diagram of changes in pixel values before and after embedding processing of a part of the image I separated in the third operation example of the image processing unit.

【図16】 従来の画像処理装置における画像分離処理
の具体例の説明図である。
FIG. 16 is an explanatory diagram of a specific example of image separation processing in a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

1…画像入力部、2…画像分離部、3,5〜7…画像記
憶部、4…画像処理部。
1 image input unit, 2 image separation unit, 3, 5 to 7 image storage unit, 4 image processing unit.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像情報を文字または線画情
報からなる第1の画像情報と文字または線画情報以外の
情報からなる第2の画像情報に分離する分離手段と、該
分離手段により分離された前記第2の画像情報について
前記第1の画像情報として分離された領域の一部または
全部に対し当該領域の周囲の画素を参照して画像情報を
埋め込む画像情報埋め込み手段を有することを特徴とす
る画像処理装置。
1. Separating means for separating input image information into first image information consisting of character or line drawing information and second image information consisting of information other than character or line drawing information, and separating by the separating means. Image information embedding means for embedding image information in a part or all of the area separated as the first image information with respect to the second image information by referring to pixels around the area. Image processing device.
【請求項2】 前記画像情報埋め込み手段は、前記領域
の注目画素における縦方向または横方向における同一ラ
インに位置する前記周辺画素を参照して該周辺画素の画
素値に基づいて前記注目画素の画素値を決定することを
特徴とする請求項1に記載の画像処理装置。
2. The image information embedding unit refers to the peripheral pixels located on the same line in the vertical direction or the horizontal direction in the target pixel in the area, and determines a pixel of the target pixel based on a pixel value of the peripheral pixel. The image processing apparatus according to claim 1, wherein the value is determined.
【請求項3】 前記画像情報埋め込み手段は、前記画素
の注目画素に対する前記周辺画素の距離および前記周辺
画素の画素値に基づいて前記注目画素の画素値を決定す
ることを特徴とする請求項1に記載の画像処理装置。
3. The image information embedding unit determines a pixel value of the target pixel based on a distance between the target pixel and the peripheral pixel with respect to the target pixel and a pixel value of the peripheral pixel. An image processing apparatus according to claim 1.
JP9185315A 1997-07-10 1997-07-10 Image processor Pending JPH1132206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9185315A JPH1132206A (en) 1997-07-10 1997-07-10 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9185315A JPH1132206A (en) 1997-07-10 1997-07-10 Image processor

Publications (1)

Publication Number Publication Date
JPH1132206A true JPH1132206A (en) 1999-02-02

Family

ID=16168700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9185315A Pending JPH1132206A (en) 1997-07-10 1997-07-10 Image processor

Country Status (1)

Country Link
JP (1) JPH1132206A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100534170B1 (en) * 2001-02-13 2005-12-06 인터내셔널 비지네스 머신즈 코포레이션 Automatic Coloring of Pixels Exposed During Manipulation of Image Regions
US7454060B2 (en) 2000-06-09 2008-11-18 Minolta Co., Ltd. Image processor for character recognition
US8014620B2 (en) 2006-08-24 2011-09-06 Fuji Xerox Co., Ltd. Image processing system, image compression system, image editing system, computer readable medium, computer data signal and image processing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7454060B2 (en) 2000-06-09 2008-11-18 Minolta Co., Ltd. Image processor for character recognition
KR100534170B1 (en) * 2001-02-13 2005-12-06 인터내셔널 비지네스 머신즈 코포레이션 Automatic Coloring of Pixels Exposed During Manipulation of Image Regions
US7457462B2 (en) 2001-02-13 2008-11-25 International Business Machines Corporation System and method for modifying images having an ability to assign color intensity values to pixels exposed during image manipulation operations
US7676086B2 (en) 2001-02-13 2010-03-09 International Business Machines Corporation Automatic coloring of pixels exposed during manipulation of image regions
US8014620B2 (en) 2006-08-24 2011-09-06 Fuji Xerox Co., Ltd. Image processing system, image compression system, image editing system, computer readable medium, computer data signal and image processing apparatus

Similar Documents

Publication Publication Date Title
US6192155B1 (en) Systems and methods for reducing boundary artifacts in hybrid compression
US6549576B1 (en) Motion vector detecting method and apparatus
AU715514B2 (en) Method and apparatus for encoding and decoding an image
US20050201632A1 (en) Resolution changing method and apparatus
JP4522199B2 (en) Image encoding apparatus, image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP5939154B2 (en) Image processing apparatus and computer program
JPH10164619A (en) Encoder, decoder, recording medium, encoding method, and decoding method
US6728412B1 (en) Method and apparatus for on-the-fly image coding
US6738169B1 (en) Image processing apparatus and method
JPH1132206A (en) Image processor
JP2000184183A (en) Electronic pasting method of compressed picture data and method for processing digital picture
JP2756371B2 (en) Image processing device
JPH10155089A (en) Image processor
JP3320282B2 (en) Multi-value image processing device
JPH08140096A (en) Method and device for coding image signal
JP2000350040A (en) Image processor, image processing method and recording medium with image processing program recorded therein
US7421131B2 (en) System and method for block truncation-type compressed domain image processing
JP3448601B2 (en) Multi-tone image data compression / decompression method
JP4696738B2 (en) Image data compression method and apparatus, and pseudo gradation image restoration method
JP2007335983A (en) Image processor
JP5597028B2 (en) Image decoding apparatus, control method therefor, program, and computer-readable storage medium
JPH04236574A (en) Picture coding system
KR100495001B1 (en) Image compression encoding method and system
JP3263218B2 (en) Image information data compression and playback device
JP3054315B2 (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040810