JP2006245727A - Image processing apparatus, network scanner apparatus, and color digital copying machine - Google Patents

Image processing apparatus, network scanner apparatus, and color digital copying machine Download PDF

Info

Publication number
JP2006245727A
JP2006245727A JP2005055526A JP2005055526A JP2006245727A JP 2006245727 A JP2006245727 A JP 2006245727A JP 2005055526 A JP2005055526 A JP 2005055526A JP 2005055526 A JP2005055526 A JP 2005055526A JP 2006245727 A JP2006245727 A JP 2006245727A
Authority
JP
Japan
Prior art keywords
image
processing
data
image data
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005055526A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005055526A priority Critical patent/JP2006245727A/en
Publication of JP2006245727A publication Critical patent/JP2006245727A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color, Gradation (AREA)
  • Color Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of accurately extracting black letters from image data with a simple processing. <P>SOLUTION: The image processing apparatus includes: a black letter discrimination means for discriminating a black letter region of read RGB image data; a black letter processing means for providing an output of the black letter region in substantially Bk units when converting the RGB image data into YMCBk; an image storage means for storing the YMCBk image data after being subjected to the black letter processing means; and a black letter extract means for extracting black letters from the YMCBk data stored in the image storage means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置、ネットワークスキャナ装置およびカラーデジタル複写機に関し、より詳細には、文字の解像度を落とさずに適切な画像処理する画像処理装置、ネットワークスキャナ装置およびカラーデジタル複写機に関する。   The present invention relates to an image processing apparatus, a network scanner apparatus, and a color digital copying machine, and more particularly to an image processing apparatus, a network scanner apparatus, and a color digital copying machine that perform appropriate image processing without reducing the resolution of characters.

Jpgファイルのような非可逆圧縮を行うような圧縮は、圧縮率が非常に高く小さなファイルを作ることが可能である。しかし、この方法は、絵柄に対して有効であるが、文字画像のように2値的な画像に対しては、文字のエッジがぼけてしまい文字の判読性がよくない。   Compression that performs lossy compression such as a Jpg file has a very high compression rate, and can produce a small file. However, this method is effective for a picture, but for a binary image such as a character image, the edge of the character is blurred and the character is not easily read.

そのため特許文献1や特許文献2に記載された技術のように、1つのファイルに2枚の圧縮の高い画像データと可逆圧縮の解像度の高い2値データを持ち、2枚の画像データを解像度の高い2値データ(文字領域)で選択的に画像を切り換えることにより、文字のエッジを2値の解像で出力することにより文字の解像度は高いまま、圧縮の高い画像ファイルを作成することを可能としている。   Therefore, as in the techniques described in Patent Document 1 and Patent Document 2, one file has two high-compression image data and two binary data with high resolution for lossless compression. By selectively switching images with high binary data (character area), it is possible to create a highly compressed image file with high character resolution by outputting character edges with binary resolution. It is said.

しかし、文字データを抽出する際に、文字領域と非文字領域を分けるときに粗いドット(例えば、新聞の写真部)を文字とした場合、不連続な点が発生すると可逆圧縮の圧縮率が悪くなることが知られている。
また、通常の人物などの自然画においても、濃さで二値化すると不連続な点が多数発生して圧縮率が悪くなることが知られている。
However, when extracting character data, when separating a character area and a non-character area, if a rough dot (for example, a photographic part of a newspaper) is used as a character, the lossless compression rate is poor if discontinuous points occur. It is known to be.
Further, it is known that even in a natural image such as a normal person, when the binarization is performed with a high density, many discontinuous points are generated and the compression rate is deteriorated.

また、特許文献3に記載された技術は、入力された画像データに対して、文字やラインから構成される2値画像領域と写真や網点印刷等の中間調画像領域とを識別するための像域分離データを生成した後、入力された画像データおよびこの像域分離データを圧縮して蓄積する。次いで、蓄積された画像データと像域分離データとを読み出し伸長した後、伸長された画像データの画像属性を検出する。そして、検出された画像属性と伸長された像域分離データとに基づいて、伸長された画像データに対して施すべき画像処理を決定し、決定された画像処理を伸長された画像データに対して施すようにした。
これにより、画像メモリの容量を圧縮処理によって軽減する構成でありながら、文字/写真が混在した原稿画像が入力された場合でも、双方に対して適切な画像処理を施すことができ、再現画像における画質劣化を極力低減させることができる。
特開2002−368986号公報 特許3193086号公報 特許3134756号公報
In addition, the technique described in Patent Document 3 is for identifying a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. After generating the image area separation data, the input image data and the image area separation data are compressed and stored. Next, the stored image data and image area separation data are read and decompressed, and then the image attribute of the decompressed image data is detected. Then, based on the detected image attribute and the decompressed image area separation data, the image processing to be performed on the decompressed image data is determined, and the determined image processing is performed on the decompressed image data. I applied.
As a result, although the capacity of the image memory is reduced by the compression process, even when a manuscript image in which characters / photographs are mixed is input, appropriate image processing can be performed on both, and the reproduced image can be reproduced. Image quality deterioration can be reduced as much as possible.
JP 2002-368986 A Japanese Patent No. 393086 Japanese Patent No. 3134756

しかしながら、上述の従来技術では、伸張後に行う文字抽出は、複数の画素を参照したり、画像データと別のプレーンで文字判定を行わなければならないため、複雑な処理をしなければならない。   However, in the above-described prior art, character extraction performed after decompression must refer to a plurality of pixels or perform character determination using a plane different from that of image data, and thus requires complicated processing.

本発明は、上述の実情を考慮してなされたものであって、画像データから正確に黒文字を、簡単な処理により抽出することができる画像処理装置、ネットワークスキャナ装置およびカラーデジタル複写機を提供することを目的とする。   The present invention has been made in consideration of the above circumstances, and provides an image processing apparatus, a network scanner apparatus, and a color digital copying machine that can accurately extract black characters from image data by simple processing. For the purpose.

上記課題を解決するために、請求項1に記載の画像処理装置の発明は、読み取ったRGB画像データの黒文字領域を判定する黒文字判定手段と、RGBからYMCBkに変換する際に、黒文字領域を実質Bk単色で出力する黒文字処理手段と、前記黒文字処理手段を実行後のYMCBkを蓄積する画像蓄積手段と、前記画像蓄積手段に蓄積されたYMCBkデータより黒文字を抽出する黒文字抽出手段と、を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記黒文字抽出手段の結果で画像データを補正する補正手段を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention of the image processing device according to claim 1 is characterized in that the black character area is substantially determined when converting from RGB to YMCBk, black character determination means for determining the black character area of the read RGB image data. Black character processing means for outputting in Bk single color, image storage means for storing YMCBk after execution of the black character processing means, and black character extraction means for extracting black characters from YMCBk data stored in the image storage means It is characterized by.
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect of the present invention, the image processing apparatus further comprises correction means for correcting image data based on the result of the black character extraction means.

請求項3に記載のネットワークスキャナ装置の発明は、画像を読み取ってRGB画像データに変換する画像入力手段と、該RGB画像データを請求項1または2に記載の画像処理装置で処理した画像処理結果を、ネットワークを介して外部機器へ送信する送信手段と、を備えることを特徴とする。   An invention of the network scanner device according to claim 3 is an image input means for reading an image and converting it into RGB image data, and an image processing result obtained by processing the RGB image data with the image processing device according to claim 1 or 2. Transmitting means for transmitting to the external device via a network.

請求項4に記載のカラーデジタル複写機の発明は、画像を読み取ってRGB画像データに変換する画像入力手段と、該RGB画像データを請求項1または2に記載の画像処理装置で処理した画像処理結果を用紙に出力する画像出力手段と、を備えることを特徴とする。   According to a fourth aspect of the present invention, there is provided an image input means for reading an image and converting it into RGB image data, and image processing for processing the RGB image data by the image processing apparatus according to claim 1 or 2. Image output means for outputting the result to a sheet.

本発明によれば、画像データから直接黒文字判定結果を抽出するので、蓄積時に黒文字判定結果を別プレーンでもつ必要がなく、正確に黒文字を抽出することができる。   According to the present invention, since the black character determination result is directly extracted from the image data, it is not necessary to have the black character determination result in another plane at the time of accumulation, and the black character can be extracted accurately.

以下、図面を参照して本発明の好適な実施形態について説明する。
図1は、本実施形態に係るデジタル式のカラー画像処理装置の概略構成を示したブロック図である。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a digital color image processing apparatus according to the present embodiment.

(A)複写機として動作する場合:
スキャナは原稿から画像データを読み取り、当該画像データ(アナログ信号)をデジタルデータ(600dpi)に変換して出力する。
スキャナ補正部は、後で述べるように、スキャナで読み取った画像データ(デジタルデータ)について、画像領域を文字・線画や写真などに分類したり、原稿画像の地肌画像を除去したり、原稿画像のRGBデータをYMCBkに変換処理等の画像処理を施す。
圧縮処理部は、スキャナ補正後のYMCBk各8bit画像データを圧縮処理して、汎用バスにデータを送出する。圧縮後の画像データは、汎用バスを通って、コントローラに送られる。コントローラは、図示しない半導体メモリを持ち、送られたデータを蓄積するようになっている。
(A) When operating as a copying machine:
The scanner reads image data from a document, converts the image data (analog signal) into digital data (600 dpi), and outputs the digital data.
As will be described later, the scanner correction unit classifies the image area of the image data (digital data) read by the scanner into characters, line drawings, photographs, etc., removes the background image of the original image, Image processing such as conversion processing of RGB data into YMCBk is performed.
The compression processing unit compresses the YMCBk 8-bit image data after scanner correction, and sends the data to the general-purpose bus. The compressed image data is sent to the controller through the general-purpose bus. The controller has a semiconductor memory (not shown) and accumulates transmitted data.

なお、ここでは画像データに対し圧縮を施すとしたが、汎用バスの帯域が十分に広く、蓄積するHDDの容量が大きければ、非圧縮の状態でデータを扱っても良い。
次に、コントローラは、HDDの画像データを、汎用バスを介して伸張処理部に送出する。
伸張処理部は、圧縮処理されていた画像データを元のYMCK各8bitデータに伸張し、プリンタ補正部に送出する。プリンタ補正部では、γ補正処理、中間調処理などが行われ、プロッタの明暗特性の補正処理や階調数変換処理を行う。ここでの階調数変換処理では、誤差拡散やディザ処理を用いて各色8bitから2bitへと画像データの変換を行う。プロッタは、レーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。
Although the image data is compressed here, the data may be handled in an uncompressed state if the bandwidth of the general-purpose bus is sufficiently wide and the capacity of the HDD to be stored is large.
Next, the controller sends the image data of the HDD to the decompression processing unit via the general-purpose bus.
The decompression processing unit decompresses the compressed image data to the original YMCK 8-bit data and sends it to the printer correction unit. The printer correction unit performs γ correction processing, halftone processing, and the like, and performs correction processing of the light / dark characteristics of the plotter and gradation number conversion processing. In the tone number conversion process here, image data is converted from 8-bit to 2-bit for each color using error diffusion and dither processing. The plotter is a transfer paper printing unit that uses a laser beam writing process, draws 2-bit image data as a latent image on a photoconductor, and forms a copy image on the transfer paper after image formation / transfer processing with toner.

(B)PCに画像データを配信するネットワークスキャナとして動作する場合:
スキャナで読み取られ、スキャナ補正部で補正され、圧縮処理部で圧縮処理された画像データは、汎用バスを通って、コントローラに送られる。コントローラでは、階調処理、フォーマット処理などが行われる。階調処理では配信スキャナ動作時のモードに従った階調変換処理を行う。フォーマット処理では、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。その後、画像データは、NIC(ネットワーク・インタフェース・コントローラ)を介して外部PC端末に配信される。
(B) When operating as a network scanner that distributes image data to a PC:
The image data read by the scanner, corrected by the scanner correction unit, and compressed by the compression processing unit is sent to the controller through the general-purpose bus. The controller performs gradation processing, formatting processing, and the like. In the gradation processing, gradation conversion processing is performed according to the mode during the distribution scanner operation. In the format process, general-purpose image format conversion to JPEG or TIFF format is performed. Thereafter, the image data is distributed to an external PC terminal via a NIC (Network Interface Controller).

(C)PCからプリントアウトするネットワークプリンタとして動作する場合:
上記ネットワークスキャナと同様にして送られた画像データをNICより受信し、コントローラは、受信したデータから、画像およびプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開して、展開したデータを圧縮してデータを蓄積する。蓄積されたデータは随時大容量の記憶装置であるハードディスクドライブ(HDD)に書き込まれる。
(C) When operating as a network printer that prints out from a PC:
The image data sent in the same manner as the network scanner is received from the NIC, and the controller analyzes the image and a command for instructing the print from the received data, and develops a bitmap into a printable state as image data, The expanded data is compressed and stored. The accumulated data is written to a hard disk drive (HDD) which is a large capacity storage device as needed.

次に、コントローラは、HDDの画像データを、汎用バスを介して伸張処理部に送出する。伸張処理部は、圧縮処理されていた画像データを元の8bitデータに伸張し、プリンタ補正部に送出する。
プリンタ補正部では、YMCBkそれぞれ独立にγ補正処理、中間調処理などが行われ、プロッタの明暗特性の補正処理や階調数変換処理を行う。ここでの階調数変換処理では、誤差拡散やディザ処理を用いて8bitから2bitへと画像データの変換を行う。
プロッタは、レーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。
Next, the controller sends the image data of the HDD to the decompression processing unit via the general-purpose bus. The decompression processing unit decompresses the compressed image data to the original 8-bit data and sends it to the printer correction unit.
The printer correction unit performs γ correction processing, halftone processing, etc. independently for each YMCBk, and performs correction processing for the light / dark characteristics of the plotter and tone number conversion processing. In the tone number conversion process here, image data is converted from 8 bits to 2 bits using error diffusion or dither processing.
The plotter is a transfer paper printing unit that uses a laser beam writing process, draws 2-bit image data as a latent image on a photoconductor, and forms a copy image on the transfer paper after image formation / transfer processing with toner.

(D)デジタル画像処理装置として動作する場合:
一般に、原稿をスキャナにより読み取り、画像データをデジタルデータに変換するとともに、原稿の画像領域(像域)を、異なる特徴を有する領域に分類(像域分離)する。注目画素がそのいずれの領域に属するものか、判定された結果に従い、画像データに対して種々の画像処理を施す。これにより、出力画像の画像品質が大きく向上させられる。
(D) When operating as a digital image processing apparatus:
In general, an original is read by a scanner, image data is converted into digital data, and an image area (image area) of the original is classified into areas having different characteristics (image area separation). Various image processing is performed on the image data according to the determination result as to which region the pixel of interest belongs to. This greatly improves the image quality of the output image.

次に、図2を用いて、スキャナ補正部について詳細に説明する。
スキャナ補正部は、スキャナから入力した画像データimg(反射率リニア)に基づき、像域分離を行う。本実施形態における像域分離は、特開2003−259115号公報に記載された、黒文字エッジ領域、色エッジ文字領域、その他(写真領域)の3つの領域に分離するものとする。
像域分離することにより、画像データに像域分離信号(黒エッジ文字領域、色エッジ文字領域、写真領域)が画素毎に付与される。
スキャナγ部では、画像データを反射率リニアから濃度リニアのデータに変換する。
Next, the scanner correction unit will be described in detail with reference to FIG.
The scanner correction unit performs image area separation based on image data img (reflectance linear) input from the scanner. The image area separation in this embodiment is assumed to be divided into three areas described in JP 2003-259115 A, a black character edge area, a color edge character area, and the other (photo area).
By performing the image area separation, an image area separation signal (a black edge character area, a color edge character area, and a photograph area) is added to the image data for each pixel.
The scanner γ unit converts the image data from reflectance linear to density linear data.

フィルタ処理部では、像域分離信号によりフィルタ処理を切り換える。文字領域(黒エッジ文字と色エッジ文字)では、判読性を重視して鮮鋭化処理を行う。写真領域では、絵の中の文字を判読しやすくするために、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行う。   The filter processing unit switches the filter processing according to the image area separation signal. In the character area (black edge character and color edge character), sharpening processing is performed with emphasis on legibility. In the photographic area, in order to make the characters in the picture easy to read, a sharp density change in the image data is used as an edge amount, and smoothing processing or sharpening processing is performed according to the edge amount.

色補正処理部は、黒エッジ文字領域以外では、R、G、Bデータを一次濃度マスキング法等でC、M、Yデータに変換する。画像データの色再現を向上させるために、C、M、Yデータの共通部分をUCR(加色除去)処理してBkデータを生成し、C、M、Y、Bkデータを出力する。ここで、黒エッジ文字領域は、スキャナのRGB読み取り位置ずれで原稿の黒文字が色付いたり、プロッタのYMCKのプリンタする時の重ね位置ずれがあると判読性がよくないので、黒文字領域のみ輝度に相当する信号でBk単色データ(C、M、Yをプリントアウトしないデータ)にて出力する。
文字γ部では、文字部のコントラストを良くするために、色文字と黒文字に対してγを立たせている。
The color correction processing unit converts R, G, and B data into C, M, and Y data by a primary density masking method or the like except for the black edge character region. In order to improve the color reproduction of the image data, the common portion of the C, M, and Y data is subjected to UCR (additional color removal) processing to generate Bk data, and the C, M, Y, and Bk data are output. Here, the black edge character area is equivalent to the luminance of the black character area because the black character of the original is colored due to the RGB reading position deviation of the scanner or the overlapping position deviation when the YMCK printer of the plotter is misaligned. Output as Bk single color data (data that does not print out C, M, and Y).
In the character γ portion, in order to improve the contrast of the character portion, γ is raised with respect to the color character and the black character.

次に、図3を用いて、プリンタ補正部について詳細に説明する。
γ補正処理部は、圧縮処理部および伸張処理部を経た画像データに対して、プロッタの周波数特性に応じて、γ補正の処理をする。
エッジ量検出部は、画像データ内の急峻な濃度変化をエッジ量として検出する。
中間調処理部は、プロッタの階調特性やエッジ量に応じて、ディザ処理・誤差拡散処理などの量子化を行い、階調補正を行う。量子化処理をする際に黒文字信号(後述する黒文字抽出の処理)を行って、黒文字のコントラスト強調することも可能であり、文字の判読性が向上する。
Next, the printer correction unit will be described in detail with reference to FIG.
The γ correction processing unit performs γ correction processing on the image data that has passed through the compression processing unit and the expansion processing unit according to the frequency characteristics of the plotter.
The edge amount detection unit detects a steep density change in the image data as an edge amount.
The halftone processing unit performs gradation correction by performing quantization such as dither processing and error diffusion processing according to the gradation characteristics and edge amount of the plotter. It is also possible to enhance the contrast of black characters by performing black character signals (black character extraction processing described later) during quantization processing, thereby improving the legibility of the characters.

次に、図4を用いて、コントローラ部について詳細に説明する。
画像データを外部機器に出力する場合には、画像データimgを記憶したページメモリから画像データを取り出して圧縮伸張処理部にて、圧縮処理されていた画像データを元の各色8bitデータに伸張し、出力フォーマット変換部に出力する。出力フォーット変換部では、C、M、Y、BkデータをRGBデータに色変換を行うと同時に、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。データi/f部では、出力フォーマット変換部で色変換されたデータをNICに出力する。
Next, the controller unit will be described in detail with reference to FIG.
When outputting image data to an external device, the image data is extracted from the page memory storing the image data img, and the compression / decompression processing unit decompresses the compressed image data into 8-bit data of each original color. Output to the output format converter. The output fort conversion unit performs color conversion of C, M, Y, and Bk data to RGB data, and simultaneously performs general-purpose image format conversion to JPEG or TIFF format. The data i / f unit outputs the data color-converted by the output format conversion unit to the NIC.

また、外部機器から受け取った画像データをプロッタに出力する場合には、外部から指示するコマンドを図示せぬCPUが解析し、ページメモリに書き込む。データi/f部は、画像データを入力フォーマット変換部でビットマップデータに展開して、圧縮伸張処理部で圧縮を行い、ページメモリに書き込む。
入力フォーマットデータで展開する画像は、jpgやtiffの自然画像である。
When image data received from an external device is output to a plotter, a command (not shown) is analyzed by a CPU (not shown) and written to the page memory. The data i / f unit develops the image data into bitmap data by the input format conversion unit, compresses it by the compression / decompression processing unit, and writes it to the page memory.
The image developed with the input format data is a natural image of jpg or tiff.

次に、図5を用いて、出力フォーマット変換部について詳細に説明する。
色変換部では、YMCBkデータをRGBデータにデータ変換を行う。RGBに変換したデータを解像度変換部にて300dpi、200dpiなどの画素密度変換を行う。本実施形態では300dpiで変換した場合の画素密度で説明する。
解像度変換した画像は、各フォーマット生成部(TIFフォーマット生成部、Jpgフォーマット生成部、圧縮フォーマット生成部)にて各フォーマットに変換する。データi/f部では、NICに出力すべきフォーマットを出力する。
Next, the output format conversion unit will be described in detail with reference to FIG.
The color conversion unit converts the YMCBk data into RGB data. Data converted to RGB is subjected to pixel density conversion such as 300 dpi and 200 dpi in the resolution conversion unit. In the present embodiment, the pixel density when converted at 300 dpi will be described.
The resolution-converted image is converted into each format by each format generation unit (TIF format generation unit, Jpg format generation unit, compression format generation unit). The data i / f part outputs a format to be output to the NIC.

圧縮フォーマット生成部について説明する。
二値化部で、画像濃度の明暗を基本に文字領域と非文字領域の二値データを出力する。
二値画像生成部では、可逆変換であるMMR圧縮を行う。
解像度変換部1、2では、画像データを解像度変換して解像を低くする(150dpi)。ここで、文字画像と背景画像では、文字画像は背景画像ほど解像度が必要がないので、75dpi程度でも構わない。
さらに、背景画像生成部では、圧縮率の向上のために、二値化部で文字領域となった領域の画像データを、白に相当する一定の値の画像データとして、書き換え非可逆圧縮のjpg圧縮を行う。
さらに、文字画像生成部は、圧縮率の向上のために、背景領域となった領域の画像データを一定の値の画像データにして、書き換え非可逆圧縮のjpg圧縮を行う。
The compression format generation unit will be described.
A binarization unit outputs binary data of a character area and a non-character area based on the lightness and darkness of the image density.
The binary image generation unit performs MMR compression that is reversible conversion.
In the resolution conversion units 1 and 2, resolution is reduced by converting the resolution of the image data (150 dpi). Here, the character image and the background image need not have the same resolution as the background image, and may be about 75 dpi.
Further, in the background image generation unit, in order to improve the compression ratio, the image data of the region that has become the character region in the binarization unit is converted into image data having a constant value corresponding to white, and irreversible compression jpg Perform compression.
Further, the character image generation unit performs rewrite irreversible compression jpg compression using the image data of the region that has become the background region as a constant value of image data in order to improve the compression rate.

画像ファイル合成部では、二値画像生成部の出力(MMR)、背景画像生成部の出力(jpg)、文字画像生成部の出力(jpg)の3つの画像を1つのファイルにする(図6参照)。このときのファイル形式は、汎用フォーマット(例えば、PDFファイルなど)を用いても構わない。   In the image file composition unit, three images, that is, the output from the binary image generation unit (MMR), the output from the background image generation unit (jpg), and the output from the character image generation unit (jpg) are made into one file (see FIG. 6). ). The file format at this time may be a general-purpose format (for example, a PDF file).

次に、図7を用いて、複数の特徴量を抽出することにより二値化を行う二値化部の処理について詳細に説明する。以下の1から12の処理は、逐次処理で、1つの処理が終わると隣の画素の処理を行い、1ラインが終わると次のラインの先頭から処理を行い画像の終わりまで処理を続けることになる。   Next, the processing of the binarization unit that performs binarization by extracting a plurality of feature amounts will be described in detail with reference to FIG. The following processes 1 to 12 are sequential processes. When one process is completed, the adjacent pixel is processed. When one line is completed, the process is performed from the beginning of the next line and the process is continued until the end of the image. Become.

1.黒文字抽出処理:
YMCBk画像から黒文字エッジ信号を抽出する。スキャナ補正部の色補正処理部で黒文字エッジ領域ではBk単色で出力するので、可逆圧縮を使用すれば、Y=M=C=0(Y,M,Cの色成分が存在しない)でかつ、Bkのデータが一定の値以上(一定値より濃い)であれば、黒文字エッジである。
しかしながら、非可逆圧縮を行った場合、黒文字エッジがY=M=C=0になるとは限らないので、YMCの値がすべて一定値以下(一定値より薄い)であれば、黒文字エッジをあるとみなす。このようにすることで、コピー時の黒文字エッジ処理と同じ結果を得ることができる。
1. Black character extraction processing:
A black character edge signal is extracted from the YMCBk image. Since the color correction processing unit of the scanner correction unit outputs the Bk single color in the black character edge region, if reversible compression is used, Y = M = C = 0 (there are no Y, M, and C color components), and If the Bk data is greater than or equal to a certain value (darker than the certain value), it is a black character edge.
However, when irreversible compression is performed, the black character edge is not always Y = M = C = 0. Therefore, if all the values of YMC are equal to or smaller than a certain value (thinner than the certain value), the black character edge is present. I reckon. In this way, the same result as the black character edge processing at the time of copying can be obtained.

2.解像度変換:
画像に施した解像度と同じ解像度で解像度変換(300dpi)を施し、画像データと画素密度を同一にする。この出力を黒文字とする。
2. Resolution conversion:
Resolution conversion (300 dpi) is performed at the same resolution as that applied to the image so that the image data and the pixel density are the same. This output is black.

3.3×3フィルタ:
文字の特徴を抽出するために、RGBそれぞれについて、画像を強調する3×3フィルタを施す。
3.3 × 3 filter:
In order to extract character features, a 3 × 3 filter for enhancing the image is applied to each of RGB.

4.2値化:
ここでは、RGB差の小さいデータ(bk)は、thabkより値が大きい時には黒文字として、RGB差の小さくないデータは、YMCBGRの6色相に色を分け、色相ごとに閾値(thay、tham、thac、thab、thag、thar)を分けて、2値化処理を行い、色の濃いものをアクティブ画素(文字)として2値化処理を行う。
ここで、色相ごとに閾値を分けるのは、YMCBkの入力画像(原稿)の最大濃度が異なるので、色相ごとに変えている。さらに、bkの閾値も同様の理由で閾値を分けている。また、色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まるものである。
4.2 Binarization:
Here, the data (bk) having a small RGB difference is a black character when the value is larger than thabk, and the data having a small RGB difference is divided into six hues of YMCBGR, and threshold values (thay, tham, thac, (bin, thag, tha) are divided and binarization processing is performed, and binarization processing is performed with a dark color as an active pixel (character).
Here, the threshold value is divided for each hue because the maximum density of the input image (original) of YMCBk is different. Further, the threshold value of bk is also divided for the same reason. Further, the method of dividing the hue may be simply performed based on the RGB size relationship, or may be determined by the ratio of the RGB colors. This is determined by the characteristics of the input image.

5.文字検出1:
2値化部の出力がアクティブ画素に対してパターンマッチングを行う。例えば、図8に示すようなパターンで縦横斜めの連続であると黒パターンありとする。
5). Character detection 1:
The output of the binarization unit performs pattern matching on the active pixel. For example, if the pattern is as shown in FIG.

6.文字検出2:
文字検出1の結果は、パターマッチングしたことにより画像データより若干小さくなるので、黒パターンありに対して3×3のOR処理を行い、データを太らせ、この結果を文字領域とする。
6). Character detection 2:
The result of character detection 1 is slightly smaller than the image data due to the pattern matching. Therefore, 3 × 3 OR processing is performed on the presence of the black pattern to thicken the data, and this result is used as a character region.

7.N値化:
N値化は、後述の網点検出とグレー検出の特徴をN値の値にして共通に使用する。
RGB差の小さいデータ(bk)は、thabkより値が大きい時は黒文字とし、RGB差の大きいデータは、YMCBGRの6色相に色を分けて、色相ごとに閾値(thay、tham、thac、thab、thag、thar)を分けて2値化処理を行い、色の濃いものをアクティブ画素(文字)として2値化処理を行う。ただし、出力結果は、色相別に保持し、以下の様に定義する(かっこ内の数値はbit表示)。
7). N-value:
In the N-value conversion, the features of halftone dot detection and gray detection, which will be described later, are used in common as N-value values.
Data with a small RGB difference (bk) is a black character when the value is larger than thabk, and data with a large RGB difference is divided into six colors of YMCBGR, and threshold values (thay, tham, thac, thab, The binarization process is performed separately for the “thag” and the “thar”, and the binarization process is performed with a dark color as an active pixel (character). However, the output result is held for each hue and defined as follows (the values in parentheses are displayed in bits).

Dtah=0(000):該当なし、
Dtah=1(001):黄色、
Dtah=2(010):マゼンタ、
Dtah=3(011):赤、
Dtah=4(100):シアン、
Dtah=5(101):緑、
Dtah=6(110):青、
Dtah=7(111):黒。
Dtah = 0 (000): Not applicable,
Dtah = 1 (001): yellow,
Dtah = 2 (010): Magenta,
Dtah = 3 (011): red,
Dtah = 4 (100): cyan,
Dtah = 5 (101): green,
Dtah = 6 (110): blue,
Dtah = 7 (111): Black.

さらに、白のレベルも同様に2値化を行う。RGB差の小さいデータ(bk)は、thbbkより値が小さい時は白画素とし、RGB差の大きいデータはYMCBGRの6色相に色を分け、色相ごとに閾値(thby、thbm、thbc、thbb、thbg、thbr)を分けて、2値化処理を行い、色の薄いものをアクティブ画素(白画素)として2値化処理を行う。   Further, the white level is also binarized in the same manner. Data with a small RGB difference (bk) is a white pixel when the value is smaller than thbbk, and data with a large RGB difference is divided into six hues of YMCBGR, and threshold values (thby, thbm, thbc, thbb, thbg) for each hue. , Thbr) is divided and binarization processing is performed, and binarization processing is performed with light-colored pixels as active pixels (white pixels).

8.網点検出1:
網点検出1、2では、スキャナ補正部で細かな網点は平滑化処理によって網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化を行うことができずに、網点のドット形状が残っており、この粗い網点を検出することを目的とする。
ここでは、網点のパターンマッチングを行う。ここでは、Dtah≠0の時に黒画素とし、N値化の白画素を白画素とする。
8). Halftone detection 1:
In halftone dot detection 1 and 2, fine halftone dots in the scanner correction unit have been eliminated by smoothing processing, but rough halftone dots such as newspaper photographs cannot be smoothed sufficiently. In addition, the dot shape of the halftone dot remains, and the object is to detect this rough halftone dot.
Here, halftone dot pattern matching is performed. Here, a black pixel is set when Dtah ≠ 0, and an N-valued white pixel is set as a white pixel.

以下、図9のフローチャートを用いて、網点検出1の処理手順を説明する。図9において、MSは1画素前の処理結果で、iは現在処理対象となっている主走査方向の画素位置、SS[i]は1ライン前の処理結果を表すものとする。   Hereinafter, the processing procedure of halftone detection 1 will be described with reference to the flowchart of FIG. In FIG. 9, MS is the processing result of the previous pixel, i is the pixel position in the main scanning direction that is currently processed, and SS [i] is the processing result of the previous line.

MSとSS[i]を比較することにより、1ライン前の処理結果と1画素前の処理結果の大きい方の値をもってくる(ステップS1,S2)。このMSは、1画素前の処理結果である網点のカウント値(後述する)である。
白画素が白パターン(図10参照)と一致していれば(ステップS3のYES)、MSを0(ステップS4)、非網点画素とし(ステップS8)、さらに、SS[i]=MS(=0)として、SS[i]を次のラインで使用する(ステップS10)。
By comparing MS and SS [i], the larger one of the processing result of the previous line and the processing result of the previous pixel is obtained (steps S1 and S2). This MS is a halftone dot count value (to be described later) as a result of processing one pixel before.
If the white pixel matches the white pattern (see FIG. 10) (YES in step S3), MS is set to 0 (step S4), a non-halftone pixel (step S8), and SS [i] = MS ( = 0), SS [i] is used in the next line (step S10).

一方、白パターンと一致していなく(ステップS3のNO)、網点パターンと一致すれば(ステップS5のYES)、MSに1を加算する(ステップS6)。ここで、網点パターンとは図11に示すパターンであり、●が黒画素を、○が非黒画素を表している。また、網点検出精度向上のために、非黒画素を判断するのに、白画素を含む個数の条件を増やして精度を上げてもよい。   On the other hand, if it does not match the white pattern (NO in step S3) and matches the halftone dot pattern (YES in step S5), 1 is added to the MS (step S6). Here, the halftone dot pattern is the pattern shown in FIG. 11, where ● represents a black pixel and ○ represents a non-black pixel. Further, in order to improve halftone dot detection accuracy, in order to determine non-black pixels, the number of conditions including white pixels may be increased to increase accuracy.

次に、MS>5ならば(ステップS7のYES)、網点画素とし(ステップS9)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS10)。
他方、MS>5でなければ(ステップS7のNO)、非網点画素とし(ステップS8)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS10)。
以上により、網点画素を判定することができる。
Next, if MS> 5 (YES in step S7), a halftone dot pixel is set (step S9), SS [i] = MS is used, and SS [i] is used in the next line (step S10).
On the other hand, if MS> 5 is not satisfied (NO in step S7), a non-halftone pixel is set (step S8), SS [i] = MS is used, and SS [i] is used in the next line (step S10).
As described above, a halftone pixel can be determined.

9.網点検出2:
以下、図12のフローチャートを用いて、網点検出2の処理手順を説明する。ここで、網点検出1は順方向で処理していたが、網点検出2では逆方向で処理する。図12において、MSは、現在処理している画素が網点であるかないかの状態を表すものとする。
9. Halftone detection 2:
Hereinafter, the processing procedure of the halftone detection 2 will be described with reference to the flowchart of FIG. Here, halftone dot detection 1 is processed in the forward direction, but halftone dot detection 2 is processed in the reverse direction. In FIG. 12, MS represents the state of whether or not the pixel currently being processed is a halftone dot.

白画素が白パターン(図10参照)と一致していれば(ステップS11のYES)、MS=0(ステップS12)、非網点画素とする(ステップS13)。   If the white pixel matches the white pattern (see FIG. 10) (YES in step S11), MS = 0 (step S12) and a non-halftone pixel is set (step S13).

一方、白パターンと一致しなければ(ステップS11のNO)、上記網点検出1で網点画素となった画素であれば(ステップS14のYES)、MS=1とする(ステップS15)。   On the other hand, if it does not coincide with the white pattern (NO in step S11), if it is a pixel that has become a halftone pixel in the halftone detection 1 (YES in step S14), MS = 1 is set (step S15).

MS=1ならば(ステップS16のYES)、網点画素として出力する(ステップS18)。
他方、MS=1でなければ(ステップS16のNO)、網点検出1の結果(網点/非網点)をそのまま出力する(ステップS17)。
このようにして出力された結果で網点となっておれば、網点領域とする。
If MS = 1 (YES in step S16), it is output as a halftone pixel (step S18).
On the other hand, unless MS = 1 (NO in step S16), the result of halftone dot detection 1 (halftone dot / non-halftone dot) is output as it is (step S17).
If the output result is a halftone dot, the halftone dot region is set.

上記のように網点検出1および網点検出2を行うことにより、白パターンから白パターンの間に一定以上の網点パターンがあれば網点として検出する。これは、文字は一般的に白地上にあり、白地上の文字は、網点パターンが文字のエッジ近傍にしかないので誤検出することはほとんどない。
Y成分を持つ色データ(黄、緑、赤、黒)を黒画素として同様の処理(網点検出1、2)を行う。さらに、M成分を持つ色データ(赤、マゼンタ、青、黒)、C成分を持つ色データ(シアン、青、緑、黒)もY成分を同様に行う。Y、M、C成分に展開したのは、印刷のインクの成分がYMCなので、インクのドット再現を正確に検出するためである。
By performing halftone dot detection 1 and halftone dot detection 2 as described above, if there is a certain halftone dot pattern between the white pattern and the white pattern, it is detected as a halftone dot. This is because characters are generally on the white ground, and characters on the white ground are rarely erroneously detected because the halftone dot pattern is only near the edge of the character.
The same processing (halftone detection 1, 2) is performed using color data having a Y component (yellow, green, red, black) as a black pixel. Further, color data having M component (red, magenta, blue, black) and color data having C component (cyan, blue, green, black) are similarly subjected to Y component. The reason for developing the Y, M, and C components is to accurately detect ink dot reproduction because the printing ink component is YMC.

10.グレー検出1:
グレー検出1、2では、文字領域は濃く、文字周辺の領域は薄いことを利用して、文字領域の濃さより薄く、文字周辺の領域より濃いところを中濃度としてグレー判定を行う。
図13のフローチャートを用いて、グレー検出1の処理手順を説明する。図13において、MSは1画素前の処理結果で、iは現在処理対象となっている主走査方向の画素位置、SS[i]は1ライン前の処理結果を表すものとする。
10. Gray detection 1:
In the gray detections 1 and 2, the fact that the character area is dark and the area around the character is light is used, and gray determination is performed with the density that is lighter than the character area and darker than the area around the character as medium density.
The processing procedure of gray detection 1 will be described using the flowchart of FIG. In FIG. 13, MS is the processing result of the previous pixel, i is the pixel position in the main scanning direction currently being processed, and SS [i] is the processing result of the previous line.

MSとSS[i]を比較することにより、1ライン前の処理結果と1画素前の処理結果の多い方の値とをもってくる(ステップS21、S22)。ここで、MSは、グレー検出(後述)した後の白画素の数とする。   By comparing MS and SS [i], the processing result one line before and the value having the larger processing result one pixel before are obtained (steps S21 and S22). Here, MS is the number of white pixels after gray detection (described later).

中濃度がグレーパターン(図14参照)と一致していれば(ステップS23のYES)、MS=5(ステップS24)、グレー画素とし(ステップS30)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS31)。ここで、中濃度とは、N値化したときに、Dtah=0 かつ 非白画素のときの画素の濃度である。   If the medium density matches the gray pattern (see FIG. 14) (YES in step S23), MS = 5 (step S24), a gray pixel (step S30), SS [i] = MS, SS [i ] Is used in the next line (step S31). Here, the medium density is the density of a pixel when Dtah = 0 and a non-white pixel when N-valued.

一方、グレーパターンと一致していなく(ステップS23のNO)、白画素であれば(ステップS25のYES)、ステップS26へ進む。ここで、白画素とは、N値化したときの白画素のことである。   On the other hand, if it does not coincide with the gray pattern (NO in step S23) and is a white pixel (YES in step S25), the process proceeds to step S26. Here, the white pixel is a white pixel when N-valued.

MS>0であれば(ステップS26のYES)、MSから1を減算して(ステップS27)、ステップS29へ進む。
また、MS>0でなければ(ステップS26のNO)、非グレー画素とし(ステップS28)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS31)。
If MS> 0 (YES in step S26), 1 is subtracted from MS (step S27), and the process proceeds to step S29.
If MS> 0 is not satisfied (NO in step S26), non-gray pixels are set (step S28), SS [i] = MS is used, and SS [i] is used in the next line (step S31).

他方、白画素でなく(ステップS25のNO)、MS>0であれば(ステップS29のYES)、グレー画素とし(ステップS30)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS31)。
また、MS>0でなければ(ステップS29のNO)、非グレー画素とし(ステップS28)、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS31)。
On the other hand, if it is not a white pixel (NO in step S25) and MS> 0 (YES in step S29), the pixel is a gray pixel (step S30), SS [i] = MS, and SS [i] is the next line. (Step S31).
If MS> 0 is not satisfied (NO in step S29), non-gray pixels are set (step S28), SS [i] = MS is used, and SS [i] is used in the next line (step S31).

11.グレー検出2:
以下、図15のフローチャートを用いて、グレー検出2の処理手順を説明する。ここで、グレー検出1では順方向で処理していたが、グレー検出2では逆方向で処理する。また、図15において、MSは1画素前の処理結果で、iは現在処理対象となっている主走査方向の画素位置、SS[i]は1ライン前の処理結果を表すものとする。
11. Gray detection 2:
Hereinafter, the processing procedure of the gray detection 2 will be described with reference to the flowchart of FIG. Here, gray detection 1 is processed in the forward direction, but gray detection 2 is processed in the reverse direction. In FIG. 15, MS represents the processing result of the previous pixel, i represents the pixel position in the main scanning direction currently being processed, and SS [i] represents the processing result of the previous line.

グレー検出1の結果がグレー画素であれば(ステップS41のYES)、MS=5(ステップS42)、グレー画素、SS[i]=MSとし、SS[i]を次のラインで使用する(ステップS48)。   If the result of gray detection 1 is a gray pixel (YES in step S41), MS = 5 (step S42), gray pixel, SS [i] = MS, and SS [i] is used in the next line (step S48).

一方、グレー検出1の結果がグレー画素でなく(ステップS41のNO)、白画素であれば(ステップS43のYES)、MS>0であれば(ステップS44のYES)、MSから1つ減算して(ステップS45)、ステップS47へ進む。ここで、白画素とは、N値化したときの白画素のことである。
また、MS>0でなければ(ステップS44のNO)、グレー検出1の結果をそのまま出力して、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS46)。
On the other hand, if the result of gray detection 1 is not a gray pixel (NO in step S41) and is a white pixel (YES in step S43), if MS> 0 (YES in step S44), one is subtracted from the MS. (Step S45), the process proceeds to step S47. Here, the white pixel is a white pixel when N-valued.
If MS> 0 is not satisfied (NO in step S44), the result of gray detection 1 is output as it is, and SS [i] = MS is used as SS [i] in the next line (step S46).

MS>0であれば(ステップS47のYES)、グレー画素、SS[i]=MSとし、SS[i]を次のラインで使用する(ステップS48)。
また、MS>0でなければ(ステップS47のNO)、グレー検出1の結果をそのまま出力して、SS[i]=MSとして、SS[i]を次のラインで使用する(ステップS46)。
If MS> 0 (YES in step S47), the gray pixel, SS [i] = MS is set, and SS [i] is used in the next line (step S48).
If MS> 0 is not satisfied (NO in step S47), the result of gray detection 1 is output as it is, and SS [i] = MS is used as SS [i] in the next line (step S46).

このように、文字部は一般に濃いデータと薄い(白)データで構成され、文字部にはない写真の特徴である中濃度の塊をグレーとして検出している。この周辺画素を白画素の数が一定値を超えるまでグレー画素としている。これにより、グレー画素となった結果をグレー領域とする。   As described above, the character portion is generally composed of dark data and light (white) data, and a medium-density block, which is a feature of a photograph that does not exist in the character portion, is detected as gray. These peripheral pixels are gray pixels until the number of white pixels exceeds a certain value. As a result, the result of gray pixels is defined as a gray region.

12.判定:
上述の結果から次のように判断して、YMCBkの画像データの二値化データを得る。
(1)解像度変換の出力結果が黒文字であれば、二値化データの結果を文字とする。
(2)文字検出2の出力が文字領域であり、網点検出2の出力が網点領域でなく、グレー検出2の出力がグレー領域でなければ、二値化データの結果を文字とする。
12 Judgment:
Judgment is made as follows from the above result, and binarized data of YMCBk image data is obtained.
(1) If the output result of resolution conversion is a black character, the binarized data result is a character.
(2) If the output of the character detection 2 is a character region, the output of the halftone detection 2 is not a halftone region, and the output of the gray detection 2 is not a gray region, the result of the binarized data is taken as a character.

文字領域を網点領域とグレー領域と論理演算を行うのは、文字判定結果が本来、解像度の必要ない写真領域を文字領域としていたため写真領域にて補正をしている。
特に、写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率を向上し、画像も文字と非文字の混在が少なくなり画質向上も望める。
これに対して、黒文字は、コピー時に黒文字エッジとしている信号で、判定精度が高いので、そのまま文字として使用しても問題はない。
The reason why the character area is subjected to the logical operation with the halftone dot area and the gray area is that the character determination result is a photographic area that originally does not require resolution, and is corrected in the photographic area.
In particular, the photographic area contains a large number of isolated points. By performing this correction, the compression rate of the character image is improved, and the image is less mixed with characters and non-characters.
On the other hand, a black character is a signal having a black character edge at the time of copying, and has high determination accuracy. Therefore, there is no problem even if it is used as it is.

次に、図16を用いて、入力フォーマット変換部について詳細に説明する。
入力画像データがtifフォーマットであれば、TIFフォーマット展開部にてビットマップデータに展開する。また、Jpgフォーマットであれば、Jpgフォーマット展開部にてビットマップデータに展開する。さらに、圧縮フォーマットであれば、圧縮フォーマット展開部にて展開する。
出力選択部は、これらの3つのフォーマットの内ひとつを選択して出力と同時にRGBデータをYMCBkにデータを変換して出力する。
Next, the input format conversion unit will be described in detail with reference to FIG.
If the input image data is in the tif format, the TIF format development unit develops it into bitmap data. In the case of the Jpg format, the Jpg format development unit develops it into bitmap data. Furthermore, if it is a compression format, it expand | deploys in a compression format expansion | deployment part.
The output selection unit selects one of these three formats, and simultaneously converts the RGB data into YMCBk and outputs it.

さらに、圧縮フォーマット展開部について説明する。
画像ファイル展開部は、図5の圧縮フォーマット生成部にて生成したファイルの中の3つファイルを、後段の二値画像展開部、背景画像展開部、文字画像展開部にそれぞれ対応した画像データを出力する。
Further, the compression format developing unit will be described.
The image file expansion unit converts three files among the files generated by the compression format generation unit in FIG. 5 into image data corresponding to the binary image expansion unit, the background image expansion unit, and the character image expansion unit, respectively. Output.

二値画像展開部では、MMRを伸張してビットマップに展開し、背景画像展開部では背景画像のJpgをビットマップに、文字画像展開部では文字画像のJpgをビットマップに、それぞれ展開し、二値画像展開部の出力が文字領域であれば、文字画像展開部の出力である画像データを出力し、二値画像展開部の出力が非文字領域であれば、背景画像展開部の出力である画像データを出力する。
そして、3つに展開したビットマップデータは、画像ファイル合成部にて1枚のビットマップデータに合成することにより、1枚の画像を生成する(図6参照)。ここで、文字と非文字の解像度は2値画像の解像度と同じである。
The binary image expansion unit expands the MMR and expands it into a bitmap, the background image expansion unit expands the background image Jpg into a bitmap, and the character image expansion unit expands the character image Jpg into a bitmap. If the output of the binary image development unit is a character region, the image data that is the output of the character image development unit is output. If the output of the binary image development unit is a non-character region, the output of the background image development unit Output some image data.
Then, the bitmap data expanded into three is synthesized into one piece of bitmap data by the image file synthesis unit to generate one image (see FIG. 6). Here, the resolution of characters and non-characters is the same as the resolution of the binary image.

実施形態に係るデジタル式のカラー画像処理装置の概略構成を示したブロック図である。1 is a block diagram illustrating a schematic configuration of a digital color image processing apparatus according to an embodiment. スキャナ補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a scanner correction | amendment part. プリンタ補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a printer correction | amendment part. コントローラ部の構成を示すブロック図である。It is a block diagram which shows the structure of a controller part. 出力フォーマット変換部の構成を示すブロック図である。It is a block diagram which shows the structure of an output format conversion part. 入力画像、ファイル画像と出力画像のイメージ図である。It is an image figure of an input image, a file image, and an output image. 二値化部の構成を示すブロック図である。It is a block diagram which shows the structure of a binarization part. 黒パターンの例である。It is an example of a black pattern. 網点検出1の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the halftone detection 1. FIG. 白パターンの例である。It is an example of a white pattern. 網点パターンの例である。It is an example of a halftone dot pattern. 網点検出2の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the halftone detection 2. FIG. グレー検出1の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the gray detection 1. FIG. グレーパターンの例である。It is an example of a gray pattern. グレー検出2の処理手順を説明するフローチャートである。It is a flowchart explaining the processing procedure of the gray detection 2. FIG. 入力フォーマット変換部の構成を示すブロック図である。It is a block diagram which shows the structure of an input format conversion part.

Claims (4)

読み取ったRGB画像データの黒文字領域を判定する黒文字判定手段と、RGBからYMCBkに変換する際に、黒文字領域を実質Bk単色で出力する黒文字処理手段と、前記黒文字処理手段を実行後のYMCBkを蓄積する画像蓄積手段と、前記画像蓄積手段に蓄積されたYMCBkデータより黒文字を抽出する黒文字抽出手段と、を備えることを特徴とする画像処理装置。   Black character determining means for determining the black character area of the read RGB image data, black character processing means for outputting the black character area in a substantially Bk single color when converting from RGB to YMCBk, and storing YMCBk after execution of the black character processing means An image processing apparatus, comprising: an image storage unit configured to extract a black character from YMCBk data stored in the image storage unit. 請求項1に記載の画像処理装置において、前記黒文字抽出手段の結果で画像データを補正する補正手段を備えることを特徴とする画像処理装置。   The image processing apparatus according to claim 1, further comprising a correction unit that corrects image data based on a result of the black character extraction unit. 画像を読み取ってRGB画像データに変換する画像入力手段と、該RGB画像データを請求項1または2に記載の画像処理装置で処理した画像処理結果を、ネットワークを介して外部機器へ送信する送信手段と、を備えることを特徴とするネットワークスキャナ装置。   An image input unit that reads an image and converts it into RGB image data, and a transmission unit that transmits an image processing result obtained by processing the RGB image data by the image processing apparatus according to claim 1 to an external device via a network. A network scanner device comprising: 画像を読み取ってRGB画像データに変換する画像入力手段と、該RGB画像データを請求項1または2に記載の画像処理装置で処理した画像処理結果を用紙に出力する画像出力手段と、を備えることを特徴とするカラーデジタル複写機。   Image input means for reading an image and converting it into RGB image data; and image output means for outputting an image processing result obtained by processing the RGB image data with the image processing apparatus according to claim 1 to paper. Color digital copier characterized by
JP2005055526A 2005-03-01 2005-03-01 Image processing apparatus, network scanner apparatus, and color digital copying machine Pending JP2006245727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005055526A JP2006245727A (en) 2005-03-01 2005-03-01 Image processing apparatus, network scanner apparatus, and color digital copying machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005055526A JP2006245727A (en) 2005-03-01 2005-03-01 Image processing apparatus, network scanner apparatus, and color digital copying machine

Publications (1)

Publication Number Publication Date
JP2006245727A true JP2006245727A (en) 2006-09-14

Family

ID=37051695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005055526A Pending JP2006245727A (en) 2005-03-01 2005-03-01 Image processing apparatus, network scanner apparatus, and color digital copying machine

Country Status (1)

Country Link
JP (1) JP2006245727A (en)

Similar Documents

Publication Publication Date Title
US7986837B2 (en) Image processing apparatus, image forming apparatus, image distributing apparatus, image processing method, computer program product, and recording medium
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US7706021B2 (en) Image processing apparatus and image processing method for suppressing jaggies in the edge portions of image
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US8538086B2 (en) Image inspection apparatus, image inspection method, and computer program product
JP2000175031A (en) Image processing unit, image processing method and image input device
US7916352B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5146085B2 (en) Image processing apparatus and program
JP4898601B2 (en) Image processing apparatus, image processing method, and program thereof
JP4515986B2 (en) Image processing apparatus and program
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2001186356A (en) Picture compression device, picture compresion method and computer readable storage medium
JP2010074318A (en) Image processing apparatus and method, and image processing program
JP2007189275A (en) Image processor
JP2007235430A (en) Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium
JP4616199B2 (en) Image processing apparatus and program
JP2004112140A (en) Image processing apparatus
JP2006245727A (en) Image processing apparatus, network scanner apparatus, and color digital copying machine
JP2001309183A (en) Image processing unit and method
JP2006245736A (en) Color image processing apparatus, and network scanner apparatus
JP2006262334A (en) Image processing apparatus and scanner distribution apparatus
JP2006041792A (en) Image processing apparatus
JP2001211336A (en) Apparatus and method for image processing, storage medium, and image processing system
JP2023163897A (en) Image processing apparatus, image processing method, and program
JP2001211318A (en) Device and method for image processing, storage medium, and image processing system