JP2007043572A - Image processor and program - Google Patents

Image processor and program Download PDF

Info

Publication number
JP2007043572A
JP2007043572A JP2005227085A JP2005227085A JP2007043572A JP 2007043572 A JP2007043572 A JP 2007043572A JP 2005227085 A JP2005227085 A JP 2005227085A JP 2005227085 A JP2005227085 A JP 2005227085A JP 2007043572 A JP2007043572 A JP 2007043572A
Authority
JP
Japan
Prior art keywords
character
image
unit
image data
density area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005227085A
Other languages
Japanese (ja)
Other versions
JP4515986B2 (en
Inventor
Shinji Yamakawa
愼ニ 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005227085A priority Critical patent/JP4515986B2/en
Publication of JP2007043572A publication Critical patent/JP2007043572A/en
Application granted granted Critical
Publication of JP4515986B2 publication Critical patent/JP4515986B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of highly precisely detecting the middle part of a character, and to provide a program. <P>SOLUTION: A character edge area and a color area are separated in image area from inputted image data so as to be precisely detected. When the middle part of the character is detected, the image data filtered used. Consequently, a character determining means 705 defines only a dark part as "the middle part of the character" which means the inner side of the character edge, i.e., the inner part of a character line width, through the use of not dot information but data filtered (smoothed since the area is not the character edge area). Thus, the determination result of the character constituted with the dots is reduced so as to highly precisely detect the middle part of the character. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カラ−デジタル複写機やスキャナ配信装置の画像形成装置に利用される画像処理装置に関し、より詳細には、黒文字に対して適切な画像処理をする画像処理装置およびプログラムに関する。   The present invention relates to an image processing apparatus used for an image forming apparatus such as a color digital copying machine or a scanner distribution apparatus, and more particularly to an image processing apparatus and program for performing appropriate image processing on black characters.

近年、複写機においてはネットワーク化が進み、複写機が持つ機能をネットワーク接続した他の端末から利用することが可能になってきている。例えば、デジタルカラー複写機にネットワーク接続されたコンピュータ等の他の利用端末へ、複写機へ入力された画像データ(例えば、スキャナ部で原稿から読み取った画像データ)を配信する機能が提案され、徐々に活用され始めてきている。   In recent years, copying machines have been networked, and the functions of copying machines can be used from other terminals connected to the network. For example, a function for distributing image data (for example, image data read from a document by a scanner unit) input to a copying machine to other terminals such as a computer connected to a digital color copying machine over a network has been proposed. Has begun to be utilized.

この配信機能を使用する場合に、スキャン画像データを配信する例では、複写機側或いは配信先であるコンピュータ端末から各種の処理条件を設定し、設定された処理条件に従いスキャナを動作させ、読み取った原稿画像データに変換等所定の処理を施し、配信先に転送するという動作を行う。   In the example of distributing scanned image data when this distribution function is used, various processing conditions are set from the copying machine side or the computer terminal that is the distribution destination, and the scanner is operated and read in accordance with the set processing conditions. The document image data is subjected to a predetermined process such as conversion and transferred to a distribution destination.

この配信スキャナ機能を利用する際に、処理条件の設定に従って行われる画像読み取り・画像処理等に関する従来例として、特許文献1を示すことができる。   Patent Document 1 can be shown as a conventional example related to image reading and image processing performed in accordance with the setting of processing conditions when this distribution scanner function is used.

特許文献1には、複写機等の画像形成装置において、プリント・サーバやスキャン画像のサーバとして、機能の拡張を図るために、汎用コンピュータシステムのアーキテクチャをベースにした拡張ボックスを装備させたシステムが提案されている。ここでは、スキャン画像を拡張ボックス内のハードディスク装置に蓄積し、そこに蓄積された画像ファイルをネットワークに接続されたコンピュータシステムで共有し、その利用を各サーバ機能により実現できることが示されている。   Patent Document 1 discloses a system equipped with an expansion box based on the architecture of a general-purpose computer system in order to expand functions as a print server or a scanned image server in an image forming apparatus such as a copying machine. Proposed. Here, it is shown that the scan image is stored in the hard disk device in the expansion box, the image file stored therein is shared by a computer system connected to the network, and its use can be realized by each server function.

また、特許文献1には、スキャン・ボックス機能(スキャン画像をクライアントコンピュータへ配信する機能の一つ)を利用する場合のスキャン画像の処理について示されている。ここでは、操作入力により設定された処理条件に従って、原稿の読み取り、スキャン原稿画像の処理を行うとしているが、スキャン・ボックス機能は、印刷出力を必ずしも予定していない場合に用いることから、印刷出力に必要になるYMCK系のデータフォーマットを生成せずに、つまり、スキャン画像のRGB系からYMCK系への色座標変換や階調補正、画像データの圧縮処理などは省略し、スキャン画像処理後のRGB系データをスキャン・ボックスに蓄積している。その後、ネットワークのクライアントコンピュータは、スキャン・ボックスから、画像データを蓄積時のRGB系のデータのまま取り出し、自身が持つ保存先であるローカル・ディスク等に転送している。クライアントコンピュータでは、転送されてきたRGB系のデータに基づいて、モニタ・ディスプレイでスキャン画像を閲覧することができるようにする、としている。   Japanese Patent Application Laid-Open No. 2004-151561 discloses scan image processing when a scan box function (one of functions for distributing a scan image to a client computer) is used. Here, the document reading and the scanned document image processing are performed according to the processing conditions set by the operation input. However, since the scan box function is used when the print output is not necessarily planned, the print output Without generating the YMCK data format required for the scan, that is, omitting the color coordinate conversion of the scanned image from the RGB system to the YMCK system, gradation correction, image data compression processing, etc. RGB data is stored in the scan box. Thereafter, the client computer of the network extracts the image data from the scan box as RGB data at the time of storage, and transfers it to a local disk or the like that is the storage destination of the image data. In the client computer, the scanned image can be viewed on a monitor / display based on the transferred RGB data.

一方、近年においては、カラープリンタ、カラー複写機などのカラー画像処理装置の普及に伴い、カラー画像の出力品質の向上が求められている。例えば、原稿が黒一色であった場合、黒を再生する信号として、イエロー、マゼンダ、シアン、ブラックの各信号が発生するが、各色が重ね合わせで再現されるため、各色間のずれによって黒線ににじみが発生し、ぼやけて見えてしまうことがある。   On the other hand, in recent years, with the spread of color image processing apparatuses such as color printers and color copying machines, improvement in output quality of color images has been demanded. For example, if the original is only black, yellow, magenta, cyan, and black signals are generated as black reproduction signals. Bleeding may occur and appear blurred.

そこで、このような出力品質の低下を防止するために、画像補正や画質調整について、フィルタ処理を切り換えることにより画像中の黒文字、黒線の特徴を生かす方法が提案されている。このフィルタ処理の切り換えとしては、像域分離処理結果である黒文字エッジ領域、色文字エッジ領域や写真領域に従って切り換えるものなどがある。   Therefore, in order to prevent such a decrease in output quality, a method has been proposed in which characteristics of black characters and black lines in an image are utilized by switching filter processing for image correction and image quality adjustment. Examples of the switching of the filter processing include switching according to the black character edge region, the color character edge region, and the photograph region, which are the image region separation processing results.

特開2000−333026号公報JP 2000-333026 A

ところで、上述したような像域分離信号によるフィルタ処理の切り換えとしては、文字エッジ領域(黒文字エッジ領域と色文字エッジ領域)では、判読性を重視して鮮鋭化処理を行い、写真領域では、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行うようにしている。急峻なエッジを鮮鋭化するのは、絵の中の文字を判読しやすくするためである。このように、注目画素がいずれの領域に属するものか、像域分離結果に従い画像データに対して種々の画像処理を施すことにより、出力画像の画像品質を大きく向上させることができる。   By the way, as the switching of the filter processing by the image area separation signal as described above, sharpening processing is performed with emphasis on legibility in a character edge area (black character edge area and color character edge area), and in a photographic area, an image is displayed. A sharp density change in the data is used as an edge amount, and smoothing processing or sharpening processing is performed according to the edge amount. The sharp edges are sharpened to make the characters in the picture easier to read. As described above, the image quality of the output image can be greatly improved by performing various image processing on the image data according to the image area separation result as to which region the pixel of interest belongs to.

しかしながら、像域分離処理においては、網点で構成された文字について、網点領域が少ない場合には、文字エッジ領域になったりならなかったりするという問題がある。   However, in the image area separation process, there is a problem that a character composed of halftone dots may or may not become a character edge area when the halftone dot area is small.

また、特許文献1に記載されているようなスキャン画像処理後のRGB系データをスキャン・ボックスに蓄積している画像処理装置においては、スキャン画像のRGB系のデータに対して像域分離処理を行うため、文字エッジの内側すなわち文字線幅内を意味する「文字なか」を検出する際に、絵柄の中の高濃度領域が文字として検出されてしまうという問題がある。   In addition, in an image processing apparatus that stores RGB data after scan image processing in a scan box as described in Patent Document 1, image area separation processing is performed on RGB data of a scan image. For this reason, there is a problem that a high-density region in the pattern is detected as a character when detecting “character inside” meaning the inside of the character edge, that is, within the character line width.

特に、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると文字なか判定が中途半端な結果となる。   In particular, since the leading end of a character is narrow, it is difficult to form a halftone dot (non-character region). For example, if the leading end is a character edge region and the center of the character is determined to be a halftone dot, the determination of whether the character is halfway is obtained. .

本発明は、上記に鑑みてなされたものであって、高精度に文字なかを検出することができる画像処理装置およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus and program capable of detecting a character with high accuracy.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離手段と、入力された画像データから色領域を像域分離する色領域分離手段と、前記文字エッジ領域分離手段および前記色領域分離手段における像域分離結果に応じたフィルタ処理を実行するフィルタ処理手段と、このフィルタ処理手段によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積手段と、前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出手段と、前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出手段と、前記高濃度領域検出手段により検出された前記高濃度領域と前記中間濃度領域検出手段により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定手段と、を備える。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is characterized in that character edge region separation means for separating a character edge region from input image data, and color from input image data. A color region separating unit for separating an image region, a filter processing unit for performing a filtering process according to an image region separation result in the character edge region separating unit and the color region separating unit, and a filtering process performed by the filter processing unit. Image storage means for storing the executed image data and the image area separation result in a storage section; and a high density area detection means for detecting a high density area for the image data stored in the storage section; Detected by the intermediate density area detecting means for detecting an intermediate density area for the image data stored in the storage unit and the high density area detecting means. By referring to the image state of the peripheral pixels in accordance with the high density area and the intermediate density area detected by the intermediate density area detecting means, it is determined whether the character means the inside of the black character and the character edge, that is, the character line width. Character determination means.

また、請求項2にかかる発明は、請求項1記載の画像処理装置において、前記高濃度領域検出手段と前記中間濃度領域検出手段と前記文字判定手段とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the high density area detecting means, the intermediate density area detecting means, and the character determining means are stored in the storage unit. This is executed again when the image data is distributed to other terminals connected to the network.

また、請求項3にかかる発明は、請求項1または2記載の画像処理装置において、前記記憶部に蓄積されている前記画像データに基づいて作像した画像を転写紙上に形成して出力する画像形成手段をさらに備えている。   According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, an image formed based on the image data stored in the storage unit is formed on a transfer sheet and output. Forming means is further provided.

また、請求項4にかかる発明のプログラムは、入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離機能と、入力された画像データから色領域を像域分離する色領域分離機能と、前記文字エッジ領域分離機能および前記色領域分離機能における像域分離結果に応じたフィルタ処理を実行するフィルタ処理機能と、このフィルタ処理機能によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積機能と、前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出機能と、前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出機能と、前記高濃度領域検出機能により検出された前記高濃度領域と前記中間濃度領域検出機能により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定機能と、をコンピュータに実行させる。   According to a fourth aspect of the present invention, there is provided a program for separating a character edge area from a character edge area from input image data, and a color area separation function for separating a color area from input image data. A filter processing function for performing filter processing according to an image region separation result in the character edge region separation function and the color region separation function, and the image data and the image region subjected to the filter processing by the filter processing function An image accumulation function for accumulating the separation results in the storage unit, a high density area detection function for detecting a high density region for the image data accumulated in the storage unit, and the image accumulated in the storage unit An intermediate density area detection function for detecting an intermediate density area for the data; and the high density area and the intermediate density detected by the high density area detection function. A character determination function that determines whether a character means a black character and a character that is inside the character edge, that is, within the character line width, by referring to the image state of the peripheral pixel according to the intermediate density region detected by the region detection function. Let it run.

また、請求項5にかかる発明は、請求項4記載のプログラムにおいて、前記高濃度領域検出機能と前記中間濃度領域検出機能と前記文字判定機能とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される。   The invention according to claim 5 is the program according to claim 4, wherein the high density area detection function, the intermediate density area detection function, and the character determination function are the image data stored in the storage unit. Is executed again to distribute to other terminals connected to the network.

請求項1にかかる発明によれば、文字エッジ領域と色領域とは、入力された画像データから像域分離されるので、精度よく検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができるという効果を奏する。   According to the first aspect of the present invention, the character edge region and the color region are separated from the input image data, so that the character edge region and the color region can be detected with high accuracy. By using the image data, it is possible to make only the dark part a character by using the data after filtering (smoothed because it is not a character edge region) instead of the halftone information. Mixing of character determination results is reduced, and it is possible to detect characters with high accuracy.

また、請求項2にかかる発明によれば、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなるという効果を奏する。   Further, according to the invention according to claim 2, since the determination of characters necessary for distribution is performed after the image data is stored in the storage unit, it is not necessary to store the determination result of characters unnecessary for copying or the like. There is an effect that the data of the stored image is reduced.

また、請求項3にかかる発明によれば、画像形成手段を備えるとともに、文字エッジ領域と色領域とを先に行い、配信時に固有の処理(高濃度領域検出手段と中間濃度領域検出手段と文字判定手段)を後に行うので、スキャナコピーの同時動作などを行うことができるという効果を奏する。   According to the invention of claim 3, the image forming unit is provided, the character edge region and the color region are performed first, and processing unique to the distribution (high density region detecting unit, intermediate density region detecting unit, and character Since the determination unit) is performed later, an effect is achieved in that it is possible to perform a scanner copy simultaneous operation and the like.

また、請求項4にかかる発明によれば、検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができるという効果を奏する。   According to the invention of claim 4, it is possible to detect, and for the detection of characters, by using the image data after the filtering process, not the halftone dot information but the filtering process (since it is not the character edge area, it is smoothed). Data) can be used to make only the dark part a character, so that the mixed judgment result of the character composed of halftone dots is reduced and the character can be detected with high accuracy. There is an effect.

また、請求項5にかかる発明によれば、文字エッジ領域と色領域とを先に行い、配信時に固有の処理(高濃度領域検出機能と中間濃度領域検出機能と文字判定機能)を後に行うことにより、スキャナコピーの同時動作などを行うことができるという効果を奏する。また、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなるという効果を奏する。   According to the invention of claim 5, the character edge region and the color region are performed first, and processing unique to the distribution (high density region detection function, intermediate density region detection function, and character determination function) is performed later. As a result, it is possible to perform a scanner copy simultaneous operation and the like. In addition, since the determination of characters necessary for distribution is performed after the image data is stored in the storage unit, it is not necessary to store the determination result of characters that are not necessary for copying or the like, so that the amount of stored image data is reduced. Play.

以下に添付図面を参照して、この発明にかかる画像処理装置およびプログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus and a program according to the present invention are explained in detail below with reference to the accompanying drawings.

本発明の実施の一形態を図1ないし図20に基づいて説明する。本実施の形態は、画像処理装置として、コピー機能、ファクシミリ(FAX)機能、プリンタ機能、および入力画像(読み取り原稿画像やプリンタ或いはFAX機能により入力された画像)を配信する機能、を複合したいわゆる複合機であるデジタルカラー複合機を適用した例を示す。   An embodiment of the present invention will be described with reference to FIGS. In this embodiment, as an image processing apparatus, a copy function, a facsimile (FAX) function, a printer function, and a function for distributing an input image (read original image or an image input by a printer or FAX function) are combined. An example in which a digital color multifunction peripheral, which is a multifunction peripheral, is applied will be described.

図1は、本実施の形態にかかるデジタルカラー複合機100のシステム構成を示すブロック図である。図1に示すデジタルカラー複合機100は、マイクロコンピュータ構成のメインコントローラ117を備え、メインコントローラ117がデジタルカラー複合機100の全体を集中的に制御する。また、デジタルカラー複合機100は、エンジン部101とプリンタコントローラ部102とに大別される。   FIG. 1 is a block diagram showing a system configuration of a digital color multifunction peripheral 100 according to the present embodiment. A digital color multifunction peripheral 100 shown in FIG. 1 includes a main controller 117 having a microcomputer configuration, and the main controller 117 centrally controls the entire digital color multifunction peripheral 100. The digital color multifunction peripheral 100 is roughly divided into an engine unit 101 and a printer controller unit 102.

まず、図1を参照して、コピー時の画像データの流れに沿ってデジタルカラー複合機100の各部の動作について説明する。   First, with reference to FIG. 1, the operation of each unit of the digital color multifunction peripheral 100 will be described along the flow of image data during copying.

エンジン部101の全体は、エンジンコントローラ110により制御される。このエンジン部101において、読み取りユニット111は、原稿の画像を読み取る画像読み取り部であり、原稿の画像はR,G,Bに色分解された画像データ(反射率リニア)として読み取られ、スキャナ補正部112に送られる。スキャナ補正部112では読み取りユニット111の読み取った機器固有のRGB信号から標準色空間上でのRGB信号に色の変換がなされる。ここで標準色空間に変換を行うのは、画像データの再利用を行うためである。   The entire engine unit 101 is controlled by an engine controller 110. In this engine unit 101, a reading unit 111 is an image reading unit that reads an image of a document, and the image of the document is read as image data (reflectance linear) color-separated into R, G, and B, and a scanner correction unit. 112. The scanner correction unit 112 performs color conversion from the RGB signal unique to the device read by the reading unit 111 to the RGB signal in the standard color space. Here, the conversion to the standard color space is performed in order to reuse the image data.

図2に示すように、スキャナ補正部112では、RGB画像データに対して、像域分離部201で像域分離処理、スキャナγ部202でスキャナγ補正処理、フィルタ処理部203でフィルタ処理、原稿種判定部204で原稿種判定処理が行われる。   As shown in FIG. 2, in the scanner correction unit 112, RGB image data is subjected to image area separation processing by the image area separation unit 201, scanner γ correction processing by the scanner γ unit 202, filter processing by the filter processing unit 203, and original document. A document type determination process is performed by the type determination unit 204.

文字エッジ領域分離手段及び色領域分離手段である像域分離部201は、原稿の画像領域(像域)を、異なる特徴を有する領域(文字・線画や写真などの領域)に分類(像域分離)する。本実施の形態においては、特開平2003-259115号公報で開示されている手法により、黒文字エッジ領域、色文字エッジ領域、その他(写真領域)の3つの領域に分離する。このように像域分離することにより、画像データには像域分離信号(文字エッジ領域、色領域)が画素毎に付与される。そして、原稿の画像領域(像域)は、このような像域分離信号に基づいて、黒文字エッジ領域(文字エッジ領域であり色領域でない)、色文字エッジ領域(文字エッジ領域であり色領域である)、写真領域に分類される(前記以外)。ここで、図3は像域分離される文字エッジ領域を示す説明図である。図3に示すように、文字エッジ領域の内側すなわち文字線幅内は、後述する文字なか領域である。   An image area separation unit 201, which is a character edge area separation unit and a color area separation unit, classifies an image area (image area) of a document into areas having different characteristics (areas such as characters, line drawings, and photographs) (image area separation). ) In the present embodiment, a black character edge region, a color character edge region, and the other (photo region) are separated by a method disclosed in Japanese Patent Laid-Open No. 2003-259115. By performing image area separation in this way, an image area separation signal (character edge area, color area) is given to the image data for each pixel. Then, based on such an image area separation signal, the image area (image area) of the original is a black character edge area (character edge area and not a color area), color character edge area (character edge area and color area). Classified as a photographic area (other than the above). Here, FIG. 3 is an explanatory view showing a character edge region into which image areas are separated. As shown in FIG. 3, the inside of the character edge region, that is, the character line width, is a character medium region to be described later.

スキャナγ部202は、RGB各チャネル毎の入力8bit、出力8bitのLUT(Look Up Table)であり、画像データを反射率リニアから濃度リニアのデータに変換する。   A scanner γ unit 202 is an 8-bit input and 8-bit output LUT (Look Up Table) for each RGB channel, and converts image data from reflectance linear to density linear data.

フィルタ処理手段であるフィルタ処理部203は、像域分離信号によりフィルタ処理を切り換える。文字エッジ領域(黒文字エッジ領域と色文字エッジ領域)では判読性を重視して鮮鋭化処理を行う。写真領域では、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行う。急峻なエッジを鮮鋭化するのは、絵の中の文字を判読しやすくするためである。このように、注目画素がいずれの領域に属するものか、像域分離結果に従い画像データに対して種々の画像処理を施すことにより、出力画像の画像品質を大きく向上させることができる。   A filter processing unit 203 serving as a filter processing unit switches the filter processing according to an image area separation signal. In the character edge region (black character edge region and color character edge region), sharpening processing is performed with emphasis on legibility. In the photograph area, a sharp density change in the image data is used as an edge amount, and smoothing processing or sharpening processing is performed according to the edge amount. The sharp edges are sharpened to make the characters in the picture easier to read. As described above, the image quality of the output image can be greatly improved by performing various image processing on the image data according to the image area separation result as to which region the pixel of interest belongs to.

原稿種判定部204は、特開2000-324338号公報に開示されている原稿判定ブロックを用いる。具体的には、文字あり原稿、有彩原稿、印画紙写真、印刷写真であるかをそれぞれ判定し、これらの4つの特徴量で、文字のみ原稿とカラー原稿であるかどうかの判定を行う。ここで、文字のみ原稿とは、原稿の中に文字しか存在しない原稿であり、上述した判定条件で、文字あり原稿(あり)、印画紙写真原稿(なし)、印刷写真原稿(なし)の条件の時である。また、カラー原稿は、有彩原稿(あり)の時である。なお、複写原稿やインクジェット原稿などの絵柄は階調処理を施しており、印画紙写真か印刷写真原稿のどちらかに分類される。この原稿種判定結果は、画像データを記憶部であるハードディスク(HDD)118に蓄積する時に、書誌情報として記録される。   The document type determination unit 204 uses a document determination block disclosed in Japanese Patent Laid-Open No. 2000-324338. Specifically, it is determined whether the document is a text document, a chromatic document, a photographic paper photograph, or a printed photograph, and it is determined whether or not only a character document is a color document by using these four feature amounts. Here, a text-only document is a document in which only characters are present in the document. Under the above-described determination conditions, a document with characters (present), a photographic paper document (none), and a printed photograph document (none) Is the time. The color original is a chromatic original (present). Note that a pattern such as a copy original or an ink jet original is subjected to gradation processing, and is classified as either a photographic paper photograph or a printed photograph original. This document type determination result is recorded as bibliographic information when image data is stored in a hard disk (HDD) 118 serving as a storage unit.

スキャナ補正部112で処理後のRGB各8bitの画像データと文字エッジ領域信号(1bit)、色領域信号(1bit)は、圧縮処理部113において圧縮処理される。この圧縮後の画像データは汎用バス114を介してプリンタコントローラ115に送られる。なお、汎用バス114の帯域が十分に広く、蓄積するハードディスク(HDD)118の容量が大きければ、非圧縮の状態でデータを扱っても良い。   The RGB 8-bit image data, character edge region signal (1 bit), and color region signal (1 bit) processed by the scanner correction unit 112 are compressed by the compression processing unit 113. The compressed image data is sent to the printer controller 115 via the general-purpose bus 114. Note that if the bandwidth of the general-purpose bus 114 is sufficiently wide and the capacity of the stored hard disk (HDD) 118 is large, data may be handled in an uncompressed state.

プリンタコントローラ115は、画像データを記憶する半導体メモリ116を備えている。この半導体メモリ116には、メインコントローラ117の制御により、送られた画像データが蓄積される。また、記憶部であるハードディスク(HDD)118には、この半導体メモリ116に蓄積された画像データと、画像サイズや原稿種判定部204で判定された原稿の種類とが蓄積される。これは、デジタルカラー複合機100によるプリントアウト時に用紙がつまり、印字が正常に終了しなかった場合でも、再び原稿を読み直すのを避けるためであり、また、電子ソートを行うためである。近年はこれだけでなく、読み取った原稿を蓄積しておき、必要なときに再出力する機能も追加されている。すなわち、画像データは、一度半導体メモリ116に展開されハードディスク118に蓄積される(画像蓄積手段)。   The printer controller 115 includes a semiconductor memory 116 that stores image data. The semiconductor memory 116 stores the transmitted image data under the control of the main controller 117. Also, the hard disk (HDD) 118 serving as a storage unit stores the image data stored in the semiconductor memory 116 and the document size determined by the image size and document type determination unit 204. This is for avoiding rereading the original again even when the paper at the time of printing out by the digital color multifunction peripheral 100, that is, when printing is not normally completed, and for electronic sorting. In recent years, not only this, but also a function has been added to store scanned originals and re-output them when necessary. That is, the image data is once developed in the semiconductor memory 116 and stored in the hard disk 118 (image storage means).

画像データを出力する場合は、記憶部であるハードディスク118内の画像データは一度プリンタコントローラ115の半導体メモリ116に展開され、次に汎用バス114を介してエンジン部101に送られる。そして、エンジン部101のカラー・モノクロ多値データ固定長伸張器119は、送られた画像データを元のRGB各8bitデータと文字エッジ領域信号(1bit)、色領域信号(1bit)に伸張し、プリンタ補正部120に送出する。なお、図1では、カラー・モノクロ多値データ固定長圧縮器113およびカラー・モノクロ多値データ固定長伸張器119とあるが、固定長ではなく汎用の圧縮器および伸張器でもよい。このように、ハードディスク118に蓄積された画像データがエンジン部101に出力される前に一度半導体メモリ116に展開されるのは、ハードディスク118の書き込み速度と読み込み速度が一定でなく、不規則であるためである。ハードディスク118から読み出されたRGB画像データは、プリンタ補正部120によって書き込み制御部121および作像ユニット122に応じたYMCBkの色信号に変換され、文字エッジ領域信号であり色領域信号でない部分は、黒文字としてBkの単色データに置き換えられる。   When outputting image data, the image data in the hard disk 118 serving as a storage unit is once developed in the semiconductor memory 116 of the printer controller 115 and then sent to the engine unit 101 via the general-purpose bus 114. Then, the color / monochrome multi-value data fixed length expander 119 of the engine unit 101 expands the transmitted image data into original RGB 8-bit data, a character edge region signal (1 bit), and a color region signal (1 bit), The data is sent to the printer correction unit 120. In FIG. 1, the color / monochrome multi-value data fixed length compressor 113 and the color / monochrome multi-value data fixed length decompressor 119 are shown, but general-purpose compressors and decompressors may be used instead of the fixed length. As described above, the image data stored in the hard disk 118 is once developed in the semiconductor memory 116 before being output to the engine unit 101. The writing speed and the reading speed of the hard disk 118 are not constant and irregular. Because. The RGB image data read from the hard disk 118 is converted into a YMCBk color signal corresponding to the writing control unit 121 and the image forming unit 122 by the printer correction unit 120, and a portion that is a character edge region signal and not a color region signal is It is replaced with Bk monochrome data as black characters.

図4に示すように、プリンタ補正部120は、RGB各8bitデータに対して、YMCBkの色信号に変換する色補正処理部401と、作像ユニット122のγ特性に応じてγ補正を行うプリンタγ部402と、ディザ処理・誤差拡散処理などの量子化を行い、階調補正を行う中間調処理部403と、画像データ内の急峻な濃度変化をエッジ量として検出する量検出部404と、を備えている。   As shown in FIG. 4, the printer correction unit 120 includes a color correction processing unit 401 that converts RGB 8-bit data into YMCBk color signals, and a printer that performs γ correction according to the γ characteristics of the image forming unit 122. a gamma unit 402, a halftone processing unit 403 that performs gradation correction by performing quantization such as dither processing and error diffusion processing, an amount detection unit 404 that detects a sharp density change in image data as an edge amount, It has.

色補正処理部401は、黒文字エッジ領域以外では、R,G,Bデータを一次濃度マスキング法等でC,M,Yデータに変換する。画像データの色再現を向上させるために、C,M,Yデータの共通部分をUCR(加色除去)処理してBkデータを生成し、C,M,Y,Bkデータを出力する。ここで、黒文字エッジ領域は、読み取りユニット111のRGB読み取り位置ずれで原稿の黒文字が色付いたり、作像ユニット122のYMCBkプリンタ時の重ね位置ずれがあると判読性がよくないので、黒文字領域のみ輝度に相当する信号でBk単色データ(C,M,Yは、プリントアウトしてないデータ)にて出力する。   The color correction processing unit 401 converts R, G, and B data into C, M, and Y data by a primary density masking method or the like except for the black character edge region. In order to improve the color reproduction of the image data, the common portion of the C, M, Y data is subjected to UCR (additional color removal) processing to generate Bk data, and the C, M, Y, Bk data is output. Here, since the black character edge area is not legible if the black character of the original is colored due to the RGB reading position deviation of the reading unit 111 or the overlapping position deviation in the YMCBk printer of the image forming unit 122 is not legible, only the black character area has luminance. Are output as Bk single color data (C, M, and Y are unprinted data).

プリンタγ部402は、YMCBkの各色に対して、γの周波数特性に応じて処理する。   The printer γ unit 402 processes each color of YMCBk according to the frequency characteristic of γ.

中間調処理部403は、作像ユニット122の階調特性やエッジ量に応じて、ディザ処理等の量子化を行う。量子化処理をする際に黒文字信号(後述する黒文字抽出の処理)を行って、黒文字のコントローラスト強調することも可能である。このことにより、文字の判読性が向上する。   The halftone processing unit 403 performs quantization such as dither processing according to the gradation characteristics and edge amount of the image forming unit 122. When performing the quantization process, it is also possible to emphasize the controller character of the black character by performing a black character signal (a black character extraction process described later). This improves the legibility of characters.

画像形成手段である作像ユニット122は、レーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。なお、作像ユニット122の印刷方式は、電子写真方式のほか、インクジェット方式、昇華型熱転写方式、銀塩写真方式、直接感熱記録方式、溶融型熱転写方式など、さまざまな方式を用いることができる。   The image forming unit 122 serving as an image forming unit is a transfer paper printing unit using a laser beam writing process. The image forming unit 122 draws 2-bit image data as a latent image on a photosensitive member, and after image forming / transfer processing with toner, Form a copy image. As the printing method of the image forming unit 122, various methods such as an ink jet method, a sublimation type thermal transfer method, a silver salt photography method, a direct thermal recording method, and a melt type thermal transfer method can be used in addition to the electrophotographic method.

これまでの説明では、コピー用の画像処理が施されたRGB系の色空間で圧縮された画像データがハードディスク118に蓄積される場合について説明をした。ここで、ハードディスク118に蓄積される画像データはデジタルカラー複合機100などでコピー画像として読み取られたある色空間系の画像データである。ある色空間とは、デバイスディペンデント(デバイスの種類(装置特性)に依存した)な色空間(Yuv,CMY)であってもよいし、デバイスインディペンデント(デバイスの種類(装置特性)に依存しない)な色空間(sRGB)であってもよい。また、これらのある色空間信号をネットワークを介して他の装置へ送信する際には、他の装置との間でそのまま相互利用できる同じ色空間に補正される。ある色空間とは、例えば、標準的なsRGB空間やLab空間、また、異なる機器間でも共有できる専用の色空間系などである。   In the above description, the case where image data compressed in the RGB color space subjected to image processing for copying is stored in the hard disk 118 has been described. Here, the image data stored in the hard disk 118 is image data of a certain color space system read as a copy image by the digital color multifunction peripheral 100 or the like. The certain color space may be a device-dependent (depending on device type (device characteristic)) color space (Yuv, CMY), or a device independent (device type (device characteristic)). It may be an independent color space (sRGB). When these certain color space signals are transmitted to other devices via the network, they are corrected to the same color space that can be used as is with other devices. A certain color space is, for example, a standard sRGB space or Lab space, or a dedicated color space system that can be shared between different devices.

次に、ハードディスク118に蓄積されたデータをネットワークを介して外部PC126に配信する配信スキャナとして動作する場合のデジタルカラー複合機100の各部の動作について説明する。   Next, the operation of each unit of the digital color multifunction peripheral 100 when operating as a distribution scanner that distributes data stored in the hard disk 118 to the external PC 126 via the network will be described.

ネットワークインターフェースコントローラ(NIC)124は、デジタルカラー複合機100を外部PC126が接続されているLANなどのネットワークに接続するためのインターフェースである。   The network interface controller (NIC) 124 is an interface for connecting the digital color multifunction peripheral 100 to a network such as a LAN to which the external PC 126 is connected.

ハードディスク118には、前述のように、スキャナ補正が施された、すなわちコピー用の画像処理が施されたRGB画像データと、画像サイズや原稿種判定部204で判定された原稿の種類とが蓄積されている。   As described above, the hard disk 118 stores RGB image data that has been subjected to scanner correction, that is, that has been subjected to image processing for copying, and the document size determined by the image size and document type determination unit 204. Has been.

ハードディスク118に蓄積された画像データは、プリンタコントローラ115に送られ、半導体メモリ116に展開され、階調変換処理、フォーマット処理などが行われる。階調処理では、配信スキャナ動作時のモードに従った階調変換処理を行う。フォーマット処理では、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。その後、画像データはNIC124を介して外部PC126に配信される。   The image data stored in the hard disk 118 is sent to the printer controller 115 and developed in the semiconductor memory 116, where gradation conversion processing, formatting processing, and the like are performed. In the gradation processing, gradation conversion processing is performed according to the mode during the distribution scanner operation. In the format process, general-purpose image format conversion to JPEG or TIFF format is performed. Thereafter, the image data is distributed to the external PC 126 via the NIC 124.

ここで、図5はプリンタコントローラ115の構成を示すブロック図である。図5に示すように、プリンタコントローラ115は、半導体メモリ116と、圧縮伸張処理部501と、出力フォーマット変換部502と、入力フォーマット変換部503と、データI/F504とにより構成されている。半導体メモリ116に展開された画像データを外部PC126に配信するデータの流れに沿って各部の動作について説明する。圧縮伸張処理部501は、半導体メモリ116に展開された圧縮処理されている画像データを元の各色8bitデータに伸張し、出力フォーマット変換部502に出力する。出力フォーマット変換部502では、RGBデータを標準色空間であるsRGBデータに色変換を行うと同時に、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。データI/F504では、出力フォーマット変換部502からのデータをNIC124に出力する。プリンタコントローラ115は、このようにして配信するための適切な画像フォーマット処理を施して、NIC124を通して外部PC126へ配信する。   Here, FIG. 5 is a block diagram showing the configuration of the printer controller 115. As shown in FIG. 5, the printer controller 115 includes a semiconductor memory 116, a compression / decompression processing unit 501, an output format conversion unit 502, an input format conversion unit 503, and a data I / F 504. The operation of each unit will be described along the flow of data for distributing the image data expanded in the semiconductor memory 116 to the external PC 126. The compression / decompression processing unit 501 expands the compressed image data expanded in the semiconductor memory 116 to the original 8-bit data for each color, and outputs the data to the output format conversion unit 502. The output format conversion unit 502 performs color conversion of RGB data to sRGB data, which is a standard color space, and simultaneously performs general-purpose image format conversion to JPEG or TIFF format. The data I / F 504 outputs data from the output format conversion unit 502 to the NIC 124. The printer controller 115 performs appropriate image format processing for distribution in this way, and distributes it to the external PC 126 through the NIC 124.

また、ネットワークを介して外部PC126からプリントアウトするプリンタとして画像処理装置100が動作する場合には、ネットワークインターフェースコントローラ(NIC)124よりデータがデータI/F504を介して入力されると、入力フォーマット変換部503は入力されたデータから画像及びプリント指示するコマンドを解析して画像データとして印刷できる状態にビットマップ展開して、圧縮伸張処理部501は展開されたデータを圧縮してデータを半導体メモリ116に蓄積する。半導体メモリ116に蓄積されたデータは、随時大容量のハードディスク118に書き込まれる。なお、入力される画像データは、JPEGやTIFF形式の汎用画像フォーマットの自然画像である。   When the image processing apparatus 100 operates as a printer that prints out from the external PC 126 via the network, when data is input from the network interface controller (NIC) 124 via the data I / F 504, input format conversion is performed. The unit 503 analyzes the image and the command for instructing the print from the input data, and decompresses the bitmap so that it can be printed as image data. The compression / decompression processing unit 501 compresses the decompressed data and stores the data in the semiconductor memory 116. To accumulate. Data stored in the semiconductor memory 116 is written to a large-capacity hard disk 118 as needed. The input image data is a natural image in a general-purpose image format such as JPEG or TIFF format.

なお、FAX時については画像データの流れを特に図示しないが、FAXコントローラ123は、画像処理装置100のFAX機能を制御し、電話回線などの所定のネットワークとの間で画像データの送受信を行う。モノクロ2値可変長可逆圧縮データ伸張器123aは、送受信するデータの圧縮、伸張を行う。   Note that the flow of image data is not particularly shown for FAX, but the FAX controller 123 controls the FAX function of the image processing apparatus 100 to transmit and receive image data to and from a predetermined network such as a telephone line. The monochrome binary variable length lossless compression data decompressor 123a compresses and decompresses data to be transmitted and received.

上述したように、デジタルカラー複合機100は、スキャン画像のRGB系のデータのままハードディスク118に蓄積し、蓄積したデータを印刷や配信する際に蓄積データに対して画像フォーマットを変換するようにしている。すなわち、本実施の形態のデジタルカラー複合機100ではカラーで蓄積した画像データをそのままカラーで出力することもモノクロに変換して出力することもできる。   As described above, the digital color multifunction peripheral 100 stores the RGB image data of the scanned image in the hard disk 118, and converts the image format for the stored data when printing or distributing the stored data. Yes. That is, in the digital color multifunction peripheral 100 of the present embodiment, the image data accumulated in color can be output as it is in color, or converted into monochrome and output.

例えば、カラーで蓄積した画像データをモノクロに変換して印刷出力する場合には、図4に示したプリンタ補正部120の色補正処理部401でカラーからモノクロへの変換を行っている。ここでは紙出力を目的としているので、RGB →Bk(黒)の変換が行われる。なお、配信の場合には、元のRGB値から輝度Yを求め、それを変換後のRGBに反映することで対応すればよい。   For example, when image data accumulated in color is converted into monochrome and printed out, the color correction processing unit 401 of the printer correction unit 120 shown in FIG. 4 performs conversion from color to monochrome. Here, since paper output is intended, RGB → Bk (black) conversion is performed. In the case of distribution, the luminance Y is obtained from the original RGB value, and this is reflected in the converted RGB.

ここで、プリンタコントローラ115の出力フォーマット変換部502について説明する。図6は、出力フォーマット変換部502の構成を示すブロック図である。図6に示すように、出力フォーマット変換部502は、色変換部601と、解像度変換部602と、TIFFフォーマット生成部603と、JPEGフォーマット生成部604と、圧縮フォーマット生成部605と、データI/F606とにより構成されている。   Here, the output format conversion unit 502 of the printer controller 115 will be described. FIG. 6 is a block diagram illustrating a configuration of the output format conversion unit 502. As shown in FIG. 6, the output format conversion unit 502 includes a color conversion unit 601, a resolution conversion unit 602, a TIFF format generation unit 603, a JPEG format generation unit 604, a compression format generation unit 605, a data I / O F606.

色変換部601では、RGBデータをsRGBデータにデータ変換を行う。解像度変換部602は、色変換部601でsRGBに変換したデータに対して、300dpi、200dpiなどの画素密度変換を行う。本実施の形態では、300dpiで変換した場合の画素密度で説明する。各フォーマット生成部(TIFFフォーマット生成部603、JPEGフォーマット生成部604、圧縮フォーマット生成部605)は、解像度変換部602で解像度変換した画像を各フォーマットに変換する。データI/F606は、NIC124に出力すべきフォーマットを出力する。   The color conversion unit 601 performs data conversion from RGB data to sRGB data. The resolution conversion unit 602 performs pixel density conversion such as 300 dpi and 200 dpi on the data converted into sRGB by the color conversion unit 601. In this embodiment, the pixel density when converted at 300 dpi will be described. Each format generation unit (TIFF format generation unit 603, JPEG format generation unit 604, compression format generation unit 605) converts the image whose resolution has been converted by the resolution conversion unit 602 into each format. The data I / F 606 outputs a format to be output to the NIC 124.

ここで、圧縮フォーマット生成部605について説明する。圧縮フォーマット生成部605は、2値化部607と、黒画像生成部608と、2値画像生成部609と、第1解像度変換部610と、第2解像度変換部611と、背景画像生成部612と、文字画像生成部613と、画像ファイル合成部614とにより構成されている。   Here, the compression format generation unit 605 will be described. The compression format generation unit 605 includes a binarization unit 607, a black image generation unit 608, a binary image generation unit 609, a first resolution conversion unit 610, a second resolution conversion unit 611, and a background image generation unit 612. And a character image generation unit 613 and an image file composition unit 614.

2値化部607では、画像濃度の明暗を基本に文字領域と非文字領域の2値データと黒文字データを出力する。2値画像生成部609では、2値化部607から出力された2値データに対して可逆変換であるMMR圧縮を行う。黒画像生成部608では、2値化部607から出力された黒文字データに対して可逆変換であるMMR圧縮を行う。第1解像度変換部610および第2解像度変換部611では、画像データに対して解像度変換を行い、解像を低くする(150dpi)。背景画像生成部612では、2値化部607で文字領域となった領域の画像データを、白に相当する一定の値の画像データの書き換え非可逆圧縮のJPEG圧縮を行う。文字画像生成部613は、文背景領域となった領域の画像データを、一定の値の画像データの書き換え非可逆圧縮のJPEG圧縮を行う。このように背景画像に対しては文字部を一定の値のデータにするのは、一定の値にすることより圧縮が向上するからである。また、文字画像に関しても、背景画像を一定の値にするのも圧縮の向上のためである。   The binarization unit 607 outputs binary data and black character data of the character area and the non-character area based on the lightness and darkness of the image density. The binary image generation unit 609 performs MMR compression that is reversible conversion on the binary data output from the binarization unit 607. The black image generation unit 608 performs MMR compression that is reversible conversion on the black character data output from the binarization unit 607. The first resolution conversion unit 610 and the second resolution conversion unit 611 perform resolution conversion on the image data to reduce the resolution (150 dpi). In the background image generation unit 612, JPEG compression is performed on the image data in the region that has become the character region in the binarization unit 607 by rewriting lossless compression of image data having a constant value corresponding to white. The character image generation unit 613 performs JPEG compression of image data of a region that has become a sentence background region by rewriting lossless compression of image data of a certain value. The reason why the character portion is set to a constant value for the background image is that the compression is improved by setting the constant value. Also for the character image, the background image is set to a constant value in order to improve compression.

なお、第1解像度変換部610および第2解像度変換部611における解像度変換の解像度については、文字画像は背景画像ほど解像度がいらないので、75dpi程度でも構わない。書誌情報に、文字のみ原稿である時は、背景画像と文字画像の両方を75dpiの解像度でJPEGファイルを作成する。文字に関して解像度を落とすのは、文字の解像度はMMRの解像度で保証しているので、JPEG画像のdpiを落としても階調劣化するが問題とならない。解像度を落とすことによりファイルサイズを小さくすることが可能になる。本実施の形態では、画像解像度を落とすことにファイルサイズを小さくしたが、画像の解像以外の階調数など画像品質を落としてファイルサイズを小さくしてもよい。蓄積データに書誌情報として文字のみ原稿ありなしの記載があるので、蓄積データ後の画像データに対して、文字のみ原稿に対して圧縮率を高くすることが可能となっている。   Note that the resolution of the resolution conversion in the first resolution conversion unit 610 and the second resolution conversion unit 611 may be about 75 dpi because the character image does not require as much resolution as the background image. If the bibliographic information is a document containing only characters, a JPEG file is created with a resolution of 75 dpi for both the background image and the character image. The resolution of characters is reduced because the resolution of the characters is guaranteed by the MMR resolution, so even if the dpi of the JPEG image is dropped, gradation degradation does not matter. The file size can be reduced by reducing the resolution. In the present embodiment, the file size is reduced by reducing the image resolution. However, the file size may be reduced by reducing the image quality such as the number of gradations other than the resolution of the image. Since there is a description that only text is included in the stored data as bibliographic information, it is possible to increase the compression ratio of the text-only document relative to the image data after the stored data.

画像ファイル合成部614では、2値画像生成部609の出力(MMR)、黒画像生成部608の出力(MMR)、背景画像生成部612の出力(JPEG)、文字画像生成部613の出力(JPEG)の4つの画像を1のファイル化を行う。このときのファイル形式は、汎用フォーマット(PDFファイルなど)を用いても構わない。   The image file composition unit 614 outputs the binary image generation unit 609 (MMR), the black image generation unit 608 (MMR), the background image generation unit 612 (JPEG), and the character image generation unit 613 (JPEG). 4) is converted into one file. As the file format at this time, a general-purpose format (such as a PDF file) may be used.

ここで、2値化部607について図7を参照して詳述する。2値化部607では、複数の特徴量を抽出することにより2値化を行う。以下の処理は、逐次処理であり、1つの処理が終わると隣の画素の処理を行い、1ラインが次のラインの先頭から処理を行い画像の終わりで処理を続ける。RGB画像データは数字が多くなると黒くなり、数字が小さくなると白くなるものとする。   Here, the binarization unit 607 will be described in detail with reference to FIG. The binarization unit 607 performs binarization by extracting a plurality of feature amounts. The following processes are sequential processes. When one process is completed, the adjacent pixel is processed, and one line is processed from the beginning of the next line, and the process is continued at the end of the image. It is assumed that the RGB image data becomes black when the number increases and becomes white when the number decreases.

図7に示すように、2値化部607は、文字解像度変換部701、2値化部702、マスク部703、黒抽出部704、文字判定+文字なか判定部705により構成されている。   As shown in FIG. 7, the binarization unit 607 includes a character resolution conversion unit 701, a binarization unit 702, a mask unit 703, a black extraction unit 704, and a character determination + character determination unit 705.

文字解像度変換部701は、圧縮伸張処理部501にて伸張したデータである文字エッジ領域と色領域信号を画像に施した解像度と同じ解像度で解像度変換(300dpi)を施し、画像データと画素密度を同一にする。ここでの出力は、文字エッジ及び色とする。   The character resolution conversion unit 701 performs resolution conversion (300 dpi) at the same resolution as the character edge region and color region signal, which is the data expanded by the compression / decompression processing unit 501, and converts the image data and the pixel density. Make the same. The output here is character edges and colors.

2値化部702は、1ライン毎に閾値を変更して2値化する適応2値化部706と適応2値化の出力の孤立点を除去する第1孤立点除去部707とからなる。適応2値化部706は、色地上文字や白地上文字を抽出するために、エッジの色を検出して1ライン毎に閾値を変更するものであり、図8に示すように、閾値算出部708と2値化部709とからなる。   The binarization unit 702 includes an adaptive binarization unit 706 that binarizes by changing a threshold value for each line, and a first isolated point removal unit 707 that removes isolated points from the output of adaptive binarization. The adaptive binarization unit 706 detects the color of the edge and changes the threshold value for each line in order to extract the color ground character and the white ground character. As shown in FIG. 708 and a binarization unit 709.

図9に示すように、注目画素○の主走査方向に対して左右2画素の参照画素▽△で下記条件を満たす場合に、2値化閾値対象画素とする。
(○―▽)>th2 or (○―△)>th2
なお、th2は、画像の入力特性により決まる固定値である。閾値算出部708は、1ラインで2値化対象画素のRGB独立に平均を求め、その平均した値を閾値とする。また、閾値算出部708は、1ライン中に2値化対象画素がない場合は、所定の値を閾値とする。2値化部709は、閾値算出部708で求めた閾値に対して、入力画像のRGBの値が1つでも閾値を超えていれば、黒(on)として判定し、黒(on)で無い時は、白(off)として出力する。なお、図8にラインメモリ710があるのは、閾値算出部708で計算した結果で2値化しようとすると、処理が1ラインずれるので、ずれないように1ラインメモリで1ライン遅延をしている。このようにライン毎に閾値を変更することで、地肌や背景の色に依存せずに色地上ものや白地上の文字を良好に抽出することが可能となる。
As shown in FIG. 9, when the following condition is satisfied with the reference pixels ▽ Δ of two pixels on the left and right with respect to the main scanning direction of the target pixel ○, it is determined as a binarization threshold target pixel.
(○-▽)> th2 or (○-△)> th2
Note that th2 is a fixed value determined by the input characteristics of the image. The threshold value calculation unit 708 obtains an average of the binarization target pixels independently for RGB in one line, and uses the averaged value as a threshold value. In addition, when there is no binarization target pixel in one line, the threshold calculation unit 708 sets a predetermined value as the threshold. The binarization unit 709 determines black (on) and not black (on) if at least one RGB value of the input image exceeds the threshold with respect to the threshold obtained by the threshold calculation unit 708. Time is output as white (off). Note that the line memory 710 in FIG. 8 is that the processing is shifted by one line when attempting to binarize based on the result calculated by the threshold calculation unit 708. Therefore, one line memory is delayed by one line so as not to shift. Yes. In this way, by changing the threshold value for each line, it is possible to satisfactorily extract characters on the color ground and white ground without depending on the background color or background color.

第1孤立点除去部707は、適応2値化の結果には孤立点が多く存在することから、その孤立点除去を行う。より具体的には、図10のパターンに対して一致した時は、注目画素を反転することにより孤立点を除去する。   The first isolated point removing unit 707 removes the isolated point because there are many isolated points in the result of the adaptive binarization. More specifically, when the pattern matches the pattern of FIG. 10, the isolated point is removed by inverting the target pixel.

次に、中間濃度領域検出手段であるマスク部703について説明する。マスク部703は、図7に示すように、N値化部711、第1網点検出部712、第2網点検出部713、第1グレー検出部714、第2グレー検出部715、下地検出部716により構成されている。   Next, the mask unit 703 that is an intermediate density region detection unit will be described. As shown in FIG. 7, the mask unit 703 includes an N-value conversion unit 711, a first halftone dot detection unit 712, a second halftone dot detection unit 713, a first gray detection unit 714, a second gray detection unit 715, and a background detection. Part 716.

N値化部711は、後述する網点検出の特徴とグレー検出の特徴とをN値の値にして共通に使用する。RGB差の小さいデータ(bk)は、thabkより値が大きい時は黒文字として、RGB差の大きなデータは、YMCBGRの6色相に色を分けて色相ごとに閾値(thay、tham、thac、thab、thag、thar)を分けて2値化処理を行い、色の濃いものをアクティブ画素(文字)として2値化処理を行う。色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まる。ただし、出力結果は色相別に保持する。ここでは、以下の様に定義する。なお、()は、bit表示を示す。
Dtah=0(000):該当なし
Dtah=1(001):黄色
Dtah=2(010):マゼンタ
Dtah=3(011):赤
Dtah=4(100):シアン
Dtah=5(101):緑
Dtah=6(110):青
Dtah=7(111):黒
さらに、N値化部711は、白のレベルも同様に2値化を行う。RGB差の小さいデータ(bk)は、thbbkより値が小さい時は白画素として、RGB差の大きなデータは、YMCBGRの6色相に色を分けて色相ごとに閾値(thby、thbm、thbc、thbb、thbg、thbr)を分けて2値化処理を行い、色の薄いものをアクティブ画素(白画素)として2値化処理を行う。また、黒に含まれるもので、更に黒い(濃い)色を抽出したものを濃い黒として、黒抽出時に使用する。さらに、N値化部711は、下地の抽出を行う。下地も白レベルと同様であるが、閾値は白レベルと文字の閾値と中間の値を使用して、下地の閾値より白ければ下地とする。下地領域、グレー領域、文字領域の関係は、図11のようになる。下地領域の濃い方とグレー領域の薄い方とでは、2つの領域をまたがる濃度域が存在する。その理由は、下地領域、グレー領域ともパターンマッチングである程度の大きさの領域がないと領域判定しないため、ある程度の重なりがないと、下地領域とグレー判定の近傍の均一画像の濃度領域であっても、下地領域とグレー領域にまたがった場合に、下地領域とグレー領域のどちらの領域に該当しなくなるのを防ぐためである。
The N-value conversion unit 711 commonly uses a halftone dot detection feature and a gray detection feature, which will be described later, as N value values. Data with a small RGB difference (bk) is a black character when the value is larger than thabk, and data with a large RGB difference is divided into six colors of YMCBGR and the thresholds (thay, tham, thac, thab, thag) for each hue. , Thar) is divided and binarization processing is performed, and binarization processing is performed with a dark color as an active pixel (character). The method of dividing the hue may be simply based on the magnitude relationship of RGB or may be determined by the ratio of RGB colors. This is determined by the characteristics of the input image. However, the output result is held for each hue. Here, it is defined as follows. In addition, () shows a bit display.
Dtah = 0 (000): Not applicable
Dtah = 1 (001): Yellow
Dtah = 2 (010): Magenta
Dtah = 3 (011): Red
Dtah = 4 (100): Cyan
Dtah = 5 (101): Green
Dtah = 6 (110): Blue
Dtah = 7 (111): Black Further, the N-value conversion unit 711 also binarizes the white level. Data with a small RGB difference (bk) is a white pixel when the value is smaller than thbbk, and data with a large RGB difference is divided into six hues of YMCBGR, and threshold values (thby, thbm, thbc, thbb, The binarization process is performed separately for thbg and thbr), and the binarization process is performed with a light color as an active pixel (white pixel). Moreover, what is contained in black and further extracted from a black (dark) color is made dark black and used when extracting black. Further, the N-value conversion unit 711 performs background extraction. The background is the same as the white level, but the threshold is an intermediate value between the white level and the character threshold. The relationship between the base area, the gray area, and the character area is as shown in FIG. There is a density range that spans two areas, the darker of the background area and the thinner gray area. The reason is that both the background area and the gray area are determined by pattern matching unless there is an area of a certain size, so if there is no overlap, the background area and the density area of the uniform image near the gray determination This is also to prevent any of the background area and the gray area from being lost when the background area and the gray area are straddled.

第1網点検出部712においては、スキャナ補正部112で細かな網点は平滑化処理にて網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化を行うことができずに網点のドット形状が残っており、この粗い網点を検出することを目的とする。ここでは、網点のパターンマッチングを行う。ここでは、Dtah≠0の時に黒画素として、N値化の白画素を白画素とする。第1網点検出部712における網点検出処理について図12のフローチャートを参照して説明する。図12に示すように、まず、1画素の前の処理結果であって網点のカウント値であるMSと1ライン前の処理結果であるSS[i]を比較し(ステップS1)、MSよりもSS[i]が大きな場合には(ステップS1のY)、MSをSS[I]に置き換え(ステップS2)、ステップS3に進む。一方、MSよりもSS[i]が大きくない場合には(ステップS1のN)、そのままステップS3に進む。すなわち、1ライン前の結果と1画素前の処理結果の大きい方の値をもってくる。   In the first halftone dot detection unit 712, the halftone dot shape is eliminated by the smoothing process in the fine dot in the scanner correction unit 112, but the rough halftone dot such as a newspaper photograph is sufficiently smoothed. The dot shape of the halftone dot remains, and the object is to detect this rough halftone dot. Here, halftone dot pattern matching is performed. Here, when Dtah ≠ 0, a black pixel is set, and an N-valued white pixel is set as a white pixel. The halftone dot detection process in the first halftone dot detection unit 712 will be described with reference to the flowchart of FIG. As shown in FIG. 12, first, MS which is the processing result of one pixel and is a halftone dot count value is compared with SS [i] which is the processing result of one line before (step S1). If SS [i] is also large (Y in step S1), MS is replaced with SS [I] (step S2), and the process proceeds to step S3. On the other hand, when SS [i] is not larger than MS (N in step S1), the process proceeds to step S3 as it is. That is, the larger value of the result of the previous line and the processing result of the previous pixel is obtained.

続くステップS3では、図13に示す白画素のパターンマッチングにより白パターンか否かを判断する。白画素がパターンと一致している場合には(ステップS3のY)、MSを0、S[i]=0として、S[i]の次のラインで使用し(ステップS4)、非網点画素とする(ステップS8)。一方、パターン一致しない場合には(ステップS3のN)、ステップS5に進む。   In the subsequent step S3, it is determined whether or not the pattern is a white pattern by pattern matching of white pixels shown in FIG. If the white pixel matches the pattern (Y in step S3), MS is set to 0, S [i] = 0, and it is used in the next line of S [i] (step S4), and the non-halftone dot A pixel is set (step S8). On the other hand, if the patterns do not match (N in step S3), the process proceeds to step S5.

ステップS5では、図14に示す網点のパターンマッチングにより網点パターンか否かを判断する。図14においては、●は黒画素、○は非黒画素である。網点パターンと一致している場合には(ステップS5のY)、MSを1インクリメントし(ステップS6)、ステップS7に進む。一方、網点パターンと一致していない場合には(ステップS5のN)、そのままステップS7に進む。なお、網点検出精度向上のために、非黒画素に、白画素を数個含む条件を増やして精度を上げても良い。   In step S5, it is determined whether or not the pattern is a halftone dot pattern by the halftone dot pattern matching shown in FIG. In FIG. 14, ● is a black pixel, and ◯ is a non-black pixel. If it matches the halftone dot pattern (Y in step S5), MS is incremented by 1 (step S6), and the process proceeds to step S7. On the other hand, if it does not match the halftone dot pattern (N in step S5), the process proceeds to step S7 as it is. In order to improve halftone dot detection accuracy, the accuracy may be increased by increasing the condition of including several white pixels in non-black pixels.

ステップS7では、網点画素か否かを判定する。具体的には、S[i]=MSとして、S[i]を次のラインで使用し、MS>5か否かを判断する。MS>5ならば(ステップS7のY)、網点画素とし(ステップS9)、MS>5でなければ(ステップS7のN)、非網点画素とする(ステップS8)。   In step S7, it is determined whether the pixel is a halftone pixel. Specifically, S [i] = MS is used, and S [i] is used in the next line to determine whether MS> 5. If MS> 5 (Y in step S7), a halftone dot pixel is set (step S9). If MS> 5 is not satisfied (N in step S7), a non-halftone dot pixel is set (step S8).

最後に、網点のカウント値であるMSを1ライン前の処理結果SS[j]とし(ステップS10)、処理を終了する。   Finally, the halftone dot count value MS is set to the processing result SS [j] one line before (step S10), and the processing is terminated.

次に、第2網点検出部713について簡単に説明する。第1網点検出部712においては画像データを順方向で処理していたが、第2網点検出部713においては逆方向で処理を行う。第1網点検出部712では、網点の先端部が網点とならない部分を逆読みすることにより、網点となるようにしている。   Next, the second halftone dot detection unit 713 will be briefly described. The first halftone dot detection unit 712 processes image data in the forward direction, but the second halftone dot detection unit 713 performs processing in the reverse direction. In the first halftone dot detection unit 712, the tip of the halftone dot is reversely read so that the halftone dot becomes a halftone dot.

このように第1網点検出部712および第2網点検出部713における網点検出においては、白パターンから白パターンの間に一定以上の網点パターンがあれば網点と検出する。これは、文字は一般的に白地上文字であるから、白地上文字は、網点パターンが文字のエッジ近傍しかないので誤検出することはほとんどない。Y成分持つ色データ(黄、緑、赤、黒)を黒画素として同様の処理(第1網点検出部712および第2網点検出部713)を行う。更に、M成分持つ色データ(赤、マゼンタ、青、黒)、C成分をもつ色データ(シアン、青、緑、黒)もY成分を同様に行う。Y、M、C成分に展開したのは、印刷のインクの成分はYMCなので、インクのドット再現を正確に抽出するためである。   In this way, in the halftone dot detection in the first halftone dot detection unit 712 and the second halftone dot detection unit 713, if there is a halftone dot pattern between a white pattern and a white pattern, a halftone dot is detected. This is because characters are generally white ground characters, and white ground characters are rarely erroneously detected because the halftone dot pattern is only near the edges of the characters. The same processing (first halftone dot detection unit 712 and second halftone dot detection unit 713) is performed using color data having a Y component (yellow, green, red, black) as black pixels. Further, color data having M component (red, magenta, blue, black) and color data having C component (cyan, blue, green, black) are similarly subjected to Y component. The reason why the Y, M, and C components are developed is that the ink dot reproduction is accurately extracted because the ink component for printing is YMC.

第1グレー検出部714は、文字領域は濃く、文字周辺の領域は薄いことを利用して、文字領域の濃さより薄く、文字周辺の領域より濃いところを中濃度としてグレー判定を行う。グレー判定で使用する白地は、N値化の白画素である。第1グレー検出部714におけるグレー検出処理について図15のフローチャートを参照して説明する。図15に示すように、まず、1画素の前の処理結果であって白画素のカウント値であるMSと1ライン前の処理結果であるSS[i]を比較し(ステップS11)、MSよりもSS[i]が大きな場合には(ステップS11のY)、MSをSS[I]に置き換え(ステップS12)、ステップS13に進む。一方、MSよりもSS[i]が大きくない場合には(ステップS11のN)、そのままステップS13に進む。すなわち、1ライン前の結果と1画素前の処理結果の大きい方の値をもってくる。   The first gray detection unit 714 uses the fact that the character area is dark and the area around the character is thin, and performs gray determination with a density that is lighter than the character area and darker than the character area. The white background used in the gray determination is an N-valued white pixel. The gray detection processing in the first gray detection unit 714 will be described with reference to the flowchart of FIG. As shown in FIG. 15, first, MS which is the processing result of the previous pixel and is the count value of the white pixel is compared with SS [i] which is the processing result of the previous line (step S11). If SS [i] is also large (Y in step S11), MS is replaced with SS [I] (step S12), and the process proceeds to step S13. On the other hand, if SS [i] is not larger than MS (N in step S11), the process proceeds to step S13 as it is. That is, the larger value of the result of the previous line and the processing result of the previous pixel is obtained.

続くステップS13では、図16に示すパターンマッチングによりグレーパターンか否かを判断する。中濃度がグレーパターンと一致している場合には(ステップS13のY)、MSを5、S[i]=0として、S[i]の次のラインで使用し(ステップS14)、グレー画素とする(ステップS19)。一方、パターン一致しない場合には(ステップS13のN)、ステップS15に進む。ここで、中濃度とは、N値化で、Dtah=0、かつ、非白画素の時である。   In a succeeding step S13, it is determined whether or not the pattern is a gray pattern by pattern matching shown in FIG. If the medium density matches the gray pattern (Y in step S13), MS is set to 5 and S [i] = 0, and it is used in the next line of S [i] (step S14), and the gray pixel is used. (Step S19). On the other hand, if the patterns do not match (N in step S13), the process proceeds to step S15. Here, the medium density is N-value conversion, Dtah = 0, and a non-white pixel.

ステップS15では、白画素であるか否かを判断する。ここで、白画素とは、N値化の白画素のことである。白画素である場合には(ステップS15のY)、MS>0か否かを判断する(ステップS16)。MS>0ならば(ステップS7のY)、MSを1デクリメントし(ステップS17)、ステップS18に進む。MS>0でなければ(ステップS16のN)、非グレー画素として、S[i]=MSとして、S[i]を次のラインで使用する(ステップS20)。一方、白画素でない場合には(ステップS15のN)、そのままステップS18に進む。   In step S15, it is determined whether or not the pixel is a white pixel. Here, the white pixel is an N-valued white pixel. If it is a white pixel (Y in step S15), it is determined whether MS> 0 (step S16). If MS> 0 (Y in step S7), the MS is decremented by 1 (step S17), and the process proceeds to step S18. If MS> 0 is not satisfied (N in step S16), S [i] is used in the next line as S [i] = MS as a non-gray pixel (step S20). On the other hand, if it is not a white pixel (N in step S15), the process proceeds to step S18 as it is.

ステップS18では、グレー画素か否かを判定する。具体的には、S[i]=MSとして、S[i]を次のラインで使用し、MS>0か否かを判断する。MS>0ならば(ステップS18のY)、グレー画素とし(ステップS19)、MS>0でなければ(ステップS19のN)、非グレー画素とする(ステップS20)。   In step S18, it is determined whether or not the pixel is a gray pixel. Specifically, S [i] = MS is used, and S [i] is used in the next line to determine whether MS> 0. If MS> 0 (Y in Step S18), the pixel is a gray pixel (Step S19), and if MS> 0 (N in Step S19), the pixel is a non-gray pixel (Step S20).

最後に、白画素のカウント値であるMSを1ライン前の処理結果SS[j]とし(ステップS21)、処理を終了する。   Finally, MS, which is the count value of white pixels, is set as the processing result SS [j] of the previous line (step S21), and the processing ends.

次に、第2グレー検出部715について簡単に説明する。第1グレー検出部714においては画像データを順方向で処理していたが、第2グレー検出部715においては逆方向で処理を行う。逆方向で処理することにより、グレー領域先端がグレーとならなかった部分をグレーとしている。   Next, the second gray detection unit 715 will be briefly described. The first gray detection unit 714 processes image data in the forward direction, but the second gray detection unit 715 performs processing in the reverse direction. By processing in the reverse direction, the portion where the tip of the gray area is not gray is gray.

続いて、下地検出部716について説明する。適応2値化部706でライン毎に閾値を切り換えて薄い領域においても文字判定する場合、薄い領域すべてが文字判定になれば問題はないが、閾値が薄い領域の画像をまたがっていると、2値化部での結果が白黒の変化点が多く最終画像においてファイルサイズが大きくなってしまう。そこで、単純のグレー判定の領域の下限値(白側)を白寄りにすると、色地上の文字が文字判定できなくなるので、ここで、下地を検出する。下地に足して4×5のANDを行い、次に2×3のORを行う。このことにより入力データに対して下地を小さくしている。このことにより、文字周辺の下地は文字と下地の境界部も下地となり、下地の領域を小さくしているので文字を下地に含みにくくなるため、良好に下地を検出できる。   Next, the background detection unit 716 will be described. When the adaptive binarization unit 706 switches the threshold value for each line and character determination is performed even in a thin area, there is no problem if all the thin areas are character determinations. There are many black and white change points in the result of the value conversion unit, and the file size becomes large in the final image. Therefore, if the lower limit value (white side) of the simple gray determination area is set closer to white, the character on the color ground cannot be determined, so the background is detected here. Add 4 × 5 AND to the ground, then perform 2 × 3 OR. This reduces the background for input data. Thus, the background around the character is also the boundary between the character and the background, and since the background area is reduced, it is difficult to include the character in the background, so that the background can be detected satisfactorily.

次に、高濃度領域検出手段である黒抽出部704について説明する。黒抽出部704は、後段の文字なか判定時に使用するため、(非常に)濃い領域を抽出する。黒抽出部704は、第2孤立点除去部717を備えている。第2孤立点除去部717は、2×3のANDと2×3のORを行い、孤立点除去を行う。このことにより、(非常に)濃い領域のかたまりのみを抽出することが可能となる。   Next, the black extraction unit 704 which is a high density area detection unit will be described. The black extraction unit 704 extracts a (very) dark area for use in determining whether the character is in the subsequent stage. The black extraction unit 704 includes a second isolated point removal unit 717. The second isolated point removal unit 717 performs 2 × 3 AND and 2 × 3 OR to perform isolated point removal. This makes it possible to extract only a cluster of (very) dark areas.

続いて、文字判定手段である文字判定+文字なか判定部705について説明する。   Next, the character determination + character determination unit 705 that is character determination means will be described.

まず、文字判定について説明する。文字領域(第1孤立点除去部707の出力)であり、網点領域(第1網点検出部712および第2網点検出部713の出力)でなく、グレー領域(第1グレー検出部714および第2グレー検出部715の出力)でなく、下地領域(下地検出部716の出力)でなく、文字なか(後述する文字なか判定結果)でなければ、文字とする。このように文字領域を、下地領域、網点領域およびグレー領域と論理演算を行うのは、文字判定結果が本来、解像度の必要ない写真領域を文字領域としていため、写真領域として補正をするようにしたものである。特に、写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率の向上を図るとともに、画像も文字非文字の混在が少なくなり画質向上も望める。文字なか判定結果を文字判定結果から除外しているのは、黒文字を黒単色で出力するので、圧縮率を向上されるために文字画像を固定値にするためである。   First, character determination will be described. It is a character region (output of the first isolated point removal unit 707), not a halftone region (outputs of the first halftone dot detection unit 712 and the second halftone dot detection unit 713), but a gray region (first gray detection unit 714). If it is not a background area (output of the background detection section 716), but a character (result of determination of whether it is a character to be described later), not a character. The reason why the character area is logically operated with the background area, the halftone dot area, and the gray area in this way is that the character determination result is originally a photo area that does not require resolution, and is corrected as a photo area. It is a thing. In particular, the photographic region contains a large number of isolated points, and by performing this correction, it is possible to improve the compression rate of the character image and to reduce image and character non-character mixing, and to improve image quality. The reason why the character determination result is excluded from the character determination result is that black characters are output in a single black color, so that the character image is set to a fixed value in order to improve the compression rate.

次に、文字なか判定について説明する。文字のなかの判定においては誤判定が必ずあるので、濃い黒を検出して画像に影響ないように、太文字(線幅太い線)を対象として濃い黒も出力できるようにしている。これらは、図示しない操作部より操作する。出力は、下記に示すような(1)文字なか判定、(2)濃い黒判定の2種類の内1つを選択する。   Next, the character determination will be described. Since there is always a misjudgment in the determination of characters, dark black can be output for thick characters (line with thick line width) so that dark black is detected and does not affect the image. These are operated from an operation unit (not shown). As the output, one of the following two types is selected: (1) determination of character determination, and (2) dark black determination.

(1).文字なか判定
文字なか判定は、図17に示すように、文字判定、3ラインOR、絵柄判定、黒判定、抽出1、抽出2、と2つのミラーからなる。
(1). Determining whether or not it is a character The determination of whether or not a character is made up of two mirrors: character determination, three-line OR, picture determination, black determination, extraction 1, and extraction 2, as shown in FIG.

(1.1).文字判定
前段の像域分離の出力結果である文字判定結果と色判定結果の論理演算をとり、文字であってかつ色でなければ、黒文字エッジをして出力する。
(1.1). Character determination The logical operation of the character determination result and the color determination result, which is the output result of the image area separation in the previous stage, is taken, and if the character is not a color, it is output with a black character edge.

(1.2).3ラインOR
文字判定の結果である黒文字エッジの3ライン×1画素のORをとる。本来は、この3ラインORではなく、抽出1の後に2ライン遅延を行って抽出2とライン遅延をあわせる必要があるが、抽出部1の後でライン遅延をすると画像データを遅延する必要が出てくるため、ここで3ラインORすることにより、ライン遅延を吸収している。
(1.2). 3 line OR
An OR of 3 lines × 1 pixel of the black character edge as a result of character determination is taken. Originally, instead of this three-line OR, it is necessary to perform a two-line delay after the extraction 1 to match the line delay with the extraction 2, but if a line delay is performed after the extraction unit 1, it is necessary to delay the image data. Therefore, the line delay is absorbed by ORing three lines here.

(1.3).絵柄判定
前段の像域分離の出力結果である色判定結果、グレー検出1の結果、グレー検出2の結果、網点検出1の結果、網点検出2の結果の何れかが1つでもonならば、絵柄と判定する。
(1.3). Image determination If any one of the color determination result, the gray detection 1 result, the gray detection 2 result, the halftone detection 1 result, and the halftone detection 2 result, which is the output result of the previous image area separation, is on. If it is a pattern, it is determined.

(1.4).絵柄判定
前段の像域分離の出力結果である色判定結果が、非色で、かつN値化で黒(Bkまたは、濃い黒)ならば、黒とする。
(1.4). Picture determination If the color determination result, which is the output result of the image area separation in the previous stage, is non-colored and black (Bk or dark black) in N-value, it is black.

(1.5).抽出1
文字なかを抽出するフローを図18に示す。以下説明は、3ラインORの出力を黒文字エッジ、絵柄判定の結果を絵柄、黒判定結果を黒として説明する。
a).注目画素判定
黒文字エッジならば、文字なか領域とする。
絵柄判定の結果が絵柄ならば、絵柄領域とする。
なお、像域分離のアルゴリズム上、文字と絵柄ともonになることはない。
b).高濃度判定
注目ラインが黒画素判定の結果が黒でなければ、中間領域とする。
c).1ライン前(絵柄)判定
線分処理後の1ライン前の判定結果が絵柄領域(写真領域)であれば、絵柄領域(写真領域)とする。
d).1画素前(絵柄)判定
1画素前の判定結果が絵柄領域(写真領域)であれば、絵柄領域(写真領域)とする。
e).1ライン前(文字なか)判定
線分処理後の1ライン前の判定結果が文字なか領域であれば、文字なか領域とする。
f).1画素前(文字なか)判定
1画素前の判定結果が文字なか領域であれば、文字なか領域とする。
g).上記以外
中間領域とする。
h).線分処理
最後に線分処理を行う。ここでは、色判定結果が色でなく、かつ、高濃度の画素が、144画素以上連続していれば、このモジュール(文字なか)では、中間領域として補正する。次段に出力するデータは、補正しない(線分処理前の結果を次段(判定部)に出力する)。
(1.5). Extraction 1
A flow for extracting characters is shown in FIG. In the following description, the output of the three lines OR is assumed to be a black character edge, the pattern determination result is a pattern, and the black determination result is black.
a). Attention pixel determination If it is a black character edge, it is set as an area within a character.
If the result of the pattern determination is a pattern, the pattern area is set.
Note that neither characters nor patterns are turned on in the image area separation algorithm.
b). High density determination If the target line is not black as a result of black pixel determination, it is determined as an intermediate region.
c). One line before (picture) determination If the determination result one line before after the line segment processing is a picture area (photograph area), it is determined as a picture area (photograph area).
d). Determination of one pixel before (pattern) If the determination result of one pixel before is a pattern area (photo area), the pattern area (photo area) is determined.
e). Judgment before one line (character) If the judgment result one line before after the line segment processing is an area that is not a character, an area is determined to be a character.
f). Determination of one pixel before (character) If the determination result one pixel before is a character or a region, the character is a region.
g). Other than above Intermediate area.
h). Line segment processing Finally, line segment processing is performed. Here, if the color determination result is not a color and 144 pixels or more of high-density pixels are continuous, this module (in the character) corrects it as an intermediate region. Data to be output to the next stage is not corrected (the result before the line segment processing is output to the next stage (determination unit)).

(1.6).抽出2、ミラー
抽出2では、逆像(ミラー)画像で文字なか判定をする。逆像での処理をパイプライン処理で実現するために、抽出2の前後でミラーをしている。抽出部1と同一なので説明は省略する。
(1.6). Extraction 2 and mirror In extraction 2, a reverse image (mirror) image is determined to be a character. In order to realize the reverse image processing by pipeline processing, mirroring is performed before and after the extraction 2. The description is omitted because it is the same as the extraction unit 1.

(1.7).判定部
抽出1と抽出2のミラーの出力が、両方が文字なか領域でかつ2値化部の出力が文字ならば黒文字とする。
(1.7). Determination unit If the output of the mirrors of extraction 1 and extraction 2 is both a character region and the output of the binarization unit is a character, it is assumed to be a black character.

(2).濃い黒判定
濃い黒判定は、黒抽出部704の抽出結果について、2値化部702の出力が文字ならば黒文字とする。
(2). Dark Black Determination In the dark black determination, if the output of the binarization unit 702 is a character, the black result is determined as a black character.

以上が、文字なか判定についての説明である。   This completes the description of the character determination.

このように、周辺画素の画像の状態を参照することで文字なか判定をすることにより、画像領域の文字の文字なかを判定することができる。   As described above, by referring to the state of the image of the surrounding pixels, it is possible to determine whether the character is the character in the image region by determining whether the character is a character.

文字エッジ領域と色領域は、読み取った画像で色や網点などを検出するので精度よく検出できる。また、文字なか検出の濃度情報についてフィルタ処理後のデータを用いるのは、網点で構成された文字に対しては網点領域が少なく文字エッジ領域になったりならなかったりするため、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字のなかとしている。新聞の写真の様にスクリーン線数の低い網点は、平滑化しても網点形状が残るので網点検出で検出して、カタログなどの一般的な原稿にあるスクリーン線数の高い網点は、平滑がかかり網点形状は無くなるので、網点面積率が30%から60%程度のものはグレー判定にてグレーと検出する。特に、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると文字なか判定が中途半端な結果となり、見苦しくなるのを避けるためである。   The character edge area and the color area can be detected with high accuracy because colors and halftone dots are detected from the read image. In addition, since the data after filtering is used for the density information for detection of characters, the halftone dot area is small for a character composed of halftone dots, and the character edge area is not used. Instead, the data after filtering (smoothed because it is not a character edge region) is used to make only the dark portion in the character. A halftone dot with a low screen line number, such as a newspaper photo, will remain in the screen even if it is smoothed. Since the screen is smoothed and the halftone dot shape disappears, a halftone dot area ratio of about 30% to 60% is detected as gray in the gray determination. In particular, since the leading edge of the character is narrow, it is difficult to form a halftone dot (non-character area). For example, if the leading edge is a character edge area and the central part of the character is determined to be a halftone dot, the determination of whether the character is halfway, This is to avoid being unsightly.

最後に、プリンタコントローラ115の入力フォーマット変換部503について説明する。図19は、入力フォーマット変換部503の構成を示すブロック図である。図19に示すように、入力フォーマット変換部503は、TIFFフォーマット展開部801と、JPEGフォーマット展開部802と、圧縮フォーマット展開部803と、出力選択部804とにより構成されている。TIFFフォーマット展開部801と、JPEGフォーマット展開部802と、圧縮フォーマット展開部803とは、各フォーマットをビットマップに展開する機能を持ち、出力選択部は3つのフォーマットの内、一つを選択して出力と同時にRGBデータをYMCBkにデータを変換する。入力画像データがTIFFフォーマットであれば、TIFFフォーマット展開部801にてビットマップデータで展開する。JPEGフォーマットであれば、JPEGフォーマット展開部802にてビットマップデータで展開する。さらに、圧縮フォーマットであれば、圧縮フォーマット展開部803にて展開する。   Finally, the input format conversion unit 503 of the printer controller 115 will be described. FIG. 19 is a block diagram illustrating a configuration of the input format conversion unit 503. As shown in FIG. 19, the input format conversion unit 503 includes a TIFF format expansion unit 801, a JPEG format expansion unit 802, a compression format expansion unit 803, and an output selection unit 804. The TIFF format expansion unit 801, the JPEG format expansion unit 802, and the compression format expansion unit 803 have a function of expanding each format into a bitmap, and the output selection unit selects one of the three formats. Simultaneously with the output, the RGB data is converted into YMCBk. If the input image data is in the TIFF format, the TIFF format expansion unit 801 expands it with bitmap data. In the case of the JPEG format, the JPEG format development unit 802 develops the bitmap data. Further, in the case of a compression format, the compression format expansion unit 803 expands the compressed format.

ここで、圧縮フォーマット展開部803について説明する。圧縮フォーマット展開部803は、画像ファイル展開部805と、2値画像展開部806と、黒画像展開部807と、背景画像展開部808と、文字画像展開部809と、画像ファイル合成部810とにより構成されている。   Here, the compression format expansion unit 803 will be described. The compression format development unit 803 includes an image file development unit 805, a binary image development unit 806, a black image development unit 807, a background image development unit 808, a character image development unit 809, and an image file composition unit 810. It is configured.

画像ファイル展開部805では、図6の圧縮フォーマット生成部605にて生成したファイルの中の4つファイルを後段の2値画像展開部806、黒画像展開部807、背景画像展開部808、文字画像展開部809にそれぞれ対応した画像データを出力する。   In the image file development unit 805, four files among the files generated by the compression format generation unit 605 in FIG. 6 are converted into a binary image development unit 806, a black image development unit 807, a background image development unit 808, and a character image. Image data corresponding to each of the development units 809 is output.

2値画像展開部806では、MMRを伸張してビットマップに展開し、黒画像展開部807では、MMRを伸張してビットマップに、背景画像展開部808では背景画像のJPEGをビットマップに、文字画像展開部809では文字画像のJPEGをビットマップに、それぞれ展開する。4つの展開したビットマップデータは、画像ファイル合成部810にて1枚のビットマップデータに合成される。   The binary image expansion unit 806 expands the MMR and expands it into a bitmap. The black image expansion unit 807 expands the MMR into a bitmap. The background image expansion unit 808 converts the JPEG of the background image into a bitmap. A character image expansion unit 809 expands each JPEG of the character image into a bitmap. The four developed bitmap data are synthesized into one piece of bitmap data by the image file synthesis unit 810.

画像ファイル展開部805では、2値画像展開部806の出力が文字領域であれば、文字画像展開部809の出力である画像データを出力し、2値画像展開部806の出力が非文字領域であれば、背景画像展開部808の出力である画像データを出力する。さらに、黒画像展開部807の出力が黒文字であれば、黒で出力する。このことにより1枚の画像を生成する。文字と非文字の解像度は2値画像の解像度となる。   In the image file development unit 805, if the output of the binary image development unit 806 is a character region, the image data output from the character image development unit 809 is output, and the output of the binary image development unit 806 is a non-character region. If there is, the image data that is output from the background image development unit 808 is output. Further, if the output of the black image development unit 807 is a black character, it is output in black. Thus, one image is generated. The resolution of characters and non-characters is the resolution of the binary image.

ここで、図20は入力画像、ファイル画像および出力画像のイメージを示す説明図である。   Here, FIG. 20 is an explanatory diagram showing images of an input image, a file image, and an output image.

このように本実施の形態によれば、文字エッジ領域と色領域とは、入力された画像データから像域分離されるので、精度よく検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができる。   As described above, according to the present embodiment, the character edge region and the color region are separated from the input image data, so that the character edge region and the color region can be accurately detected. By using the image data, it is possible to make only the dark part a character by using data after filtering (smoothed because it is not a character edge region) instead of halftone information. Therefore, it is possible to detect a character with high accuracy.

また、文字エッジ領域と色領域とを先に行い、配信時に固有の処理を後に行うことにより、スキャナコピーの同時動作などを行うことができる。また、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなる。   In addition, by performing the character edge area and the color area first, and performing the processing unique to the distribution later, it is possible to perform the scanner copy simultaneous operation and the like. In addition, since the determination of characters required for distribution is performed after the image data is stored in the storage unit, it is not necessary to store the determination result of characters that are not necessary for copying or the like, so that the amount of stored image data is reduced.

なお、本実施の形態においては、画像処理装置として、コピー機能、ファクシミリ(FAX)機能、プリンタ機能、および入力画像(読み取り原稿画像やプリンタ或いはFAX機能により入力された画像)を配信する機能、を複合したいわゆる複合機であるデジタルカラー複写機を適用したが、これに限るものではなく、プリンタ機能のみを有するプリンタ装置等であっても良い。   In the present embodiment, the image processing apparatus includes a copy function, a facsimile (FAX) function, a printer function, and a function for distributing an input image (read original image or image input by a printer or FAX function). Although a digital color copying machine which is a so-called composite machine is applied, the present invention is not limited to this, and a printer apparatus having only a printer function may be used.

また、本実施の形態のデジタルカラー複合機100では、各種処理が、デジタル回路構成のハードウェア資源であるプリンタコントローラ部102によって実行される例を示したが、これに限るものではなく、そのような各種処理を、デジタルカラー複合機100のハードウェア資源(例えば、HD)にインストールされたコンピュータプログラムによってCPUを動作させて実行するようにしても良い。   Further, in the digital color multifunction peripheral 100 of the present embodiment, an example in which various processes are executed by the printer controller unit 102 which is a hardware resource of a digital circuit configuration has been shown, but the present invention is not limited to this. Various processes may be executed by operating the CPU by a computer program installed in a hardware resource (for example, HD) of the digital color multifunction peripheral 100.

本発明の実施の一形態にかかるデジタルカラー複合機のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of a digital color multifunction peripheral according to an embodiment of the present invention. スキャナ補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a scanner correction | amendment part. 像域分離される文字エッジ領域を示す説明図である。It is explanatory drawing which shows the character edge area | region by which image area separation is carried out. プリンタ補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a printer correction | amendment part. プリンタコントローラの構成を示すブロック図である。2 is a block diagram illustrating a configuration of a printer controller. FIG. 出力フォーマット変換部の構成を示すブロック図である。It is a block diagram which shows the structure of an output format conversion part. 2値化部の構成を示すブロック図である。It is a block diagram which shows the structure of a binarization part. 適応2値化部の構成を示すブロック図である。It is a block diagram which shows the structure of an adaptive binarization part. 適応2値化部における適応2値化の参照画素を示す説明図である。It is explanatory drawing which shows the reference pixel of the adaptive binarization in an adaptive binarization part. 第1孤立点除去部における孤立点除去のパターンを示す説明図である。It is explanatory drawing which shows the pattern of the isolated point removal in a 1st isolated point removal part. 下地領域、グレー領域、文字領域の関係を示す説明図である。It is explanatory drawing which shows the relationship between a base area | region, a gray area | region, and a character area. 第1網点検出部における網点検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the halftone detection process in a 1st halftone detection part. 白画素のパターンマッチングに用いるパターンを示す説明図である。It is explanatory drawing which shows the pattern used for the pattern matching of a white pixel. 網点のパターンマッチングに用いるパターンを示す説明図である。It is explanatory drawing which shows the pattern used for the pattern matching of a halftone dot. 第1グレー検出部におけるグレー検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the gray detection process in a 1st gray detection part. グレーパターンマッチングに用いるパターンを示す説明図である。It is explanatory drawing which shows the pattern used for gray pattern matching. 文字判定+文字なか判定部における文字なか判定を示すブロック図である。It is a block diagram which shows character determination in a character determination + character determination part. 文字なかを抽出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which extracts a character. 入力フォーマット変換部の構成を示すブロック図である。It is a block diagram which shows the structure of an input format conversion part. 入力画像、ファイル画像および出力画像のイメージを示す説明図である。It is explanatory drawing which shows the image of an input image, a file image, and an output image.

符号の説明Explanation of symbols

100 画像処理装置
118 記憶部
122 画像形成手段
201 文字エッジ領域分離手段、色領域分離手段
203 フィルタ処理手段
703 中間濃度領域検出手段
704 高濃度領域検出手段
705 文字判定手段
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 118 Storage part 122 Image formation means 201 Character edge area | region separation means, Color area separation means 203 Filter processing means 703 Intermediate density area detection means 704 High density area detection means 705 Character determination means

Claims (5)

入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離手段と、
入力された画像データから色領域を像域分離する色領域分離手段と、
前記文字エッジ領域分離手段および前記色領域分離手段における像域分離結果に応じたフィルタ処理を実行するフィルタ処理手段と、
このフィルタ処理手段によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積手段と、
前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出手段と、
前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出手段と、
前記高濃度領域検出手段により検出された前記高濃度領域と前記中間濃度領域検出手段により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定手段と、
を備えることを特徴とする画像処理装置。
A character edge region separating means for separating a character edge region from input image data;
Color region separation means for separating a color region from input image data;
Filter processing means for performing filter processing according to an image area separation result in the character edge area separation means and the color area separation means;
Image storage means for storing the image data filtered by the filter processing means and the image area separation result in a storage unit;
High density area detection means for detecting a high density area for the image data stored in the storage unit;
Intermediate density area detecting means for detecting an intermediate density area for the image data stored in the storage unit;
By referring to the image state of surrounding pixels according to the high density area detected by the high density area detection means and the intermediate density area detected by the intermediate density area detection means, the inside of the black character and the character edge, that is, the character line Character judging means for judging whether the character means within the width;
An image processing apparatus comprising:
前記高濃度領域検出手段と前記中間濃度領域検出手段と前記文字判定手段とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される、
ことを特徴とした請求項1記載の画像処理装置。
The high density area detection means, the intermediate density area detection means, and the character determination means are re-executed to deliver the image data stored in the storage unit to another network-connected terminal.
The image processing apparatus according to claim 1.
前記記憶部に蓄積されている前記画像データに基づいて作像した画像を転写紙上に形成して出力する画像形成手段をさらに備えている、
ことを特徴とする請求項1または2記載の画像処理装置。
An image forming unit configured to form and output an image formed on the transfer paper based on the image data stored in the storage unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離機能と、
入力された画像データから色領域を像域分離する色領域分離機能と、
前記文字エッジ領域分離機能および前記色領域分離機能における像域分離結果に応じたフィルタ処理を実行するフィルタ処理機能と、
このフィルタ処理機能によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積機能と、
前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出機能と、
前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出機能と、
前記高濃度領域検出機能により検出された前記高濃度領域と前記中間濃度領域検出機能により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定機能と、
をコンピュータに実行させることを特徴とするプログラム。
A character edge region separation function for separating a character edge region from input image data,
A color region separation function for separating a color region from input image data;
A filter processing function for performing filter processing according to an image region separation result in the character edge region separation function and the color region separation function;
An image accumulating function for accumulating in the storage unit the image data that has undergone the filtering process by the filtering function and the image area separation result;
A high density area detection function for detecting a high density area for the image data stored in the storage unit;
An intermediate density area detection function for detecting an intermediate density area for the image data stored in the storage unit;
By referring to the image state of the surrounding pixels according to the high density area detected by the high density area detection function and the intermediate density area detected by the intermediate density area detection function, the inside of the black character and the character edge, that is, the character line A character determination function that determines whether a character means a width,
A program for causing a computer to execute.
前記高濃度領域検出機能と前記中間濃度領域検出機能と前記文字判定機能とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される、
ことを特徴とした請求項4記載のプログラム。
The high density area detection function, the intermediate density area detection function, and the character determination function are re-executed to deliver the image data stored in the storage unit to other terminals connected to the network.
The program according to claim 4, wherein:
JP2005227085A 2005-08-04 2005-08-04 Image processing apparatus and program Expired - Fee Related JP4515986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005227085A JP4515986B2 (en) 2005-08-04 2005-08-04 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005227085A JP4515986B2 (en) 2005-08-04 2005-08-04 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007043572A true JP2007043572A (en) 2007-02-15
JP4515986B2 JP4515986B2 (en) 2010-08-04

Family

ID=37801122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005227085A Expired - Fee Related JP4515986B2 (en) 2005-08-04 2005-08-04 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4515986B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041267A (en) * 2009-08-11 2011-02-24 Toshiba Corp Image formation device and method of controlling the same
JP2015195549A (en) * 2013-12-19 2015-11-05 キヤノン株式会社 Image processing system and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336443A (en) * 1997-04-04 1998-12-18 Ricoh Co Ltd Digital image reader
JP2003141519A (en) * 2001-10-31 2003-05-16 Ricoh Co Ltd Image data processing apparatus, color image forming apparatus, and image data processing method
JP2005064800A (en) * 2003-08-11 2005-03-10 Ricoh Co Ltd Apparatus and method for processing image, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336443A (en) * 1997-04-04 1998-12-18 Ricoh Co Ltd Digital image reader
JP2003141519A (en) * 2001-10-31 2003-05-16 Ricoh Co Ltd Image data processing apparatus, color image forming apparatus, and image data processing method
JP2005064800A (en) * 2003-08-11 2005-03-10 Ricoh Co Ltd Apparatus and method for processing image, and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041267A (en) * 2009-08-11 2011-02-24 Toshiba Corp Image formation device and method of controlling the same
JP2015195549A (en) * 2013-12-19 2015-11-05 キヤノン株式会社 Image processing system and image processing method

Also Published As

Publication number Publication date
JP4515986B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
JP4662066B2 (en) Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US7502150B2 (en) Color converting device, image forming apparatus, color conversion method, computer program and recording medium
JP3797669B2 (en) Image forming apparatus and image forming method
JP4898601B2 (en) Image processing apparatus, image processing method, and program thereof
JP4212876B2 (en) Image processing apparatus and image processing system
JP4515986B2 (en) Image processing apparatus and program
JP2004350240A (en) Image processing apparatus and image processing method
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2001186356A (en) Picture compression device, picture compresion method and computer readable storage medium
JP2010074318A (en) Image processing apparatus and method, and image processing program
JP2004112140A (en) Image processing apparatus
JP4616199B2 (en) Image processing apparatus and program
JP2007235430A (en) Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium
JP2007189275A (en) Image processor
JP4409871B2 (en) Color space conversion apparatus and image forming apparatus
JP2006270148A (en) Image processing method, image processor and image forming apparatus
JP2001309183A (en) Image processing unit and method
JP2006287707A (en) Image processor
JP2006262334A (en) Image processing apparatus and scanner distribution apparatus
JP2006041792A (en) Image processing apparatus
JP2006245736A (en) Color image processing apparatus, and network scanner apparatus
JP3522880B2 (en) Image processing apparatus and image forming apparatus
JP2006245727A (en) Image processing apparatus, network scanner apparatus, and color digital copying machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100513

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees