JP2007043572A - Image processor and program - Google Patents
Image processor and program Download PDFInfo
- Publication number
- JP2007043572A JP2007043572A JP2005227085A JP2005227085A JP2007043572A JP 2007043572 A JP2007043572 A JP 2007043572A JP 2005227085 A JP2005227085 A JP 2005227085A JP 2005227085 A JP2005227085 A JP 2005227085A JP 2007043572 A JP2007043572 A JP 2007043572A
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- unit
- image data
- density area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Color Image Communication Systems (AREA)
- Color, Gradation (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、カラ−デジタル複写機やスキャナ配信装置の画像形成装置に利用される画像処理装置に関し、より詳細には、黒文字に対して適切な画像処理をする画像処理装置およびプログラムに関する。 The present invention relates to an image processing apparatus used for an image forming apparatus such as a color digital copying machine or a scanner distribution apparatus, and more particularly to an image processing apparatus and program for performing appropriate image processing on black characters.
近年、複写機においてはネットワーク化が進み、複写機が持つ機能をネットワーク接続した他の端末から利用することが可能になってきている。例えば、デジタルカラー複写機にネットワーク接続されたコンピュータ等の他の利用端末へ、複写機へ入力された画像データ(例えば、スキャナ部で原稿から読み取った画像データ)を配信する機能が提案され、徐々に活用され始めてきている。 In recent years, copying machines have been networked, and the functions of copying machines can be used from other terminals connected to the network. For example, a function for distributing image data (for example, image data read from a document by a scanner unit) input to a copying machine to other terminals such as a computer connected to a digital color copying machine over a network has been proposed. Has begun to be utilized.
この配信機能を使用する場合に、スキャン画像データを配信する例では、複写機側或いは配信先であるコンピュータ端末から各種の処理条件を設定し、設定された処理条件に従いスキャナを動作させ、読み取った原稿画像データに変換等所定の処理を施し、配信先に転送するという動作を行う。 In the example of distributing scanned image data when this distribution function is used, various processing conditions are set from the copying machine side or the computer terminal that is the distribution destination, and the scanner is operated and read in accordance with the set processing conditions. The document image data is subjected to a predetermined process such as conversion and transferred to a distribution destination.
この配信スキャナ機能を利用する際に、処理条件の設定に従って行われる画像読み取り・画像処理等に関する従来例として、特許文献1を示すことができる。
特許文献1には、複写機等の画像形成装置において、プリント・サーバやスキャン画像のサーバとして、機能の拡張を図るために、汎用コンピュータシステムのアーキテクチャをベースにした拡張ボックスを装備させたシステムが提案されている。ここでは、スキャン画像を拡張ボックス内のハードディスク装置に蓄積し、そこに蓄積された画像ファイルをネットワークに接続されたコンピュータシステムで共有し、その利用を各サーバ機能により実現できることが示されている。
また、特許文献1には、スキャン・ボックス機能(スキャン画像をクライアントコンピュータへ配信する機能の一つ)を利用する場合のスキャン画像の処理について示されている。ここでは、操作入力により設定された処理条件に従って、原稿の読み取り、スキャン原稿画像の処理を行うとしているが、スキャン・ボックス機能は、印刷出力を必ずしも予定していない場合に用いることから、印刷出力に必要になるYMCK系のデータフォーマットを生成せずに、つまり、スキャン画像のRGB系からYMCK系への色座標変換や階調補正、画像データの圧縮処理などは省略し、スキャン画像処理後のRGB系データをスキャン・ボックスに蓄積している。その後、ネットワークのクライアントコンピュータは、スキャン・ボックスから、画像データを蓄積時のRGB系のデータのまま取り出し、自身が持つ保存先であるローカル・ディスク等に転送している。クライアントコンピュータでは、転送されてきたRGB系のデータに基づいて、モニタ・ディスプレイでスキャン画像を閲覧することができるようにする、としている。 Japanese Patent Application Laid-Open No. 2004-151561 discloses scan image processing when a scan box function (one of functions for distributing a scan image to a client computer) is used. Here, the document reading and the scanned document image processing are performed according to the processing conditions set by the operation input. However, since the scan box function is used when the print output is not necessarily planned, the print output Without generating the YMCK data format required for the scan, that is, omitting the color coordinate conversion of the scanned image from the RGB system to the YMCK system, gradation correction, image data compression processing, etc. RGB data is stored in the scan box. Thereafter, the client computer of the network extracts the image data from the scan box as RGB data at the time of storage, and transfers it to a local disk or the like that is the storage destination of the image data. In the client computer, the scanned image can be viewed on a monitor / display based on the transferred RGB data.
一方、近年においては、カラープリンタ、カラー複写機などのカラー画像処理装置の普及に伴い、カラー画像の出力品質の向上が求められている。例えば、原稿が黒一色であった場合、黒を再生する信号として、イエロー、マゼンダ、シアン、ブラックの各信号が発生するが、各色が重ね合わせで再現されるため、各色間のずれによって黒線ににじみが発生し、ぼやけて見えてしまうことがある。 On the other hand, in recent years, with the spread of color image processing apparatuses such as color printers and color copying machines, improvement in output quality of color images has been demanded. For example, if the original is only black, yellow, magenta, cyan, and black signals are generated as black reproduction signals. Bleeding may occur and appear blurred.
そこで、このような出力品質の低下を防止するために、画像補正や画質調整について、フィルタ処理を切り換えることにより画像中の黒文字、黒線の特徴を生かす方法が提案されている。このフィルタ処理の切り換えとしては、像域分離処理結果である黒文字エッジ領域、色文字エッジ領域や写真領域に従って切り換えるものなどがある。 Therefore, in order to prevent such a decrease in output quality, a method has been proposed in which characteristics of black characters and black lines in an image are utilized by switching filter processing for image correction and image quality adjustment. Examples of the switching of the filter processing include switching according to the black character edge region, the color character edge region, and the photograph region, which are the image region separation processing results.
ところで、上述したような像域分離信号によるフィルタ処理の切り換えとしては、文字エッジ領域(黒文字エッジ領域と色文字エッジ領域)では、判読性を重視して鮮鋭化処理を行い、写真領域では、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行うようにしている。急峻なエッジを鮮鋭化するのは、絵の中の文字を判読しやすくするためである。このように、注目画素がいずれの領域に属するものか、像域分離結果に従い画像データに対して種々の画像処理を施すことにより、出力画像の画像品質を大きく向上させることができる。 By the way, as the switching of the filter processing by the image area separation signal as described above, sharpening processing is performed with emphasis on legibility in a character edge area (black character edge area and color character edge area), and in a photographic area, an image is displayed. A sharp density change in the data is used as an edge amount, and smoothing processing or sharpening processing is performed according to the edge amount. The sharp edges are sharpened to make the characters in the picture easier to read. As described above, the image quality of the output image can be greatly improved by performing various image processing on the image data according to the image area separation result as to which region the pixel of interest belongs to.
しかしながら、像域分離処理においては、網点で構成された文字について、網点領域が少ない場合には、文字エッジ領域になったりならなかったりするという問題がある。 However, in the image area separation process, there is a problem that a character composed of halftone dots may or may not become a character edge area when the halftone dot area is small.
また、特許文献1に記載されているようなスキャン画像処理後のRGB系データをスキャン・ボックスに蓄積している画像処理装置においては、スキャン画像のRGB系のデータに対して像域分離処理を行うため、文字エッジの内側すなわち文字線幅内を意味する「文字なか」を検出する際に、絵柄の中の高濃度領域が文字として検出されてしまうという問題がある。
In addition, in an image processing apparatus that stores RGB data after scan image processing in a scan box as described in
特に、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると文字なか判定が中途半端な結果となる。 In particular, since the leading end of a character is narrow, it is difficult to form a halftone dot (non-character region). For example, if the leading end is a character edge region and the center of the character is determined to be a halftone dot, the determination of whether the character is halfway is obtained. .
本発明は、上記に鑑みてなされたものであって、高精度に文字なかを検出することができる画像処理装置およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus and program capable of detecting a character with high accuracy.
上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離手段と、入力された画像データから色領域を像域分離する色領域分離手段と、前記文字エッジ領域分離手段および前記色領域分離手段における像域分離結果に応じたフィルタ処理を実行するフィルタ処理手段と、このフィルタ処理手段によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積手段と、前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出手段と、前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出手段と、前記高濃度領域検出手段により検出された前記高濃度領域と前記中間濃度領域検出手段により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定手段と、を備える。
In order to solve the above-described problems and achieve the object, the invention according to
また、請求項2にかかる発明は、請求項1記載の画像処理装置において、前記高濃度領域検出手段と前記中間濃度領域検出手段と前記文字判定手段とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the high density area detecting means, the intermediate density area detecting means, and the character determining means are stored in the storage unit. This is executed again when the image data is distributed to other terminals connected to the network.
また、請求項3にかかる発明は、請求項1または2記載の画像処理装置において、前記記憶部に蓄積されている前記画像データに基づいて作像した画像を転写紙上に形成して出力する画像形成手段をさらに備えている。 According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, an image formed based on the image data stored in the storage unit is formed on a transfer sheet and output. Forming means is further provided.
また、請求項4にかかる発明のプログラムは、入力された画像データから文字エッジ領域を像域分離する文字エッジ領域分離機能と、入力された画像データから色領域を像域分離する色領域分離機能と、前記文字エッジ領域分離機能および前記色領域分離機能における像域分離結果に応じたフィルタ処理を実行するフィルタ処理機能と、このフィルタ処理機能によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積機能と、前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出機能と、前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出機能と、前記高濃度領域検出機能により検出された前記高濃度領域と前記中間濃度領域検出機能により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定機能と、をコンピュータに実行させる。 According to a fourth aspect of the present invention, there is provided a program for separating a character edge area from a character edge area from input image data, and a color area separation function for separating a color area from input image data. A filter processing function for performing filter processing according to an image region separation result in the character edge region separation function and the color region separation function, and the image data and the image region subjected to the filter processing by the filter processing function An image accumulation function for accumulating the separation results in the storage unit, a high density area detection function for detecting a high density region for the image data accumulated in the storage unit, and the image accumulated in the storage unit An intermediate density area detection function for detecting an intermediate density area for the data; and the high density area and the intermediate density detected by the high density area detection function. A character determination function that determines whether a character means a black character and a character that is inside the character edge, that is, within the character line width, by referring to the image state of the peripheral pixel according to the intermediate density region detected by the region detection function. Let it run.
また、請求項5にかかる発明は、請求項4記載のプログラムにおいて、前記高濃度領域検出機能と前記中間濃度領域検出機能と前記文字判定機能とは、前記記憶部に蓄積されている前記画像データをネットワーク接続された他の端末へ配信する再に実行される。
The invention according to
請求項1にかかる発明によれば、文字エッジ領域と色領域とは、入力された画像データから像域分離されるので、精度よく検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができるという効果を奏する。 According to the first aspect of the present invention, the character edge region and the color region are separated from the input image data, so that the character edge region and the color region can be detected with high accuracy. By using the image data, it is possible to make only the dark part a character by using the data after filtering (smoothed because it is not a character edge region) instead of the halftone information. Mixing of character determination results is reduced, and it is possible to detect characters with high accuracy.
また、請求項2にかかる発明によれば、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなるという効果を奏する。 Further, according to the invention according to claim 2, since the determination of characters necessary for distribution is performed after the image data is stored in the storage unit, it is not necessary to store the determination result of characters unnecessary for copying or the like. There is an effect that the data of the stored image is reduced.
また、請求項3にかかる発明によれば、画像形成手段を備えるとともに、文字エッジ領域と色領域とを先に行い、配信時に固有の処理(高濃度領域検出手段と中間濃度領域検出手段と文字判定手段)を後に行うので、スキャナコピーの同時動作などを行うことができるという効果を奏する。 According to the invention of claim 3, the image forming unit is provided, the character edge region and the color region are performed first, and processing unique to the distribution (high density region detecting unit, intermediate density region detecting unit, and character Since the determination unit) is performed later, an effect is achieved in that it is possible to perform a scanner copy simultaneous operation and the like.
また、請求項4にかかる発明によれば、検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができるという効果を奏する。 According to the invention of claim 4, it is possible to detect, and for the detection of characters, by using the image data after the filtering process, not the halftone dot information but the filtering process (since it is not the character edge area, it is smoothed). Data) can be used to make only the dark part a character, so that the mixed judgment result of the character composed of halftone dots is reduced and the character can be detected with high accuracy. There is an effect.
また、請求項5にかかる発明によれば、文字エッジ領域と色領域とを先に行い、配信時に固有の処理(高濃度領域検出機能と中間濃度領域検出機能と文字判定機能)を後に行うことにより、スキャナコピーの同時動作などを行うことができるという効果を奏する。また、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなるという効果を奏する。
According to the invention of
以下に添付図面を参照して、この発明にかかる画像処理装置およびプログラムの最良な実施の形態を詳細に説明する。 Exemplary embodiments of an image processing apparatus and a program according to the present invention are explained in detail below with reference to the accompanying drawings.
本発明の実施の一形態を図1ないし図20に基づいて説明する。本実施の形態は、画像処理装置として、コピー機能、ファクシミリ(FAX)機能、プリンタ機能、および入力画像(読み取り原稿画像やプリンタ或いはFAX機能により入力された画像)を配信する機能、を複合したいわゆる複合機であるデジタルカラー複合機を適用した例を示す。 An embodiment of the present invention will be described with reference to FIGS. In this embodiment, as an image processing apparatus, a copy function, a facsimile (FAX) function, a printer function, and a function for distributing an input image (read original image or an image input by a printer or FAX function) are combined. An example in which a digital color multifunction peripheral, which is a multifunction peripheral, is applied will be described.
図1は、本実施の形態にかかるデジタルカラー複合機100のシステム構成を示すブロック図である。図1に示すデジタルカラー複合機100は、マイクロコンピュータ構成のメインコントローラ117を備え、メインコントローラ117がデジタルカラー複合機100の全体を集中的に制御する。また、デジタルカラー複合機100は、エンジン部101とプリンタコントローラ部102とに大別される。
FIG. 1 is a block diagram showing a system configuration of a digital color multifunction peripheral 100 according to the present embodiment. A digital color multifunction peripheral 100 shown in FIG. 1 includes a
まず、図1を参照して、コピー時の画像データの流れに沿ってデジタルカラー複合機100の各部の動作について説明する。 First, with reference to FIG. 1, the operation of each unit of the digital color multifunction peripheral 100 will be described along the flow of image data during copying.
エンジン部101の全体は、エンジンコントローラ110により制御される。このエンジン部101において、読み取りユニット111は、原稿の画像を読み取る画像読み取り部であり、原稿の画像はR,G,Bに色分解された画像データ(反射率リニア)として読み取られ、スキャナ補正部112に送られる。スキャナ補正部112では読み取りユニット111の読み取った機器固有のRGB信号から標準色空間上でのRGB信号に色の変換がなされる。ここで標準色空間に変換を行うのは、画像データの再利用を行うためである。
The
図2に示すように、スキャナ補正部112では、RGB画像データに対して、像域分離部201で像域分離処理、スキャナγ部202でスキャナγ補正処理、フィルタ処理部203でフィルタ処理、原稿種判定部204で原稿種判定処理が行われる。
As shown in FIG. 2, in the
文字エッジ領域分離手段及び色領域分離手段である像域分離部201は、原稿の画像領域(像域)を、異なる特徴を有する領域(文字・線画や写真などの領域)に分類(像域分離)する。本実施の形態においては、特開平2003-259115号公報で開示されている手法により、黒文字エッジ領域、色文字エッジ領域、その他(写真領域)の3つの領域に分離する。このように像域分離することにより、画像データには像域分離信号(文字エッジ領域、色領域)が画素毎に付与される。そして、原稿の画像領域(像域)は、このような像域分離信号に基づいて、黒文字エッジ領域(文字エッジ領域であり色領域でない)、色文字エッジ領域(文字エッジ領域であり色領域である)、写真領域に分類される(前記以外)。ここで、図3は像域分離される文字エッジ領域を示す説明図である。図3に示すように、文字エッジ領域の内側すなわち文字線幅内は、後述する文字なか領域である。
An image
スキャナγ部202は、RGB各チャネル毎の入力8bit、出力8bitのLUT(Look Up Table)であり、画像データを反射率リニアから濃度リニアのデータに変換する。
A
フィルタ処理手段であるフィルタ処理部203は、像域分離信号によりフィルタ処理を切り換える。文字エッジ領域(黒文字エッジ領域と色文字エッジ領域)では判読性を重視して鮮鋭化処理を行う。写真領域では、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行う。急峻なエッジを鮮鋭化するのは、絵の中の文字を判読しやすくするためである。このように、注目画素がいずれの領域に属するものか、像域分離結果に従い画像データに対して種々の画像処理を施すことにより、出力画像の画像品質を大きく向上させることができる。
A
原稿種判定部204は、特開2000-324338号公報に開示されている原稿判定ブロックを用いる。具体的には、文字あり原稿、有彩原稿、印画紙写真、印刷写真であるかをそれぞれ判定し、これらの4つの特徴量で、文字のみ原稿とカラー原稿であるかどうかの判定を行う。ここで、文字のみ原稿とは、原稿の中に文字しか存在しない原稿であり、上述した判定条件で、文字あり原稿(あり)、印画紙写真原稿(なし)、印刷写真原稿(なし)の条件の時である。また、カラー原稿は、有彩原稿(あり)の時である。なお、複写原稿やインクジェット原稿などの絵柄は階調処理を施しており、印画紙写真か印刷写真原稿のどちらかに分類される。この原稿種判定結果は、画像データを記憶部であるハードディスク(HDD)118に蓄積する時に、書誌情報として記録される。
The document
スキャナ補正部112で処理後のRGB各8bitの画像データと文字エッジ領域信号(1bit)、色領域信号(1bit)は、圧縮処理部113において圧縮処理される。この圧縮後の画像データは汎用バス114を介してプリンタコントローラ115に送られる。なお、汎用バス114の帯域が十分に広く、蓄積するハードディスク(HDD)118の容量が大きければ、非圧縮の状態でデータを扱っても良い。
The RGB 8-bit image data, character edge region signal (1 bit), and color region signal (1 bit) processed by the
プリンタコントローラ115は、画像データを記憶する半導体メモリ116を備えている。この半導体メモリ116には、メインコントローラ117の制御により、送られた画像データが蓄積される。また、記憶部であるハードディスク(HDD)118には、この半導体メモリ116に蓄積された画像データと、画像サイズや原稿種判定部204で判定された原稿の種類とが蓄積される。これは、デジタルカラー複合機100によるプリントアウト時に用紙がつまり、印字が正常に終了しなかった場合でも、再び原稿を読み直すのを避けるためであり、また、電子ソートを行うためである。近年はこれだけでなく、読み取った原稿を蓄積しておき、必要なときに再出力する機能も追加されている。すなわち、画像データは、一度半導体メモリ116に展開されハードディスク118に蓄積される(画像蓄積手段)。
The
画像データを出力する場合は、記憶部であるハードディスク118内の画像データは一度プリンタコントローラ115の半導体メモリ116に展開され、次に汎用バス114を介してエンジン部101に送られる。そして、エンジン部101のカラー・モノクロ多値データ固定長伸張器119は、送られた画像データを元のRGB各8bitデータと文字エッジ領域信号(1bit)、色領域信号(1bit)に伸張し、プリンタ補正部120に送出する。なお、図1では、カラー・モノクロ多値データ固定長圧縮器113およびカラー・モノクロ多値データ固定長伸張器119とあるが、固定長ではなく汎用の圧縮器および伸張器でもよい。このように、ハードディスク118に蓄積された画像データがエンジン部101に出力される前に一度半導体メモリ116に展開されるのは、ハードディスク118の書き込み速度と読み込み速度が一定でなく、不規則であるためである。ハードディスク118から読み出されたRGB画像データは、プリンタ補正部120によって書き込み制御部121および作像ユニット122に応じたYMCBkの色信号に変換され、文字エッジ領域信号であり色領域信号でない部分は、黒文字としてBkの単色データに置き換えられる。
When outputting image data, the image data in the
図4に示すように、プリンタ補正部120は、RGB各8bitデータに対して、YMCBkの色信号に変換する色補正処理部401と、作像ユニット122のγ特性に応じてγ補正を行うプリンタγ部402と、ディザ処理・誤差拡散処理などの量子化を行い、階調補正を行う中間調処理部403と、画像データ内の急峻な濃度変化をエッジ量として検出する量検出部404と、を備えている。
As shown in FIG. 4, the
色補正処理部401は、黒文字エッジ領域以外では、R,G,Bデータを一次濃度マスキング法等でC,M,Yデータに変換する。画像データの色再現を向上させるために、C,M,Yデータの共通部分をUCR(加色除去)処理してBkデータを生成し、C,M,Y,Bkデータを出力する。ここで、黒文字エッジ領域は、読み取りユニット111のRGB読み取り位置ずれで原稿の黒文字が色付いたり、作像ユニット122のYMCBkプリンタ時の重ね位置ずれがあると判読性がよくないので、黒文字領域のみ輝度に相当する信号でBk単色データ(C,M,Yは、プリントアウトしてないデータ)にて出力する。
The color
プリンタγ部402は、YMCBkの各色に対して、γの周波数特性に応じて処理する。
The
中間調処理部403は、作像ユニット122の階調特性やエッジ量に応じて、ディザ処理等の量子化を行う。量子化処理をする際に黒文字信号(後述する黒文字抽出の処理)を行って、黒文字のコントローラスト強調することも可能である。このことにより、文字の判読性が向上する。
The
画像形成手段である作像ユニット122は、レーザービーム書き込みプロセスを用いた転写紙印字ユニットで、2bitの画像データを感光体に潜像として描画し、トナーによる作像/転写処理後、転写紙にコピー画像を形成する。なお、作像ユニット122の印刷方式は、電子写真方式のほか、インクジェット方式、昇華型熱転写方式、銀塩写真方式、直接感熱記録方式、溶融型熱転写方式など、さまざまな方式を用いることができる。
The
これまでの説明では、コピー用の画像処理が施されたRGB系の色空間で圧縮された画像データがハードディスク118に蓄積される場合について説明をした。ここで、ハードディスク118に蓄積される画像データはデジタルカラー複合機100などでコピー画像として読み取られたある色空間系の画像データである。ある色空間とは、デバイスディペンデント(デバイスの種類(装置特性)に依存した)な色空間(Yuv,CMY)であってもよいし、デバイスインディペンデント(デバイスの種類(装置特性)に依存しない)な色空間(sRGB)であってもよい。また、これらのある色空間信号をネットワークを介して他の装置へ送信する際には、他の装置との間でそのまま相互利用できる同じ色空間に補正される。ある色空間とは、例えば、標準的なsRGB空間やLab空間、また、異なる機器間でも共有できる専用の色空間系などである。
In the above description, the case where image data compressed in the RGB color space subjected to image processing for copying is stored in the
次に、ハードディスク118に蓄積されたデータをネットワークを介して外部PC126に配信する配信スキャナとして動作する場合のデジタルカラー複合機100の各部の動作について説明する。
Next, the operation of each unit of the digital color multifunction peripheral 100 when operating as a distribution scanner that distributes data stored in the
ネットワークインターフェースコントローラ(NIC)124は、デジタルカラー複合機100を外部PC126が接続されているLANなどのネットワークに接続するためのインターフェースである。
The network interface controller (NIC) 124 is an interface for connecting the digital color multifunction peripheral 100 to a network such as a LAN to which the
ハードディスク118には、前述のように、スキャナ補正が施された、すなわちコピー用の画像処理が施されたRGB画像データと、画像サイズや原稿種判定部204で判定された原稿の種類とが蓄積されている。
As described above, the
ハードディスク118に蓄積された画像データは、プリンタコントローラ115に送られ、半導体メモリ116に展開され、階調変換処理、フォーマット処理などが行われる。階調処理では、配信スキャナ動作時のモードに従った階調変換処理を行う。フォーマット処理では、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。その後、画像データはNIC124を介して外部PC126に配信される。
The image data stored in the
ここで、図5はプリンタコントローラ115の構成を示すブロック図である。図5に示すように、プリンタコントローラ115は、半導体メモリ116と、圧縮伸張処理部501と、出力フォーマット変換部502と、入力フォーマット変換部503と、データI/F504とにより構成されている。半導体メモリ116に展開された画像データを外部PC126に配信するデータの流れに沿って各部の動作について説明する。圧縮伸張処理部501は、半導体メモリ116に展開された圧縮処理されている画像データを元の各色8bitデータに伸張し、出力フォーマット変換部502に出力する。出力フォーマット変換部502では、RGBデータを標準色空間であるsRGBデータに色変換を行うと同時に、JPEGやTIFF形式への汎用画像フォーマット変換などを行う。データI/F504では、出力フォーマット変換部502からのデータをNIC124に出力する。プリンタコントローラ115は、このようにして配信するための適切な画像フォーマット処理を施して、NIC124を通して外部PC126へ配信する。
Here, FIG. 5 is a block diagram showing the configuration of the
また、ネットワークを介して外部PC126からプリントアウトするプリンタとして画像処理装置100が動作する場合には、ネットワークインターフェースコントローラ(NIC)124よりデータがデータI/F504を介して入力されると、入力フォーマット変換部503は入力されたデータから画像及びプリント指示するコマンドを解析して画像データとして印刷できる状態にビットマップ展開して、圧縮伸張処理部501は展開されたデータを圧縮してデータを半導体メモリ116に蓄積する。半導体メモリ116に蓄積されたデータは、随時大容量のハードディスク118に書き込まれる。なお、入力される画像データは、JPEGやTIFF形式の汎用画像フォーマットの自然画像である。
When the
なお、FAX時については画像データの流れを特に図示しないが、FAXコントローラ123は、画像処理装置100のFAX機能を制御し、電話回線などの所定のネットワークとの間で画像データの送受信を行う。モノクロ2値可変長可逆圧縮データ伸張器123aは、送受信するデータの圧縮、伸張を行う。
Note that the flow of image data is not particularly shown for FAX, but the
上述したように、デジタルカラー複合機100は、スキャン画像のRGB系のデータのままハードディスク118に蓄積し、蓄積したデータを印刷や配信する際に蓄積データに対して画像フォーマットを変換するようにしている。すなわち、本実施の形態のデジタルカラー複合機100ではカラーで蓄積した画像データをそのままカラーで出力することもモノクロに変換して出力することもできる。
As described above, the digital color multifunction peripheral 100 stores the RGB image data of the scanned image in the
例えば、カラーで蓄積した画像データをモノクロに変換して印刷出力する場合には、図4に示したプリンタ補正部120の色補正処理部401でカラーからモノクロへの変換を行っている。ここでは紙出力を目的としているので、RGB →Bk(黒)の変換が行われる。なお、配信の場合には、元のRGB値から輝度Yを求め、それを変換後のRGBに反映することで対応すればよい。
For example, when image data accumulated in color is converted into monochrome and printed out, the color
ここで、プリンタコントローラ115の出力フォーマット変換部502について説明する。図6は、出力フォーマット変換部502の構成を示すブロック図である。図6に示すように、出力フォーマット変換部502は、色変換部601と、解像度変換部602と、TIFFフォーマット生成部603と、JPEGフォーマット生成部604と、圧縮フォーマット生成部605と、データI/F606とにより構成されている。
Here, the output
色変換部601では、RGBデータをsRGBデータにデータ変換を行う。解像度変換部602は、色変換部601でsRGBに変換したデータに対して、300dpi、200dpiなどの画素密度変換を行う。本実施の形態では、300dpiで変換した場合の画素密度で説明する。各フォーマット生成部(TIFFフォーマット生成部603、JPEGフォーマット生成部604、圧縮フォーマット生成部605)は、解像度変換部602で解像度変換した画像を各フォーマットに変換する。データI/F606は、NIC124に出力すべきフォーマットを出力する。
The
ここで、圧縮フォーマット生成部605について説明する。圧縮フォーマット生成部605は、2値化部607と、黒画像生成部608と、2値画像生成部609と、第1解像度変換部610と、第2解像度変換部611と、背景画像生成部612と、文字画像生成部613と、画像ファイル合成部614とにより構成されている。
Here, the compression
2値化部607では、画像濃度の明暗を基本に文字領域と非文字領域の2値データと黒文字データを出力する。2値画像生成部609では、2値化部607から出力された2値データに対して可逆変換であるMMR圧縮を行う。黒画像生成部608では、2値化部607から出力された黒文字データに対して可逆変換であるMMR圧縮を行う。第1解像度変換部610および第2解像度変換部611では、画像データに対して解像度変換を行い、解像を低くする(150dpi)。背景画像生成部612では、2値化部607で文字領域となった領域の画像データを、白に相当する一定の値の画像データの書き換え非可逆圧縮のJPEG圧縮を行う。文字画像生成部613は、文背景領域となった領域の画像データを、一定の値の画像データの書き換え非可逆圧縮のJPEG圧縮を行う。このように背景画像に対しては文字部を一定の値のデータにするのは、一定の値にすることより圧縮が向上するからである。また、文字画像に関しても、背景画像を一定の値にするのも圧縮の向上のためである。
The
なお、第1解像度変換部610および第2解像度変換部611における解像度変換の解像度については、文字画像は背景画像ほど解像度がいらないので、75dpi程度でも構わない。書誌情報に、文字のみ原稿である時は、背景画像と文字画像の両方を75dpiの解像度でJPEGファイルを作成する。文字に関して解像度を落とすのは、文字の解像度はMMRの解像度で保証しているので、JPEG画像のdpiを落としても階調劣化するが問題とならない。解像度を落とすことによりファイルサイズを小さくすることが可能になる。本実施の形態では、画像解像度を落とすことにファイルサイズを小さくしたが、画像の解像以外の階調数など画像品質を落としてファイルサイズを小さくしてもよい。蓄積データに書誌情報として文字のみ原稿ありなしの記載があるので、蓄積データ後の画像データに対して、文字のみ原稿に対して圧縮率を高くすることが可能となっている。
Note that the resolution of the resolution conversion in the first
画像ファイル合成部614では、2値画像生成部609の出力(MMR)、黒画像生成部608の出力(MMR)、背景画像生成部612の出力(JPEG)、文字画像生成部613の出力(JPEG)の4つの画像を1のファイル化を行う。このときのファイル形式は、汎用フォーマット(PDFファイルなど)を用いても構わない。
The image
ここで、2値化部607について図7を参照して詳述する。2値化部607では、複数の特徴量を抽出することにより2値化を行う。以下の処理は、逐次処理であり、1つの処理が終わると隣の画素の処理を行い、1ラインが次のラインの先頭から処理を行い画像の終わりで処理を続ける。RGB画像データは数字が多くなると黒くなり、数字が小さくなると白くなるものとする。
Here, the
図7に示すように、2値化部607は、文字解像度変換部701、2値化部702、マスク部703、黒抽出部704、文字判定+文字なか判定部705により構成されている。
As shown in FIG. 7, the
文字解像度変換部701は、圧縮伸張処理部501にて伸張したデータである文字エッジ領域と色領域信号を画像に施した解像度と同じ解像度で解像度変換(300dpi)を施し、画像データと画素密度を同一にする。ここでの出力は、文字エッジ及び色とする。
The character
2値化部702は、1ライン毎に閾値を変更して2値化する適応2値化部706と適応2値化の出力の孤立点を除去する第1孤立点除去部707とからなる。適応2値化部706は、色地上文字や白地上文字を抽出するために、エッジの色を検出して1ライン毎に閾値を変更するものであり、図8に示すように、閾値算出部708と2値化部709とからなる。
The
図9に示すように、注目画素○の主走査方向に対して左右2画素の参照画素▽△で下記条件を満たす場合に、2値化閾値対象画素とする。
(○―▽)>th2 or (○―△)>th2
なお、th2は、画像の入力特性により決まる固定値である。閾値算出部708は、1ラインで2値化対象画素のRGB独立に平均を求め、その平均した値を閾値とする。また、閾値算出部708は、1ライン中に2値化対象画素がない場合は、所定の値を閾値とする。2値化部709は、閾値算出部708で求めた閾値に対して、入力画像のRGBの値が1つでも閾値を超えていれば、黒(on)として判定し、黒(on)で無い時は、白(off)として出力する。なお、図8にラインメモリ710があるのは、閾値算出部708で計算した結果で2値化しようとすると、処理が1ラインずれるので、ずれないように1ラインメモリで1ライン遅延をしている。このようにライン毎に閾値を変更することで、地肌や背景の色に依存せずに色地上ものや白地上の文字を良好に抽出することが可能となる。
As shown in FIG. 9, when the following condition is satisfied with the reference pixels ▽ Δ of two pixels on the left and right with respect to the main scanning direction of the target pixel ○, it is determined as a binarization threshold target pixel.
(○-▽)> th2 or (○-△)> th2
Note that th2 is a fixed value determined by the input characteristics of the image. The threshold
第1孤立点除去部707は、適応2値化の結果には孤立点が多く存在することから、その孤立点除去を行う。より具体的には、図10のパターンに対して一致した時は、注目画素を反転することにより孤立点を除去する。
The first isolated
次に、中間濃度領域検出手段であるマスク部703について説明する。マスク部703は、図7に示すように、N値化部711、第1網点検出部712、第2網点検出部713、第1グレー検出部714、第2グレー検出部715、下地検出部716により構成されている。
Next, the mask unit 703 that is an intermediate density region detection unit will be described. As shown in FIG. 7, the mask unit 703 includes an N-value conversion unit 711, a first halftone
N値化部711は、後述する網点検出の特徴とグレー検出の特徴とをN値の値にして共通に使用する。RGB差の小さいデータ(bk)は、thabkより値が大きい時は黒文字として、RGB差の大きなデータは、YMCBGRの6色相に色を分けて色相ごとに閾値(thay、tham、thac、thab、thag、thar)を分けて2値化処理を行い、色の濃いものをアクティブ画素(文字)として2値化処理を行う。色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まる。ただし、出力結果は色相別に保持する。ここでは、以下の様に定義する。なお、()は、bit表示を示す。
Dtah=0(000):該当なし
Dtah=1(001):黄色
Dtah=2(010):マゼンタ
Dtah=3(011):赤
Dtah=4(100):シアン
Dtah=5(101):緑
Dtah=6(110):青
Dtah=7(111):黒
さらに、N値化部711は、白のレベルも同様に2値化を行う。RGB差の小さいデータ(bk)は、thbbkより値が小さい時は白画素として、RGB差の大きなデータは、YMCBGRの6色相に色を分けて色相ごとに閾値(thby、thbm、thbc、thbb、thbg、thbr)を分けて2値化処理を行い、色の薄いものをアクティブ画素(白画素)として2値化処理を行う。また、黒に含まれるもので、更に黒い(濃い)色を抽出したものを濃い黒として、黒抽出時に使用する。さらに、N値化部711は、下地の抽出を行う。下地も白レベルと同様であるが、閾値は白レベルと文字の閾値と中間の値を使用して、下地の閾値より白ければ下地とする。下地領域、グレー領域、文字領域の関係は、図11のようになる。下地領域の濃い方とグレー領域の薄い方とでは、2つの領域をまたがる濃度域が存在する。その理由は、下地領域、グレー領域ともパターンマッチングである程度の大きさの領域がないと領域判定しないため、ある程度の重なりがないと、下地領域とグレー判定の近傍の均一画像の濃度領域であっても、下地領域とグレー領域にまたがった場合に、下地領域とグレー領域のどちらの領域に該当しなくなるのを防ぐためである。
The N-value conversion unit 711 commonly uses a halftone dot detection feature and a gray detection feature, which will be described later, as N value values. Data with a small RGB difference (bk) is a black character when the value is larger than thabk, and data with a large RGB difference is divided into six colors of YMCBGR and the thresholds (thay, tham, thac, thab, thag) for each hue. , Thar) is divided and binarization processing is performed, and binarization processing is performed with a dark color as an active pixel (character). The method of dividing the hue may be simply based on the magnitude relationship of RGB or may be determined by the ratio of RGB colors. This is determined by the characteristics of the input image. However, the output result is held for each hue. Here, it is defined as follows. In addition, () shows a bit display.
Dtah = 0 (000): Not applicable
Dtah = 1 (001): Yellow
Dtah = 2 (010): Magenta
Dtah = 3 (011): Red
Dtah = 4 (100): Cyan
Dtah = 5 (101): Green
Dtah = 6 (110): Blue
Dtah = 7 (111): Black Further, the N-value conversion unit 711 also binarizes the white level. Data with a small RGB difference (bk) is a white pixel when the value is smaller than thbbk, and data with a large RGB difference is divided into six hues of YMCBGR, and threshold values (thby, thbm, thbc, thbb, The binarization process is performed separately for thbg and thbr), and the binarization process is performed with a light color as an active pixel (white pixel). Moreover, what is contained in black and further extracted from a black (dark) color is made dark black and used when extracting black. Further, the N-value conversion unit 711 performs background extraction. The background is the same as the white level, but the threshold is an intermediate value between the white level and the character threshold. The relationship between the base area, the gray area, and the character area is as shown in FIG. There is a density range that spans two areas, the darker of the background area and the thinner gray area. The reason is that both the background area and the gray area are determined by pattern matching unless there is an area of a certain size, so if there is no overlap, the background area and the density area of the uniform image near the gray determination This is also to prevent any of the background area and the gray area from being lost when the background area and the gray area are straddled.
第1網点検出部712においては、スキャナ補正部112で細かな網点は平滑化処理にて網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化を行うことができずに網点のドット形状が残っており、この粗い網点を検出することを目的とする。ここでは、網点のパターンマッチングを行う。ここでは、Dtah≠0の時に黒画素として、N値化の白画素を白画素とする。第1網点検出部712における網点検出処理について図12のフローチャートを参照して説明する。図12に示すように、まず、1画素の前の処理結果であって網点のカウント値であるMSと1ライン前の処理結果であるSS[i]を比較し(ステップS1)、MSよりもSS[i]が大きな場合には(ステップS1のY)、MSをSS[I]に置き換え(ステップS2)、ステップS3に進む。一方、MSよりもSS[i]が大きくない場合には(ステップS1のN)、そのままステップS3に進む。すなわち、1ライン前の結果と1画素前の処理結果の大きい方の値をもってくる。
In the first halftone
続くステップS3では、図13に示す白画素のパターンマッチングにより白パターンか否かを判断する。白画素がパターンと一致している場合には(ステップS3のY)、MSを0、S[i]=0として、S[i]の次のラインで使用し(ステップS4)、非網点画素とする(ステップS8)。一方、パターン一致しない場合には(ステップS3のN)、ステップS5に進む。 In the subsequent step S3, it is determined whether or not the pattern is a white pattern by pattern matching of white pixels shown in FIG. If the white pixel matches the pattern (Y in step S3), MS is set to 0, S [i] = 0, and it is used in the next line of S [i] (step S4), and the non-halftone dot A pixel is set (step S8). On the other hand, if the patterns do not match (N in step S3), the process proceeds to step S5.
ステップS5では、図14に示す網点のパターンマッチングにより網点パターンか否かを判断する。図14においては、●は黒画素、○は非黒画素である。網点パターンと一致している場合には(ステップS5のY)、MSを1インクリメントし(ステップS6)、ステップS7に進む。一方、網点パターンと一致していない場合には(ステップS5のN)、そのままステップS7に進む。なお、網点検出精度向上のために、非黒画素に、白画素を数個含む条件を増やして精度を上げても良い。 In step S5, it is determined whether or not the pattern is a halftone dot pattern by the halftone dot pattern matching shown in FIG. In FIG. 14, ● is a black pixel, and ◯ is a non-black pixel. If it matches the halftone dot pattern (Y in step S5), MS is incremented by 1 (step S6), and the process proceeds to step S7. On the other hand, if it does not match the halftone dot pattern (N in step S5), the process proceeds to step S7 as it is. In order to improve halftone dot detection accuracy, the accuracy may be increased by increasing the condition of including several white pixels in non-black pixels.
ステップS7では、網点画素か否かを判定する。具体的には、S[i]=MSとして、S[i]を次のラインで使用し、MS>5か否かを判断する。MS>5ならば(ステップS7のY)、網点画素とし(ステップS9)、MS>5でなければ(ステップS7のN)、非網点画素とする(ステップS8)。 In step S7, it is determined whether the pixel is a halftone pixel. Specifically, S [i] = MS is used, and S [i] is used in the next line to determine whether MS> 5. If MS> 5 (Y in step S7), a halftone dot pixel is set (step S9). If MS> 5 is not satisfied (N in step S7), a non-halftone dot pixel is set (step S8).
最後に、網点のカウント値であるMSを1ライン前の処理結果SS[j]とし(ステップS10)、処理を終了する。 Finally, the halftone dot count value MS is set to the processing result SS [j] one line before (step S10), and the processing is terminated.
次に、第2網点検出部713について簡単に説明する。第1網点検出部712においては画像データを順方向で処理していたが、第2網点検出部713においては逆方向で処理を行う。第1網点検出部712では、網点の先端部が網点とならない部分を逆読みすることにより、網点となるようにしている。
Next, the second halftone
このように第1網点検出部712および第2網点検出部713における網点検出においては、白パターンから白パターンの間に一定以上の網点パターンがあれば網点と検出する。これは、文字は一般的に白地上文字であるから、白地上文字は、網点パターンが文字のエッジ近傍しかないので誤検出することはほとんどない。Y成分持つ色データ(黄、緑、赤、黒)を黒画素として同様の処理(第1網点検出部712および第2網点検出部713)を行う。更に、M成分持つ色データ(赤、マゼンタ、青、黒)、C成分をもつ色データ(シアン、青、緑、黒)もY成分を同様に行う。Y、M、C成分に展開したのは、印刷のインクの成分はYMCなので、インクのドット再現を正確に抽出するためである。
In this way, in the halftone dot detection in the first halftone
第1グレー検出部714は、文字領域は濃く、文字周辺の領域は薄いことを利用して、文字領域の濃さより薄く、文字周辺の領域より濃いところを中濃度としてグレー判定を行う。グレー判定で使用する白地は、N値化の白画素である。第1グレー検出部714におけるグレー検出処理について図15のフローチャートを参照して説明する。図15に示すように、まず、1画素の前の処理結果であって白画素のカウント値であるMSと1ライン前の処理結果であるSS[i]を比較し(ステップS11)、MSよりもSS[i]が大きな場合には(ステップS11のY)、MSをSS[I]に置き換え(ステップS12)、ステップS13に進む。一方、MSよりもSS[i]が大きくない場合には(ステップS11のN)、そのままステップS13に進む。すなわち、1ライン前の結果と1画素前の処理結果の大きい方の値をもってくる。
The first
続くステップS13では、図16に示すパターンマッチングによりグレーパターンか否かを判断する。中濃度がグレーパターンと一致している場合には(ステップS13のY)、MSを5、S[i]=0として、S[i]の次のラインで使用し(ステップS14)、グレー画素とする(ステップS19)。一方、パターン一致しない場合には(ステップS13のN)、ステップS15に進む。ここで、中濃度とは、N値化で、Dtah=0、かつ、非白画素の時である。 In a succeeding step S13, it is determined whether or not the pattern is a gray pattern by pattern matching shown in FIG. If the medium density matches the gray pattern (Y in step S13), MS is set to 5 and S [i] = 0, and it is used in the next line of S [i] (step S14), and the gray pixel is used. (Step S19). On the other hand, if the patterns do not match (N in step S13), the process proceeds to step S15. Here, the medium density is N-value conversion, Dtah = 0, and a non-white pixel.
ステップS15では、白画素であるか否かを判断する。ここで、白画素とは、N値化の白画素のことである。白画素である場合には(ステップS15のY)、MS>0か否かを判断する(ステップS16)。MS>0ならば(ステップS7のY)、MSを1デクリメントし(ステップS17)、ステップS18に進む。MS>0でなければ(ステップS16のN)、非グレー画素として、S[i]=MSとして、S[i]を次のラインで使用する(ステップS20)。一方、白画素でない場合には(ステップS15のN)、そのままステップS18に進む。 In step S15, it is determined whether or not the pixel is a white pixel. Here, the white pixel is an N-valued white pixel. If it is a white pixel (Y in step S15), it is determined whether MS> 0 (step S16). If MS> 0 (Y in step S7), the MS is decremented by 1 (step S17), and the process proceeds to step S18. If MS> 0 is not satisfied (N in step S16), S [i] is used in the next line as S [i] = MS as a non-gray pixel (step S20). On the other hand, if it is not a white pixel (N in step S15), the process proceeds to step S18 as it is.
ステップS18では、グレー画素か否かを判定する。具体的には、S[i]=MSとして、S[i]を次のラインで使用し、MS>0か否かを判断する。MS>0ならば(ステップS18のY)、グレー画素とし(ステップS19)、MS>0でなければ(ステップS19のN)、非グレー画素とする(ステップS20)。 In step S18, it is determined whether or not the pixel is a gray pixel. Specifically, S [i] = MS is used, and S [i] is used in the next line to determine whether MS> 0. If MS> 0 (Y in Step S18), the pixel is a gray pixel (Step S19), and if MS> 0 (N in Step S19), the pixel is a non-gray pixel (Step S20).
最後に、白画素のカウント値であるMSを1ライン前の処理結果SS[j]とし(ステップS21)、処理を終了する。 Finally, MS, which is the count value of white pixels, is set as the processing result SS [j] of the previous line (step S21), and the processing ends.
次に、第2グレー検出部715について簡単に説明する。第1グレー検出部714においては画像データを順方向で処理していたが、第2グレー検出部715においては逆方向で処理を行う。逆方向で処理することにより、グレー領域先端がグレーとならなかった部分をグレーとしている。
Next, the second
続いて、下地検出部716について説明する。適応2値化部706でライン毎に閾値を切り換えて薄い領域においても文字判定する場合、薄い領域すべてが文字判定になれば問題はないが、閾値が薄い領域の画像をまたがっていると、2値化部での結果が白黒の変化点が多く最終画像においてファイルサイズが大きくなってしまう。そこで、単純のグレー判定の領域の下限値(白側)を白寄りにすると、色地上の文字が文字判定できなくなるので、ここで、下地を検出する。下地に足して4×5のANDを行い、次に2×3のORを行う。このことにより入力データに対して下地を小さくしている。このことにより、文字周辺の下地は文字と下地の境界部も下地となり、下地の領域を小さくしているので文字を下地に含みにくくなるため、良好に下地を検出できる。
Next, the
次に、高濃度領域検出手段である黒抽出部704について説明する。黒抽出部704は、後段の文字なか判定時に使用するため、(非常に)濃い領域を抽出する。黒抽出部704は、第2孤立点除去部717を備えている。第2孤立点除去部717は、2×3のANDと2×3のORを行い、孤立点除去を行う。このことにより、(非常に)濃い領域のかたまりのみを抽出することが可能となる。
Next, the
続いて、文字判定手段である文字判定+文字なか判定部705について説明する。
Next, the character determination +
まず、文字判定について説明する。文字領域(第1孤立点除去部707の出力)であり、網点領域(第1網点検出部712および第2網点検出部713の出力)でなく、グレー領域(第1グレー検出部714および第2グレー検出部715の出力)でなく、下地領域(下地検出部716の出力)でなく、文字なか(後述する文字なか判定結果)でなければ、文字とする。このように文字領域を、下地領域、網点領域およびグレー領域と論理演算を行うのは、文字判定結果が本来、解像度の必要ない写真領域を文字領域としていため、写真領域として補正をするようにしたものである。特に、写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率の向上を図るとともに、画像も文字非文字の混在が少なくなり画質向上も望める。文字なか判定結果を文字判定結果から除外しているのは、黒文字を黒単色で出力するので、圧縮率を向上されるために文字画像を固定値にするためである。
First, character determination will be described. It is a character region (output of the first isolated point removal unit 707), not a halftone region (outputs of the first halftone
次に、文字なか判定について説明する。文字のなかの判定においては誤判定が必ずあるので、濃い黒を検出して画像に影響ないように、太文字(線幅太い線)を対象として濃い黒も出力できるようにしている。これらは、図示しない操作部より操作する。出力は、下記に示すような(1)文字なか判定、(2)濃い黒判定の2種類の内1つを選択する。 Next, the character determination will be described. Since there is always a misjudgment in the determination of characters, dark black can be output for thick characters (line with thick line width) so that dark black is detected and does not affect the image. These are operated from an operation unit (not shown). As the output, one of the following two types is selected: (1) determination of character determination, and (2) dark black determination.
(1).文字なか判定
文字なか判定は、図17に示すように、文字判定、3ラインOR、絵柄判定、黒判定、抽出1、抽出2、と2つのミラーからなる。
(1). Determining whether or not it is a character The determination of whether or not a character is made up of two mirrors: character determination, three-line OR, picture determination, black determination,
(1.1).文字判定
前段の像域分離の出力結果である文字判定結果と色判定結果の論理演算をとり、文字であってかつ色でなければ、黒文字エッジをして出力する。
(1.1). Character determination The logical operation of the character determination result and the color determination result, which is the output result of the image area separation in the previous stage, is taken, and if the character is not a color, it is output with a black character edge.
(1.2).3ラインOR
文字判定の結果である黒文字エッジの3ライン×1画素のORをとる。本来は、この3ラインORではなく、抽出1の後に2ライン遅延を行って抽出2とライン遅延をあわせる必要があるが、抽出部1の後でライン遅延をすると画像データを遅延する必要が出てくるため、ここで3ラインORすることにより、ライン遅延を吸収している。
(1.2). 3 line OR
An OR of 3 lines × 1 pixel of the black character edge as a result of character determination is taken. Originally, instead of this three-line OR, it is necessary to perform a two-line delay after the
(1.3).絵柄判定
前段の像域分離の出力結果である色判定結果、グレー検出1の結果、グレー検出2の結果、網点検出1の結果、網点検出2の結果の何れかが1つでもonならば、絵柄と判定する。
(1.3). Image determination If any one of the color determination result, the
(1.4).絵柄判定
前段の像域分離の出力結果である色判定結果が、非色で、かつN値化で黒(Bkまたは、濃い黒)ならば、黒とする。
(1.4). Picture determination If the color determination result, which is the output result of the image area separation in the previous stage, is non-colored and black (Bk or dark black) in N-value, it is black.
(1.5).抽出1
文字なかを抽出するフローを図18に示す。以下説明は、3ラインORの出力を黒文字エッジ、絵柄判定の結果を絵柄、黒判定結果を黒として説明する。
a).注目画素判定
黒文字エッジならば、文字なか領域とする。
絵柄判定の結果が絵柄ならば、絵柄領域とする。
なお、像域分離のアルゴリズム上、文字と絵柄ともonになることはない。
b).高濃度判定
注目ラインが黒画素判定の結果が黒でなければ、中間領域とする。
c).1ライン前(絵柄)判定
線分処理後の1ライン前の判定結果が絵柄領域(写真領域)であれば、絵柄領域(写真領域)とする。
d).1画素前(絵柄)判定
1画素前の判定結果が絵柄領域(写真領域)であれば、絵柄領域(写真領域)とする。
e).1ライン前(文字なか)判定
線分処理後の1ライン前の判定結果が文字なか領域であれば、文字なか領域とする。
f).1画素前(文字なか)判定
1画素前の判定結果が文字なか領域であれば、文字なか領域とする。
g).上記以外
中間領域とする。
h).線分処理
最後に線分処理を行う。ここでは、色判定結果が色でなく、かつ、高濃度の画素が、144画素以上連続していれば、このモジュール(文字なか)では、中間領域として補正する。次段に出力するデータは、補正しない(線分処理前の結果を次段(判定部)に出力する)。
(1.5).
A flow for extracting characters is shown in FIG. In the following description, the output of the three lines OR is assumed to be a black character edge, the pattern determination result is a pattern, and the black determination result is black.
a). Attention pixel determination If it is a black character edge, it is set as an area within a character.
If the result of the pattern determination is a pattern, the pattern area is set.
Note that neither characters nor patterns are turned on in the image area separation algorithm.
b). High density determination If the target line is not black as a result of black pixel determination, it is determined as an intermediate region.
c). One line before (picture) determination If the determination result one line before after the line segment processing is a picture area (photograph area), it is determined as a picture area (photograph area).
d). Determination of one pixel before (pattern) If the determination result of one pixel before is a pattern area (photo area), the pattern area (photo area) is determined.
e). Judgment before one line (character) If the judgment result one line before after the line segment processing is an area that is not a character, an area is determined to be a character.
f). Determination of one pixel before (character) If the determination result one pixel before is a character or a region, the character is a region.
g). Other than above Intermediate area.
h). Line segment processing Finally, line segment processing is performed. Here, if the color determination result is not a color and 144 pixels or more of high-density pixels are continuous, this module (in the character) corrects it as an intermediate region. Data to be output to the next stage is not corrected (the result before the line segment processing is output to the next stage (determination unit)).
(1.6).抽出2、ミラー
抽出2では、逆像(ミラー)画像で文字なか判定をする。逆像での処理をパイプライン処理で実現するために、抽出2の前後でミラーをしている。抽出部1と同一なので説明は省略する。
(1.6). Extraction 2 and mirror In extraction 2, a reverse image (mirror) image is determined to be a character. In order to realize the reverse image processing by pipeline processing, mirroring is performed before and after the extraction 2. The description is omitted because it is the same as the
(1.7).判定部
抽出1と抽出2のミラーの出力が、両方が文字なか領域でかつ2値化部の出力が文字ならば黒文字とする。
(1.7). Determination unit If the output of the mirrors of
(2).濃い黒判定
濃い黒判定は、黒抽出部704の抽出結果について、2値化部702の出力が文字ならば黒文字とする。
(2). Dark Black Determination In the dark black determination, if the output of the
以上が、文字なか判定についての説明である。 This completes the description of the character determination.
このように、周辺画素の画像の状態を参照することで文字なか判定をすることにより、画像領域の文字の文字なかを判定することができる。 As described above, by referring to the state of the image of the surrounding pixels, it is possible to determine whether the character is the character in the image region by determining whether the character is a character.
文字エッジ領域と色領域は、読み取った画像で色や網点などを検出するので精度よく検出できる。また、文字なか検出の濃度情報についてフィルタ処理後のデータを用いるのは、網点で構成された文字に対しては網点領域が少なく文字エッジ領域になったりならなかったりするため、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字のなかとしている。新聞の写真の様にスクリーン線数の低い網点は、平滑化しても網点形状が残るので網点検出で検出して、カタログなどの一般的な原稿にあるスクリーン線数の高い網点は、平滑がかかり網点形状は無くなるので、網点面積率が30%から60%程度のものはグレー判定にてグレーと検出する。特に、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定されると文字なか判定が中途半端な結果となり、見苦しくなるのを避けるためである。 The character edge area and the color area can be detected with high accuracy because colors and halftone dots are detected from the read image. In addition, since the data after filtering is used for the density information for detection of characters, the halftone dot area is small for a character composed of halftone dots, and the character edge area is not used. Instead, the data after filtering (smoothed because it is not a character edge region) is used to make only the dark portion in the character. A halftone dot with a low screen line number, such as a newspaper photo, will remain in the screen even if it is smoothed. Since the screen is smoothed and the halftone dot shape disappears, a halftone dot area ratio of about 30% to 60% is detected as gray in the gray determination. In particular, since the leading edge of the character is narrow, it is difficult to form a halftone dot (non-character area). For example, if the leading edge is a character edge area and the central part of the character is determined to be a halftone dot, the determination of whether the character is halfway, This is to avoid being unsightly.
最後に、プリンタコントローラ115の入力フォーマット変換部503について説明する。図19は、入力フォーマット変換部503の構成を示すブロック図である。図19に示すように、入力フォーマット変換部503は、TIFFフォーマット展開部801と、JPEGフォーマット展開部802と、圧縮フォーマット展開部803と、出力選択部804とにより構成されている。TIFFフォーマット展開部801と、JPEGフォーマット展開部802と、圧縮フォーマット展開部803とは、各フォーマットをビットマップに展開する機能を持ち、出力選択部は3つのフォーマットの内、一つを選択して出力と同時にRGBデータをYMCBkにデータを変換する。入力画像データがTIFFフォーマットであれば、TIFFフォーマット展開部801にてビットマップデータで展開する。JPEGフォーマットであれば、JPEGフォーマット展開部802にてビットマップデータで展開する。さらに、圧縮フォーマットであれば、圧縮フォーマット展開部803にて展開する。
Finally, the input
ここで、圧縮フォーマット展開部803について説明する。圧縮フォーマット展開部803は、画像ファイル展開部805と、2値画像展開部806と、黒画像展開部807と、背景画像展開部808と、文字画像展開部809と、画像ファイル合成部810とにより構成されている。
Here, the compression
画像ファイル展開部805では、図6の圧縮フォーマット生成部605にて生成したファイルの中の4つファイルを後段の2値画像展開部806、黒画像展開部807、背景画像展開部808、文字画像展開部809にそれぞれ対応した画像データを出力する。
In the image
2値画像展開部806では、MMRを伸張してビットマップに展開し、黒画像展開部807では、MMRを伸張してビットマップに、背景画像展開部808では背景画像のJPEGをビットマップに、文字画像展開部809では文字画像のJPEGをビットマップに、それぞれ展開する。4つの展開したビットマップデータは、画像ファイル合成部810にて1枚のビットマップデータに合成される。
The binary
画像ファイル展開部805では、2値画像展開部806の出力が文字領域であれば、文字画像展開部809の出力である画像データを出力し、2値画像展開部806の出力が非文字領域であれば、背景画像展開部808の出力である画像データを出力する。さらに、黒画像展開部807の出力が黒文字であれば、黒で出力する。このことにより1枚の画像を生成する。文字と非文字の解像度は2値画像の解像度となる。
In the image
ここで、図20は入力画像、ファイル画像および出力画像のイメージを示す説明図である。 Here, FIG. 20 is an explanatory diagram showing images of an input image, a file image, and an output image.
このように本実施の形態によれば、文字エッジ領域と色領域とは、入力された画像データから像域分離されるので、精度よく検出することができるとともに、文字なか検出についてはフィルタ処理後の画像データを用いることにより、網点情報ではなくフィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて濃い部分のみを文字なかとすることができるので、網点で構成された文字の判定結果の混在が少なくなり、高精度に文字なかを検出することができる。 As described above, according to the present embodiment, the character edge region and the color region are separated from the input image data, so that the character edge region and the color region can be accurately detected. By using the image data, it is possible to make only the dark part a character by using data after filtering (smoothed because it is not a character edge region) instead of halftone information. Therefore, it is possible to detect a character with high accuracy.
また、文字エッジ領域と色領域とを先に行い、配信時に固有の処理を後に行うことにより、スキャナコピーの同時動作などを行うことができる。また、配信時に必要な文字のなか判定を、画像データを記憶部に蓄積後に行うため、コピーなどに不要な文字なか判定結果を蓄積する必要がないので、蓄積画像のデータが少なくなる。 In addition, by performing the character edge area and the color area first, and performing the processing unique to the distribution later, it is possible to perform the scanner copy simultaneous operation and the like. In addition, since the determination of characters required for distribution is performed after the image data is stored in the storage unit, it is not necessary to store the determination result of characters that are not necessary for copying or the like, so that the amount of stored image data is reduced.
なお、本実施の形態においては、画像処理装置として、コピー機能、ファクシミリ(FAX)機能、プリンタ機能、および入力画像(読み取り原稿画像やプリンタ或いはFAX機能により入力された画像)を配信する機能、を複合したいわゆる複合機であるデジタルカラー複写機を適用したが、これに限るものではなく、プリンタ機能のみを有するプリンタ装置等であっても良い。 In the present embodiment, the image processing apparatus includes a copy function, a facsimile (FAX) function, a printer function, and a function for distributing an input image (read original image or image input by a printer or FAX function). Although a digital color copying machine which is a so-called composite machine is applied, the present invention is not limited to this, and a printer apparatus having only a printer function may be used.
また、本実施の形態のデジタルカラー複合機100では、各種処理が、デジタル回路構成のハードウェア資源であるプリンタコントローラ部102によって実行される例を示したが、これに限るものではなく、そのような各種処理を、デジタルカラー複合機100のハードウェア資源(例えば、HD)にインストールされたコンピュータプログラムによってCPUを動作させて実行するようにしても良い。
Further, in the digital
100 画像処理装置
118 記憶部
122 画像形成手段
201 文字エッジ領域分離手段、色領域分離手段
203 フィルタ処理手段
703 中間濃度領域検出手段
704 高濃度領域検出手段
705 文字判定手段
DESCRIPTION OF
Claims (5)
入力された画像データから色領域を像域分離する色領域分離手段と、
前記文字エッジ領域分離手段および前記色領域分離手段における像域分離結果に応じたフィルタ処理を実行するフィルタ処理手段と、
このフィルタ処理手段によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積手段と、
前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出手段と、
前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出手段と、
前記高濃度領域検出手段により検出された前記高濃度領域と前記中間濃度領域検出手段により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定手段と、
を備えることを特徴とする画像処理装置。 A character edge region separating means for separating a character edge region from input image data;
Color region separation means for separating a color region from input image data;
Filter processing means for performing filter processing according to an image area separation result in the character edge area separation means and the color area separation means;
Image storage means for storing the image data filtered by the filter processing means and the image area separation result in a storage unit;
High density area detection means for detecting a high density area for the image data stored in the storage unit;
Intermediate density area detecting means for detecting an intermediate density area for the image data stored in the storage unit;
By referring to the image state of surrounding pixels according to the high density area detected by the high density area detection means and the intermediate density area detected by the intermediate density area detection means, the inside of the black character and the character edge, that is, the character line Character judging means for judging whether the character means within the width;
An image processing apparatus comprising:
ことを特徴とした請求項1記載の画像処理装置。 The high density area detection means, the intermediate density area detection means, and the character determination means are re-executed to deliver the image data stored in the storage unit to another network-connected terminal.
The image processing apparatus according to claim 1.
ことを特徴とする請求項1または2記載の画像処理装置。 An image forming unit configured to form and output an image formed on the transfer paper based on the image data stored in the storage unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
入力された画像データから色領域を像域分離する色領域分離機能と、
前記文字エッジ領域分離機能および前記色領域分離機能における像域分離結果に応じたフィルタ処理を実行するフィルタ処理機能と、
このフィルタ処理機能によりフィルタ処理が実行された前記画像データと前記像域分離結果を記憶部に蓄積する画像蓄積機能と、
前記記憶部に蓄積されている前記画像データに対して高濃度領域を検出する高濃度領域検出機能と、
前記記憶部に蓄積されている前記画像データに対して中間濃度領域を検出する中間濃度領域検出機能と、
前記高濃度領域検出機能により検出された前記高濃度領域と前記中間濃度領域検出機能により検出された中間濃度領域とに従って周辺画素の画像状態を参照することにより、黒文字および文字エッジの内側すなわち文字線幅内を意味する文字なかを判定する文字判定機能と、
をコンピュータに実行させることを特徴とするプログラム。 A character edge region separation function for separating a character edge region from input image data,
A color region separation function for separating a color region from input image data;
A filter processing function for performing filter processing according to an image region separation result in the character edge region separation function and the color region separation function;
An image accumulating function for accumulating in the storage unit the image data that has undergone the filtering process by the filtering function and the image area separation result;
A high density area detection function for detecting a high density area for the image data stored in the storage unit;
An intermediate density area detection function for detecting an intermediate density area for the image data stored in the storage unit;
By referring to the image state of the surrounding pixels according to the high density area detected by the high density area detection function and the intermediate density area detected by the intermediate density area detection function, the inside of the black character and the character edge, that is, the character line A character determination function that determines whether a character means a width,
A program for causing a computer to execute.
ことを特徴とした請求項4記載のプログラム。 The high density area detection function, the intermediate density area detection function, and the character determination function are re-executed to deliver the image data stored in the storage unit to other terminals connected to the network.
The program according to claim 4, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005227085A JP4515986B2 (en) | 2005-08-04 | 2005-08-04 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005227085A JP4515986B2 (en) | 2005-08-04 | 2005-08-04 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007043572A true JP2007043572A (en) | 2007-02-15 |
JP4515986B2 JP4515986B2 (en) | 2010-08-04 |
Family
ID=37801122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005227085A Expired - Fee Related JP4515986B2 (en) | 2005-08-04 | 2005-08-04 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4515986B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011041267A (en) * | 2009-08-11 | 2011-02-24 | Toshiba Corp | Image formation device and method of controlling the same |
JP2015195549A (en) * | 2013-12-19 | 2015-11-05 | キヤノン株式会社 | Image processing system and image processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336443A (en) * | 1997-04-04 | 1998-12-18 | Ricoh Co Ltd | Digital image reader |
JP2003141519A (en) * | 2001-10-31 | 2003-05-16 | Ricoh Co Ltd | Image data processing apparatus, color image forming apparatus, and image data processing method |
JP2005064800A (en) * | 2003-08-11 | 2005-03-10 | Ricoh Co Ltd | Apparatus and method for processing image, and image processing program |
-
2005
- 2005-08-04 JP JP2005227085A patent/JP4515986B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10336443A (en) * | 1997-04-04 | 1998-12-18 | Ricoh Co Ltd | Digital image reader |
JP2003141519A (en) * | 2001-10-31 | 2003-05-16 | Ricoh Co Ltd | Image data processing apparatus, color image forming apparatus, and image data processing method |
JP2005064800A (en) * | 2003-08-11 | 2005-03-10 | Ricoh Co Ltd | Apparatus and method for processing image, and image processing program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011041267A (en) * | 2009-08-11 | 2011-02-24 | Toshiba Corp | Image formation device and method of controlling the same |
JP2015195549A (en) * | 2013-12-19 | 2015-11-05 | キヤノン株式会社 | Image processing system and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4515986B2 (en) | 2010-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4662066B2 (en) | Image processing apparatus, image forming apparatus, image distribution apparatus, image processing method, program, and recording medium | |
JP5540553B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and image processing program | |
US7903872B2 (en) | Image-processing apparatus and method, computer program, and storage medium | |
US7502150B2 (en) | Color converting device, image forming apparatus, color conversion method, computer program and recording medium | |
JP3797669B2 (en) | Image forming apparatus and image forming method | |
JP4898601B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP4212876B2 (en) | Image processing apparatus and image processing system | |
JP4515986B2 (en) | Image processing apparatus and program | |
JP2004350240A (en) | Image processing apparatus and image processing method | |
JP4963559B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method | |
JP2001186356A (en) | Picture compression device, picture compresion method and computer readable storage medium | |
JP2010074318A (en) | Image processing apparatus and method, and image processing program | |
JP2004112140A (en) | Image processing apparatus | |
JP4616199B2 (en) | Image processing apparatus and program | |
JP2007235430A (en) | Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium | |
JP2007189275A (en) | Image processor | |
JP4409871B2 (en) | Color space conversion apparatus and image forming apparatus | |
JP2006270148A (en) | Image processing method, image processor and image forming apparatus | |
JP2001309183A (en) | Image processing unit and method | |
JP2006287707A (en) | Image processor | |
JP2006262334A (en) | Image processing apparatus and scanner distribution apparatus | |
JP2006041792A (en) | Image processing apparatus | |
JP2006245736A (en) | Color image processing apparatus, and network scanner apparatus | |
JP3522880B2 (en) | Image processing apparatus and image forming apparatus | |
JP2006245727A (en) | Image processing apparatus, network scanner apparatus, and color digital copying machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100511 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100513 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140521 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |