JP5005734B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5005734B2
JP5005734B2 JP2009150077A JP2009150077A JP5005734B2 JP 5005734 B2 JP5005734 B2 JP 5005734B2 JP 2009150077 A JP2009150077 A JP 2009150077A JP 2009150077 A JP2009150077 A JP 2009150077A JP 5005734 B2 JP5005734 B2 JP 5005734B2
Authority
JP
Japan
Prior art keywords
pixel
character
value
image
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009150077A
Other languages
Japanese (ja)
Other versions
JP2010011458A (en
Inventor
晴子 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Publication of JP2010011458A publication Critical patent/JP2010011458A/en
Application granted granted Critical
Publication of JP5005734B2 publication Critical patent/JP5005734B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

この発明は、たとえば、入力した画像の種類を識別し、識別した画像の種類に応じた画像処理を行うコピー機あるいはプリンタなどの画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to, for example, an image processing apparatus such as a copier or a printer that identifies the type of an input image and performs image processing according to the identified image type, an image processing method, and an image processing program.

従来、コピー機あるいはプリンタとしての機能するデジタル複合機には、入力画像の種類に応じた画像処理を行う機能を有するものがある。たとえば、コピー画質を向上させるために、デジタル複合機は、スキャナにより読み取った画像が文字画像又は線画か写真画像かを識別(像域識別)し、その識別結果に応じてフィルタ処理、階調処理あるいは墨入れ処理などの画像処理内容を切り替える。たとえば、文字画像(文字領域)に対しては、文字を強調する画像処理を行い、写真画像(写真領域)に対しては平滑化する画像処理を行う。また、文字画像(文字領域)に対しては、黒文字部分にブラック(黒の単色)がプリントされるような墨入れ処理を行うこともある。   2. Description of the Related Art Conventionally, some digital multi-function peripherals functioning as copiers or printers have a function of performing image processing according to the type of input image. For example, in order to improve copy image quality, the digital multi-function peripheral identifies whether the image read by the scanner is a character image, a line drawing, or a photographic image (image area identification), and performs filter processing and gradation processing according to the identification result. Alternatively, the image processing content such as inking processing is switched. For example, image processing for emphasizing characters is performed on a character image (character region), and image processing for smoothing is performed on a photographic image (photo region). In addition, for a character image (character region), an inking process may be performed in which black (a single black color) is printed on a black character portion.

しかしながら、従来の像域識別処理では、実際には常に完璧な識別結果が得られるとは限らない。たとえば、像域識別処理では、無彩色文字だけでなく有彩色文字、さらには色下地上の文字なども識別対象としている。これらの文字は、単色の信号値(各色の信号成分)からでは検出しづらい。このため、従来の像域識別処理では、入力系または出力系の各色成分(各色チャンネル)に合わせて各成分(チャンネル)ごとに行うことが多い。   However, in the conventional image area identification process, a perfect identification result is not always obtained in practice. For example, in the image area identification processing, not only achromatic characters but also chromatic characters, and characters on a color background are identified. These characters are difficult to detect from single color signal values (signal components of each color). For this reason, conventional image area identification processing is often performed for each component (channel) in accordance with each color component (each color channel) of the input system or output system.

このような有彩色文字あるいは色下地上の文字にも対応するための像域識別処理は、入力系もしくは出力系の全チャンネルで画像を識別するための特徴量を抽出する必要がある。特に、粗い網点と文字とを高精度で区別するには、1チャネルの1画素に対して大きなサイズ(画像領域)の部分画像(オペレータ)を用いて識別処理を行う必要がある。このような識別処理を複数チャンネル分実行すると、識別処理の負荷が大きくなり、画像処理全体に占める負荷の大きくなる。   In such an image area identification process for dealing with a chromatic character or a character on a color background, it is necessary to extract a feature amount for identifying an image in all channels of the input system or the output system. In particular, in order to distinguish a rough halftone dot and a character with high accuracy, it is necessary to perform identification processing using a partial image (operator) having a large size (image region) for one pixel of one channel. When such identification processing is executed for a plurality of channels, the load on the identification processing increases, and the load on the entire image processing increases.

このような問題点を解決するべく、特開2001−245142号公報では、入力信号のうちG信号のチャンネルのみを利用する方法が提案されている。また、特開2007−243330号公報には、輝度および色差の差分を利用する方法が提案されている。しかしながら、特開2001−245142号公報に記載の技術では、例えば、G信号の変動の少ない白地上の赤又は黄色の色文字を検出できないという問題点がある。また、特開2007−243330号公報に記載の技術では、例えばB信号のみが変動する白地上の黄色文字等が検出しづらいという問題点がある。   In order to solve such a problem, Japanese Patent Laid-Open No. 2001-245142 proposes a method of using only the G signal channel of the input signals. Japanese Laid-Open Patent Publication No. 2007-243330 proposes a method that uses the difference between luminance and color difference. However, the technique described in Japanese Patent Application Laid-Open No. 2001-245142 has a problem that, for example, red or yellow color characters on a white background with little variation in the G signal cannot be detected. In addition, the technique described in Japanese Patent Application Laid-Open No. 2007-243330 has a problem that, for example, it is difficult to detect a yellow character on a white background in which only the B signal is changed.

この発明の一形態は、画像の種類を効率的かつ高精度に識別でき、適切な画像処理を確実に行うことができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   An object of one aspect of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of efficiently and accurately identifying the type of an image, and capable of reliably performing appropriate image processing. .

この発明の一形態としての画像処理装置は、複数成分の値からなる画素で構成される画像データを入力する入力手段と、この入力手段により入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する混合比算出手段と、前記入力手段により入力した画像データにおける各画素について各成分の値と前記混合比算出手段により算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する演算手段と、前記演算手段により算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する文字判定手段と、この文字判定手段による判定結果に応じて文字画像あるいは線画に属する画素と属さない画素とに対してそれぞれ異なる画像処理を行う画像処理手段とを有する。 An image processing apparatus according to an aspect of the present invention includes an input unit that inputs image data including pixels composed of a plurality of component values , and each component value of each pixel in the image data input by the input unit. a mixing ratio calculation means for calculating a mixing ratio of the components, the sum of a value obtained by multiplying the calculated mixture ratio by each pixel value of the components the mixing ratio calculating means in the input image data by said input means A calculation means for calculating the luminance equivalent value of each pixel; a character determination means for determining whether each pixel is a pixel belonging to a character image or a line drawing based on the luminance equivalent value calculated by the calculation means; and the character Image processing means for performing different image processing on pixels belonging to a character image or line drawing and pixels not belonging to the character image or line drawing according to the determination result by the determination means. That.

この発明の一形態としての画像処理装置は、複数成分の値からなる画素で構成される画像データを入力する入力手段と、この入力手段により入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する混合比算出手段と、前記入力手段により入力した画像データにおける各画素が有彩色あるか無彩色であるかを判定する色判定手段と、前記入力手段により入力した画像データにおける各画素について各成分の値と前記混合比算出手段により算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する演算手段と、前記演算手段により算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する文字判定手段と、この文字判定手段による判定結果と前記色判定手段による判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う画像処理手段とを有する。 An image processing apparatus according to an aspect of the present invention includes an input unit that inputs image data including pixels composed of a plurality of component values , and each component value of each pixel in the image data input by the input unit. A mixture ratio calculating means for calculating a mixture ratio of components; a color determining means for determining whether each pixel in the image data input by the input means is chromatic or achromatic; and image data input by the input means Calculating means for calculating the sum of values obtained by multiplying the value of each component by the mixing ratio calculated by the mixing ratio calculating means for each pixel in the pixel as a luminance equivalent value of each pixel, and the luminance equivalent calculated by the calculating means Character determination means for determining whether each pixel is a pixel belonging to a character image or line drawing based on the value, a determination result by the character determination means, and the color Different image processing for pixels belonging to a chromatic character image or line drawing, pixels belonging to an achromatic character image or line drawing, and pixels not belonging to the character image or line drawing, depending on the determination result by the determination means Image processing means.

この発明の一形態としての画像処理方法は、複数成分の値からなる画素で構成される画像データを入力し、この入力した画像データにおける各画素について各成分の値から各成分の混合比を算出し、前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出し、この算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定し、この判定結果に応じて文字画像あるいは線画に属する画素と文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う。 According to an image processing method as an aspect of the present invention, image data including pixels composed of a plurality of component values is input, and a mixing ratio of each component is calculated from each component value for each pixel in the input image data. Then, for each pixel in the input image data, a sum of values obtained by multiplying the value of each component and the calculated mixing ratio is calculated as a luminance equivalent value of each pixel, and based on the calculated luminance equivalent value It is determined whether each pixel is a pixel belonging to a character image or a line drawing, and different image processing is performed on pixels belonging to the character image or line drawing and pixels not belonging to the character image or line drawing according to the determination result. Do.

この発明の一形態としての画像処理方法は、複数成分の値からなる画素で構成される画像データを入力し、この入力した画像データにおける各画素が有彩色であるか無彩色であるかを判定し、前記入力した画像データにおける各画素について各成分の値から各成分の混合比を算出し、前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出し、前記算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定し、この判定結果と前記有彩色か無彩色かの判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対して、それぞれ異なる画像処理を行う。 An image processing method as one aspect of the present invention inputs image data composed of pixels composed of a plurality of component values, and determines whether each pixel in the input image data is a chromatic color or an achromatic color. and calculates the mixing ratio of the components from the value of each component for each pixel in the image data the input, multiplied by the mixing ratio which is the calculated value of each component for each pixel in the image data the input The sum of the values is calculated as the luminance equivalent value of each pixel, and based on the calculated luminance equivalent value, it is determined whether or not each pixel is a pixel belonging to a character image or a line drawing. Depending on the achromatic color determination result, pixels belonging to a chromatic character image or line drawing, pixels belonging to an achromatic character image or line drawing, and pixels not belonging to the character image or line drawing are compared. Te, perform different image processing.

この発明の一形態としての画像処理プログラムは、コンピュータに、複数成分の値からなる画素で構成される画像データを入力する機能と、この入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する機能と、前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する機能と、この算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する機能と、この判定結果に応じて文字画像あるいは線画に属する画素と文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う機能とを実現させる。 An image processing program according to an aspect of the present invention has a function of inputting image data composed of pixels composed of values of a plurality of components to a computer, and each component from the value of each component for each pixel in the input image data. a function of calculating a mixing ratio of the function of calculating the sum of values obtained by multiplying the mixing ratio which is the calculated value of each component for each pixel in the image data the input as the luminance equivalent value of each pixel, A function for determining whether each pixel is a pixel belonging to a character image or a line drawing based on the calculated luminance equivalent value, and a pixel belonging to the character image or line drawing and a pixel belonging to the character image or line drawing according to the determination result And a function of performing different image processing on each pixel that is not present.

この発明の一形態としての画像処理プログラムは、コンピュータに、複数成分の値からなる画素で構成される画像データを入力する機能と、この入力した画像データにおける各画素が有彩色であるか無彩色であるかを判定する機能と、前記入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する機能と、前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する機能と、前記算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する機能と、この判定結果と前記有彩色か無彩色かの判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対して、それぞれ異なる画像処理を行う機能とを実現させる。 An image processing program according to an aspect of the present invention includes a function of inputting image data including pixels composed of a plurality of component values to a computer, and whether each pixel in the input image data is chromatic or achromatic. a function of determining whether there are, the function of calculating the mixture ratio of the components for each pixel in the image data the input from the value of each component, the calculated value of each component for each pixel in the image data the input A function of calculating a sum of values obtained by multiplying the mixed ratio as a luminance equivalent value of each pixel, and whether each pixel is a pixel belonging to a character image or a line drawing based on the calculated luminance equivalent value. Depending on the determination function and the determination result and the determination result of the chromatic color or the achromatic color, there may be a pixel belonging to a chromatic character image or line image, and an achromatic character image. And pixels belonging to a line drawing, with respect to a pixel not belonging to the character image or line drawing, thereby realizing the function of performing different image processing.

この発明の一形態によれば、画像の種類を効率的かつ高精度に識別でき、適切な画像処理を確実に行うことができる画像処理装置、画像処理方法および画像処理プログラムを提供できる。   According to an aspect of the present invention, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can identify the type of image efficiently and with high accuracy and can reliably perform appropriate image processing.

図1は、デジタル複合機の全体構成例を概略的に示す模式図である。FIG. 1 is a schematic diagram schematically illustrating an example of the overall configuration of a digital multifunction peripheral. 図2は、デジタル複合機および主制御部の構成を示すブロック図である。FIG. 2 is a block diagram illustrating the configuration of the digital multifunction peripheral and the main control unit. 図3は、第1の実施例としての画像処理部の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of the image processing unit as the first embodiment. 図4(a)は、縦方向における画素間の差分算出方法を説明するための図である。図4(b)は、横方向における画素間の差分算出方法を説明するための図である。FIG. 4A is a diagram for explaining a method for calculating a difference between pixels in the vertical direction. FIG. 4B is a diagram for explaining a method for calculating a difference between pixels in the horizontal direction. 図5(a)および図5(b)は、斜め方向における画素間の差分算出方法を説明するための図である。FIG. 5A and FIG. 5B are diagrams for explaining a method for calculating a difference between pixels in an oblique direction. 図6は、第2の実施例としての画像処理部の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of an image processing unit according to the second embodiment. 図7は、第3の実施例としての画像処理部の構成例を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration example of an image processing unit as a third embodiment. 図8は、第4の実施例としての画像処理の流れを説明するためのフローチャートである。FIG. 8 is a flowchart for explaining the flow of image processing according to the fourth embodiment. 図9は、第5の実施例としての画像処理の流れを説明するためのフローチャートである。FIG. 9 is a flowchart for explaining the flow of image processing according to the fifth embodiment.

以下、この発明の実施の形態について図面を参照して詳細に説明する。
図1は、デジタル複合機1の全体構成例を概略的に示す模式図である。
図1に示すデジタル複合機1は、画像処理装置あるいは画像形成装置として機能する。図1に示すデジタル複合機1は、コピー機、スキャナ、プリンタ、ファクシミリ、あるいは、ネットワーク通信機としての機能を有する。図1に示す構成例では、デジタル複合機1は、主制御部10、スキャナ11、プリンタ12、ファクシミリ通信部(FAX部)13、ネットワーク通信部(NW部)14、および、操作部15を有する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram schematically showing an example of the overall configuration of the digital multifunction machine 1.
A digital multifunction peripheral 1 shown in FIG. 1 functions as an image processing apparatus or an image forming apparatus. A digital multifunction device 1 shown in FIG. 1 has a function as a copier, a scanner, a printer, a facsimile, or a network communication device. In the configuration example illustrated in FIG. 1, the digital multifunction peripheral 1 includes a main control unit 10, a scanner 11, a printer 12, a facsimile communication unit (FAX unit) 13, a network communication unit (NW unit) 14, and an operation unit 15. .

上記主制御部10は、デジタル複合機1全体を制御する。すなわち、上記主制御部10は、操作部(コントロールパネル)15においてユーザから操作指示を受け付け、スキャナ11、プリンタ12、ファクシミリ通信部13、ネットワーク通信部14および操作部15を制御する。また、上記主制御部10は、画像データを処理する画像処理部などを有する。   The main control unit 10 controls the entire digital multi-function peripheral 1. That is, the main control unit 10 receives an operation instruction from the user through the operation unit (control panel) 15 and controls the scanner 11, printer 12, facsimile communication unit 13, network communication unit 14, and operation unit 15. The main control unit 10 includes an image processing unit that processes image data.

上記スキャナ11は、記録媒体(原稿)上の画像を読み取る。上記スキャナ11は、原稿の画像を光学的に走査して画像データに変換する読取ユニット(図示しない)を有する。読取ユニットは、読取った画像データを主制御部10へ供給する。たとえば、上記読取ユニットは、駆動機構、CCDラインセンサおよび信号処理部(何れも図示しない)を有している。読取ユニットは、駆動機構により原稿に対して副走査方向に移動しつつ、CCDラインセンサにより原稿の画像を読取る。CCDラインセンサは、原稿に対して主走査方向に並べられた複数のCCDセンサにより構成される。CCDラインセンサは、原稿からの反射光をアナログの画像信号に変換する。信号処理部は、CCDラインセンサが読取ったアナログの画像信号をデジタルの画像信号に変換する。   The scanner 11 reads an image on a recording medium (original). The scanner 11 has a reading unit (not shown) that optically scans an image of a document and converts it into image data. The reading unit supplies the read image data to the main control unit 10. For example, the reading unit includes a driving mechanism, a CCD line sensor, and a signal processing unit (all not shown). The reading unit reads an image of the document by the CCD line sensor while moving in the sub-scanning direction with respect to the document by the driving mechanism. The CCD line sensor is composed of a plurality of CCD sensors arranged in the main scanning direction with respect to the document. The CCD line sensor converts reflected light from the document into an analog image signal. The signal processing unit converts an analog image signal read by the CCD line sensor into a digital image signal.

なお、本実施の形態では、上記スキャナ11は、原稿の画像を赤(R)、緑(G)、および、青(B)の各色成分の信号値(原色系の画素値)からなるカラー画像データとして読取るものとする。また、本実施の形態では、上記スキャナ11が読取った画像データの各画素(各画素の色)は、R成分の信号値としての濃度値(以下、単にRと記述する)、G成分の信号値としての濃度値(以下、単にGと記述する)、および、B成分の信号値としての濃度値(以下、単にBと記述する)で表現されるものとする。   In this embodiment, the scanner 11 converts a document image into a color image composed of signal values (primary color system pixel values) of red (R), green (G), and blue (B) color components. It shall be read as data. In the present embodiment, each pixel (color of each pixel) of the image data read by the scanner 11 has a density value (hereinafter simply referred to as R) as a signal value of R component, and a signal of G component. It is expressed by a density value as a value (hereinafter simply referred to as G) and a density value as a B component signal value (hereinafter simply referred to as B).

上記プリンタ12は、プリント用の画像を被画像形成媒体に形成する。たとえば、コピー処理を行う場合、主制御部10は、上記スキャナ11が読み取った原稿の画像をプリント用の画像データに変換する。プリンタ12は、主制御部10によりプリント用に処理された原稿の画像データをコピー用紙にプリントする。なお、上記プリンタ12としては、任意の画像形成方式のプリンタが適用できる。たとえば、上記プリンタ12は、レーザプリンタであっても良いし、インクジェットプリンタであっても良い。上記プリンタ12では、シアン(C)、マゼンタ(M)およびイエロー(Y)の各色成分の信号値(補色系の画素値)とブラック(K)成分の信号値とからなる画像データをプリント用の画像データとする。   The printer 12 forms an image for printing on an image forming medium. For example, when performing copy processing, the main control unit 10 converts an image of a document read by the scanner 11 into image data for printing. The printer 12 prints image data of a document processed for printing by the main control unit 10 on a copy sheet. As the printer 12, a printer of any image forming method can be applied. For example, the printer 12 may be a laser printer or an inkjet printer. In the printer 12, image data composed of the signal values of the cyan (C), magenta (M), and yellow (Y) color components (complementary color pixel values) and the black (K) component are printed. Let it be image data.

上記ファクシミリ通信部(FAX部)13は、ファクシミリデータとしての画像データの送受信を行うインタフェースである。上記FAX部13は、電話回線に接続される。上記FAX部13は、ファクシミリ電送方式により電話回線を介して画像データを送受信する。上記ネットワーク通信部(NW部)14は、LANなどのネットワーク通信を行うためのインターフェースである。たとえば、当該デジタル複合機1がネットワークスキャナとして利用される場合、上記NW部14は、主制御部10により処理された画像データを操作部15などで指定されるネットワーク上の宛先の機器(たとえば、ユーザ端末)へ送信する。   The facsimile communication unit (FAX unit) 13 is an interface for transmitting and receiving image data as facsimile data. The FAX unit 13 is connected to a telephone line. The FAX unit 13 transmits and receives image data via a telephone line by a facsimile transmission method. The network communication unit (NW unit) 14 is an interface for performing network communication such as a LAN. For example, when the digital multi-function peripheral 1 is used as a network scanner, the NW unit 14 sends image data processed by the main control unit 10 to a destination device on the network designated by the operation unit 15 (for example, To the user terminal.

上記操作部(コントロールパネル)15は、ユーザが操作指示を入力したり、ユーザに対して案内を表示したりするものである。上記操作部15は、表示装置および操作キーなどにより構成される。たとえば、上記操作部15は、タッチパネル内蔵の液晶表示装置とテンキーなどのハードキーとを有する。   The operation unit (control panel) 15 is used by the user to input an operation instruction or display guidance for the user. The operation unit 15 includes a display device and operation keys. For example, the operation unit 15 includes a liquid crystal display device with a built-in touch panel and hard keys such as a numeric keypad.

次に、主制御部10の構成について説明する。
図2は、デジタル複合機1および主制御部10の構成例を示すブロック図である。
図2に示すように、上記主制御部10は、CPU21、メインメモリ22、HDD23、入力画像処理部24、ページメモリ25、および、出力画像処理部26などを有する。
上記CPU21は、当該デジタル複合機1全体の制御を司るものである。上記CPU21は、たとえば、図示しないプログラムメモリに記憶されているプログラムを実行することにより、種々の機能を実現する。上記メインメモリ22は、作業用のデータなどが格納されるメモリである。上記CPU21は、メインメモリ22を使用して種々のプログラムを実行することにより種々の処理を実現する。
Next, the configuration of the main control unit 10 will be described.
FIG. 2 is a block diagram illustrating a configuration example of the digital multifunction peripheral 1 and the main control unit 10.
As shown in FIG. 2, the main control unit 10 includes a CPU 21, a main memory 22, an HDD 23, an input image processing unit 24, a page memory 25, an output image processing unit 26, and the like.
The CPU 21 controls the entire digital multi-function peripheral 1. The CPU 21 implements various functions, for example, by executing a program stored in a program memory (not shown). The main memory 22 is a memory for storing work data and the like. The CPU 21 implements various processes by executing various programs using the main memory 22.

たとえば、上記CPU21は、コピー制御用のプログラムに従って上記スキャナ11および上記プリンタ12を制御することにより、コピー制御を実現する。すなわち、デジタル複合機1は、上記CPU21がコピー制御用のプログラムを実行することによりコピー機として機能する。   For example, the CPU 21 realizes copy control by controlling the scanner 11 and the printer 12 in accordance with a copy control program. That is, the digital multi-function peripheral 1 functions as a copier when the CPU 21 executes a copy control program.

また、上記CPU21は、ファクシミリ制御用のプログラムを従って上記スキャナ11および上記ファクシミリ通信部13を制御することにより、ファクシミリ機能を実現する。また、上記CPU21は、ネットワークスキャン制御用のプログラムを従って上記スキャナ11および上記ネットワーク通信部14を制御することにより、ネットワークスキャン処理を実現する。   Further, the CPU 21 realizes a facsimile function by controlling the scanner 11 and the facsimile communication unit 13 in accordance with a facsimile control program. Further, the CPU 21 realizes a network scan process by controlling the scanner 11 and the network communication unit 14 in accordance with a network scan control program.

上記HDD(ハードディスクドライブ)23は、不揮発性の大容量のメモリである。たとえば、上記HDD23は、画像データを保存する。また、上記HDD23は、各種の処理における設定値(デフォルト設定値)を記憶する。さらに、上記HDD23には、上記CPU21が実行するプログラムを記憶するようにしても良い。   The HDD (hard disk drive) 23 is a nonvolatile large-capacity memory. For example, the HDD 23 stores image data. The HDD 23 stores setting values (default setting values) for various processes. Further, the HDD 23 may store a program executed by the CPU 21.

上記入力画像処理部24は、入力画像を処理する。上記入力画像処理部24は、当該デジタル複合機の動作モードに応じてスキャナ11などから入力する入力画像データを処理する。上記CPU21は、上記入力画像処理部24に対して動作モードに応じた処理内容を指示する。図2に示す構成例において、上記入力画像処理部24は、スキャナ11が読み取った画像を入力画像として処理するスキャナ系の画像処理部として機能する。この場合、上記入力画像処理部24は、スキャナ11により読取った画像データに対して、シェーディング補正処理、ライン間補正処理、フィルタ処理、階調変換処理、圧縮処理などを実行する。   The input image processing unit 24 processes an input image. The input image processing unit 24 processes input image data input from the scanner 11 or the like according to the operation mode of the digital multi-function peripheral. The CPU 21 instructs the input image processing unit 24 on the processing content corresponding to the operation mode. In the configuration example illustrated in FIG. 2, the input image processing unit 24 functions as a scanner-type image processing unit that processes an image read by the scanner 11 as an input image. In this case, the input image processing unit 24 performs shading correction processing, interline correction processing, filter processing, gradation conversion processing, compression processing, and the like on the image data read by the scanner 11.

シェーディング補正処理は、CCDにおける各光電変換素子の感度ばらつき、あるいは、原稿を照明するためのランプ(図示しない)の配光特性に応じて、画像データを補正する処理である。ライン間補正処理は、スキャナ11のCCDラインセンサにおけるRGBの各センサの物理的な位置ずれを補正する処理である。階調変換処理は、たとえば、画像データを構成する各画素の値を図示しないルックアップテーブルに従って変換する。圧縮処理は、画像データを圧縮する処理である。ページメモリ25は、圧縮処理された画像データとしての符号データを格納する。   The shading correction process is a process for correcting the image data in accordance with the sensitivity variation of each photoelectric conversion element in the CCD or the light distribution characteristic of a lamp (not shown) for illuminating the document. The inter-line correction process is a process for correcting a physical positional shift of each of the RGB sensors in the CCD line sensor of the scanner 11. In the gradation conversion process, for example, the value of each pixel constituting the image data is converted according to a lookup table (not shown). The compression process is a process for compressing image data. The page memory 25 stores code data as compressed image data.

なお、上記入力画像処理部24における種々の画像処理は、上記CPU21が画像処理用のプログラムを実行することにより実現するようにしても良い。また、入力画像処理部24により処理される画像は、スキャナ11から入力される画像データに限定されない。たとえば、入力画像処理部24は、NW部14によりネットワーク経由で受信する画像データ、あるいは、FAX部13によりファクシミリ通信で受信する画像データを入力画像として処理するようにしても良い。   The various image processes in the input image processing unit 24 may be realized by the CPU 21 executing a program for image processing. Further, the image processed by the input image processing unit 24 is not limited to the image data input from the scanner 11. For example, the input image processing unit 24 may process image data received by the NW unit 14 via a network or image data received by facsimile communication by the FAX unit 13 as an input image.

上記ページメモリ25は、処理対象とする画像データを記憶するメモリである。たとえば、上記ページメモリ25は、1ページ分のカラー画像データを格納する。上記ページメモリ25は、図示しないページメモリ制御部により制御される。図2に示す構成例では、上記ページメモリ25は、上記入力画像処理部24により処理された処理結果としての画像データを格納する。   The page memory 25 is a memory for storing image data to be processed. For example, the page memory 25 stores color image data for one page. The page memory 25 is controlled by a page memory control unit (not shown). In the configuration example shown in FIG. 2, the page memory 25 stores image data as a processing result processed by the input image processing unit 24.

上記出力画像処理部26は、出力画像を処理する。図2に示す構成例では、上記出力画像処理部26は、出力画像処理部26は、プリンタ12が用紙にプリントする画像データを生成するプリンタ系の画像処理部として機能する。たとえば、上記出力画像処理部26は、上記ページメモリ25に格納されている画像データをプリンタ用の画像データに変換する。なお、上記出力画像処理部26としての種々の画像処理は、上記CPU21が画像処理用のプログラムを実行することにより実現するようにしても良い。   The output image processing unit 26 processes the output image. In the configuration example illustrated in FIG. 2, the output image processing unit 26 functions as a printer-type image processing unit that generates image data to be printed on paper by the printer 12. For example, the output image processing unit 26 converts the image data stored in the page memory 25 into image data for a printer. The various image processes as the output image processing unit 26 may be realized by the CPU 21 executing an image processing program.

次に、上記入力画像処理部24における画像処理について説明する。
上記入力画像処理部24では、上述したように、スキャナ11などの入力系から入力した画像データに対して種々の画像処理を行う。たとえば、上記入力画像処理部24は、スキャナ11が入力した画像データに対して、シェーディング補正処理、ライン間補正処理、色変換処理、変倍処理、フィルタ処理、墨入れ処理、ガンマ補正、階調処理、および、圧縮処理などの各種の画像処理を行う。
Next, image processing in the input image processing unit 24 will be described.
As described above, the input image processing unit 24 performs various image processing on the image data input from the input system such as the scanner 11. For example, the input image processing unit 24 performs shading correction processing, interline correction processing, color conversion processing, scaling processing, filter processing, inking processing, gamma correction, gradation on image data input by the scanner 11. Various image processing such as processing and compression processing are performed.

シェーディング補正処理は、CCDにおける各光電変換素子の感度ばらつき、あるいは、原稿を照明するためのランプ(図示しない)の配光特性に応じて、画像データを補正する処理である。ライン間補正処理は、スキャナ11のCCDラインセンサにおけるRGBの各センサの物理的な位置ずれを補正する処理である。   The shading correction process is a process for correcting the image data in accordance with the sensitivity variation of each photoelectric conversion element in the CCD or the light distribution characteristic of a lamp (not shown) for illuminating the document. The inter-line correction process is a process for correcting a physical positional shift of each of the RGB sensors in the CCD line sensor of the scanner 11.

色変換処理は、入力した画像データの画素変換処理を行う。たとえば、スキャナ11は、原稿の画像をR(赤)、G(緑)およびB(青)信号からなるカラー画像データとして読取るものが多く、プリンタ12はC(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)信号からなるカラー画像データを印刷するものが多い。このような場合、画素変換処理は、スキャナ11から入力したR、G、B信号からなるカラー画像をC、M、Y、K信号からなるプリント用の画像データに変換する。   The color conversion process performs a pixel conversion process on input image data. For example, the scanner 11 often reads an image of a document as color image data composed of R (red), G (green), and B (blue) signals, and the printer 12 reads C (cyan), M (magenta), and Y Many print color image data composed of (yellow) and K (black) signals. In such a case, the pixel conversion process converts the color image composed of R, G, B signals input from the scanner 11 into image data for printing composed of C, M, Y, K signals.

フィルタ処理は、画像の種類に応じて画像データを補正する処理である。フィルタ処理は、たとえば、MTF補正処理である。墨入れ処理は、画像データにおいて黒単色でプリントすべき黒文字などの画素領域を検出する処理である。墨入れ処理は、黒文字などの黒単色部分の再現性を向上させるための処理である。ガンマ補正処理は、プリンタ12のガンマ特性に応じて画像データを補正する処理である。階調処理は、画像データをスクリーン処理する。階調処理は、たとえば、画像データを構成する各画素の値を図示しないルックアップテーブルに従って変換する。圧縮処理は、画像データを圧縮する処理である。
なお、上記のような各種の画像処理は、上記出力画像処理部26が上記ページメモリ25に記憶した画像データをプリント用の画像として最適化な画像データに変換するための画像処理として実行するようにしても良い。
The filter process is a process for correcting image data in accordance with the type of image. The filter process is, for example, an MTF correction process. The inking process is a process for detecting a pixel area such as a black character to be printed with a single black color in the image data. The inking process is a process for improving the reproducibility of a black monochrome part such as a black character. The gamma correction process is a process for correcting image data in accordance with the gamma characteristic of the printer 12. In the gradation processing, image data is screen-processed. In the gradation processing, for example, the value of each pixel constituting the image data is converted according to a lookup table (not shown). The compression process is a process for compressing image data.
The various image processes as described above are executed as an image process for converting the image data stored in the page memory 25 by the output image processing unit 26 into image data optimized as a print image. Anyway.

以下、入力画像処理部24として適用される画像処理部としての第1〜第5の実施例について説明する。
まず、第1の実施例について説明する。
図3は、第1の実施例としての画像処理部100の構成例を示すブロック図である。
図3に示す構成例では、画像処理部100は、入力インターフェース(I/F)101、色変換部102、混合比算出部103、演算部104、特徴量算出部105、文字判定部106、変倍処理部107、フィルタ処理部108、階調処理部109、および、出力インターフェース(I/F)110などにより構成されている。
Hereinafter, first to fifth embodiments as image processing units applied as the input image processing unit 24 will be described.
First, the first embodiment will be described.
FIG. 3 is a block diagram illustrating a configuration example of the image processing unit 100 according to the first embodiment.
In the configuration example illustrated in FIG. 3, the image processing unit 100 includes an input interface (I / F) 101, a color conversion unit 102, a mixture ratio calculation unit 103, a calculation unit 104, a feature amount calculation unit 105, a character determination unit 106, a variable determination unit 106. A double processing unit 107, a filter processing unit 108, a gradation processing unit 109, and an output interface (I / F) 110 are configured.

入力I/F101は、スキャナ11あるいは各種の外部インターフェースなどの入力系から画像データを取得するためのインターフェースである。ここでは、入力I/F101は、スキャナ11が読み取った赤(レッド、R)、緑(グリーン、G)、青(ブルー、B)信号からなるカラーの画像データを取得することを想定して説明する。入力I/F101は、入力したカラーの画像データを色変換部102、混合比算出部103および演算部104へ供給する。ここでは、入力I/F101は、R、G、B成分の各信号値(R、G、Bの3つのチャネルの信号)を有する画素データからなるカラー画像データを各部へ供給するものとする。   The input I / F 101 is an interface for acquiring image data from an input system such as the scanner 11 or various external interfaces. Here, it is assumed that the input I / F 101 acquires color image data composed of red (red, R), green (green, G), and blue (blue, B) signals read by the scanner 11. To do. The input I / F 101 supplies the input color image data to the color conversion unit 102, the mixture ratio calculation unit 103, and the calculation unit 104. Here, it is assumed that the input I / F 101 supplies color image data including pixel data having signal values of R, G, and B components (signals of three channels of R, G, and B) to each unit.

色変換部102は、R、G、B成分の各信号値からなるカラー画像データをシアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の各信号値を有する画素データからなるカラー画像データに変換する。言い換えると、色変換部102は、R、G、B成分の各信号値からなるカラー画像データを、C、M、Y成分の各信号値からなるカラー画像データとブラック(K)の信号値からなるモノクロ画像データに変換する。   The color conversion unit 102 converts color image data including R, G, and B component signal values from pixel data having cyan (C), magenta (M), yellow (Y), and black (K) signal values. To color image data. In other words, the color conversion unit 102 converts color image data composed of signal values of R, G, and B components from color image data composed of signal values of C, M, and Y components and a signal value of black (K). To monochrome image data.

混合比算出部103は、R,G、B成分の各信号(色分解信号)を対象とする画素の色度に対応させて変換する。混合比算出部103は、たとえば、画素ごとに入力された信号をSi(i=r,g,b)として、Siに対する混合比Piを次の数式(1)により算出する。

Figure 0005005734
The mixing ratio calculation unit 103 converts R, G, and B component signals (color separation signals) according to the chromaticity of the target pixel. For example, the mixture ratio calculation unit 103 calculates the mixture ratio Pi with respect to Si by the following equation (1), assuming that the signal input for each pixel is Si (i = r, g, b).
Figure 0005005734

なお、上記数式(1)において、jは、上述のiと同様にr,g,bとする。また、上記数式(1)における係数αは、0割例外処理を防止するために加算する必要最小限の値を表す。上記係数αは、混合比を算出する成分を除く全成分の和と混合比を産出する成分を含む全成分の和で除した値(混合比)に影響を与えない程度の微小な値である。   In the above mathematical formula (1), j is r, g, b as in the case of i described above. In addition, the coefficient α in the formula (1) represents a minimum necessary value to be added in order to prevent the 0% exception process. The coefficient α is a minute value that does not affect the value (mixing ratio) obtained by dividing the sum of all components excluding the component for which the mixing ratio is calculated and the sum of all components including the component that produces the mixing ratio. .

上記数式(1)によれば、たとえば、以下のように、(R、G、B)の各値に対して、各成分の混合比が算出される。
R=0、G=0、B=255である場合、R成分の混合比Prは「0.5」、G成分の混合比は「0.5」、B成分の混合比は「0」となる。
R=51、G=51、B=204である場合、R成分の混合比Prは「0.417」、G成分の混合比は「0.417」、B成分の混合比は「0.167」となる。
R=128、G=128、B=128である場合、R成分の混合比Prは「0.333」、G成分の混合比は「0.333」、B成分の混合比は「0.333」となる。
According to the formula (1), for example, the mixing ratio of each component is calculated for each value of (R, G, B) as follows.
When R = 0, G = 0, and B = 255, the mixing ratio Pr of the R component is “0.5”, the mixing ratio of the G component is “0.5”, and the mixing ratio of the B component is “0”. Become.
When R = 51, G = 51, and B = 204, the R component mixing ratio Pr is “0.417”, the G component mixing ratio is “0.417”, and the B component mixing ratio is “0.167”. "
When R = 128, G = 128, and B = 128, the R component mixing ratio Pr is “0.333”, the G component mixing ratio is “0.333”, and the B component mixing ratio is “0.333”. "

上記混合比Piが算出される対象画素では、特定の信号のみが変動していない場合でも、補色の信号の変動を反映させて文字識別の特徴量の調整が可能となる。上記混合比算出部103は、上記のように算出した各成分の混合比Piと前記各成分の信号値Siとを演算部104へ供給する。   In the target pixel for which the mixture ratio Pi is calculated, even when only a specific signal does not change, it is possible to adjust the feature quantity for character identification by reflecting the change in the complementary color signal. The mixing ratio calculation unit 103 supplies the calculation unit 104 with the mixing ratio Pi of each component calculated as described above and the signal value Si of each component.

演算部104は、信号値Siと混合比Piにより特徴量を算出するために用いる値Vを次の数式(2)で算出する。

Figure 0005005734
The calculation unit 104 calculates a value V used for calculating the feature amount from the signal value Si and the mixing ratio Pi by the following formula (2).
Figure 0005005734

上記値Vは、各成分の信号値と各成分の混合比とを掛け合わせた値の総和である。この値Vは、当該画素における輝度に相当する輝度相当値である。したがって、演算部104は、各画素についてそれぞれ1つの輝度相当値Vを算出するようになっている。   The value V is the sum of values obtained by multiplying the signal value of each component by the mixing ratio of each component. This value V is a luminance equivalent value corresponding to the luminance in the pixel. Therefore, the calculation unit 104 calculates one luminance equivalent value V for each pixel.

上記演算部104は、上記数式(2)で算出した特徴量を算出するための値Vを特徴量算出部105に供給する。特徴量算出部105は、識別対象とする画素周辺の状態を示す特徴量を算出する。特徴量算出部105は、識別対象とする画素とその周辺画素を含む所定のサイズの部分画像(オペレータ)を用いて、対象とする画素に対する特徴量を算出する。ここでは、ある画素に対する特徴量は、当該画素周辺の差分値の状態を示す値であるものとする。   The calculation unit 104 supplies the feature value calculation unit 105 with a value V for calculating the feature value calculated by the mathematical formula (2). The feature amount calculation unit 105 calculates a feature amount indicating a state around the pixel to be identified. The feature amount calculation unit 105 calculates a feature amount for the target pixel using a partial image (operator) having a predetermined size including the pixel to be identified and its peripheral pixels. Here, it is assumed that the feature amount for a certain pixel is a value indicating the state of the difference value around the pixel.

上記特徴量算出部105による特徴量の算出方法の例について説明する。
図4(a)および図4(b)は、それぞれオペレータのサイズを5×5画素とした場合の特徴量の算出方法を説明するための図である。図4(a)及び図4(b)にいおいて、特徴量を求める画素は、これらのオペレータの中央に位置するハッチングを施した画素である。図4(a)および図4(b)では、オペレータにおいて差分を求める画素の方向を示している。
An example of a feature amount calculation method by the feature amount calculation unit 105 will be described.
FIG. 4A and FIG. 4B are diagrams for explaining a feature amount calculation method when the size of the operator is 5 × 5 pixels, respectively. In FIG. 4A and FIG. 4B, the pixel for which the feature amount is obtained is a hatched pixel located at the center of these operators. 4A and 4B show the pixel directions for which the operator obtains the difference.

図4(a)では、オペレータの各列ごと(縦方向)に画素間の差分を算出することを示している。すなわち、上記特徴量算出部105は、図4(a)に示すように、各列ごとに主走査方向における画素間の差分の絶対値を求める。これらの各列ごとの画素間の差分の絶対値を算出すると、特徴量算出部105は、各列内における差分の絶対値の最大値を求める。特徴量算出部105は、上記の処理をオペレータの全ての列に対して行う。全列について上記処理を実行すると、特徴量算出部105は、各列の最大値により全列の平均値を求める。この全列の平均値は、当該オペレータの縦方向における画素値の変化を示す値、つまり、主走査方向における画素値の変化を示す値Φmainである。上記のようなオペレータの縦方向における画素間の差分から得られる主走査方向の変化値Φmainは、次の数式(3)で表せる。

Figure 0005005734
FIG. 4A shows that the difference between pixels is calculated for each column (vertical direction) of the operator. That is, as shown in FIG. 4A, the feature amount calculation unit 105 obtains an absolute value of a difference between pixels in the main scanning direction for each column. When the absolute value of the difference between pixels for each column is calculated, the feature amount calculation unit 105 obtains the maximum value of the absolute value of the difference in each column. The feature amount calculation unit 105 performs the above processing for all the columns of the operator. When the above processing is executed for all the columns, the feature amount calculation unit 105 obtains an average value of all the columns based on the maximum value of each column. The average value of all the columns is a value indicating a change in the pixel value in the vertical direction of the operator, that is, a value Φmain indicating a change in the pixel value in the main scanning direction. The change value Φmain in the main scanning direction obtained from the difference between the pixels in the vertical direction of the operator as described above can be expressed by the following formula (3).
Figure 0005005734

また、図4(b)では、オペレータの各行ごと(横方向)に画素間の差分を算出することを示している。すなわち、上記特徴量算出部105は、図4(b)に示すように、各行ごとに主走査方向における画素間の差分の絶対値を求める。これらの各行ごとの画素間の差分の絶対値を算出すると、特徴量算出部105は、各行内における差分の絶対値の最大値を求める。特徴量算出部105は、上記処理をオペレータの全ての行に対して行う。全行について上記処理を実行すると、特徴量算出部105は、各行の最大値により全行の平均値を求める。この全行の平均値は、当該オペレータの横方向における画素値の変化を示す値、つまり、副走査方向における画素値の変化を示す値Φsubである。上記のようなオペレータの横方向における画素間の差分から得られる副走査方向の変化値Φsubは、次の数式(4)で表せる。

Figure 0005005734
Further, FIG. 4B shows that a difference between pixels is calculated for each row (horizontal direction) of the operator. That is, as shown in FIG. 4B, the feature amount calculation unit 105 obtains an absolute value of a difference between pixels in the main scanning direction for each row. When the absolute value of the difference between the pixels for each row is calculated, the feature amount calculation unit 105 obtains the maximum absolute value of the difference in each row. The feature amount calculation unit 105 performs the above process on all lines of the operator. When the above processing is executed for all the rows, the feature amount calculation unit 105 obtains an average value of all the rows based on the maximum value of each row. The average value of all the rows is a value indicating a change in the pixel value in the horizontal direction of the operator, that is, a value Φsub indicating a change in the pixel value in the sub-scanning direction. The change value Φsub in the sub-scanning direction obtained from the difference between pixels in the horizontal direction of the operator as described above can be expressed by the following formula (4).
Figure 0005005734

上記ΦmainとΦsubとを算出すると、特徴量算出部105は、さらに、主走査方向と副走査方向とのどちらか一方に差分値の偏りがある個所を検出する。このため、特徴量算出部105は、ΦmainとΦsubとの差の絶対値を対象画素の特徴量Φ1として求める。   When the above Φmain and Φsub are calculated, the feature amount calculation unit 105 further detects a portion where the difference value is biased in either the main scanning direction or the sub-scanning direction. Therefore, the feature amount calculation unit 105 obtains the absolute value of the difference between Φmain and Φsub as the feature amount Φ1 of the target pixel.

文字判定部106は、上記特徴量算出部105により算出された特徴量Φ1と予め設定されている第1の文字閾値Th1とを比較する。すなわち、上記特徴量算出部105から特徴量Φ1が供給された場合、文字判定部106は、特徴量Φ1が第1の文字閾値Th1以上であれば、当該画素が文字画像あるいは線画(以下、文字画像あるいは線画を単に文字とも称する)の画素である判定し、特徴量Φ1が第1の文字閾値Th1未満であれば当該画素が文字でないと判定する。   The character determination unit 106 compares the feature amount Φ1 calculated by the feature amount calculation unit 105 with a preset first character threshold Th1. That is, when the feature amount Φ1 is supplied from the feature amount calculation unit 105, the character determination unit 106 determines that the pixel is a character image or a line drawing (hereinafter referred to as a character image) if the feature amount Φ1 is equal to or greater than the first character threshold Th1. If the feature quantity Φ1 is less than the first character threshold Th1, it is determined that the pixel is not a character.

さらに、特徴量算出部105は、入力画像における文字と判定すべき斜め線の画像を検出するための特徴量を算出する処理も行う。
これは、識別対象の画素を中心とした部分画像(オペレータ)における縦方向および横方向の差分だけでは、斜め線の画像を検出することが困難であるためである。
すなわち、特徴量算出部105は、補助的に45度(上述した縦方向、横方向に対して45度)前後の線成分を構成する画素を別途検出するための特徴量Φ2を算出する。この45度前後の線成分を構成する画素の検出に用いる特徴量Φ2は、上述した特徴量Φ1の算出方法と類似の方式で算出可能である。ただし、特徴量Φ2は、差分を取る際の画素同士の相対位置が特徴量Φ1の算出処理とは異なる。
Further, the feature amount calculation unit 105 also performs a process of calculating a feature amount for detecting an image of an oblique line to be determined as a character in the input image.
This is because it is difficult to detect an image of an oblique line only by the difference between the vertical direction and the horizontal direction in the partial image (operator) centered on the pixel to be identified.
That is, the feature amount calculation unit 105 supplementarily calculates a feature amount Φ2 for separately detecting pixels constituting a line component around 45 degrees (45 degrees with respect to the vertical and horizontal directions described above). The feature quantity Φ2 used for detecting the pixels constituting the line component of about 45 degrees can be calculated by a method similar to the method for calculating the feature quantity Φ1 described above. However, the feature amount Φ2 is different from the calculation processing of the feature amount Φ1 in terms of the relative position between pixels when taking the difference.

図5(a)および図5(b)は、それぞれオペレータのサイズを5×5画素とした場合の斜め方向における特徴量Φ2の算出方法を説明するための図である。図5(a)及び図5(b)において、特徴量を求める画素は、図4(a)、(b)と同様に、オペレータの中央に位置するハッチングを施した画素である。   FIG. 5A and FIG. 5B are diagrams for explaining a method of calculating the feature amount Φ2 in the oblique direction when the size of the operator is 5 × 5 pixels, respectively. In FIG. 5A and FIG. 5B, the pixel for which the feature amount is obtained is a hatched pixel located at the center of the operator, as in FIGS. 4A and 4B.

図5(a)では、紙面に向かって斜め左下45度方向(以下、dir1方向とも称する)における画素間の差分を算出することを示している。また、図5(b)では、紙面に向かって斜め右下45度方向(以下、dir2方向とも称する)における画素間の差分を算出することを示している。すなわち、特徴量算出部105は、図5(a)及び(b)に示すように、dir1方向およびdir2方向における画素間の差分を求める。   FIG. 5A shows that a difference between pixels in a diagonally lower left 45 ° direction (hereinafter also referred to as a dir1 direction) is calculated toward the paper surface. Further, FIG. 5B shows that the difference between pixels in the diagonally lower right 45 ° direction (hereinafter also referred to as the dir2 direction) toward the paper surface is calculated. That is, the feature quantity calculation unit 105 obtains a difference between pixels in the dir1 direction and the dir2 direction, as shown in FIGS.

図5(a)に示すdir1方向における各並びごとに画素間の差分を算出すると、特徴量算出部105は、dir1方向の各並びごとに差分の絶対値の最大値を求める。特徴量算出部105は、dir1方向の各並びの最大値から平均値Φdir1を求める。この平均値Φdir1は、当該オペレータの斜め45度方向における画素値の変化を示す値Φdir1である。   When the difference between the pixels is calculated for each arrangement in the dir1 direction illustrated in FIG. 5A, the feature amount calculation unit 105 obtains the maximum absolute value of the differences for each arrangement in the dir1 direction. The feature amount calculation unit 105 obtains the average value Φdir1 from the maximum value of each line in the dir1 direction. The average value Φdir1 is a value Φdir1 indicating a change in pixel value in the 45-degree direction of the operator.

また、図5(b)に示すdir2方向における各並びごとに画素間の差分を算出すると、特徴量算出部105は、dir2方向の各並びごとに差分の絶対値の最大値を求める。特徴量算出部105は、dir2方向の各並びの最大値から平均値Φdir2を求める。この平均値Φdir2は、当該オペレータの斜め45度方向における画素値の変化を示す値Φdir2である。
上記平均値Φdir1および上記平均値Φdir2を算出すると、特徴量算出部105は、Φdir1とΦdir2との差の絶対値を対象とする画素の特徴量Φ2として算出する。
Further, when the difference between the pixels is calculated for each arrangement in the dir2 direction illustrated in FIG. 5B, the feature amount calculation unit 105 obtains the maximum absolute value of the difference for each arrangement in the dir2 direction. The feature amount calculation unit 105 obtains an average value Φdir2 from the maximum value of each line in the dir2 direction. This average value Φdir2 is a value Φdir2 indicating a change in the pixel value in the 45-degree oblique direction of the operator.
When the average value Φdir1 and the average value Φdir2 are calculated, the feature amount calculation unit 105 calculates the absolute value of the difference between Φdir1 and Φdir2 as the target feature amount Φ2.

文字判定部106は、上記特徴量算出部105により算出された特徴量Φ2についても予め設定されている第2の文字閾値Th2と比較する。すなわち、上記特徴量算出部105から特徴量Φ2が供給された場合、文字判定部106は、特徴量Φ2が第2の文字閾値Th2以上であれば、当該画素が文字の画素である判定し、特徴量Φ2が第2の文字閾値Th2未満であれば当該画素が文字でないと判定する。なお、文字判定部106に予め設定される斜め方向の特徴量に適用する第2の文字閾値Th2と縦横方向の特徴量に適用する第1の文字閾値Th1とは、それぞれ設定される。。   The character determination unit 106 also compares the feature amount Φ2 calculated by the feature amount calculation unit 105 with a second character threshold Th2 set in advance. That is, when the feature amount Φ2 is supplied from the feature amount calculation unit 105, the character determination unit 106 determines that the pixel is a character pixel if the feature amount Φ2 is equal to or greater than the second character threshold Th2. If the feature amount Φ2 is less than the second character threshold Th2, it is determined that the pixel is not a character. Note that the second character threshold Th2 applied to the feature amount in the oblique direction and the first character threshold Th1 applied to the feature amount in the vertical and horizontal directions set in advance in the character determination unit 106 are set. .

すなわち、文字判定部106では、特徴量算出部105により算出される特徴量Φ1が第1の文字閾値Th1以上である場合、あるいは、特徴量算出部105により算出される特徴量Φ2が第2の文字閾値Th2以上である場合、対象とする画素が文字または線画に属する画素であるものと判定する。また、文字判定部106では、特徴量Φ1が第1の文字閾値Th1未満であり、かつ、特徴量Φ2が第2の文字閾値Th2未満である場合、対象とする画素が文字または線画に属する画素でないと判定する。
なお、上記特徴量算出部105は、上述した方式以外にラプラシアンを求める方法を用いて特徴量を算出するようにしても良い。
That is, in the character determination unit 106, when the feature amount Φ1 calculated by the feature amount calculation unit 105 is equal to or larger than the first character threshold Th1, or the feature amount Φ2 calculated by the feature amount calculation unit 105 is the second value. When it is equal to or greater than the character threshold Th2, it is determined that the target pixel is a pixel belonging to a character or line drawing. Further, in the character determination unit 106, when the feature quantity Φ1 is less than the first character threshold value Th1 and the feature quantity Φ2 is less than the second character threshold value Th2, the target pixel belongs to the character or line drawing It is determined that it is not.
Note that the feature amount calculation unit 105 may calculate the feature amount using a method of obtaining a Laplacian other than the above-described method.

上記文字判定部106では、上記のような判定結果を、変倍処理部107、フィルタ処理部108および階調処理部109へ供給する。上記文字判定部106は、対象とする画素が文字あるいは線画である場合には文字部を示す信号(たとえば、「1」)を出力し、対象とする画素が非文字である場合には非文字部を示す信号(たとえば、「0」)を出力する。   The character determination unit 106 supplies the determination result as described above to the scaling processing unit 107, the filter processing unit 108, and the gradation processing unit 109. The character determination unit 106 outputs a signal (for example, “1”) indicating a character part when the target pixel is a character or a line drawing, and outputs a non-character when the target pixel is a non-character. A signal indicating the part (for example, “0”) is output.

このような文字判定部106からの判定結果を示す信号を受けた変倍処理部107、フィルタ処理部108および階調処理部109は、画素ごとに画像処理を切り替えて、それぞれ画素の属性(文字か非文字か)に応じた好ましい画像を得るように調整する。
例えば、変倍処理部107は、文字と判定された画素に対しては文字の鮮鋭度を落とさないような線形補間(例えば拡大するときは画素ごとに重み付けを変えた線形補間)を適用し、非文字と判定された画素には単純な線形補間を適用する。
フィルタ処理部108は、文字と判定された画素には高域を強調させるフィルタを適用し、非文字と判定された画素には低域を通過させるフィルタを適用する。
階調処理部109は、文字に属する画素には単純2値化などの鮮鋭度を重視した硬調となる階調処理を適用し、非文字に属する画素にはデイザあるいは誤差拡散などの階調数の多い軟調な階調処理を適用する。
The scaling processing unit 107, the filter processing unit 108, and the gradation processing unit 109, which have received the signal indicating the determination result from the character determination unit 106, switch image processing for each pixel and change the pixel attribute (character Or non-character) to obtain a preferable image.
For example, the scaling processing unit 107 applies linear interpolation that does not decrease the sharpness of characters to pixels determined to be characters (for example, linear interpolation in which weighting is changed for each pixel when enlarging), Simple linear interpolation is applied to pixels determined to be non-characters.
The filter processing unit 108 applies a filter that emphasizes a high frequency to pixels that are determined to be characters, and applies a filter that allows a low frequency to pass to pixels that are determined to be non-characters.
The gradation processing unit 109 applies gradation processing with high contrast that emphasizes sharpness, such as simple binarization, to pixels belonging to characters, and the number of gradations, such as dither or error diffusion, to pixels belonging to non-characters. Apply soft gradation processing with a lot of noise.

上述のように、第1実施例の画像処理では、上記のような構成をとることにより、回路規模が大きく処理への負荷が大きい特徴量算出部を1チャンネル分だけで処理を行うことができる。また、第1実施例の画像処理では、チャンネル数を減らすことで、粗い網点を検出可能にするべく従来よりもサイズの大きいオペレータを用いることも可能となる。   As described above, in the image processing of the first embodiment, by adopting the configuration as described above, it is possible to perform the processing with only one channel for the feature amount calculation unit having a large circuit scale and a large processing load. . Further, in the image processing of the first embodiment, it is possible to use an operator having a larger size than the conventional one so that coarse halftone dots can be detected by reducing the number of channels.

さらに、上記構成の第1実施例に係る画像処理では、均一な配合率による輝度成分あるいは多チャンネルのうちの1つの信号を取り出して用いる画像処理よりも、信号の変動を相対的に拡大して抽出することができる。このため、白下地上の有彩色文字、或いは、色下地上の無彩色文字などのように、差分が大きくなるのが1チャンネル分の信号値のみである場合であっても、上記第1実施例の画像処理では、差分の値が3分の1と小さくなることなく、補色の割合で混合比を調整することで差分を拡大できる。このため、第1実施例の画像処理では、有彩色文字あるいは色下地上の無彩色文字などの検出も容易に行うことが可能となる。   Furthermore, in the image processing according to the first embodiment having the above-described configuration, the fluctuation of the signal is relatively enlarged as compared with the image processing using one component of the luminance component or multi-channel with a uniform mixing ratio. Can be extracted. For this reason, even when the difference is large only in the signal value for one channel, such as a chromatic character on a white background or an achromatic character on a color background, the first implementation described above. In the image processing of the example, the difference value can be enlarged by adjusting the mixing ratio by the ratio of the complementary color without the difference value being reduced to 1/3. For this reason, in the image processing of the first embodiment, it is possible to easily detect a chromatic character or an achromatic character on a color background.

次に、第2の実施例について説明する。
図6は、第2の実施例としての画像処理部200の構成例を示すブロック図である。
図6に示す構成例では、画像処理部200は、入力インターフェース(I/F)201、色変換部202、混合比算出部203、演算部204、特徴量算出部205、文字判定部206、墨加刷部207、フィルタ処理部208、階調処理部209、出力インターフェース(I/F)210および色判定部221などにより構成されている。
Next, a second embodiment will be described.
FIG. 6 is a block diagram illustrating a configuration example of the image processing unit 200 as the second embodiment.
In the configuration example illustrated in FIG. 6, the image processing unit 200 includes an input interface (I / F) 201, a color conversion unit 202, a mixture ratio calculation unit 203, a calculation unit 204, a feature amount calculation unit 205, a character determination unit 206, a black ink The printing unit 207, the filter processing unit 208, the gradation processing unit 209, the output interface (I / F) 210, the color determination unit 221 and the like are included.

入力I/F201、色変換部202、混合比算出部203、演算部204、特徴量算出部205、文字判定部206、フィルタ処理部208、階調処理部209および出力I/F210は、それぞれ、第1の実施例で説明した入力I/F101、色変換部102、混合比算出部103、演算部104、特徴量算出部105、文字判定部106、フィルタ処理部108、階調処理部109および出力I/F110と同様な構成で実現できる。このため、これらについては、詳細な説明を省略するものとする。   The input I / F 201, the color conversion unit 202, the mixture ratio calculation unit 203, the calculation unit 204, the feature amount calculation unit 205, the character determination unit 206, the filter processing unit 208, the gradation processing unit 209, and the output I / F 210 are respectively The input I / F 101, the color conversion unit 102, the mixing ratio calculation unit 103, the calculation unit 104, the feature amount calculation unit 105, the character determination unit 106, the filter processing unit 108, the gradation processing unit 109, and the like described in the first embodiment This can be realized with the same configuration as the output I / F 110. For this reason, detailed description thereof will be omitted.

色判定部221は、対象とする画素が有彩色か無彩色かを判別する。上記色判定部221は、対象とする画素の彩度に相当する値(彩度相当値)を算出する。上記色判定部221は、算出した彩度相当値に基づいて当該画素が有彩色か無彩色かを判別する。上記彩度相当値Cは、例えば次の数式(5)によって求める。

Figure 0005005734
The color determination unit 221 determines whether the target pixel is a chromatic color or an achromatic color. The color determination unit 221 calculates a value (saturation equivalent value) corresponding to the saturation of the target pixel. The color determination unit 221 determines whether the pixel is a chromatic color or an achromatic color based on the calculated saturation equivalent value. The saturation equivalent value C is obtained by, for example, the following formula (5).
Figure 0005005734

色判定部221は、数式(5)で算出された彩度相当値Cと予め設定した色判定閾値ThCとを比較する。彩度相当値Cが色判定閾値ThC以上である場合、色判定部221は、当該画素を有彩色と判定する。また、彩度相当値Cが色判定閾値ThC未満である場合、色判定部221は、当該画素を無彩色と判定する。   The color determination unit 221 compares the saturation equivalent value C calculated by Equation (5) with a preset color determination threshold ThC. When the saturation equivalent value C is equal to or greater than the color determination threshold ThC, the color determination unit 221 determines that the pixel is a chromatic color. If the saturation equivalent value C is less than the color determination threshold ThC, the color determination unit 221 determines that the pixel is an achromatic color.

上記文字判定部206は、特徴量算出部205から供給される特徴量Φ1及びΦ2によって、対象とする画素が文字であるか否かを判定する。文字判定部206は、上記第1の実施例で説明した文字判定部106と同様に、予め設定された固定値としての第1の文字閾値Th1および第2の文字閾値Th2を用いて判定処理を実現できる。   The character determination unit 206 determines whether the target pixel is a character based on the feature amounts Φ1 and Φ2 supplied from the feature amount calculation unit 205. Similar to the character determination unit 106 described in the first embodiment, the character determination unit 206 performs determination processing using the first character threshold Th1 and the second character threshold Th2 as preset fixed values. realizable.

ただし、文字判定部206では、上記色判定部221による判別結果を反映させた閾値により判定処理を行うようにしても良い。たとえば、上記色判定部221により当該画素が無彩色と判定された画素については、第1の文字閾値として無彩色用の第1文字閾値Thm1を設定し、第2の文字閾値として無彩色用の第2文字閾値Thm2を設定する。また、上記色判定部221により当該画素が有彩色と判定された画素については、第1の文字閾値として有彩色用の第1の文字閾値Thc1を設定し、第2の文字閾値として有彩色用の第2の文字閾値Thc2を設定する。これにより、文字判定部206では、各画素が無彩色か有彩色かに応じた閾値で文字であるか否かを判定できる。   However, the character determination unit 206 may perform the determination process using a threshold value that reflects the determination result of the color determination unit 221. For example, for the pixel for which the pixel is determined to be achromatic by the color determination unit 221, the first character threshold Thm1 for achromatic color is set as the first character threshold, and the achromatic color is set as the second character threshold. A second character threshold value Thm2 is set. For the pixel for which the color determination unit 221 determines that the pixel is a chromatic color, the first character threshold value Thc1 for chromatic color is set as the first character threshold value, and the chromatic color is used as the second character threshold value. The second character threshold value Thc2 is set. Thereby, the character determination unit 206 can determine whether or not each pixel is a character with a threshold corresponding to whether each pixel is an achromatic color or a chromatic color.

上記のような文字判定の結果としての文字か否かを示す情報に加えて、文字判定部206は、無彩色文字であるか有彩色文字であるかを示す情報を属性信号として出力する。すなわち、文字判定部206は、対象とする画素が非文字、無彩色文字あるいは有彩色文字のいずれに属するのかを示す属性信号を墨加刷部207、フィルタ処理部208、階調処理部209へ出力する。   In addition to the information indicating whether the character is the result of the character determination as described above, the character determination unit 206 outputs information indicating whether the character is an achromatic character or a chromatic character as an attribute signal. That is, the character determination unit 206 sends an attribute signal indicating whether the target pixel belongs to a non-character, an achromatic character, or a chromatic character to the ink printing unit 207, the filter processing unit 208, and the gradation processing unit 209. Output.

上記墨加刷部207は、黒の再現性を向上させるために、単色の黒で印刷する画素を生成する。上記文字判定部206から無彩色文字である旨の属性情報を受けた場合、上記墨加刷部207は、当該画素を無彩色文字として再現性良く印刷させるため、当該画素の値を100%の黒画素(完全な黒単色)となる値に置き換える。上記文字判定部206から有彩色文字である旨の属性情報を受けた場合あるいは上記文字判定部206から非文字である旨の属性情報を受けた場合、上記墨加刷部207は、当該画素を有彩色文字あるいは非文字として再現性良く印刷するため、当該画素を完全な黒単色に変換する率を低くしたり、GCR方式を採ったりする。   The black printing unit 207 generates pixels to be printed in monochrome black in order to improve black reproducibility. When the attribute information indicating that the character is an achromatic character is received from the character determination unit 206, the ink printing unit 207 prints the pixel as an achromatic character with good reproducibility. Replace with a value that will result in a black pixel (complete black single color). When the attribute information indicating that the character is a chromatic character is received from the character determination unit 206 or the attribute information indicating that the character is a non-character is received from the character determination unit 206, the ink printing unit 207 displays the pixel. In order to print as chromatic character or non-character with good reproducibility, the rate of converting the pixel into a complete black single color is lowered, or the GCR method is adopted.

また、フィルタ処理部208は、第1の実施例のフィルタ処理部108と同様に、有彩色文字あるいは無彩色文字とされた画素に対してはいずれも高域を強調させるフィルタを適用し、非文字と判定された画素に対しては低域を通過させるフィルタを適用するフィルタ処理を行う。また、階調処理部209は、有彩色あるいは無彩色ともに文字に属する画素に対しては単純2値化など鮮鋭度を重視した硬調となる階調処理を適用し、非文字に属する画素に対してはデイザあるいは誤差拡散などの階調数の多い軟調な階調処理を適用する。
なお、画質面での調整を図るために、フィルタ処理部208におけるフィルタ処理のフィルタ係数、あるいは、階調処理部209における階調処理のパラメータは、有彩色文字と判定された画素と無彩色文字と判定された画素とで異ならせてもよい。
Similarly to the filter processing unit 108 of the first embodiment, the filter processing unit 208 applies a filter that emphasizes the high frequency to pixels that are chromatic or achromatic characters. For pixels determined to be characters, a filter process is applied that applies a filter that passes low frequencies. In addition, the gradation processing unit 209 applies a gradation process that makes a hard tone with emphasis on sharpness, such as simple binarization, to pixels belonging to characters for both chromatic and achromatic colors, and applies to pixels belonging to non-characters. For example, soft gradation processing with a large number of gradations such as dither or error diffusion is applied.
Note that in order to adjust the image quality, the filter coefficient of the filter processing in the filter processing unit 208 or the parameter of the gradation processing in the gradation processing unit 209 is the pixel and the achromatic character that are determined to be chromatic characters. It may be different for the pixels determined as.

上述のような構成の第2の実施例では、第1の実施例と同様に、回路規模が大きく処理への負荷が大きい特徴量算出部を1チャンネル分だけで処理を行うことができる。すなわち、第2の実施例では、チャンネル数が1チャンネルだけであるため、粗い網点あるいは文字の高精度な検出するためにサイズの大きいオペレータを用いた特徴量の検出処理を行っても、画像処理全体としては負荷を軽減できる。   In the second embodiment having the above-described configuration, similarly to the first embodiment, the feature amount calculation unit having a large circuit scale and a large processing load can be processed by only one channel. That is, in the second embodiment, since the number of channels is only one, even if a feature amount detection process using a large operator is performed to detect coarse halftone dots or characters with high accuracy, As a whole, the load can be reduced.

また、均一な配合率による輝度成分或いは多チャンネルのうちの1つの信号を取り出して用いる画像処理よりも、第2実施例の画像処理では、信号の変動を相対的に拡大して抽出することができる。このため、第2実施例の画像処理では、白下地上の有彩色文字、あるいは、色下地上の無彩色文字も高精度に検出できる。また、第2の実施例の画像処理では、各画素の彩度に従って判別される有彩色文字と無彩色文字とに対して処理を異ならせることにより、有彩色文字あるいは無彩色文字のそれぞれに適した処理を行うことが可能となる。   Further, in the image processing of the second embodiment, the fluctuation of the signal can be relatively enlarged and extracted in comparison with the image processing in which the luminance component having a uniform mixture ratio or one signal of the multiple channels is extracted and used. it can. For this reason, in the image processing of the second embodiment, it is possible to detect a chromatic character on a white background or an achromatic character on a color background with high accuracy. Also, in the image processing of the second embodiment, the processing is different for chromatic characters and achromatic characters determined according to the saturation of each pixel, so that it is suitable for each of chromatic or achromatic characters. Can be performed.

次に、第3の実施例について説明する。
図7は、第3の実施例としての画像処理部300の構成例を示すブロック図である。
図7に示す構成例では、画像処理部300は、入力インターフェース(I/F)301、混合比算出部303、演算部304、特徴量算出部305、文字判定部306、フィルタ処理部308、階調処理部309、出力インターフェース(I/F)310および色判定部321などにより構成されている。
Next, a third embodiment will be described.
FIG. 7 is a block diagram illustrating a configuration example of an image processing unit 300 according to the third embodiment.
In the configuration example illustrated in FIG. 7, the image processing unit 300 includes an input interface (I / F) 301, a mixture ratio calculation unit 303, a calculation unit 304, a feature amount calculation unit 305, a character determination unit 306, a filter processing unit 308, a floor. The tone processing unit 309, an output interface (I / F) 310, a color determination unit 321 and the like are included.

入力インターフェース(I/F)301、混合比算出部303、演算部304、特徴量算出部305、文字判定部306、フィルタ処理部308、階調処理部309、出力インターフェース(I/F)310は、それぞれ第1の実施例で説明した入力I/F101、色変換部102、混合比算出部103、演算部104、特徴量算出部105、文字判定部106、フィルタ処理部108、階調処理部109および出力I/F110と同様な構成で実現できる。また、色判定部321は、第2の実施例で説明した色判定部221と同様な構成で実現できる。このため、これら各部については、構成上の詳細な説明を省略するものとする。   An input interface (I / F) 301, a mixture ratio calculation unit 303, a calculation unit 304, a feature amount calculation unit 305, a character determination unit 306, a filter processing unit 308, a gradation processing unit 309, and an output interface (I / F) 310 , The input I / F 101, the color conversion unit 102, the mixture ratio calculation unit 103, the calculation unit 104, the feature amount calculation unit 105, the character determination unit 106, the filter processing unit 108, and the gradation processing unit described in the first embodiment, respectively. 109 and the output I / F 110. The color determination unit 321 can be realized with the same configuration as the color determination unit 221 described in the second embodiment. For this reason, detailed description on the configuration of these units will be omitted.

第3の実施例は、画像処理部300に入力される画像データがCMYKの各成分からなるカラー画像データである事を想定してる点が第1、第2の実施例とは異なる。CMYK形式の画像データは、たとえば、プリント用のデータを用いられる。すなわち、第3の実施例の画像処理部300は、たとえば、プリント用のデータを入力し、入力したプリント用のデータを処理する画像処理部に適用される。   The third embodiment is different from the first and second embodiments in that it is assumed that the image data input to the image processing unit 300 is color image data composed of CMYK components. For example, print data is used as the image data in the CMYK format. That is, the image processing unit 300 of the third embodiment is applied to, for example, an image processing unit that inputs print data and processes the input print data.

図7に示す構成例において、入力インターフェース301は、入力系から提供されるCMYK形式の画像データをフィルタ処理部308、混合比算出部303および色判定部321にそれぞれ供給する。
混合比算出部303では、C、M、Yの各成分を混合比Piの算出対象とし、Kの成分には固定値を適用する。混合比算出部303は、第1の実施例で説明した混合比の算出手法において変数「i」を「R、G、B」から「C、M、Y」に置き換えて適用することにより混合比Piを算出する。つまり、混合比算出部303は、第1の実施例で説明した数式(1)を用いて混合比Piを算出する。
In the configuration example illustrated in FIG. 7, the input interface 301 supplies CMYK format image data provided from the input system to the filter processing unit 308, the mixture ratio calculation unit 303, and the color determination unit 321.
In the mixing ratio calculation unit 303, each component of C, M, and Y is set as a calculation target of the mixing ratio Pi, and a fixed value is applied to the K component. The mixing ratio calculation unit 303 replaces the variable “i” from “R, G, B” to “C, M, Y” in the mixing ratio calculation method described in the first embodiment, and applies the mixing ratio. Pi is calculated. That is, the mixture ratio calculation unit 303 calculates the mixture ratio Pi using the formula (1) described in the first embodiment.

上記演算部304は、第1の実施例で説明した演算部104と原理的に同様な手法で値Vを算出する。上記演算部304は、第1の実施例で説明した算出手法における「R、G、B」の各成分に相当する「C、M、Y」の各成分に加えてK成分も考慮して特徴量を算出するための値Vを算出する。すなわち、上記演算部304は、特徴量を算出するための値Vを次の数式(6)により算出する。

Figure 0005005734
The calculation unit 304 calculates the value V by the same method as that of the calculation unit 104 described in the first embodiment. The arithmetic unit 304 is characterized by considering the K component in addition to the “C, M, Y” components corresponding to the “R, G, B” components in the calculation method described in the first embodiment. A value V for calculating the amount is calculated. In other words, the arithmetic unit 304 calculates the value V for calculating the feature value by the following equation (6).
Figure 0005005734

上記数式(6)において、S4は、信号値のK成分を表す。上記演算部304は、上記数式(6)を用いて算出した値(輝度相当値)Vを特徴量算出部305へ供給する。上記特徴量算出部305は、上記第1の実施例と同様な処理により上記値Vを用いて特徴量Φ1と特徴量Φ2とを算出する。   In the above equation (6), S4 represents the K component of the signal value. The arithmetic unit 304 supplies a value (luminance equivalent value) V calculated using the mathematical formula (6) to the feature amount calculation unit 305. The feature quantity calculation unit 305 calculates the feature quantity Φ1 and the feature quantity Φ2 by using the value V by the same process as in the first embodiment.

また、上記色判定部321では、上記第2の実施例で説明した色判定部221と同様に、対象となる画素の彩度に相当する彩度相当値Cを求めた上で、その画素が有彩色か無彩色かを判別する。上記色判定部321では、R、G、Bの各成分ではなく、C、M、Yの各成分を用いて次の数式(7)により彩度相当値Cを算出する。

Figure 0005005734
In the color determination unit 321, similarly to the color determination unit 221 described in the second embodiment, after obtaining a saturation equivalent value C corresponding to the saturation of the target pixel, Discriminate between chromatic and achromatic colors. The color determination unit 321 calculates the saturation equivalent value C by the following formula (7) using each component of C, M, and Y instead of each component of R, G, and B.
Figure 0005005734

上記色判定部321は、上記彩度相当値Cと予め設定した色判定閾値とを比較することにより対象とする画素が無彩色か有彩色かを判定する。すなわち、上記色判定部321は、彩度相当値Cが色判定閾値以上である場合当該画素が有彩色であると判定し、彩度相当値Cが色判定閾値未満である場合には、当該画素が無彩色であると判定する。   The color determination unit 321 determines whether the target pixel is an achromatic color or a chromatic color by comparing the saturation equivalent value C with a preset color determination threshold value. That is, the color determination unit 321 determines that the pixel is a chromatic color when the saturation equivalent value C is greater than or equal to the color determination threshold, and if the saturation equivalent value C is less than the color determination threshold, It is determined that the pixel is achromatic.

文字判定部306は、上記特徴量算出部305で算出した特徴量Φ1及びΦ2と色判定部321で判定した有彩色か無彩色かを示す情報とに基づいて、対象とする画素が非文字、無彩色文字あるいは有彩色文字のいずれであるかを判定する。文字判定部306は、上記の判定結果として対象とする画素が非文字、無彩色文字あるいは有彩色文字のいずれであるかを示す属性信号をフィルタ処理部308および階調処理部309へ出力する。   The character determination unit 306 is based on the feature amounts Φ1 and Φ2 calculated by the feature amount calculation unit 305 and information indicating whether the target pixel is a chromatic color or an achromatic color. It is determined whether the character is an achromatic character or a chromatic character. The character determination unit 306 outputs an attribute signal indicating whether the target pixel is a non-character, an achromatic color character, or a chromatic color character to the filter processing unit 308 and the gradation processing unit 309 as the determination result.

例えば、フィルタ処理部308は、上記第1の実施例或いは上記第2の実施例と同様に有彩色文字或いは無彩色文字とされた画素に対してはいずれも高域を強調させるフィルタを適用し、非文字と判定された画素に対しては低域を通過させるフィルタを適用したフィルタ処理を施す。また、階調処理部309は、有彩色文字或いは無彩色文字とされた画素に対しては単純2値化など鮮鋭度を重視した硬調となる階調処理を適用し、非文字に属する画素に対してはデイザ或いは誤差拡散などの階調数が多い軟調な階調処理を適用する。
なお、画質面での調整を図るために、フィルタ処理部308のフィルタ係数、あるいは、階調処理部309の処理パラメータは、有彩色文字と判定された画素と無彩色文字と判定された文字とでは異ならせてもよい。
For example, the filter processing unit 308 applies a filter that emphasizes the high frequency to pixels that are chromatic or achromatic characters as in the first embodiment or the second embodiment. For pixels determined to be non-characters, a filtering process is applied to which a filter that passes low frequencies is applied. In addition, the gradation processing unit 309 applies a gradation process that makes a hard tone with emphasis on sharpness, such as simple binarization, to pixels that are chromatic or achromatic characters, and applies them to pixels belonging to non-characters. On the other hand, soft gradation processing with a large number of gradations such as dither or error diffusion is applied.
In order to adjust the image quality, the filter coefficient of the filter processing unit 308 or the processing parameter of the gradation processing unit 309 includes a pixel determined to be a chromatic character and a character determined to be an achromatic character. Then it may be different.

上述ような構成をとることにより、第3の実施例では、入力する画像データがCMYK形式のカラー画像であっても、上記第1、第2の実施例と同様に、回路規模が大きく処理への負荷が大きい特徴量算出部を1チャンネル分だけで処理を行うことができる。したがって、第3の実施例の画像処理部では、チャンネル数を減らすことで、粗い網点を検出可能にするべく従来よりもサイズの大きいオペレータを用いることも可能となる。また通常は均一な配合率による輝度成分や多チャンネルのうちの1つの信号を取り出して用いるよりも、信号の変動を相対的に拡大して抽出することができるので白下地上の有彩色文字、さらに色下地上の無彩色文字の検出も可能となる。また、彩度に従って有彩色文字と無彩色文字の処理を異ならせることでそれぞれに適した処理を行うことが可能となる。   By adopting the above-described configuration, in the third embodiment, even if the input image data is a color image in the CMYK format, the circuit scale is large and processing is performed as in the first and second embodiments. The feature amount calculation unit with a large load can be processed by only one channel. Therefore, in the image processing unit of the third embodiment, by reducing the number of channels, it is possible to use an operator having a larger size than the conventional one so as to be able to detect a rough halftone dot. In addition, since it is possible to extract the fluctuation of the signal relatively, rather than extracting and using one signal of luminance components or a multi-channel with a uniform mixing ratio, a chromatic character on a white background, Furthermore, it is possible to detect achromatic characters on the color base. In addition, it is possible to perform processing suitable for each of chromatic color characters and achromatic color characters according to saturation.

上述のように、第3の実施例では、入力する画像データがCMYK形式のカラー画像であっても、上記第1、第2の実施例と同様に、回路規模が大きく処理への負荷が大きい特徴量算出部を1チャンネル分だけで処理を行うことができる。すなわち、第3の実施例では、チャンネル数が1チャンネルだけであるため、粗い網点あるいは文字の高精度な検出するためにサイズの大きいオペレータを用いた特徴量の検出処理を行っても、画像処理全体としては負荷を軽減できる。   As described above, in the third embodiment, even if the input image data is a color image in the CMYK format, the circuit scale is large and the processing load is large as in the first and second embodiments. The feature amount calculation unit can perform processing for only one channel. That is, in the third embodiment, since the number of channels is only one, even if a feature amount detection process using a large operator is performed to detect coarse halftone dots or characters with high accuracy, As a whole, the load can be reduced.

また、均一な配合率による輝度成分或いは多チャンネルのうちの1つの信号を取り出して用いる画像処理よりも、第3実施例の画像処理では、信号の変動を相対的に拡大して抽出することができ、白下地上の有彩色文字あるいは色下地上の無彩色文字も高精度に検出できる。また、第3の実施例の画像処理では、各画素の彩度に従って判別される有彩色文字と無彩色文字とに対して処理を異ならせることにより、有彩色文字あるいは無彩色文字のそれぞれに適した処理を行うことが可能となる。   Further, in the image processing of the third embodiment, the signal fluctuation can be relatively enlarged and extracted in comparison with the image processing in which the luminance component having a uniform mixing ratio or one signal of the multiple channels is extracted and used. It is also possible to detect a chromatic character on a white background or an achromatic character on a color background with high accuracy. In the image processing of the third embodiment, the processing is different for chromatic characters and achromatic characters that are discriminated according to the saturation of each pixel. Can be performed.

次に、第4の実施例について説明する。
第4の実施例は、上記第1の実施例で説明した画像処理部100による画像処理をコンピュータで実行可能なアプリケーションプログラムあるいはプリンタドライバの拡張機能として提供することを想定したものである。つまり、第4の実施例では、上記第1の実施例で説明した画像処理部100による画像処理と同様な画像処理をソフトウエアでも実現するための処理の流れを説明する。
Next, a fourth embodiment will be described.
The fourth embodiment assumes that the image processing by the image processing unit 100 described in the first embodiment is provided as an application program executable by a computer or an extended function of a printer driver. That is, in the fourth embodiment, the flow of processing for realizing image processing similar to the image processing by the image processing unit 100 described in the first embodiment with software will be described.

図8は、本第4の実施例としての画像処理の流れを説明するためのフローチャートである。
図8に示す各処理は、たとえば、コンピュータにおいて、CPUなどの演算処理部がメモリに記憶した画像処理プログラムを実行することにより実現されるものとする。したがって、以下の説明では、コンピュータの演算処理部がプログラムを実行することにより画像処理が実現されることを想定ものとする。
FIG. 8 is a flowchart for explaining the flow of image processing according to the fourth embodiment.
Each processing shown in FIG. 8 is realized by executing an image processing program stored in a memory by an arithmetic processing unit such as a CPU in a computer, for example. Therefore, in the following description, it is assumed that image processing is realized by an arithmetic processing unit of a computer executing a program.

コンピュータの演算処理部は、図示しない入力インターフェースにより処理対象とする画像データSi(x,y)を入力する(ステップS400)。ここで、xは初期値(例えば「1」)から最大値(例えば「xw」)までの整数であり、yは初期値(例えば「1」)から最大値(例えば、「yw」)までの整数であるものとする。この場合、演算処理部は、まず、(x,y)の初期値として(1、1)とする(ステップS401)。(x、y)を初期化(1、1)すると、演算処理部は、(x、y)を(1、1)として、画素Si(x、y)に対する判別処理を行う(ステップS402〜S408)。   The arithmetic processing unit of the computer inputs image data Si (x, y) to be processed through an input interface (not shown) (step S400). Here, x is an integer from an initial value (for example, “1”) to a maximum value (for example, “xw”), and y is an initial value (for example, “1”) to the maximum value (for example, “yw”). It is assumed to be an integer. In this case, the arithmetic processing unit first sets (1, 1) as the initial value of (x, y) (step S401). When (x, y) is initialized (1, 1), the arithmetic processing unit performs discrimination processing on the pixel Si (x, y) with (x, y) as (1, 1) (steps S402 to S408). ).

すなわち、コンピュータの演算処理部は、上記数式(1)を用いて、画素Si(x、y)における混合比Pi(x、y)を算出する(ステップS402)。混合比Pi(x、y)を算出すると、演算処理部は、算出した混合比Pi(x、y)を用いて上記数式(2)により特徴量を算出するための値(輝度相当値)V(x、y)を算出する(ステップS403)。   That is, the arithmetic processing unit of the computer calculates the mixture ratio Pi (x, y) in the pixel Si (x, y) using the above mathematical formula (1) (step S402). When the mixture ratio Pi (x, y) is calculated, the arithmetic processing unit uses the calculated mixture ratio Pi (x, y) to calculate a feature value (luminance equivalent value) V according to the above equation (2). (X, y) is calculated (step S403).

上記値V(x、y)を算出すると、演算処理部は、画素Si(x、y)を中心とする所定サイズの周辺領域の画像(オペレータ)における縦方向及び横方向の成分に対する特徴を表す特徴量Φ1(x、y)を算出する(ステップS404)。これと共に、演算処理部は、上記オペレータにおける斜め方向の成分に対する特徴を表す特徴量Φ2(x、y)を算出する(ステップS405)。これらの特徴量Φ1(x、y)及びΦ2(x、y)を算出すると、演算処理部は、これらの特徴量Φ1(x、y)及びΦ2(x、y)と閾値Th1及びTh2とを比較する(ステップS406)。   When the value V (x, y) is calculated, the arithmetic processing unit represents characteristics with respect to vertical and horizontal components in an image (operator) of a peripheral area having a predetermined size centered on the pixel Si (x, y). A feature quantity Φ1 (x, y) is calculated (step S404). At the same time, the arithmetic processing unit calculates a feature quantity Φ2 (x, y) representing the characteristic of the operator with respect to the oblique component (step S405). When these feature quantities Φ1 (x, y) and Φ2 (x, y) are calculated, the arithmetic processing unit calculates these feature quantities Φ1 (x, y) and Φ2 (x, y) and threshold values Th1 and Th2. Compare (step S406).

特徴量Φ1(x、y)が閾値Th1以上であると判断した場合、あるいは、特徴量Φ2(x、y)が閾値Th2以上であると判断した場合(ステップS406、YES)、演算処理部は、対象とする画素が文字であると判定する。この場合、演算処理部は、たとえば、当該画素の属性を示す信号としての判定信号値TI(x、y)を「1」とする(ステップS407)。   When it is determined that the feature quantity Φ1 (x, y) is greater than or equal to the threshold Th1, or when it is determined that the feature quantity Φ2 (x, y) is greater than or equal to the threshold Th2 (step S406, YES), the arithmetic processing unit , It is determined that the target pixel is a character. In this case, for example, the arithmetic processing unit sets the determination signal value TI (x, y) as a signal indicating the attribute of the pixel to “1” (step S407).

また、特徴量Φ1(x、y)が閾値Th1未満で、かつ、特徴量Φ2(x、y)が閾値Th2未満であると判断した場合(ステップS406、NO)、演算処理部は、当該画素が文字でないと判定する。この場合、演算処理部は、たとえば、当該画素の属性を示す信号としての判定信号値TI(x、y)を「0」とする(ステップS408)。
なお、ステップS407あるいはS408で得られる判定信号は、図示しないメモリに蓄積されるものとする。
When it is determined that the feature quantity Φ1 (x, y) is less than the threshold value Th1 and the feature quantity Φ2 (x, y) is less than the threshold value Th2 (NO in step S406), the arithmetic processing unit Is determined not to be a character. In this case, for example, the arithmetic processing unit sets a determination signal value TI (x, y) as a signal indicating the attribute of the pixel to “0” (step S408).
Note that the determination signal obtained in step S407 or S408 is stored in a memory (not shown).

上記ステップS407あるいはS408で判定信号値TI(x、y)の値をセットすると、演算処理部は、xがx座標の最大値(例えば「x=xw」)であるか否かを判断する(ステップS409)。xがx座標の最大値でないと判断した場合(ステップS409、NO)、演算処理部は、xの値をインクリメント(x=x+1)する(ステップS410)。この場合、xをx+1とすることにより、演算処理部は、画素Si(x+1、y)に対する判定処理として、上記ステップS402〜S408の処理を実行する。   When the determination signal value TI (x, y) is set in step S407 or S408, the arithmetic processing unit determines whether x is the maximum value of the x coordinate (for example, “x = xw”) ( Step S409). When it is determined that x is not the maximum value of the x coordinate (step S409, NO), the arithmetic processing unit increments the value of x (x = x + 1) (step S410). In this case, by setting x to x + 1, the arithmetic processing unit executes the processes of steps S402 to S408 as the determination process for the pixel Si (x + 1, y).

また、xがx座標の最大値であると判断した場合(ステップS409、YES)、演算処理部は、さらに、yがy座標の最大値(例えば「y=yw」)であるか否かを判断する(ステップS411)。yが最大値でないと判断した場合(ステップS411、NO)、演算処理部は、xの値を初期化するとともに(ステップS412)、yの値をインクリメント(y=y+1)する(ステップS413)。この場合、xが初期値(「1」)となり、かつ、yがy+1となるため、演算処理部は、画素Si(1、y+1)に対する判定処理として、上記ステップS402〜S408の処理を実行する。   Further, when it is determined that x is the maximum value of the x coordinate (step S409, YES), the arithmetic processing unit further determines whether y is the maximum value of the y coordinate (for example, “y = yw”). Judgment is made (step S411). If it is determined that y is not the maximum value (step S411, NO), the arithmetic processing unit initializes the value of x (step S412) and increments the value of y (y = y + 1) (step S413). In this case, since x is an initial value (“1”) and y is y + 1, the arithmetic processing unit executes the processes of steps S402 to S408 as the determination process for the pixel Si (1, y + 1). .

また、yがy座標の最大値であると判断した場合(ステップS411、YES)、つまり、画素Si(1、1)から画素Si(xw、yw)までの全画素に対する判別処理を終了したと判断した場合、演算処理部は、全画素Si(x、y)に対する判定結果として判定信号TI(x、y)を出力する。   If it is determined that y is the maximum value of the y coordinate (step S411, YES), that is, the determination process for all the pixels from the pixel Si (1, 1) to the pixel Si (xw, yw) is completed. When the determination is made, the arithmetic processing unit outputs a determination signal TI (x, y) as a determination result for all the pixels Si (x, y).

上述のような処理手順による画像処理は、特徴量の算出処理に使用するメモリ領域を1チャンネル分だけ確保することにより実現できる。また、第4の実施例の画像処理では、チャンネル数を減らすことによりメモリ上の使用領域が削減できるため、粗い網点を高精度に検出するために、オペレータ(特徴量を算出するための注目画素周辺の画像領域)のサイズを大きくすることも可能となる。また、上記第4の実施例の画像処理では、均一な配合率による輝度成分あるいは多チャンネルのうちの1つの信号を取り出して用いる画像処理よりも、信号の変動を相対的に拡大して抽出することができ、白下地上の有彩色文字あるいは色下地上の無彩色文字の検出も可能となる。   Image processing according to the above-described processing procedure can be realized by securing a memory area for one channel for use in the feature amount calculation processing. Further, in the image processing of the fourth embodiment, the use area on the memory can be reduced by reducing the number of channels. Therefore, in order to detect a rough halftone dot with high accuracy, an operator (attention for calculating feature values) is used. It is also possible to increase the size of the image area around the pixel. Further, in the image processing of the fourth embodiment, the fluctuation of the signal is relatively enlarged and extracted as compared with the image processing using and extracting the luminance component with a uniform mixing ratio or one signal of multiple channels. It is also possible to detect a chromatic character on a white background or an achromatic character on a color background.

次に、第5の実施例について説明する。
第5の実施例は、上記第2の実施例で説明した画像処理部200による画像処理をコンピュータで実行可能なアプリケーションプログラムあるいはプリンタドライバの拡張機能として提供することを想定したものである。つまり、第5の実施例では、上記第2の実施例で説明した画像処理部200による画像処理と同様な画像処理をソフトウエアで実現するための処理の流れを説明する。
Next, a fifth embodiment will be described.
The fifth embodiment assumes that the image processing by the image processing unit 200 described in the second embodiment is provided as an application program executable by a computer or an extended function of a printer driver. That is, in the fifth embodiment, a flow of processing for realizing image processing similar to the image processing by the image processing unit 200 described in the second embodiment with software will be described.

図9は、本第5の実施例としての画像処理の流れを説明するためのフローチャートである。
図9に示す各処理は、たとえば、コンピュータにおいて、CPUなどの演算処理部がメモリに記憶した画像処理プログラムを実行することにより実現されるものとする。したがって、以下の説明では、コンピュータの演算処理部がプログラムを実行することにより画像処理が実現されることを想定ものとする。
FIG. 9 is a flowchart for explaining the flow of image processing according to the fifth embodiment.
Each process shown in FIG. 9 is realized by executing an image processing program stored in a memory by an arithmetic processing unit such as a CPU in a computer, for example. Therefore, in the following description, it is assumed that image processing is realized by an arithmetic processing unit of a computer executing a program.

コンピュータの演算処理部は、図示しない入力インターフェースにより処理対象とする画像データSi(x,y)を入力する(ステップS500)。ここで、xは初期値(例えば「1」)から最大値(例えば「xw」)までの整数であり、yは初期値(例えば「1」)から最大値(例えば「yw」)までの整数であるものとする。演算処理部は、まず、(x,y)を初期値として(1、1)にセットとする(ステップS501)。(x、y)を初期化すると、演算処理部は、画素Si(x、y)に対する判別処理を行う(ステップS502〜S512)。   The arithmetic processing unit of the computer inputs image data Si (x, y) to be processed through an input interface (not shown) (step S500). Here, x is an integer from an initial value (eg, “1”) to a maximum value (eg, “xw”), and y is an integer from an initial value (eg, “1”) to the maximum value (eg, “yw”). Suppose that The arithmetic processing unit first sets (x, y) as an initial value to (1, 1) (step S501). When (x, y) is initialized, the arithmetic processing unit performs a discrimination process on the pixel Si (x, y) (steps S502 to S512).

すなわち、コンピュータの演算処理部は、上記第2の実施例で説明した数式(5)を用いて画素Si(x、y)における彩度相当値C(x、y)を算出する(ステップS502)。彩度相当値Cを算出すると、演算処理部は、上記数式(1)を用いて、画素Si(x、y)における混合比Pi(x、y)を算出する(ステップS503)。混合比Pi(x、y)を算出すると、演算処理部は、算出した混合比Pi(x、y)を用いて上記数式(2)により特徴量を算出するための値(輝度相当値)V(x、y)を算出する(ステップS504)。   That is, the arithmetic processing unit of the computer calculates the saturation equivalent value C (x, y) in the pixel Si (x, y) using the formula (5) described in the second embodiment (step S502). . When the saturation equivalent value C is calculated, the arithmetic processing unit calculates the mixture ratio Pi (x, y) in the pixel Si (x, y) using the above mathematical formula (1) (step S503). When the mixture ratio Pi (x, y) is calculated, the arithmetic processing unit uses the calculated mixture ratio Pi (x, y) to calculate a feature value (luminance equivalent value) V according to the above equation (2). (X, y) is calculated (step S504).

上記値V(x、y)を算出すると、演算処理部は、画素Si(x、y)を中心とする所定サイズの周辺領域の画像(オペレータ)における縦方向及び横方向の成分に対する特徴を表す特徴量Φ1(x、y)を算出する(ステップS505)。これと共に、演算処理部は、上記オペレータにおける斜め方向の成分に対する特徴を表す特徴量Φ2(x、y)を算出する(ステップS506)。   When the value V (x, y) is calculated, the arithmetic processing unit represents characteristics with respect to vertical and horizontal components in an image (operator) of a peripheral area having a predetermined size centered on the pixel Si (x, y). A feature quantity Φ1 (x, y) is calculated (step S505). At the same time, the arithmetic processing unit calculates a feature quantity Φ2 (x, y) representing a feature with respect to the component in the oblique direction in the operator (step S506).

ここで、演算処理部は、上記彩度相当値Cが色判定閾値ThC以上であるか否かを判断する(ステップS507)。
上記判断により彩度相当値Cが色判定閾値ThC以上であると判断した場合(ステップS507、YES)、演算処理部は、当該画素が有彩色であると判断する。この場合、演算処理部は、当該画素の属性を示す信号として色判定結果CM(x、y)を有彩色であることを示す「0」とする。さらに、当該画素を有彩色と判断した場合、演算処理部は、第1の文字閾値Th1を有彩色用の第1の文字閾値Thc1に設定し、第2の文字閾値Th2を有彩色用の第2の文字閾値Thc2に設定する(ステップS508)。
Here, the arithmetic processing unit determines whether or not the saturation equivalent value C is equal to or greater than the color determination threshold value ThC (step S507).
If it is determined by the above determination that the saturation equivalent value C is equal to or greater than the color determination threshold ThC (step S507, YES), the arithmetic processing unit determines that the pixel is a chromatic color. In this case, the arithmetic processing unit sets the color determination result CM (x, y) as “0” indicating a chromatic color as a signal indicating the attribute of the pixel. Further, when determining that the pixel is a chromatic color, the arithmetic processing unit sets the first character threshold Th1 to the first character threshold Thc1 for chromatic color, and sets the second character threshold Th2 to the first color threshold for chromatic color. 2 is set to the character threshold value Thc2 (step S508).

また、上記判断により彩度相当値Cが色判定閾値ThC未満であると判断した場合(ステップS507、NO)、演算処理部は、当該画素が無彩色であると判断する。この場合、演算処理部は、当該画素の属性を示す信号として色判定結果CM(x、y)を無彩色であることを示す「1」とする。さらに、当該画素を無彩色と判断した場合、演算処理部は、第1の文字閾値Th1を無彩色用の第1の文字閾値Thm1に設定し、第2の文字閾値Th2を無彩色用の第2の文字閾値Thm2に設定する(ステップS509)。   If it is determined by the above determination that the saturation equivalent value C is less than the color determination threshold ThC (NO in step S507), the arithmetic processing unit determines that the pixel is an achromatic color. In this case, the arithmetic processing unit sets “1” indicating that the color determination result CM (x, y) is an achromatic color as a signal indicating the attribute of the pixel. Further, when determining that the pixel is an achromatic color, the arithmetic processing unit sets the first character threshold value Th1 to the first character threshold value Thm1 for the achromatic color, and sets the second character threshold value Th2 to the first color threshold value for the achromatic color. The character threshold value Thm2 is set to 2 (step S509).

なお、上記ステップS507〜S509の処理は、ステップS502の後に実行可能な処理である。たとえば、第1、第2の文字閾値を色判定結果に応じて設定する場合、上記ステップS507〜S509の処理は、ステップS502の後からステップS510までの任意のタイミングで実行可能である。また、上記ステップS507〜S509の処理は、ステップS503〜S506の処理と並行して実行するようにしても良い。   The processes in steps S507 to S509 are processes that can be executed after step S502. For example, when the first and second character threshold values are set according to the color determination result, the processes in steps S507 to S509 can be executed at any timing from step S502 to step S510. Moreover, you may make it perform the process of the said step S507-S509 in parallel with the process of step S503-S506.

上記特徴量Φ1(x、y)及びΦ2(x、y)を算出すると、演算処理部は、これらの特徴量Φ1(x、y)及びΦ2(x、y)と第1の文字閾値Th1及び第2の文字閾値Th2とをそれぞれ比較する(ステップS510)。
特徴量Φ1(x、y)が第1の文字閾値Th1以上であると判断した場合、あるいは、特徴量Φ2(x、y)が第2の文字閾値Th2以上であると判断した場合(ステップS510、YES)、演算処理部は、対象とする画素が文字であると判定する。この場合、演算処理部は、たとえば、当該画素の属性を示す信号としての判定信号値TI(x、y)を「1」とする(ステップS511)。
When the feature quantities Φ1 (x, y) and Φ2 (x, y) are calculated, the arithmetic processing unit calculates these feature quantities Φ1 (x, y) and Φ2 (x, y) and the first character threshold Th1 and The second character threshold value Th2 is compared (step S510).
When it is determined that the feature quantity Φ1 (x, y) is greater than or equal to the first character threshold Th1, or when it is determined that the feature quantity Φ2 (x, y) is greater than or equal to the second character threshold Th2 (step S510). , YES), the arithmetic processing unit determines that the target pixel is a character. In this case, for example, the arithmetic processing unit sets the determination signal value TI (x, y) as a signal indicating the attribute of the pixel to “1” (step S511).

また、特徴量Φ1(x、y)が第1の文字閾値Th1未満で、かつ、特徴量Φ2(x、y)が第2の文字閾値Th2未満であると判断した場合(ステップS510、NO)、演算処理部は、当該画素が文字でないと判定する。この場合、演算処理部は、たとえば、当該画素の属性を示す信号としての判定信号値TI(x、y)を「0」とする(ステップS512)。
なお、ステップS508、S509、S511あるいはS512で得られる当該画素の属性を示す各信号は、図示しないメモリに蓄積されるものとする。
Further, when it is determined that the feature quantity Φ1 (x, y) is less than the first character threshold value Th1 and the feature quantity Φ2 (x, y) is less than the second character threshold value Th2 (step S510, NO). The arithmetic processing unit determines that the pixel is not a character. In this case, for example, the arithmetic processing unit sets the determination signal value TI (x, y) as a signal indicating the attribute of the pixel to “0” (step S512).
In addition, each signal which shows the attribute of the said pixel obtained by step S508, S509, S511, or S512 shall be accumulate | stored in the memory which is not shown in figure.

当該画素に対する文字判定結果が得られると、演算処理部は、xがx座標の最大値(例えば「x=xw」)であるか否かを判断する(ステップS513)。xがx座標の最大値でないと判断した場合(ステップS513、NO)、演算処理部は、xの値をインクリメント(x=x+1)する(ステップS514)。この場合、xをx+1とすることにより、演算処理部は、画素Si(x+1、y)に対する判定処理として、上記ステップS502〜S513の処理を実行する。   When the character determination result for the pixel is obtained, the arithmetic processing unit determines whether x is the maximum value of the x coordinate (for example, “x = xw”) (step S513). When it is determined that x is not the maximum value of the x coordinate (step S513, NO), the arithmetic processing unit increments the value of x (x = x + 1) (step S514). In this case, by setting x to x + 1, the arithmetic processing unit executes the processes of steps S502 to S513 as the determination process for the pixel Si (x + 1, y).

また、xがx座標の最大値であると判断した場合(ステップS513、YES)、演算処理部は、さらに、yがy座標の最大値(例えば、「y=yw」)であるか否かを判断する(ステップS515)。yがy座標の最大値でないと判断した場合(ステップS515、NO)、演算処理部は、xの値を初期化するとともに(ステップS516)、yの値をインクリメント(y=y+1)する(ステップS517)。この場合、xが初期値(「1」)となり、かつ、yがy+1となるため、演算処理部は、画素Si(1、y+1)に対する判定処理として、上記ステップS502〜S512の処理を実行する。   When x is determined to be the maximum value of the x coordinate (step S513, YES), the arithmetic processing unit further determines whether y is the maximum value of the y coordinate (for example, “y = yw”). Is determined (step S515). When it is determined that y is not the maximum value of the y coordinate (step S515, NO), the arithmetic processing unit initializes the value of x (step S516) and increments the value of y (y = y + 1) (step) S517). In this case, since x is an initial value (“1”) and y is y + 1, the arithmetic processing unit executes the processes of steps S502 to S512 as the determination process for the pixel Si (1, y + 1). .

また、yがy座標の最大値であると判断した場合(ステップS515、YES)、つまり、画素Si(1、1)から画素Si(xw、yw)までの全画素に対する判別処理を終了したと判断した場合、演算処理部は、全画素Si(x、y)に対する判定結果として判定信号TI(x、y)を出力する(ステップS518)。   Further, when it is determined that y is the maximum value of the y-coordinate (step S515, YES), that is, the determination processing for all the pixels from the pixel Si (1, 1) to the pixel Si (xw, yw) is completed. When the determination is made, the arithmetic processing unit outputs a determination signal TI (x, y) as a determination result for all the pixels Si (x, y) (step S518).

上述のような処理手順による画像処理は、特徴量の算出処理に使用するメモリ領域を1チャンネル分だけ確保することにより実現できる。これは、上述した画像処理がソフトウエアで実行するのに適していることを意味している。また、第5の実施例の画像処理では、チャンネル数を減らすことによりメモリ上の使用領域が削減できるため、粗い網点を高精度に検出するために、オペレータ(特徴量を算出するための注目画素周辺の画像領域)のサイズを大きくすることも可能となる。また、上記第5の実施例の画像処理では、均一な配合率による輝度成分あるいは多チャンネルのうちの1つの信号を取り出して用いる画像処理よりも、信号の変動を相対的に拡大して抽出することができ、白下地上の有彩色文字あるいは色下地上の無彩色文字の検出も可能となる。   Image processing according to the above-described processing procedure can be realized by securing a memory area for one channel for use in the feature amount calculation processing. This means that the above-described image processing is suitable for execution by software. Further, in the image processing of the fifth embodiment, the use area on the memory can be reduced by reducing the number of channels. Therefore, an operator (attention for calculating feature values) is used to detect coarse halftone dots with high accuracy. It is also possible to increase the size of the image area around the pixel. Further, in the image processing of the fifth embodiment, the fluctuation of the signal is relatively enlarged and extracted as compared with the image processing in which a luminance component having a uniform mixing ratio or one signal of multiple channels is extracted and used. It is also possible to detect a chromatic character on a white background or an achromatic character on a color background.

1…デジタル複合機、10…主制御部、11…スキャナ、12…プリンタ、13…ファクシミリ通信部(FAX部)、14…ネットワーク通信部、15…操作部(コントロールパネル)、21…CPU、26…出力画像処理部、100、200、300…画像処理部、101、201、301…入力インターフェース、102、202…色変換部、103、203、303…混合比算出部、104、204、304…演算部、105、205、305…特徴量算出部、106、206、306…文字判定部、107、307…変倍処理部、108、208、308…フィルタ処理部、109、209、309…階調処理部、110、210、310…出力インターフェース、207…墨加刷部、221、321…色判定部。   DESCRIPTION OF SYMBOLS 1 ... Digital multifunction device, 10 ... Main control part, 11 ... Scanner, 12 ... Printer, 13 ... Facsimile communication part (FAX part), 14 ... Network communication part, 15 ... Operation part (control panel), 21 ... CPU, 26 ... Output image processing unit, 100, 200, 300 ... Image processing unit, 101, 201, 301 ... Input interface, 102, 202 ... Color conversion unit, 103, 203, 303 ... Mixing ratio calculation unit, 104, 204, 304 ... Arithmetic unit 105, 205, 305 ... feature amount calculation unit 106, 206, 306 ... character determination unit 107, 307 ... scaling processing unit 108, 208, 308 ... filter processing unit 109, 209, 309 ... floor Tone processing unit, 110, 210, 310... Output interface, 207... Black printing unit, 221, 321.

特開2001−245142号公報JP 2001-245142 A 特開2007−243330号公報JP 2007-243330 A

Claims (8)

複数成分の値からなる画素で構成される画像データを入力する入力手段と、
この入力手段により入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する混合比算出手段と、
前記入力手段により入力した画像データにおける各画素について各成分の値と前記混合比算出手段により算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する演算手段と、
前記演算手段により算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する文字判定手段と、
この文字判定手段による判定結果に応じて文字画像あるいは線画に属する画素と属さない画素とに対してそれぞれ異なる画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。
Input means for inputting image data composed of pixels composed of a plurality of component values;
A mixing ratio calculating unit that calculates a mixing ratio of each component from the value of each component for each pixel in the image data input by the input unit;
Calculating means for calculating a sum of a value obtained by multiplying the calculated mixing ratio by the mixing ratio calculation means and the value of each component for each pixel in the input image data by the input unit as the luminance equivalent value of each pixel,
Character determining means for determining whether each pixel is a pixel belonging to a character image or a line drawing based on the luminance equivalent value calculated by the calculating means;
Image processing means for performing different image processing on the pixels belonging to the character image or line drawing and the pixels not belonging to the character image or line drawing according to the determination result by the character determination means;
An image processing apparatus comprising:
前記混合比算出手段は、混合比を算出する成分を除く全成分の値の和を、前記混合比を算出する成分を含む全成分の値の和で除した値を各成分の混合比として算出する、
ことを特徴とする前記請求項に記載の画像処理装置。
The mixing ratio calculating means calculates a value obtained by dividing the sum of the values of all components excluding the component for calculating the mixing ratio by the sum of the values of all the components including the component for calculating the mixing ratio as a mixing ratio of each component. To
The image processing apparatus according to claim 1 , wherein:
複数成分の値からなる画素で構成される画像データを入力する入力手段と、
この入力手段により入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する混合比算出手段と、
前記入力手段により入力した画像データにおける各画素が有彩色あるか無彩色であるかを判定する色判定手段と、
前記入力手段により入力した画像データにおける各画素について各成分の値と前記混合比算出手段により算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する演算手段と、
前記演算手段により算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する文字判定手段と、
この文字判定手段による判定結果と前記色判定手段による判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。
Input means for inputting image data composed of pixels composed of a plurality of component values;
A mixing ratio calculating unit that calculates a mixing ratio of each component from the value of each component for each pixel in the image data input by the input unit;
And determining color determination means for determining each pixel in the input image data is a chromatic color or some achromatic by said input means,
Arithmetic means for calculating a sum of values obtained by multiplying the value of each component and the mixing ratio calculated by the mixing ratio calculating means for each pixel in the image data input by the input means as a luminance equivalent value of each pixel;
Character determining means for determining whether each pixel is a pixel belonging to a character image or a line drawing based on the luminance equivalent value calculated by the calculating means;
Depending on the determination result by the character determination means and the determination result by the color determination means, the pixels belonging to the chromatic color character image or line drawing, the pixels belonging to the achromatic color character image or line drawing, and the characters belonging to the character image or line drawing. Image processing means for performing different image processing on non-pixels;
An image processing apparatus comprising:
前記文字判定手段は、前記色判定手段により有彩色と判定された画像については前記演算手段により算出した輝度相当値と有彩色用の文字判定基準とに基づいて文字画像あるいは線画に属するか否かを判定し、前記色判定手段により無彩色と判定された画像については前記演算手段により算出した輝度相当値と無彩色用の文字判定基準とに基づいて文字画像あるいは線画に属するか否かを判定する、
ことを特徴とする前記請求項に記載の画像処理装置。
Whether the character determination means belongs to a character image or a line drawing based on the luminance equivalent value calculated by the calculation means and the character determination criterion for chromatic color for the image determined to be chromatic by the color determination means And determines whether the image determined to be achromatic by the color determination means belongs to the character image or line drawing based on the luminance equivalent value calculated by the calculation means and the character determination standard for achromatic color To
The image processing apparatus according to claim 3 , wherein:
複数成分の値からなる画素で構成される画像データを入力し、
この入力した画像データにおける各画素について各成分の値から各成分の混合比を算出し、
前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出し、
この算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定し、
この判定結果に応じて文字画像あるいは線画に属する画素と文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う、
ことを特徴とする画像処理方法。
Input image data consisting of pixels consisting of multiple component values,
Calculate the mixing ratio of each component from the value of each component for each pixel in this input image data,
Calculating a sum of a value obtained by multiplying the mixing ratio which is the calculated value of each component for each pixel in the image data the input as the luminance equivalent value of each pixel,
Based on the calculated luminance equivalent value, it is determined whether each pixel is a pixel belonging to a character image or a line drawing,
Depending on the determination result, different image processing is performed on pixels belonging to the character image or line drawing and pixels not belonging to the character image or line drawing.
An image processing method.
複数成分の値からなる画素で構成される画像データを入力し、
この入力した画像データにおける各画素が有彩色であるか無彩色であるかを判定し、
前記入力した画像データにおける各画素について各成分の値から各成分の混合比を算出し、
前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出し、
前記算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定し、
この判定結果と前記有彩色か無彩色かの判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対して、それぞれ異なる画像処理を行う、
ことを特徴とする画像処理方法。
Input image data consisting of pixels consisting of multiple component values,
Determine whether each pixel in this input image data is chromatic or achromatic,
Calculate the mixing ratio of each component from the value of each component for each pixel in the input image data,
For each pixel in the input image data, a sum of values obtained by multiplying the value of each component and the calculated mixing ratio is calculated as a luminance equivalent value of each pixel,
It is determined whether each pixel is a pixel belonging to a character image or a line drawing based on the calculated luminance equivalent value,
According to this determination result and the determination result of the chromatic or achromatic color, pixels belonging to a chromatic character image or line drawing, pixels belonging to an achromatic character image or line drawing, and not belonging to a character image or line drawing Different image processing is performed for each pixel.
An image processing method.
コンピュータに、
複数成分の値からなる画素で構成される画像データを入力する機能と、
この入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する機能と、
前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する機能と、
この算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する機能と、
この判定結果に応じて文字画像あるいは線画に属する画素と文字画像あるいは線画に属さない画素とに対してそれぞれ異なる画像処理を行う機能と、
を実現させるための画像処理プログラム。
On the computer,
A function of inputting image data composed of pixels composed of multiple component values;
A function of calculating the mixing ratio of each component from the value of each component for each pixel in the input image data;
A function of calculating the sum of values obtained by multiplying the mixing ratio which is the calculated value of each component for each pixel in the image data the input as the luminance equivalent value of each pixel,
A function for determining whether each pixel is a pixel belonging to a character image or a line drawing based on the calculated luminance equivalent value;
A function of performing different image processing on pixels belonging to the character image or line drawing and pixels not belonging to the character image or line drawing according to the determination result;
An image processing program for realizing
コンピュータに、
複数成分の値からなる画素で構成される画像データを入力する機能と、
この入力した画像データにおける各画素が有彩色であるか無彩色であるかを判定する機能と、
前記入力した画像データにおける各画素について各成分の値から各成分の混合比を算出する機能と、
前記入力した画像データにおける各画素について各成分の値と前記算出された混合比とを掛け合わせた値の総和を各画素の輝度相当値として算出する機能と、
前記算出した輝度相当値に基づいて各画素が文字画像あるいは線画に属する画素であるか否かを判定する機能と、
この判定結果と前記有彩色か無彩色かの判定結果とに応じて、有彩色の文字画像あるいは線画に属する画素と、無彩色の文字画像あるいは線画に属する画素と、文字画像あるいは線画に属さない画素とに対して、それぞれ異なる画像処理を行う機能と、
を実現させるための画像処理プログラム。
On the computer,
A function of inputting image data composed of pixels composed of multiple component values;
A function of determining whether each pixel in the input image data is a chromatic color or an achromatic color;
A function of calculating the mixing ratio of each component from the value of each component for each pixel in the input image data;
A function of calculating a sum of values obtained by multiplying the value of each component and the calculated mixing ratio for each pixel in the input image data as a luminance equivalent value of each pixel;
A function of determining whether each pixel is a pixel belonging to a character image or a line drawing based on the calculated luminance equivalent value;
According to this determination result and the determination result of the chromatic or achromatic color, pixels belonging to a chromatic character image or line drawing, pixels belonging to an achromatic character image or line drawing, and not belonging to a character image or line drawing A function of performing different image processing for each pixel;
An image processing program for realizing
JP2009150077A 2008-06-27 2009-06-24 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5005734B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US7629308P 2008-06-27 2008-06-27
US61/076,293 2008-06-27

Publications (2)

Publication Number Publication Date
JP2010011458A JP2010011458A (en) 2010-01-14
JP5005734B2 true JP5005734B2 (en) 2012-08-22

Family

ID=41600278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009150077A Expired - Fee Related JP5005734B2 (en) 2008-06-27 2009-06-24 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5005734B2 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2872680B2 (en) * 1988-12-16 1999-03-17 株式会社リコー Black character detection method
JPH0346869A (en) * 1989-07-14 1991-02-28 Konica Corp Color image processor
JPH07298283A (en) * 1994-04-26 1995-11-10 Victor Co Of Japan Ltd Color band improvement circuit
JP3881454B2 (en) * 1998-06-23 2007-02-14 シャープ株式会社 Image conversion method
US7454040B2 (en) * 2003-08-29 2008-11-18 Hewlett-Packard Development Company, L.P. Systems and methods of detecting and correcting redeye in an image suitable for embedded applications
JP2005079750A (en) * 2003-08-29 2005-03-24 Kyocera Mita Corp Image forming apparatus
JP2005094397A (en) * 2003-09-18 2005-04-07 Kyocera Mita Corp Image forming device
JP4379168B2 (en) * 2004-03-16 2009-12-09 富士ゼロックス株式会社 Image formation support device
JP2006238024A (en) * 2005-02-24 2006-09-07 Ricoh Co Ltd Image processor, image processing method and program, and recording medium
JP4814026B2 (en) * 2006-09-05 2011-11-09 株式会社リコー Image processing apparatus, image processing method, and image processing program
JP2008148066A (en) * 2006-12-11 2008-06-26 Canon Inc Image processor, and its control method, and control program

Also Published As

Publication number Publication date
JP2010011458A (en) 2010-01-14

Similar Documents

Publication Publication Date Title
JP4883789B2 (en) Image processing apparatus and image processing method
JP2007116272A (en) Image processing apparatus
US8941900B2 (en) Image forming apparatus and method of processing image thereof
JP7367159B2 (en) Image processing device, image processing method, and program
US20080055677A1 (en) Image Color Determining Device and Image Color Determining Method
JP6438852B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, and image processing method
JP2002112022A (en) Image formation device, image formation method, and recording medium capable of reading computer recording image formation program
CN102547013A (en) Image processing apparatus and method for processing image
US8189235B2 (en) Apparatus, method and program product that calculates a color blending ratio so security dots reproduced in a monochrome image are substantially undetectable
JP7034742B2 (en) Image forming device, its method and program
JP6087334B2 (en) Image processing apparatus and image forming apparatus
US20060256359A1 (en) Print control method, print control apparatus, and print control program
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP5955822B2 (en) Color conversion apparatus, image forming apparatus, color conversion method, and color conversion program
JP5884362B2 (en) Image processing method, image reading apparatus, and image processing program
US8395818B2 (en) Image forming apparatus analyzing color chrominance data to determine type of document to be printed
JP5005734B2 (en) Image processing apparatus, image processing method, and image processing program
EP1898625A2 (en) Apparatus and method for deciding image color
JP4764889B2 (en) Image processing apparatus and image processing method
JP5549836B2 (en) Image processing apparatus and image processing method
JP4003439B2 (en) Image forming apparatus and image forming method
JP2019080169A (en) Image processing device and image processing method
JP4131267B2 (en) Image processing device
US7616343B2 (en) Image data conversion apparatus, image forming apparatus, image data conversion method and program
US8014594B2 (en) Image color discriminating apparatus, image color discriminating method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees