JP2011166776A - Apparatus and method for processing image - Google Patents

Apparatus and method for processing image Download PDF

Info

Publication number
JP2011166776A
JP2011166776A JP2011026504A JP2011026504A JP2011166776A JP 2011166776 A JP2011166776 A JP 2011166776A JP 2011026504 A JP2011026504 A JP 2011026504A JP 2011026504 A JP2011026504 A JP 2011026504A JP 2011166776 A JP2011166776 A JP 2011166776A
Authority
JP
Japan
Prior art keywords
edge
pixel
unit
determination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011026504A
Other languages
Japanese (ja)
Inventor
Hiromasa Tanaka
宏昌 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Publication of JP2011166776A publication Critical patent/JP2011166776A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus for achieving image processing more suitably than before. <P>SOLUTION: The image processing apparatus includes an image read part, a monochromating processing part, an edge determination part, an edge inside determination part, a density determination processing part, an inside pixel width determination part, and an edge classification processing part. The image read part converts an original to image data of electronic data, and the monochromating processing part converts the image data to monochromatic data. The edge determination part determines whether a pixel of the image data is an edge of a drawn line. The edge inside determination part determines whether the pixel of the image data is inside the edge of the drawn line. The density determination processing part determines whether a density value of a pixel of monochromatic image data is dense. The internal pixel width determination part determines a type of line width. The edge classification processing part further classifies the pixel determined as an edge according to a line type. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この明細書に記載の実施形態は、入力した画像データに対して像域判別を行い、その結果に基づいてそれぞれ適切な画像処理を施す技術に関する。   The embodiment described in this specification relates to a technique for performing image area discrimination on input image data and performing appropriate image processing based on the result.

画像読取装置などから出力される画像データから文字エッジを検出してエッジ強調を行う、また網点を検出して平滑化を行うなど、画像データに対して像域判別の結果に基づいて画像処理を施すことは従来から行われている一般的な画像処理技術である。このような画像処理を行うことで、例えば細線のような入力される画像信号が低い場合であっても、エッジの強調を行うことで文字再現が向上する。   Image processing based on the results of image area discrimination for image data, such as detecting character edges from image data output from image readers and performing edge enhancement, and detecting halftone dots and smoothing. Is a general image processing technique conventionally performed. By performing such image processing, even if the input image signal such as a thin line is low, character reproduction is improved by performing edge enhancement.

強調が強すぎる場合はエッジが過強調となり、濃度の薄い中間調の文字や絵柄の場合、文字や絵柄の内部と、エッジとの間のコントラストが強調されて、文字や絵柄が縁取られた再現となってしまう問題がある。   If the emphasis is too strong, the edges will be overemphasized, and in the case of low-density halftone characters and designs, the contrast between the inside of the characters and designs and the edges will be emphasized, and the characters and designs will be outlined There is a problem that becomes.

また一般的に黒文字を再現させる場合、C(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)のトナーを重ねて再現するが、黒細線においてはトナーの色ずれが発生した場合に黒細線の再現が著しく劣化してしまうため、K信号(墨量)を増やしたり、黒一色で再現させたりするなどの対策がなされている。このようにすることで黒の細線再現は色ずれに対しては効果があるものの、中間調の文字エッジや絵柄のエッジなどにおいては、文字の内部の再現とのエッジとの差が顕著となるため、上述したエッジの縁取りをさらに助長させてしまう。   In general, when black characters are reproduced, toners of C (cyan), M (magenta), Y (yellow), and K (black) are superimposed and reproduced. In addition, since the reproduction of the black thin line is remarkably deteriorated, measures are taken such as increasing the K signal (black amount) or reproducing it with one black color. In this way, the black thin line reproduction is effective against color misregistration, but the difference between the edge of the character inside reproduction and the edge of the halftone character edge or pattern edge becomes significant. Therefore, the edge trimming described above is further promoted.

本実施形態は上述した問題点を解決するためになされたものであり、エッジの種別をより細かく分類して検出する技術を提供することを目的とする。   The present embodiment has been made to solve the above-described problems, and an object thereof is to provide a technique for detecting by classifying the types of edges more finely.

画像処理装置は、画像読取部と、モノクロ化処理部と、エッジ判定部と、エッジ内部判定部と、濃度判定処理部と、内部画素幅判定部と、エッジ分類処理部とを有する。画像読取部は、原稿をスキャンして原稿を電子データの画像データに変換する。モノクロ化処理部は、画像読取部によって変換された画像データを単色のデータに変換する。エッジ判定部は、モノクロ化処理部によってモノクロ化された画像データの画素が、画像データに描かれている線のエッジであるか、非エッジであるかを判定する。エッジ内部判定部は、モノクロ化処理部によってモノクロ化された画像データの画素が画像データに描かれている線のエッジの内部か否かを判定する。濃度判定処理部は、モノクロ化処理部によってモノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定する。内部画素幅判定部は、エッジ判定部の判定結果とエッジ内部判定部の判定結果に基づき、画素が線のエッジ内部である場合、線の幅の種別を判定する。エッジ分類処理部は、内部画素幅判定部の判定結果と濃度判定部の判定結果とに基づき、エッジ判定部による判定結果でエッジと判定された画素を、さらに線種に応じて分類する。   The image processing apparatus includes an image reading unit, a monochrome processing unit, an edge determination unit, an edge internal determination unit, a density determination processing unit, an internal pixel width determination unit, and an edge classification processing unit. The image reading unit scans a document and converts the document into image data of electronic data. The monochrome processing unit converts the image data converted by the image reading unit into monochrome data. The edge determination unit determines whether the pixel of the image data monochromeized by the monochrome processing unit is an edge of a line drawn in the image data or a non-edge. The edge inside determination unit determines whether or not the pixel of the image data monochromeized by the monochrome processing unit is inside the edge of the line drawn in the image data. The density determination processing unit determines whether or not the pixel density value of the image data monochromeized by the monochrome processing unit is dark by comparing with a threshold value. The internal pixel width determination unit determines the type of the line width when the pixel is inside the line edge based on the determination result of the edge determination unit and the determination result of the edge internal determination unit. The edge classification processing unit further classifies the pixels determined to be edges by the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit, according to the line type.

画像処理装置の一例を示す断面図である。It is sectional drawing which shows an example of an image processing apparatus. 細線判定部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a thin line determination part. 細線判定部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of a thin line determination part. 内部画素幅判定部での処理を説明する図である。It is a figure explaining the process in an internal pixel width determination part. エッジ分類処理部が用いる組み合わせテーブルの一例を示す図である。It is a figure which shows an example of the combination table which an edge classification | category process part uses. 像域識別部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image area identification part. 文字判定部が用いる組み合わせテーブルの一例を示す図である。It is a figure which shows an example of the combination table which a character determination part uses. 総合判定部が用いる組み合わせテーブルの一例を示す図である。It is a figure which shows an example of the combination table which a comprehensive determination part uses. 画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image process part. フィルタの周波数特性の一例を示す図である。It is a figure which shows an example of the frequency characteristic of a filter. 線と線の間隔が狭いパターンをスキャナで読み込んだ場合の例を示す図である。It is a figure which shows the example at the time of reading the pattern with a narrow space | interval of a line with a scanner.

本実施形態の詳細説明に入る前に、ここで本実施形態の概要について説明する。   Before going into the detailed description of the present embodiment, the outline of the present embodiment will be described here.

一般的に細線などは、太線に比べてスキャナなどの画像読取部によって読み取られる信号が低くなる傾向にある。そのため細線の再現を良くするためには、強めにエッジの強調を行う必要がある。一方、太線においてはスキャナによって読み取られる信号が高いため、強めのエッジ強調は必要としない。しかしながら、単純にエッジの検出を行うだけでは細線のエッジと太線のエッジとの区別ができないため、細線の再現を優先させた場合には、太線のエッジが過強調となってしまい、上述のように特に中間調の文字や絵柄のエッジ部においては縁取りされた再現となってしまう。   In general, a thin line or the like tends to have a lower signal read by an image reading unit such as a scanner than a thick line. Therefore, in order to improve the reproduction of the thin line, it is necessary to enhance the edge strongly. On the other hand, since the signal read by the scanner is high at the thick line, strong edge enhancement is not required. However, it is impossible to distinguish between the edge of the thin line and the edge of the thick line simply by detecting the edge. Therefore, if priority is given to reproduction of the thin line, the edge of the thick line is overemphasized, as described above. In particular, the halftone character and the edge of the pattern are reproduced with an outline.

本実施形態は、この問題を鑑みたものであり、本実施形態の画像処理装置は、細線判定処理により予めターゲットとした線幅以下の「細線」、「太線」、「中間幅の線」を検出してエッジを分類し、フィルタ処理や墨入れ処理などにおいては、線幅に応じた処理を施すことにより、細線および中間幅の線の再現向上と中間調文字や絵柄の縁取りを抑制することを目的とする。また文字領域を検出することにより、線と線の間隔が狭い文字やパターンの場合にも、これらをまとまった領域として「細線」と検出することで、細線再現を向上させることを目的とする。   The present embodiment has been made in view of this problem, and the image processing apparatus according to the present embodiment applies a “thin line”, “thick line”, and “intermediate width line” that are equal to or smaller than the target line width in advance by the thin line determination process. Detect and classify edges, and perform processing according to the line width in filter processing and inking processing, etc., to improve the reproduction of fine lines and intermediate width lines and suppress halftone characters and pattern borders With the goal. It is another object of the present invention to improve fine line reproduction by detecting a character region and detecting a “fine line” as a grouped region even in the case of a character or pattern having a narrow line-to-line interval.

以下、実施の形態について図面を参照しつつ説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態における画像処理装置(MFP:Multi Function Peripheral)の概略構成を示す縦断面図である。図1に示すように、本実施形態による画像処理装置100は、画像読取部Rと、画像形成部Pとを備えている。   FIG. 1 is a longitudinal sectional view showing a schematic configuration of an image processing apparatus (MFP: Multi Function Peripheral) in the present embodiment. As shown in FIG. 1, the image processing apparatus 100 according to the present embodiment includes an image reading unit R and an image forming unit P.

画像読取部Rは、シート原稿およびブック原稿の画像をスキャンして読み取る機能を有している。画像読取部Rは、原稿を所定の画像読取位置まで自動搬送可能な自動原稿搬送装置(ADF:Auto Document Feeder)109を備えており、この自動原稿搬送装置109によって自動搬送される原稿トレイ(所定の原稿載置台)Rtに載置された原稿や、不図示の原稿台に載置される原稿の画像を、走査光学系110によって読み取る。   The image reading unit R has a function of scanning and reading images of a sheet document and a book document. The image reading unit R includes an automatic document feeder (ADF) 109 capable of automatically conveying a document to a predetermined image reading position, and a document tray (predetermined by the automatic document feeder 109). The scanning optical system 110 reads an image of the original placed on the original placement table Rt or an original placed on the original table (not shown).

画像形成部Pは、画像読取部Rにて原稿から読み取られた画像や外部機器から画像処理装置に送信された画像データ等に基づいて、シートに現像剤像を形成する機能を有している。また、画像形成部Pは、ピックアップローラ151〜154、感光体102Y〜102K、現像ローラ103Y〜103K、ミキサ104Y〜104K、中間転写ベルト106、定着装置107および排出トレイ108を備えている。   The image forming unit P has a function of forming a developer image on a sheet based on an image read from an original by the image reading unit R, image data transmitted from an external device to the image processing apparatus, or the like. . Further, the image forming unit P includes pickup rollers 151 to 154, photoconductors 102Y to 102K, developing rollers 103Y to 103K, mixers 104Y to 104K, an intermediate transfer belt 106, a fixing device 107, and a discharge tray 108.

また、画像処理装置100は、演算処理装置(たとえばCPU(Central Processing Unit)、MPU(Micro Processing Unit))であるプロセッサ801、および揮発性記憶装置、不揮発性記憶装置によって構成されるメモリ802を備えた画像処理部800を有する。プロセッサ801は、画像処理装置100における各種処理を行う役割を有しており、またメモリ802の不揮発性記憶領域に格納されているプログラムをメモリ802の揮発性記憶領域にロードし、ロードされたプログラムを実行することにより種々の機能を実現する役割も有している。メモリ802は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、VRAM(Video RAM)、ハードディスクドライブ等から構成されることができ、画像処理装置100において利用される種々の情報やプログラムを格納する役割を有している。   The image processing apparatus 100 also includes a processor 801 that is an arithmetic processing unit (for example, a CPU (Central Processing Unit) and an MPU (Micro Processing Unit)), and a memory 802 that includes a volatile storage device and a nonvolatile storage device. The image processing unit 800 is included. The processor 801 has a role of performing various processes in the image processing apparatus 100, and loads a program stored in the nonvolatile storage area of the memory 802 into the volatile storage area of the memory 802, and loads the program It also has a role of realizing various functions by executing. The memory 802 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a DRAM (Dynamic Random Access Memory), an SRAM (Static Random Access Memory), a VRAM (Video RAM), a hard disk drive, and the like. And has a role of storing various information and programs used in the image processing apparatus 100.

画像形成装置100は、タッチパネルディスプレイ806を備えるコントロールパネル810を有する。コントロールパネル810は、モードの切り替え等のユーザーからの指示を受け付けるとともに、ユーザーへ処理内容を表示する。   The image forming apparatus 100 includes a control panel 810 that includes a touch panel display 806. The control panel 810 accepts instructions from the user such as mode switching and displays processing contents to the user.

以下、本実施の形態による画像処理装置100における処理の一例として、コピー処理の概要について説明する。   Hereinafter, an outline of copy processing will be described as an example of processing in the image processing apparatus 100 according to the present embodiment.

まず、ピックアップローラ151〜154によりカセットからピックアップされたシートは、シート搬送路内に供給される。シート搬送路内に供給されたシートは、複数のローラ対によって所定の搬送方向へ向けて搬送される。   First, the sheet picked up from the cassette by the pickup rollers 151 to 154 is supplied into the sheet conveying path. The sheet supplied into the sheet conveyance path is conveyed in a predetermined conveyance direction by a plurality of roller pairs.

そして、自動原稿搬送装置109によって連続的に自動搬送される複数枚のシート原稿の画像が、所定の画像読取位置にて走査光学系110によって読み取られる。   Then, images of a plurality of sheet originals that are automatically and continuously conveyed by the automatic document conveying device 109 are read by the scanning optical system 110 at a predetermined image reading position.

次に、画像読取部Rにて原稿から読み取られた画像データに対して画像処理部800が画像処理を施す。画像処理後のデータに基づき、Y、M、CおよびKの現像剤像をシートに転写するための感光体102Y、102M、102Cおよび102Kの感光面上に静電潜像が形成される。   Next, the image processing unit 800 performs image processing on the image data read from the original by the image reading unit R. Based on the data after image processing, electrostatic latent images are formed on the photosensitive surfaces of the photoconductors 102Y, 102M, 102C, and 102K for transferring the Y, M, C, and K developer images to the sheet.

続いて、現像器におけるミキサ104Y〜104Kにより攪拌された現像剤が、現像ローラ(いわゆる、マグローラ)103Y〜103Kによって、上記のようにして静電潜像が形成された感光体102Y〜102Kに供給される。これにより、感光体の感光面上に形成された静電潜像が顕像化される。   Subsequently, the developer stirred by the mixers 104Y to 104K in the developing devices is supplied to the photoconductors 102Y to 102K on which the electrostatic latent images are formed as described above by the developing rollers (so-called mag rollers) 103Y to 103K. Is done. Thereby, the electrostatic latent image formed on the photosensitive surface of the photosensitive member is visualized.

このようにして感光体上に形成された現像剤像は、中間転写ベルト106のベルト面上に転写され(いわゆる、一次転写)、中間転写ベルトの回転によって搬送される現像剤像は、所定の二次転写位置Tにて、搬送されるシート上に転写される。   The developer image thus formed on the photosensitive member is transferred onto the belt surface of the intermediate transfer belt 106 (so-called primary transfer), and the developer image conveyed by the rotation of the intermediate transfer belt is a predetermined image. At the secondary transfer position T, the image is transferred onto the conveyed sheet.

シート上に転写された現像剤像は、定着装置107にてシートに対して加熱定着される。現像剤象が加熱定着されたシートは、複数の搬送ローラ対によって搬送路内を搬送され、排出トレイ108上に順次排出される。   The developer image transferred onto the sheet is heated and fixed to the sheet by the fixing device 107. The sheet on which the developer image is heat-fixed is conveyed through the conveyance path by a plurality of conveyance roller pairs, and is sequentially discharged onto the discharge tray 108.

次に、本実施形態の画像処理部800について説明する。以降に説明する各ユニットは、メモリ802の不揮発性記憶領域に記憶されているプログラムが、メモリ802の揮発性記憶領域にロードされ、プロセッサ801が演算実行することにより実現される。またテーブルや閾値、パラメータ等の各種データや各ユニットが生成するデータは、メモリ802に記憶される。以降の説明では、まず画像処理部800内の一つのユニットである細線判定部について説明する。その後、細線判定部を有する像域識別部について説明し、最後に画像処理部800全体について説明する。   Next, the image processing unit 800 of this embodiment will be described. Each unit described below is realized by a program stored in a nonvolatile storage area of the memory 802 being loaded into a volatile storage area of the memory 802 and the processor 801 executing an operation. Various data such as tables, threshold values, parameters, and data generated by each unit are stored in the memory 802. In the following description, a thin line determination unit that is one unit in the image processing unit 800 will be described first. Thereafter, an image area identification unit having a thin line determination unit will be described, and finally the entire image processing unit 800 will be described.

図2は、本実施形態の細線判定部のブロック図の一例を示すものであり、図3は、本実施形態の細線判定部の動作例を示すフローチャートである。細線判定部10は、モノクロ化処理部1、フィルタ処理部2、エッジ内外判定部3、エッジ領域検出部4、黒エッジ検出部5、濃度判定処理部6、エッジ内部画素判定部7、収縮処理部8、内部画素幅判定部9、内部膨張処理部31、エッジ分類処理部32の各ユニットを有する。以下、図3のフローチャートを参照しつつ細線判定部10の各ユニットの処理を説明する。   FIG. 2 shows an example of a block diagram of the thin line determination unit of the present embodiment, and FIG. 3 is a flowchart showing an operation example of the thin line determination unit of the present embodiment. The thin line determination unit 10 includes a monochrome processing unit 1, a filter processing unit 2, an edge inside / outside determination unit 3, an edge region detection unit 4, a black edge detection unit 5, a density determination processing unit 6, an edge internal pixel determination unit 7, and a contraction process. Unit 8, internal pixel width determination unit 9, internal expansion processing unit 31, and edge classification processing unit 32. Hereinafter, the processing of each unit of the thin line determination unit 10 will be described with reference to the flowchart of FIG.

(ACT1) モノクロ化処理部1は、画像読取部Rによって原稿が電子データに変換された画像データを取得し、画像データのRGB信号において、各画素のR/G/Bの最小値を255から減算した値を、各画素の代表値として単色化を行う。ここで255から減算する理由は、信号系を、白の値を0とし黒の値を255とする濃度系へと変換するためであり、以降の説明においては全て濃度系を前提とした説明を行うものとする。尚、この濃度系へと変換処理は必ずしも行う必要はなく、その場合は以降の処理を、白の値を255とし、黒の値を0とする輝度系として読み替えてもらえばよい。また、単色化の方法としてはRGBの平均値を用いる方法が一般的であるが、平均値を用いた場合には有彩色文字の信号がなまってしまい、後述するエッジ検出の精度が低下する。よって、本実施形態では有彩色文字の検出精度の低下を抑止するためにR/G/Bの最小値を用いた手法を採用する。   (ACT1) The monochrome processing unit 1 acquires image data in which a document is converted into electronic data by the image reading unit R. In the RGB signal of the image data, the minimum value of R / G / B of each pixel is increased from 255. Monochrome processing is performed using the subtracted value as a representative value of each pixel. Here, the reason for subtracting from 255 is to convert the signal system to a density system in which the white value is 0 and the black value is 255. In the following explanation, the explanation is based on the assumption of the density system. Assumed to be performed. The conversion process to the density system is not necessarily performed. In this case, the subsequent process may be read as a luminance system in which the white value is 255 and the black value is 0. In addition, as a monochromatic method, a method using an average value of RGB is generally used. However, if the average value is used, a chromatic character signal is lost, and the accuracy of edge detection described later is lowered. Therefore, in the present embodiment, a technique using the minimum value of R / G / B is adopted in order to suppress a decrease in detection accuracy of chromatic color characters.

(ACT2) フィルタ処理部2は、後述するエッジ検出において、網点領域での誤検出を抑制するための平滑化処理を施す。尚、エッジ検出精度を上げるために先鋭化処理を行っても良い。   (ACT2) The filter processing unit 2 performs a smoothing process for suppressing erroneous detection in a halftone dot region in edge detection described later. Note that sharpening processing may be performed to increase edge detection accuracy.

(ACT3) 黒エッジ検出部5は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心にマトリクスを形成する。ここでマトリクスサイズは検出したい線幅に応じたサイズに設定し、例えば約7画素幅以下を検出したい場合は7×7のサイズとする。エッジの検出方法は注目画素とマトリクス内の最小値との差が閾値以上となる画素を「黒エッジ」、それ以外の場合は「非黒エッジ」とする。   (ACT3) The black edge detection unit 5 forms a matrix around the pixel of interest with respect to the image that has been monochromeized by the monochrome processing unit 1. Here, the matrix size is set to a size corresponding to the line width to be detected. For example, when it is desired to detect a width of about 7 pixels or less, the matrix size is set to 7 × 7. As an edge detection method, a pixel whose difference between the pixel of interest and the minimum value in the matrix is equal to or greater than a threshold value is a “black edge”;

(ACT4) エッジ領域検出部4は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心として黒エッジ検出部5と同じサイズ(検出したい線幅に応じたサイズ)のマトリクスを形成する。エッジ領域検出部4でのエッジの検出方法は、マトリクス内の最大値と最小値の差が閾値以上の画素を「エッジ領域」、それ以外の場合は「非エッジ領域」とする。   (ACT4) The edge region detection unit 4 is a matrix having the same size as the black edge detection unit 5 (size corresponding to the line width to be detected) centered on the target pixel with respect to the image monochromeized by the monochrome processing unit 1 Form. As an edge detection method in the edge region detection unit 4, a pixel whose difference between the maximum value and the minimum value in the matrix is equal to or greater than a threshold value is referred to as an “edge region”, and in other cases, a “non-edge region”.

(ACT5) エッジ内外判定部3は、モノクロ化処理部1によってモノクロ化された画像に対して、注目画素を中心にマトリクスを形成する。ここで形成するマトリクスサイズは黒エッジ検出部5やエッジ領域検出部4で形成したサイズより大きいサイズとする。そして以下の式により算出された値が閾値以上の場合には注目画素を「エッジ内部」とし、閾値未満の場合には「エッジ外部」と判定する。なお、Aは注目画素の信号値を示し、max、minはそれぞれマトリクス内の最大値、最小値を示すものとする。
edgeio=A−((max+min)/2)+127
(ACT5) The edge inside / outside determination unit 3 forms a matrix around the target pixel with respect to the image monochromeized by the monochrome processing unit 1. The matrix size formed here is larger than the size formed by the black edge detection unit 5 or the edge region detection unit 4. If the value calculated by the following formula is equal to or greater than the threshold, the target pixel is determined to be “inside the edge”, and if it is less than the threshold, it is determined to be “outside the edge”. A indicates the signal value of the target pixel, and max and min indicate the maximum value and the minimum value in the matrix, respectively.
edge io = A-((max + min) / 2) +127

(ACT6) 濃度判定処理部6は、注目画素の濃度値と閾値とを比較することで、注目画素が「薄い」画素であるか、または「濃い」画素かを画素ごとに判定する。   (ACT6) The density determination processing unit 6 determines whether the target pixel is a “light” pixel or a “dark” pixel for each pixel by comparing the density value of the target pixel with a threshold value.

(ACT7) エッジ内部画素判定部7は、エッジ領域検出部4の結果に基づき、エッジ内外判定部3によってエッジの内部と判定された画素がエッジの内部であるかを再判定する。エッジ領域検出部4の結果が「非エッジ領域」であり、かつエッジ内外判定部3の結果が「エッジ内部」と判定された場合のみ、エッジ内部画素判定部7は当該画素を「エッジ内部」と判定する。上記以外の場合は「その他」とする。   (ACT7) Based on the result of the edge region detection unit 4, the edge internal pixel determination unit 7 re-determines whether the pixel determined to be inside the edge by the edge inside / outside determination unit 3 is inside the edge. Only when the result of the edge region detection unit 4 is “non-edge region” and the result of the edge inside / outside determination unit 3 is determined to be “inside the edge”, the edge inside pixel determination unit 7 determines that the pixel is “inside the edge”. Is determined. In cases other than the above, "Other" is assumed.

(ACT8) 収縮処理部8は、黒エッジ検出部5による結果とエッジ領域検出部4による結果とに基づき、画素が「エッジ領域」であるか「非エッジ領域」であるかを再判定する。収縮処理部8は、まずエッジ領域検出部4の結果に対して注目画素を中心にマトリクスを形成する。そして注目画素周囲(マトリクスのサイズ)に所定数以上の「非エッジ領域」画素が存在し、かつ注目画素の黒エッジ検出部5の結果が「非黒エッジ」である場合に、注目画素を「非エッジ領域」と判定する。なお注目画素の黒エッジ検出部5による結果が「黒エッジ」である場合には、無条件で「エッジ領域」と判定する。   (ACT8) The contraction processing unit 8 re-determines whether the pixel is an “edge region” or a “non-edge region” based on the result of the black edge detection unit 5 and the result of the edge region detection unit 4. The contraction processing unit 8 first forms a matrix around the target pixel with respect to the result of the edge region detection unit 4. When a predetermined number or more of “non-edge region” pixels exist around the pixel of interest (matrix size) and the result of the black edge detection unit 5 of the pixel of interest is “non-black edge”, the pixel of interest is “ It is determined as “non-edge region”. When the result of the black edge detection unit 5 of the target pixel is “black edge”, it is unconditionally determined as “edge region”.

(ACT9) 内部画素幅判定部9は、エッジ内部画素判定部7及び収縮処理部8の結果に基づき、内部画素の幅を判定する。内部画素幅判定部9は、注目画素を中心にマトリクスを形成し、注目画素のエッジ内部画素判定部7による結果が「エッジ内部」の場合、図4に示す8方向それぞれに対して、収縮処理部8の結果が「非エッジ領域」の画素を、「エッジ領域」もしくはマトリクスのサイズを超えるまでカウントする。例えば、d3方向の3つの画素(図4では注目画素から右3つの画素)において、注目画素に最も近い画素から順に(図4のd3方向において、左から順に)、「非エッジ領域」、「エッジ領域」、「非エッジ領域」である場合、カウント数は1となり、また「非エッジ領域」、「非エッジ領域」、「エッジ領域」のある場合、カウント数は2となる。このように各方向のカウント値は、例えばマトリクスサイズを7×7とした場合には、最大で3となる。   (ACT9) The internal pixel width determination unit 9 determines the width of the internal pixel based on the results of the edge internal pixel determination unit 7 and the contraction processing unit 8. The internal pixel width determination unit 9 forms a matrix around the pixel of interest, and when the result of the edge internal pixel determination unit 7 of the pixel of interest is “inside the edge”, contraction processing is performed for each of the eight directions shown in FIG. The pixels whose result of the section 8 is “non-edge region” are counted until the “edge region” or the size of the matrix is exceeded. For example, in three pixels in the d3 direction (three pixels on the right from the target pixel in FIG. 4), in order from the pixel closest to the target pixel (from the left in the d3 direction in FIG. 4), “non-edge region”, “ In the case of “edge region” and “non-edge region”, the count number is 1, and in the case of “non-edge region”, “non-edge region”, and “edge region”, the count number is 2. Thus, the count value in each direction is 3 at the maximum when the matrix size is 7 × 7, for example.

内部画素幅判定部9は、以下の式により縦、横、斜め2方向の画素幅を算出する。以下の式において、d1〜d8はそれぞれの方向における画素カウント値とする。
縦方向 = d1+ d5+ 1
横方向 = d3+ d7+ 1
斜め方向1 = d2 + d6+ 1
斜め方向2 = d4 + d8+ 1
上記4方向の画素幅のうち、最小の画素幅が閾値以下の場合は「中間幅線内部」とし、閾値より大きい場合は「太線内部」とする。なお、注目画素のエッジ内部画素判定部7による判定結果が「その他」の場合には、上記内部画素幅の判定は行わず、「その他」の判定結果をそのまま後段の処理へ出力する。
The internal pixel width determination unit 9 calculates pixel widths in two vertical, horizontal, and diagonal directions using the following formula. In the following equations, d1 to d8 are pixel count values in the respective directions.
Longitudinal direction = d1 + d5 + 1
Lateral direction = d3 + d7 + 1
Diagonal direction 1 = d2 + d6 + 1
Diagonal direction 2 = d4 + d8 + 1
Of the pixel widths in the four directions, when the minimum pixel width is equal to or smaller than the threshold value, “inside the intermediate width line” is set, and when larger than the threshold value, “inside the thick line” is set. When the determination result by the edge internal pixel determination unit 7 of the target pixel is “other”, the determination of the internal pixel width is not performed, and the determination result of “other” is output to the subsequent processing as it is.

(ACT10) 内部膨張処理部31は、濃度判定部6の結果に基づいて内部画素幅判定部9の結果を周囲に膨張する。内部膨張処理部31は、注目画素を中心とし黒エッジ検出部5で形成したマトリクスサイズ以上でマトリクスを形成する。ここでは例として11×11とする。内部膨張処理部31は、注目画素周辺(マトリクスの範囲(11×11))の「中間幅線内部」判定結果と「太線内部」判定結果のそれぞれをカウントし、注目画素の濃度判定部6による結果が「薄い」場合には、注目画素の判定結果をカウント値が多い方の判定結果に置き換える。なお濃度判定部6による結果が「濃い」場合、もしくは内部画素幅判定部9による結果が「その他」の場合には内部画素幅判定部9の結果をそのまま他後段の処理へ出力する。   (ACT10) The internal expansion processing unit 31 expands the result of the internal pixel width determination unit 9 around based on the result of the density determination unit 6. The internal expansion processing unit 31 forms a matrix with the pixel of interest at the center and the matrix size formed by the black edge detection unit 5 or more. Here, it is 11 × 11 as an example. The internal dilation processing unit 31 counts the “intermediate width line internal” determination result and the “thick line internal” determination result around the pixel of interest (matrix range (11 × 11)), and the density determination unit 6 of the pixel of interest When the result is “light”, the determination result of the target pixel is replaced with the determination result with the larger count value. If the result of the density determination unit 6 is “dark”, or if the result of the internal pixel width determination unit 9 is “other”, the result of the internal pixel width determination unit 9 is output as it is to other subsequent processes.

(ACT11)エッジ分類処理部32は、収縮処理部8、内部膨張処理部31のそれぞれの結果に基づき、収縮処理部8による判定結果でエッジと判定された画素の判定結果を、さらに線種に応じて分類する。エッジの分類は収縮処理部8、内部膨張処理部31の各処理結果の組み合わせに基づき、画素ごとに決定されるものとし、その組み合わせ例を図5(A)に示す。   (ACT11) Based on the results of the contraction processing unit 8 and the internal expansion processing unit 31, the edge classification processing unit 32 further uses the determination result of the pixel determined as the edge by the determination result by the contraction processing unit 8 as a line type. Classify accordingly. The edge classification is determined for each pixel based on the combination of the processing results of the contraction processing unit 8 and the internal expansion processing unit 31, and an example of the combination is shown in FIG.

尚、内部膨張処理部31を有さない実装も考えられる。この場合、エッジ分類処理部32は、ACT11で収縮処理部8、内部画素幅判定部9、濃度判定部6の結果を組み合わせた分類を行う。この組み合わせ例を図5(B)に示す。   In addition, the mounting which does not have the internal expansion process part 31 is also considered. In this case, the edge classification processing unit 32 performs classification by combining the results of the contraction processing unit 8, the internal pixel width determination unit 9, and the density determination unit 6 in ACT11. An example of this combination is shown in FIG.

以上の構成により、入力した画像データにおいて、注目画素が「エッジ」であるか「非エッジ」であるかを画素ごとに分類することができ、また注目画素が「エッジ」である場合、「薄い中間幅線」のエッジ、「薄い太線」のエッジ、「細線または濃い太線、または濃い中間幅線」のエッジであるかを分類することが可能となる。   With the above configuration, in the input image data, it is possible to classify whether the target pixel is “edge” or “non-edge” for each pixel, and when the target pixel is “edge”, “light” It is possible to classify the edge of “intermediate width line”, the edge of “thin thick line”, the edge of “thin line or thick thick line, or dark intermediate width line”.

尚、エッジ内外判定部3、エッジ領域検出部4、エッジ内部画素判定部7によって構成されるユニット(図2において破線で示される)を、エッジ内部判定部33とし、黒エッジ検出部5、エッジ領域検出部4、収縮処理部8によって構成されるユニット(図2において一点鎖線で示されるユニット)を、エッジ判定部34とする。この場合、エッジ内部判定部33は、モノクロ化処理部1によってモノクロ化された画像データの画素が、画像データに描かれている線のエッジの内部か否かを判定する。エッジ判定部34は、モノクロ化処理部1によってモノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか非エッジであるかを、検出対象の線がマトリクス内に収まるサイズのマトリクスを用いて判定する。   Note that a unit (indicated by a broken line in FIG. 2) including the edge inside / outside determination unit 3, the edge region detection unit 4, and the edge internal pixel determination unit 7 is referred to as an edge internal determination unit 33, and the black edge detection unit 5 and the edge A unit (unit indicated by an alternate long and short dash line in FIG. 2) configured by the region detection unit 4 and the contraction processing unit 8 is referred to as an edge determination unit 34. In this case, the edge inside determination unit 33 determines whether or not the pixel of the image data monochromeized by the monochrome processing unit 1 is inside the edge of the line drawn in the image data. The edge determination unit 34 determines whether the pixel of the image data monochromeized by the monochrome processing unit 1 is an edge or a non-edge of a line drawn in the image data, and whether the detection target line is within the matrix Is determined using a matrix having a size that fits in

図6は、上述の細線判定部10を含めた像域識別部20の構成例を示す図である。
像域識別部20は、さらに、スキャンされた画像データに描かれた像のエッジを検出するエッジ検出部11、網点であるか否かを判定する網点判定部12、スキャンされた画像データの任意の領域(画素単位であってもよい。以下同様)が白下地か背景かを判定する下地判定部13を有し、また、スキャンされた画像データの任意の領域が有彩色か無彩色かを判定する無彩色検出部14、および文字判定部15、総合判定部16を有する。
FIG. 6 is a diagram illustrating a configuration example of the image area identification unit 20 including the thin line determination unit 10 described above.
The image area identification unit 20 further includes an edge detection unit 11 that detects an edge of an image drawn in the scanned image data, a halftone dot determination unit 12 that determines whether the image is a halftone dot, or scanned image data The background determination unit 13 determines whether an arbitrary area (which may be a pixel unit, the same applies hereinafter) is a white background or a background, and the arbitrary area of scanned image data is chromatic or achromatic. An achromatic color detection unit 14 for determining whether or not, a character determination unit 15, and a comprehensive determination unit 16.

文字判定部15では、エッジ検出部11の検出結果、および網点判定部12による網点判定の結果に基づき、図7の組み合わせ表を用いて画像データの任意の領域が「文字」か「非文字」かの判定を行う。   Based on the detection result of the edge detection unit 11 and the result of the halftone dot determination by the halftone dot determination unit 12, the character determination unit 15 uses the combination table of FIG. Judge whether it is "character".

総合判定部16は、後述するフィルタ部22や階調処理部24が用いる判定結果と、墨入れ部23が用いる判定結果との2種類の判定結果を出力する。   The comprehensive determination unit 16 outputs two types of determination results, a determination result used by a filter unit 22 and a gradation processing unit 24 described later, and a determination result used by the inking unit 23.

総合判定部16は、フィルタ部22/階調処理部24が用いる総合判定結果(以下、総合判定結果1)として、文字判定部15による文字判定結果と、細線判定部10による結果(エッジ分類処理部32の出力)とに基づき、図8(A)の組み合わせ表を用いて「非文字」、薄い太線を示す「文字1」、薄い中間幅線を示す「文字2」、細線、濃い太線または濃い中間幅線を示す「文字3」の別を出力する。   The comprehensive determination unit 16 uses the character determination result by the character determination unit 15 and the result (edge classification processing) by the character determination unit 15 as the comprehensive determination result (hereinafter referred to as the comprehensive determination result 1) used by the filter unit 22 / tone processing unit 24. 8), using the combination table of FIG. 8A, “non-character”, “character 1” indicating a thin thick line, “character 2” indicating a thin intermediate width line, thin line, dark thick line or Output another “character 3” indicating a dark intermediate width line.

また総合判定部16は、墨入れ部23が用いる総合判定結果(以下、総合判定結果2)として、文字判定部15による判定結果(文字判定結果)と、下地判定部13による結果(下地判定結果)と、無彩色判定部14による結果(無彩色検出結果)と、細線判定部10による結果(細線判定結果)とに基づき、図8(B)の組み合わせ表のように「写真」「色文字」「背景上の黒文字」「下地上の黒文字」の別を出力する。   The comprehensive determination unit 16 also determines the determination result (character determination result) by the character determination unit 15 and the result (background determination result) by the character determination unit 15 as the comprehensive determination result (hereinafter referred to as comprehensive determination result 2) used by the inking unit 23. ), The result by the achromatic color determination unit 14 (achromatic color detection result), and the result by the thin line determination unit 10 (thin line determination result), as shown in the combination table of FIG. "" Black characters on the background "" "Black characters on the background" are output.

これら総合判定結果が得られることで、フィルタ部22、墨入れ部23、階調処理部24はそれぞれ適した処理を行うことが可能である。   By obtaining these comprehensive determination results, the filter unit 22, the inking unit 23, and the gradation processing unit 24 can perform appropriate processes.

図9は像域識別部20を含んだ画像処理部800の構成例を示すブロック図である。画像処理部800は、RGB信号をCMY信号に変換する色変換部21、エッジ強調や平滑化を行うフィルタ部22、CMY信号を信号の比率などにより墨量(K信号)を生成し、CMYK信号に変換する墨入れ部23、プリンタの特性などに合わせて擬似階調を生成する階調処理部24を有する。   FIG. 9 is a block diagram illustrating a configuration example of the image processing unit 800 including the image area identification unit 20. The image processing unit 800 generates a black amount (K signal) from the color conversion unit 21 that converts an RGB signal into a CMY signal, a filter unit 22 that performs edge enhancement and smoothing, a ratio of the CMY signal, and the like. An inking unit 23 for converting the image into a color tone, and a tone processing unit 24 for generating a pseudo tone according to the characteristics of the printer.

フィルタ部22、墨入れ処理部23について、以下に具体的な処理例を示す。
フィルタ部22は、像域識別部20の処理において総合判定結果1(図8(A)参照)が「文字1」(薄い太線)と判定された場合には、弱めのエッジ強調となる文字用フィルタを用いて処理を行い、「文字2」(薄い中間幅線)と判定された場合には、中程度のエッジ強調となる文字用フィルタを用いて処理を行う。また、「文字3」(細線、濃い太線、濃い中間幅線)と判定された場合には、フィルタ部22は、強めエッジ強調となる文字用フィルタを用いて処理を行う。また総合判定結果1が「非文字」と判定された場合には、フィルタ部22は写真(網点)に適したフィルタ(平滑化処理)を用いて処理を行う。
ここで細線用フィルタの周波数特性としては、低〜高周波数までの周波数帯域をすべて強調するようなフィルタ(図10(A)参照)であることが望ましく、中間幅線用フィルタの周波数特性は細線用フィルタの特性に対してゲインを低くしたフィルタ(図10(B)参照)が望ましい。また写真用フィルタの周波数特性としては、低周波数帯域はシャープネスをよくするために若干強調し、中〜高周波数帯域はモアレやざらつきを抑えるために平滑化するようなフィルタ(図10(C)参照)であることが望ましい。
Specific processing examples of the filter unit 22 and the inking unit 23 will be described below.
When the comprehensive determination result 1 (see FIG. 8A) is determined to be “character 1” (thin thick line) in the processing of the image area identification unit 20, the filter unit 22 is used for character that becomes weak edge enhancement. If the process is performed using a filter and it is determined that the character is “character 2” (thin intermediate width line), the process is performed using a character filter that performs medium edge enhancement. On the other hand, when it is determined as “character 3” (thin line, thick thick line, dark intermediate width line), the filter unit 22 performs processing using a character filter for enhancing edge enhancement. When the comprehensive determination result 1 is determined as “non-character”, the filter unit 22 performs processing using a filter (smoothing process) suitable for a photograph (halftone dot).
Here, the frequency characteristic of the fine line filter is preferably a filter (see FIG. 10A) that emphasizes all frequency bands from low to high frequencies, and the frequency characteristic of the intermediate line filter is fine line. A filter (see FIG. 10B) having a low gain with respect to the characteristics of the filter for use is desirable. As for the frequency characteristics of a photographic filter, a low frequency band is slightly emphasized to improve sharpness, and a medium to high frequency band is smoothed to suppress moire and roughness (see FIG. 10C). ) Is desirable.

また図11(A)に示したような線と線の間隔が狭いようなパターンをスキャナで読み込んだ場合、本来下地である線と線の間に信号がある程度存在するため(図11(A)のプロファイル参照)、線の間がエッジと検出されない場合、信号が強調されずに線の間に信号が残ってしまう(図11(B)参照)。しかし、本実施形態によれば、狭い間隔の線と線の間はエッジとして判定されるため、フィルタ処理での強調により線の間の信号を取り除くことが可能となる(図11(C)参照)。   Further, when a pattern having a narrow line-to-line interval as shown in FIG. 11A is read by a scanner, a signal is present to some extent between the lines that are originally the ground (FIG. 11A). When the edge between the lines is not detected as an edge, the signal is not emphasized and the signal remains between the lines (see FIG. 11B). However, according to the present embodiment, since a line between narrowly spaced lines is determined as an edge, it is possible to remove a signal between lines by emphasizing by filtering (see FIG. 11C). ).

墨入れ部23は、像域識別部20の処理において総合判定結果2(図8(B)参照)が「下地上黒文字」と判定された場合、すなわち、当該領域は「下地が白色の黒い細線」、「下地が白色の黒い濃い中間線または太線」であるため、CMYを重ねて再現せずにK一色で再現させるように各色の信号を設定する。これは細線をCMYの重ねで再現させるとプリントした際の色ずれにより文字再現が著しく劣化するのを抑止するためである。   The inking unit 23 determines that the comprehensive determination result 2 (see FIG. 8B) is “black character on background” in the processing of the image area identification unit 20, that is, the region is “black thin line with white background”. ”,“ Because the background is a white black dark middle line or thick line ”, the signals of each color are set so that CMY is reproduced with one color of K without overlapping and reproducing. This is to prevent the character reproduction from deteriorating significantly due to color misregistration at the time of printing when the thin line is reproduced by overlapping CMY.

また、像域識別部20の処理において総合判定結果2(図8(B)参照)が「背景上黒文字」と判定された場合には、墨入れ部23は、CMYKを重ねた再現となるように各色信号を設定するとともに、生成する墨量(K信号)が多くなるように設定する。このようにすることで、例えば、薄めの文字などで、「細線」の切り替わり部分、および「中間幅線」の切り替わり部分で極端な再現差が出ないようにすることが可能となる。   Further, when the comprehensive determination result 2 (see FIG. 8B) is determined to be “black character on background” in the processing of the image area identification unit 20, the inking unit 23 reproduces the CMYK superimposed. In addition to setting each color signal, the black amount (K signal) to be generated is set to be large. In this way, for example, it is possible to prevent an extreme reproduction difference from appearing at the switching portion of the “thin line” and the switching portion of the “intermediate width line” with a thin character or the like.

なお「下地上黒文字」、「背景上黒文字」以外の場合には、墨入れ部23は、一般的な墨入れ処理(例えばUCRやGCR)によってCMYの信号比率により墨量(K信号)を設定し、墨量に応じてCMYの信号が減らされるように設定する。   In addition to “black characters on the background” and “black characters on the background”, the inking unit 23 sets the black amount (K signal) based on the CMY signal ratio by a general inking process (for example, UCR or GCR). The CMY signal is set to be reduced according to the black amount.

本実施形態の各ユニットが使用する各閾値やマトリクスのサイズは、例えば「写真モード」、「文字モード」等のモードごとにメモリ802に定義されていてもよく、ユーザーがコントロールパネル810を介して指定したモードに応じて、閾値やマトリクスのサイズが切り替わる実装も可能である。   Each threshold value and matrix size used by each unit of the present embodiment may be defined in the memory 802 for each mode such as “photo mode” and “character mode”, for example. Implementation in which the threshold value and the size of the matrix are switched according to the designated mode is also possible.

上述の各実施の形態にてプログラムをCPUやMPUに実行させることにより実現される各種処理は、その少なくとも一部を、ASIC(Application Specific Integrated Circuit)にて回路的に実行させることも可能であることは言うまでもない。   Various processes realized by causing a CPU or MPU to execute a program in each of the above-described embodiments can also be executed in a circuit form by an ASIC (Application Specific Integrated Circuit). Needless to say.

上述では、画像処理装置100のコピー機能を一例として説明したが、スキャン機能やFAX送受信機能等、画像処理装置100が有する各機能に対して本実施の形態は適用可能である。   In the above description, the copy function of the image processing apparatus 100 has been described as an example. However, the present embodiment is applicable to each function of the image processing apparatus 100 such as a scan function and a FAX transmission / reception function.

以上に詳説したように、線のエッジをより詳細に分類することができ、入力される画像データに対して、より適した画像処理を実現することができる。   As described in detail above, line edges can be classified in more detail, and more suitable image processing can be realized for input image data.

本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。さらに、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、すべて本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is indicated by the scope of claims, and is not restricted by the text of the specification. Further, all modifications, various improvements, alternatives and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.

1 モノクロ化処理部、2 フィルタ処理部、3 エッジ内外判定部、4 エッジ領域検出部、5 黒エッジ検出部、6 濃度判定処理部、7 エッジ内部画素判定部、8 収縮処理部、9 内部画素幅判定部、31 内部膨張処理部、32 エッジ分類処理部、33 エッジ内部判定部、34 エッジ判定部、10 細線判定部、11 エッジ検出部、12 網点判定部、13 下地判定部、14 無彩色検出部、15 文字判定部、16 総合判定部、20 像域識別部、21 色変換部、22 フィルタ部、23 墨入れ部、24 階調処理部、100 画像処理装置、800 画像処理部、810 コントロールパネル、R 画像読取部、P 画像形成部。   DESCRIPTION OF SYMBOLS 1 Monochrome processing part, 2 Filter processing part, 3 Edge inside / outside determination part, 4 Edge area | region detection part, 5 Black edge detection part, 6 Density determination processing part, 7 Edge internal pixel determination part, 8 Shrinkage processing part, 9 Internal pixel Width determination unit, 31 Internal expansion processing unit, 32 Edge classification processing unit, 33 Edge internal determination unit, 34 Edge determination unit, 10 Fine line determination unit, 11 Edge detection unit, 12 Halftone determination unit, 13 Background determination unit, 14 None Color detection section, 15 character determination section, 16 comprehensive determination section, 20 image area identification section, 21 color conversion section, 22 filter section, 23 inking section, 24 gradation processing section, 100 image processing apparatus, 800 image processing section, 810 Control panel, R image reading unit, P image forming unit.

Claims (12)

原稿をスキャンして前記原稿を電子データの画像データに変換する画像読取部と、
前記画像読取部によって変換された画像データを単色のデータに変換するモノクロ化処理部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか、非エッジであるかを判定するエッジ判定部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素が前記画像データに描かれている線のエッジの内部か否かを判定するエッジ内部判定部と、
前記モノクロ化処理部によってモノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定する濃度判定処理部と、
前記エッジ判定部の判定結果と前記エッジ内部判定部の判定結果とに基づき、画素が線のエッジ内部である場合、該線の幅の種別を判定する内部画素幅判定部と、
前記内部画素幅判定部の判定結果と前記濃度判定部の判定結果とに基づき、前記エッジ判定部による判定結果でエッジと判定された画素を、さらに線種に応じて分類するエッジ分類処理部と、
を有する画像処理装置。
An image reading unit that scans a document and converts the document into image data of electronic data;
A monochrome processing unit that converts the image data converted by the image reading unit into monochrome data;
An edge determination unit that determines whether a pixel of the image data monochromeized by the monochrome processing unit is an edge of a line drawn in the image data or a non-edge;
An edge inside determination unit that determines whether or not the pixel of the image data monochromeized by the monochrome processing unit is inside the edge of a line drawn in the image data;
A density determination processing unit that determines whether or not the density value of the pixel of the image data monochromeized by the monochrome processing unit is dark by comparing with a threshold value;
Based on the determination result of the edge determination unit and the determination result of the edge internal determination unit, when the pixel is inside the edge of the line, an internal pixel width determination unit that determines the type of the width of the line;
An edge classification processing unit for further classifying pixels determined to be edges according to the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit according to the line type; ,
An image processing apparatus.
請求項1に記載の画像処理装置において、
前記エッジ判定部は、注目画素を中心としたマトリクスを用いてエッジであるか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the edge determination unit determines whether or not an edge is detected using a matrix centered on a target pixel.
請求項2に記載の画像処理装置において、
前記マトリクスのサイズは、検出対象の線がマトリクス内に収まるサイズのマトリクスであることを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus according to claim 1, wherein the size of the matrix is a matrix having a size that allows detection-target lines to be contained within the matrix.
請求項3に記載の画像処理装置において、
前記エッジ判定部は、注目画素の値と該注目画素を中心とした前記マトリクス内の最小値との差が閾値に満たない画素を第1の非エッジとし、
前記マトリクス内の最大値と最小値の差が閾値に満たない画素を第2の非エッジとし、
注目画素を中心としたマトリクス内に第2の非エッジが所定数以上存在し、且つ前記注目画素が第1の非エッジである場合に、前記注目画素を非エッジとすることで、エッジであるか非エッジであるかを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The edge determination unit sets, as a first non-edge, a pixel in which a difference between a value of a target pixel and a minimum value in the matrix centered on the target pixel is less than a threshold value,
A pixel whose difference between the maximum value and the minimum value in the matrix is less than a threshold is defined as a second non-edge,
When a predetermined number or more of second non-edges exist in the matrix centered on the target pixel and the target pixel is the first non-edge, the target pixel is set to the non-edge, thereby forming an edge. An image processing apparatus for determining whether the image is a non-edge.
請求項1に記載の画像処理装置において、
前記エッジ内部判定部は、注目画素を中心とした、検出対象の線がマトリクス内に収まるサイズの第1マトリクス、および該第1マトリクスよりもサイズの大きい第2マトリクスを用いて、前記注目画素がエッジ内部であるか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The edge inside determination unit uses the first matrix having a size in which the detection target line is within the matrix and the second matrix having a size larger than the first matrix, with the pixel of interest as the center. An image processing apparatus that determines whether or not an edge is inside.
請求項1に記載の画像処理装置において、
前記モノクロ化処理部は、前記画像読取部によって変換された画像データのRGB各色のうちの最小値を代表色として単色化することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the monochrome processing unit converts the minimum value of RGB colors of the image data converted by the image reading unit into a single color as a representative color.
請求項1に記載の画像処理装置において、
前記内部画素幅判定部は、注目画素が前記エッジ内部判定部によってエッジ内部と判定された画素であり、且つ、前記注目画素から前記エッジ判定部によってエッジと判定された画素までの画素数に基づき算出される算出値が、閾値以上の場合は前記線の幅の種別を太線と判定し、前記閾値よりも小さい場合は前記線の幅の種別を中間幅線と判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The internal pixel width determination unit is a pixel in which the target pixel is determined to be inside the edge by the edge internal determination unit, and based on the number of pixels from the target pixel to a pixel determined to be an edge by the edge determination unit If the calculated value is greater than or equal to a threshold value, the line width type is determined to be a thick line, and if the calculated value is smaller than the threshold value, the line width type is determined to be an intermediate width line. Processing equipment.
請求項7に記載の画像処理装置において、
前記エッジ分類処理部は、前記内部画素幅判定部の判定結果と、前記濃度判定部の判定結果とに基づき、前記エッジ判定部による判定結果でエッジと判定された画素を、薄い中間幅線のエッジの画素と、薄い太線エッジの画素と、その他のエッジの画素とで分類することを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The edge classification processing unit converts pixels determined to be edges according to the determination result by the edge determination unit based on the determination result of the internal pixel width determination unit and the determination result of the density determination unit to a thin intermediate width line. An image processing apparatus that classifies an edge pixel, a thin thick-line edge pixel, and another edge pixel.
請求項1に記載の画像処理装置において、さらに、
前記画像読取部によって変換された前記画像データに描かれた像のエッジの検出結果および網点判定の結果に基づき、該画像データの任意の領域が文字領域であるか否かを判定する文字判定部と、
前記エッジ分類処理部によって線種に応じて分類された結果と、前記文字判定部による判定結果との組み合わせに応じたフィルタ処理を前記画像データに対して実行するフィルタ部と、
を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, further comprising:
Character determination for determining whether an arbitrary region of the image data is a character region based on the detection result of the edge of the image drawn in the image data converted by the image reading unit and the result of the halftone dot determination And
A filter unit that performs filtering processing on the image data according to a combination of a result classified according to a line type by the edge classification processing unit and a determination result by the character determination unit;
An image processing apparatus comprising:
請求項9に記載の画像処理装置において、さらに、
前記任意の領域が有彩色か無彩色かを判定する無彩色判定部と、
前記任意の領域が白下地か背景かを判定する下地判定部と、を有し、
前記エッジ分類処理部によって線種に応じて分類された結果と、前記文字判定部による判定結果と、前記無彩色判定部による判定結果と、前記下地判定部による判定結果との組み合わせに応じた墨入れ処理を前記画像データに実行する墨入れ部と、
を有することを特徴とする画像処理装置。
The image processing apparatus according to claim 9, further comprising:
An achromatic color determining unit for determining whether the arbitrary region is a chromatic color or an achromatic color;
A background determination unit that determines whether the arbitrary region is a white background or a background,
Ink according to the combination of the result classified by the edge classification processing unit according to the line type, the determination result by the character determination unit, the determination result by the achromatic color determination unit, and the determination result by the background determination unit An inking unit that performs an inking process on the image data;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記閾値および前記マトリクスのサイズは、ユーザーによって設定されるモードに応じて値が切り替わることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The threshold value and the size of the matrix are switched according to a mode set by a user.
画像処理装置が、
原稿をスキャンして前記原稿を電子データの画像データに変換し、
変換された画像データを単色のデータに変換し、
モノクロ化された画像データの画素が、前記画像データに描かれている線のエッジであるか、非エッジであるかを、検出対象の線幅に応じたサイズのマトリクスを用いて判定し、
モノクロ化された画像データの画素が前記画像データに描かれている線のエッジの内部か否かを判定し、
モノクロ化された画像データの画素の濃度値が、閾値と比較することで濃いか否かを判定し、
前記エッジであるか非エッジであるかの判定結果と、前記エッジの内部か否かの判定結果とに基づき、画素が線のエッジ内部である場合、該線の幅の種別を判定し、
前記画素幅の判定結果と前記濃度値が濃いかの判定結果とに基づき、前記エッジであるか非エッジであるかの判定結果でエッジと判定された画素の判定結果を、さらに線種に応じて分類する
画像処理方法。


The image processing device
Scan the document, convert the document to electronic image data,
Convert the converted image data to monochrome data,
It is determined whether the pixels of the monochrome image data are edges of lines drawn in the image data or non-edges using a matrix having a size according to the line width of the detection target,
Determining whether the pixel of the monochrome image data is inside the edge of the line drawn in the image data;
It is determined whether the density value of the pixel of the monochrome image data is dark by comparing with the threshold value,
Based on the determination result whether it is the edge or the non-edge and the determination result whether it is inside the edge, when the pixel is inside the edge of the line, the type of the width of the line is determined,
Based on the determination result of the pixel width and the determination result of whether the density value is dark, the determination result of the pixel determined to be an edge in the determination result of the edge or the non-edge is further in accordance with the line type. Image processing method.


JP2011026504A 2010-02-09 2011-02-09 Apparatus and method for processing image Withdrawn JP2011166776A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US30276210A 2010-02-09 2010-02-09
US61/302,762 2010-02-09

Publications (1)

Publication Number Publication Date
JP2011166776A true JP2011166776A (en) 2011-08-25

Family

ID=44596836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011026504A Withdrawn JP2011166776A (en) 2010-02-09 2011-02-09 Apparatus and method for processing image

Country Status (1)

Country Link
JP (1) JP2011166776A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007657A (en) * 2012-06-26 2014-01-16 Oki Data Corp Image processing apparatus
CN103581499A (en) * 2012-08-06 2014-02-12 柯尼卡美能达株式会社 Image processing apparatus and image processing method
KR102231869B1 (en) * 2020-01-21 2021-03-30 윤상훈 Web based personal information protection service system and the method there of

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007657A (en) * 2012-06-26 2014-01-16 Oki Data Corp Image processing apparatus
CN103581499A (en) * 2012-08-06 2014-02-12 柯尼卡美能达株式会社 Image processing apparatus and image processing method
JP2014033418A (en) * 2012-08-06 2014-02-20 Konica Minolta Inc Image processing apparatus and image processing method
KR102231869B1 (en) * 2020-01-21 2021-03-30 윤상훈 Web based personal information protection service system and the method there of

Similar Documents

Publication Publication Date Title
JP4495201B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4531606B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2002218235A (en) Image processor and image formation device
JP2009038529A (en) Image processing method, image processing device, image forming apparatus, image reading device, computer program, and record medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
US8824018B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, and recording medium
JP2002271616A (en) Image processing unit and imaging device
JP4808281B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP2011166776A (en) Apparatus and method for processing image
JP4485430B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
CN107920184B (en) Image processing apparatus and image processing method
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP3997507B2 (en) Image processing apparatus, image processing method, and image forming apparatus
JP2007067908A (en) Image processor, image forming apparatus, image processing method, and image processing program
US10657428B2 (en) Image processing unit, image forming apparatus, image processing method, and storage medium
US20120050822A1 (en) Image scanning device, image formation device and image scanning method
JP2006270148A (en) Image processing method, image processor and image forming apparatus
JP2011166774A (en) Apparatus and method for processing image
JP2011166775A (en) Apparatus and method for processing image
JP2022178106A (en) Image processing device, image processing method, and image processing program
JP4498316B2 (en) Image processing apparatus, image processing method, image forming apparatus, and computer program
JP2009055121A (en) Image processing device, image processing method, image forming apparatus and program, recording medium
JP6414710B2 (en) Image processing device
JP6306956B2 (en) Image processing apparatus and image forming apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513