JP2023037968A - Image processing apparatus, control method of the same, and program - Google Patents

Image processing apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2023037968A
JP2023037968A JP2021144818A JP2021144818A JP2023037968A JP 2023037968 A JP2023037968 A JP 2023037968A JP 2021144818 A JP2021144818 A JP 2021144818A JP 2021144818 A JP2021144818 A JP 2021144818A JP 2023037968 A JP2023037968 A JP 2023037968A
Authority
JP
Japan
Prior art keywords
image
signal
pixels
computing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021144818A
Other languages
Japanese (ja)
Inventor
幸親 市橋
Yukichika Ichihashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021144818A priority Critical patent/JP2023037968A/en
Publication of JP2023037968A publication Critical patent/JP2023037968A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

To provide an image processing apparatus capable of reducing a calculation load for performing image processing of separating an image signal into a character region and a non-character region.SOLUTION: In an MFP 100, a CPU 201 executes a predetermined program, thereby extracting a rectangular image made of a target pixel and pixels therearound from a document image scanned by a scanner 120, obtains a standard deviation of a signal value of the extracted rectangular image, and generates image region information indicating whether the target pixel is a character or not, for example, on the basis of the standard deviation.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置及びその制御方法とプログラムに関する。 The present invention relates to an image processing apparatus and its control method and program.

文字や網点画像が混在する原稿をデジタルカラー複合機(MFP)でコピーをする場合、より高品位な印刷物を得るために、スキャナ部から入力される画像信号に対して様々な処理が施されることがある。例えば、文字部分をシャープに出力するために、画像信号に対して輪郭を強調するフィルタ処理が行われる。一方、網点画像部に輪郭を強調するフィルタ処理を施すと、処理後の画像にモアレが発生してしまう。そこで、多くのMFPでは、全ての画像信号を文字領域と網点領域を含む非文字領域とに画素単位で分離し、分離した各領域に適したフィルタ処理を行うようにしている。 When copying a document containing mixed characters and halftone images with a digital color multifunction printer (MFP), various processing is applied to the image signal input from the scanner unit in order to obtain a higher quality print. There is something. For example, in order to output a character portion sharply, filter processing for emphasizing the contour is performed on the image signal. On the other hand, if a halftone dot image portion is subjected to a filtering process for emphasizing the contour, moiré will occur in the processed image. Therefore, in many MFPs, all image signals are separated pixel by pixel into character areas and non-character areas including halftone dot areas, and appropriate filter processing is performed for each separated area.

画像信号を文字領域と非文字領域に画素単位で分離する手法の一例が特許文献1に開示されている。特許文献1では、先ず、原稿画像を2値化した後、全ての画素をエッジ判定により文字画素と非文字画素に分ける。そして、パターンマッチング処理を用いて、文字画素に対して印刷物に利用される網点スクリーンとの類似性を検出する。その結果、類似性が高い文字画素は、網点を構成する画素である可能性が高いため、文字画素から非文字画素へ分類を変更する。 An example of a method of separating an image signal into a character area and a non-character area on a pixel-by-pixel basis is disclosed in Japanese Unexamined Patent Application Publication No. 2002-200512. In Patent Document 1, first, an original image is binarized, and then all pixels are divided into character pixels and non-character pixels by edge determination. A pattern matching process is then used to detect the similarity of the character pixels to the halftone screen used in the printed matter. As a result, since there is a high possibility that text pixels with high similarity are pixels forming halftone dots, the classification is changed from text pixels to non-text pixels.

特開2006-5657号公報JP-A-2006-5657

上記特許文献1に開示された技術のようにパターンマッチング処理を用いる場合、様々なパターンを同時に判定する必要があるため、高品位なコピー機能が必要なMFPの場合には専用ASICが用いられている。しかし、専用ASICには、機能拡張性がなく、コストが嵩むという問題がある。 When pattern matching processing is used as in the technique disclosed in Patent Document 1, it is necessary to determine various patterns at the same time. there is However, the dedicated ASIC has the problem of lack of functional expandability and high cost.

この問題に対して、専用ASICを用いずに、画像形成装置において各種の制御を行うCPUやGPUに画像信号を文字領域と非文字領域と分離する処理を実行させる構成が考えられる。しかし、CPUやGPUはMFPのハードウェアの制御やレンダリング処理等を実行する必要がある。そのため、これらの制御や処理を実行しながら、画像信号を文字領域と非文字領域に画素単位で分離して高品位な印刷物を得ようとすると、印刷物の出力速度が著しく低下してしまう。そこで、画像信号を文字領域と非文字領域と分離する画像処理でのCPUやGPUでの演算負荷を軽減させる技術が求められている。 As a solution to this problem, a configuration is conceivable in which a CPU or GPU, which performs various controls in the image forming apparatus, executes processing for separating an image signal into character areas and non-character areas without using a dedicated ASIC. However, the CPU and GPU need to control the hardware of the MFP and perform rendering processing and the like. Therefore, if an image signal is separated into a character area and a non-character area by pixels while executing these controls and processes to obtain a high-quality printed matter, the output speed of the printed matter drops significantly. Therefore, there is a demand for a technique for reducing the computational load on the CPU and GPU in image processing for separating an image signal into character areas and non-character areas.

本発明は、CPUやGPUが画像信号を文字領域と非文字領域と分離する画像処理を行う際の演算負荷を軽減させることが可能な画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of reducing the computation load when a CPU or GPU performs image processing for separating an image signal into character areas and non-character areas.

本発明に係る画像処理装置は、原稿読取装置により読み取られた原稿画像を処理する画像処理装置であって、前記原稿画像から選択した画素および該選択された画素の周囲の画素とからなる矩形画像の統計値を演算する第1の演算手段と、前記選択された画素が示す像域情報を前記統計値に基づいて生成する生成手段と、を備えることを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus for processing a document image read by a document reading apparatus, and is a rectangular image formed of pixels selected from the document image and pixels surrounding the selected pixels. and generating means for generating image area information indicated by the selected pixel based on the statistical value.

本発明によれば、CPUやGPUが画像信号を文字領域と非文字領域と分離する画像処理での演算負荷を軽減させることができる。 According to the present invention, it is possible to reduce the calculation load in image processing in which a CPU or GPU separates an image signal into character areas and non-character areas.

実施形態に係るMFP(複合機)の概略構成を示す図である。1 is a diagram showing a schematic configuration of an MFP (multifunction peripheral) according to an embodiment; FIG. MFPが実装しているコントローラのブロック図である。3 is a block diagram of a controller mounted on the MFP; FIG. コントローラのHDD等に格納されたプログラムを例示した図である。It is the figure which illustrated the program stored in HDD etc. of a controller. MFPで実行されるコピー処理のフローチャートである。4 is a flowchart of copy processing executed by the MFP; 第1実施形態での像域情報生成処理のフローチャートである。5 is a flowchart of image area information generation processing in the first embodiment; 細線の判定手法を説明する模式図である。It is a schematic diagram explaining the determination method of a fine line. S504で用いるフィルタの構成と周波数特性の一例を示す図である。FIG. 10 is a diagram showing an example of the configuration and frequency characteristics of a filter used in S504; 注目画素を中心とする矩形画像内の各画素のスムージング処理の前後での信号を模式的に示す図である。FIG. 4 is a diagram schematically showing signals before and after smoothing processing of each pixel in a rectangular image centered on a pixel of interest; 第1実施形態でのディスクリーン処理のフローチャートである。4 is a flowchart of descreen processing in the first embodiment; S902で用いるフィルタの構成と周波数特性の一例を示す図である。FIG. 10 is a diagram showing an example of the configuration and frequency characteristics of a filter used in S902; 第1実施形態でのエッジ強調処理のフローチャートである。6 is a flowchart of edge enhancement processing in the first embodiment; S1103で用いるフィルタの構成と周波数特性の一例を示す図である。FIG. 10 is a diagram showing an example of the configuration and frequency characteristics of a filter used in S1103; 第1実施形態での印刷データ合成処理のフローチャートである。6 is a flowchart of print data synthesis processing in the first embodiment; 第2実施形態での像域情報生成処理のフローチャートである。10 is a flowchart of image area information generation processing in the second embodiment; 第2実施形態でのディスクリーン処理のフローチャートである。9 is a flowchart of descreen processing in the second embodiment; 第2実施形態でのエッジ強調処理のフローチャートである。9 is a flowchart of edge enhancement processing in the second embodiment; 第2実施形態での印刷データ合成処理のフローチャートである。9 is a flowchart of print data synthesizing processing in the second embodiment;

以下、本発明の実施形態について、図面を参照して詳細に説明する。ここでは、本発明に係る画像処理装置をMFP(複合機)として具現化した構成について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a configuration in which the image processing apparatus according to the present invention is embodied as an MFP (complex machine) will be described.

<第1実施形態>
図1は、実施形態に係るMFP100(複合機)の概略構成を示す図である。MFP100は、原稿台110、スキャナ120、プリンタ130及び操作部122を備えており、コピー機能、スキャン機能及びカラー印刷機能(カラー画像形成機能)を実行することができる。なお、MFP100の機械的な構成は、周知の構成で構わないため、詳細な説明を省略する。
<First embodiment>
FIG. 1 is a diagram showing a schematic configuration of an MFP 100 (complex machine) according to the embodiment. The MFP 100 includes a document platen 110, a scanner 120, a printer 130, and an operation unit 122, and can execute a copy function, a scan function, and a color printing function (color image forming function). Note that the mechanical configuration of the MFP 100 may be a well-known configuration, and detailed description thereof will be omitted.

MFP100は、コントローラ140を実装している。図2は、コントローラ140のブロック図である。コントローラ140は、内部バス210により双方向に通信可能に搭載されたCPU201、ROM202、RAM203、HDD204及びGPU205を有する。CPU201は、ROM202やHDD204に格納されている所定のプログラムをRAM203に展開することにより、MFP100の各部の動作を統括的に制御して、所定の処理を実行する。 MFP 100 implements controller 140 . FIG. 2 is a block diagram of the controller 140. As shown in FIG. The controller 140 has a CPU 201 , a ROM 202 , a RAM 203 , an HDD 204 and a GPU 205 mounted so as to be able to communicate bidirectionally via an internal bus 210 . The CPU 201 loads predetermined programs stored in the ROM 202 and the HDD 204 into the RAM 203, thereby controlling the operation of each unit of the MFP 100 and executing predetermined processing.

コントローラ140は、内部バス210及び不図示の回路パターンやケーブルを介して、プリンタ130、スキャナ120、ネットワークI/F207及び操作部122と接続されている。このような構成により、スキャナ120で原稿画像を読み取り、読み取った画像をCPU201が所定のプログラムを実行して所定の画像処理を行い、プリンタ130で用紙等の記録材に印刷することで、コピー機能を実現することができる。その際、CPU201に代えてGPU205が画像処理を行うことにより、画像処理の高速化を実現することができる。以下の説明においてCPU201が画像処理を実行する旨の表現は、GPU205が画像処理を実行することを含むものとする。なお、プリンタ130での印刷方式は限定されず、例えば、電子写真方式やインクジェット方式等の公知の方式を用いることができるが、図1には電子写真方式のプリンタ130が簡易的に示されている。 The controller 140 is connected to the printer 130, the scanner 120, the network I/F 207, and the operation unit 122 via the internal bus 210 and circuit patterns and cables (not shown). With such a configuration, the scanner 120 reads an original image, the CPU 201 executes a predetermined program on the read image, performs predetermined image processing, and the printer 130 prints it on a recording material such as paper, thereby providing a copy function. can be realized. At that time, by having the GPU 205 perform the image processing instead of the CPU 201, the image processing can be speeded up. In the following description, the expression that the CPU 201 executes image processing includes that the GPU 205 executes image processing. The printing method of the printer 130 is not limited, and for example, a known method such as an electrophotographic method or an inkjet method can be used. there is

図3は、ROM202やHDD204に格納されたプログラムを例示した図である。図3に示される各種のプログラムは、CPU201やGPU205によって実行される。図3中に示される各種プログラムについては、次に、図4のフローチャートについての説明と合わせて、適宜、説明する。 FIG. 3 is a diagram exemplifying programs stored in the ROM 202 and the HDD 204. As shown in FIG. Various programs shown in FIG. 3 are executed by the CPU 201 and the GPU 205 . Various programs shown in FIG. 3 will be described as appropriate next together with the description of the flowchart of FIG.

図4は、MFP100で実行されるコピー処理のフローチャートである。図4にS番号で示す各処理(ステップ)は、CPU201がROM202及び/又はHDD204に格納された所定のプログラムをRAM203に展開してMFP100の各部の動作を制御することにより実現される。 FIG. 4 is a flowchart of copy processing executed by MFP 100 . Each process (step) denoted by S number in FIG. 4 is realized by the CPU 201 loading a predetermined program stored in the ROM 202 and/or the HDD 204 into the RAM 203 and controlling the operation of each part of the MFP 100 .

CPU201は、操作部受付プログラム309(図3参照)を実行して待機している。例えば、操作部122のコピーボタン(不図示)が押下されると、CPU201は、操作部122からコピー処理の実行コマンドを受け付けて、コピー処理プログラム310(図3参照)を実行する。 The CPU 201 waits while executing the operation unit acceptance program 309 (see FIG. 3). For example, when a copy button (not shown) of the operation unit 122 is pressed, the CPU 201 receives a copy processing execution command from the operation unit 122 and executes the copy processing program 310 (see FIG. 3).

S401でCPU201は、原稿読取プログラム302(図3参照)を実行する。これにより、スキャナ120は原稿台110に搭載された原稿112を読み取り、RGBカラーの画像データが生成され、生成された画像データがRAM203に一時的に保存される。 In S401, the CPU 201 executes the document reading program 302 (see FIG. 3). As a result, the scanner 120 reads the document 112 placed on the document platen 110 , generates RGB color image data, and temporarily stores the generated image data in the RAM 203 .

なお、スキャナ120では、原稿112は、順次、上端部から下端部へ向けて読み取られる。また、スキャナ120で読み取る原稿の枚数は限定されないが、図4のフローチャートには、説明の便宜上、1枚の原稿112についての処理が示されている。S401で複数の原稿112が読み取られた場合には、原稿ごとに後述するS402~S408の処理が行われる。 Note that the scanner 120 sequentially reads the document 112 from the upper end to the lower end. Although the number of originals to be read by the scanner 120 is not limited, the flowchart in FIG. 4 shows the processing for one original 112 for convenience of explanation. When a plurality of documents 112 are read in S401, the processing of S402 to S408, which will be described later, is performed for each document.

S402でCPU201は、S401でRAM203に保存された画像データから注目画素を選択(抽出)する。なお、CPU201は、以降の各画素に対する処理を非同期で同時に進めることができる。例えば、第1画素(x,y)=(0,0)を処理しながら、第2画素(x,y)=(0,1)の処理を開始することができる。但し、処理の途中で注目画素の周囲の画素の演算結果が必要となる場合には、周囲の画素の演算が終わるまで、注目画素の処理は中断される。 In S402, the CPU 201 selects (extracts) a pixel of interest from the image data stored in the RAM 203 in S401. It should be noted that the CPU 201 can asynchronously proceed with the subsequent processing for each pixel at the same time. For example, while processing the first pixel (x,y)=(0,0), processing of the second pixel (x,y)=(0,1) can begin. However, if the calculation results of the pixels surrounding the pixel of interest are required during the processing, the processing of the pixel of interest is suspended until the calculation of the surrounding pixels is completed.

S403でCPU201は、像域情報生成処理プログラム303(図3参照)を実行して、S402で選択した注目画素の像域情報を生成し、生成した像域情報をRAM203に一時的に保存する。S403の処理の詳細については後述する。なお、第1実施形態では、主に、等倍のコピー処理の実施を想定しており、そのため、1画素ごとに全ての処理を実施する必要がある。 In S<b>403 , the CPU 201 executes the image area information generation processing program 303 (see FIG. 3 ) to generate image area information of the pixel of interest selected in S<b>402 and temporarily stores the generated image area information in the RAM 203 . Details of the processing of S403 will be described later. Note that, in the first embodiment, it is mainly assumed that the copy processing of the same size is performed, and therefore, it is necessary to perform all the processing for each pixel.

S404でCPU201は、ディスクリーン処理プログラム304(図3参照)を実行して、S402で選択した注目画素に対してS403で生成した像域情報を用いてディスクリーン処理を実行する。S404の処理の詳細については後述する。S405でCPU201は、エッジ強調処理プログラム305を(図3参照)実行して、S404で生成した画像とS403で生成した像域情報を用いてエッジ強調処理を実行し、得られた画像データをRAM203に保存する。S405の処理の詳細については後述する。 In S404, the CPU 201 executes the descreen processing program 304 (see FIG. 3) to perform descreen processing on the pixel of interest selected in S402 using the image area information generated in S403. Details of the processing of S404 will be described later. In S405, the CPU 201 executes the edge enhancement processing program 305 (see FIG. 3), executes edge enhancement processing using the image generated in S404 and the image area information generated in S403, and stores the obtained image data in the RAM 203. Save to Details of the processing of S405 will be described later.

S406でCPU201は、印刷データ合成処理プログラム308(図3参照)を実行して、これまでの処理で生成された画像データと像域情報を用いて印刷データの合成処理を実行する。S406の処理の詳細については後述する。S407でCPU201は、1ページ分の全ての画素について、S402~S406の処理が終了したかを判定する。CPU201は、1ページ分の処理が終了していないと判定した場合(S407でNo)、処理をS402へ戻し、1ページ分の処理が終了したと判定した場合(S407でYes)、処理をS408へ進める。S408でCPU201は、印刷処理プログラム311(図3参照)を実行し、S407で生成された印刷データをプリンタ130に転送し、プリンタ130が用紙に印刷処理を行うことで本処理は終了する。 In step S406, the CPU 201 executes the print data composition processing program 308 (see FIG. 3), and executes print data composition processing using the image data and image area information generated in the previous processing. Details of the processing of S406 will be described later. In S407, the CPU 201 determines whether the processing of S402 to S406 has been completed for all pixels of one page. When the CPU 201 determines that the processing for one page has not been completed (No in S407), the process returns to S402, and when it determines that the processing for one page has been completed (Yes in S407), the process proceeds to S408. proceed to In S408, the CPU 201 executes the print processing program 311 (see FIG. 3), transfers the print data generated in S407 to the printer 130, and the printer 130 performs print processing on paper, thereby ending this processing.

次に、S403での像域情報生成処理について説明する。図5は、第1実施形態でのS403での像域情報生成処理のフローチャートである。S501でCPU201は、S402で決定した注目画素とその周囲の画素を参照画素として含んだ矩形領域を選択し、RAM203からRGBカラー矩形画像を取得する。CPU201は、例えば、注目画素を中心とした、縦5画素×横5画素の矩形領域を選択する。 Next, image area information generation processing in S403 will be described. FIG. 5 is a flowchart of image area information generation processing in S403 in the first embodiment. In S<b>501 , the CPU 201 selects a rectangular area including the target pixel determined in S<b>402 and surrounding pixels as reference pixels, and acquires an RGB color rectangular image from the RAM 203 . The CPU 201 selects, for example, a rectangular area of 5 vertical pixels×5 horizontal pixels centered on the pixel of interest.

S502でCPU201は、S501で取得したRGBカラー矩形画像をグレースケールでの矩形画像に変換する。グレースケールへの変換方法については、例えば、各画素のRGBの24ビット信号のうち、G(グリーン)チャンネルの8ビットの信号を取り出すだけでもよい。S503でCPU201は、注目画素がグレースケールの矩形画像の中で細線を構成している画素か否かを判定する。S503の処理を行うのは、細線を構成する画素にS504でスムージング処理を行うと、S505での標準偏差演算で網点部と細線部の区別が困難になることがあるため、細線を構成する画素に対してスムージング処理を行わないようにするためである。 In S502, the CPU 201 converts the RGB color rectangular image acquired in S501 into a grayscale rectangular image. As for the method of conversion to gray scale, for example, it is sufficient to extract only the 8-bit signal of the G (green) channel from the RGB 24-bit signal of each pixel. In step S<b>503 , the CPU 201 determines whether the target pixel is a pixel forming a thin line in the grayscale rectangular image. The reason why the process of S503 is performed is that if the smoothing process of S504 is performed on the pixels constituting the thin line, it may become difficult to distinguish between the halftone dot portion and the thin line portion in the standard deviation calculation of S505. This is to avoid smoothing the pixels.

ここで、細線の判定手法の例について説明する。図6は、細線の判定手法を説明する模式図である。図6(a)は、注目画素を中心とした縦5画素×横5画素の矩形画像を示している。図6(a)に示す矢印α,β,γ,δの方向で濃度の連続性を検出する。連続性の検出は、例えば、単純に各画素を2値化(0(白),255(黒))して、各方向で全て黒画素であるか否かを判定することによって行うことができる。なお、矢印α,β,γ,δの方向の中で複数の方向、例えば、矢印α,βの両方向で全て黒画素の場合には、注目画素は細線を構成する画素ではないと判定される。 Here, an example of a thin line determination method will be described. FIG. 6 is a schematic diagram for explaining a fine line determination method. FIG. 6A shows a rectangular image of 5 vertical pixels×5 horizontal pixels centered on the pixel of interest. Continuity of density is detected in the directions of arrows α, β, γ, and δ shown in FIG. 6(a). Continuity detection can be performed, for example, by simply binarizing each pixel (0 (white), 255 (black)) and determining whether or not it is all black pixels in each direction. . If all the pixels are black in a plurality of directions of the arrows α, β, γ, and δ, for example, in both directions of the arrows α and β, it is determined that the pixel of interest is not a pixel forming a fine line. .

図6(b),(c)は、矩形画像の一例を示す図である。図6(b)の矩形画像では、注目画素が黒であり、矢印βの方向に連続して黒画素が並んでいるため、注目画素は細線の一部であると判定される。一方、図6(c)の矩形画像では、矢印α,βの方向に連続して黒画素が並んでいるため、細線の一部とは判定せずに、文字や網点の一部であると判定される。 6B and 6C are diagrams showing examples of rectangular images. In the rectangular image of FIG. 6B, the pixel of interest is black, and the black pixels are continuously arranged in the direction of the arrow β, so the pixel of interest is determined to be part of a fine line. On the other hand, in the rectangular image shown in FIG. 6C, black pixels are continuously arranged in the directions of the arrows α and β. is determined.

CPU201は、注目画素が細線を構成していないと判定した場合(S503でNo)、処理をS504へ進め、注目画素が細線を構成していると判定した場合(S503でYes)、処理をS505へ進める。 If the CPU 201 determines that the pixel of interest does not form a thin line (No in S503), it advances the process to S504. proceed to

S504でCPU201は、注目画素が細線を構成しないと判定された矩形画像に対してローパスフィルタを用いたスムージング処理を実施する。図7は、S504でのスムージング処理を説明する模式図である。図7(a)は、S504で用いるローパスフィルタの一例を示す図である。図7(b)は、図7(a)のローパスフィルタの周波数特性を示す図である。S504では、図7(a)のローパスフィルタにより図7(b)の周波数特性で高周波成分を減衰させる。但し、なお、S503の判定により、細線を構成する画素にはS504のスムージング処理を行わないことになる。CPU201は、S504の処理が終了すると、S505へ処理を進める。 In S504, the CPU 201 performs smoothing processing using a low-pass filter on the rectangular image in which it is determined that the pixel of interest does not form a fine line. FIG. 7 is a schematic diagram for explaining the smoothing process in S504. FIG. 7A is a diagram showing an example of a low-pass filter used in S504. FIG. 7(b) is a diagram showing the frequency characteristics of the low-pass filter of FIG. 7(a). In S504, the low-pass filter shown in FIG. 7A attenuates the high frequency component with the frequency characteristics shown in FIG. 7B. However, according to the determination in S503, the smoothing process in S504 is not performed on the pixels forming the thin line. After completing the process of S504, the CPU 201 advances the process to S505.

S505でCPU201は、矩形画像の統計値を算出し、算出した統計値を注目画素のその時点での統計値とする。統計値としては、例えば、標準偏差が有効であるため、第1実施形態では統計値として標準偏差を用いる。なお、標準偏差の最大値と最小値は事前に決定しておき、ROM202又はHDD204に保存しておく。縦5画素×横5画素の矩形画像の標準偏差は、下記式1により算出される。そして、下記式2により、信号値(画素値)0~255の信号に正規化する。 In S505, the CPU 201 calculates the statistic value of the rectangular image, and sets the calculated statistic value as the statistic value of the pixel of interest at that time. As the statistical value, for example, the standard deviation is effective, so the standard deviation is used as the statistical value in the first embodiment. Note that the maximum and minimum values of standard deviation are determined in advance and stored in the ROM 202 or HDD 204 . The standard deviation of a rectangular image of 5 pixels long by 5 pixels wide is calculated by the following equation 1. Then, the signal is normalized to a signal having a signal value (pixel value) of 0 to 255 according to Equation 2 below.

なお、下記式1,2において、gray(i,j)は矩形画像内の各画素の信号値であり、オーバーラインを付したgrayは矩形画像内の画素信号値の平均値である。また、maxは事前に決定された標準偏差の最大値であり、minは事前に決定された標準偏差の最小値、flagは正規化された標準偏差である。 In Equations 1 and 2 below, gray(i, j) is the signal value of each pixel in the rectangular image, and the overlined gray is the average value of the pixel signal values in the rectangular image. Also, max is the maximum pre-determined standard deviation, min is the minimum pre-determined standard deviation, and flag is the normalized standard deviation.

事前に決定する標準偏差の最大値(max)は、スキャナ120で文字を構成する画素を読み込んだ際の標準偏差の最大値を利用して決定しておくことが望ましい。また、事前に決定する標準偏差の最小値(min)は、スキャナ120で原稿の背景部(用紙の色(一般的には白色))を読み込んだときの最小値を利用して決定しておくことが望ましい。 The maximum value (max) of the standard deviation determined in advance is desirably determined using the maximum value of the standard deviation when the pixels forming the characters are read by the scanner 120 . In addition, the minimum value (min) of the standard deviation determined in advance is determined using the minimum value when the scanner 120 reads the background portion of the document (paper color (generally white)). is desirable.

Figure 2023037968000002
Figure 2023037968000002

ここで、S503~S505の処理について、図8を参照して説明する。図8(a)は、注目画素が原稿の網点部分である場合の矩形画像内の信号の一例を簡易的に示す図である。図8(b)は、図8(a)の矩形画像に対してS504でスムージング処理を施した後の状態を簡易的に示す図である。図8(b)に示されるように、スムージング処理により中間調の構成が多くなり、よって、S505で算出する標準偏差では値が小さくなる傾向が現れる。その結果、非文字であると判別し易くなる。 Here, the processing of S503 to S505 will be described with reference to FIG. FIG. 8(a) is a diagram simply showing an example of a signal in a rectangular image when the pixel of interest is a halftone dot portion of an original. FIG. 8(b) is a diagram simply showing the state after the rectangular image in FIG. 8(a) is smoothed in S504. As shown in FIG. 8B, the smoothing process increases the number of halftones, and therefore the standard deviation calculated in S505 tends to decrease. As a result, it becomes easier to determine that it is a non-character.

図8(c)は、注目画素が原稿の文字や線のエッジ部である場合の矩形画像内の信号の一例を簡易的に示す図である。図8(d)は、図8(c)の矩形画像に対してS504でスムージング処理を施した後の状態を簡易的に示す図である。図8(d)に示されるように、スムージング処理により高濃度画素や低濃度画素の構成が多くなり、よって、S505で算出する標準偏差では値が大きくなる傾向が現れる。その結果、文字であると判別し易くなる。 FIG. 8(c) is a diagram simply showing an example of a signal in a rectangular image when the pixel of interest is an edge portion of characters or lines of a document. FIG. 8(d) is a diagram simply showing the state after the rectangular image in FIG. 8(c) is smoothed in S504. As shown in FIG. 8D, the smoothing process increases the number of high-density pixels and low-density pixels, so that the standard deviation calculated in S505 tends to increase. As a result, it becomes easy to distinguish that it is a character.

図8(e)は、注目画素が原稿の文字や線の交差部分である場合の矩形画像内の信号の一例を簡易的に示す図である。図8(f)は、図8(e)の矩形画像に対してS504のスムージング処理を施した後の状態を簡易的に示す図である。図8(f)に示されるように、スムージング処理により高濃度画素や低濃度画素の構成が多くなり、よって、S505で算出する標準偏差では値が大きくなる傾向が現れる。その結果、文字であると判別し易くなる。但し、S503において線を構成する画素である誤判定され、図8(e)の矩形画像の信号のままでS505の標準偏差が算出されることが起こり得る。その場合でも、高濃度画素や低濃度画素の構成が多いため、文字であると判定され易い。 FIG. 8(e) is a diagram simply showing an example of a signal in a rectangular image when the pixel of interest is an intersection of characters or lines of a document. FIG. 8(f) is a diagram simply showing the state after performing the smoothing processing of S504 on the rectangular image of FIG. 8(e). As shown in FIG. 8(f), the smoothing process increases the number of high-density pixels and low-density pixels, so the standard deviation calculated in S505 tends to increase. As a result, it becomes easy to distinguish that it is a character. However, in S503, pixels forming a line may be erroneously determined, and the standard deviation in S505 may be calculated with the signals of the rectangular image shown in FIG. 8E. Even in that case, since there are many high-density pixels and low-density pixels, it is likely to be determined to be a character.

図8(g)は、注目画素が原稿の細線であった場合の矩形画像内の信号の一例を簡易的に示す図である。図8(h)は、図8(g)の矩形画像に対してS504のスムージング処理を施した後の状態を示す図である。図8(h)に示されるように、スムージング処理により、中間調の画素が多くなり、よって、S505で算出する標準偏差では値が小さくなる傾向が現れる。その結果、非文字であると判別し易くなる。しかしながら、図8(g)の矩形画像については、S503において細線を構成する画素であると判定することができるため、スムージング処理S504を行わずに、図8(g)の矩形画像の信号のままで、S506にて標準偏差を算出するようにする。この場合でも、図8(g)は、高濃度画素と低濃度画素が混在するため、文字であると判別することは容易である。 FIG. 8(g) is a diagram simply showing an example of a signal in a rectangular image when the pixel of interest is a fine line of the document. FIG. 8(h) is a diagram showing a state after performing the smoothing processing of S504 on the rectangular image of FIG. 8(g). As shown in FIG. 8(h), the smoothing process increases the number of halftone pixels, so that the standard deviation calculated in S505 tends to decrease. As a result, it becomes easier to determine that it is a non-character. However, since it can be determined in S503 that the rectangular image in FIG. 8G is a pixel forming a fine line, the signal of the rectangular image in FIG. Then, in S506, the standard deviation is calculated. Even in this case, since high-density pixels and low-density pixels are mixed in FIG.

さて、S505の処理後のS506でCPU201は、太らせ処理を行う。太らせ処理とは、注目画素と注目画素に隣接する画素との9画素についてそれぞれS505で求められた標準偏差を演算した後、注目画素の標準偏差の値を9画素の中の最大の標準偏差の値に置換する処理である。図6(d)は、S505まで処理が終了した注目画素とその周囲の9画素を模式的に示す図である。注目画素の標準偏差の値を、これら9画素の各標準偏差の中の最大値に置換する。CPU201は、S506までの処理で得られた標準偏差を、注目画素の座標の像域情報としてRAM203に保存し、これにより本処理を終了させる。 Now, in S506 after the processing of S505, the CPU 201 performs fattening processing. The thickening process is performed by calculating the standard deviations obtained in S505 for each of the nine pixels of the pixel of interest and the pixels adjacent to the pixel of interest, and then calculating the standard deviation of the pixel of interest as the maximum standard deviation among the nine pixels. This is the process of replacing with the value of FIG. 6D is a diagram schematically showing the pixel of interest for which the processing up to S505 has been completed and the nine pixels surrounding it. The value of the standard deviation of the pixel of interest is replaced with the maximum value among the standard deviations of these nine pixels. The CPU 201 saves the standard deviation obtained by the processing up to S506 in the RAM 203 as image area information of the coordinates of the pixel of interest, and terminates this processing.

続いて、S404のディスクリーン処理について説明する。図9は、第1実施形態でのS404でのディスクリーン処理のフローチャートである。S901の処理は、S501(図5参照)の処理と同じであるため、説明を省略する。S902でCPU201は、S901で取得したRGBカラー矩形画像の各チャンネル(RGB)に対して、デジタルフィルタを用いてディスクリーン処理を行う。図10(a)は、S902で用いるデジタルフィルタの一例を示す図である。S902のディスクリーン処理とは、デジタルフィルタを用いた畳み込み演算である。 Next, the descreen process of S404 will be described. FIG. 9 is a flowchart of descreen processing in S404 in the first embodiment. Since the processing of S901 is the same as the processing of S501 (see FIG. 5), description thereof is omitted. In S902, the CPU 201 performs descreen processing using a digital filter on each channel (RGB) of the RGB color rectangular image acquired in S901. FIG. 10A is a diagram showing an example of a digital filter used in S902. The descreening process in S902 is a convolution operation using a digital filter.

図10(b)は、図10(a)のデジタルフィルタの周波数特性を示す図である。デジタルフィルタをRGBカラー矩形画像の各チャンネルに掛けることで、ディスクリーン処理が行われる。S901で取得したRGBカラー矩形画像が原稿の網点部を構成する画像データであった場合、ディスクリーン処理によって網点の高周波成分が除去される。 FIG. 10(b) is a diagram showing frequency characteristics of the digital filter of FIG. 10(a). Descreen processing is performed by applying a digital filter to each channel of the RGB color rectangular image. If the RGB color rectangular image acquired in S901 is image data forming the halftone dot portion of the document, the high frequency component of the halftone dot is removed by the descreening process.

S903でCPU201は、注目画素と同じ座標の像域情報をRAM203から取得する。S904でCPU201は、S901で取得した注目画素の信号値とS902でのディスクリーン処理後の注目画素の出力信号を、S903で読み込んだ像域情報を用いて下記式3,4,5により演算する。その結果として、像域情報が合成された後の注目画素の各色の出力信号(R(x,y),G(x,y),B(x,y))が得られる。CPU201は、得られた出力信号をRAM203に保存して本処理を終了させる。 In S<b>903 , the CPU 201 acquires image area information of the same coordinates as the target pixel from the RAM 203 . In S904, the CPU 201 calculates the signal value of the pixel of interest acquired in S901 and the output signal of the pixel of interest after the descreening process in S902 using the following equations 3, 4, and 5 using the image area information read in S903. . As a result, output signals (R(x, y), G(x, y), B(x, y)) of respective colors of the pixel of interest after combining the image area information are obtained. The CPU 201 saves the obtained output signal in the RAM 203 and terminates this process.

なお、下記式3~5において、なお、(x,y)は注目画素の座標である。また、R0,G0,B0はそれぞれ、S901で取得した注目画素の各色の信号値である。そして、R1,G1,B1はそれぞれ、S902でのディスクリーン処理実施後の注目画素の各色の信号値であり、flagは注目画素についてのS903で読み込んだ像域情報である。 Note that (x, y) are the coordinates of the pixel of interest in Equations 3 to 5 below. Also, R0, G0, and B0 are the signal values of the respective colors of the pixel of interest acquired in S901. R1, G1, and B1 are the signal values of the respective colors of the pixel of interest after the descreening process is performed in S902, and flag is the image area information of the pixel of interest read in S903.

Figure 2023037968000003
Figure 2023037968000003

次に、S405のエッジ強調処理について説明する。図11は、第1実施形態でのS405でのエッジ強調処理のフローチャートである。S1101でCPU201は、S402で決定した注目画素とその周囲の画素を参照画素として含んだ矩形領域を選択し、RAM203からS404でディスクリーン処理済みのRGBカラー矩形画像を取得する。CPU201は、例えば、注目画素を中心とした、縦5画素×横5画素の矩形領域を選択する。 Next, edge enhancement processing in S405 will be described. FIG. 11 is a flowchart of edge enhancement processing in S405 in the first embodiment. In S1101, the CPU 201 selects a rectangular area including the pixel of interest determined in S402 and its surrounding pixels as reference pixels, and acquires a descreen-processed RGB color rectangular image from the RAM 203 in S404. The CPU 201 selects, for example, a rectangular area of 5 vertical pixels×5 horizontal pixels centered on the pixel of interest.

S1102でCPU201は、S1101で取得したRGBカラー矩形画像をCIE-L等の明度と色差成分に分離することができる色空間に変換する。S1103でCPU201は、S1102で生成した明度(CIE-LのL)に対して、文字用のフィルタを適用して畳み込み演算を行い、得られた結果をL0とする。図12(a)は、S1103で用いる文字用フィルタの一例を示す図である。図12(b)は、図12(a)の文字用フィルタの周波数特性を示す図である。文字用フィルタはエッジ成分を強調する(中間の帯域のパワーを上げる)特性を有しており、L(明度)画像との畳み込み演算によって、くっきりした印象のL(明度)画像が生成される。 In S1102, the CPU 201 converts the RGB color rectangular image acquired in S1101 into a color space such as CIE-L * a * b * that can be separated into lightness and color difference components. In S1103, the CPU 201 applies a character filter to the lightness (L of CIE-L * a * b * ) generated in S1102, performs a convolution operation, and sets the obtained result as L0. FIG. 12A is a diagram showing an example of a character filter used in S1103. FIG. 12(b) is a diagram showing the frequency characteristics of the character filter of FIG. 12(a). The character filter has a characteristic of emphasizing edge components (increasing the power of the intermediate band), and by convolution operation with an L (lightness) image, an L (lightness) image with a sharp impression is generated.

S1104でCPU201は、S1102で生成した明度に対して写真用フィルタを適用して畳み込み演算を行い、得られた結果をL1とする。図12(c)は、S1104で用いる写真用フィルタの一例を示す図である。図12(d)は、図12(c)の写真用フィルタの周波数特性を示す図である。写真用フィルタはノイズ成分を強く除去する特性を有しており、ある帯域までの変化を抑えて高周波成分を減衰させることにより、滑らかな印象のL(明度)画像が生成される。 In S1104, the CPU 201 applies the photographic filter to the brightness generated in S1102, performs convolution operation, and sets the obtained result as L1. FIG. 12C is a diagram showing an example of a photographic filter used in S1104. FIG. 12(d) is a diagram showing the frequency characteristics of the photographic filter of FIG. 12(c). A photographic filter has a characteristic of strongly removing noise components, and by suppressing changes up to a certain band and attenuating high frequency components, an L (lightness) image with a smooth impression is generated.

S1105でCPU201は、注目画素(x,y)と同じ座標の像域情報(flag(x,y))をRAM203から取得する。S1106でCPU201は、S1103~S1105で取得した、文字用フィルタ処理後の明度(L0)と、写真用フィルタ処理後の明度(L1)と、像域情報(flag(x,y))とを用いて、下記式6により注目画素の明度信号Lを演算する。 In S<b>1105 , the CPU 201 acquires from the RAM 203 image area information (flag(x, y)) of the same coordinates as the pixel of interest (x, y). In S1106, the CPU 201 uses the lightness (L0) after text filter processing, the lightness (L1) after photo filter processing, and the image area information (flag (x, y)) acquired in S1103 to S1105. Then, the lightness signal L of the pixel of interest is calculated by the following equation (6).

Figure 2023037968000004
Figure 2023037968000004

S1107でCPU201は、S1106で生成したCIE-Lの明度信号L及び分離された色差成分(a)のカラー画像からRGBカラー画像を生成し、生成されたRGBカラー画像をRAM203に保存して、本処理を終了させる。 In S1107, the CPU 201 generates an RGB color image from the CIE-L * a * b * lightness signal L generated in S1106 and the color image of the separated color difference components (a * b * ), and converts the generated RGB color image. is stored in the RAM 203, and this process is terminated.

次に、S406での印刷データの合成処理について説明する。図13は、第1実施形態でのS406での印刷データの合成処理のフローチャートである。S1301でCPU201は、S405で生成した注目画素のRGBカラー画像をRAM203から読み込む。 Next, the print data combining process in S406 will be described. FIG. 13 is a flowchart of print data synthesis processing in S406 in the first embodiment. In S1301, the CPU 201 reads from the RAM 203 the RGB color image of the pixel of interest generated in S405.

S1302でCPU201は、色変換処理プログラム306(図3参照)を用いて、S1301で取得したRGBカラー画像を、印刷を行うための色材の色、例えばC(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の信号に変換する。一般的には、RGBからCMYKに色変換を行う場合、3次元マトリクスと補間演算による色変換を利用する。その際、S1302では、注目画素が原稿の文字部分であった場合を想定したCMYKの色信号値を生成する。例えば、(R,G,B)=(0,0,0)の信号値であれば、(C,M,Y,K)=(0,0,0,255)とする。文字画素を黒トナーのみで構成するように調整することで、黒を表現するためのトナーの使用量を低減させることができる。 In S1302, the CPU 201 uses the color conversion processing program 306 (see FIG. 3) to convert the RGB color image acquired in S1301 into colors of color materials for printing, such as C (cyan), M (magenta), Y (yellow) and K (black) signals. In general, when performing color conversion from RGB to CMYK, color conversion using a three-dimensional matrix and interpolation calculation is used. At this time, in S1302, CMYK color signal values are generated assuming that the pixel of interest is a character portion of the document. For example, if the signal value is (R, G, B)=(0, 0, 0), then (C, M, Y, K)=(0, 0, 0, 255). By adjusting the character pixels so that they are composed only of black toner, the amount of toner used for expressing black can be reduced.

S1303でCPU201は、S1302と同様の処理を行うが、ここでは、注目画素が原稿の非文字部分であった場合を想定したCMYKの色信号値を生成する。例えば、(R,G,B)=(0,0,0)の信号値であれば、(C,M,Y,K)=(30,30,30,200)とする。黒い画素でも黒トナー以外の色トナーを混ぜることにより、写真印刷に用いられるようなより深みのある豊かな黒を表現することができる。 In S1303, the CPU 201 performs the same processing as in S1302, but here, CMYK color signal values are generated assuming that the pixel of interest is a non-character portion of the document. For example, if the signal value is (R, G, B)=(0, 0, 0), then (C, M, Y, K)=(30, 30, 30, 200). Even in black pixels, by mixing color toners other than black toner, it is possible to express deeper and richer black as used in photo printing.

S1304でCPU201は、注目画素と同じ座標の像域情報をRAM203から取得する。S1305でCPU201は、S1302で生成した文字用のCMYK画像とS1303で生成した非文字用のCMYK画像を下記式7~10を用いて合成して、色材信号を得る。なお、(x,y)は注目画素の座標を、C,M,Y,Kはそれぞれ合成した色材信号であり、C0,M0,Y0,K0はそれぞれS1302で生成した色材信号であり、C1,M1,Y1,K1はそれぞれS1303で生成した色材信号である。また、flagはS1304で取得した像域情報である。 In S<b>1304 , the CPU 201 acquires image area information of the same coordinates as the target pixel from the RAM 203 . In S1305, the CPU 201 synthesizes the character CMYK image generated in S1302 and the non-character CMYK image generated in S1303 using the following equations 7 to 10 to obtain color material signals. Note that (x, y) are the coordinates of the pixel of interest, C, M, Y, and K are respectively synthesized colorant signals, C0, M0, Y0, and K0 are respectively colorant signals generated in S1302, C1, M1, Y1, and K1 are color material signals generated in S1303. Also, flag is the image area information acquired in S1304.

Figure 2023037968000005
Figure 2023037968000005

S1306でCPU201は、ハーフトーン処理プログラム307(図3参照)を用いて、S1305で生成したCMYK画像を、プリンタ130が印刷可能なビット深度(例えば1ビット)にするために疑似階調のハーフトーン画像に変換する。ハーフトーン画像への変換方法は限定されず、例えば、誤差拡散法やディザ法等の公知の方法を用いることができる。CPU201は、S1306の処理後に、本処理を終了させる。 In step S<b>1306 , the CPU 201 uses the halftone processing program 307 (see FIG. 3 ) to convert the CMYK image generated in step S<b>1305 to a pseudo-gradation halftone to a bit depth (for example, 1 bit) printable by the printer 130 . Convert to image. A conversion method to a halftone image is not limited, and known methods such as an error diffusion method and a dither method can be used. The CPU 201 terminates this process after the process of S1306.

上記説明の通り、第1実施形態によれば、画像信号を文字領域と非文字領域と分離する画像処理での演算負荷を軽減させることができる。これにより、CPU201やGPU205は、ハードウェアの制御やレンダリング処理等のMFP100での全体的な制御を実行しながら、高速で高品位の印刷処理を実行することが可能になる。 As described above, according to the first embodiment, it is possible to reduce the calculation load in image processing for separating an image signal into character areas and non-character areas. This allows the CPU 201 and GPU 205 to execute high-speed, high-quality print processing while executing overall control in the MFP 100 such as hardware control and rendering processing.

<第2実施形態>
画素ごとの像域情報は、RAM203に格納されている場合に、JPEGのような高効率な非可逆圧縮に利用することができない。これは、非可逆圧縮で発生するノイズによって、原稿の文字画素の一部が非文字として処理されてしまい、著しく画質が低下する可能性があるからである。
<Second embodiment>
If the image area information for each pixel is stored in the RAM 203, it cannot be used for highly efficient lossy compression such as JPEG. This is because there is a possibility that some of the character pixels of the original will be processed as non-characters due to noise generated by irreversible compression, resulting in a significant deterioration in image quality.

そこで、第2実施形態では、像域情報を2値情報として取得して取り扱う構成について説明する。なお、第2実施形態では、像域情報を2値情報として扱う処理を中心に説明し、第1実施形態と共通する処理については説明を省略する。コピー処理を例とした全体的な処理は、図4のフローチャートに準ずる。第2実施形態では、図4のフローチャートの処理のうちのS403~S406の処理が、第1実施形態とは異なるため、以下、これらの処理について説明する。 Therefore, in the second embodiment, a configuration for acquiring and handling image area information as binary information will be described. Note that in the second embodiment, processing for handling image area information as binary information will be mainly described, and description of processing common to the first embodiment will be omitted. Overall processing, taking copy processing as an example, conforms to the flowchart in FIG. In the second embodiment, the processes of S403 to S406 among the processes in the flowchart of FIG. 4 are different from those in the first embodiment, so these processes will be described below.

図14は、第2実施形態でのS403(像域情報生成処理)のフローチャートである。S1401~S1406各処理は、図5のフローチャートのS501~S506の処理と同じであるため、説明を省略する。S1407でCPU201は、S1406での演算後の注目画素の標準偏差の値が所定の閾値より大きいか否かを判定する。CPU201は、注目画素の標準偏差の値が所定の閾値より大きいと判定した場合(S1407でYes)、処理をS1408へ進め、注目画素の標準偏差の値が所定の閾値以下であると判定した場合(S1407でNo)、処理をS1409へ進める。 FIG. 14 is a flowchart of S403 (image area information generation processing) in the second embodiment. Since each process of S1401 to S1406 is the same as the process of S501 to S506 in the flow chart of FIG. 5, description thereof will be omitted. In S1407, the CPU 201 determines whether the value of the standard deviation of the pixel of interest after the calculation in S1406 is greater than a predetermined threshold. If the CPU 201 determines that the standard deviation value of the pixel of interest is greater than the predetermined threshold value (Yes in S1407), the CPU 201 advances the process to S1408. (No in S1407), the process proceeds to S1409.

S1408でCPU201は、像域情報に文字情報であることを示すフラグを格納し、本処理を終了させる。S1409でCPU201は、像域情報に非文字情報であることを示すフラグを格納し、本処理を終了させる。以上の処理により、S403の像域情報生成処理において、1ページ分の文字/非文字の2値の値が生成される。 In S1408, the CPU 201 stores a flag indicating text information in the image area information, and terminates this processing. In S1409, the CPU 201 stores a flag indicating non-character information in the image area information, and terminates this processing. By the above processing, binary values of text/non-text for one page are generated in the image area information generation processing of S403.

図15は、第2実施形態でのS404(ディスクリーン処理)のフローチャートである。S1501でCPU201は、注目画素の像域情報をRAM203から取得する。S1502でCPU201は、S1501で取得した像域情報が非文字を示すものか否かを判定する。S1502の処理は、S1408,S1409で像域情報に付されたフラグに基づいて行われる。CPU201は、像域情報が非文字を示すものであると判定した場合(S1502でYes)、処理をS1503へ進め、像域情報が非文字を示すものではない(文字を表すものである)と判定した場合(S1502でNo)、本処理を終了させる。S1503,S1504の処理はそれぞれ、図9のフローチャートのS901,S902の処理と同じであるため、説明を省略する。 FIG. 15 is a flowchart of S404 (descreen processing) in the second embodiment. In S<b>1501 , the CPU 201 acquires image area information of the pixel of interest from the RAM 203 . In S1502, the CPU 201 determines whether the image area information acquired in S1501 indicates non-character. The processing in S1502 is performed based on the flags attached to the image area information in S1408 and S1409. If the CPU 201 determines that the image area information indicates non-characters (Yes in S1502), the process advances to S1503 to determine that the image area information does not indicate non-characters (represents characters). If so (No in S1502), this process is terminated. The processing of S1503 and S1504 is the same as the processing of S901 and S902 in the flowchart of FIG. 9, respectively, so the description is omitted.

図16は、第2実施形態でのS405(エッジ強調処理)のフローチャートである。S1601~S1603の処理は、図11のフローチャートのS1101~1103の処理と同じであるため、説明を省略する。S1604でCPU201は、S1603で取得した注目画素の像域情報が非文字を示すものか否かを判定する。CPU201は、像域情報が非文字を示すものであると判定した場合(S1604でYes)、処理をS1605へ進め、像域情報が非文字を示すものではない(文字を表すものである)と判定した場合(S1604でNo)、処理をS1606へ進める。S1605,S1606,S1607の処理は、図11のフローチャートのS1104,S1103,S1107の処理と同じであるため、説明を省略する。 FIG. 16 is a flowchart of S405 (edge enhancement processing) in the second embodiment. Since the processing of S1601 to S1603 is the same as the processing of S1101 to S1103 in the flowchart of FIG. 11, the description is omitted. In S1604, the CPU 201 determines whether the image area information of the target pixel acquired in S1603 indicates non-character. If the CPU 201 determines that the image area information indicates non-characters (Yes in S1604), the process advances to S1605 to determine that the image area information does not indicate non-characters (represents characters). If so (No in S1604), the process advances to S1606. Since the processing of S1605, S1606 and S1607 is the same as the processing of S1104, S1103 and S1107 in the flowchart of FIG. 11, the description thereof is omitted.

図17は、第2実施形態での印刷データ合成処理のフローチャートである。S1701,S1702の処理は、図13のフローチャートのS1301,S1304の処理と同じであるため、説明を省略する。S1703でCPU201は、S1702で取得した注目画素の像域情報が非文字を示すものか否かを判定する。CPU201は、像域情報が非文字を示すものであると判定した場合(S1703でYes)、処理をS1704へ進め、像域情報が非文字を示すものではない(文字を表すものである)と判定した場合(S1703でNo)、処理をS1705へ進める。S1704,S1705,S1706の処理は、図13のフローチャートのS1303,S1302,S1306の処理と同じであるため、説明を省略する。このような第2実施形態でも、第1実施形態と同様の効果を得ることができる。 FIG. 17 is a flowchart of print data synthesizing processing in the second embodiment. Since the processing of S1701 and S1702 is the same as the processing of S1301 and S1304 in the flowchart of FIG. 13, the description is omitted. In S1703, the CPU 201 determines whether the image area information of the target pixel acquired in S1702 indicates non-character. If the CPU 201 determines that the image area information indicates non-characters (Yes in S1703), the process advances to S1704 to determine that the image area information does not indicate non-characters (represents characters). If so (No in S1703), the process advances to S1705. The processing of S1704, S1705, and S1706 is the same as the processing of S1303, S1302, and S1306 in the flowchart of FIG. 13, so description thereof will be omitted. Even in such a second embodiment, the same effect as in the first embodiment can be obtained.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to

120 スキャナ
201 CPU
202 ROM
204 HDD
205 GPU
303 像域情報生成処理プログラム
304 ディスクリーン処理プログラム
305 エッジ強調処理プログラム
306 色変換処理プログラム
308 印刷データ合成処理プログラム
120 Scanner 201 CPU
202 ROMs
204 HDDs
205 GPUs
303 image area information generation processing program 304 descreen processing program 305 edge enhancement processing program 306 color conversion processing program 308 print data synthesis processing program

Claims (15)

原稿読取装置により読み取られた原稿画像を処理する画像処理装置であって、
前記原稿画像から選択した画素および該選択された画素の周囲の画素とからなる矩形画像の統計値を演算する第1の演算手段と、
前記選択された画素が示す像域情報を前記統計値に基づいて生成する生成手段と、を備えることを特徴とする画像処理装置。
An image processing device for processing a document image read by a document reading device,
a first computing means for computing statistical values of a rectangular image composed of pixels selected from the document image and pixels surrounding the selected pixels;
and generating means for generating image area information indicated by the selected pixels based on the statistical value.
前記統計値は標準偏差であることを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said statistical value is standard deviation. 前記標準偏差は、前記矩形画像を構成する各画素の信号値と、前記矩形画像を構成する各画素の信号値の平均値を用いて求められることを特徴とする請求項2に記載の画像処理装置。 3. The image processing according to claim 2, wherein the standard deviation is obtained using a signal value of each pixel forming the rectangular image and an average value of signal values of each pixel forming the rectangular image. Device. 前記矩形画像をグレースケールに変換する第1の変換手段と、
前記選択された画素が前記矩形画像の中で細線を構成する画素か否かを判定する判定手段と、
前記選択された画素が細線を構成しない場合に、前記選択された画素を含む前記グレースケールに変換された後の矩形画像に対してスムージング処理を行うスムージング処理手段と、を備え、
前記第1の演算手段は、前記選択された画素が細線を構成する場合には、前記選択された画素を含む矩形画像ではスムージング処理を行わない信号値を用いて前記標準偏差を演算し、前記選択された画素が細線を構成しない場合には、前記選択された画素を含む矩形画像では前記スムージング処理を行った後の信号値を用いて前記標準偏差を演算することを特徴とする請求項3に記載の画像処理装置。
a first conversion means for converting the rectangular image to grayscale;
determining means for determining whether the selected pixel is a pixel forming a thin line in the rectangular image;
smoothing processing means for performing smoothing processing on the rectangular image converted to grayscale including the selected pixels when the selected pixels do not form a thin line;
When the selected pixels constitute a thin line, the first computing means computes the standard deviation using a signal value not subjected to smoothing processing in a rectangular image containing the selected pixels, and 3. When the selected pixels do not constitute a thin line, the standard deviation is calculated using the signal value after the smoothing process in the rectangular image including the selected pixels. The image processing device according to .
前記生成手段は、
前記選択された画素の統計値を、前記選択された画素と該画素に隣接する画素の統計値のうちの最大の値で置換する置換手段と、
前記置換手段により置き換えられた統計値を前記選択された画素の像域情報として記憶する記憶手段と、を備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The generating means is
replacement means for replacing the statistical value of the selected pixel with the maximum value of the statistical values of the selected pixel and pixels adjacent to the selected pixel;
5. The image processing apparatus according to claim 1, further comprising storage means for storing the statistical value replaced by said replacement means as image area information of said selected pixel.
前記矩形画像にデジタルフィルタを用いてディスクリーン処理を行うディスクリーン処理手段と、
前記選択された画素の、元の信号値、前記ディスクリーン処理された後の信号値および前記像域情報を用いて、前記選択された画素の各色の信号値を演算する第2の演算手段と、を備えることを特徴とする請求項5に記載の画像処理装置。
descreen processing means for performing descreen processing on the rectangular image using a digital filter;
a second computing means for computing the signal value of each color of the selected pixel using the original signal value, the descreened signal value, and the image area information of the selected pixel; 6. The image processing apparatus according to claim 5, further comprising:
前記ディスクリーン処理が施された矩形画像にエッジ強調処理を行うエッジ強調手段を備え、
前記エッジ強調手段は、
前記矩形画像を明度と色差成分の信号に分離する分離手段と、
前記分離手段が生成した明度信号に対して文字用のフィルタを適用することで前記選択された画素の明度信号を演算する第3の演算手段と、
前記分離手段が生成した明度信号に対して写真用のフィルタを適用することで前記選択された画素の明度信号を演算する第4の演算手段と、
前記第3の演算手段と前記第4の演算手段により得られる明度信号から前記選択された画素の明度信号を演算する第5の演算手段と、を備えることを特徴とする請求項6に記載の画像処理装置。
edge enhancement means for performing edge enhancement processing on the descreened rectangular image;
The edge enhancement means is
Separating means for separating the rectangular image into lightness and color difference component signals;
a third computing means for computing the brightness signal of the selected pixel by applying a character filter to the brightness signal generated by the separating means;
fourth computing means for computing the brightness signal of the selected pixel by applying a photographic filter to the brightness signal generated by the separation means;
7. The image forming apparatus according to claim 6, further comprising: fifth computing means for computing the brightness signal of the selected pixel from the brightness signals obtained by the third computing means and the fourth computing means. Image processing device.
前記第5の演算手段により得られる明度信号を色材信号に変換する変換手段と、
前記像域情報と前記色材信号から印刷データを合成する合成手段と、を備えることを特徴とする請求項7に記載の画像処理装置。
conversion means for converting the lightness signal obtained by the fifth calculation means into a color material signal;
8. The image processing apparatus according to claim 7, further comprising synthesizing means for synthesizing print data from said image area information and said colorant signal.
前記記憶手段は、前記選択された画素の像域情報を、前記置換手段により置き換えられた統計値が所定の閾値より大きい場合に文字情報として記憶し、前記置換手段により置き換えられた統計値が所定の閾値以下である場合に非文字情報として記憶することを特徴とする請求項5に記載の画像処理装置。 The storage means stores the image area information of the selected pixel as character information when the statistical value replaced by the replacing means is larger than a predetermined threshold value, and the statistical value replaced by the replacing means is a predetermined value. 6. The image processing apparatus according to claim 5, wherein the non-character information is stored when the value is equal to or less than the threshold value of . 前記選択された画素の前記像域情報が前記非文字情報である場合に、前記選択された画素を含む前記矩形画像にデジタルフィルタを用いてディスクリーン処理を行うディスクリーン処理手段を備えることを特徴とする請求項9に記載の画像処理装置。 descreen processing means for performing descreen processing on the rectangular image including the selected pixels using a digital filter when the image area information of the selected pixels is the non-character information. 10. The image processing apparatus according to claim 9. 前記ディスクリーン処理が施された矩形画像にエッジ強調処理を行うエッジ強調手段を備え、
前記エッジ強調手段は、
前記矩形画像を明度と色差成分の信号に分離する分離手段と、
前記選択された画素の前記像域情報が前記文字情報である場合に、前記選択された画素を含む矩形画像の明度信号に対して文字用のフィルタを適用することで前記選択された画素の明度信号を演算する第3の演算手段と、
前記選択された画素の前記像域情報が前記非文字情報である場合に、前記選択された画素を含む矩形画像の明度信号に対して写真用のフィルタを適用することで前記選択された画素の明度信号を演算する第4の演算手段と、
前記第3の演算手段と前記第4の演算手段により得られる明度信号と前記統計値から前記選択された画素の明度信号を演算する第5の演算手段と、を備えることを特徴とする請求項10に記載の画像処理装置。
edge enhancement means for performing edge enhancement processing on the descreened rectangular image;
The edge enhancement means is
Separating means for separating the rectangular image into lightness and color difference component signals;
When the image area information of the selected pixel is the character information, the brightness of the selected pixel is obtained by applying a character filter to the brightness signal of the rectangular image including the selected pixel. a third computing means for computing a signal;
When the image area information of the selected pixels is the non-character information, applying a photographic filter to a lightness signal of a rectangular image including the selected pixels a fourth computing means for computing the brightness signal;
5. A fifth computing means for computing the brightness signal of the selected pixel from the brightness signal obtained by the third computing means and the fourth computing means and the statistical value. 11. The image processing apparatus according to 10.
前記第5の演算手段により得られる明度信号を色材信号に変換する変換手段と、
前記像域情報と前記色材信号から印刷データを合成する合成手段と、を備えることを特徴とする請求項11に記載の画像処理装置。
conversion means for converting the lightness signal obtained by the fifth calculation means into a color material signal;
12. The image processing apparatus according to claim 11, further comprising synthesizing means for synthesizing print data from said image area information and said colorant signal.
前記第1の演算手段および前記生成手段は、前記画像処理装置の全体的な制御を行うCPU又はGPUであることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。 13. The image processing apparatus according to any one of claims 1 to 12, wherein said first computing means and said generating means are a CPU or a GPU that controls the entire image processing apparatus. 画像処理装置の制御方法であって、
原稿読取装置により読み取られた原稿画像から選択した画素および該選択された画素の周囲の画素とからなる矩形画像の統計値を演算するステップと、
前記選択された画素が示す像域情報を前記統計値に基づいて生成するステップと、を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing device,
calculating statistical values of a rectangular image composed of pixels selected from a document image read by a document reading device and pixels surrounding the selected pixels;
and generating image area information indicated by the selected pixels based on the statistical value.
コンピュータを請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。 A program that causes a computer to function as each means of the image processing apparatus according to any one of claims 1 to 13.
JP2021144818A 2021-09-06 2021-09-06 Image processing apparatus, control method of the same, and program Pending JP2023037968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021144818A JP2023037968A (en) 2021-09-06 2021-09-06 Image processing apparatus, control method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021144818A JP2023037968A (en) 2021-09-06 2021-09-06 Image processing apparatus, control method of the same, and program

Publications (1)

Publication Number Publication Date
JP2023037968A true JP2023037968A (en) 2023-03-16

Family

ID=85514053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021144818A Pending JP2023037968A (en) 2021-09-06 2021-09-06 Image processing apparatus, control method of the same, and program

Country Status (1)

Country Link
JP (1) JP2023037968A (en)

Similar Documents

Publication Publication Date Title
US7940434B2 (en) Image processing apparatus, image forming apparatus, method of image processing, and a computer-readable storage medium storing an image processing program
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US8384964B2 (en) Image processing apparatus and image processing method
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US11272074B2 (en) System, method, and storage medium for converting low-resolution image data into high-resolution image data using neural network
KR102323909B1 (en) Image processing apparatus, image processing method, and storage medium
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
JP7367159B2 (en) Image processing device, image processing method, and program
JP2009272774A (en) Image processor, image forming apparatus, image processing method, and computer program
US9542130B2 (en) Mask based toner reduction
JP2015173419A (en) Image processing device, control method of the same and program
JP2017130811A (en) Image processing apparatus, image processing method, image processing program, and recording medium
US8345309B2 (en) Secure printing-out using color toner and particular toner
JP4884305B2 (en) Image processing apparatus, image forming apparatus, computer program, and recording medium
JP4555192B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
US8189235B2 (en) Apparatus, method and program product that calculates a color blending ratio so security dots reproduced in a monochrome image are substantially undetectable
US8873106B2 (en) Method and system for enabling halftoning of a color image based on its color separation content
JP6882043B2 (en) Image processing equipment, programs and image processing methods
JP2023037968A (en) Image processing apparatus, control method of the same, and program
JP5258529B2 (en) Image processing apparatus and method, and computer program and storage medium
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2010074318A (en) Image processing apparatus and method, and image processing program
JP2005175824A (en) Image processing method, image processor and image forming apparatus, and computer program
JP2022141319A (en) Image processing device, control method for the same, and program