JP2019092127A - Image processing apparatus, image forming apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image forming apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2019092127A
JP2019092127A JP2017221370A JP2017221370A JP2019092127A JP 2019092127 A JP2019092127 A JP 2019092127A JP 2017221370 A JP2017221370 A JP 2017221370A JP 2017221370 A JP2017221370 A JP 2017221370A JP 2019092127 A JP2019092127 A JP 2019092127A
Authority
JP
Japan
Prior art keywords
area
image processing
image
line drawing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017221370A
Other languages
Japanese (ja)
Inventor
俊樹 間村
Toshiki Mamura
俊樹 間村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017221370A priority Critical patent/JP2019092127A/en
Publication of JP2019092127A publication Critical patent/JP2019092127A/en
Pending legal-status Critical Current

Links

Abstract

To detect a thick character with high reliability in a simple configuration.SOLUTION: An image processing apparatus comprises: an image data acquisition unit that acquires image data; an image analysis unit that analyzes a plurality of pixels constituting the image data for every reference window, detects edge pixels from the plurality of pixels in the reference window, and determines a line drawing candidate area sandwiched by the edge pixels, the area satisfying a predetermined condition, as a line drawing area; and an image processing unit that executes, on the image data, image processing including first image processing applied to the line drawing area and second image processing applied to an area other than the line drawing area and different from the first image processing.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像形成装置、画像処理方法及び画像処理プログラムに関し、特に文字の画質を向上させる技術に関する。   The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, and an image processing program, and more particularly to a technology for improving the image quality of characters.

画像形成装置の基本機能として、複写、すなわちスキャナーで読み取った画像である読取画像を処理してCMYK等の色材を使用して画像を再現する機能がある。典型的な画像形成装置は、読取画像において文字領域とイメージ領域とを識別し、文字領域の画像をKの色材で再現する一方、イメージ領域の画像をCMY又はCMYKの色材で再現する。文字領域は、典型的には、輪郭検出処理によって識別することができる。しかしながら顕著に大きな文字である太文字については、その内部が輪郭から離れるため文字領域であるか否かの判断が困難であった。このような問題に対して、たとえば、特許文献1は、黒文字内部(黒文字エッジ領域よりも内側)を文字なか画素候補領域として検出し、RGB最小値を所定の閾値で2値化することによって所定濃度以上の画素領域を黒文字内部として検出する技術を提案している。   As a basic function of the image forming apparatus, there is a function of copying, that is, processing a read image which is an image read by a scanner and reproducing an image using a color material such as CMYK. A typical image forming apparatus identifies a character area and an image area in a read image, and reproduces an image of the character area with a K color material, while reproducing an image of the image area with a CMY or CMYK color material. Character regions can typically be identified by a contour detection process. However, with regard to bold letters, which are remarkably large letters, it is difficult to determine whether or not they are letter areas because the inside is apart from the outline. For such a problem, for example, Patent Document 1 detects the inside of a black character (inside of a black character edge area) as a candidate pixel area within a character, and binarizes the RGB minimum value with a predetermined threshold. A technique has been proposed for detecting a pixel area higher than the density as black character inside.

特開2007−235583号公報Unexamined-Japanese-Patent No. 2007-235583

しかし、本願発明者は、太文字の検出方法において改善の余地があることを見いだした。   However, the inventor has found that there is room for improvement in the bold character detection method.

本発明はこのような状況に鑑みてなされたものであり、簡易な構成において太文字を高い信頼性で検出する技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to provide a technology for detecting bold letters with high reliability in a simple configuration.

本発明の画像処理装置は、画像データを取得する画像データ取得部と、前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析部と、前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理部とを備える。   The image processing apparatus according to the present invention analyzes an image data acquisition unit for acquiring image data, a plurality of pixels forming the image data for each reference window, and selects edge pixels from among the plurality of pixels in the reference window. An image analysis unit that detects a line drawing candidate area which is detected between the edge pixels and determines a predetermined area as a line drawing area; first image processing applied to the line drawing area; and the line drawing area And an image processing unit that executes image processing including the second image processing different from the first image processing applied to the area of the image data.

本発明の画像形成装置は、前記画像処理装置と、CMYKの色材を使用して画像を形成する画像形成部とを備え、前記画像処理部は、前記線画領域に適用され、Kの色材を使用して画像を形成するための前記第1の画像処理と、前記線画領域以外の領域に適用され、CMYKの色材を使用して画像を形成するための前記第2の画像処理とを含む画像処理を前記画像データに対して実行する。   An image forming apparatus according to the present invention includes the image processing apparatus and an image forming unit that forms an image using a CMYK color material, the image processing unit is applied to the line drawing area, and the K color material The first image processing for forming an image using the second image processing, and the second image processing applied to an area other than the line drawing area for forming an image using a CMYK color material; Image processing is performed on the image data.

本発明の画像処理方法は、画像データを取得する画像データ取得工程と、前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析工程と、前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理工程とを備える。   The image processing method of the present invention comprises an image data acquisition step of acquiring image data, analyzing a plurality of pixels constituting the image data for each reference window, and edge pixels out of the plurality of pixels in the reference window. An image analysis step of detecting a line drawing candidate area sandwiched between the edge pixels and determining a line drawing area as a line drawing area, a first image processing applied to the line drawing area, and the line drawing area Performing an image process including the second image process different from the first image process applied to the area of the image data on the image data.

本発明は、画像処理装置を制御する画像処理プログラムを提供する。前記画像処理プログラムは、画像データを取得する画像データ取得部と、前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析部、及び前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理部として前記画像処理装置を機能させる。   The present invention provides an image processing program for controlling an image processing apparatus. The image processing program analyzes an image data acquisition unit for acquiring image data, a plurality of pixels forming the image data for each reference window, and detects an edge pixel from the plurality of pixels in the reference window. An image analysis unit that determines a line drawing candidate area that is a line drawing candidate area sandwiched between the edge pixels and that satisfies a predetermined condition as a line drawing area; first image processing applied to the line drawing area; and an area other than the line drawing area The image processing apparatus functions as an image processing unit that executes image processing including the first image processing applied to the second image processing different from the first image processing applied to the image data.

本発明によれば、簡易な構成において太文字を高い信頼性で検出する技術を提供することができる。   According to the present invention, it is possible to provide a technology for detecting bold characters with high reliability in a simple configuration.

本発明の一実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。2 is a block diagram showing a functional configuration of an image forming apparatus 100 according to an embodiment of the present invention. 一実施形態に係る原稿画像複写処理の内容を示すフローチャートである。5 is a flowchart showing the contents of a document image copying process according to an embodiment. 一実施形態に係る文字領域判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the character area | region determination processing which concerns on one Embodiment. 一実施形態に係る文字領域判定処理の内容を示す説明図である。It is explanatory drawing which shows the content of the character area | region determination processing which concerns on one Embodiment. 一実施形態に係る文字領域判定処理で使用される輪郭抽出フィルタを示す説明図である。It is explanatory drawing which shows the outline extraction filter used by the character area determination process which concerns on one Embodiment. 一実施形態に係る参照ウィンドウの各配置状態を示す説明図である。It is explanatory drawing which shows each arrangement | positioning state of the reference window which concerns on one Embodiment. 一実施形態に係る画像属性判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the image attribute determination processing which concerns on one Embodiment.

以下、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して説明する。   Hereinafter, modes for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像形成装置100の機能構成を示すブロックダイアグラムである。画像形成装置100は、制御部110と、画像読取部120と、画像形成部130と、記憶部140と、自動原稿送り装置(ADF)160と、操作表示部170とを備えている。制御部110は、画像解析部111と、画像処理部112とを備えている。   FIG. 1 is a block diagram showing a functional configuration of an image forming apparatus 100 according to an embodiment of the present invention. The image forming apparatus 100 includes a control unit 110, an image reading unit 120, an image forming unit 130, a storage unit 140, an automatic document feeder (ADF) 160, and an operation display unit 170. The control unit 110 includes an image analysis unit 111 and an image processing unit 112.

制御部110は、RAMやROM等の主記憶手段、及びMPU(Micro Processing Unit)やCPU(Central Processing Unit)等の制御手段を備えている。また、制御部110は、各種I/O、USB(ユニバーサル・シリアル・バス)、バス、その他ハードウェア等のインターフェースに関連するコントローラ機能を備え、画像形成装置100全体を制御する。   The control unit 110 includes a main storage unit such as a RAM and a ROM, and a control unit such as an MPU (Micro Processing Unit) and a CPU (Central Processing Unit). The control unit 110 also has a controller function related to interfaces such as various I / Os, USB (Universal Serial Bus), buses, and other hardware, and controls the entire image forming apparatus 100.

記憶部140は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置で、制御部110が実行する処理の制御プログラム(画像処理プログラムを含む)やデータを記憶する。   The storage unit 140 is a storage device including a hard disk drive or a flash memory, which is a non-temporary recording medium, and stores control programs (including an image processing program) and data of processing executed by the control unit 110.

操作表示部170は、タッチパネルとして機能し、様々なメニューを入力画面として表示する。操作表示部170は、さらに各種ボタンやスイッチ(図示せず)からユーザーの操作入力を受け付ける。   The operation display unit 170 functions as a touch panel, and displays various menus as input screens. The operation display unit 170 further receives user's operation input from various buttons and switches (not shown).

図2は、一実施形態に係る原稿画像複写処理の内容を示すフローチャートである。ステップS100では、画像読取部120は、スキャン処理を実行する。スキャン処理は、ADF160や原稿台(図示せず)を使用して原稿を読み取ってRGB画像データを生成する処理である。この例では、画像読取部120及びADF160(又は原稿台)は、画像データを取得する画像データ取得部として機能する。   FIG. 2 is a flowchart showing the contents of the document image copying process according to the embodiment. In step S100, the image reading unit 120 executes a scan process. The scan process is a process of reading an original using an ADF 160 or an original table (not shown) to generate RGB image data. In this example, the image reading unit 120 and the ADF 160 (or the document table) function as an image data acquisition unit that acquires image data.

ステップS200では、画像処理部112は、色空間変換処理を実行する。色空間変換処理は、カラー画像データの色空間をRGB色空間からLab色空間に変換する処理である。Lab色空間は、輝度、色相及び彩度を数値で表すことができ、人間の視覚感覚に近い尺度(単位)とも言える均等色空間である。Lab色空間において、L値は、輝度を表している。色相角は、a値とb値とで構成されるベクトルの方向として決定される。彩度は、a値及びb値がゼロのときに無彩色となり、それらの絶対値が大きいほど彩度が高くなる。均等色空間は、人間の視覚系において心理的に同じ色違いに見える色同士の距離(心理的な距離感)を均等にしてある色立体(色空間に相当する)の空間である。   In step S200, the image processing unit 112 executes color space conversion processing. The color space conversion process is a process of converting the color space of color image data from the RGB color space to the Lab color space. The Lab color space is a uniform color space that can represent luminance, hue, and saturation numerically, and can be said to be a scale (unit) close to human visual sense. In the Lab color space, the L value represents luminance. The hue angle is determined as the direction of a vector composed of the a value and the b value. The saturation is achromatic when the a and b values are zero, and the saturation becomes higher as their absolute value is larger. The uniform color space is a space of a color solid (corresponding to a color space) in which the distances between colors that appear to be the same color differently in the human visual system (psychological distance) are equalized.

ステップS300では、画像解析部111は、文字領域判定処理を実行する。文字領域判定処理は、Lab色空間の画像データにおいて画像が文字領域であるか否かを判定する処理である。なお、本実施形態では、Lab色空間の画像データにおいて文字領域判定処理が実行されているが、必ずしもLab色空間での実行に限定されるものではない。   In step S300, the image analysis unit 111 executes character area determination processing. The character area determination process is a process of determining whether the image is a character area in the image data of the Lab color space. In the present embodiment, character area determination processing is performed on image data in the Lab color space, but the processing is not necessarily limited to execution in the Lab color space.

図3は、一実施形態に係る文字領域判定処理(ステップS300)の内容を示すフローチャートである。図4は、一実施形態に係る文字領域判定処理の内容を示す説明図である。図4(a)は、いわゆる縁取り現象の一例を示している。縁取り現象は、画像読取部120で取得したスキャンデータで表される原画像MSが、画像処理によって輪郭部にだけ強調処理が施されることによって縁取りが発生したようなエッジと内部領域とで濃度差を有する画像MPとなる現象である。   FIG. 3 is a flowchart showing the contents of the character area determination process (step S300) according to the embodiment. FIG. 4 is an explanatory view showing the content of the character area determination process according to the embodiment. FIG. 4A shows an example of the so-called border phenomenon. In the border phenomenon, the original image MS represented by the scan data acquired by the image reading unit 120 is subjected to enhancement processing only on the outline portion by image processing, and the density of the edge and the inner area where bordering occurs This is a phenomenon that results in an image MP having a difference.

典型的な画像処理は、文字が通常の小さな文字である場合には、文字の全体を強調表示して、くっきりと読みやすい画像に調整することができる。しかしながら、画像処理が想定する文字よりも顕著に大きな文字である太文字については、内部領域において強調処理が施されないので、輪郭のみが強調されて縁取り現象が発生することになる。   Typical image processing can highlight the entire character and adjust it to a clear and easy-to-read image if the character is a normal small character. However, for a bold letter that is a letter that is significantly larger than the letter that the image processing assumes, the enhancement process is not performed in the inner area, so only the outline is emphasized and a bordering phenomenon occurs.

ステップS310では、画像解析部111は、参照ウィンドウ配置処理を実行する。参照ウィンドウ配置処理では、画像解析部111は、参照ウィンドウW1を画像Mの主走査方向の左端部の最上部に配置する。図4(b)は、処理対象である画像Mにおける輪郭抽出処理で使用される参照ウィンドウの配置例を示している。この際、画像解析部111は、参照ウィンドウW1のサイズの全画素の輝度値を格納するバッファ領域をメモリ(図示略)内に確保する。   In step S310, the image analysis unit 111 executes reference window arrangement processing. In reference window arrangement processing, the image analysis unit 111 arranges the reference window W1 at the top of the left end of the image M in the main scanning direction. FIG. 4B shows an example of the arrangement of reference windows used in the contour extraction process on the image M to be processed. At this time, the image analysis unit 111 secures, in a memory (not shown), a buffer area for storing the luminance values of all the pixels of the size of the reference window W1.

参照ウィンドウW1〜W10は、主走査方向に96画素の長さを有し、副走査方向に3画素の幅を有している。参照ウィンドウWLは、説明の都合上設けられたウィンドウで、主走査方向に330画素の長さを有し、副走査方向に3画素の幅を有している。これらの参照ウィンドウW1〜W10及びWLは、ソーベルフィルタの使用を想定したものである。副走査方向の幅は、たとえば副走査方向に1画素とし、微分フィルタを使用するようにしてもよいし、さらに大きな幅の参照ウィンドウとし、それに対応したフィルタを使用してもよい。   The reference windows W1 to W10 have a length of 96 pixels in the main scanning direction and a width of 3 pixels in the sub scanning direction. The reference window WL is a window provided for the convenience of description and has a length of 330 pixels in the main scanning direction and a width of 3 pixels in the sub scanning direction. These reference windows W1 to W10 and WL assume the use of Sobel filters. The width in the sub scanning direction may be, for example, one pixel in the sub scanning direction, and a differential filter may be used, or a reference window with a larger width may be used, and a filter corresponding thereto may be used.

図5は、一実施形態に係る文字領域判定処理で使用される輪郭抽出フィルタを示す説明図である。ステップS320では、画像解析部111は、輪郭検出処理を実行する。輪郭検出処理では、画像解析部111は、主走査方向の輪郭(エッジとも呼ばれる。)の検出用の第1ソーベルフィルタFMと、副走査方向の輪郭の検出用の第2ソーベルフィルタFSとを使用して輪郭を検出する。これにより、画像解析部111は、主走査方向と副走査方向の双方の輪郭を検出することができる。   FIG. 5 is an explanatory view showing a contour extraction filter used in the character area determination process according to an embodiment. In step S320, the image analysis unit 111 executes contour detection processing. In the outline detection process, the image analysis unit 111 includes a first Sobel filter FM for detecting an outline (also referred to as an edge) in the main scanning direction and a second Sobel filter FS for detecting an outline in the sub scanning direction. Use to detect contours. Thus, the image analysis unit 111 can detect the contours in both the main scanning direction and the sub scanning direction.

画像解析部111は、第1ソーベルフィルタFM及び第2ソーベルフィルタFSを使用し、Lab色空間における画像データの輝度値に基づいて輪郭を検出することができる。このように、エッジの検出は、人間の視覚感覚に近い尺度の均等色空間において行われるので、人間の視覚感覚に近い基準で階調変化としてのエッジを検出することができる。なお、この例では、輪郭の検出にソーベルフィルタが使用されているが、ラプラシアンフィルタや微分フィルタといった他の輪郭検出フィルタを使用して、ステップ状の階調変化として輪郭を検出することもできる。   The image analysis unit 111 can detect the contour based on the luminance value of the image data in the Lab color space using the first Sobel filter FM and the second Sobel filter FS. Thus, since edge detection is performed in a uniform color space of a scale close to human visual sense, it is possible to detect an edge as a gradation change on the basis of human visual sense. In this example, a Sobel filter is used to detect the contour, but another contour detection filter such as a Laplacian filter or a differential filter can be used to detect the contour as a step-like gradation change. .

ステップS330では、画像解析部111は、輪郭カウント処理を実行する。輪郭カウント処理では、画像解析部111は、各参照ウィンドウ内で検出されたエッジ画素(輪郭を構成する画素)をカウントする。   In step S330, the image analysis unit 111 executes contour count processing. In the contour count process, the image analysis unit 111 counts edge pixels (pixels forming the contour) detected in each reference window.

図6は、一実施形態に係る参照ウィンドウの各配置状態を示す説明図である。図6(a)は、参照ウィンドウW1内の画素の状態を拡大して各画素を示している。参照ウィンドウW1内には、白画素のみが存在し、エッジ画素が検出されない。白画素とは、輝度値が高く、原稿の地肌であると判定される画素を意味している。   FIG. 6 is an explanatory view showing each arrangement state of reference windows according to the embodiment. FIG. 6A shows each pixel by enlarging the state of the pixel in the reference window W1. In the reference window W1, only white pixels are present, and edge pixels are not detected. The white pixel means a pixel which has a high luminance value and is determined to be the background of the document.

図6(b)は、参照ウィンドウW6内の画素の状態を示している。参照ウィンドウW6内では、副走査方向に白画素から黒画素に変化し、黒画素側の輪郭部として主走査方向に平行なエッジ画素が検出される。よって、第2ソーベルフィルタFSは、参照ウィンドウW6内の全着目画素をエッジ画素として検出することができる。   FIG. 6B shows the state of the pixel in the reference window W6. In the reference window W6, white pixels are changed to black pixels in the sub-scanning direction, and edge pixels parallel to the main scanning direction are detected as contours on the black pixel side. Therefore, the second Sobel filter FS can detect all target pixels in the reference window W6 as edge pixels.

ステップS340では、画像解析部111は、着目画素内が全てエッジ画素であるか否かを判断する。すなわち、画像解析部111は、着目画素の数がエッジ画素の数と一致しているか否かを判断する。画像解析部111は、着目画素の数がエッジ画素の数と一致している場合には、処理をステップS371に進め、着目画素の数がエッジ画素の数と一致していない場合には、処理をステップS350に進める。   In step S340, the image analysis unit 111 determines whether or not the inside of the pixel of interest is all edge pixels. That is, the image analysis unit 111 determines whether the number of target pixels matches the number of edge pixels. If the number of pixels of interest matches the number of edge pixels, the image analysis unit 111 proceeds to step S 371. If the number of pixels of interest does not match the number of edge pixels, the image analysis unit 111 performs processing Proceed to step S350.

ステップS371では、画像解析部111は、参照ウィンドウW6内の着目画素の数がエッジ画素の数と一致しているので、参照ウィンドウW6内の着目画素から構成される領域がエッジ領域であると判定する。これにより、画像解析部111は、主走査方向に平行な輪郭がエッジ領域として文字領域の一部であると判断することができる。   In step S371, the image analysis unit 111 determines that the area formed of the target pixel in the reference window W6 is an edge area since the number of target pixels in the reference window W6 matches the number of edge pixels. Do. Accordingly, the image analysis unit 111 can determine that the contour parallel to the main scanning direction is a part of the character area as the edge area.

ステップS350では、画像解析部111は、エッジ画素が複数存在するか否かを判断する。画像解析部111は、エッジ画素が複数存在する場合には、処理をステップS372に進め、エッジ画素が単数又は不存在の場合には、処理をステップS360に進める。   In step S350, the image analysis unit 111 determines whether a plurality of edge pixels exist. If there are a plurality of edge pixels, the image analysis unit 111 advances the process to step S372, and advances the process to step S360 if there is a single edge pixel or no edge pixel.

ステップS372では、画像解析部111は、端部領域とエッジ画素間領域とを線画候補領域として抽出する。エッジ画素が複数存在する場合としては、参照ウィンドウW3や参照ウィンドウWL(図4参照)がある。端部領域とは、エッジ画素と端部画素とで挟まれる領域である。端部画素とは、参照ウィンドウの端部に配置されている画素である。エッジ画素間領域とは、2つのエッジ画素で挟まれる領域である。   In step S372, the image analysis unit 111 extracts the end area and the area between edge pixels as a line drawing candidate area. When there are a plurality of edge pixels, there are a reference window W3 and a reference window WL (see FIG. 4). The end area is an area sandwiched between edge pixels and end pixels. The end pixel is a pixel disposed at the end of the reference window. The edge inter-pixel area is an area sandwiched by two edge pixels.

具体的には、参照ウィンドウW3は、図6(c)に示されるように、2つの端部領域Z3e1,Z3e2と、1つのエッジ画素間領域Z3mとを有している。端部領域Z3e1は、端部画素W3e1とエッジ画素C31とに挟まれた領域である。端部領域Z3e2は、エッジ画素C32と端部画素W3e2とに挟まれた領域である。   Specifically, as shown in FIG. 6C, the reference window W3 has two end areas Z3 e1 and Z3 e2 and one edge inter-pixel area Z3 m. The end area Z3e1 is an area sandwiched between the end pixel W3e1 and the edge pixel C31. The end area Z3e2 is an area sandwiched between the edge pixel C32 and the end pixel W3e2.

参照ウィンドウWLは、図6(d)に示されるように、2つの端部領域ZLe1,ZLe2と、3つのエッジ画素間領域ZLm1,ZLm2,ZLm3とを有している。端部領域ZLe1は、端部画素WLe1とエッジ画素CL1とに挟まれた領域である。端部領域ZLe2は、エッジ画素CL4と端部画素WLe2とに挟まれた領域である。   The reference window WL has two end areas ZLe1 and ZLe2 and three edge inter-pixel areas ZLm1 and ZLm2 and ZLm3 as shown in FIG. 6 (d). The end area ZLe1 is an area sandwiched between the end pixel WLe1 and the edge pixel CL1. The end area ZLe2 is an area sandwiched between the edge pixel CL4 and the end pixel WLe2.

ステップS360では、画像解析部111は、エッジ画素が1つだけ単独で存在するか否かを判断する。画像解析部111は、エッジ画素が1つだけ存在する場合には、処理をステップS373に進め、エッジ画素が不存在の場合には、処理をステップS374に進める。   In step S360, the image analysis unit 111 determines whether only one edge pixel is present alone. If there is only one edge pixel, the image analysis unit 111 proceeds to step S373. If there is no edge pixel, the image analysis unit 111 proceeds to step S374.

ステップS373では、画像解析部111は、端部領域を線画候補領域として抽出する。エッジ画素が1つ存在する場合としては、参照ウィンドウW4や参照ウィンドウW5(図4参照)がある。参照ウィンドウW5は、図6(f)に示されるように、2つの端部領域Z5e1,Z5e2を有している。端部領域Z5e1は、端部画素W5e1とエッジ画素C51とに挟まれた領域である。端部領域Z5e2は、エッジ画素C51と端部画素W5e2とに挟まれた領域である。   In step S373, the image analysis unit 111 extracts the end region as a line drawing candidate region. When there is one edge pixel, there are a reference window W4 and a reference window W5 (see FIG. 4). The reference window W5 has two end regions Z5e1 and Z5e2 as shown in FIG. 6 (f). The end area Z5e1 is an area sandwiched between the end pixel W5e1 and the edge pixel C51. The end area Z5e2 is an area sandwiched between the edge pixel C51 and the end pixel W5e2.

ステップS374では、画像解析部111は、全着目画素を中間領域(線画候補領域の一例)として抽出する。エッジ画素が不存在の場合としては、参照ウィンドウW1,W2,W8,W9(図4参照)がある。中間領域とは、参照ウィンドウ内にエッジ画素が存在せず、2つの端部画素で挟まれる領域である。   In step S 374, the image analysis unit 111 extracts all the target pixels as an intermediate region (an example of a line drawing candidate region). Reference windows W1, W2, W8 and W9 (see FIG. 4) exist as cases where there is no edge pixel. The middle region is a region in which there is no edge pixel in the reference window and is sandwiched by two end pixels.

図7は、一実施形態に係る画像属性判定処理(ステップS380)の内容を示すフローチャートである。ステップS381では、画像解析部111は、判定対象となる各領域がエッジ領域であるか否かを判断する。   FIG. 7 is a flowchart showing the contents of the image attribute determination process (step S380) according to one embodiment. In step S 381, the image analysis unit 111 determines whether each area to be determined is an edge area.

画像解析部111は、たとえば参照ウィンドウW6内の着目画素から構成される領域のように、判定対象となる領域がエッジ領域である場合には、処理をステップS387に進める。ステップS387では、画像解析部111は、判定対象となる領域が文字領域であると判定する。一方、画像解析部111は、判定対象となる領域がエッジ領域でない場合には、処理をステップS382に進める。   If the area to be determined is an edge area, for example, as in the area including the pixel of interest in the reference window W6, the image analysis unit 111 advances the process to step S387. In step S387, the image analysis unit 111 determines that the area to be determined is a text area. On the other hand, if the area to be determined is not an edge area, the image analysis unit 111 advances the process to step S382.

ステップS382では、画像解析部111は、判定対象となる各領域がエッジ画素間領域であるか否かを判定する。画像解析部111は、たとえば参照ウィンドウW3内のエッジ画素間領域Z3mのように、判定対象となる各領域がエッジ画素間領域である場合には、処理をステップS385aに進める。エッジ画素間領域Z3mは、参照ウィンドウW3内において2つのエッジ画素C31,C32の間に挟まれる領域である。一方、画像解析部111は、判定対象となる各領域がエッジ画素間領域でない場合には、処理をステップS383に進める。   In step S382, the image analysis unit 111 determines whether each area to be determined is an inter-edge pixel area. The image analysis unit 111 advances the process to step S385a if each area to be determined is an inter-edge pixel area, as in the inter-edge pixel area Z3m in the reference window W3, for example. The edge inter-pixel area Z3m is an area sandwiched between two edge pixels C31 and C32 in the reference window W3. On the other hand, if the areas to be determined are not the inter-edge pixel areas, the image analysis unit 111 advances the process to step S383.

ステップS385aでは、画像解析部111は、判定対象となる各領域の画素値の彩度が予め設定されている閾値Th未満であるか否かを判断する。具体的には、画像解析部111は、たとえばエッジ画素間領域Z3mを構成する各画素のLab色空間のa値及びb値の絶対値の和が閾値Th未満であるか否かを判断する。画像解析部111は、絶対値の和が閾値Th未満である場合には、処理をステップS387に進め、絶対値の和が閾値Th未満でない場合には、処理をステップS388に進める。   In step S385a, the image analysis unit 111 determines whether the saturation of the pixel value of each area to be determined is less than a predetermined threshold Th. Specifically, the image analysis unit 111 determines, for example, whether or not the sum of the absolute values of the a value and the b value in the Lab color space of each pixel constituting the inter-edge pixel area Z3m is less than the threshold value Th. If the sum of absolute values is less than the threshold Th, the image analysis unit 111 proceeds to step S387. If the sum of absolute values is not less than the threshold Th, the image analysis unit 111 proceeds to step S388.

ステップS387では、画像解析部111は、エッジ領域と同様に、判定対象となる領域が文字領域であると判定する。一方、ステップS388では、画像解析部111は、判定対象となる領域がイメージ領域であると判定する。本実施形態では、イメージ領域とは、黒文字以外の領域を意味している。本実施形態では、文字領域は、黒文字を想定し、彩度を使用して判定しているからである。   In step S387, the image analysis unit 111 determines that the area to be determined is a text area, as in the case of the edge area. On the other hand, in step S388, the image analysis unit 111 determines that the area to be determined is an image area. In the present embodiment, the image area means an area other than black characters. In the present embodiment, the character area is assumed to be a black character, and the determination is made using saturation.

ステップS383では、画像解析部111は、判定対象となる各領域が端部領域であるか否かを判定する。画像解析部111は、たとえば参照ウィンドウW5内の2つの端部領域Z5e1,Z5e2のように、判定対象となる各領域が端部領域である場合には、処理をステップS385bに進める。一方、画像解析部111は、判定対象となる各領域が端部領域でない場合には、処理をステップS384に進める。   In step S383, the image analysis unit 111 determines whether each area to be determined is an end area. The image analysis unit 111 advances the process to step S 385 b if the areas to be determined are end areas, such as two end areas Z 5 e 1 and Z 5 e 2 in the reference window W 5. On the other hand, if the areas to be determined are not end areas, the image analysis unit 111 advances the process to step S384.

ステップS385bでは、画像解析部111は、判定対象となる各領域の画素値の彩度が閾値Th未満であるか否かを判断する。画像解析部111は、絶対値の和が閾値Th未満である場合には、処理をステップS386aに進め、絶対値の和が閾値Th未満でない場合には、処理をステップS388に進める。この例では、画像解析部111は、端部領域Z5e1の画素値の彩度が閾値Th未満であると判断したものとする。   In step S385b, the image analysis unit 111 determines whether the saturation of the pixel value of each area to be determined is less than the threshold Th. If the sum of absolute values is less than the threshold Th, the image analysis unit 111 proceeds to step S386a. If the sum of absolute values is not less than the threshold Th, the image analysis unit 111 proceeds to step S388. In this example, it is assumed that the image analysis unit 111 determines that the saturation of the pixel value of the end region Z5e1 is less than the threshold Th.

ステップS386aでは、画像解析部111は、端部領域Z5e1の隣接領域の画素値の彩度が閾値Th未満であるか否かを判断する。端部領域Z5e1の隣接領域は、参照ウィンドウW4内の端部領域Z4e2である。参照ウィンドウW4の端部画素W4e2は、参照ウィンドウW5の端部画素W5e1に隣接している隣接画素だからである(図4及び図6参照)。   In step S386a, the image analysis unit 111 determines whether the saturation of the pixel value of the adjacent area of the end area Z5e1 is less than the threshold Th. The adjacent area of the end area Z5e1 is an end area Z4e2 in the reference window W4. This is because the end pixel W4e2 of the reference window W4 is an adjacent pixel adjacent to the end pixel W5e1 of the reference window W5 (see FIGS. 4 and 6).

端部領域Z4e2は、参照ウィンドウW4のエッジ画素C41(隣接エッジ画素とも呼ばれる。)と端部画素W4e2との間の領域である。画像解析部111は、端部領域Z4e2の画素値の彩度が閾値Th未満であると判断した場合(すなわち、端部領域Z5e1と隣接領域(端部領域Z4e2)の双方の彩度が閾値Th未満の場合)には、処理をステップS387に進め、端部領域Z4e2の画素値の彩度が閾値Th未満でないと判断した場合(一般に、端部領域Z5e1と隣接領域(端部領域Z4e2)の少なくと一方の彩度が閾値Th未満でない場合)には、処理をステップS388に進める。   The end area Z4e2 is an area between an edge pixel C41 (also referred to as an adjacent edge pixel) of the reference window W4 and the end pixel W4e2. When the image analysis unit 111 determines that the saturation of the pixel value of the end area Z4e2 is less than the threshold Th (that is, the saturation of both the end area Z5e1 and the adjacent area (end area Z4e2) is the threshold Th If less than the case, the process proceeds to step S387, and it is determined that the saturation of the pixel value of end region Z4e2 is not less than threshold Th (generally, end region Z5e1 and an adjacent region (end region Z4e2) If at least one of the saturations is not smaller than the threshold Th), the process proceeds to step S388.

ステップS387では、画像解析部111は、端部領域Z4e2及び端部領域Z5e1を連続する文字領域であると判定する。一方、ステップS388では、画像解析部111は、端部領域Z4e2及び端部領域Z5e1をイメージ領域であると判定する。   In step S387, the image analysis unit 111 determines that the end area Z4e2 and the end area Z5e1 are continuous character areas. On the other hand, in step S388, the image analysis unit 111 determines that the end area Z4e2 and the end area Z5e1 are image areas.

ステップS384では、画像解析部111は、判定対象となる各領域が中間領域であると判定する。このように、画像解析部111は、たとえば参照ウィンドウW1,W2,W8,W9(図4参照)のように、判定対象となる各領域が中間領域(エッジ画素不存在)である場合には、処理をステップS385cに進める。   In step S384, the image analysis unit 111 determines that each area to be determined is an intermediate area. As described above, when the image analysis unit 111 determines that each area to be determined is an intermediate area (no edge pixel is present), as in the reference windows W1, W2, W8, and W9 (see FIG. 4), for example. The process then proceeds to step S385c.

ステップS385cでは、画像解析部111は、両隣接領域の画素値の彩度が閾値Th未満であるか否かを判断する。両隣接領域とは、中間領域の両端の端部画素に隣接し、隣接する参照ウィンドウ(あるいは連続して隣接する複数の参照ウィンドウ)に渡ってエッジ画素(または画像Mの端部画素)まで隣接する複数の画素群から構成される領域である。   In step S385c, the image analysis unit 111 determines whether the saturation of the pixel values in both adjacent regions is less than the threshold Th. The two adjacent areas are adjacent to the end pixels at both ends of the intermediate area, and are adjacent to the edge pixels (or the end pixels of the image M) across the adjacent reference windows (or plural adjacent reference windows). Region composed of a plurality of pixel groups.

具体的には、参照ウィンドウW8内の中間領域については、両隣接領域は、参照ウィンドウW8の端部画素から参照ウィンドウW7のエッジ画素C71までの画素群、及び参照ウィンドウW8の端部画素から参照ウィンドウW10のエッジ画素C10までの画素群となる。   Specifically, for the intermediate region in the reference window W8, both adjacent regions are referenced from the pixel group from the end pixel of the reference window W8 to the edge pixel C71 of the reference window W7 and the end pixel of the reference window W8 It is a pixel group up to the edge pixel C10 of the window W10.

ステップS386bでは、画像解析部111は、両隣接領域の画素値の彩度が閾値Th未満であるか否かを判断する。画像解析部111は、両隣接領域の画素値の彩度が閾値Th未満であると判断した場合には、処理をステップS387に進め、両隣接領域の少なくとも一方の画素値の彩度が閾値Th未満でないと判断した場合には、処理をステップS388に進める。   In step S386b, the image analysis unit 111 determines whether the saturation of the pixel values of both adjacent regions is less than the threshold Th. If the image analysis unit 111 determines that the saturation of the pixel values of both adjacent regions is less than the threshold Th, the process proceeds to step S 387, and the saturation of at least one pixel value of both adjacent regions is the threshold Th If it is determined not, the process proceeds to step S388.

ステップS387では、画像解析部111は、エッジ画素C71からエッジ画素C10までの画素群として構成される中間領域及び両隣接領域を文字領域であると判定する。一方、ステップS388では、画像解析部111は、中間領域及び両隣接領域をイメージ領域であると判定する。   In step S387, the image analysis unit 111 determines that the intermediate region and both adjacent regions configured as a pixel group from the edge pixel C71 to the edge pixel C10 are character regions. On the other hand, in step S388, the image analysis unit 111 determines that the intermediate region and both adjacent regions are image regions.

画像解析部111は、参照ウィンドウをシフトしつつ、たとえば主走査方向(たとえば参照ウィンドウW1から参照ウィンドウW2にシフト)及び副走査方向にシフトしつつ、画像Mの最終画素まで解析し、画像属性の判定(ステップS310〜S380)を参照ウィンドウ毎に繰り返して実行する(ステップS390)。   The image analysis unit 111 analyzes up to the final pixel of the image M while shifting the reference window, for example while shifting in the main scanning direction (for example, shifting from the reference window W1 to the reference window W2) and the subscanning direction. The determination (steps S310 to S380) is repeatedly performed for each reference window (step S390).

この際、画像解析部111は、隣接領域や両隣接領域の画素値を判定に利用可能となるようにバッファ領域をメモリ(図示略)内に確保し、判定処理の完了に応じて順次開放することができる。これにより、画像解析部111は、効率的なメモリの使用を実現することができる。画像解析部111は、画像Mの全ての画素に対して処理が完了すると、処理をステップS400に進める(図2参照)。   At this time, the image analysis unit 111 secures a buffer area in a memory (not shown) so that the pixel values of adjacent areas or both adjacent areas can be used for determination, and sequentially releases them when the determination process is completed. be able to. Thereby, the image analysis unit 111 can realize efficient use of the memory. When the process is completed on all the pixels of the image M, the image analysis unit 111 advances the process to step S400 (see FIG. 2).

ステップS400では、画像解析部111は、画像Mの各領域が文字領域であるか否かを判断し、文字領域に対しては処理をステップS500に進め、イメージ領域に対しては処理をステップS600に進める。   In step S400, the image analysis unit 111 determines whether each area of the image M is a text area, advances the process to step S500 for the text area, and step S600 for the image area. Advance to

ステップS500では、画像処理部112は、文字領域に対して文字領域用の画像処理を実行し、Kの色材の濃度を表す階調データを生成する。文字領域用の画像処理は、Kの色材で再現するための色変換処理を含んでいる。ステップS600では、画像処理部112は、イメージ領域に対してイメージ領域用の画像処理を実行し、CMY又はCMYKの色材の濃度を表す階調データを生成する。イメージ領域用の画像処理は、CMY又はCMYKの色材で再現するための色変換処理を含んでいる。   In step S500, the image processing unit 112 executes image processing for the text area on the text area, and generates gradation data representing the density of the K color material. The image processing for the character area includes color conversion processing for reproducing with the K color material. In step S600, the image processing unit 112 executes image processing for the image area on the image area, and generates gradation data representing the density of the CMY or CMYK color material. Image processing for the image area includes color conversion processing for reproduction with a CMY or CMYK color material.

ステップS700では、画像形成部130は、CMYKの階調データに基づいて印刷媒体上に画像を形成する。CMYKの階調データは、ハーフトーン処理によってCMYKの階調データから生成される。   In step S700, the image forming unit 130 forms an image on the print medium based on the CMYK gradation data. The CMYK tone data is generated from the CMYK tone data by halftone processing.

このように、一実施形態に係る画像形成装置100によれば、簡易な構成において太文字を高い信頼性で検出する技術を提供する。これにより、画像形成装置100は、いわゆる縁取り現象を抑制するとともに、太文字をくっきりと再現する一方、自然画等のイメージ画像のグラデーションを正確に再現することができる。   As described above, according to the image forming apparatus 100 according to the embodiment, a technology for detecting bold characters with high reliability with a simple configuration is provided. As a result, the image forming apparatus 100 can accurately reproduce the gradation of an image such as a natural image while suppressing the so-called border phenomenon and clearly reproducing bold characters.

C.変形例:
本発明は、上記各実施形態だけでなく、以下のような変形例でも実施することができる。
C. Modification:
The present invention can be implemented not only in the above-described embodiments but also in the following modifications.

変形例1:上記実施形態では、文字領域であると判定するための所定の条件として、エッジ画素に挟まれる領域の彩度が低い場合に、文字領域と判定されているが、たとえばエッジの方向を特定して判定に利用するようにしてもよい。エッジの方向とは、エッジを境とする画素値の変化の方向である。具体的には、エッジの方向には、白から黒(輝度値の低下方向)と黒から白(輝度値の上昇方向)とがある。すなわち、文字領域は、輝度が低下する方向においてエッジ画素に挟まれる領域に存在することになる。   Modification 1: In the above embodiment, as a predetermined condition for determining that the character area is a character area, when the saturation of the area between the edge pixels is low, for example, the direction of the edge is determined. May be specified and used for determination. The direction of the edge is the direction of the change of the pixel value bordering on the edge. Specifically, in the direction of the edge, there are white to black (the decrease direction of the brightness value) and black to white (the increase direction of the brightness value). That is, the character area is present in an area sandwiched by edge pixels in the direction in which the luminance decreases.

換言すれば、文字領域は、黒文字が想定されているので、輝度値の低下方向を有するエッジ画素と輝度値の上昇方向を有するエッジ画素とに挟まれている領域は、文字領域と認定することができる。さらに、輝度値の低下方向を有するエッジ画素と端部画素との間の領域も隣接する参照ウィンドウ内の画素とともに文字領域を構成することがある。このような方法は、彩度を使用する判定方法と組み合わせることも可能である。   In other words, since the character area is assumed to be a black character, the area sandwiched between the edge pixel having the decreasing direction of the luminance value and the edge pixel having the increasing direction of the luminance value is regarded as the character area. Can. Furthermore, an area between an edge pixel and an end pixel having a decreasing direction of the luminance value may form a character area together with the pixels in the adjacent reference window. Such a method can also be combined with a determination method using saturation.

たとえば参照ウィンドウWLには、2つの端部領域ZLe1,ZLe2と、3つのエッジ画素間領域ZLm1,ZLm2,ZLm3がある(図4及び図6(d)参照)。この場合、画像解析部は、エッジ画素CL1(輝度値の低下方向)とエッジ画素CL2(輝度値の上昇方向)との間のエッジ画素間領域ZLm1と、エッジ画素CL3(輝度値の低下方向)とエッジ画素CL4(輝度値の上昇方向)との間のエッジ画素間領域ZLm3が文字領域であることをエッジの方向に基づいて簡易に判定することができる。   For example, in the reference window WL, there are two end areas ZLe1 and ZLe2 and three edge inter-pixel areas ZLm1, ZLm2 and ZLm3 (see FIGS. 4 and 6D). In this case, the image analysis unit divides the edge interpixel region ZLm1 between the edge pixel CL1 (the decrease direction of the brightness value) and the edge pixel CL2 (the increase direction of the brightness value) and the edge pixel CL3 (the decrease direction of the brightness value) It can be easily determined based on the direction of the edge that the inter-edge pixel area ZLm3 between the pixel and the edge pixel CL4 (the direction in which the luminance value increases) is a character area.

変形例2:上記実施形態では、本発明は、黒文字を表す文字領域に適用されているが、必ずしも黒文字に限定されない。本発明は、黒文字や黒色の線画を含む線画領域を想定してもよい。これにより、画像形成装置は、いわゆる縁取り現象を抑制するとともに、線画領域をくっきりと再現することができる。さらに、本発明は、参照ウィンドウのサイズを調整することによって、様々な大きさの文字や線画に適した処理を可能とする設計自由度やパラメータ調整(あるいはパラメータ調整用ユーザーインターフェース)を提供することもできる。   Variation 2: In the above embodiment, the present invention is applied to a character area representing black characters, but the present invention is not necessarily limited to black characters. The present invention may assume a line drawing area including black characters and black line drawings. Thus, the image forming apparatus can suppress the so-called border phenomenon and can reproduce the line drawing area clearly. Furthermore, the present invention provides design freedom and parameter adjustment (or user interface for parameter adjustment) that enables processing suitable for characters and line drawings of various sizes by adjusting the size of the reference window. You can also.

変形例3:上記実施形態では、画像処理部112は、線画領域に対して線画領域用の画像処理(第1の画像処理とも呼ばれる。)を実行し、Kの色材の濃度を表す階調データを生成し、イメージ領域に対してイメージ領域用の画像処理を実行している。しかしながら、このような画像処理に限定されず、線画領域用の画像処理として、線画領域用のフィルタ処理、色変換処理、UCR処理及び階調補正処理の少なくとも1つがイメージ領域を含む線画領域以外の他の領域用の処理(第2の画像処理とも呼ばれる。)と相違するものであればよい。   Modification 3: In the above embodiment, the image processing unit 112 executes image processing (also referred to as first image processing) for the line drawing area on the line drawing area, and indicates the gradation representing the density of the K color material. Data is generated and image processing for the image area is performed on the image area. However, the present invention is not limited to such image processing, and as the image processing for the line drawing area, at least one of filter processing for the line drawing area, color conversion processing, UCR processing and gradation correction processing is other than the line drawing area including the image area. It may be different from the processing for another area (also referred to as second image processing).

変形例4:上記実施形態では、本発明は、画像形成装置に適用されているが、画像処理装置に適用してもよい。   Modification 4: In the above embodiment, the present invention is applied to an image forming apparatus, but may be applied to an image processing apparatus.

100 画像形成装置
110 制御部
111 画像解析部
112 画像処理部
120 画像読取部
130 画像形成部
140 記憶部
160 自動原稿送り装置(ADF)
170 操作表示部
100 image forming apparatus 110 control unit 111 image analysis unit 112 image processing unit 120 image reading unit 130 image forming unit 140 storage unit 160 automatic document feeder (ADF)
170 Operation Display

Claims (8)

画像データを取得する画像データ取得部と、
前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析部と、
前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理部と、
を備える画像処理装置。
An image data acquisition unit that acquires image data;
A plurality of pixels constituting the image data are analyzed for each reference window, an edge pixel is detected from among the plurality of pixels in the reference window, and a line drawing candidate region sandwiched by the edge pixels is a predetermined condition An image analysis unit that determines an area to be satisfied as a line drawing area;
Image processing including the first image processing applied to the line drawing area and the second image processing different from the first image processing applied to the area other than the line drawing area on the image data An image processing unit to execute
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記画像解析部は、前記所定の条件として、前記線画候補領域を構成する画素の彩度が予め設定されている閾値未満の場合に、前記線画候補領域を前記線画領域として判定する画像処理装置。
The image processing apparatus according to claim 1,
The image processing device, wherein the image analysis unit determines the line drawing candidate area as the line drawing area when the saturation of the pixels forming the line drawing candidate area is less than a preset threshold as the predetermined condition.
請求項1又は2に記載の画像処理装置であって、
前記画像解析部は、前記参照ウィンドウにおいて、前記エッジ画素が単独で検出された場合には、前記エッジ画素と、前記参照ウィンドウに隣接する他の参照ウィンドウにおいて検出されたエッジ画素である隣接エッジ画素とに挟まれる領域を前記線画候補領域として抽出する画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein
The image analysis unit, when the edge pixel is detected alone in the reference window, the edge pixel and an adjacent edge pixel which is an edge pixel detected in another reference window adjacent to the reference window An image processing apparatus for extracting an area sandwiched between the lines as the line drawing candidate area.
請求項1乃至3のいずれか1項に記載の画像処理装置であって、
前記画像解析部は、前記参照ウィンドウにおいて、前記参照ウィンドウが参照する端部の画素である端部画素と、前記エッジ画素とに挟まれる領域である端部領域を抽出し、前記端部画素に隣接する画素である隣接画素を参照する他の参照ウィンドウにおいて検出されたエッジ画素である隣接エッジ画素と前記隣接画素とに挟まれる領域である隣接領域を抽出し、前記端部領域と前記隣接領域の双方が前記所定の条件を満たす場合に、前記端部領域と前記隣接領域とを前記線画領域として判定する画像処理装置。
The image processing apparatus according to any one of claims 1 to 3, wherein
The image analysis unit extracts, in the reference window, an end area which is an area sandwiched between an end pixel which is an end pixel to which the reference window refers and an edge pixel, and An adjacent area is extracted which is an area between an adjacent edge pixel which is an edge pixel detected in another reference window referring to an adjacent pixel which is an adjacent pixel and the adjacent pixel, and the end area and the adjacent area are extracted. The image processing apparatus determines the end area and the adjacent area as the line drawing area when both of the above conditions satisfy the predetermined condition.
請求項1乃至4のいずれか1項に記載の画像処理装置であって、
前記画像解析部は、前記エッジ画素の検出の際に、輝度が変化する方向を特定し、前記輝度が低下する方向において前記エッジ画素に挟まれる領域を前記線画領域として判定する画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, wherein
The image processing unit, when detecting the edge pixel, identifies a direction in which the luminance changes, and determines an area sandwiched between the edge pixels in the direction in which the luminance decreases as the line drawing area.
請求項1乃至5のいずれか1項に記載の画像処理装置と、
CMYKの色材を使用して画像を形成する画像形成部と、
を備え、
前記画像処理部は、前記線画領域に適用され、Kの色材を使用して画像を形成するための前記第1の画像処理と、前記線画領域以外の領域に適用され、CMYKの色材を使用して画像を形成するための前記第2の画像処理とを含む画像処理を前記画像データに対して実行する画像形成装置。
An image processing apparatus according to any one of claims 1 to 5,
An image forming unit that forms an image using a CMYK color material;
Equipped with
The image processing unit is applied to the line drawing area, the first image processing for forming an image using a K color material, and is applied to an area other than the line drawing area, and the CMYK color material is applied. An image forming apparatus that executes image processing on the image data, including the second image processing to form an image using the image processing.
画像データを取得する画像データ取得工程と、
前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析工程と、
前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理工程と、
を備える画像処理方法。
An image data acquisition step of acquiring image data;
A plurality of pixels constituting the image data are analyzed for each reference window, an edge pixel is detected from among the plurality of pixels in the reference window, and a line drawing candidate region sandwiched by the edge pixels is a predetermined condition An image analysis step of determining a filled area as a line drawing area;
Image processing including the first image processing applied to the line drawing area and the second image processing different from the first image processing applied to the area other than the line drawing area on the image data An image processing process to be performed;
An image processing method comprising:
画像処理装置を制御する画像処理プログラムであって、
画像データを取得する画像データ取得部、
前記画像データを構成する複数の画素を参照ウィンドウ毎に解析し、前記参照ウィンドウ内の複数の画素の中からエッジ画素を検出し、前記エッジ画素に挟まれる線画候補領域であって所定の条件を満たす領域を線画領域として判定する画像解析部、及び
前記線画領域に適用される第1の画像処理と、前記線画領域以外の領域に適用される前記第1の画像処理と相違する第2の画像処理とを含む画像処理を前記画像データに対して実行する画像処理部として前記画像処理装置を機能させる画像処理プログラム。
An image processing program for controlling an image processing apparatus, comprising:
Image data acquisition unit for acquiring image data,
A plurality of pixels constituting the image data are analyzed for each reference window, an edge pixel is detected from among the plurality of pixels in the reference window, and a line drawing candidate region sandwiched by the edge pixels is a predetermined condition An image analysis unit that determines a filled area as a line drawing area; a first image processing applied to the line drawing area; and a second image different from the first image processing applied to an area other than the line drawing area An image processing program that causes the image processing apparatus to function as an image processing unit that executes image processing including processing on the image data.
JP2017221370A 2017-11-16 2017-11-16 Image processing apparatus, image forming apparatus, image processing method, and image processing program Pending JP2019092127A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017221370A JP2019092127A (en) 2017-11-16 2017-11-16 Image processing apparatus, image forming apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017221370A JP2019092127A (en) 2017-11-16 2017-11-16 Image processing apparatus, image forming apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2019092127A true JP2019092127A (en) 2019-06-13

Family

ID=66836739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017221370A Pending JP2019092127A (en) 2017-11-16 2017-11-16 Image processing apparatus, image forming apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2019092127A (en)

Similar Documents

Publication Publication Date Title
JP4491129B2 (en) Color gamut mapping method and apparatus using local area information
JP4189467B2 (en) Image processing device
KR101223865B1 (en) Image processing apparatus and control method of image processing apparatus
US8995024B2 (en) Image processing apparatus, image processing method, and program
US10515453B2 (en) Image processing apparatus, image processing method, and storage medium for performing an edge correction processing based on color variations
JP4498233B2 (en) Image processing apparatus and image processing method
JP2008011267A (en) Image processor, image processing method, image processing program, and memory medium
US10194050B2 (en) Image processing apparatus, image processing method, and storage medium in which background removal is performed to remove a background included in an input image based on pixel values
JP7367159B2 (en) Image processing device, image processing method, and program
KR20120019641A (en) Image forming apparatus and method for processing image thereof
JP4853560B2 (en) Image processing method, image processing apparatus, and computer program
JP2019092127A (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US20170366707A1 (en) Image Processing Apparatus and Image Processing Method That Ensure Improved Visibility of Character After Conversion into Monochrome Image Data, and Recording Medium Therefor
US10140731B2 (en) Image processing apparatus, image processing method, and storage medium
JP6852618B2 (en) Computer programs and image processing equipment
JP2006109482A (en) Image processing method, image processing apparatus and image processing program
JP2006270655A (en) Apparatus and method for image processing
JP6834701B2 (en) Image processing equipment and computer programs
JP2013202927A (en) Image forming method and image forming apparatus
JP6794901B2 (en) Image processing equipment and computer programs
JP6694165B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4305274B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program
JP4165599B2 (en) Image processing device
JP2008271364A (en) Image processor and image processing method
JP2011239090A (en) Image processing apparatus, conversion method, and computer program