JP2009105541A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2009105541A
JP2009105541A JP2007273810A JP2007273810A JP2009105541A JP 2009105541 A JP2009105541 A JP 2009105541A JP 2007273810 A JP2007273810 A JP 2007273810A JP 2007273810 A JP2007273810 A JP 2007273810A JP 2009105541 A JP2009105541 A JP 2009105541A
Authority
JP
Japan
Prior art keywords
area
character string
region
image
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007273810A
Other languages
Japanese (ja)
Inventor
Takashi Hiuga
崇 日向
Masaki Hayashi
林  正樹
Nobuhiro Karido
信宏 狩戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007273810A priority Critical patent/JP2009105541A/en
Publication of JP2009105541A publication Critical patent/JP2009105541A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique that can appropriately handle characters in various types of images. <P>SOLUTION: A dot area representing a dot image and a character string area, representing a character string and different from the dot area are detected in an object image, and the character string area in the object image is enlarged. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、方法、および、プログラムに関するものである。   The present invention relates to an image processing apparatus, a method, and a program.

従来より、画像中の文字を扱う技術が知られている。例えば、文字要素を1文字ずつ分類して拡大する技術が知られている。   Conventionally, techniques for handling characters in an image are known. For example, a technique for classifying and expanding character elements character by character is known.

特開平11−25283号公報Japanese Patent Laid-Open No. 11-25283

ところで、画像には、文字やイラストや写真等のように様々な種類の対象を表すものがある。ところが、従来は、このような種々の画像において適切に文字を扱うことに関しては十分な工夫がなされていないのが実情であった。   By the way, there are images representing various types of objects such as characters, illustrations, and photographs. However, in the past, the actual situation is that no sufficient contrivance has been made to handle characters appropriately in such various images.

本発明は、上記の課題の少なくとも一部を解決するためになされたものであり、種々の画像において適切に文字を扱うことができる技術を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is to provide a technique capable of appropriately handling characters in various images.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]対象画像を表す対象画像データを処理する画像処理装置であって、前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する領域分類部と、前記対象画像中の前記文字列領域を拡大する画像処理部と、を備える、画像処理装置。 Application Example 1 An image processing apparatus for processing target image data representing a target image, wherein a halftone dot region representing a halftone dot image and a character representing a character string that is different from the halftone dot region from the target image An image processing apparatus comprising: a region classification unit that detects a row region; and an image processing unit that enlarges the character string region in the target image.

この構成によれば、網点領域と、網点領域とは異なる文字列領域とが検出され、文字列領域が拡大されるので、種々の画像において適切に文字を扱うことができる。   According to this configuration, a halftone dot region and a character string region different from the halftone dot region are detected and the character string region is enlarged, so that characters can be handled appropriately in various images.

[適用例2]適用例1に記載の画像処理装置であって、前記領域分類部は、前記網点画像が文字を含むか否かに拘わらず、前記網点画像を表す領域を前記網点領域として検出する、画像処理装置。 [Application Example 2] The image processing apparatus according to Application Example 1, wherein the area classifying unit applies an area representing the halftone dot image to the halftone dot regardless of whether the halftone dot image includes characters. An image processing apparatus that detects an area.

この構成によれば、網点画像が文字を含むか否かに拘わらず、文字列拡大の影響によって網点領域が過剰に変形することを抑制できる。   According to this configuration, it is possible to prevent the halftone dot region from being excessively deformed due to the influence of the character string expansion regardless of whether or not the halftone dot image includes characters.

[適用例3]適用例1または適用例2に記載の画像処理装置であって、前記領域分類部は、余白領域を検出し、前記画像処理部は、前記文字列領域を、前記文字列領域に隣接する前記余白領域内で拡大する、画像処理装置。 Application Example 3 In the image processing apparatus according to Application Example 1 or Application Example 2, the area classification unit detects a blank area, and the image processing unit uses the character string area as the character string area. An image processing apparatus that enlarges within the margin area adjacent to the image processing apparatus.

この構成によれば、文字列領域が、文字列領域に隣接する余白領域内で拡大されるので、画像のレイアウトが過剰に崩れることを抑制できる。   According to this configuration, since the character string area is enlarged in the blank area adjacent to the character string area, it is possible to suppress the image layout from being excessively collapsed.

[適用例4]適用例1ないし適用例3のいずれかに記載の画像処理装置であって、前記領域分類部は、前記対象画像データに含まれる複数の画素の中から文字を表す文字画素を検出し、離れて配置された文字画素間を連結することによって得られる連結領域を含む領域を前記文字列領域として検出する、画像処理装置。 Application Example 4 In the image processing device according to any one of Application Examples 1 to 3, the region classification unit selects a character pixel representing a character from a plurality of pixels included in the target image data. An image processing apparatus that detects a region including a connected region obtained by detecting and connecting character pixels arranged apart from each other as the character string region.

この構成によれば、文字画素の連結によって文字列領域が検出されるので、文字列領域を検出する処理の負荷を軽減できる。   According to this configuration, since the character string area is detected by connecting the character pixels, the processing load for detecting the character string area can be reduced.

[適用例5]適用例4に記載の画像処理装置であって、前記領域分類部は、所定の方向に沿って前記文字画素を連結する異方性連結によって前記連結領域を得る、画像処理装置。 Application Example 5 The image processing apparatus according to Application Example 4, wherein the region classification unit obtains the connected region by anisotropic connection that connects the character pixels along a predetermined direction. .

この構成によれば、文字列領域を適切に検出することができる。   According to this configuration, the character string region can be detected appropriately.

[適用例6]適用例5に記載の画像処理装置であって、前記領域分類部は、前記所定の方向が互いに異なるN種類(Nは2以上の整数)の異方性連結のそれぞれの結果に関して、前記文字画素が連結した領域の前記所定方向に沿った長さの代表値を決定し、前記代表値が最も長い前記異方性連結に従って前記文字列領域を検出する、画像処理装置。 [Application Example 6] The image processing apparatus according to Application Example 5, wherein the region classification unit is a result of each of N types (N is an integer of 2 or more) of anisotropic connections in which the predetermined directions are different from each other. An image processing apparatus that determines a representative value of a length along the predetermined direction of an area where the character pixels are connected, and detects the character string area according to the anisotropic connection having the longest representative value.

この構成によれば、種々の対象画像に関して、適切に文字列領域を検出することができる。   According to this configuration, it is possible to appropriately detect the character string region with respect to various target images.

[適用例7]対象画像を表す対象画像データを処理する画像処理方法であって、前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する工程と、前記対象画像中の前記文字列領域を拡大する工程と、を有する画像処理方法。 Application Example 7 An image processing method for processing target image data representing a target image, wherein a halftone dot region representing a halftone dot image is different from the halftone dot region and a character representing a character string from the target image An image processing method comprising: detecting a row region; and enlarging the character string region in the target image.

[適用例8]対象画像を表す対象画像データを処理するためのコンピュータプログラムであって、前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する機能と、前記対象画像中の前記文字列領域を拡大する機能と、をコンピュータに実現させるコンピュータプログラム。 Application Example 8 A computer program for processing target image data representing a target image, wherein a halftone dot region representing a halftone dot image is different from the halftone dot region and represents a character string from the target image A computer program that causes a computer to realize a function of detecting a character string region and a function of expanding the character string region in the target image.

[適用例9]適用例2に記載の画像処理装置であって、前記画像処理部は、前記網点領域を拡大せずに前記文字列領域を拡大する、画像処理装置。 [Application Example 9] The image processing apparatus according to Application Example 2, wherein the image processing unit enlarges the character string area without enlarging the halftone dot area.

この構成によれば、網点領域が拡大されないので、対象画像のレイアウトが過剰に崩れることを抑制できる。   According to this configuration, since the halftone dot region is not enlarged, the layout of the target image can be prevented from being excessively collapsed.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image processing method and apparatus, a computer program for realizing the function of the method or apparatus, a recording medium on which the computer program is recorded, Or the like.

次に、この発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
B.文字列領域拡大の変形例:
C.文字列検出の変形例:
D.画素分類処理の実施例:
E.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
B. Modified examples of character string area expansion:
C. Variations on string detection:
D. Example of pixel classification processing:
E. Variations:

A.第1実施例:
本発明の実施例について説明する。
A−1.プリンタ10の概略構成:
図1は、本願の画像処理装置の実施例としてのプリンタ10の概略構成を示す説明図である。プリンタ10は、印刷機能の他に、スキャナ機能、コピー機能を備えた、いわゆる複合機プリンタである。プリンタ10は、制御ユニット20、キャリッジ移動機構60、キャリッジ70、紙送り機構80、スキャナ91、操作パネル96を備えている。
A. First embodiment:
Examples of the present invention will be described.
A-1. General configuration of the printer 10:
FIG. 1 is an explanatory diagram showing a schematic configuration of a printer 10 as an embodiment of the image processing apparatus of the present application. The printer 10 is a so-called multifunction printer having a scanner function and a copy function in addition to a print function. The printer 10 includes a control unit 20, a carriage moving mechanism 60, a carriage 70, a paper feed mechanism 80, a scanner 91, and an operation panel 96.

キャリッジ移動機構60は、キャリッジモータ62、駆動ベルト64、摺動軸66を備えており、摺動軸66に移動自在に保持されたキャリッジ70を、主走査方向に駆動させる。キャリッジ70は、インクヘッド71とインクカートリッジ72とを備えており、インクカートリッジ72からインクヘッド71に供給されたインクを、印刷用紙Pに吐出する。紙送り機構80は、紙送りローラ82、紙送りモータ84、プラテン86を備えており、紙送りモータ84が紙送りローラ82を回転させることで、プラテン86の上面に沿って印刷用紙Pを搬送する。スキャナ91は、光学的に画像を読み込むイメージスキャナであり、本実施例においては、CCD(Charge Coupled Devices)方式を用いたが、CIS(Contact Image Sensor)方式など種々の方式を用いることができる。   The carriage moving mechanism 60 includes a carriage motor 62, a drive belt 64, and a sliding shaft 66, and drives a carriage 70 that is movably held on the sliding shaft 66 in the main scanning direction. The carriage 70 includes an ink head 71 and an ink cartridge 72, and discharges ink supplied from the ink cartridge 72 to the ink head 71 onto the printing paper P. The paper feed mechanism 80 includes a paper feed roller 82, a paper feed motor 84, and a platen 86. The paper feed motor 84 rotates the paper feed roller 82 to convey the printing paper P along the upper surface of the platen 86. To do. The scanner 91 is an image scanner that optically reads an image. In this embodiment, the CCD (Charge Coupled Devices) method is used, but various methods such as a CIS (Contact Image Sensor) method can be used.

上述した各機構は、制御ユニット20により制御される。制御ユニット20は、CPU30、RAM40、ROM50を備えるマイクロコンピュータとして構成されており、ROM50に記憶されたプログラムをRAM40に展開して実行することで、上述の各機構の制御のほか、図1に示す機能部として機能する。これらの機能部の詳細については、後述する。   Each mechanism described above is controlled by the control unit 20. The control unit 20 is configured as a microcomputer including a CPU 30, a RAM 40, and a ROM 50. The program stored in the ROM 50 is expanded and executed on the RAM 40, thereby performing control of each mechanism described above, as shown in FIG. Functions as a functional unit. Details of these functional units will be described later.

以上のような構成を有するプリンタ10は、スキャナ91によって読み取った画像を、印刷用紙Pに印刷することで、コピー機として機能する。なお、上述の印刷機構は、インクジェット式に限らず、レーザ式、熱転写式など、種々の印刷方式を用いることができる。   The printer 10 having the above configuration functions as a copier by printing an image read by the scanner 91 on the printing paper P. The above printing mechanism is not limited to the ink jet type, and various printing methods such as a laser type and a thermal transfer type can be used.

A−2.画像複製処理:
プリンタ10を用いて所定の画像のコピーを行う画像複製処理の流れを示すフローチャートを図2に示す。また、図3は、この画像複製処理を示す概略図である。この処理は、ユーザが、コピーの対象とする画像(例えば、印刷物等の原稿)をプリンタ10にセットし、操作パネル96を用いてコピーの指示操作を行うことにより開始される。この処理が開始されると、CPU30は、画像入力処理として、スキャナ91を用いて、結像された光学像を電気信号に変換する(ステップS100)。そして、画像変換処理として、得られたアナログ信号をAD変換回路でデジタル信号に変換し、更に、画像全体が一様な明るさとなるようにシェーディング補正を行う(ステップS110)。
A-2. Image duplication processing:
FIG. 2 is a flowchart showing the flow of image duplication processing for copying a predetermined image using the printer 10. FIG. 3 is a schematic diagram showing this image duplication processing. This process is started when the user sets an image to be copied (for example, a document such as a printed material) on the printer 10 and performs a copy instruction operation using the operation panel 96. When this process is started, the CPU 30 converts the formed optical image into an electrical signal using the scanner 91 as an image input process (step S100). Then, as an image conversion process, the obtained analog signal is converted into a digital signal by an AD conversion circuit, and further shading correction is performed so that the entire image has uniform brightness (step S110).

次のステップS122では、CPU30は、得られた画像データ(「対象画像データSI」とも呼ぶ)に対して、領域の分類を行う(ステップS122)。この処理では、対象画像データSIによって表される対象画像SIIの全体が、網点部分を表す網点領域と、文字列を表す文字列領域と、余白を表す余白領域とに分類される。図3の分類画像DAIは、対象画像SIIに対する領域分類処理の結果を表している。対象画像SIIは、水平方向(x方向)に延びる5つの文字列CS1〜CS5と、絵部分PBとを表している。絵部分PBは、文字CSPと写真とを重ね合わせた画像を表している。コピー対象である元画像(例えば、原稿)では、この絵部分PBは網点によって表されていることとする。   In the next step S122, the CPU 30 performs region classification on the obtained image data (also referred to as “target image data SI”) (step S122). In this process, the entire target image SII represented by the target image data SI is classified into a halftone dot area representing a halftone dot portion, a character string area representing a character string, and a blank area representing a margin. The classification image DAI in FIG. 3 represents the result of the area classification processing for the target image SII. The target image SII represents five character strings CS1 to CS5 extending in the horizontal direction (x direction) and a picture portion PB. The picture portion PB represents an image obtained by superimposing the character CSP and a photograph. In the original image (for example, a document) to be copied, this picture portion PB is represented by a halftone dot.

分類画像DAIが示すように、対象画像SIIは、5つの文字列領域CA1〜CA5と、1つの網点領域DAと、1つの余白領域BAとに分類されている。5つの文字列領域CA1〜CA5は、5つの文字列CS1〜CS5を、それぞれ表している。網点領域DAは、網点で表された絵部分PBを表している。余白領域BAは、残りの部分を表している。なお、領域分類処理の詳細については、後述する。   As indicated by the classified image DAI, the target image SII is classified into five character string areas CA1 to CA5, one halftone dot area DA, and one blank area BA. Five character string areas CA1 to CA5 represent five character strings CS1 to CS5, respectively. A halftone dot area DA represents a picture portion PB represented by a halftone dot. The margin area BA represents the remaining part. Details of the area classification process will be described later.

次のステップS132では、CPU30は、文字列領域を拡大した拡大画像を生成する。この処理では、文字列領域が拡大される。図3の拡大領域画像EAIでは、分類画像DAI中の5つの文字列領域CA1〜CA5が、5つの拡大文字列領域ECA1〜ECA5に、それぞれ置換されている。そして、対象画像SII中の文字列領域が表す画像が、拡大文字列領域と一致するように拡大される。図3の拡大画像PIでは、対象画像データSI中の5つの文字列CS1〜CS5が、5つの拡大文字列ECS1〜ECS5に、それぞれ置換されている。このような拡大画像PIは、対象画像SIIと、拡大された文字列画像とを合成することによって生成される。拡大画像PIを生成する処理(「画像合成処理」とも呼ぶ)の詳細については、後述する。   In the next step S132, the CPU 30 generates an enlarged image in which the character string area is enlarged. In this process, the character string area is enlarged. In the enlarged area image EAI of FIG. 3, the five character string areas CA1 to CA5 in the classified image DAI are replaced with five enlarged character string areas ECA1 to ECA5, respectively. Then, the image represented by the character string region in the target image SII is enlarged so as to coincide with the enlarged character string region. In the enlarged image PI of FIG. 3, the five character strings CS1 to CS5 in the target image data SI are respectively replaced with the five enlarged character strings ECS1 to ECS5. Such an enlarged image PI is generated by synthesizing the target image SII and the enlarged character string image. Details of the process of generating the enlarged image PI (also referred to as “image composition process”) will be described later.

画像合成処理を行うと、CPU30は、出力時に色合い等が再現できるように、ガンマ補正や、入力画像と出力画像の色情報の誤差を小さくする色補正などの全体補正処理を行い(ステップS140)、印刷制御部35の処理として、キャリッジ移動機構60、キャリッジ70、紙送り機構80等を駆動させて、画像を印刷用紙P上に出力する(ステップS150)。このようにして、画像の複製処理は完了する。   When the image composition processing is performed, the CPU 30 performs overall correction processing such as gamma correction and color correction that reduces the error in color information between the input image and the output image so that the color tone and the like can be reproduced during output (step S140). As the processing of the print control unit 35, the carriage moving mechanism 60, the carriage 70, the paper feed mechanism 80, etc. are driven to output an image on the print paper P (step S150). In this way, the image duplication process is completed.

領域分類処理:
図4は、図2のステップS122に示す領域分類処理の手順を示すフローチャートである。最初のステップS700では、CPU30は、画像入力部31の処理として、上記ステップS110で得られた画像データ(ここでは、RGBデータ)をRAM40に読み込む。そして、CPU30は、続く各ステップS710〜S750の処理を、領域分類部33の処理として実行する。
Area classification processing:
FIG. 4 is a flowchart showing the procedure of the area classification process shown in step S122 of FIG. In the first step S700, the CPU 30 reads the image data (in this case, RGB data) obtained in step S110 into the RAM 40 as processing of the image input unit 31. And CPU30 performs the process of following step S710-S750 as a process of the area | region classification | category part 33. FIG.

ステップS710では、CPU30は、領域分類部33の処理として、画素毎の判定処理(属性判定処理とも呼ぶ)を行う。ここで、画素の属性は、画素が表す画像領域の種類に関する属性を表している。本実施例では、この処理によって、対象画像SIIを表す複数の画素は、文字を表す文字画素と、網点部分を表す網点画素と、余白を表す余白画素に分類される。なお、後述するように、文字が網点によって表されている場合には、その文字を表す画素は網点画素に分類される。このような画素の分類方法としては、任意の方法を採用可能である。画素分類の実施例の詳細については、後述する。   In step S <b> 710, the CPU 30 performs determination processing for each pixel (also referred to as attribute determination processing) as processing of the region classification unit 33. Here, the attribute of the pixel represents an attribute relating to the type of the image area represented by the pixel. In this embodiment, by this processing, the plurality of pixels representing the target image SII are classified into character pixels representing characters, halftone dots representing halftone dots, and blank pixels representing blanks. As will be described later, when a character is represented by a halftone dot, the pixel representing the character is classified as a halftone pixel. As such a pixel classification method, any method can be adopted. Details of the pixel classification embodiment will be described later.

次のステップS720、S730では、CPU30は、領域分類部33の文字列検出部336の処理として、文字列領域を検出する。まず、CPU30は、図形の拡大(expansion)と縮退(shrinking)とによって文字画素を連結する(S720)。   In the next steps S 720 and S 730, the CPU 30 detects a character string region as a process of the character string detection unit 336 of the region classification unit 33. First, the CPU 30 connects character pixels by expanding and shrinking a graphic (S720).

図5は、図形の拡大と縮退との概略図である。図中には、対象画像データSIが示されている。対象画像データSIは、水平方向(x方向)と垂直方向(y方向)に沿ってマトリクス状に配置された複数の画素pixのそれぞれの階調値を表している。以下、左上の頂点(隅)の画素(「基準画素pix_s」と呼ぶ)を基準に、+x方向と+y方向とのそれぞれの方向に画素pixが並んでいることとする。また、図中では、複数の画素pixが、文字画素と非文字画素(文字画素ではない画素)とに分けて表されている。   FIG. 5 is a schematic diagram of graphic enlargement and reduction. In the figure, target image data SI is shown. The target image data SI represents each gradation value of a plurality of pixels pix arranged in a matrix along the horizontal direction (x direction) and the vertical direction (y direction). Hereinafter, it is assumed that the pixels pix are arranged in the + x direction and the + y direction with reference to the pixel at the top left (corner) (referred to as “reference pixel pix_s”). In the drawing, a plurality of pixels pix are divided into character pixels and non-character pixels (pixels that are not character pixels).

図5の下部には、図形の拡大と縮退の概要が示されている。図形の拡大は、或る注目画素pix_iが「文字画素」である場合に、その注目画素pix_iの周囲の画素の属性を文字画素に設定する処理である。これにより、文字(文字画素の領域)が拡大される。以下、属性が「文字画素」に設定される画素領域を「文字拡大領域」と呼ぶ。図5の例では、注目画素pix_iを中心とする所定の矩形領域が、文字拡大領域として利用される。この矩形領域のx方向の長さは9画素であり、y方向の長さは3画素である。その結果、+x方向と−x方向とのそれぞれの方向に4画素ずつ文字画素の領域が広がり、さらに、+y方向と−y方向とのそれぞれの方向に1画素ずつ文字画素の領域が広がる。このように、図5に示す実施例では、文字がx方向に沿って広く拡大される。なお、図形の拡大では、対象画像データSIの全ての画素に対して上述の矩形領域が適用される。   The lower part of FIG. 5 shows an outline of the enlargement and reduction of the figure. The enlargement of a graphic is a process of setting the attribute of a pixel around the pixel of interest pix_i to a character pixel when the pixel of interest pix_i is a “character pixel”. As a result, the character (character pixel region) is enlarged. Hereinafter, a pixel area whose attribute is set to “character pixel” is referred to as a “character enlargement area”. In the example of FIG. 5, a predetermined rectangular area centered on the target pixel pix_i is used as the character enlargement area. The rectangular region has a length in the x direction of 9 pixels and a length in the y direction of 3 pixels. As a result, the character pixel region expands by four pixels in each of the + x direction and the −x direction, and further, the character pixel region expands by one pixel in each of the + y direction and the −y direction. Thus, in the embodiment shown in FIG. 5, the characters are widened along the x direction. Note that, in the enlargement of the graphic, the above-described rectangular area is applied to all the pixels of the target image data SI.

一方、図形の縮退は、注目画素pix_iが「非文字画素」である場合に、その注目画素pix_iの周囲の画素の属性を「非文字画素」に設定する処理である。これにより、文字(文字画素の領域)が縮退する。以下、属性が「非文字画素」に設定される画素領域を「文字縮退領域」と呼ぶ。図5の例では、文字拡大領域と同じ9×3画素の矩形領域が、文字縮退領域として利用される。その結果、+x方向と−x方向とのそれぞれの方向に4画素ずつ文字画素の領域が縮退し、さらに、+y方向と−y方向とのそれぞれの方向に1画素ずつ文字画素の領域が縮退する。このように、図5に示す実施例では、文字がx方向に沿って強く縮退する。なお、図形の縮退では、対象画像データSIの全ての画素に対して上述の矩形領域が適用される。   On the other hand, the graphic degeneration is a process of setting the attribute of pixels around the target pixel pix_i to “non-character pixel” when the target pixel pix_i is “non-character pixel”. As a result, the character (character pixel region) is degenerated. Hereinafter, a pixel area whose attribute is set to “non-character pixel” is referred to as a “character degenerate area”. In the example of FIG. 5, the same 9 × 3 pixel rectangular area as the character enlargement area is used as the character degeneration area. As a result, the character pixel area is reduced by four pixels in each of the + x direction and the −x direction, and the character pixel area is reduced by one pixel in each of the + y direction and the −y direction. . As described above, in the embodiment shown in FIG. 5, the character is strongly degenerated along the x direction. In the graphic reduction, the above rectangular area is applied to all the pixels of the target image data SI.

図6(A)〜6(C)、図7(A)〜(C)は、図形の拡大と縮退とによる文字画素の連結を示す概略図である。各図は、x方向とy方向とに沿って配置された複数の画素を示している。図中の1つの黒ドットは、1つの文字画素を表している。黒ドットの無い部分は「非文字画素」を表している。   6 (A) to 6 (C) and FIGS. 7 (A) to (C) are schematic diagrams showing the connection of character pixels by enlargement and reduction of a figure. Each figure shows a plurality of pixels arranged along the x and y directions. One black dot in the figure represents one character pixel. A portion without black dots represents a “non-character pixel”.

図6(A)は、図4のステップS710の結果の一例を示している。この例は、x方向に延びる2本の文字列CSa、CSbを表している。本実施例では、CPU30は、図形の拡大を2回繰り返し、続けて、図形の縮退を2回繰り返す。これにより、各画素の属性は、図6(A)、6(B)、6(C)、7(A)、7(B)の順番に変化する。   FIG. 6A shows an example of the result of step S710 in FIG. This example represents two character strings CSa and CSb extending in the x direction. In the present embodiment, the CPU 30 repeats the enlargement of the figure twice, and then repeats the reduction of the figure twice. Thereby, the attribute of each pixel changes in the order of FIGS. 6 (A), 6 (B), 6 (C), 7 (A), and 7 (B).

最初の図形拡大によって、各画素の属性は、図6(A)から図6(B)に変化する。次の図形拡大によって、各画素の属性は、図6(B)から図6(C)に変化する。図形拡大によって文字画素の領域が広がるので、各文字を表す文字画素は、新たに設定された文字画素によって連結される。特に、本実施例では、x方向に沿って広く文字画素の領域が広がる(図5)。その結果、x方向に延びる2本の文字列CSa、CSbのそれぞれにおいて、x方向に沿って文字が連結される。   By the first graphic enlargement, the attribute of each pixel changes from FIG. 6 (A) to FIG. 6 (B). By the next graphic enlargement, the attribute of each pixel changes from FIG. 6 (B) to FIG. 6 (C). Since the area of the character pixel is expanded by the graphic enlargement, the character pixel representing each character is connected by the newly set character pixel. In particular, in this embodiment, the character pixel area is widened along the x direction (FIG. 5). As a result, in each of the two character strings CSa and CSb extending in the x direction, characters are connected along the x direction.

次に、図形縮退によって、各画素の属性は、図6(C)から図7(A)に変化する。次の図形縮退によって、各画素の属性は、図7(A)から図7(B)に変化する。これらの図形縮退によって、過剰に広がった文字画素の領域が縮退する。ただし、文字列中の文字間は文字画素によって埋められているので、文字間の文字画素による連結は維持される。これらの結果、CPU30は、複数の文字の文字画素がx方向に沿って連結した領域を形成する。   Next, the attribute of each pixel changes from FIG. 6C to FIG. The attribute of each pixel changes from FIG. 7 (A) to FIG. 7 (B) by the next graphic reduction. Due to these graphic reductions, the excessively expanded character pixel region is reduced. However, since the characters in the character string are filled with character pixels, the connection between the characters by the character pixels is maintained. As a result, the CPU 30 forms a region in which character pixels of a plurality of characters are connected along the x direction.

図4の次のステップS730では、CPU30は、文字列領域を検出する。図7(B)、7(C)は、検出された文字列領域CAa、CAbを示している。本実施例では、文字画素が連結した領域を包含する矩形領域を、文字列領域として検出する。そして、1つの文字列領域は、1つの連結領域を包含する最小の矩形領域である。この矩形領域の4つの頂点は、1つの連結領域におけるx方向の最大画素位置と最小画素位置とy方向の最大画素位置と最小画素位置とを組み合わせて得られる4つの画素位置に設定される。このような文字列領域は、連結領域毎に検出される。図7(B)の例では、2つの文字列領域CAa、CAbが検出されている。以上のように、CPU30は、複数の文字が連結した連続な文字列領域を検出する。   In the next step S730 in FIG. 4, the CPU 30 detects a character string area. FIGS. 7B and 7C show the detected character string areas CAa and CAb. In this embodiment, a rectangular area including an area where character pixels are connected is detected as a character string area. One character string area is a minimum rectangular area including one connected area. The four vertices of this rectangular area are set to four pixel positions obtained by combining the maximum pixel position and minimum pixel position in the x direction and the maximum pixel position and minimum pixel position in the y direction in one connected area. Such a character string area is detected for each connected area. In the example of FIG. 7B, two character string areas CAa and CAb are detected. As described above, the CPU 30 detects a continuous character string region in which a plurality of characters are connected.

図7(C)は、図6(A)と同じ画像に、2つの文字列領域CAa、CAbを重ね合わせた様子を示している。図示するように、第1文字列領域CAaは、第1文字列CSaを表す文字画素を包含する最小の矩形領域である。また、第2文字列領域CAbは、第2文字列CSbを表す文字画素を包含する最小の矩形領域である。本実施例では、文字拡大領域と文字縮退領域とが同じであり、さらに、図形拡大の回数と図形縮退の回数も同じである。従って、過不足の無い文字列領域の検出が可能である。   FIG. 7C shows a state in which two character string areas CAa and CAb are superimposed on the same image as FIG. As shown in the drawing, the first character string area CAa is a minimum rectangular area that includes character pixels representing the first character string CSa. The second character string area CAb is a minimum rectangular area that includes character pixels representing the second character string CSb. In the present embodiment, the character enlargement area and the character reduction area are the same, and the number of graphic enlargements and the number of figure reductions are also the same. Therefore, it is possible to detect a character string area without excess or deficiency.

なお、図5に示す実施例では、x方向に沿って文字(文字画素)を広く連結する処理(拡大−縮退)を採用したが、他の方向(例えば、y方向)に沿って文字を広く連結する処理を採用してもよい。以下、このような方向性を有する画素連結を、異方性連結と呼ぶ。   In the embodiment shown in FIG. 5, a process (enlargement / reduction) for widely connecting characters (character pixels) along the x direction is adopted, but the characters are expanded along other directions (for example, the y direction). You may employ | adopt the process to connect. Hereinafter, pixel connection having such directionality is referred to as anisotropic connection.

図4の次のステップS740では、CPU30は、領域分類部33の余白検出部338の処理として、余白領域を検出する。具体的には、CPU30は、ステップS710で特定された余白画素から、ステップS730で検出された文字列領域に含まれる画素(文字画素)を除いた残りの画素によって表される領域を、余白領域として検出する。検出された余白領域からは、文字列領域の周囲の余白のサイズ(画素数)と、文字列領域間の距離(行間)とを特定可能である。   In the next step S740 in FIG. 4, the CPU 30 detects a blank area as the process of the blank detection unit 338 of the area classification unit 33. Specifically, the CPU 30 determines an area represented by the remaining pixels obtained by removing the pixels (character pixels) included in the character string area detected in step S730 from the blank pixels specified in step S710. Detect as. From the detected margin area, the size of the margin (number of pixels) around the character string area and the distance between the character string areas (line spacing) can be specified.

次のステップS750では、CPU30は、領域分類部33の処理として、領域分類の結果をRAM40に書き込む。本実施例では、対象画像データSIの各画素が、文字列領域と網点領域と余白領域とのいずれに属するかを表すデータが、RAM40に書き込まれる。そして、CPU30は、領域分類処理を終了し、処理を図2の画像複製処理に戻す。なお、CPU30(領域分類部33)は、ステップS710で検出された網点画素によって表される領域を、そのまま網点領域として採用する。   In the next step S750, the CPU 30 writes the result of area classification into the RAM 40 as the process of the area classification unit 33. In this embodiment, data indicating whether each pixel of the target image data SI belongs to a character string area, a halftone dot area, or a margin area is written in the RAM 40. Then, the CPU 30 ends the area classification process and returns the process to the image duplication process of FIG. Note that the CPU 30 (region classification unit 33) directly adopts the region represented by the halftone pixel detected in step S710 as the halftone dot region.

画像合成処理:
図8は、図2のステップS132に示す画像合成処理の手順を示すフローチャートである。CPU30は、画像合成部36の処理として、図8の各ステップS800〜S830を実行する。CPU30は、最初のステップS800でRAM40に格納された対象画像データSIを参照し、次のステップS810でRAM40に格納された領域分類の結果を参照する。
Image composition processing:
FIG. 8 is a flowchart showing the procedure of the image composition process shown in step S132 of FIG. The CPU 30 executes steps S800 to S830 in FIG. 8 as processing of the image composition unit 36. The CPU 30 refers to the target image data SI stored in the RAM 40 in the first step S800, and refers to the result of area classification stored in the RAM 40 in the next step S810.

次のステップS820では、CPU30は、網点領域を拡大せずに、文字列領域を拡大する。図9は、文字列領域拡大の概略図である。図中には、図3に示した画像と同じ分類画像DAIと拡大領域画像EAIとが示されている。CPU30は、検出された1以上の文字列領域のそれぞれを、後述する条件を満たす範囲内で最大限に拡大する。その条件は、以下の通りである。CPU30は、文字列領域を、その文字列領域に接する余白領域内で拡大する。ここで、文字列領域の重心位置は固定される。また、文字列領域の縦横比率は維持されない、すなわち、x方向の拡大率と、y方向の拡大率とは、互いに独立に調整される。複数の文字列領域が余白領域を挟んで並ぶ場合には、各文字列領域が重ならないように、各文字列領域を拡大する。この際、x方向の拡大率とy方向の拡大率は、各文字列領域に共通である。これらの結果、分類画像DAI中の5つの文字列領域CA1〜CA5は同じ拡大率で拡大されて、5つの拡大文字列領域ECA1〜ECA5が、それぞれ生成される。   In the next step S820, the CPU 30 enlarges the character string area without enlarging the halftone dot area. FIG. 9 is a schematic diagram of character string region expansion. In the figure, the same classified image DAI and enlarged region image EAI as the image shown in FIG. 3 are shown. The CPU 30 enlarges each of the detected one or more character string regions to the maximum within a range that satisfies the conditions described later. The conditions are as follows. The CPU 30 enlarges the character string area within a blank area that is in contact with the character string area. Here, the position of the center of gravity of the character string area is fixed. Further, the aspect ratio of the character string area is not maintained, that is, the enlargement ratio in the x direction and the enlargement ratio in the y direction are adjusted independently of each other. When a plurality of character string areas are arranged with a blank area in between, the character string areas are enlarged so that the character string areas do not overlap. At this time, the enlargement ratio in the x direction and the enlargement ratio in the y direction are common to each character string region. As a result, the five character string areas CA1 to CA5 in the classified image DAI are enlarged at the same enlargement ratio, and five enlarged character string areas ECA1 to ECA5 are respectively generated.

また、本実施例では、CPU30は、拡大文字列領域の周囲に余白BCを残すこととしている。こうすれば、拡大された文字列が他の画像部分(例えば、他の文字列)と接触することが防止されるので、文字列を読みやすくすることができる。このような余白BCのサイズとしては、種々のサイズを採用可能である(この場合、余白BCのサイズは、拡大文字列領域から余白領域以外の他の画像領域(例えば、他の拡張文字列領域)までの最短距離に相当する)。例えば、CPU30は、所定サイズ(例えば、所定画素数や印刷結果における所定長さ)を採用可能である。この代わりに、CPU30は、対象画像データSIに従って余白BCのサイズを決定してもよい。例えば、拡大文字列領域の幅WC(長手方向と垂直な方向の長さ)が大きいほど、その拡大文字列領域の周囲の余白BCのサイズを大きくしてもよい。また、CPU30は、ユーザの指示に従って余白BCのサイズを決定してもよい。なお、CPU30は、拡大文字列領域の周囲に余白BCを残すこと無く、文字列領域を最大限に拡大してもよい。   Further, in this embodiment, the CPU 30 leaves a margin BC around the enlarged character string area. In this way, the enlarged character string is prevented from coming into contact with other image portions (for example, other character strings), so that the character string can be easily read. Various sizes can be adopted as the size of the margin BC (in this case, the size of the margin BC is changed from an enlarged character string area to an image area other than the margin area (for example, another extended character string area). Corresponds to the shortest distance to)). For example, the CPU 30 can employ a predetermined size (for example, a predetermined number of pixels or a predetermined length in a print result). Instead, the CPU 30 may determine the size of the margin BC according to the target image data SI. For example, the size of the margin BC around the enlarged character string region may be increased as the width WC (length in the direction perpendicular to the longitudinal direction) of the enlarged character string region is increased. Further, the CPU 30 may determine the size of the margin BC according to a user instruction. Note that the CPU 30 may enlarge the character string area to the maximum without leaving a margin BC around the enlarged character string area.

また、本実施例では、CPU30は、拡大領域画像EAI(対象画像SII)の縁EDに余白BEを残すこととしている。こうすれば、拡大された文字列が縁EDと接触することが防止されるので、文字列を読みやすくすることができる。このような余白BEのサイズとしては、種々のサイズを採用可能である(この場合、余白BEのサイズは、拡大領域画像EAI(対象画像SII)の縁EDから拡大文字列領域までの最短距離に相当する)。例えば、CPU30は、所定サイズ(例えば、所定画素数や印刷結果における所定長さ)を採用可能である。この代わりに、CPU30は、印刷設定に従って余白BEのサイズを決定してもよい。例えば、プリンタの中には、印刷用紙Pの四辺に余白を残さないフチなし印刷が可能なものがある。フチなし印刷は、印刷用のデータをわずかに拡大印刷してフチなしにて印刷するものである。ここで、拡大文字列領域が印刷用紙Pの外にはみ出ないように、余白BEのサイズを決定してもよい。ここで、余白BEのサイズが、印刷用紙Pの大きさに従った可変値であってもよい。なお、CPU30は、縁EDに余白BEを残すこと無く、文字列領域を最大限に拡大してもよい。   In the present embodiment, the CPU 30 leaves a margin BE on the edge ED of the enlarged region image EAI (target image SII). By doing so, the enlarged character string is prevented from coming into contact with the edge ED, so that the character string can be easily read. Various sizes can be adopted as the size of the margin BE (in this case, the size of the margin BE is the shortest distance from the edge ED of the enlarged region image EAI (target image SII) to the enlarged character string region. Equivalent to). For example, the CPU 30 can employ a predetermined size (for example, a predetermined number of pixels or a predetermined length in a print result). Instead, the CPU 30 may determine the size of the margin BE according to the print setting. For example, some printers can perform borderless printing without leaving margins on the four sides of the printing paper P. In borderless printing, printing data is slightly enlarged and printed without margins. Here, the size of the margin BE may be determined so that the enlarged character string region does not protrude from the printing paper P. Here, the size of the margin BE may be a variable value according to the size of the printing paper P. The CPU 30 may enlarge the character string area to the maximum without leaving the margin BE on the edge ED.

次にCPU30は、文字列領域内の画像を、拡大文字列領域に合わせて拡大する。拡大後の画像のサイズと形状と位置とは、その文字列領域に対応付けられた拡大文字列領域と同じである。画像拡大方法としては、種々の方法を採用可能である。例えば、アフィン変換(線形変換)を採用してもよい。図3に示す実施例では、CPU30は、文字列CS1を表す画像を拡大することによって、拡大文字列ECS1を表す画像を生成する。他の文字列CS2〜CS5についても同様である。そして、CPU30は、生成した画像と対象画像SIIとを合成することによって、拡大画像PIを生成する(拡大画像PIを表す画像データを生成する)。なお、本実施例では、CPU30は、網点領域を拡大しない。その結果、網点によって表されている文字CSPは、拡大されない。   Next, the CPU 30 enlarges the image in the character string area in accordance with the enlarged character string area. The size, shape, and position of the enlarged image are the same as the enlarged character string region associated with the character string region. Various methods can be adopted as the image enlargement method. For example, affine transformation (linear transformation) may be employed. In the embodiment shown in FIG. 3, the CPU 30 enlarges the image representing the character string CS1 to generate an image representing the enlarged character string ECS1. The same applies to the other character strings CS2 to CS5. Then, the CPU 30 generates an enlarged image PI (generates image data representing the enlarged image PI) by synthesizing the generated image and the target image SII. In this embodiment, the CPU 30 does not enlarge the halftone dot area. As a result, the character CSP represented by the halftone dots is not enlarged.

図8の次のステップS830では、CPU30は、拡大画像PIを表す画像データをRAM40に格納する。そして、CPU30は、画像合成処理を終了し、処理を図2の画像複製処理に戻す。図2のステップS140、S150では、この拡大画像PIを表す画像データに従って、処理が実行される。   In the next step S830 in FIG. 8, the CPU 30 stores image data representing the enlarged image PI in the RAM 40. Then, the CPU 30 ends the image composition process and returns the process to the image duplication process of FIG. In steps S140 and S150 of FIG. 2, processing is executed according to the image data representing the enlarged image PI.

以上のように、本実施例では、対象画像SII中の文字列が拡大されるので、画像全体を大きくせずに、文字列を読みやすくすることができる。また、文字列(複数の文字)を表す連続する文字列領域が拡大されるので、拡大後の文字列内で文字が崩れることを抑制できる。また、文字列を表す画像を拡大することによって文字を表す線も太くなるので、文字の可読性を高めることができる。また、対象画像SII中の余白内で文字列領域を拡大するので、種々の対象画像SIIに関して、拡大画像PIのレイアウトが過剰に崩れることを抑制できる。その結果、拡大画像PIを見たユーザが、文字列を誤読することを抑制できる。さらに、網点領域が拡大対象から外れているので、網点によって表される画像(例えば、写真やイラスト)の拡大に起因して拡大画像PIのレイアウトが過剰に崩れることを抑制できる。そして、文字列を拡大できなくなることを抑制できる。また、本実施例では、網点画像が文字を含むか否かに拘わらずに、網点画像を表す領域が網点領域として検出される。従って、網点によって表される画像部分に文字が含まれる場合であっても、その文字部分が拡大対象として利用されることが抑制される。その結果、その網点によって表される画像部分が不自然に変形されることを抑制できる。   As described above, in this embodiment, since the character string in the target image SII is enlarged, the character string can be easily read without enlarging the entire image. Moreover, since the continuous character string area | region showing a character string (a several character) is expanded, it can suppress that a character collapses in the character string after expansion. Further, since the line representing the character becomes thick by enlarging the image representing the character string, the readability of the character can be improved. Further, since the character string region is enlarged within the margin in the target image SII, it is possible to suppress the layout of the enlarged image PI from being excessively collapsed with respect to various target images SII. As a result, it is possible to prevent the user who has viewed the enlarged image PI from misreading the character string. Furthermore, since the halftone dot region is not included in the enlargement target, it is possible to suppress the layout of the enlarged image PI from being excessively collapsed due to the enlargement of an image (for example, a photograph or an illustration) represented by the halftone dot. And it can suppress that it becomes impossible to expand a character string. In this embodiment, an area representing a halftone dot image is detected as a halftone dot area regardless of whether the halftone dot image includes characters. Therefore, even when a character is included in the image portion represented by the halftone dots, the character portion is prevented from being used as an enlargement target. As a result, the image portion represented by the halftone dot can be prevented from being unnaturally deformed.

また、図5〜図7に示すように、離れて配置された文字画素間を連結することによって得られる連結領域を含む領域が文字列領域として利用されるので、1つの文字列領域は、対象画像データSI中の1本の文字列の全体を含むことが可能である。そして、1つの文字列領域は分断されずに拡大されるので、文字列の途中で書式が変わることを抑制できる(例えば、文字列の途中で改行されることを抑制できる)。その結果、拡大画像PIを見たユーザが、文字列を誤読することを抑制できる。また、文字を1文字ずつ認識するための解析を省略できるので、処理の負担を軽減できる。   Moreover, as shown in FIGS. 5-7, since the area | region containing the connection area | region obtained by connecting between the character pixels arrange | positioned apart is used as a character string area | region, one character string area | region is object. It is possible to include the entire character string in the image data SI. Since one character string region is enlarged without being divided, it is possible to suppress the format from being changed in the middle of the character string (for example, it is possible to suppress a line break in the middle of the character string). As a result, it is possible to prevent the user who has viewed the enlarged image PI from misreading the character string. Moreover, since the analysis for recognizing characters one by one can be omitted, the processing load can be reduced.

また、図5〜図7に示すように、異方性連結によって文字画素が連結されるので、文字列領域を適切に検出することができる。また、行間を表す部分が文字を表す領域として認識されることを抑制できる。その結果、文字列領域の拡大に行間を利用することができるので、文字を大きくすることが容易である。   Moreover, as shown in FIGS. 5-7, since a character pixel is connected by anisotropic connection, a character string area | region can be detected appropriately. Moreover, it can suppress that the part showing a line space is recognized as an area | region showing a character. As a result, line spacing can be used to expand the character string area, and it is easy to enlarge the characters.

なお、本実施例では、画像合成部36(図1)が特許請求の範囲における「画像処理部」に相当する。   In this embodiment, the image composition unit 36 (FIG. 1) corresponds to an “image processing unit” in the claims.

B.文字列領域拡大の変形例:
図10は、文字領域拡大の別の実施例の概略図である。図9に示す実施例との差違は、文字領域の重心位置が可変である点だけである。図10には、分類画像DAIaと拡大領域画像EAIaとが示されている。分類画像DAIaは、図9の分類画像DAIから第4文字列領域CA4と第5文字列領域CA5とを削除したものと同じである。従って、網点領域DAと文字列領域との間の余白領域BAは、図9の分類画像DAIと比べて広い。
B. Modified examples of character string area expansion:
FIG. 10 is a schematic diagram of another embodiment of character area expansion. The only difference from the embodiment shown in FIG. 9 is that the barycentric position of the character area is variable. FIG. 10 shows a classified image DAIa and an enlarged area image EAIa. The classification image DAIa is the same as that obtained by deleting the fourth character string area CA4 and the fifth character string area CA5 from the classification image DAI of FIG. Therefore, the blank area BA between the halftone dot area DA and the character string area is wider than the classified image DAI of FIG.

CPU30(図1)は、3つの文字列領域CA1〜CA3を拡大することによって、3つの拡大文字列領域ECA1a〜ECA3aを、それぞれ生成する。この際、CPU30は、文字列領域と網点領域DAとの間の余白領域BAを最大限に利用する。具体的には、CPU30は、各拡大文字列領域ECA1a〜ECA3aの重心位置を、各文字列領域CA1〜CA3の重心位置よりも網点領域DA側に移動させる。その結果、図10の拡大領域画像EAIaに示すように、各拡大文字列領域ECA1a〜ECA3aを大きくすることができる。   The CPU 30 (FIG. 1) generates three enlarged character string areas ECA1a to ECA3a by enlarging the three character string areas CA1 to CA3, respectively. At this time, the CPU 30 makes maximum use of the blank area BA between the character string area and the halftone dot area DA. Specifically, the CPU 30 moves the gravity center positions of the enlarged character string areas ECA1a to ECA3a to the halftone dot area DA side from the gravity center positions of the character string areas CA1 to CA3. As a result, the enlarged character string areas ECA1a to ECA3a can be enlarged as shown in the enlarged area image EAIa of FIG.

なお、文字列領域拡大としては、他の種々の態様を採用可能である。例えば、文字列領域の縦横比率を維持してもよい。こうすれば、文字が過剰に変形することを抑制できる。また、文字列領域の拡大率の上限を予め決めても良い。こうすれば、文字列が過剰に大きくなることを抑制できる。また、複数の文字列領域が余白領域を挟んで並ぶ場合に、拡大率が文字列領域毎に異なっていても良い。また、拡大文字列領域が、余白領域以外の他の領域(例えば、網点領域)内に広がってもよい。   It should be noted that various other modes can be employed for expanding the character string area. For example, the aspect ratio of the character string area may be maintained. In this way, it is possible to suppress excessive deformation of the characters. Further, the upper limit of the enlargement rate of the character string area may be determined in advance. In this way, it is possible to suppress an excessively large character string. Further, when a plurality of character string areas are arranged with a blank area in between, the enlargement ratio may be different for each character string area. In addition, the enlarged character string area may extend in an area other than the margin area (for example, a halftone dot area).

C.文字列検出の変形例:
図11は、文字列検出の別の実施例を示す概略図である。図11の実施例は、図4のステップS720の代わりに実行される処理を示している。図5に示す実施例との差違は、所定方向に沿って文字画素を連結する代わりに、x方向に沿って文字画素を広く連結した結果とy方向に沿って文字画素を広く連結した結果との一方を、これらの結果の比較によって選択する点だけである。この選択によって、対象画像データSIにおける文字列の延びる方向に適した文字列検出が可能となる。
C. Variations on string detection:
FIG. 11 is a schematic diagram showing another embodiment of character string detection. The example of FIG. 11 shows processing executed instead of step S720 of FIG. The difference from the embodiment shown in FIG. 5 is that, instead of connecting character pixels along a predetermined direction, a result of connecting character pixels widely along the x direction and a result of connecting character pixels widely along the y direction Only one point is selected by comparing these results. By this selection, it is possible to detect a character string suitable for the direction in which the character string extends in the target image data SI.

最初のステップS900では、CPU30は、対象画像データSIの文字画素に対して、x方向に沿って文字(文字画素)を広く連結する拡大−縮退を実行する(以下、「x方向連結」と呼ぶ)。このx方向連結は、図5〜図7で説明した処理と同じである。そして、CPU30は、このx方向連結の結果を表すx方向連結画像CI_xを生成する。このx方向連結画像CI_xは、図7(B)の画像と同様に、文字(文字画素)が連結した連結領域を表している。このx方向連結画像CI_x中の最長連結領域CAx_maxは、x方向に沿った長さが最大である連結領域を示している(この長さを「x方向最大長Lx_max」と呼ぶ)。   In the first step S900, the CPU 30 executes enlargement / reduction to widely connect characters (character pixels) along the x direction with respect to the character pixels of the target image data SI (hereinafter referred to as “x direction connection”). ). This x-direction connection is the same as the processing described in FIGS. Then, the CPU 30 generates an x-direction coupled image CI_x representing the result of the x-direction coupling. The x-direction connected image CI_x represents a connected region in which characters (character pixels) are connected, as in the image of FIG. 7B. The longest connected area CAx_max in the x-direction connected image CI_x indicates a connected area having a maximum length along the x direction (this length is referred to as “x-direction maximum length Lx_max”).

次のステップS910では、CPU30は、対象画像データSIの文字画素に対して、y方向に沿って文字(文字画素)を広く連結する拡大−縮退を実行する(以下、「y方向連結」と呼ぶ)。このy方向連結では、文字拡大領域と文字縮退領域とのそれぞれとして、9×3画素の矩形領域の代わりに、3(x方向)×9(y方向)画素の矩形領域が利用される。これにより、y方向に沿って文字(文字画素)が広く連結される。そして、CPU30は、このy方向連結の結果を表すy方向連結画像CI_yを生成する。このy方向連結画像CI_yも、文字(文字画素)が連結した連結領域を表している。このy方向連結画像CI_y中の最長連結領域CAy_maxは、y方向に沿った長さが最大である連結領域を示している(この長さを「y方向最大長Ly_max」と呼ぶ)。   In the next step S910, the CPU 30 executes enlargement / reduction to widely connect characters (character pixels) along the y direction with respect to the character pixels of the target image data SI (hereinafter referred to as “y direction connection”). ). In this y-direction connection, a rectangular area of 3 (x direction) × 9 (y direction) pixels is used instead of the rectangular area of 9 × 3 pixels as the character enlargement area and the character contraction area. Thereby, a character (character pixel) is widely connected along the y direction. Then, the CPU 30 generates a y-direction connected image CI_y representing the result of the y-direction connection. The y-direction connected image CI_y also represents a connected area in which characters (character pixels) are connected. The longest connected area CAy_max in the y-direction connected image CI_y indicates a connected area having a maximum length along the y direction (this length is referred to as “y-direction maximum length Ly_max”).

次のステップS920では、CPU30は、x方向最大長Lx_maxとy方向最大長Ly_maxとを比較する。x方向最大長Lx_maxがy方向最大長Ly_maxより大きい場合には、CPU30は、x方向連結画像CI_xを選択する。そして、図4の次のステップS730では、CPU30は、選択したx方向連結画像CI_xに従って文字列領域を検出する。逆に、x方向最大長Lx_maxがy方向最大長Ly_max以下である場合には、CPU30は、y方向連結画像CI_yを選択する。そして、図4の次のステップS730では、CPU30は、選択したy方向連結画像CI_yに従って文字列領域を検出する。   In the next step S920, the CPU 30 compares the maximum x-direction length Lx_max with the maximum y-direction length Ly_max. When the x-direction maximum length Lx_max is larger than the y-direction maximum length Ly_max, the CPU 30 selects the x-direction connected image CI_x. Then, in the next step S730 in FIG. 4, the CPU 30 detects a character string area according to the selected x-direction connected image CI_x. Conversely, when the x-direction maximum length Lx_max is equal to or less than the y-direction maximum length Ly_max, the CPU 30 selects the y-direction connected image CI_y. Then, in the next step S730 in FIG. 4, the CPU 30 detects a character string region according to the selected y-direction connected image CI_y.

このように、x方向連結とy方向連結との内の最大長の長い方を選択する理由は、以下の通りである。すなわち、対象画像データSIにおける文字列の延びる方向は、種々の方向を取り得る。例えば、文字列がx方向に延びる場合や、文字列がy方向に延びる場合がある。いずれの場合も、通常は、行間は文字間よりも広い。従って、文字列がx方向に延びる対象画像に対しては、x方向連結の方がy方向連結よりも長い連結領域が得られる。図11に示すx方向連結画像CI_xとy方向連結画像CI_yとは、このような場合を示している。逆に、文字列がy方向に延びる対象画像に対しては、y方向連結の方がx方向連結よりも長い連結領域が得られる。以上により、x方向連結とy方向連結との内の最大長の長い方を選択することによって、対象画像データSIにおける文字列の延びる方向に適した文字列検出が可能となる。   Thus, the reason for selecting the longer one of the maximum lengths of the x direction connection and the y direction connection is as follows. That is, the extending direction of the character string in the target image data SI can take various directions. For example, the character string may extend in the x direction or the character string may extend in the y direction. In either case, the line spacing is usually wider than the character spacing. Therefore, for a target image in which a character string extends in the x direction, a connection region in which the x direction connection is longer than the y direction connection is obtained. The x-direction connected image CI_x and the y-direction connected image CI_y shown in FIG. 11 show such a case. On the contrary, for a target image in which a character string extends in the y direction, a connected region in which the y direction connection is longer than the x direction connection is obtained. As described above, it is possible to detect a character string suitable for the direction in which the character string extends in the target image data SI by selecting the longer one of the x-direction connection and the y-direction connection.

なお、比較対象は最大長に限らず、文字画素の連結結果に含まれる1以上の連結領域のそれぞれの長さから得られる代表値を採用可能である。代表値としては、各連結領域の長さの関数で表される種々の値を採用可能である(例えば、平均値、最大値、中央値(メディアン)、最小値)。いずれの場合も、特定の方向に沿って文字画素を広く連結した結果(異方性連結の結果)を評価するためには、連結領域のその方向に沿った長さの代表値を利用すればよい。そして、その代表値が大きいほど、その異方性連結が対象画像データSIに適しているということができる。   The comparison target is not limited to the maximum length, and a representative value obtained from the lengths of one or more connected regions included in the result of connecting character pixels can be used. As the representative value, various values represented by a function of the length of each connected region can be adopted (for example, an average value, a maximum value, a median value, a minimum value). In any case, in order to evaluate the result of widely connecting character pixels along a specific direction (result of anisotropic connection), the representative value of the length of the connected region along that direction can be used. Good. And it can be said that the larger the representative value is, the more suitable the anisotropic connection is for the target image data SI.

また、異方性連結の方向の選択肢としては、x方向と、x方向と垂直なy方向との2方向に限らず、種々の方向を採用可能である。例えば、x方向と、y方向と、x方向と45度の角度をなす方向との3方向を採用してもよい。一般には、文字列検出部336(CPU30)は、方向性が互いに異なるN種類(Nは2以上の整数)の異方性連結を利用可能である。ここで、文字列検出部336(CPU30)は、長さの代表値が最も長い異方性連結に従って文字列領域を検出すればよい。この代わりに、文字列検出部336(CPU30)は、ユーザの指示に従って、N種類の異方性連結の中から利用する異方性連結を選択してもよい。   In addition, the choice of the anisotropic coupling direction is not limited to the two directions of the x direction and the y direction perpendicular to the x direction, and various directions can be adopted. For example, three directions including an x direction, a y direction, and a direction that forms an angle of 45 degrees with the x direction may be employed. In general, the character string detection unit 336 (CPU 30) can use N types of anisotropic connections (N is an integer of 2 or more) having different directions. Here, the character string detection unit 336 (CPU 30) may detect the character string region in accordance with the anisotropic connection having the longest representative value. Instead, the character string detection unit 336 (CPU 30) may select an anisotropic connection to be used from among N types of anisotropic connections in accordance with a user instruction.

また、特定の方向に沿って文字画素を広く連結させる処理(異方性連結処理)としては、図5に示す処理に限らず、種々の処理を採用可能である。例えば、文字拡大領域と文字縮退領域とのそれぞれとしては、9×3画素の矩形領域に限らず、種々の異方性領域(例えば、10×3の矩形領域や、楕円領域)を採用可能である。また、文字縮退領域が文字拡大領域と異なっていてもよい。また、図形拡大と図形縮退とのそれぞれの回数も任意に設定可能であり、図形縮退の回数が図形拡大の回数と異なっていても良い。また、図形縮退を省略してもよい。一般的には、異方性の連結処理としては、1画素以上離れた2つの文字画素間が連結され得る距離(「連結可能距離」と呼ぶ)に関して、特定方向に沿った連結可能距離が、特定方向と垂直な方向に沿った連結可能距離よりも長いような任意の処理を採用可能である。   Further, the process of widely connecting character pixels along a specific direction (anisotropic connection process) is not limited to the process shown in FIG. 5, and various processes can be employed. For example, each of the character enlargement region and the character reduction region is not limited to a 9 × 3 pixel rectangular region, and various anisotropic regions (for example, a 10 × 3 rectangular region or an elliptical region) can be employed. is there. The character contraction area may be different from the character enlargement area. The number of times of figure enlargement and figure reduction can be arbitrarily set, and the number of figure reductions may be different from the number of figure enlargements. Moreover, you may abbreviate | omit figure reduction. In general, as an anisotropic connection process, a distance that can be connected between two character pixels that are separated by one or more pixels (referred to as “connectable distance”) is a connectable distance along a specific direction. Arbitrary processing that is longer than the connectable distance along the direction perpendicular to the specific direction can be adopted.

また、文字画素を連結する処理としては、このような方向性を有する処理に限らず、他の処理を採用可能である。例えば、図5に示す処理において、文字拡大領域と文字縮退領域とが等方性領域(略円)であってもよく、また、正方形であってもよい。   Further, the process of connecting the character pixels is not limited to the process having such directionality, and other processes can be employed. For example, in the processing shown in FIG. 5, the character enlargement region and the character degeneration region may be isotropic regions (substantially circles) or may be squares.

D.画素分類処理の実施例:
D−1.画素分類処理の第1実施例:
図4のステップS710に示した画素分類処理(画素毎の領域分類処理)の流れを示すフローチャートを図12に示す。この処理が開始されると、CPU30は、まず、RAM40に格納された対象画像データSIを参照する(S200)。
D. Example of pixel classification processing:
D-1. First example of pixel classification processing:
FIG. 12 is a flowchart showing the flow of the pixel classification process (area classification process for each pixel) shown in step S710 of FIG. When this process is started, the CPU 30 first refers to the target image data SI stored in the RAM 40 (S200).

次のステップS205では、CPU30は、積分データ生成部32の処理として、対象画像データを解析することによって第1積分データID1(図1)と第2積分データID2(図1)とを生成する。画像データの読み込みをバンド単位で行う場合には、バンド単位で積分データID1、ID2を生成してもよい。CPU30は、生成した積分データID1、ID2をRAM40に格納する。積分データID1、ID2の詳細については、「D−2.積分データを利用した計算」で後述する。   In the next step S205, the CPU 30 generates the first integration data ID1 (FIG. 1) and the second integration data ID2 (FIG. 1) by analyzing the target image data as the processing of the integration data generation unit 32. When the image data is read in units of bands, the integrated data ID1 and ID2 may be generated in units of bands. The CPU 30 stores the generated integration data ID1 and ID2 in the RAM 40. Details of the integral data ID1 and ID2 will be described later in “D-2. Calculation Using Integral Data”.

次のステップS210では、CPU30は、領域分類部33に含まれる特徴量算出部332の処理として、注目画素を含む部分領域における輝度値の統計的分散(以下、単に「分散」と呼ぶ)を算出する。図13は、対象画像データSIと注目画素pix_kを示す概略図である。なお、画素が表す輝度値は、画素が表すRGBの階調値から公知の手法により求めることができる。   In the next step S210, the CPU 30 calculates a statistical variance (hereinafter simply referred to as “dispersion”) of luminance values in the partial region including the target pixel as the processing of the feature amount calculation unit 332 included in the region classification unit 33. To do. FIG. 13 is a schematic diagram illustrating target image data SI and a target pixel pix_k. Note that the luminance value represented by the pixel can be obtained by a known method from the RGB gradation values represented by the pixel.

図13中には、注目画素pix_kが示されている。注目画素pix_kは、その画素が、エッジ部分と網点部分とのいずれに該当するかという属性判定の対象の画素である。本実施例では、CPU30は、画像の左上隅の画素から右下隅の画素まで注目画素を順番に移動させて、各画素の属性を判定する。   In FIG. 13, the pixel of interest pix_k is shown. The target pixel pix_k is a target pixel for attribute determination as to whether the pixel corresponds to an edge portion or a halftone dot portion. In the present embodiment, the CPU 30 determines the attribute of each pixel by sequentially moving the target pixel from the upper left corner pixel of the image to the lower right corner pixel.

後述するように、注目画素pix_kの判定には、注目画素pix_kを含む3つの部分領域SAk0、SAk1、SAk2のそれぞれにおける輝度値の分散が利用される。各領域SAk0〜SAk2は、注目画素pix_kを中心とする正方形の領域である(第1部分領域SAk0は5×5画素に対応し、第2部分領域SAk1は7×7画素に対応し、第3部分領域SAk2は9×9画素に対応している)。   As will be described later, for determination of the pixel of interest pix_k, luminance value dispersion in each of the three partial regions SAk0, SAk1, and SAk2 including the pixel of interest pix_k is used. Each region SAk0 to SAk2 is a square region centered on the pixel of interest pix_k (the first partial region SAk0 corresponds to 5 × 5 pixels, the second partial region SAk1 corresponds to 7 × 7 pixels, The partial area SAk2 corresponds to 9 × 9 pixels).

CPU30は、以下の数式1に従って、各部分領域SAk0、SAk1、SAk2の分散を算出する。   The CPU 30 calculates the variance of the partial areas SAk0, SAk1, and SAk2 according to the following formula 1.

Figure 2009105541
Figure 2009105541

後述するように、CPU30は、第1積分データID1(図1)を利用することによって輝度値fの平均値E(f)を算出し、第2積分データID2を利用することによって輝度値fの2乗の平均値E(f2)を算出する。算出された分散は、次のステップS220で利用される。 As will be described later, the CPU 30 calculates the average value E (f) of the luminance value f by using the first integral data ID1 (FIG. 1), and uses the second integral data ID2 to calculate the luminance value f. An average value E (f 2 ) of squares is calculated. The calculated variance is used in the next step S220.

次に、CPU30は、領域分類部33の領域判定部334(属性判定部334とも呼ぶ)の処理として領域判定処理(属性判定処理とも呼ぶ)を行い、注目画素がエッジ構成部分であるのか、それとも網点構成部分であるのかを判定する(ステップS220)。この属性判定処理の詳細については、「D−3.属性判定処理」において後述する。   Next, the CPU 30 performs region determination processing (also referred to as attribute determination processing) as processing of the region determination unit 334 (also referred to as attribute determination unit 334) of the region classification unit 33, and whether or not the target pixel is an edge constituent part. It is determined whether it is a halftone dot component (step S220). Details of the attribute determination process will be described later in “D-3. Attribute Determination Process”.

なお、ステップS220では、CPU30は、先ず、画像データSIの複数の画素を、網点画素とエッジ画素とに分類する。次に、CPU30は、網点画素の内の所定の条件を満たす画素を、余白画素として識別する。余白画素の条件としては、対象画像SIIの背景部分を表すことを示す任意の条件を採用可能である。例えば、所定の色範囲(例えば、輝度値が所定の閾値以上の色範囲)内の色を示すことを採用可能である。次に、CPU30は、対象画像データSIの複数の画素の内の、エッジ画素によって囲まれる閉領域内の画素を、文字画素として識別する。これらの結果、CPU30は、対象画像データSIの複数の画素を、文字画素と網点画素と余白画素とに分類する。   In step S220, the CPU 30 first classifies the plurality of pixels of the image data SI into halftone pixels and edge pixels. Next, the CPU 30 identifies a pixel satisfying a predetermined condition among the halftone pixels as a blank pixel. As the blank pixel condition, any condition indicating that the background portion of the target image SII is represented can be employed. For example, it is possible to employ a color within a predetermined color range (for example, a color range having a luminance value equal to or greater than a predetermined threshold). Next, the CPU 30 identifies a pixel in the closed region surrounded by the edge pixels among the plurality of pixels of the target image data SI as a character pixel. As a result, the CPU 30 classifies the plurality of pixels of the target image data SI into character pixels, halftone pixels, and blank pixels.

そして、注目画素の属性を判定すると、CPU30は、その結果をRAM40に書き込む(ステップS240)。そして、対象画像データによって表される対象画像の全ての画素について、上記の処理が終了したか否かを判断し(ステップS250)、終了していなければ(ステップS250:NO)、処理を上記ステップS210に戻し、終了していれば(ステップS250:YES)、画素分類処理を終了して、処理を図4の領域分類処理に戻す。   When determining the attribute of the pixel of interest, the CPU 30 writes the result in the RAM 40 (step S240). Then, it is determined whether or not the above process has been completed for all the pixels of the target image represented by the target image data (step S250), and if not (step S250: NO), the process is performed in the above step. Returning to S210, if completed (step S250: YES), the pixel classification process is terminated, and the process returns to the area classification process of FIG.

D−2.積分データを利用した計算:
図14は、対象画像データSIと第1積分データID1との概略図である。以下、基準画素pix_sからx方向にxa番目、y方向にya番目の画素を、pix(xa、ya)で表す。また、その画素の輝度値をf(xa、ya)で表す。なお、xaの範囲は1〜Nxであり、yaの範囲は1〜Nyである(Nx、Nyは整数であり、対象画像データSIに応じて決まる)。
D-2. Calculation using integral data:
FIG. 14 is a schematic diagram of the target image data SI and the first integration data ID1. Hereinafter, the xa-th pixel in the x direction and the ya-th pixel in the y direction from the reference pixel pix_s are represented by pix (xa, ya). Further, the luminance value of the pixel is represented by f (xa, ya). Note that the range of xa is 1 to Nx, and the range of ya is 1 to Ny (Nx and Ny are integers and are determined according to target image data SI).

第1積分データID1は、対象画像データSIの各画素pixの輝度積分値(輝度値の合計値)を表している。或る画素pix(xt、yt)の輝度積分値p(xt、yt)は、以下の数式2で表される。   The first integral data ID1 represents the luminance integral value (total luminance value) of each pixel pix of the target image data SI. The luminance integrated value p (xt, yt) of a certain pixel pix (xt, yt) is expressed by the following formula 2.

Figure 2009105541
Figure 2009105541

この輝度積分値p(xt、yt)は、基準画素pix_sと、画素pix(xt、yt)との2つの画素が対角画素である矩形領域IAt内の輝度値の合計値を表している(図14では、矩形領域IAtにハッチングが付されている)。   This luminance integral value p (xt, yt) represents the total value of the luminance values in the rectangular area IAt in which the two pixels of the reference pixel pix_s and the pixel pix (xt, yt) are diagonal pixels ( In FIG. 14, the rectangular area IAt is hatched).

図15は、第1積分データID1を利用した平均値算出を示す概略図である。図15は、図14と同じ対象画像データSIと第1積分データID1とを示している。各画像データSI、ID1には、注目画素pix_k(=pix(xk、yk))を中心とする対象矩形領域Adが示されている。この対象矩形領域Adのx方向の画素数Wは「2×dx+1」であり、y方向の画素数Hは「2×dy+1」である(dxは1以上の整数、dyは1以上の整数)。   FIG. 15 is a schematic diagram showing average value calculation using the first integral data ID1. FIG. 15 shows the same target image data SI and first integrated data ID1 as in FIG. Each image data SI and ID1 shows a target rectangular area Ad centered on the pixel of interest pix_k (= pix (xk, yk)). The number of pixels W in the x direction of the target rectangular area Ad is “2 × dx + 1”, and the number of pixels H in the y direction is “2 × dy + 1” (dx is an integer of 1 or more, dy is an integer of 1 or more) .

また、図中には、対象矩形領域Adの4つの隅画素pix_a〜pix_dが示されている。第1隅画素pix_aは、基準画素pix_sに最も近い隅画素である。第4隅画素pix_dは、基準画素pix_sから最も遠い隅画素である。第2隅画素pix_bは、第1隅画素pix_aと同じ画素行に含まれる他の隅画素であり、第3隅画素pix_cは、第1隅画素pix_aと同じ画素列に含まれる他の隅画素である。   In the drawing, four corner pixels pix_a to pix_d of the target rectangular area Ad are shown. The first corner pixel pix_a is the corner pixel closest to the reference pixel pix_s. The fourth corner pixel pix_d is a corner pixel farthest from the reference pixel pix_s. The second corner pixel pix_b is another corner pixel included in the same pixel row as the first corner pixel pix_a, and the third corner pixel pix_c is another corner pixel included in the same pixel column as the first corner pixel pix_a. is there.

また、図15には、隅矩形領域ALが示されている。この隅矩形領域ALは、基準画素pix_sと第4隅画素pix_dとの2つの画素が対角画素である矩形領域である。この隅矩形領域ALは、直交する2本の直線L1、L2によって4つの領域Aa、Ab、Ac、Adに分割される。第1直線L1は、対象矩形領域Adの−y側の辺(隣接する画素間の境界線を表す画素境界線)を通るx方向と平行な直線であり、第2直線L2は、対象矩形領域Adの−x側の辺(画素境界線)を通るy方向と平行な直線である。第1領域Aaは、基準画素pix_sを含み、対象矩形領域Adの対角方向の左上(−xかつ−y側)に位置する矩形領域である。第2領域Abは、対象矩形領域Adの−y側に位置する矩形領域である。第3領域Acは、対象矩形領域Adの−x側に位置する矩形領域である。   Further, FIG. 15 shows a corner rectangular area AL. This corner rectangular area AL is a rectangular area in which the two pixels of the reference pixel pix_s and the fourth corner pixel pix_d are diagonal pixels. This corner rectangular area AL is divided into four areas Aa, Ab, Ac, Ad by two orthogonal straight lines L1, L2. The first straight line L1 is a straight line parallel to the x direction passing through the −y side edge (pixel boundary line representing the boundary line between adjacent pixels) of the target rectangular area Ad, and the second straight line L2 is the target rectangular area It is a straight line parallel to the y direction passing through the side (pixel boundary line) on the −x side of Ad. The first area Aa is a rectangular area that includes the reference pixel pix_s and is located on the upper left (−x and −y side) in the diagonal direction of the target rectangular area Ad. The second area Ab is a rectangular area located on the −y side of the target rectangular area Ad. The third area Ac is a rectangular area located on the −x side of the target rectangular area Ad.

図15の上部は、平均値E(f)の算出の比較例を示している。平均値E(f)は、対象矩形領域Adにおける輝度値fの平均値を表している。比較例では、対象矩形領域Ad内の各画素の輝度値が対象画像データSIから読み出され、合計値が算出される。そして、合計値を総画素数(W×H)で割ることによって、平均値E(f)が算出される。この場合には、1つの注目画素pix_kに関する平均値E(f)の算出に、H×W回の対象画像データSI(RAM40)に対するアクセスが必要である。例えば、H=9、W=9の場合には、81回のアクセスが要る。そして、81個の値の演算(加算)も要る。   The upper part of FIG. 15 shows a comparative example for calculating the average value E (f). The average value E (f) represents the average value of the luminance values f in the target rectangular area Ad. In the comparative example, the luminance value of each pixel in the target rectangular area Ad is read from the target image data SI, and the total value is calculated. Then, the average value E (f) is calculated by dividing the total value by the total number of pixels (W × H). In this case, it is necessary to access the target image data SI (RAM 40) H × W times in order to calculate the average value E (f) for one pixel of interest pix_k. For example, when H = 9 and W = 9, 81 accesses are required. And calculation (addition) of 81 values is also required.

図15の下部は、本実施例における平均値E(f)の算出を示している。図中には、平均値E(f)の算出に利用される4つの算出画素pix_1〜pix_4が示されている。CPU30は、これら4つの算出画素pix_1〜pix_4を、4つの隅画素pix_a〜pix_dの位置に従って選択する。   The lower part of FIG. 15 shows calculation of the average value E (f) in this embodiment. In the figure, four calculation pixels pix_1 to pix_4 used for calculating the average value E (f) are shown. The CPU 30 selects these four calculation pixels pix_1 to pix_4 according to the positions of the four corner pixels pix_a to pix_d.

第1算出画素pix_1は、第1隅画素pix_aから、行(y方向位置)と列(x方向位置)とを基準画素pix_s側に1つずつシフトした位置の画素である。この第1算出画素pix_1の輝度積分値p(x1、y1)は、第1領域Aa内の輝度値の合計値を表している。   The first calculation pixel pix_1 is a pixel at a position where the row (position in the y direction) and the column (position in the x direction) are shifted one by one to the reference pixel pix_s side from the first corner pixel pix_a. The luminance integral value p (x1, y1) of the first calculation pixel pix_1 represents the total value of the luminance values in the first area Aa.

第2算出画素pix_2は、第2隅画素pix_bから、行(y方向位置)を基準画素pix_s側に1だけシフトした位置の画素である。この第2算出画素pix_2の輝度積分値p(x2、y2)は、第1領域Aaと第2領域Abとの全体の内の輝度値の合計値を表している。   The second calculation pixel pix_2 is a pixel at a position where the row (position in the y direction) is shifted by 1 to the reference pixel pix_s side from the second corner pixel pix_b. The luminance integration value p (x2, y2) of the second calculation pixel pix_2 represents the total luminance value of the entire first area Aa and second area Ab.

第3算出画素pix_3は、第3隅画素pix_cから、列(x方向位置)を基準画素pix_s側に1だけシフトした位置の画素である。この第3算出画素pix_3の輝度積分値p(x3、y3)は、第1領域Aaと第3領域Acとの全体の内の輝度値の合計値を表している。   The third calculated pixel pix_3 is a pixel at a position where the column (position in the x direction) is shifted by 1 toward the reference pixel pix_s from the third corner pixel pix_c. The luminance integrated value p (x3, y3) of the third calculation pixel pix_3 represents the total value of the luminance values in the first area Aa and the third area Ac.

第4算出画素pix_4は、第4隅画素pix_dと同じである。第4算出画素pix_4の輝度積分値p(x4、y4)は、隅矩形領域AL全体の内の輝度値の合計値を表している。   The fourth calculation pixel pix_4 is the same as the fourth corner pixel pix_d. The luminance integrated value p (x4, y4) of the fourth calculation pixel pix_4 represents the total luminance value in the entire corner rectangular area AL.

これら4つの算出画素pix_1〜pix_4は、対象矩形領域Adの輪郭線(対象矩形領域Adを囲む矩形状の画素境界線)上の4つの頂点に対して基準画素pix_sの方向にそれぞれ隣接している。そして、CPU30は、これらの算出画素pix_1〜pix_4を利用し、以下の数式3に従って、平均値E(f)を算出する。   These four calculated pixels pix_1 to pix_4 are adjacent to the four vertices on the outline of the target rectangular area Ad (rectangular pixel boundary line surrounding the target rectangular area Ad) in the direction of the reference pixel pix_s. . Then, the CPU 30 uses these calculated pixels pix_1 to pix_4 to calculate an average value E (f) according to the following Equation 3.

Figure 2009105541
Figure 2009105541

この実施例では、HとWとの大きさに拘わらずに、第1積分データID1(RAM40)に対する4回のアクセスで、1つの注目画素pix_kに関する平均値E(f)を算出することができる。このように、実施例では、上述の比較例と比べて、RAM40に対するアクセス数を大幅に低減することができる。また、4つの値の演算(加算)で分子を算出することができるので、演算負荷を大幅に軽減することができる。   In this embodiment, regardless of the sizes of H and W, the average value E (f) for one pixel of interest pix_k can be calculated by four accesses to the first integration data ID1 (RAM 40). . Thus, in the embodiment, the number of accesses to the RAM 40 can be significantly reduced as compared with the comparative example described above. In addition, since the numerator can be calculated by calculating (adding) four values, the calculation load can be greatly reduced.

輝度値fの2乗(f2)の平均値E(f2)の算出も、輝度値fの平均値E(f)の算出と同様である。図12のステップS205で生成される第2積分データID2(図1)は、対象画像データSIの各画素pixの輝度2乗積分値psを表している。ある画素pix(xt、yt)の輝度2乗積分値ps(xt、yt)は、以下の数式4で表される。 Calculation of the square of the luminance value f (f 2) of the average value E (f 2) is also similar to the calculation of the average value E of the luminance value f (f). The second integral data ID2 (FIG. 1) generated in step S205 of FIG. 12 represents the luminance square integral value ps of each pixel pix of the target image data SI. The luminance square integral value ps (xt, yt) of a certain pixel pix (xt, yt) is expressed by the following Equation 4.

Figure 2009105541
Figure 2009105541

図12のステップS210では、CPU30は、上述した4つの算出画素pix_1〜pix_4の輝度2乗積分値psを第2積分データID2(RAM40)から取得し、以下の数式5に従って輝度値fの2乗の平均値E(f2)を算出する。 In step S210 of FIG. 12, the CPU 30 acquires the luminance square integral value ps of the four calculation pixels pix_1 to pix_4 described above from the second integral data ID2 (RAM 40), and squares the luminance value f according to the following equation 5. An average value E (f 2 ) is calculated.

Figure 2009105541
Figure 2009105541

図12のステップS210では、CPU30は、算出した平均値E(f)、E(f2)を利用して分散V(f)を算出する(数式1)。なお、第1部分領域SAk0(図13)の分散VAR0の算出では、dx=dy=2である(図15)。第2部分領域SAk1の分散VAR1の算出では、dx=dy=3である。第3部分領域SAk2の分散VAR2の算出では、dx=dy=4である。 In step S210 of FIG. 12, the CPU 30 calculates the variance V (f) using the calculated average values E (f) and E (f 2 ) (Formula 1). In the calculation of the variance VAR0 of the first partial area SAk0 (FIG. 13), dx = dy = 2 (FIG. 15). In the calculation of the variance VAR1 of the second partial area SAk1, dx = dy = 3. In the calculation of the variance VAR2 of the third partial area SAk2, dx = dy = 4.

D−3.属性判定処理:
図16は、図12のステップS220に示した領域判定処理(属性判定処理)の流れを示すフローチャートである。CPU30は、図16に示す各ステップS500〜S520の処理を、領域分類部33に含まれる領域判定部334の処理として実行する。このような属性判定処理も画像処理の一種である。
D-3. Attribute judgment processing:
FIG. 16 is a flowchart showing the flow of the area determination process (attribute determination process) shown in step S220 of FIG. The CPU 30 executes the processes of steps S500 to S520 shown in FIG. 16 as a process of the area determination unit 334 included in the area classification unit 33. Such attribute determination processing is also a kind of image processing.

最初のステップS500では、CPU30は、注目画素が、網点部分を表しているか否かを、輝度値の分散を利用して判断する。   In the first step S500, the CPU 30 determines whether or not the pixel of interest represents a halftone dot portion using the distribution of luminance values.

図17は、エッジ部分と網点部分との2つの部分領域における輝度値の例を示している。注目画素pix_kがエッジ部分を表す場合は、部分領域内で色が大きく変化するので、通常は輝度値の分散は大きい。注目画素pix_kが網点部分を表す場合は、部分領域内で色が周期的に変化する。ただし、網点部分での色の変化はエッジ部分と比べて小さい場合が多いので、通常は輝度値の分散はエッジ部分と比べて小さい。   FIG. 17 shows an example of luminance values in two partial regions, that is, an edge portion and a halftone dot portion. When the pixel of interest pix_k represents an edge portion, the color changes greatly in the partial region, and thus the luminance value dispersion is usually large. When the pixel of interest pix_k represents a halftone dot portion, the color changes periodically within the partial region. However, since the color change at the halftone portion is often smaller than that at the edge portion, the dispersion of luminance values is usually smaller than that at the edge portion.

図18(A)、18(B)、18(C)は、それぞれ、5×5画素、7×7画素、9×9画素の部分領域における分散のヒストグラムの例を示している(横軸は、標準偏差(分散の正の平方根)が均等に並ぶように設定されている)。各ヒストグラムは、網点部分とエッジ部分とのそれぞれの分散を示している。これらのヒストグラムは、様々な画像データの様々な領域の解析結果に従って作成されている。図示するように、網点部分とエッジ部分との間では、分散分布の偏りが互いに異なっている。従って、分散の大きさを閾値で判定することによって、エッジ部分と網点部分とを、或る程度の精度で判定できる。   FIGS. 18A, 18B, and 18C show examples of dispersion histograms in partial regions of 5 × 5 pixels, 7 × 7 pixels, and 9 × 9 pixels, respectively (the horizontal axis is Standard deviation (positive square root of variance) is set to be evenly aligned). Each histogram shows the variance of the halftone dot portion and the edge portion. These histograms are created according to the analysis results of various regions of various image data. As shown in the figure, the deviation of the dispersion distribution is different between the halftone dot portion and the edge portion. Therefore, the edge portion and the halftone dot portion can be determined with a certain degree of accuracy by determining the magnitude of the variance using the threshold value.

さらに、複数の部分領域の分散を総合することによって、判定の精度を向上させることもできる。図19は、網点部分を表す部分領域の一例を示している。図中には、5×5画素、7×7画素、9×9画素のそれぞれの分散VARx0〜VARx2が示されている。図18の各ヒストグラムに示す分散VARx0〜VARx2は、図19に示すこれらの分散を示している。   Furthermore, the accuracy of determination can be improved by integrating the dispersion of the plurality of partial regions. FIG. 19 shows an example of a partial region representing a halftone dot portion. In the figure, distributed VARx0 to VARx2 of 5 × 5 pixels, 7 × 7 pixels, and 9 × 9 pixels are shown. The variances VARx0 to VARx2 shown in each histogram of FIG. 18 indicate these variances shown in FIG.

図18に示すように、5×5画素の分散VARx0は、網点部分の典型的な分散分布における特に大きい値(頻度の比較的少ない値)を示している。その結果、この分散VARx0のみを利用する場合には、注目画素pix_kがエッジ部分であると誤判定する可能性が高くなる。一方、7×7画素の分散VARx1と、9×9画素の分散VARx2とは、典型的な分散分布におけるピークに近い値(頻度の比較的多い値)を示している。その結果、これらの分散VARx1、VARx2を利用すれば、誤判定の可能性を低減できる。   As shown in FIG. 18, the variance VARx0 of 5 × 5 pixels shows a particularly large value (a value with a relatively low frequency) in a typical variance distribution of the halftone dot portion. As a result, when only this distributed VARx0 is used, there is a high possibility that the target pixel pix_k is erroneously determined to be an edge portion. On the other hand, the variance VARx1 of 7 × 7 pixels and the variance VARx2 of 9 × 9 pixels indicate values close to peaks (values with a relatively high frequency) in a typical variance distribution. As a result, if these distributed VARx1 and VARx2 are used, the possibility of erroneous determination can be reduced.

複数の部分領域のそれぞれの分散は、注目画素pix_kの周辺における色変化パターン(例えば、対象画像が表す被写体や網点サイズ)に従って変わる。その結果、複数の部分領域の内の判定に適した部分領域は、色変化パターンに従って変わり得る。例えば、9×9画素の分散よりも、5×5画素の分散を利用した方が、誤判定の可能性を低減できる場合もあり得る。   The variance of each of the plurality of partial areas changes according to the color change pattern (for example, the subject or halftone dot size represented by the target image) around the pixel of interest pix_k. As a result, the partial area suitable for determination among the plurality of partial areas can change according to the color change pattern. For example, it may be possible to reduce the possibility of erroneous determination by using 5 × 5 pixel dispersion rather than 9 × 9 pixel dispersion.

そこで、本実施例では、色変化パターンに拘わらずに判定精度を高めるために、CPU30は、サイズの異なる3つの部分領域SAk0、SAk1、SAk2(図13)のそれぞれの分散VAR0、VAR1、VAR2を利用して判定を行う。具体的には、CPU30は、以下の数式6に従って算出される評価値EVaが0以上の場合に、注目画素pix_kがエッジ部分であると判定し、評価値EVaが0未満の場合に、網点部分であると判定する。   Therefore, in this embodiment, in order to increase the determination accuracy regardless of the color change pattern, the CPU 30 determines the respective variances VAR0, VAR1, and VAR2 of the three partial areas SAk0, SAk1, and SAk2 (FIG. 13) having different sizes. Make a judgment using it. Specifically, the CPU 30 determines that the target pixel pix_k is an edge portion when the evaluation value EVa calculated according to the following Equation 6 is 0 or more, and when the evaluation value EVa is less than 0, the halftone dot It is determined to be a part.

Figure 2009105541
Figure 2009105541

識別子tは、部分領域の識別子である。本実施例では、t=0が5×5画素に対応し、t=1は7×7画素に対応し、t=2は9×9画素に対応している。最大値Tは、識別子tの最大値である(本実施例では2)。係数Catは、各部分領域に対する重みを表す所定の正値である。閾値THatは、部分領域毎に予め決められた分散の閾値である。分散VARtは、各部分領域での分散である。符号関数signは、引数の符号を返す関数である。VARt>THatの場合にはsign=+1であり、VARt=THatの場合にはsign=0であり、VARt<THatの場合にはsign=−1である。   The identifier t is a partial area identifier. In this embodiment, t = 0 corresponds to 5 × 5 pixels, t = 1 corresponds to 7 × 7 pixels, and t = 2 corresponds to 9 × 9 pixels. The maximum value T is the maximum value of the identifier t (2 in this embodiment). The coefficient Cat is a predetermined positive value representing the weight for each partial region. The threshold value THat is a dispersion threshold value determined in advance for each partial region. The variance VARt is the variance in each partial area. The sign function sign is a function that returns the sign of the argument. When VARt> THat, sign = + 1, when VARt = THat, sign = 0, and when VARt <THat, sign = -1.

評価値EVaは、分散VARtが閾値THatよりも大きいか否かの判定結果を、各部分領域毎に重みを付けて足し合わせた値を表している。従って、図19に示す例のように一部の部分領域からは正しい判定結果が得られない場合であっても、さらに他の部分領域を利用することによって、正しい判定結果を得ることができる。これらの結果、色変化パターンに拘わらずに判定精度を高めることができる。なお、閾値THa0、THa1、THa2と係数Ca0、Ca1、Ca2とのそれぞれは、多数の画像を分析することで、予め、実験的、経験的に求められる。   The evaluation value EVa represents a value obtained by adding the determination results as to whether or not the variance VARt is larger than the threshold value THat with weighting for each partial region. Accordingly, even when a correct determination result cannot be obtained from a partial area as in the example shown in FIG. 19, a correct determination result can be obtained by using another partial area. As a result, the determination accuracy can be increased regardless of the color change pattern. Note that the threshold values THa0, THa1, THa2 and the coefficients Ca0, Ca1, Ca2 are obtained in advance experimentally and empirically by analyzing a large number of images.

CPU30は、評価値EVaを算出し、評価値EVaが0未満であるか否かを判定する(図16:S500)。CPU30は、評価値EVaが0未満であれば注目画素を網点部分と判断し(S510)、評価値EVaが0以上であれば注目画素をエッジ部分と判断する(S520)。そして、CPU30は、属性判定処理を終了し、図12に示した画素分類処理に処理を戻す。   The CPU 30 calculates the evaluation value EVa and determines whether or not the evaluation value EVa is less than 0 (FIG. 16: S500). If the evaluation value EVa is less than 0, the CPU 30 determines that the pixel of interest is a halftone dot portion (S510), and if the evaluation value EVa is 0 or more, determines that the pixel of interest is an edge portion (S520). And CPU30 complete | finishes an attribute determination process, and returns a process to the pixel classification | category process shown in FIG.

なお、上述したように、CPU30は、網点画素とエッジ画素との分類結果に従って、文字画素と網点画素と余白画素との分類を実行する。なお、通常は、網点部分の輝度値の分散は、その網点部分が文字を含むか否かに拘わらずに、エッジ部分の輝度値の分散よりも小さい。従って、網点部分が文字を含むか否かに拘わらずに、網点部分の画素は網点画素として分類される。   As described above, the CPU 30 executes classification of character pixels, halftone pixels, and blank pixels according to the classification result of halftone pixels and edge pixels. Normally, the variance of the luminance value of the halftone dot portion is smaller than the variance of the luminance value of the edge portion regardless of whether or not the halftone dot portion includes characters. Therefore, regardless of whether or not the halftone dot portion includes characters, the pixels of the halftone dot portion are classified as halftone dot pixels.

以上のように、画素分類処理の第1実施例では、サイズの異なる複数の部分領域のそれぞれの分散を利用して属性が判定される。すなわち、局所的な視点と大域的な視点との両方を考慮して属性が判定される。その結果、判定精度を高めることができる。また、積分データを利用して分散が算出されるので、対象画像データSIの複数の画素位置のそれぞれに関する分散を算出する場合であっても、メモリに対するアクセス数が過剰に多くなることを抑制できる。そして、演算負荷を軽減できる。   As described above, in the first example of the pixel classification process, the attribute is determined using the variance of each of the partial areas having different sizes. That is, the attribute is determined in consideration of both a local viewpoint and a global viewpoint. As a result, the determination accuracy can be increased. Further, since the variance is calculated using the integral data, it is possible to suppress an excessive increase in the number of accesses to the memory even when calculating the variance for each of the plurality of pixel positions of the target image data SI. . And calculation load can be reduced.

なお、本実施例においては、変化を検知しやすいことから、RGBの階調値から輝度の階調値を算出し、算出した輝度の階調値を用いて属性判定を行ったが、階調値は輝度に限るものではなく、色を表す階調値であればよい。例えば、画像データがYCbCr形式で与えられる場合には、輝度の階調値として画像データのY成分を直接用いてもよいし、Cb成分やCr成分を用いてもよいし、画素のR成分などを用いてもよい。   In this embodiment, since the change is easy to detect, the luminance gradation value is calculated from the RGB gradation values, and the attribute determination is performed using the calculated luminance gradation value. The value is not limited to luminance, but may be a gradation value representing a color. For example, when the image data is given in the YCbCr format, the Y component of the image data may be used directly as the luminance gradation value, the Cb component or the Cr component may be used, the R component of the pixel, etc. May be used.

かかる構成のプリンタ10は、注目画素の周辺の所定範囲の画素群の分散を算出し、これを基に評価値EVaを算出し、その結果に基づいて注目画素の属性を判定する。したがって、分散計算を中心とした簡単な演算処理で、エッジ構成部分、網点構成部分といった画素の属性の判定を行うことができる。また、当該判定技術は、簡単な演算処理で構成されることから、ソフトウェアで安価に構成することができる。また、簡単な演算処理の組合せで構成されるので、SIMD(Single Instruction Multiple Data)向き並列処理として実装でき、高速処理が可能となる。例えば、画像データの読み込みと領域分類(判定)とを並列化してもよい。   The printer 10 having such a configuration calculates the variance of a pixel group within a predetermined range around the pixel of interest, calculates the evaluation value EVa based on the variance, and determines the attribute of the pixel of interest based on the result. Therefore, it is possible to determine the attributes of pixels such as an edge component and a halftone dot component by simple arithmetic processing centering on distributed calculation. Further, since the determination technique is configured by simple arithmetic processing, it can be configured at low cost by software. Further, since it is configured by a combination of simple arithmetic processing, it can be implemented as SIMD (Single Instruction Multiple Data) parallel processing, and high-speed processing is possible. For example, reading of image data and area classification (determination) may be performed in parallel.

D−4.画素分類処理の第2実施例:
図20は、図12のステップS220に示した領域判定処理(属性判定処理)の別の実施例を示すフローチャートである。図16の実施例との差違は、網点部分とエッジ部分とに加えて、文字内部とその他との4種類の判定が行われる点である。なお、CPU30(図1)は、図20に示す各ステップS400〜S445の処理を、領域分類部33に含まれる領域判定部334の処理として、実行する。
D-4. Second embodiment of pixel classification processing:
FIG. 20 is a flowchart showing another embodiment of the area determination process (attribute determination process) shown in step S220 of FIG. The difference from the embodiment of FIG. 16 is that four types of determination are made for the inside of the character and others in addition to the halftone dot portion and the edge portion. The CPU 30 (FIG. 1) executes the processes of steps S400 to S445 illustrated in FIG. 20 as the processes of the area determination unit 334 included in the area classification unit 33.

最初のステップS400では、CPU30は、注目画素の色が背景色範囲に含まれているか否かを判定する。注目画素の色が背景色範囲に含まれている場合には、CPU30は、その注目画素を「その他」と判断する(S445)。背景色範囲は、対象画像の背景部分を表す色の範囲を示している。CPU30は、例えば、対象画像中の所定の縁部分(例えば、縁からの距離が20画素以内の部分)の平均色を中心とする所定サイズの色範囲を背景色範囲として採用する。例えば、白い紙を用いた印刷物を対象画像が表す場合には、紙の白色を表す色範囲が背景色範囲として採用される。この代わりに、所定の色範囲(例えば、輝度値が所定の閾値以上の色範囲)が背景色範囲として採用されてもよい。   In the first step S400, the CPU 30 determines whether or not the color of the target pixel is included in the background color range. When the color of the target pixel is included in the background color range, the CPU 30 determines that the target pixel is “others” (S445). The background color range indicates a color range representing the background portion of the target image. For example, the CPU 30 employs a color range of a predetermined size centered on the average color of a predetermined edge portion (for example, a portion within 20 pixels from the edge) in the target image as the background color range. For example, when the target image represents a printed matter using white paper, the color range representing the white color of the paper is employed as the background color range. Instead, a predetermined color range (for example, a color range having a luminance value equal to or greater than a predetermined threshold) may be adopted as the background color range.

次のステップS410、S420、S430では、CPU30は、注目画素が、文字内部、網点部分、エッジ部分のいずれに該当するかを、輝度値の分散を利用して判断する。   In the next steps S410, S420, and S430, the CPU 30 determines whether the target pixel corresponds to the inside of a character, a halftone dot portion, or an edge portion by using the distribution of luminance values.

図21は、3つの部分領域における輝度値の例を示している。図17との差異は、文字内部が追加されている点だけである。注目画素pix_kが文字内部を表す場合は、しばしば部分領域内の各画素の色がほぼ同じであるので、通常は輝度値の分散は、網点部分と比べて小さい。   FIG. 21 shows an example of luminance values in three partial areas. The only difference from FIG. 17 is that the inside of the character is added. When the pixel of interest pix_k represents the inside of a character, the color of each pixel in the partial area is often almost the same, so that the dispersion of luminance values is usually smaller than that of the halftone dot portion.

図22(A)、22(B)、22(C)は、それぞれ、3つの部分領域における分散のヒストグラムの例を示している。図18との差異は、文字内部のヒストグラムが追加されている点だけである。図示するように、文字内部と網点部分との間では、分散分布の偏りが互いに異なっている。従って、網点部分とエッジ部分との判定と同様に、分散の大きさを閾値THb0、THb1、THb2で判定することによって、文字内部と網点部分とを、或る程度の精度で判定できる。   22 (A), 22 (B), and 22 (C) show examples of dispersion histograms in three partial regions, respectively. The only difference from FIG. 18 is that a histogram inside the characters is added. As shown in the figure, the deviation of the dispersion distribution is different between the inside of the character and the halftone dot portion. Therefore, as in the determination of the halftone dot portion and the edge portion, the inside of the character and the halftone dot portion can be determined with a certain degree of accuracy by determining the magnitude of the dispersion with the threshold values THb0, THb1, and THb2.

図20のステップS410では、CPU30(図1)は、図16と同様の方法で、注目画素が「文字内部」であるか否かを判定する。ステップS420は、図16のステップS500と同じである(注目画素が「網点部分」であるか否かの判定)。ステップS430では、CPU30は、図16と同様の方法で、注目画素が「エッジ部分」であるか否かを判定する。ステップS430では、分散が過剰に大きい場合に、注目画素がエッジ部分では無いと判定される。ただし、ステップS430を省略してもよい。この場合には、背景でもなく文字内部でもなく網点部分でもないと判断された画素の全てが、エッジ部分であると判断される。   In step S410 of FIG. 20, the CPU 30 (FIG. 1) determines whether or not the target pixel is “inside the character” by the same method as in FIG. Step S420 is the same as step S500 in FIG. 16 (determination as to whether or not the pixel of interest is a “halftone dot portion”). In step S430, the CPU 30 determines whether or not the target pixel is an “edge portion” by the same method as in FIG. In step S430, when the variance is excessively large, it is determined that the target pixel is not an edge portion. However, step S430 may be omitted. In this case, all of the pixels that are determined not to be in the background, in the character, or in the halftone portion are determined to be edge portions.

なお、ステップS410、S430のそれぞれの判定には、上述の評価値EVa(数式6)と同様の評価値が利用される。ステップS410では、CPU30は、評価値が0未満の場合に、注目画素が文字内部であると判定し、評価値が0以上の場合に、文字内部では無いと判定する。ステップS430では、CPU30は、評価値が0未満の場合に、注目画素がエッジ部分であると判定し、評価値が0以上の場合に、エッジ部分では無いと判定する。各評価値の算出に利用される係数(係数Catに相当)と閾値(閾値THatに相当)とは、多数の画像を分析することで、予め、実験的、経験的に求められる。   For each determination in steps S410 and S430, an evaluation value similar to the above-described evaluation value EVa (Formula 6) is used. In step S410, the CPU 30 determines that the target pixel is inside the character when the evaluation value is less than 0, and determines that it is not inside the character when the evaluation value is 0 or more. In step S430, the CPU 30 determines that the pixel of interest is an edge portion when the evaluation value is less than 0, and determines that it is not an edge portion when the evaluation value is 0 or more. A coefficient (corresponding to the coefficient Cat) and a threshold value (corresponding to the threshold value THat) used for calculating each evaluation value are obtained experimentally and empirically in advance by analyzing a large number of images.

図23は、文字と網点とを表す画像部分IPの判定結果の概略図である。第1パターンP1は、各画素がエッジ部分か否かを表す2値パターンである。第2パターンP2は、各画素が文字内部か否かを表す2値パターンである。第3パターンP3は、各画素が網点部分か否かを表す2値パターンである。第4パターンP4は、各画素がその他か否かを表す2値パターンである。図中では、各部分に該当する画素が実線またはハッチングで表されている。図示するように、文字の輪郭を表す画素はエッジ部分と判定され、文字の内部を表す画素は文字内部と判定され、網点画像を表す画素は網点部分と判定され、背景はその他と判定される。   FIG. 23 is a schematic diagram of the determination result of the image portion IP representing characters and halftone dots. The first pattern P1 is a binary pattern indicating whether each pixel is an edge portion. The second pattern P2 is a binary pattern indicating whether each pixel is inside a character. The third pattern P3 is a binary pattern indicating whether each pixel is a halftone dot portion. The fourth pattern P4 is a binary pattern indicating whether each pixel is other. In the figure, pixels corresponding to each portion are represented by solid lines or hatching. As shown in the figure, the pixel representing the outline of the character is determined to be an edge portion, the pixel representing the inside of the character is determined to be inside the character, the pixel representing the halftone image is determined to be a halftone portion, and the background is determined to be others. Is done.

図12のステップS240では、CPU30は、領域判定部334の処理として判定結果をRAM40に書き込む。書き込まれる判定結果としては、例えば、図23に示す4つの2値パターンデータを採用してもよく、また、各画素が4つの属性のいずれであるかを示す4値パターンデータを採用してもよい。   In step S <b> 240 of FIG. 12, the CPU 30 writes the determination result in the RAM 40 as processing of the region determination unit 334. As the determination result to be written, for example, four binary pattern data shown in FIG. 23 may be adopted, or quaternary pattern data indicating which of the four attributes each pixel is adopted may be adopted. Good.

ここで、CPU30は、エッジ部分と文字内部との両方の画素を文字画素として識別し、そして、その他と判定された画素を余白画素として識別する。また、図12のステップS240では、CPU30は、文字画素と網点画素と余白画素とを識別可能な任意のデータをRAM40に格納すればよい。このようなデータとしては、例えば、3つの属性のいずれであるかを示す3値パターンデータを採用可能である。   Here, the CPU 30 identifies both the edge portion and the inside of the character as character pixels, and identifies the pixels determined to be other as blank pixels. In step S240 in FIG. 12, the CPU 30 may store arbitrary data that can identify the character pixel, the halftone dot pixel, and the blank pixel in the RAM 40. As such data, for example, ternary pattern data indicating which of the three attributes can be employed.

以上のような画素分類処理の各実施例と、文字画素連結による文字列領域の検出とを組み合わせることによって、文字列領域の検出に要する負担を軽減することができる。例えば、文字を1文字ずつ認識する解析処理(例えば、いわゆるOCR(optical character recognition)や、文字を表す領域を1文字ずつ分類する処理を省略できる。   By combining each embodiment of pixel classification processing as described above and detection of a character string region by character pixel concatenation, the burden required for detection of the character string region can be reduced. For example, it is possible to omit analysis processing for recognizing characters one by one (for example, so-called OCR (optical character recognition) and processing for classifying regions representing characters one by one.

なお、画素が表す画像種類の分類方法としては、上述の各実施例の方法に限らず、周知の種々の方法を採用可能である。ここで、注目画素とその周辺の所定範囲内の画素とを含む一部の領域内における画素値の分布に従って注目画素の種類を特定する方法を採用すれば、分類処理の負担を軽減することができる。例えば、上述の各実施例において、分散の代わりに、注目画素pix_kの周辺の画素値の最大差分を利用してもよい。   In addition, as a classification method of the image type which a pixel represents, not only the method of each above-mentioned Example but a well-known various method is employable. Here, if a method of specifying the type of the pixel of interest in accordance with the distribution of pixel values in a partial region including the pixel of interest and the pixels within a predetermined range around the pixel of interest is used, the burden of classification processing can be reduced. it can. For example, in each of the embodiments described above, the maximum difference between the pixel values around the pixel of interest pix_k may be used instead of the variance.

また、識別される画素の種類としては、余白と網点と文字との3種類に限らず、少なくとも網点と文字とを含む任意の種類を採用可能である。例えば、文字領域が余白以外の他の領域(例えば、網点領域)内にも広がる場合には、余白画素の特定を省略してもよい。   Further, the types of pixels to be identified are not limited to the three types of margins, halftone dots, and characters, and any type including at least halftone dots and characters can be employed. For example, when the character region extends in other regions (for example, halftone dot regions) other than the margin, the specification of the margin pixel may be omitted.

C.変形例:
なお、上記各実施例における構成要素の中の、独立クレームでクレームされた要素以外の要素は、付加的な要素であり、適宜省略可能である。また、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variations:
In addition, elements other than the elements claimed in the independent claims among the constituent elements in each of the above embodiments are additional elements and can be omitted as appropriate. The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

変形例1:
上述の各実施例において、文字列とは異なる画像を表す部分も文字列領域として分類される場合がある。例えば、対象画像データSIにグラフを表す部分が含まれる場合には、そのグラフを表す部分が文字列領域として分類され得る。この場合には、グラフも、文字列と同様に、拡大されるが、実用上の問題は無い。但し、グラフを表す領域を、文字列領域から区別し、グラフ領域を拡大対象から外してもよい。
Modification 1:
In each of the embodiments described above, a part representing an image different from a character string may be classified as a character string region. For example, when the target image data SI includes a portion representing a graph, the portion representing the graph can be classified as a character string region. In this case, the graph is enlarged similarly to the character string, but there is no practical problem. However, the area representing the graph may be distinguished from the character string area, and the graph area may be excluded from the enlargement target.

変形例2:
上述の各実施例において、文字列領域の検出方法としては、文字画素検出と文字画素連結とを組み合わせた方法に限らず、任意の方法を採用可能である。例えば、いわゆるOCR(optical character recognition)を利用して文字列領域を検出してもよい。
Modification 2:
In each of the above-described embodiments, the method for detecting a character string region is not limited to a method combining character pixel detection and character pixel concatenation, and any method can be employed. For example, a character string region may be detected using so-called OCR (optical character recognition).

また、網点領域を検出する方法としても、種々の方法を採用可能である。例えば、パターンマッチングに従って網点領域を検出してもよい。   Also, various methods can be adopted as a method for detecting a halftone dot region. For example, a halftone dot region may be detected according to pattern matching.

いずれの場合も、CPU30(領域分類部33)は、網点画像が文字を含むか否かに拘わらずに、網点画像を表す領域を網点領域として検出することが好ましい。こうすれば、網点によって表される画像に文字が含まれている場合であっても、文字列拡大の影響によって網点領域が過剰に変形することを抑制できる。例えば、先ず対象画像から網点領域を分類(検出)し、次に網点領域を除いた残りの領域から文字列領域を分類(検出)すればよい。   In any case, it is preferable that the CPU 30 (region classification unit 33) detects a region representing a halftone dot image as a halftone dot region regardless of whether or not the halftone dot image includes characters. In this way, even when characters are included in the image represented by the halftone dots, it is possible to prevent the halftone dot region from being excessively deformed due to the influence of the character string expansion. For example, first, a halftone area is classified (detected) from the target image, and then a character string area is classified (detected) from the remaining area excluding the halftone area.

変形例3:
上述の各実施例において、CPU30(画像合成部36)は、文字列領域と同様に、網点領域を拡大してもよい。この場合も、CPU30(領域分類部33)が網点領域と文字列領域とを分類することによって、網点によって表される画像が不自然に変形されることを抑制できる。
Modification 3:
In each of the above-described embodiments, the CPU 30 (image composition unit 36) may enlarge the halftone dot area in the same manner as the character string area. Also in this case, the CPU 30 (region classification unit 33) can classify the halftone dot region and the character string region, thereby suppressing the image represented by the halftone dot from being unnaturally deformed.

変形例4:
上述の各実施例において、対象画像データとしては、スキャナ91によるスキャンによって生成された画像データに限らず、種々の画像データを採用可能である。例えば、プリンタ10は、着脱可能なメモリカードや、ネットワークを介して接続された他の装置から対象画像データを取得してもよい。
Modification 4:
In each of the above-described embodiments, the target image data is not limited to the image data generated by scanning by the scanner 91, and various image data can be employed. For example, the printer 10 may acquire target image data from a removable memory card or another device connected via a network.

また、上述の各実施例において、文字列領域が拡大された後の画像データの用途としては、印刷に限らず、種々の用途を採用可能である。例えば、ディスプレイ装置に画像を表示してもよく、画像データを含むデータファイルをユーザに提供してもよい。   In each of the above-described embodiments, the application of the image data after the character string area is enlarged is not limited to printing, and various applications can be employed. For example, an image may be displayed on a display device, and a data file including image data may be provided to the user.

変形例5:
以上、本発明の実施例について説明したが、本発明はこうした実施例に限られるものではなく、本発明の要旨を脱しない範囲において、種々なる態様で実施できることは勿論である。例えば、本発明の画像処理装置は、実施例に示したプリンタ複合機に限らず、プリンタ単独機、デジタル複写機、イメージスキャナなど各種デジタル機器に搭載することができる。また、画像処理装置としての構成に限らず、判定画像処理方法や、コンピュータプログラム等の形態でも実現することができる。
Modification 5:
As mentioned above, although the Example of this invention was described, this invention is not limited to such an Example, Of course, in the range which does not deviate from the summary of this invention, it can implement in a various aspect. For example, the image processing apparatus of the present invention can be mounted not only on the printer multifunction device shown in the embodiment but also on various digital devices such as a printer alone, a digital copying machine, and an image scanner. Further, the present invention is not limited to the configuration as the image processing apparatus, and can be realized in the form of a determination image processing method, a computer program, or the like.

また、図11の実施例のように対象画像中の文字列を検出する画像処理装置、文字列の検出方法、文字列を検出するためのコンピュータプログラム等の形態でも実現することができる。このような形態を採用すれば、種々の画像において適切に文字列を検出することができる。なお、このような画像処理装置としては以下の構成を採用可能である。例えば、対象画像を表す対象画像データを処理する画像処理装置は、対象画像から文字列を表す文字列領域を検出する領域検出部を備えている。そして、この領域検出部は、上述の適用例3、4、5に示す領域分類部と同じ特徴を有する。   Further, the present invention can also be realized in the form of an image processing apparatus that detects a character string in a target image, a character string detection method, a computer program for detecting a character string, and the like as in the embodiment of FIG. By adopting such a form, it is possible to appropriately detect a character string in various images. The following configuration can be adopted as such an image processing apparatus. For example, an image processing apparatus that processes target image data representing a target image includes an area detection unit that detects a character string area representing a character string from the target image. The region detection unit has the same characteristics as the region classification unit shown in the application examples 3, 4, and 5 described above.

変形例6:
上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図1の領域分類部33の機能を、論理回路を有するハードウェア回路によって実現してもよい。
Modification 6:
In each of the above embodiments, a part of the configuration realized by hardware may be replaced with software, and conversely, part or all of the configuration realized by software may be replaced with hardware. Also good. For example, the function of the area classification unit 33 in FIG. 1 may be realized by a hardware circuit having a logic circuit.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピュータ読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, and the like. An external storage device fixed to the computer is also included.

本願の画像処理装置の実施例としてのプリンタ10の概略構成を示す説明図である。1 is an explanatory diagram illustrating a schematic configuration of a printer 10 as an embodiment of an image processing apparatus of the present application. 画像複製処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an image duplication process. 画像複製処理を示す概略図である。It is the schematic which shows an image duplication process. 図2のステップS122に示す領域分類処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region classification process shown to step S122 of FIG. 図形の拡大と縮退との概略図である。It is the schematic of expansion and contraction of a figure. 図形の拡大と縮退とによる文字画素の連結を示す概略図である。It is the schematic which shows the connection of the character pixel by expansion and contraction of a figure. 図形の拡大と縮退とによる文字画素の連結を示す概略図である。It is the schematic which shows the connection of the character pixel by expansion and contraction of a figure. 図2のステップS132に示す画像合成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image compositing process shown to step S132 of FIG. 文字列領域拡大の概略図である。It is the schematic of character string area expansion. 文字領域拡大の別の実施例の概略図である。It is the schematic of another Example of character area expansion. 文字列検出の別の実施例を示す概略図である。It is the schematic which shows another Example of a character string detection. 画素分類処理の流れを示すフローチャート。The flowchart which shows the flow of a pixel classification process. 対象画像データSIと注目画素を示す概略図である。It is the schematic which shows the object image data SI and the attention pixel. 対象画像データSIと第1積分データID1との概略図である。It is the schematic of object image data SI and 1st integral data ID1. 第1積分データID1を利用した平均値算出を示す概略図である。It is the schematic which shows average value calculation using 1st integral data ID1. 領域判定処理(属性判定処理)の流れを示すフローチャートである。It is a flowchart which shows the flow of an area | region determination process (attribute determination process). 部分領域における輝度値の例を示す説明図。Explanatory drawing which shows the example of the luminance value in a partial area | region. 分散のヒストグラムの例を示す説明図。Explanatory drawing which shows the example of the histogram of dispersion | distribution. 網点部分を表す部分領域の一例を示す説明図。Explanatory drawing which shows an example of the partial area | region showing a halftone dot part. 領域判定処理(属性判定処理)の別の実施例を示すフローチャートである。It is a flowchart which shows another Example of an area | region determination process (attribute determination process). 3つの部分領域における輝度値の例を示す説明図。Explanatory drawing which shows the example of the luminance value in three partial area | regions. 分散のヒストグラムの例を示す説明図。Explanatory drawing which shows the example of the histogram of dispersion | distribution. 文字と網点とを表す画像部分IPの判定結果の概略図である。It is the schematic of the determination result of the image part IP showing a character and a halftone dot.

符号の説明Explanation of symbols

10…プリンタ
20…制御ユニット
30…CPU
31…画像入力部
32…積分データ生成部
33…領域分類部
35…印刷制御部
36…画像合成部
40…RAM
50…ROM
60…キャリッジ移動機構
62…キャリッジモータ
64…駆動ベルト
66…摺動軸
70…キャリッジ
71…インクヘッド
72…インクカートリッジ
80…紙送り機構
82…ローラ
84…モータ
86…プラテン
91…スキャナ
96…操作パネル
332…特徴量算出部
334…領域判定部(属性判定部)
336…文字列検出部
338…余白検出部
P…印刷用紙
ID1…第1積分データ
ID2…第2積分データ
DESCRIPTION OF SYMBOLS 10 ... Printer 20 ... Control unit 30 ... CPU
DESCRIPTION OF SYMBOLS 31 ... Image input part 32 ... Integration data generation part 33 ... Area classification | category part 35 ... Print control part 36 ... Image composition part 40 ... RAM
50 ... ROM
DESCRIPTION OF SYMBOLS 60 ... Carriage moving mechanism 62 ... Carriage motor 64 ... Drive belt 66 ... Sliding shaft 70 ... Carriage 71 ... Ink head 72 ... Ink cartridge 80 ... Paper feed mechanism 82 ... Roller 84 ... Motor 86 ... Platen 91 ... Scanner 96 ... Operation panel 332 ... Feature amount calculation unit 334 ... Area determination unit (attribute determination unit)
336: Character string detection unit 338: Margin detection unit P ... Printing paper ID1 ... First integration data ID2 ... Second integration data

Claims (8)

対象画像を表す対象画像データを処理する画像処理装置であって、
前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する領域分類部と、
前記対象画像中の前記文字列領域を拡大する画像処理部と、
を備える、画像処理装置。
An image processing apparatus for processing target image data representing a target image,
A region classification unit for detecting a halftone dot region representing a halftone dot image and a character string region different from the halftone dot region and representing a character string from the target image;
An image processing unit for enlarging the character string area in the target image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記領域分類部は、前記網点画像が文字を含むか否かに拘わらず、前記網点画像を表す領域を前記網点領域として検出する、画像処理装置。
The image processing apparatus according to claim 1,
The area classification unit detects an area representing the halftone dot image as the halftone dot area regardless of whether or not the halftone dot image includes characters.
請求項1または請求項2に記載の画像処理装置であって、
前記領域分類部は、余白領域を検出し、
前記画像処理部は、前記文字列領域を、前記文字列領域に隣接する前記余白領域内で拡大する、
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The area classification unit detects a margin area,
The image processing unit enlarges the character string area within the margin area adjacent to the character string area.
Image processing device.
請求項1ないし請求項3のいずれかに記載の画像処理装置であって、
前記領域分類部は、前記対象画像データに含まれる複数の画素の中から文字を表す文字画素を検出し、離れて配置された文字画素間を連結することによって得られる連結領域を含む領域を前記文字列領域として検出する、
画像処理装置。
An image processing apparatus according to any one of claims 1 to 3,
The region classification unit detects a character pixel representing a character from a plurality of pixels included in the target image data, and includes a region including a connected region obtained by connecting character pixels arranged apart from each other. Detect as a string area,
Image processing device.
請求項4に記載の画像処理装置であって、
前記領域分類部は、所定の方向に沿って前記文字画素を連結する異方性連結によって前記連結領域を得る、画像処理装置。
The image processing apparatus according to claim 4,
The area classification unit is an image processing device that obtains the connected area by anisotropic connection that connects the character pixels along a predetermined direction.
請求項5に記載の画像処理装置であって、
前記領域分類部は、前記所定の方向が互いに異なるN種類(Nは2以上の整数)の異方性連結のそれぞれの結果に関して、前記文字画素が連結した領域の前記所定方向に沿った長さの代表値を決定し、前記代表値が最も長い前記異方性連結に従って前記文字列領域を検出する、画像処理装置。
The image processing apparatus according to claim 5,
The region classification unit is configured to determine a length along the predetermined direction of a region where the character pixels are connected, for each result of N types (N is an integer of 2 or more) of anisotropic connections in which the predetermined directions are different from each other. An image processing apparatus that determines a representative value of the character string and detects the character string region in accordance with the anisotropic connection having the longest representative value.
対象画像を表す対象画像データを処理する画像処理方法であって、
前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する工程と、
前記対象画像中の前記文字列領域を拡大する工程と、
を有する画像処理方法。
An image processing method for processing target image data representing a target image,
Detecting, from the target image, a halftone dot region representing a halftone dot image, and a character string region different from the halftone dot region and representing a character string;
Expanding the character string region in the target image;
An image processing method.
対象画像を表す対象画像データを処理するためのコンピュータプログラムであって、
前記対象画像から、網点画像を表す網点領域と、前記網点領域とは異なるとともに文字列を表す文字列領域とを検出する機能と、
前記対象画像中の前記文字列領域を拡大する機能と、
をコンピュータに実現させるコンピュータプログラム。
A computer program for processing target image data representing a target image,
A function for detecting, from the target image, a halftone dot region representing a halftone dot image and a character string region different from the halftone dot region and representing a character string;
A function of enlarging the character string area in the target image;
A computer program that causes a computer to realize
JP2007273810A 2007-10-22 2007-10-22 Image processing apparatus, method and program Pending JP2009105541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007273810A JP2009105541A (en) 2007-10-22 2007-10-22 Image processing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007273810A JP2009105541A (en) 2007-10-22 2007-10-22 Image processing apparatus, method and program

Publications (1)

Publication Number Publication Date
JP2009105541A true JP2009105541A (en) 2009-05-14

Family

ID=40706840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007273810A Pending JP2009105541A (en) 2007-10-22 2007-10-22 Image processing apparatus, method and program

Country Status (1)

Country Link
JP (1) JP2009105541A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207584A (en) * 2012-03-28 2013-10-07 Kyocera Document Solutions Inc Image processing apparatus and image formation apparatus
JP2014147069A (en) * 2013-01-29 2014-08-14 Sharp Corp Orientation determination apparatus, orientation determination method, and computer-readable record medium
JP2015170128A (en) * 2014-03-06 2015-09-28 ブラザー工業株式会社 Image processor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207584A (en) * 2012-03-28 2013-10-07 Kyocera Document Solutions Inc Image processing apparatus and image formation apparatus
JP2014147069A (en) * 2013-01-29 2014-08-14 Sharp Corp Orientation determination apparatus, orientation determination method, and computer-readable record medium
US9076058B2 (en) 2013-01-29 2015-07-07 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for determining orientation in a document image
JP2015170128A (en) * 2014-03-06 2015-09-28 ブラザー工業株式会社 Image processor

Similar Documents

Publication Publication Date Title
JP5274495B2 (en) How to change the document image size
JP4605006B2 (en) Print data generation apparatus, print data generation method, and program
JP4329764B2 (en) Image processing apparatus and ruled line extraction program
US8717623B2 (en) Controller chip and image forming apparatus to perform color mis-registration correction and methods thereof
JP4424309B2 (en) Image processing apparatus, character determination program, and character determination method
JP5861503B2 (en) Image inspection apparatus and method
US20100020351A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20080002230A1 (en) Image processing apparatus, image processing method, program, and recording medium
US8199967B2 (en) Image processing apparatus, image processing method, and storage medium
JP5049922B2 (en) Image processing apparatus and image processing method
JP4900175B2 (en) Image processing apparatus and method, and program
JP4140519B2 (en) Image processing apparatus, program, and recording medium
US9338310B2 (en) Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
JP6249240B2 (en) Image processing device
JP2009105541A (en) Image processing apparatus, method and program
JP5003445B2 (en) Image processing apparatus, character area specifying method, and character area specifying program
JP4904987B2 (en) Printing method, printing apparatus, and printing program
JP2005316550A (en) Image processor, image reader, image inspection device and program
JP5644062B2 (en) Image processing device
JP4165408B2 (en) Image forming apparatus and image forming program
JP4217302B2 (en) Image processing apparatus and image processing method
JP2008193234A (en) Image processor, control method of image processor and control program of image processor
JP3899800B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
JPH11317874A (en) Picture processor and its processing method
JP2006210981A (en) Image processor, image processing system, method and program, and medium recording image processing program