JP2010004141A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2010004141A
JP2010004141A JP2008159417A JP2008159417A JP2010004141A JP 2010004141 A JP2010004141 A JP 2010004141A JP 2008159417 A JP2008159417 A JP 2008159417A JP 2008159417 A JP2008159417 A JP 2008159417A JP 2010004141 A JP2010004141 A JP 2010004141A
Authority
JP
Japan
Prior art keywords
character
image processing
information
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008159417A
Other languages
Japanese (ja)
Other versions
JP5003606B2 (en
Inventor
Hideyuki Hashimoto
英幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2008159417A priority Critical patent/JP5003606B2/en
Publication of JP2010004141A publication Critical patent/JP2010004141A/en
Application granted granted Critical
Publication of JP5003606B2 publication Critical patent/JP5003606B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus that achieves high character reproducibility in accordance with characters included in an original. <P>SOLUTION: A character parts analysis part 18 generates character parts information describing a variety of information by the unit of the parts configuring each character on the basis of OCR information and outline information. The character parts information includes information, such as length and breadth to be reference for each parts, an optimal size of a smoothing filter in the case of length and breadth ratio to be parts reference, weighting of smoothing filter, the kind of smoothing filter, weighting of edge enhancement filter, and the kind of edge enhancement filter. A smoothing processing part 20 and an edge enhancement processing part 24 each performas image processing, based on character parts information from the character parts analysis part 18. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、画像処理装置に関し、特に画像形成処理における文字再現性を高める技術に関する。   The present invention relates to an image processing apparatus, and more particularly to a technique for improving character reproducibility in image forming processing.

複写機などの画像処理装置では、原稿に記載された文字などを高い文字品質でプリントする性能、いわゆる文字再現性を高めることが重要である。このような文字再現性を高める方法としては、デジタル画像処理技術を用いたさまざまな処理方法が提案されている。このような画像処理技術の代表的な方法としては、スキャナ部などで読み取られた画像データを種別に応じた領域に区分し、たとえば、文字領域に対しては、文字領域に適したフィルタ処理などを行なう方法があった。   In an image processing apparatus such as a copying machine, it is important to improve the performance of printing characters and the like described on a document with high character quality, so-called character reproducibility. As a method for improving the character reproducibility, various processing methods using a digital image processing technique have been proposed. As a typical method of such an image processing technique, image data read by a scanner unit or the like is divided into regions according to types, for example, for character regions, filter processing suitable for the character regions, etc. There was a way to do.

また、原稿から文字領域を特定および抽出する技術についても、さまざまなものが提案されている。たとえば、特開2001−350763号公報(特許文献1)には、原稿から予め入力された任意のキーワードと一致する文字画像が含む原稿画像だけを検索する画像検索装置が開示されている。また、特開2002−150306号公報(特許文献2)には、新聞、雑誌等の原稿を読み取って得られた画像データ中から、特定の文書ブロックを抽出して、読みやすく、しかも定型サイズの領域に無駄なく効率的に貼り付け可能な文書データを得ることのできる画像処理装置が開示されている。
特開2001−350763号公報 特開2002−150306号公報
Various techniques have also been proposed for identifying and extracting a character area from a manuscript. For example, Japanese Patent Laying-Open No. 2001-350763 (Patent Document 1) discloses an image search apparatus that searches only a document image including a character image that matches an arbitrary keyword input in advance from a document. Japanese Patent Laid-Open No. 2002-150306 (Patent Document 2) discloses that a specific document block is extracted from image data obtained by reading a document such as a newspaper or a magazine, and is easy to read and has a fixed size. An image processing apparatus that can obtain document data that can be efficiently pasted to a region without waste is disclosed.
JP 2001-350763 A JP 2002-150306 A

上述したように、従来の画像処理方法では、特定の領域毎(たとえば、文字領域毎)にその領域に適したフィルタ処理などが行なわれていたが、文字の属性(フォント種類、フォントサイズ、画数など)によっては、必ずしも適切とは言えないフィルタ処理が行なわれる場合もあった。その結果、文字領域には、狙いとする文字品質を確保できない文字も存在するという課題があった。   As described above, in the conventional image processing method, filter processing suitable for a specific area (for example, for each character area) is performed, but character attributes (font type, font size, number of strokes) In some cases, the filtering process is not necessarily appropriate. As a result, there is a problem that there are characters in the character area that cannot ensure the target character quality.

そこで、この発明は、かかる問題を解決するためになされたものであり、その目的は、原稿に含まれる文字に応じて、高い文字再現性を実現可能な画像処理装置を提供することである。   Accordingly, the present invention has been made to solve such a problem, and an object of the present invention is to provide an image processing apparatus capable of realizing high character reproducibility according to characters included in a document.

この発明のある局面に従う画像処理装置は、入力画像データから文字を認識して当該文字の文字コードおよび当該文字を構成するパーツの属性を示す第1情報を生成する文字認識手段と、入力画像データから文字のアウトラインを取得して、当該文字の位置情報を含む第2情報を生成するアウトライン取得手段と、第1情報および第2情報に基づいて、各文字を構成するパーツに応じた画像処理方法を決定する解析手段と、入力画像データに対して、各文字を構成する各パーツが位置する領域に対して、解析手段によって決定された対応する画像処理を実行する画像処理手段とを含む。   An image processing apparatus according to an aspect of the present invention includes a character recognition unit that recognizes a character from input image data and generates first information indicating a character code of the character and attributes of parts constituting the character, and input image data An outline acquisition unit that acquires an outline of a character from the image and generates second information including position information of the character, and an image processing method according to parts constituting each character based on the first information and the second information And an image processing means for executing the corresponding image processing determined by the analysis means for the area where each part constituting each character is located with respect to the input image data.

この発明の別の局面に従う画像処理装置は、入力画像データから文字を認識して当該文字の文字コードおよび当該文字の属性を示す第1情報を生成する文字認識手段と、入力画像データから文字のアウトラインを取得して、当該文字の位置情報を含む第2情報を生成するアウトライン取得手段と、第1情報および第2情報に基づいて、各文字に応じた画像処理方法を決定する解析手段と、入力画像データに対して、各文字が位置する領域に対して、解析手段によって決定された対応する画像処理を実行する画像処理手段とを含む。   An image processing apparatus according to another aspect of the present invention includes a character recognition unit that recognizes a character from input image data and generates first information indicating a character code of the character and an attribute of the character; An outline acquisition unit that acquires an outline and generates second information including position information of the character; an analysis unit that determines an image processing method according to each character based on the first information and the second information; Image processing means for executing the corresponding image processing determined by the analysis means for the area where each character is located with respect to the input image data.

好ましくは、画像処理装置は、複数のフォント別の文字情報を格納する記憶手段をさらに含み、文字認識手段は、記憶手段を参照して、各文字のフォント種別を認識する。   Preferably, the image processing apparatus further includes storage means for storing character information for a plurality of fonts, and the character recognition means recognizes the font type of each character with reference to the storage means.

好ましくは、文字認識手段は、各文字のフォント種別、サイズ、画数を含む第1情報を生成し、解析手段は、第1情報に含まれる各文字のフォント種別、サイズ、画数の値に基づいて、画像処理方法を決定する。   Preferably, the character recognizing unit generates first information including a font type, a size, and a stroke number of each character, and the analyzing unit is based on the font type, size, and the number of strokes of each character included in the first information. Determine the image processing method.

好ましくは、画像処理手段は、平滑化処理を含み、解析手段は、平滑化処理で用いられる平滑化フィルタの形状を変更する。   Preferably, the image processing means includes a smoothing process, and the analysis means changes the shape of the smoothing filter used in the smoothing process.

好ましくは、画像処理手段は、エッジ強調処理手段を含み、解析手段は、エッジ強調処理手段における、文字部に対するエッジ強調量およびエッジ強調方法の少なくとも一方を変更する。   Preferably, the image processing means includes edge enhancement processing means, and the analysis means changes at least one of an edge enhancement amount and an edge enhancement method for the character portion in the edge enhancement processing means.

好ましくは、画像処理装置は、画像処理後の入力画像データをプリント出力するプリント部をさらに含み、解析手段は、プリント部の印字特性に応じて、画像処理装置を変更する。   Preferably, the image processing apparatus further includes a print unit that prints out the input image data after the image processing, and the analysis unit changes the image processing apparatus according to the print characteristics of the print unit.

好ましくは、解析手段は、第1情報および第2情報のいずれか一方が生成できない場合であっても、当該生成された情報に基づいて画像処理方法を決定する。   Preferably, the analysis unit determines an image processing method based on the generated information even when either one of the first information and the second information cannot be generated.

好ましくは、画像処理部は、隣接するパーツが位置する領域、または隣接する文字の間で、実行すべき画像処理方法が所定の変化量より大きく変化すべき決定がなされた場合には、画像処理方法の変更を抑制する。   Preferably, the image processing unit performs image processing when a determination is made that the image processing method to be executed should be changed more than a predetermined amount of change between an area where adjacent parts are located or between adjacent characters. Suppress method changes.

この発明によれば、原稿に含まれる文字の属性に応じて、高い文字再現性を実現できる。そのため、異なる文字サイズおよび異なるフォントの文字が混在した原稿の文字品質を高く維持することができる。   According to the present invention, high character reproducibility can be realized according to the character attribute included in the document. Therefore, it is possible to maintain high character quality of a document in which characters of different character sizes and different fonts are mixed.

この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。   Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

本発明に係る画像処理装置の代表例として、プリント機能やコピー機能といった画像形成機能(モノクロおよび/またはカラー)に加えて、スキャン機能を搭載した複合機(Multi Function Peripheral:以下「MFP」とも称す。)について、以下説明する。   As a representative example of the image processing apparatus according to the present invention, a multi function peripheral (hereinafter also referred to as “MFP”) having a scan function in addition to an image forming function (monochrome and / or color) such as a print function and a copy function. .) Will be described below.

<概略>
図1は、この発明の実施の形態に従うMFP100の使用形態を示す図である。
<Outline>
FIG. 1 shows a usage pattern of MFP 100 according to the embodiment of the present invention.

図1を参照して、本実施の形態に従うMFP100では、ユーザによってスキャナ部に装着された原稿が読み取られて画像データが生成され、この生成された画像データに基づいて、後述する画像データの解析処理が実行され、この解析処理の結果に基づいて、当該原稿に適した画像処理(代表的に、平滑化処理やエッジ強調処理)が選択され、この選択された画像処理の結果がプリント出力される。   Referring to FIG. 1, in MFP 100 according to the present embodiment, a document loaded on a scanner unit is read by a user to generate image data, and based on the generated image data, analysis of image data to be described later is performed. Processing is executed, and based on the result of the analysis processing, image processing suitable for the document (typically smoothing processing and edge enhancement processing) is selected, and the result of the selected image processing is printed out. The

<機能構成>
図2は、この発明の実施の形態に従うMFP100の機能構成を示すブロック図である。
<Functional configuration>
FIG. 2 is a block diagram showing a functional configuration of MFP 100 according to the embodiment of the present invention.

図2を参照して、MFP100は、制御部110と、メモリ120と、操作パネル130と、データ格納部140と、ネットワーク通信部150と、スキャナ部160と、プリント部170と、画像処理部180と、FAX通信部190とを含む。これらの各部は、データバスBUSを介して互いにデータ通信可能に接続されている。   Referring to FIG. 2, MFP 100 includes control unit 110, memory 120, operation panel 130, data storage unit 140, network communication unit 150, scanner unit 160, print unit 170, and image processing unit 180. And a FAX communication unit 190. These units are connected to each other via a data bus BUS so that data communication is possible.

制御部110は、代表的にCPU(Central Processing Unit)などの演算装置を含んで構成され、予め格納されたプログラムを実行することで本実施の形態に従う各処理を提供する。   Control unit 110 is typically configured to include an arithmetic device such as a CPU (Central Processing Unit), and provides each process according to the present embodiment by executing a program stored in advance.

メモリ120は、代表的に、DRAM(Dynamic Random Access Memory)などの揮発性メモリと、フラッシュメモリなどの不揮発性メモリとを含んで構成される。より具体的には、メモリ120は、制御部110によるプログラムの実行にあたり、不揮発性メモリに予め格納されているブートプログラムなどを、揮発性メモリに一時的に展開する。   The memory 120 typically includes a volatile memory such as a DRAM (Dynamic Random Access Memory) and a nonvolatile memory such as a flash memory. More specifically, the memory 120 temporarily expands a boot program or the like stored in advance in the nonvolatile memory in the volatile memory when the control unit 110 executes the program.

操作パネル130は、操作メニューやジョブ実行状態などの操作情報をユーザに提示するとともに、ユーザによる押下(接触)に応じてユーザ指示を受付けるユーザインターフェイスである。より具体的には、操作パネル130は、入力部としてのキー入力部130aと、表示部と一体的に構成された入力部としてのタッチパネル130bとを含む。   The operation panel 130 is a user interface that presents operation information such as an operation menu and a job execution state to the user and accepts a user instruction in response to pressing (contact) by the user. More specifically, the operation panel 130 includes a key input unit 130a as an input unit and a touch panel 130b as an input unit configured integrally with the display unit.

キー入力部130aは、テンキーや各機能(コピーやFAXなど)が割当てられたキーを含んで構成され、ユーザによって押下されたキーに対応する指示を制御部110に出力する。   The key input unit 130a is configured to include a numeric keypad and a key to which each function (copy, FAX, etc.) is assigned, and outputs an instruction corresponding to the key pressed by the user to the control unit 110.

タッチパネル130bは、液晶パネルと、当該液晶パネルの上に設けられたタッチ操作検出部とからなる。より具体的には、タッチパネル130bは、ユーザに対して各種の情報を視覚的に表示するとともに、ユーザによるタッチ操作を検出すると、当該タッチ操作に対応する指示を制御部110に出力する。   The touch panel 130b includes a liquid crystal panel and a touch operation detection unit provided on the liquid crystal panel. More specifically, the touch panel 130b visually displays various types of information to the user, and outputs an instruction corresponding to the touch operation to the control unit 110 when detecting a touch operation by the user.

データ格納部140は、代表的に、ハードディスク(HDD:Hard Disk Drive)などのように比較的大容量の不揮発性メモリからなり、スキャナ部160で読み取った画像データなどを格納する。また、データ格納部140には、後述する各種画像処理に用いるフィルタの情報やフォント情報なども格納される。   The data storage unit 140 is typically composed of a relatively large-capacity nonvolatile memory such as a hard disk (HDD), and stores image data read by the scanner unit 160. The data storage unit 140 also stores filter information and font information used for various image processing described later.

ネットワーク通信部150は、LAN(Local Area Network)などのネットワークNWを介して、図示しない他のMFPやPC(パーソナルコンピュータ)とデータ通信を行なう。具体的には、他のMFPへネットワークFAXを送信したり、PCからプリントデータを受信したりする。   The network communication unit 150 performs data communication with other MFPs and PCs (personal computers) (not shown) via a network NW such as a LAN (Local Area Network). Specifically, a network FAX is transmitted to another MFP, or print data is received from a PC.

スキャナ部160は、原稿から画像情報を読み取って画像データを生成する。この画像データは、データ格納部140に記憶される。より具体的には、スキャナ部160は、プラテンガラスに載置された原稿に向けて光源から光を照射するとともに、原稿から反射した光を主走査方向に配列された撮像素子などによって受光することで、原稿の画像情報を読み取る。あるいは、連続的な原稿読み取りができるように、原稿給紙台、送出ローラ、レジストローラ、搬送ドラム、および排紙台などを含むようにスキャナ部160を構成してもよい。   The scanner unit 160 reads image information from a document and generates image data. This image data is stored in the data storage unit 140. More specifically, the scanner unit 160 irradiates light from a light source toward a document placed on the platen glass, and receives light reflected from the document by an imaging element or the like arranged in the main scanning direction. Then read the image information of the document. Alternatively, the scanner unit 160 may be configured to include a document feeding table, a delivery roller, a registration roller, a transport drum, and a sheet discharging table so that continuous document reading can be performed.

プリント部170は、スキャナ部160で読み取られた画像データや、ネットワーク通信部150またはFAX通信部190によって受信された画像データを紙媒体に画像形成(プリント)する。代表的に、プリント部170は、電子写真方式の画像形成ユニットからなる。より具体的には、プリント部170は、感光体、露光器、現像器などからなるイメージングユニットや、転写ベルト、定着装置、給紙部、排紙部などを含んで構成される。   The printing unit 170 forms (prints) an image data read by the scanner unit 160 or image data received by the network communication unit 150 or the FAX communication unit 190 on a paper medium. Typically, the print unit 170 includes an electrophotographic image forming unit. More specifically, the print unit 170 includes an imaging unit including a photoconductor, an exposure device, a development device, and the like, a transfer belt, a fixing device, a paper feed unit, a paper discharge unit, and the like.

画像処理部180は、ユーザからの操作パネル130を介した指示に従って、スキャナ部160で読み取られた画像データや、FAX通信部190などで受信された画像データに対して画像処理を行ない、この画像処理後の画像データをプリント部170に出力する。特に、画像処理部180は、原稿を読み取ることで生成された入力画像データを解析し、この解析結果に基づいて、当該原稿に適した画像処理を実行する。   The image processing unit 180 performs image processing on the image data read by the scanner unit 160 or the image data received by the FAX communication unit 190 in accordance with an instruction from the user via the operation panel 130. The processed image data is output to the print unit 170. In particular, the image processing unit 180 analyzes input image data generated by reading a document, and executes image processing suitable for the document based on the analysis result.

FAX通信部190は、電話回線と接続され、他のMFPなどから受信したFAXデータ(画像データ)をデータ格納部140に記憶する。また、FAX通信部190は、ユーザが操作パネル130を押下して入力した送信先に、スキャナ部160で読み取ったFAXデータ(画像データ)を送信する。   The FAX communication unit 190 is connected to a telephone line and stores FAX data (image data) received from another MFP or the like in the data storage unit 140. Further, the FAX communication unit 190 transmits the FAX data (image data) read by the scanner unit 160 to the transmission destination input by the user pressing the operation panel 130.

<文字属性>
次に、図3〜図6を参照して、文字属性と文字を構成する線の間隔や線幅との関係について説明する。
<Character attribute>
Next, with reference to FIG. 3 to FIG. 6, the relationship between the character attribute and the interval between the lines constituting the character and the line width will be described.

図3は、文字の画数の影響を比較するための一例を示す図である。
図3を参照して、一般的な文字(活字)は、たとえばゴシック体のように文字を構成する線の太さがほぼ同じになるようなフォントであっても、画数が多い文字(図3(a))と画数の少ない文字(図3(b))との間では、文字を構成する線の間隔は異なったものとなる。
FIG. 3 is a diagram illustrating an example for comparing the influence of the number of strokes of characters.
Referring to FIG. 3, a general character (type) is a character having a large number of strokes (FIG. 3) even if it is a font such as a Gothic font in which the thickness of the lines constituting the character is substantially the same. Between (a)) and a character with a small number of strokes (FIG. 3 (b)), the interval between the lines constituting the character is different.

図4は、文字の画数の影響を比較するための別の一例を示す図である。
図4を参照して、同じ部首「ごんべん」をもつゴシック体の文字であっても、それ以外の画数が異なれば、線の間隔は異なったものとなる(図4(a)と図4(b))。また、同じ部首「きへん」をもつゴシック体の文字であっても、それ以外の画数が異なれば、線の間隔は異なったものとなる(図4(c)と図4(d))。
FIG. 4 is a diagram illustrating another example for comparing the influence of the number of strokes of characters.
Referring to FIG. 4, even if a Gothic character having the same radical “Gonbeng” is used, if the number of strokes is different, the line spacing is different (FIG. 4A). And FIG. 4 (b)). In addition, even for Gothic characters having the same radical “Kihen”, the line spacing is different if the number of strokes is different (FIG. 4 (c) and FIG. 4 (d)). .

図5は、文字の扁平率の影響を比較するための一例を示す図である。
図5を参照して、同じ文字であっても、その扁平率(比率A/Bおよび比率a/b)によっては、文字を構成する線の間隔は異なったものとなる。
FIG. 5 is a diagram illustrating an example for comparing the influence of the flatness of characters.
Referring to FIG. 5, even if the characters are the same, the intervals between the lines constituting the characters differ depending on the flatness ratio (ratio A / B and ratio a / b).

図6は、文字フォントの影響を比較するための一例を示す図である。
図6を参照して、同じ文字であっても、フォントに依存して文字を構成する線の間隔や縦横の線幅は異なったものとなる。すなわち、ゴシック体(図6(a))やポップ体(図6(c))は、文字を構成する各線の幅や間隔は、ほぼ同じくなるが、明朝体(図6(b))では、縦方向の線幅よりも横方向の線幅が太くなる。さらに、行書体(図6(d))では、線幅および線間隔は不均一で、かつ多くの部分は曲線形状に構成される。
FIG. 6 is a diagram illustrating an example for comparing the effects of character fonts.
Referring to FIG. 6, even for the same character, the interval between lines constituting the character and the vertical and horizontal line widths differ depending on the font. In other words, the Gothic style (Fig. 6 (a)) and pop style (Fig. 6 (c)) have almost the same width and spacing between the lines constituting the character, but the Mincho style (Fig. 6 (b)). The horizontal line width is larger than the vertical line width. Further, in the line typeface (FIG. 6D), the line width and the line interval are not uniform, and many parts are formed in a curved shape.

以上のように、文字(活字)は、画数、フォント、扁平率、文字サイズなどの文字属性に依存して、各文字を構成する線幅や線の間隔が異なったものとなる。すなわち、これらの文字属性に依存して、各文字の空間周波数が変化することを意味する。そのため、これらの文字に対して各種の画像処理を行なう場合には、このような空間周波数を考慮したフィルタなどを用いる必要がある。   As described above, characters (types) have different line widths and line intervals that constitute each character depending on character attributes such as the number of strokes, font, flatness, and character size. That is, it means that the spatial frequency of each character changes depending on these character attributes. Therefore, when various image processing is performed on these characters, it is necessary to use a filter that takes into account such a spatial frequency.

<文字の小領域への分割>
図7は、本実施の形態に従う文字の小領域への分割を説明するための図である。
<Division of characters into small areas>
FIG. 7 is a diagram for explaining division of characters into small areas according to the present embodiment.

図7を参照して、本実施の形態では、一例として、各文字を9個の小領域に分割する。これは、後述するように、画像処理の内容を変更する単位を意味し、各小領域に対して、それぞれ異なる画像処理を行なうことを可能とするものである。   Referring to FIG. 7, in the present embodiment, as an example, each character is divided into nine small regions. As will be described later, this means a unit for changing the contents of the image processing, and it is possible to perform different image processing for each small area.

このように、各文字を複数の小領域(1)〜(9)に分割すると、文字を構成するパーツ(部首など)に対応付けて、画像処理を行なう領域を識別することができる。   As described above, when each character is divided into a plurality of small regions (1) to (9), a region where image processing is performed can be identified in association with parts (such as radicals) constituting the character.

図8は、文字を構成するパーツと小領域との対応関係の一例を示す図である。
図8を参照して、たとえば、文字を構成するパーツである「へん」については、小領域(1),(4),(7)の部分に位置する(図8(a))。また、文字を構成するパーツである「かんむり」については、小領域(1),(2),(3)の部分に位置する(図8(b))。さらに、文字を構成するパーツである「あし」については、小領域(7),(8),(9)の部分に位置する(図8(c))。さらに、文字を構成するパーツである「つくり」については、小領域(3),(6),(9)の部分に位置する(図8(d))。さらに、文字を構成するパーツである「によう」については、小領域(1),(4),(7),(8),(9)の部分に位置する(図8(e))。
FIG. 8 is a diagram illustrating an example of a correspondence relationship between the parts constituting the character and the small area.
Referring to FIG. 8, for example, “hen” which is a part constituting a character is located in the small areas (1), (4), and (7) (FIG. 8 (a)). In addition, “kanmuri”, which is a part constituting the character, is located in the small areas (1), (2), and (3) (FIG. 8B). Further, “ashi” which is a part constituting the character is located in the small areas (7), (8), (9) (FIG. 8C). Furthermore, “make” which is a part constituting the character is located in the small areas (3), (6), and (9) (FIG. 8D). Furthermore, “Niyo”, which is a part constituting the character, is located in the small areas (1), (4), (7), (8), and (9) (FIG. 8 (e)).

このように、各文字を構成するパーツを特定できれば、各パーツに適した画像処理を各パーツが位置する小領域の単位で実行することができる。   In this way, if the parts constituting each character can be identified, image processing suitable for each part can be executed in units of small areas where each part is located.

<画像処理の概略>
本実施の形態に従うMFP100では、スキャナ部160(図2)で原稿から読み取られた画像データの文字領域に対して、文字認識処理(OCR:Optical Character Reader)とアウトライン取得処理とを並行的に実行する。文字認識処理では、画像データ中の文字領域から各文字を認識し、文字コード化するとともに、文字の画像データ上の座標、文字幅、文字の高さ、フォント、傾き、画数、部首、色といった情報が取得される。また、アウトライン取得処理では、各文字の輪郭、座標、文字幅、文字の高さ、色といった情報が取得される。ここで、各文字の輪郭の情報は、ベクター情報または画像(イメージ)とった形式で格納される。
<Outline of image processing>
In MFP 100 according to the present embodiment, character recognition processing (OCR: Optical Character Reader) and outline acquisition processing are executed in parallel on the character area of the image data read from the original by scanner unit 160 (FIG. 2). To do. In the character recognition process, each character is recognized from the character area in the image data and converted into a character code, and the coordinates on the image data, character width, character height, font, tilt, stroke count, radical, color Such information is acquired. In the outline acquisition process, information such as the outline, coordinates, character width, character height, and color of each character is acquired. Here, the outline information of each character is stored in the form of vector information or an image.

そして、文字認識処理によって取得された情報と、アウトライン取得処理によって取得された情報とに基づいて、画像データの文字領域に含まれる各文字を構成するパーツを特定し、各パーツの位置する小領域に対して、各パーツに応じた画像処理を行なう。あるいは、各文字の領域に対して、各文字に応じた画像処理を行なう。   Then, based on the information acquired by the character recognition process and the information acquired by the outline acquisition process, the parts constituting each character included in the character area of the image data are specified, and the small area where each part is located On the other hand, image processing corresponding to each part is performed. Alternatively, image processing corresponding to each character is performed on each character region.

<機能ブロック>
図9は、この発明の実施の形態に従う画像処理を実現するための機能ブロック図である。図9に示す機能は、代表的に、画像処理部180における処理として提供される。
<Functional block>
FIG. 9 is a functional block diagram for realizing image processing according to the embodiment of the present invention. The functions shown in FIG. 9 are typically provided as processing in the image processing unit 180.

図9を参照して、画像処理部180は、文字領域抽出部10と、文字認識部(OCR)12と、文字情報DB14と、アウトライン取得部16と、文字パーツ解析部18と、平滑化処理部20と、平滑化フィルタDB22と、エッジ強調処理部24と、エッジ強調フィルタDB26とを含む。   Referring to FIG. 9, the image processing unit 180 includes a character region extraction unit 10, a character recognition unit (OCR) 12, a character information DB 14, an outline acquisition unit 16, a character part analysis unit 18, and a smoothing process. A unit 20, a smoothing filter DB 22, an edge enhancement processing unit 24, and an edge enhancement filter DB 26 are included.

文字領域抽出部10は、スキャナ部160(図2)で読み取られた画像データや、ネットワーク通信部150(図2)またはFAX通信部190(図2)によって受信された画像データなどの入力画像データのうち、文字領域に相当する画像データを抽出する。なお、文字領域の抽出方法としては、さまざまな方法が公知となっているが、代表的に、ヒストグラムを用いる方法などを適用することができる。   The character area extraction unit 10 is input image data such as image data read by the scanner unit 160 (FIG. 2) or image data received by the network communication unit 150 (FIG. 2) or the FAX communication unit 190 (FIG. 2). Among these, image data corresponding to the character area is extracted. Various methods are known as character region extraction methods, but typically, a method using a histogram or the like can be applied.

文字認識部12は、文字領域抽出部10によって抽出された文字領域に対して、文字認識処理を実行し、当該文字領域に含まれる文字を文字コード化する。より具体的には、文字認識部12は、文字領域から各文字に相当する画像をさらに抽出し、文字情報DB14に予め格納されたフォント別の文字情報を参照して、文字コードを判断する。   The character recognition unit 12 performs a character recognition process on the character region extracted by the character region extraction unit 10, and converts the characters included in the character region into character codes. More specifically, the character recognition unit 12 further extracts an image corresponding to each character from the character region, and determines the character code by referring to the character information for each font stored in advance in the character information DB 14.

図10は、図9に示す文字情報DB14に格納される文字情報の一例を示す図である。
図10を参照して、文字情報の各々としては、文字コード、フォント名、各文字を構成するパーツ数、各パーツの位置および画数などの情報が予め格納されている。特に、本実施の形態に従う文字情報DB14には、複数のフォントの文字を認識可能とするように、複数のフォントのそれぞれについて、文字コードのセットが格納される。すなわち、認識可能な文字コードの数をnとし、認識可能なフォントの数をmとすると、K=n×mの文字情報が予め格納されている。
FIG. 10 is a diagram showing an example of character information stored in the character information DB 14 shown in FIG.
Referring to FIG. 10, as character information, information such as a character code, a font name, the number of parts constituting each character, the position of each part and the number of strokes is stored in advance. In particular, the character information DB 14 according to the present embodiment stores a set of character codes for each of the plurality of fonts so that the characters of the plurality of fonts can be recognized. That is, assuming that the number of recognizable character codes is n and the number of recognizable fonts is m, character information of K = n × m is stored in advance.

再度、図9を参照して、アウトライン取得部16は、文字領域抽出部10によって抽出された文字領域に対して、各文字のアウトライン(輪郭)の情報を取得する。なお、アウトラインの取得の方法としては、エッジ検出などを用いることができる。   Referring to FIG. 9 again, the outline acquisition unit 16 acquires outline (contour) information of each character for the character region extracted by the character region extraction unit 10. Note that edge detection or the like can be used as an outline acquisition method.

文字認識部12によって取得されたOCR情報、およびアウトライン取得部16によって取得されたアウトライン情報は、文字パーツ解析部18へ出力される。文字パーツ解析部18は、OCR情報およびアウトライン情報に基づいて、各文字を構成するパーツの単位で、各種の情報を記述した文字パーツ情報を生成する。   The OCR information acquired by the character recognition unit 12 and the outline information acquired by the outline acquisition unit 16 are output to the character parts analysis unit 18. Based on the OCR information and the outline information, the character part analysis unit 18 generates character part information describing various pieces of information in units of parts constituting each character.

図11は、本実施の形態に従うOCR情報およびアウトライン情報の一例を示す図である。   FIG. 11 is a diagram showing an example of OCR information and outline information according to the present embodiment.

図11を参照して、入力画像データに含まれるそれぞれの文字について、OCR情報32およびアウトライン情報34が対応付けられて取得される。   Referring to FIG. 11, OCR information 32 and outline information 34 are acquired in association with each character included in the input image data.

OCR情報32の各々は、ID、文字コード、文字の画像データ上の座標、文字幅、文字の高さ、フォント、傾き、画数、部首、色といった情報を含む。また、OCR情報32の各々は、ID、各文字の輪郭、座標、文字幅、文字の高さ、色といった情報を含む。ここで、各文字の輪郭の情報は、ベクター情報または画像(イメージ)とった形式で格納される。   Each of the OCR information 32 includes information such as an ID, a character code, a coordinate on the character image data, a character width, a character height, a font, a tilt, a stroke number, a radical, and a color. Each of the OCR information 32 includes information such as ID, outline of each character, coordinates, character width, character height, and color. Here, the outline information of each character is stored in the form of vector information or an image.

図12は、本実施の形態に従う文字パーツ情報の一例を示す図である。
図12を参照して、文字パーツ解析部18は、上述のOCR情報32およびアウトライン情報34に基づいて、文字領域に含まれる各文字について、それを構成する1つ以上のパーツに分解し、各パーツに対応付けて、文字パーツ情報を生成する。
FIG. 12 is a diagram showing an example of character part information according to the present embodiment.
Referring to FIG. 12, the character parts analysis unit 18 disassembles each character included in the character area into one or more parts constituting the character based on the OCR information 32 and the outline information 34 described above. Character part information is generated in association with the part.

この文字パーツ情報は、各パーツの基準となる縦横の大きさ(基準サイズX、基準サイズY)、そのパーツ基準となる縦横比の場合に最適となる平滑化フィルタのサイズ(X,Y)、平滑化フィルタの重み付け、平滑化フィルタの種類、エッジ強調フィルタのサイズ(X,Y)、エッジ強調フィルタの重み付け、エッジ強調フィルタの種類などの情報を含む。   The text part information includes the vertical and horizontal sizes (reference size X, reference size Y) that are the reference of each part, the smoothing filter size (X, Y) that is optimal in the case of the aspect ratio that is the part reference, It includes information such as the weight of the smoothing filter, the type of smoothing filter, the size (X, Y) of the edge enhancement filter, the weight of the edge enhancement filter, and the type of edge enhancement filter.

代表的に、文字パーツ解析部18は、画数の多いパーツあるいは文字ほど、すなわち空間周波数が高いほど、フィルタサイズを小さくし、もしくは文字サイズが小さいほど、フィルタサイズを小さくする。   Typically, the character part analysis unit 18 reduces the filter size as the part or character having a larger number of strokes, that is, as the spatial frequency is higher, or as the character size is smaller.

再度、図9を参照して、平滑化処理部20は、文字パーツ解析部18からの文字パーツ情報に基づいて、入力画像データに含まれる各文字の各パーツの位置する小領域に対して、各パーツに応じた平滑化処理を行なう。あるいは、平滑化処理部20は、各文字の領域に対して、各文字に応じた平滑化処理を行なうようにしてもよい。これは、文字が1つのパーツで構成されている場合の処理と同じである。   Referring again to FIG. 9, the smoothing processing unit 20 performs, based on the character part information from the character part analysis unit 18, the small region where each part of each character included in the input image data is located. Smoothing is performed according to each part. Or you may make it the smoothing process part 20 perform the smoothing process according to each character with respect to the area | region of each character. This is the same as the process when the character is composed of one part.

より具体的には、平滑化処理部20は、各文字のフォントの種類、文字あるいはパーツの画数、文字サイズなどに基づいて、平滑化フィルタDB22から適切な平滑化フィルタを随時選択し、当該選択した平滑化フィルタを用いて、対応する小領域あるいは文字の領域の画像処理を行なう。   More specifically, the smoothing processing unit 20 selects an appropriate smoothing filter from the smoothing filter DB 22 based on the font type of each character, the number of characters or parts, the character size, etc. Using the smoothing filter, the corresponding small area or character area is processed.

なお、文字パーツ解析部18は、これらのファクターに加えて、プリント部170(図2)の印字特性における縦横扁平率に応じて、平滑化の強さおよび平滑化方法のいずれかを切り替えるようにしてもよい。さらに、文字パーツ解析部18は、隣接する小領域あるいは隣接する文字の領域の間で、平滑化フィルタの種類を所定のしきい値より大きく変化させるような切り替えが指示された場合には、このような平滑化フィルタの切り替え動作を抑制してもよい。   In addition to these factors, the character part analysis unit 18 switches between the smoothing strength and the smoothing method according to the aspect ratio in the print characteristics of the print unit 170 (FIG. 2). May be. Further, the character parts analysis unit 18 is instructed to switch between changing the smoothing filter type more than a predetermined threshold value between the adjacent small areas or the adjacent character areas. Such switching operation of the smoothing filter may be suppressed.

図13は、図9に示す平滑化フィルタDB22に格納される平滑化フィルタ群の一例を示す図である。   FIG. 13 is a diagram illustrating an example of a smoothing filter group stored in the smoothing filter DB 22 illustrated in FIG. 9.

図13を参照して、平滑化フィルタは、平滑化の範囲、周辺画素の寄与率である重み付け、フィルタ形状などにより、平滑化処理の内容を変更することが可能であり、平滑化フィルタDB22には、複数の平滑化フィルタが予め用意されており、これら複数の平滑化フィルタのうち1つが選択され、文字に応じた適切な平滑化処理が実行される。   Referring to FIG. 13, the smoothing filter can change the content of the smoothing process according to the smoothing range, the weighting that is the contribution ratio of the surrounding pixels, the filter shape, and the like. A plurality of smoothing filters are prepared in advance, and one of the plurality of smoothing filters is selected, and an appropriate smoothing process corresponding to the character is executed.

再度、図9を参照して、エッジ強調処理部24は、文字パーツ解析部18からの文字パーツ情報に基づいて、入力画像データに含まれる各文字の各パーツの位置する小領域に対して、各パーツに応じたエッジ強調処理を行なう。あるいは、エッジ強調処理部24は、各文字の領域に対して、各文字に応じたエッジ強調処理を行なうようにしてもよい。これは、文字が1つのパーツで構成されている場合の処理と同じである。   Referring to FIG. 9 again, the edge enhancement processing unit 24, based on the character part information from the character part analysis unit 18, for the small area where each part of each character included in the input image data is located. Edge enhancement processing according to each part is performed. Alternatively, the edge enhancement processing unit 24 may perform edge enhancement processing according to each character on each character region. This is the same as the process when the character is composed of one part.

より具体的には、エッジ強調処理部24は、各文字のフォントの種類、文字あるいはパーツの画数、文字サイズなどに基づいて、平滑化フィルタDB22から適切なエッジ強調フィルタを随時選択し、当該選択したエッジ強調フィルタを用いて、対応する小領域あるいは文字の領域の画像処理を行なう。このようなエッジ強調フィルタの選択によって、文字部に対するエッジ強調量およびエッジ強調方法が切り替えられる。   More specifically, the edge enhancement processing unit 24 selects an appropriate edge enhancement filter from the smoothing filter DB 22 at any time based on the font type of each character, the number of characters or parts strokes, the character size, and the like. Using the edge enhancement filter, the corresponding small area or character area is image-processed. By selecting such an edge enhancement filter, the edge enhancement amount and the edge enhancement method for the character portion are switched.

なお、文字パーツ解析部18は、これらのファクターに加えて、プリント部170(図2)の印字特性における縦横扁平率に応じて、エッジ強調量およびエッジ強調方法のいずれかを切り替えるようにしてもよい。さらに、文字パーツ解析部18は、隣接する小領域あるいは隣接する文字の領域の間で、エッジ強調フィルタの種類を所定のしきい値より大きく変化させるような切り替えが指示された場合には、このようなエッジ強調フィルタの切り替え動作を抑制してもよい。   In addition to these factors, the character part analysis unit 18 may switch between the edge enhancement amount and the edge enhancement method according to the aspect ratio in the printing characteristics of the printing unit 170 (FIG. 2). Good. Further, when the character parts analysis unit 18 is instructed to switch between the adjacent small regions or the adjacent character regions so as to change the type of the edge enhancement filter more than a predetermined threshold value, Such an edge enhancement filter switching operation may be suppressed.

図14は、図9に示すエッジ強調フィルタDB26に格納されるエッジ強調フィルタ群の一例を示す図である。   FIG. 14 is a diagram illustrating an example of the edge enhancement filter group stored in the edge enhancement filter DB 26 illustrated in FIG. 9.

図14を参照して、エッジ強調フィルタは、指向性のあるフィルタの種類、強調をかける周辺画素の重み付け、フィルタ形状などにより、エッジ強調処理の内容を変更することが可能であり、エッジ強調フィルタDB26には、複数のエッジ強調フィルタが予め用意されており、これら複数のエッジ強調フィルタのうち1つが選択され、文字に応じた適切なエッジ強調処理が実行される。   Referring to FIG. 14, the edge enhancement filter can change the content of edge enhancement processing according to the type of directional filter, the weight of surrounding pixels to be enhanced, the filter shape, and the like. A plurality of edge enhancement filters are prepared in advance in the DB 26, and one of the plurality of edge enhancement filters is selected, and appropriate edge enhancement processing corresponding to the character is executed.

<本実施の形態に従う画像処理方法による効果>
図15は、本実施の形態に従う画像処理方法による効果を説明するための図である。
<Effects of image processing method according to the present embodiment>
FIG. 15 is a diagram for describing the effect of the image processing method according to the present embodiment.

本実施の形態に従う画像処理方法によれば、図15(a)に示すような入力画像データに含まれる文字は、一例として2つのパーツに分解される。そして、各パーツに対して、適切な画像処理(平滑化処理やエッジ処理)が実行される。そのため、たとえば、図15(a)に示す左側のパーツに対してフィルタ1が用いられ、図15(a)に示す右側のパーツに対してフィルタ2が用いられて、画像処理が実行される。   According to the image processing method according to the present embodiment, characters included in the input image data as shown in FIG. 15A are broken down into two parts as an example. Then, appropriate image processing (smoothing processing or edge processing) is performed on each part. Therefore, for example, the filter 1 is used for the left part shown in FIG. 15A and the filter 2 is used for the right part shown in FIG.

図15(b)および図15(c)は、図15(a)に示す断面線LNに沿った濃度変化を示す図である。   FIG. 15B and FIG. 15C are diagrams showing a change in concentration along the cross-sectional line LN shown in FIG.

従来技術では、すべての文字領域に対し、特定の平滑化処理やエッジ強調処理が均一に実行されていたので、図15(b)に示すように、画数の多い文字や、同一の文字の中でも画数が多い部分においては、十分な平滑化やエッジ強調の効果が得られないため、十分な文字品質を得られない場合があった。   In the prior art, specific smoothing processing and edge enhancement processing are uniformly executed for all character regions. Therefore, as shown in FIG. 15B, even among characters having a large number of strokes or the same character, In a portion with a large number of strokes, sufficient character quality may not be obtained because sufficient smoothing and edge enhancement effects cannot be obtained.

これに対して、本実施の形態に従う画像処理方法によれば、上述のように各文字を構成するパーツ毎、あるいは文字単位で画像処理の内容を変更するので、図15(c)に示すように、画数の多い文字や、同一の文字の中でも画数が多い部分が存在していても、平滑化やエッジ強調の効果を発揮させることができるため、十分な文字品質を確保することができる。   On the other hand, according to the image processing method according to the present embodiment, the contents of the image processing are changed for each part constituting each character or for each character as described above, so as shown in FIG. In addition, even if a character with a large number of strokes or a portion with a large number of strokes exists in the same character, smoothing and edge enhancement effects can be exhibited, so that sufficient character quality can be ensured.

<処理手順>
図16は、この発明の実施の形態に従う画像処理手順を示すフローチャートである。
<Processing procedure>
FIG. 16 is a flowchart showing an image processing procedure according to the embodiment of the present invention.

図16を参照して、まず、制御部110は、スキャナ部160で何らかの原稿が読み取られたか否かを判断する(ステップS100)。スキャナ部160で何らの原稿も読み取られていない場合(ステップS100においてNOの場合)には、処理はステップS100に戻る。   Referring to FIG. 16, first, control unit 110 determines whether or not any document has been read by scanner unit 160 (step S100). If no original is read by scanner unit 160 (NO in step S100), the process returns to step S100.

スキャナ部160で何らかの原稿が読み取られた場合(ステップS100においてYESの場合)には、画像処理部180は、当該読み取りによって生成された入力画像データから文字領域を抽出する(ステップS102)。   If any document is read by the scanner unit 160 (YES in step S100), the image processing unit 180 extracts a character area from the input image data generated by the reading (step S102).

さらに、画像処理部180は、抽出した文字領域に対して文字認識処理を実行し、文字コードを含むOCR情報を生成する(ステップS104)。並行して、画像処理部180は、抽出した文字領域に対してアウトライン取得処理を実行し、アウトライン情報を生成する(ステップS106)。   Further, the image processing unit 180 performs a character recognition process on the extracted character region, and generates OCR information including a character code (step S104). In parallel, the image processing unit 180 performs outline acquisition processing on the extracted character region to generate outline information (step S106).

抽出した文字領域に含まれるすべての文字に対するステップS104およびS106の処理の実行完了後、画像処理部180は、OCR情報およびアウトライン情報に基づいて、各文字を構成するパーツの単位で、各種の情報を記述した文字パーツ情報を生成する(ステップS108)。   After completing the processing of steps S104 and S106 for all characters included in the extracted character area, the image processing unit 180 performs various types of information for each part constituting each character based on the OCR information and the outline information. Is generated (step S108).

続いて、画像処理部180は、文字パーツ情報に基づいて、文字領域に含まれるいずれかの各文字または各文字に含まれる各パーツに対して実行すべき平滑化処理および/またはエッジ強調処理の種類を決定する(ステップS110)。さらに、画像処理部180は、対象の文字の領域または対象のパーツに対応する小領域に対して、決定した平滑化処理および/またはエッジ強調処理を実行する(ステップS112)。   Subsequently, based on the character part information, the image processing unit 180 performs smoothing processing and / or edge enhancement processing to be performed on any character included in the character region or each part included in each character. The type is determined (step S110). Further, the image processing unit 180 executes the determined smoothing process and / or edge enhancement process on the target character area or the small area corresponding to the target part (step S112).

さらに、画像処理部180は、抽出した文字領域に含まれるすべての文字に対する平滑化処理および/またはエッジ強調処理が実行済であるか否かを判断する(ステップS114)。平滑化処理および/またはエッジ強調処理が未実行である文字が存在する場合(ステップS114においてNOの場合)には、画像処理部180は、未処理の文字に対して、ステップS112の処理を再度実行する。   Further, the image processing unit 180 determines whether or not smoothing processing and / or edge enhancement processing has been executed for all characters included in the extracted character region (step S114). If there is a character for which smoothing processing and / or edge enhancement processing has not been performed (NO in step S114), image processing unit 180 performs the process of step S112 again on the unprocessed character. Execute.

一方、抽出した文字領域に含まれるすべての文字に対する平滑化処理および/またはエッジ強調処理が実行済である場合(ステップS114においてYESの場合)には、画像処理部180は、処理後の画像データをプリント部170へ出力し(ステップS116)、プリント部170が当該画像データを紙媒体にプリント出力する(ステップS118)。そして、処理はリターンする。   On the other hand, if smoothing processing and / or edge enhancement processing has been executed for all characters included in the extracted character region (YES in step S114), image processing unit 180 performs post-processing image data. Is output to the printing unit 170 (step S116), and the printing unit 170 prints out the image data on a paper medium (step S118). Then, the process returns.

なお、OCR情報およびアウトライン情報のいずれか一方がうまく取得できなかった場合には、取得できた情報のみに基づいて、各文字を構成するパーツまたは各文字についての画像処理の方法を決定してもよい。   If either one of the OCR information and outline information is not successfully acquired, the part of each character or the image processing method for each character may be determined based only on the acquired information. Good.

<本実施の形態の効果>
この発明の実施の形態によれば、入力画像データに含まれる文字領域の各文字に対して、OCR情報およびアウトライン情報が取得され、これらの情報に基づいて、各文字を構成する各パーツの属性、または各文字の属性が解析される。そして、これらの属性に基づいて、適切な画像処理方法が決定され、入力画像データの対応する領域に対して、当該決定された画像形成方法が順次適用される。
<Effects of the present embodiment>
According to the embodiment of the present invention, OCR information and outline information are acquired for each character in the character area included in the input image data, and based on these information, the attribute of each part constituting each character Or the attributes of each character are parsed. Based on these attributes, an appropriate image processing method is determined, and the determined image forming method is sequentially applied to the corresponding region of the input image data.

このような構成を採用することで、文字領域に対して一律に特性の画像処理方法を適用する構成に比較して、より緻密な画像処理を行なうことができる。   By adopting such a configuration, it is possible to perform finer image processing as compared with a configuration in which an image processing method having a characteristic is uniformly applied to a character region.

より具体的な一例としては、同じフォントおよび文字サイズの文字であっても、その画数が多いものについては、より小さなサイズの画像処理フィルタ(平滑化フィルタやエッジ強調フィルタなど)を用いることで、高い文字再現性を実現できる。   As a more specific example, even for characters with the same font and character size, but with a large number of strokes, by using a smaller image processing filter (such as a smoothing filter or an edge enhancement filter) High character reproducibility can be realized.

このように、本実施の形態によれば、異なる文字サイズおよび異なるフォントの文字が混在した原稿の文字品質を高く維持することができる。   As described above, according to the present embodiment, it is possible to maintain high character quality of a document in which characters of different character sizes and different fonts are mixed.

[その他の実施の形態]
本実施の形態に従う制御部などで実行されるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。
[Other embodiments]
A program executed by a control unit or the like according to the present embodiment is a program module provided as a part of a computer operating system (OS) and calls and processes necessary modules at a predetermined timing in a predetermined arrangement. It may be executed. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present invention.

さらに、本発明に係るプログラムによって実現される機能の一部または全部を専用のハードウェアによって構成してもよい。   Furthermore, part or all of the functions realized by the program according to the present invention may be configured by dedicated hardware.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

この発明の実施の形態に従うMFPの使用形態を示す図である。It is a diagram showing a usage pattern of the MFP according to the embodiment of the present invention. この発明の実施の形態に従うMFPの機能構成を示すブロック図である。It is a block diagram showing a functional configuration of the MFP according to the embodiment of the present invention. 文字の画数の影響を比較するための一例を示す図である。It is a figure which shows an example for comparing the influence of the stroke number of a character. 文字の画数の影響を比較するための別の一例を示す図である。It is a figure which shows another example for comparing the influence of the stroke number of a character. 文字の扁平率の影響を比較するための一例を示す図である。It is a figure which shows an example for comparing the influence of the flatness of a character. 文字フォントの影響を比較するための一例を示す図である。It is a figure which shows an example for comparing the influence of a character font. 本実施の形態に従う文字の小領域への分割を説明するための図である。It is a figure for demonstrating the division | segmentation into the small area | region of the character according to this Embodiment. 文字を構成するパーツと小領域との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the part which comprises a character, and a small area | region. この発明の実施の形態に従う画像処理を実現するための機能ブロック図である。It is a functional block diagram for implement | achieving the image processing according to embodiment of this invention. 図9に示す文字情報DBに格納される文字情報の一例を示す図である。It is a figure which shows an example of the character information stored in character information DB shown in FIG. 本実施の形態に従うOCR情報およびアウトライン情報の一例を示す図である。It is a figure which shows an example of OCR information and outline information according to this Embodiment. 本実施の形態に従う文字パーツ情報の一例を示す図である。It is a figure which shows an example of the character parts information according to this Embodiment. 図9に示す平滑化フィルタDBに格納される平滑化フィルタ群の一例を示す図である。It is a figure which shows an example of the smoothing filter group stored in smoothing filter DB shown in FIG. 図9に示すエッジ強調フィルタDBに格納されるエッジ強調フィルタ群の一例を示す図である。It is a figure which shows an example of the edge enhancement filter group stored in edge enhancement filter DB shown in FIG. 本実施の形態に従う画像処理方法による効果を説明するための図である。It is a figure for demonstrating the effect by the image processing method according to this Embodiment. この発明の実施の形態に従う画像処理手順を示すフローチャートである。It is a flowchart which shows the image processing procedure according to embodiment of this invention.

符号の説明Explanation of symbols

10 文字領域抽出部、12 文字認識部、14 文字情報DB、16 アウトライン取得部、18 文字パーツ解析部、20 平滑化処理部、22 平滑化フィルタDB、24 エッジ強調処理部、26 エッジ強調フィルタDB、32 OCR情報、34 アウトライン情報、100 MFP、110 制御部、120 メモリ、130 操作パネル、130a キー入力部、130b タッチパネル、140 データ格納部、150 ネットワーク通信部、160 スキャナ部、170 プリント部、180 画像処理部、190 通信部、BUS データバス、NW ネットワーク。   10 character region extraction unit, 12 character recognition unit, 14 character information DB, 16 outline acquisition unit, 18 character part analysis unit, 20 smoothing processing unit, 22 smoothing filter DB, 24 edge enhancement processing unit, 26 edge enhancement filter DB , 32 OCR information, 34 outline information, 100 MFP, 110 control unit, 120 memory, 130 operation panel, 130a key input unit, 130b touch panel, 140 data storage unit, 150 network communication unit, 160 scanner unit, 170 print unit, 180 Image processing unit, 190 communication unit, BUS data bus, NW network.

Claims (9)

入力画像データから文字を認識して当該文字の文字コードおよび当該文字を構成するパーツの属性を示す第1情報を生成する文字認識手段と、
前記入力画像データから文字のアウトラインを取得して、当該文字の位置情報を含む第2情報を生成するアウトライン取得手段と、
前記第1情報および前記第2情報に基づいて、各文字を構成するパーツに応じた画像処理方法を決定する解析手段と、
前記入力画像データに対して、各文字を構成する各パーツが位置する領域に対して、前記解析手段によって決定された対応する画像処理を実行する画像処理手段とを備える、画像処理装置。
Character recognition means for recognizing a character from input image data and generating first information indicating a character code of the character and an attribute of a part constituting the character;
An outline acquisition unit that acquires an outline of a character from the input image data and generates second information including position information of the character;
Analyzing means for determining an image processing method according to parts constituting each character based on the first information and the second information;
An image processing apparatus comprising: an image processing unit that executes, for the input image data, a corresponding image process determined by the analysis unit for a region where each part constituting each character is located.
入力画像データから文字を認識して当該文字の文字コードおよび当該文字の属性を示す第1情報を生成する文字認識手段と、
前記入力画像データから文字のアウトラインを取得して、当該文字の位置情報を含む第2情報を生成するアウトライン取得手段と、
前記第1情報および前記第2情報に基づいて、各文字に応じた画像処理方法を決定する解析手段と、
前記入力画像データに対して、各文字が位置する領域に対して、前記解析手段によって決定された対応する画像処理を実行する画像処理手段とを備える、画像処理装置。
Character recognition means for recognizing a character from input image data and generating first information indicating a character code of the character and an attribute of the character;
An outline acquisition unit that acquires an outline of a character from the input image data and generates second information including position information of the character;
Analyzing means for determining an image processing method corresponding to each character based on the first information and the second information;
An image processing apparatus comprising: an image processing unit that executes, for the input image data, a corresponding image process determined by the analysis unit with respect to a region where each character is located.
複数のフォント別の文字情報を格納する記憶手段をさらに備え、
前記文字認識手段は、前記記憶手段を参照して、各文字のフォント種別を認識する、請求項1または2に記載の画像処理装置。
It further comprises storage means for storing character information for a plurality of fonts,
The image processing apparatus according to claim 1, wherein the character recognition unit recognizes a font type of each character with reference to the storage unit.
前記文字認識手段は、各文字のフォント種別、サイズ、画数を含む前記第1情報を生成し、
前記解析手段は、前記第1情報に含まれる各文字のフォント種別、サイズ、画数の値に基づいて、画像処理方法を決定する、請求項1または2に記載の画像処理装置。
The character recognition means generates the first information including the font type, size, and number of strokes of each character,
The image processing apparatus according to claim 1, wherein the analysis unit determines an image processing method based on a font type, a size, and a number of strokes of each character included in the first information.
前記画像処理手段は、平滑化処理を含み、
前記解析手段は、前記平滑化処理で用いられる平滑化フィルタの形状を変更する、請求項1〜4のいずれか1項に記載の画像処理装置。
The image processing means includes a smoothing process,
The image processing apparatus according to claim 1, wherein the analysis unit changes a shape of a smoothing filter used in the smoothing process.
前記画像処理手段は、エッジ強調処理手段を含み、
前記解析手段は、前記エッジ強調処理手段における、文字部に対するエッジ強調量およびエッジ強調方法の少なくとも一方を変更する、請求項1〜5のいずれか1項に記載の画像処理装置。
The image processing means includes edge enhancement processing means,
The image processing apparatus according to claim 1, wherein the analysis unit changes at least one of an edge enhancement amount and an edge enhancement method for a character portion in the edge enhancement processing unit.
画像処理後の前記入力画像データをプリント出力するプリント部をさらに備え、
前記解析手段は、前記プリント部の印字特性に応じて、画像処理装置を変更する、請求項1〜6のいずれか1項に記載の画像処理装置。
A print unit that prints out the input image data after image processing;
The image processing apparatus according to claim 1, wherein the analysis unit changes the image processing apparatus according to printing characteristics of the print unit.
前記解析手段は、前記第1情報および前記第2情報のいずれか一方が生成できない場合であっても、当該生成された情報に基づいて画像処理方法を決定する、請求項1〜7のいずれか1項に記載の画像処理装置。   8. The method according to claim 1, wherein the analysis unit determines an image processing method based on the generated information even if either the first information or the second information cannot be generated. The image processing apparatus according to item 1. 前記画像処理部は、隣接する前記パーツが位置する領域、または隣接する文字の間で、実行すべき画像処理方法が所定の変化量より大きく変化すべき決定がなされた場合には、画像処理方法の変更を抑制する、請求項1〜8のいずれか1項に記載の画像処理装置。   The image processing unit determines whether the image processing method to be executed is to be changed more than a predetermined change amount between an area where the adjacent part is located or between adjacent characters. The image processing apparatus according to claim 1, wherein the image processing apparatus suppresses the change.
JP2008159417A 2008-06-18 2008-06-18 Image processing device Expired - Fee Related JP5003606B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008159417A JP5003606B2 (en) 2008-06-18 2008-06-18 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008159417A JP5003606B2 (en) 2008-06-18 2008-06-18 Image processing device

Publications (2)

Publication Number Publication Date
JP2010004141A true JP2010004141A (en) 2010-01-07
JP5003606B2 JP5003606B2 (en) 2012-08-15

Family

ID=41585517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008159417A Expired - Fee Related JP5003606B2 (en) 2008-06-18 2008-06-18 Image processing device

Country Status (1)

Country Link
JP (1) JP5003606B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064994A (en) * 2010-09-14 2012-03-29 Ricoh Co Ltd Image processing device, image forming device, image processing method, image processing program, and recording medium
JP2012105015A (en) * 2010-11-09 2012-05-31 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2016015559A (en) * 2014-07-01 2016-01-28 シャープ株式会社 Image processing apparatus and image forming apparatus
JP2018037833A (en) * 2016-08-31 2018-03-08 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, and image processing program
WO2019039300A1 (en) * 2017-08-22 2019-02-28 富士フイルム株式会社 Drug inspection assistance device, drug identification device, image processing device, image processing method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846799A (en) * 1994-07-29 1996-02-16 Canon Inc Image processor
JPH0968962A (en) * 1995-08-30 1997-03-11 Toshiba Corp Character pattern plotting method and character output device
JPH09121279A (en) * 1995-10-26 1997-05-06 Matsushita Graphic Commun Syst Inc Picture processor
JPH11205595A (en) * 1998-01-07 1999-07-30 Canon Inc Image formation device and method
JPH11272257A (en) * 1997-12-16 1999-10-08 Fuji Xerox Co Ltd Image processing device, image output device, image processing method, and storage medium storing image processing program
JP2002142070A (en) * 2000-11-02 2002-05-17 Canon Inc Image transmission system and image transmitter and method for them
JP2003283821A (en) * 2002-03-25 2003-10-03 Ricoh Co Ltd Image processor
JP2005045404A (en) * 2003-07-24 2005-02-17 Ricoh Co Ltd Image processor and method, and program
JP2006106729A (en) * 2004-09-30 2006-04-20 Microsoft Corp Simplification of complex characters without impairing legibility
JP2006208636A (en) * 2005-01-27 2006-08-10 Seiko Epson Corp Device and mehtod for image processing

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846799A (en) * 1994-07-29 1996-02-16 Canon Inc Image processor
JPH0968962A (en) * 1995-08-30 1997-03-11 Toshiba Corp Character pattern plotting method and character output device
JPH09121279A (en) * 1995-10-26 1997-05-06 Matsushita Graphic Commun Syst Inc Picture processor
JPH11272257A (en) * 1997-12-16 1999-10-08 Fuji Xerox Co Ltd Image processing device, image output device, image processing method, and storage medium storing image processing program
JPH11205595A (en) * 1998-01-07 1999-07-30 Canon Inc Image formation device and method
JP2002142070A (en) * 2000-11-02 2002-05-17 Canon Inc Image transmission system and image transmitter and method for them
JP2003283821A (en) * 2002-03-25 2003-10-03 Ricoh Co Ltd Image processor
JP2005045404A (en) * 2003-07-24 2005-02-17 Ricoh Co Ltd Image processor and method, and program
JP2006106729A (en) * 2004-09-30 2006-04-20 Microsoft Corp Simplification of complex characters without impairing legibility
JP2006208636A (en) * 2005-01-27 2006-08-10 Seiko Epson Corp Device and mehtod for image processing

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064994A (en) * 2010-09-14 2012-03-29 Ricoh Co Ltd Image processing device, image forming device, image processing method, image processing program, and recording medium
JP2012105015A (en) * 2010-11-09 2012-05-31 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2016015559A (en) * 2014-07-01 2016-01-28 シャープ株式会社 Image processing apparatus and image forming apparatus
JP2018037833A (en) * 2016-08-31 2018-03-08 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, and image processing program
WO2019039300A1 (en) * 2017-08-22 2019-02-28 富士フイルム株式会社 Drug inspection assistance device, drug identification device, image processing device, image processing method, and program
CN110892445A (en) * 2017-08-22 2020-03-17 富士胶片富山化学株式会社 Drug inspection support device, drug identification device, image processing method, and program
JPWO2019039300A1 (en) * 2017-08-22 2020-07-16 富士フイルム富山化学株式会社 Drug inspection support device, drug identification device, image processing device, image processing method, and program
JP2021119480A (en) * 2017-08-22 2021-08-12 富士フイルム富山化学株式会社 Drug inspection assistance device, drug identification device, image processing device, image processing method, program and recording medium
US11195042B2 (en) 2017-08-22 2021-12-07 Fujifilm Toyama Chemical Co., Ltd. Drug inspection assistance device, drug identification device, image processing device, image processing method, and program
JP7146012B2 (en) 2017-08-22 2022-10-03 富士フイルム富山化学株式会社 Drug test support device, drug identification device, image processing device, image processing method and program, recording medium
CN110892445B (en) * 2017-08-22 2023-10-10 富士胶片富山化学株式会社 Drug inspection support device, drug identification device, image processing method, and program

Also Published As

Publication number Publication date
JP5003606B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP5195519B2 (en) Document management apparatus, document processing system, and document management method
US8224131B2 (en) Image processing apparatus and image processing method
US8423900B2 (en) Object based adaptive document resizing
US7692834B2 (en) Image processing system, image forming apparatus, control method for the same, and program for implementing the control method
US7660483B2 (en) Method and apparatus for removing noise from a digital image
US20080019746A1 (en) Image processing apparatus and control method thereof
JP2007174270A (en) Image processing apparatus, image processing method, storage medium, and program
JP7030462B2 (en) Image processing equipment, image processing methods, and programs that acquire character information from scanned images.
JP6665498B2 (en) Information processing apparatus, image processing system and program
JP5003606B2 (en) Image processing device
JP5407627B2 (en) Image processing apparatus, image processing method, and program
JP2011254397A (en) Background pattern image composition device, background pattern image composition method, and program
JP2008282339A (en) Code detection program, code detection method, and image forming apparatus
JP2016184914A (en) Image processing apparatus
JP2007082021A (en) Image processor, program, and image data processing method
JP2005303740A (en) Image forming apparatus, image forming method, and program
JP2009124295A (en) Image processing apparatus and control method thereof
JP2007006411A (en) Image processing equipment
JP6753370B2 (en) Document reader
JP2005217859A (en) Image forming apparatus and image forming method
JP2002279351A (en) Character recognition device, method, and program, and recording medium computer-readable the program recorded
JP3899800B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
JP4403993B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program
JP2006295794A (en) Image processor, image processing method, image processing program and computer-readable recording medium recorded with the program
JP5474222B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees