JP6618307B2 - Image processing apparatus, image forming apparatus, and resolution determination method - Google Patents

Image processing apparatus, image forming apparatus, and resolution determination method Download PDF

Info

Publication number
JP6618307B2
JP6618307B2 JP2015185622A JP2015185622A JP6618307B2 JP 6618307 B2 JP6618307 B2 JP 6618307B2 JP 2015185622 A JP2015185622 A JP 2015185622A JP 2015185622 A JP2015185622 A JP 2015185622A JP 6618307 B2 JP6618307 B2 JP 6618307B2
Authority
JP
Japan
Prior art keywords
output
character
resolution
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015185622A
Other languages
Japanese (ja)
Other versions
JP2017060115A (en
Inventor
小西 陽介
陽介 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015185622A priority Critical patent/JP6618307B2/en
Publication of JP2017060115A publication Critical patent/JP2017060115A/en
Application granted granted Critical
Publication of JP6618307B2 publication Critical patent/JP6618307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、原稿の画像データの出力処理に係る出力解像度を定める画像処理装置、画像形成装置、及び、解像度決定方法に関する。   The present invention relates to an image processing apparatus, an image forming apparatus, and a resolution determination method for determining an output resolution related to output processing of document image data.

近年、デジタル画像処理システムが目覚ましい発達を遂げ、デジタル画像処理技術の構築が進んでいる。例えば、電子写真方式又はインクジェット方式を用いた複写機、複合機(MFP:Multi-Function Printer)等の分野では、文書の原稿がスキャナで読み取られて電子データである文書ファイルとして保存され、また、保存された文書ファイルが管理されている。更には、文書ファイルを圧縮してe-mailで送信することも可能である。   In recent years, digital image processing systems have made remarkable progress, and the construction of digital image processing technology is progressing. For example, in a field such as a copying machine using an electrophotographic method or an ink jet method, a multi-function printer (MFP), a document manuscript is read by a scanner and stored as a document file which is electronic data. Stored document files are managed. It is also possible to compress the document file and send it by e-mail.

一般的に、スキャナで読み取られた画像(以下、スキャン画像という)はファイルサイズが大きいため、スキャン画像を蓄積又は伝送するなどの目的に応じて解像度をユーザが手動で設定するということが必要であるが、ユーザが適切に設定するためには、設定項目に関して、熟知していることが求められる。そのため、ユーザのレベルによらず適切なスキャン解像度の自動設定が望まれている。   In general, since an image read by a scanner (hereinafter referred to as a scanned image) has a large file size, it is necessary for the user to manually set the resolution according to the purpose of storing or transmitting the scanned image. However, in order for the user to set appropriately, it is required to be familiar with the setting items. Therefore, automatic setting of an appropriate scan resolution is desired regardless of the level of the user.

例えば、特許文献1に係る画像形成装置では、読み取った画像データの中から文字領域を抽出し、抽出した文字領域に含まれる文字サイズを解析し、解析結果から最小となる文字サイズを検出し、検出した最小文字サイズに基づいて適切な解像度を決定する。読み取り時における所定の解像度に係る画像データは、この決定された解像度に係る画像データに変換されて出力される。   For example, in the image forming apparatus according to Patent Document 1, a character region is extracted from the read image data, the character size included in the extracted character region is analyzed, and the minimum character size is detected from the analysis result, An appropriate resolution is determined based on the detected minimum character size. Image data relating to a predetermined resolution at the time of reading is converted into image data relating to the determined resolution and output.

また、特許文献1に係る画像形成装置は、文字サイズは、黒画素連結成分の外接矩形を抽出し、文字列方向と垂直に重なる外接矩形を統合して基本矩形を生成し、基本矩形の幅/高さのヒストグラムを作成して、これをもって、長体・正体・平体文字を判別し、文字の幅/高さを算出し、文字サイズを決定し、最小となる文字サイズを検出する。   The image forming apparatus according to Patent Document 1 extracts a circumscribed rectangle of a black pixel connected component as a character size, integrates the circumscribed rectangles that overlap perpendicularly to the character string direction, and generates a basic rectangle. A height histogram is created, and with this, a long character, a true character, and a plain character are discriminated, a character width / height is calculated, a character size is determined, and a minimum character size is detected.

特開2009−296533号公報JP 2009-296533 A

しかし、同じ解像度で出力する場合であっても、例えば、原稿に漢字が使用されているか否か、原稿出力の際、カラー又はグレースケール(多値データ)で出力するのかモノクロ(白黒2値)で出力するのか等によって、出力画像における文字に対するユーザの視認性は大きく変わる。従って、このようなことを考慮して、出力に係る解像度を決定すべきである。しかし、特許文献1に係る画像形成装置では、一切考慮されていない。   However, even when outputting at the same resolution, for example, whether or not kanji is used in the document, whether the document is output in color or gray scale (multi-valued data), monochrome (monochrome binary) The visibility of the user with respect to the characters in the output image varies greatly depending on whether or not the data is output. Therefore, in consideration of this, the resolution related to the output should be determined. However, the image forming apparatus according to Patent Document 1 is not considered at all.

本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、原稿の画像データの出力処理に係る出力解像度を定めるにおいて、出力に係る出力設定、又は、前記原稿に係る原稿情報を考慮して、出力に係る解像度を定めることができる画像処理装置、画像形成装置、及び、解像度決定方法を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to determine an output resolution related to output processing of image data of a document, or an output setting related to an output or a document related to the document. An object of the present invention is to provide an image processing apparatus, an image forming apparatus, and a resolution determination method capable of determining a resolution for output in consideration of document information.

本発明に係る画像処理装置は、原稿の画像データの出力処理に係る出力解像度を定める画像処理装置において、前記画像データに含まれる文字候補を特定する文字特定情報を生成する特定情報生成部と、出力に係る出力設定、又は、前記原稿に係る原稿情報を取得する取得部と、前記出力設定又は前記原稿情報に応じて前記文字特定情報及び前記出力解像度を対応付けたテーブルを記憶している記憶部と、前記取得部によって取得された出力設定又は原稿情報に応じて、前記特定情報生成部によって生成される文字特定情報に対応する出力解像度を前記テーブルから検索する検索部とを備えることを特徴とする。   An image processing apparatus according to the present invention, in an image processing apparatus for determining an output resolution related to an output process of image data of a document, a specific information generating unit that generates character specifying information for specifying a character candidate included in the image data; A storage that stores an output setting relating to output, or an acquisition unit that obtains original information relating to the original, and a table that associates the character specifying information and the output resolution in accordance with the output setting or the original information. And a search unit that searches the table for output resolution corresponding to the character identification information generated by the specific information generation unit in accordance with the output setting or document information acquired by the acquisition unit. And

本発明に係る画像処理装置は、複数の出力解像度が検索された場合、検索された出力解像度夫々に対応する文字特定情報に係る文字候補の数に基づいて、いずれかの検索された出力解像度を選択する選択部を備えることを特徴とする。   When a plurality of output resolutions are searched, the image processing apparatus according to the present invention determines any of the searched output resolutions based on the number of character candidates related to the character specifying information corresponding to each of the searched output resolutions. A selection unit for selecting is provided.

本発明に係る画像処理装置は、前記出力設定は、2値での出力又は多値での出力の何れかの設定を含み、前記テーブルは、多値での出力の場合、2値での出力の場合より、前記出力解像度が低くなるように設定されていることを特徴とする。   In the image processing apparatus according to the present invention, the output setting includes either a binary output or a multi-value output, and the table is a binary output in the case of a multi-value output. In this case, the output resolution is set to be lower.

本発明に係る画像処理装置は、前記出力設定は、出力するデータ容量(ファイルサイズ)の大きさの優先又は出力に係る画質の優先の何れかの設定を含み、前記テーブルは、出力するデータ容量(ファイルサイズ)の大きさを優先する場合、出力する画質を優先する場合より、前記出力解像度が低くなるように設定されていることを特徴とする。   In the image processing apparatus according to the present invention, the output setting includes a setting of either a priority of a data capacity (file size) to be output or a priority of an image quality related to output, and the table includes a data capacity to output When priority is given to the size of (file size), the output resolution is set to be lower than when priority is given to the output image quality.

本発明に係る画像処理装置は、前記出力設定は、出力に係る圧縮率の設定を含み、前記テーブルは、前記圧縮率が低いほど、前記出力解像度が低くなるように設定されていることを特徴とする。   In the image processing apparatus according to the present invention, the output setting includes a setting of a compression rate related to output, and the table is set such that the output resolution is lower as the compression rate is lower. And

本発明に係る画像処理装置は、前記原稿情報は、使用言語に係る情報を含み、前記テーブルは、視認性の高い使用言語ほど前記出力解像度が低くなるように設定されていることを特徴とする。   In the image processing apparatus according to the present invention, the document information includes information related to a language used, and the table is set such that the output resolution is lower for a language with higher visibility. .

本発明に係る画像処理装置は、前記選択部は、検索された最も高い出力解像度から、それぞれ検索された出力解像度に対応する文字候補の数を順次加算し、加算値と前記文字候補の全ての数との比率が所定の閾値以上になる場合、最後に加算した文字候補に係る検索された出力解像度を選択することを特徴とする。   In the image processing apparatus according to the present invention, the selection unit sequentially adds the number of character candidates corresponding to each searched output resolution from the searched highest output resolution, and adds the added value and all of the character candidates. When the ratio to the number is equal to or greater than a predetermined threshold, the searched output resolution related to the character candidate added last is selected.

本発明に係る画像処理装置は、前記画像データは前記文字候補を含む文字列を有しており、前記検索部は前記文字列の文字候補に係る文字特定情報に基づいて前記出力解像度を検索することを特徴とする。 In the image processing device according to the present invention, the image data includes a character string including the character candidate, and the search unit searches the output resolution based on character specifying information related to the character candidate of the character string. It is characterized by that.

本発明に係る画像形成装置は、前述の発明の何れか一つに記載の画像処理装置を備え、該画像処理装置によって処理された画像データに基づいて、シート状の記録媒体に画像形成を行うことを特徴とする。   An image forming apparatus according to the present invention includes the image processing apparatus according to any one of the above-described inventions, and forms an image on a sheet-like recording medium based on image data processed by the image processing apparatus. It is characterized by that.

本発明に係る解像度決定方法は、原稿の画像データの出力処理を行う画像処理装置にて該出力処理に係る出力解像度を定める解像度決定方法において、前記画像データに含まれる文字候補を特定する文字特定情報を生成し、出力に係る出力設定、又は、前記原稿に係る原稿情報を取得し、前記出力設定又は前記原稿情報に応じて前記文字特定情報及び出力解像度を対応付けたテーブルに基づき、取得された出力設定又は原稿情報に応じて、生成された文字特定情報に対応する出力解像度を検索することを特徴とする。   A resolution determination method according to the present invention is a resolution determination method for determining an output resolution related to an output process in an image processing apparatus that performs an output process of image data of a document, and a character specification that specifies a character candidate included in the image data Information is generated, output settings related to output or document information related to the document is acquired, and acquired based on a table in which the character specifying information and output resolution are associated with each other according to the output setting or the document information. The output resolution corresponding to the generated character specifying information is searched according to the output setting or document information.

本発明によれば、原稿の画像データの出力処理に係る出力解像度を定める際、出力に係る出力設定、又は、前記原稿に係る原稿情報を考慮することにより、一層的確に出力に係る解像度を定めることができる。   According to the present invention, when determining the output resolution related to the output processing of the image data of the document, the output resolution is more accurately determined by considering the output setting related to the output or the document information related to the document. be able to.

実施の形態1の画像形成装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an image forming apparatus according to a first embodiment. 実施の形態1の画像形成装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an image forming apparatus according to a first embodiment. 実施の形態1の画像形成装置の構成の他の例を示すブロック図である。FIG. 6 is a block diagram illustrating another example of the configuration of the image forming apparatus according to the first embodiment. 実施の形態1の処理パラメータ決定部の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a processing parameter determination unit according to the first embodiment. FIG. 実施の形態1の画像形成装置のエッジ検出部の処理手順の一例を示すフローチャートである。4 is a flowchart illustrating an example of a processing procedure of an edge detection unit of the image forming apparatus according to the first embodiment. 実施の形態1の画像形成装置のエッジ検出部によるエッジ検出処理の一例を示す模式図である。6 is a schematic diagram illustrating an example of edge detection processing by an edge detection unit of the image forming apparatus according to Embodiment 1. FIG. 実施の形態1の画像形成装置の文字矩形抽出部の処理手順の一例を示すフローチャートである。4 is a flowchart illustrating an example of a processing procedure of a character rectangle extraction unit of the image forming apparatus according to the first embodiment. 実施の形態1の画像形成装置の文字矩形抽出部による文字矩形抽出処理の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a character rectangle extraction process by a character rectangle extraction unit of the image forming apparatus according to the first embodiment. 実施の形態1の画像形成装置の文字列抽出部の処理手順の一例を示すフローチャートである。4 is a flowchart illustrating an example of a processing procedure of a character string extraction unit of the image forming apparatus according to the first embodiment. 実施の形態1の画像形成装置は文字列抽出部による文字列抽出処理の一例を示す模式図である。The image forming apparatus of Embodiment 1 is a schematic diagram illustrating an example of character string extraction processing by a character string extraction unit. 実施の形態1において、解像度決定部の要部構成を示す機能ブロック図である。In Embodiment 1, it is a functional block diagram which shows the principal part structure of the resolution determination part. 実施の形態1の画像形成装置の記憶部に記憶されている出力解像度テーブルの一例を概念的に説明する表である。4 is a table conceptually illustrating an example of an output resolution table stored in a storage unit of the image forming apparatus according to the first embodiment. 実施の形態1の画像形成装置の解像度決定部の処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing procedure of a resolution determination unit of the image forming apparatus according to the first embodiment. 文字列特定情報及び文字特定情報の一例を示す例示図である。It is an illustration figure which shows an example of character string specific information and character specific information. 検出された出力解像度と、カウントされた文字候補(文字矩形)の数との関係を示すグラフである。It is a graph which shows the relationship between the detected output resolution and the number of counted character candidates (character rectangle). 実施の形態3の画像形成装置の記憶部に記憶されている出力解像度テーブルの他の例を概念的に説明する表である。14 is a table conceptually illustrating another example of an output resolution table stored in a storage unit of the image forming apparatus according to the third embodiment. 実施の形態4の画像読取装置の構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of a configuration of an image reading apparatus according to a fourth embodiment. 実施の形態4の画像読取装置の構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of a configuration of an image reading apparatus according to a fourth embodiment. 実施の形態1乃至実施の形態4での解像度の設定方法の一例を示す模式図である。10 is a schematic diagram illustrating an example of a resolution setting method according to Embodiments 1 to 4. FIG. 実施の形態1に係る画像形成装置及び実施の形態4に係る画像読取装置において、前記出力設定又は前記原稿情報の入力をユーザから受け付ける入力画面を示す模式図である。FIG. 10 is a schematic diagram illustrating an input screen that receives an input of the output setting or the document information from a user in the image forming apparatus according to the first embodiment and the image reading apparatus according to the fourth embodiment.

(実施の形態1)
以下、本発明を実施の形態を示す図面に基づいて説明する。図1及び図2は実施の形態1の画像形成装置100の構成の一例を示すブロック図である。図1は読み込まれたカラー画像データをカラー画像出力装置2から出力する場合の信号処理を示し、図2は読み込まれたカラー画像データを送信装置3より送信する場合の信号処理を示している。以下の説明では、画像処理システムとしての画像形成装置100について説明する。
(Embodiment 1)
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. 1 and 2 are block diagrams illustrating an example of the configuration of the image forming apparatus 100 according to the first embodiment. FIG. 1 shows signal processing when the read color image data is output from the color image output device 2, and FIG. 2 shows signal processing when the read color image data is transmitted from the transmission device 3. In the following description, the image forming apparatus 100 as an image processing system will be described.

画像形成装置100は、カラーコピー機能及びカラースキャナ機能等を有するデジタル複合機である。画像形成装置100は、原稿からカラー画像を光学的に読み取る画像入力装置としてのカラー画像入力装置1を備えている。   The image forming apparatus 100 is a digital multifunction machine having a color copy function, a color scanner function, and the like. The image forming apparatus 100 includes a color image input device 1 as an image input device that optically reads a color image from a document.

カラー画像入力装置1には、読み取ったカラー画像の画像データ、及び圧縮ファイルを生成する画像処理装置としてのカラー画像処理装置50が接続されている。   Connected to the color image input device 1 is a color image processing device 50 as an image processing device that generates image data of a read color image and a compressed file.

カラー画像処理装置50には、カラー画像処理装置50が生成した画像データに基づいてカラー画像を出力する画像出力装置としてのカラー画像出力装置2、及びカラー画像処理装置50が生成した圧縮ファイルを外部へ送信する画像出力装置としての送信装置3が接続されている。   The color image processing device 50 includes a color image output device 2 as an image output device that outputs a color image based on the image data generated by the color image processing device 50, and a compressed file generated by the color image processing device 50 as an external device. Is connected to a transmission device 3 as an image output device.

すなわち、画像形成装置100は、カラー画像入力装置1、カラー画像処理装置50、カラー画像出力装置2、送信装置3などを備える。また、カラー画像入力装置1、カラー画像処理装置50、カラー画像出力装置2及び送信装置3には、操作パネル4が接続されている。   That is, the image forming apparatus 100 includes a color image input device 1, a color image processing device 50, a color image output device 2, a transmission device 3, and the like. An operation panel 4 is connected to the color image input device 1, the color image processing device 50, the color image output device 2, and the transmission device 3.

操作パネル4は、ユーザが画像形成装置100の動作モードを設定するための設定ボタン及びテンキー等の操作部、及び液晶ディスプレイ等で構成される表示部など(いずれも不図示)を備える。画像形成装置100で実行される各種処理は、図示しないCPU(Central Processing Unit)が制御する。画像形成装置100のCPUは、図示しないネットワークカード及びLANケーブルを介して、ネットワークに接続されたコンピュータ及び他のデジタル複合機等とデータ通信を行なう。   The operation panel 4 includes a setting button for the user to set the operation mode of the image forming apparatus 100, an operation unit such as a numeric keypad, a display unit including a liquid crystal display and the like (all not shown). Various processes executed by the image forming apparatus 100 are controlled by a CPU (Central Processing Unit) (not shown). The CPU of the image forming apparatus 100 performs data communication with a computer and other digital multi-function peripherals connected to the network via a network card and a LAN cable (not shown).

以下、画像形成装置100の各部について詳述する。   Hereinafter, each part of the image forming apparatus 100 will be described in detail.

カラー画像入力装置1は、例えば、CCD(Charge Coupled Device )を有するカラースキャナで構成される。カラー画像入力装置1は、CCDを用いて原稿からの反射光像を8ビット、10ビット等のRGB(R:赤、G:緑、B:青)のアナログ信号として読み取りカラー画像処理装置50へ出力する。すなわち、カラー画像入力装置1で原稿から読み取られる画像データは多値である。以下においては、多値の入力画像データを多値(カラー又はグレースケール)の画像データとして出力する場合の処理について説明する。   The color image input device 1 is composed of, for example, a color scanner having a CCD (Charge Coupled Device). The color image input apparatus 1 reads a reflected light image from an original as an 8-bit, 10-bit RGB (R: red, G: green, B: blue) analog signal using a CCD and supplies the image to the color image processing apparatus 50. Output. That is, the image data read from the document by the color image input apparatus 1 is multivalued. In the following, processing when multi-value input image data is output as multi-value (color or gray scale) image data will be described.

カラー画像処理装置50は、カラー画像入力装置1から入力されたRGBのアナログ信号に対して、A/D変換部11、シェーディング補正部12、原稿種別判別部13、入力階調補正部14、及び領域分離処理部15にて各後述する画像処理を実行することによって、RGBのデジタル信号(以下、RGB信号という)からなる画像データを生成する。   The color image processing device 50 performs an A / D conversion unit 11, a shading correction unit 12, a document type determination unit 13, an input tone correction unit 14, and an RGB analog signal input from the color image input device 1. Image data composed of RGB digital signals (hereinafter referred to as RGB signals) is generated by executing image processing to be described later in the region separation processing unit 15.

また、カラー画像処理装置50は、領域分離処理部15が出力したRGB信号に対して色補正部16、黒生成下色除去部18、空間フィルタ処理部19、出力階調補正部21、及び階調再現処理部22にて各後述する画像処理を実行することによって、CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:ブラック)のデジタル信号からなる画像データを生成して、ストリームとしてカラー画像出力装置2へ出力する。なお、カラー画像出力装置2へ出力される前に、画像データを記憶部24に一旦記憶するようにしてもよい。   In addition, the color image processing device 50 applies a color correction unit 16, a black generation and under color removal unit 18, a spatial filter processing unit 19, an output tone correction unit 21, and a floor to the RGB signals output from the region separation processing unit 15. The tone reproduction processing unit 22 executes image processing to be described later, thereby generating image data composed of digital signals of CMYK (C: cyan, M: magenta, Y: yellow, K: black) as a stream. Output to the color image output device 2. The image data may be temporarily stored in the storage unit 24 before being output to the color image output device 2.

記憶部24は、不揮発性の記憶装置(例えばハードディスク)である。また、記憶部24には、後述する出力解像度テーブルが記憶されている。   The storage unit 24 is a non-volatile storage device (for example, a hard disk). Further, the storage unit 24 stores an output resolution table to be described later.

カラー画像出力装置2は、カラー画像処理装置50から入力された画像データに基づいて、熱転写、電子写真、又はインクジェット等の方式により、記録シート(例えば記録用紙等)上にカラー画像を形成して出力する。   The color image output device 2 forms a color image on a recording sheet (for example, recording paper) based on the image data input from the color image processing device 50 by a method such as thermal transfer, electrophotography, or inkjet. Output.

また、カラー画像処理装置50は、領域分離処理部15が出力したRGB信号に対して色補正部16、空間フィルタ処理部19、解像度変換処理部20、出力階調補正部21、及び圧縮処理部23にて各後述する画像処理を実行することによって、RGBのデジタル信号からなる出力画像データ又はグレースケールの画像データを圧縮処理した圧縮データを生成して送信装置3へ出力する。   The color image processing apparatus 50 also includes a color correction unit 16, a spatial filter processing unit 19, a resolution conversion processing unit 20, an output tone correction unit 21, and a compression processing unit for the RGB signals output from the region separation processing unit 15. By executing image processing to be described later at 23, compressed image data generated by compressing output image data composed of RGB digital signals or grayscale image data is generated and output to the transmission device 3.

また、本実施の形態において、解像度変換処理部20で解像度変換処理を行う際には、必要に応じて、処理パラメータ決定部17は変換すべき出力解像度(解像度)を決定し、決定した解像度を解像度変換処理部20へ出力することにより、入力された画像(画像データ)を所望の出力解像度に変換処理することが可能である。   In the present embodiment, when the resolution conversion processing unit 20 performs the resolution conversion process, the processing parameter determination unit 17 determines the output resolution (resolution) to be converted as necessary, and determines the determined resolution. By outputting to the resolution conversion processing unit 20, it is possible to convert the input image (image data) to a desired output resolution.

なお、出力画像データ、又は出力画像データを圧縮した圧縮データを送信装置へ出力する前に、一旦記憶部24に記憶するようにしてもよい。   Note that the output image data or compressed data obtained by compressing the output image data may be temporarily stored in the storage unit 24 before being output to the transmission device.

また、図1に示すように、カラー画像入力装置1で読み込まれたカラー画像データをカラー画像出力装置2から出力する場合には、解像度変換処理部20、圧縮処理部23は動作しない。また、図2に示すように、カラー画像入力装置1で読み込まれたカラー画像データを送信装置3より送信する場合、黒生成下色除去部18、階調再現処理部22は動作しない。   As shown in FIG. 1, when the color image data read by the color image input device 1 is output from the color image output device 2, the resolution conversion processing unit 20 and the compression processing unit 23 do not operate. As shown in FIG. 2, when the color image data read by the color image input device 1 is transmitted from the transmission device 3, the black generation and under color removal unit 18 and the gradation reproduction processing unit 22 do not operate.

送信装置3は、図示しない公衆回線網、LAN(Local Area Network)又はインターネット等の通信ネットワークに接続可能であり、ファクシミリ又は電子メール等の通信方法により、通信ネットワークを介して外部へ圧縮ファイルを送信する。例えば、操作パネル4においてscan to e-mailモードが選択されている場合、圧縮ファイルは、ネットワークカード、モデム等を用いてなる送信装置によってe-mailに添付され、設定された送信先へ送信される。   The transmission device 3 can be connected to a communication network such as a public network (not shown), a LAN (Local Area Network), or the Internet, and transmits a compressed file to the outside via the communication network by a communication method such as facsimile or e-mail. To do. For example, when the scan to e-mail mode is selected on the operation panel 4, the compressed file is attached to the e-mail by a transmission device using a network card, a modem, etc., and transmitted to the set transmission destination. The

なお、ファクシミリの送信を行なう場合は、画像形成装置100のCPUが、モデムを用いてなる送信装置3にて、相手先との通信手続きを行ない、送信可能な状態が確保されたときに、圧縮ファイルに対して圧縮形式の変更等の必要な処理を施してから、相手先に通信回線を介して順次送信する。また、ファクシミリを受信する場合、画像形成装置100のCPUは、送信装置3にて通信手続きを行いながら、相手先から送信されてくる圧縮ファイルを受信して、カラー画像処理装置50へ出力する。   When performing facsimile transmission, the CPU of the image forming apparatus 100 performs a communication procedure with the other party in the transmission apparatus 3 using a modem, and compression is performed when a transmission possible state is secured. After performing necessary processing such as changing the compression format on the file, the file is sequentially transmitted to the other party via a communication line. When receiving a facsimile, the CPU of the image forming apparatus 100 receives a compressed file transmitted from the other party while performing a communication procedure at the transmitting apparatus 3 and outputs the compressed file to the color image processing apparatus 50.

カラー画像処理装置50では、受信した圧縮ファイルに対し、不図示の伸張処理部で伸張処理が施される。圧縮ファイルを伸張することによって得られた画像データには、必要に応じて、不図示の処理部で回転処理及び/又は解像度変換処理等が施され、また、出力階調補正部21で出力階調補正が施され、階調再現処理部22で階調再現処理が施される。各種画像処理が施された画像データは、カラー画像出力装置2へ出力され、カラー画像出力装置2にて、記録シート上に出力画像が形成される。   In the color image processing apparatus 50, the received compressed file is decompressed by an unillustrated decompression processing unit. The image data obtained by decompressing the compressed file is subjected to rotation processing and / or resolution conversion processing by a processing unit (not shown) as necessary, and the output gradation correction unit 21 outputs the output level. Tone correction is performed, and the gradation reproduction processing unit 22 performs gradation reproduction processing. The image data that has undergone various types of image processing is output to the color image output device 2, and an output image is formed on the recording sheet by the color image output device 2.

以下、カラー画像処理装置50における画像処理を詳述する。最初に、カラー画像入力装置1から入力された画像データをカラー画像出力装置2に出力する場合の処理について説明する。   Hereinafter, image processing in the color image processing apparatus 50 will be described in detail. First, a process when image data input from the color image input device 1 is output to the color image output device 2 will be described.

A/D変換部11は、カラー画像入力装置1から入力されたRGBのアナログ信号を受け付け、RGBのアナログ信号をRGBのデジタル信号(即ちRGB信号)へ変換し、変換したRGB信号をシェーディング補正部12へ出力する。   The A / D conversion unit 11 receives an RGB analog signal input from the color image input device 1, converts the RGB analog signal into an RGB digital signal (that is, an RGB signal), and converts the converted RGB signal into a shading correction unit. 12 is output.

シェーディング補正部12は、A/D変換部11から入力されたRGB信号に対して、カラー画像入力装置1の照明系、結像系及び撮像系で生じる各種の歪みを取り除く処理を行なう。そして、シェーディング補正部12は、歪みを取り除いたRGB信号を原稿種別判別部13へ出力する。   The shading correction unit 12 performs processing for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the color image input apparatus 1 on the RGB signal input from the A / D conversion unit 11. The shading correction unit 12 then outputs the RGB signal from which the distortion has been removed to the document type determination unit 13.

原稿種別判別部13は、シェーディング補正部12から入力されたRGBの反射率信号をRGB各色の濃度を示す濃度信号に変換し、文字、印刷写真、又は印画紙写真等の原稿のモードを判別する原稿種別判別処理が実行される。原稿種別判別処理を、ユーザが操作パネル4を用いてマニュアル設定する場合、原稿種別判別部13はシェーディング補正部12から入力されたRGB信号をそのまま後段の入力階調補正部14へ出力する。原稿種別判別処理の処理結果は、後段の画像処理に反映される。   The document type discrimination unit 13 converts the RGB reflectance signal input from the shading correction unit 12 into a density signal indicating the density of each RGB color, and discriminates the mode of the document such as a character, a printed photograph, or a photographic paper photograph. Document type determination processing is executed. When the user manually sets the document type determination process using the operation panel 4, the document type determination unit 13 outputs the RGB signal input from the shading correction unit 12 to the input tone correction unit 14 at the subsequent stage as it is. The processing result of the document type determination processing is reflected in the subsequent image processing.

入力階調補正部14は、RGB信号に対して、カラーバランスの調整、下地濃度の除去、及びコントラストの調整等の画質調整処理を行う。入力階調補正部14は、次に、処理を行ったRGB信号を領域分離処理部15へ出力する。   The input tone correction unit 14 performs image quality adjustment processing such as color balance adjustment, background density removal, and contrast adjustment on the RGB signals. Next, the input tone correction unit 14 outputs the processed RGB signal to the region separation processing unit 15.

領域分離処理部15は、入力階調補正部14から入力されたRGB信号が表す画像中の各画素を、文字領域、網点領域、又は写真領域のいずれかに分離する。また、領域分離処理部15は、分離結果に基づき、各画素がいずれの領域に属しているかを示す領域識別信号を、黒生成下色除去部18、空間フィルタ処理部19、階調再現処理部22、及び処理パラメータ決定部17へ出力する。   The region separation processing unit 15 separates each pixel in the image represented by the RGB signal input from the input tone correction unit 14 into one of a character region, a dot region, and a photo region. Further, the region separation processing unit 15 generates a region identification signal indicating which region each pixel belongs to based on the separation result, and generates a black generation and under color removal unit 18, a spatial filter processing unit 19, and a gradation reproduction processing unit. 22 and the processing parameter determination unit 17.

色補正部16は、領域分離処理部15から入力されたRGB信号をCMYのデジタル信号(以下、CMY信号という)へ変換し、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りをCMY信号から取り除く処理を行なう。そして、色補正部16は、色補正後のCMY信号を黒生成下色除去部18へ出力する。   The color correction unit 16 converts the RGB signal input from the region separation processing unit 15 into a CMY digital signal (hereinafter referred to as “CMY signal”), and CMY colors including unnecessary absorption components for realizing faithful color reproduction. Processing for removing color turbidity based on the spectral characteristics of the material from the CMY signal is performed. Then, the color correction unit 16 outputs the CMY signal after the color correction to the black generation and under color removal unit 18.

黒生成下色除去部18は、色補正部16から入力されたCMY信号に基づき、CMY信号から黒(K)信号を生成する黒生成処理と、CMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理とを行なう。この結果、CMY3色のデジタル信号は、CMYK4色のデジタル信号(以下、CMYK信号という)に変換される。そして、黒生成下色除去部18は、CMY信号を変換したCMYK信号を空間フィルタ処理部19へ出力する。   Based on the CMY signal input from the color correction unit 16, the black generation and under color removal unit 18 subtracts the black generation processing for generating a black (K) signal from the CMY signal and the K signal obtained by black generation from the CMY signal. To generate a new CMY signal. As a result, the CMY3 color digital signals are converted into CMYK 4 color digital signals (hereinafter referred to as CMYK signals). Then, the black generation and under color removal unit 18 outputs the CMYK signal obtained by converting the CMY signal to the spatial filter processing unit 19.

黒生成処理の一例としては、一般に、スケルトン・ブラックによる黒生成を行なう方法が用いられる。この方法では、スケルトン・カーブの入出力特性をy=f(x)、入力されるデータをC、M、Y、出力されるデータをC'、M'、Y'、K'、UCR(Under Color Removal )率をα(0<α<1)とすると、黒生成下色除去処理は、下記の式(1)〜式(4)で表わされる。   As an example of the black generation process, a method of generating black by skeleton black is generally used. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, UCR (Under When the color removal rate is α (0 <α <1), the black generation and under color removal processing is expressed by the following equations (1) to (4).

式(1):K'=f(min(C、M、Y))
式(2):C'=C−αK'
式(3):M'=M−αK'
式(4):Y'=Y−αK'
Formula (1): K ′ = f (min (C, M, Y))
Formula (2): C ′ = C−αK ′
Formula (3): M ′ = M−αK ′
Formula (4): Y ′ = Y−αK ′

ここで、UCR率α(0<α<1)とは、CMYが重なっている部分をKに置き換えてCMYをどの程度削減するかを示すものである。式(1)は、CMYの各信号強度の内の最も小さい信号強度に応じてK信号が生成されることを示している。   Here, the UCR rate α (0 <α <1) indicates how much CMY is reduced by replacing the portion where CMY overlaps with K. Equation (1) indicates that the K signal is generated in accordance with the smallest signal strength among the signal strengths of CMY.

空間フィルタ処理部19は、黒生成下色除去部18から入力されたCMYK信号の画像データに対して、領域分離処理部15から入力された領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行ない、空間周波数特性を補正することによって、画像のぼやけ又は粒状性劣化を改善する。   The spatial filter processing unit 19 performs spatial filter processing with a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 18 based on the region identification signal input from the region separation processing unit 15. By correcting the spatial frequency characteristics, image blurring or graininess degradation is improved.

例えば、領域分離処理部15にて文字に分離された領域に対しては、空間フィルタ処理部19は、文字の再現性を高めるために、高周波成分の強調量が大きいフィルタを用いて空間フィルタ処理を行なう。また、領域分離処理部15にて網点に分離された領域に対しては、空間フィルタ処理部19は、入力網点成分を除去するためのローパス・フィルタ処理を行なう。   For example, for a region separated into characters by the region separation processing unit 15, the spatial filter processing unit 19 uses a filter with a large amount of high-frequency component enhancement in order to improve character reproducibility. To do. Further, the spatial filter processing unit 19 performs low-pass filter processing for removing the input halftone dot component on the region separated into halftone dots by the region separation processing unit 15.

空間フィルタ処理部19は、処理後のCMYK信号を出力階調補正部21へ出力する。   The spatial filter processing unit 19 outputs the processed CMYK signal to the output tone correction unit 21.

出力階調補正部21は、空間フィルタ処理部19から入力されたCMYK信号に対して、カラー画像出力装置2の特性である網点面積率に基づく出力階調補正処理を行ない、出力階調補正処理後のCMYK信号を階調再現処理部22へ出力する。   The output tone correction unit 21 performs output tone correction processing on the CMYK signal input from the spatial filter processing unit 19 based on the halftone dot area ratio that is a characteristic of the color image output device 2, and outputs tone correction. The processed CMYK signal is output to the gradation reproduction processing unit 22.

階調再現処理部22は、出力階調補正部21から入力されたCMYK信号に対して、領域分離処理部15から入力された領域識別信号に基づいて、領域に応じた中間調処理を行なう。例えば、領域分離処理部15にて文字に分離された領域に対しては、階調再現処理部22は、高域周波成分の再現に適した高解像度のスクリーンによる2値化又は多値化の処理を行なう。また、領域分離処理部15にて網点に分離された領域に対しては、階調再現処理部22は、階調再現性を重視したスクリーンでの2値化又は多値化の処理を行なう。   The gradation reproduction processing unit 22 performs halftone processing corresponding to the region on the CMYK signal input from the output gradation correction unit 21 based on the region identification signal input from the region separation processing unit 15. For example, for a region separated into characters by the region separation processing unit 15, the gradation reproduction processing unit 22 performs binarization or multi-value conversion using a high-resolution screen suitable for reproducing high-frequency components. Perform processing. In addition, for a region separated into halftone dots by the region separation processing unit 15, the gradation reproduction processing unit 22 performs binarization or multi-value processing on the screen with an emphasis on gradation reproducibility. .

また、階調再現処理部22は、処理後の画像データをカラー画像出力装置2へ出力する。カラー画像入力装置1から入力された画像データをカラー画像出力装置2に出力する場合、処理パラメータ決定部17、解像度変換処理部20、圧縮処理部23は動作しない。解像度変換処理部20、圧縮処理部23は、入力されたCMYK信号をそのまま後段の処理部に出力する。   The gradation reproduction processing unit 22 outputs the processed image data to the color image output device 2. When the image data input from the color image input device 1 is output to the color image output device 2, the processing parameter determination unit 17, the resolution conversion processing unit 20, and the compression processing unit 23 do not operate. The resolution conversion processing unit 20 and the compression processing unit 23 output the input CMYK signals as they are to the subsequent processing unit.

次に、カラー画像入力装置1から入力された画像データを送信装置3に出力する場合の処理について説明する。A/D変換部11から領域分離処理部15までの処理は、カラー画像入力装置1から入力された画像データをカラー画像出力装置2に出力する場合の処理と同じであるので説明を省略する。   Next, processing when image data input from the color image input device 1 is output to the transmission device 3 will be described. The processing from the A / D conversion unit 11 to the region separation processing unit 15 is the same as the processing when the image data input from the color image input device 1 is output to the color image output device 2, and thus description thereof is omitted.

領域分離処理部15は、入力階調補正部14から入力されたRGB信号を、そのまま後段の色補正部16及び処理パラメータ決定部17へ出力する。   The region separation processing unit 15 outputs the RGB signal input from the input tone correction unit 14 to the subsequent color correction unit 16 and the processing parameter determination unit 17 as they are.

処理パラメータ決定部17は、操作パネル4において自動設定モードでスキャン機能が選択された場合に、解像度変換処理部20で画像データを最適な出力解像度に変換するための出力解像度を決定する。   When the scan function is selected in the automatic setting mode on the operation panel 4, the processing parameter determination unit 17 determines an output resolution for converting the image data into an optimum output resolution by the resolution conversion processing unit 20.

色補正部16は、領域分離処理部15から入力されたRGB信号を、例えば、一般に普及している表示装置の表示特性に適合したR’G’B’の画像データ(例えば、sRGBデータ)へ変換する。   The color correction unit 16 converts the RGB signal input from the region separation processing unit 15 into, for example, R′G′B ′ image data (for example, sRGB data) suitable for display characteristics of a display device that is widely used. Convert.

空間フィルタ処理部19は、色補正部16から入力されたR’G’B’信号に対して同様に、領域分離処理部15から入力された領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって、画像のぼやけ又は粒状性劣化を改善する。空間フィルタ処理部19は、処理後のR’G’B’信号を解像度変換処理部20へ出力する。   Similarly, the spatial filter processing unit 19 applies spatial filter processing by a digital filter to the R′G′B ′ signal input from the color correction unit 16 based on the region identification signal input from the region separation processing unit 15. And correcting the spatial frequency characteristics to improve image blurring or graininess degradation. The spatial filter processing unit 19 outputs the processed R′G′B ′ signal to the resolution conversion processing unit 20.

解像度変換処理部20は、処理パラメータ決定部17で決定された所望の出力解像度の画像データになるように解像度変換処理を行う。例えば、単純な例で示すと、スキャナの入力解像度が600×300dpiの画像データで処理パラメータ決定部17が決定する出力解像度が300×300dpiである場合、解像度変換処理部20は、主走査方向の2画素毎に平均値を求め、それを出力値とすることで、600×300dpiから300×300dpiへの解像度変換を行なう。   The resolution conversion processing unit 20 performs resolution conversion processing so that the image data has a desired output resolution determined by the processing parameter determination unit 17. For example, in a simple example, when the output resolution determined by the processing parameter determination unit 17 is 300 × 300 dpi with image data having a scanner input resolution of 600 × 300 dpi, the resolution conversion processing unit 20 By calculating an average value for every two pixels and using it as an output value, resolution conversion from 600 × 300 dpi to 300 × 300 dpi is performed.

出力階調補正部21は、解像度変換処理部20から入力されたR’G’B’信号に対して、必要に応じてかぶり又はハイライトの下地が消えるように、あるいは薄くなるように出力階調補正を行い、出力階調補正処理後のR’G’B’信号を圧縮処理部23へ出力する。   The output gradation correction unit 21 outputs the output level so that the background of the fog or highlight disappears or becomes thinner as necessary with respect to the R′G′B ′ signal input from the resolution conversion processing unit 20. The tone correction is performed, and the R′G′B ′ signal after the output tone correction processing is output to the compression processing unit 23.

圧縮処理部23は、圧縮部としての機能を有し、R’G’B’信号からなる画像データに対して、操作パネル4のファイルフォーマットの設定に従い、必要に応じてJPEGなどの圧縮処理を行い、圧縮データを生成し、送信装置3へ出力する。なお、圧縮処理が施された画像データを送信装置3へ送信する構成に代えて、USBメモリ等の記憶媒体やハードディスクに格納するようにしてもよい。   The compression processing unit 23 has a function as a compression unit, and performs compression processing such as JPEG on the image data including the R′G′B ′ signal according to the setting of the file format of the operation panel 4 as necessary. The compressed data is generated and output to the transmission device 3. Note that the compressed image data may be stored in a storage medium such as a USB memory or a hard disk, instead of being configured to transmit the image data to the transmission device 3.

カラー画像入力装置1から入力された画像データを送信装置3に出力する場合、黒生成下色除去部18、階調再現処理部22は動作しない。黒生成下色除去部18、階調再現処理部22は、入力されたR’G’B’信号をそのまま後段の処理部に出力する。   When the image data input from the color image input device 1 is output to the transmission device 3, the black generation and under color removal unit 18 and the gradation reproduction processing unit 22 do not operate. The black generation and under color removal unit 18 and the gradation reproduction processing unit 22 output the input R′G′B ′ signal as it is to the subsequent processing unit.

次に、多値の入力画像データを2値で出力する場合の処理を、図3を用いて説明する。図3は実施の形態1の画像形成装置100の構成の他の例を示すブロック図である。A/D変換部11から解像度変換処理部20までの処理は、多値の入力画像データを多値で出力する場合の処理と同じであるので説明を省略する。   Next, processing when multi-valued input image data is output in binary will be described with reference to FIG. FIG. 3 is a block diagram illustrating another example of the configuration of the image forming apparatus 100 according to the first embodiment. The processing from the A / D conversion unit 11 to the resolution conversion processing unit 20 is the same as the processing when multi-valued input image data is output as multi-value, and thus the description thereof is omitted.

出力階調補正部21は、解像度変換処理部20から入力されたR’G’B’信号に対して、Kの画像データ(グレーの濃淡を示す値)に変換する。なお、この変換は、所定のマトリクス係数、又は、下記の式を用いることによって行われる。   The output tone correction unit 21 converts the R′G′B ′ signal input from the resolution conversion processing unit 20 into K image data (a value indicating gray shades). This conversion is performed by using a predetermined matrix coefficient or the following equation.

輝度値(Kの画像データの値)=0.299r+0.587g+0.114b
ここで、rは赤の画像データの値(画素値)であり、gは緑の画像データの値であり、bは青の画像データの値である。
Luminance value (value of K image data) = 0.299r + 0.587 g + 0.114b
Here, r is the value (pixel value) of red image data, g is the value of green image data, and b is the value of blue image data.

出力階調補正部21は、また、Kの画像データに対して2値化処理を施し、中間調生成部25を介して圧縮処理部23へ出力する。2値化を行う閾値としては、画像データが8ビットの場合、128に設定する。あるいは、複数の画素よりなる画素ブロック(例えば、3×3画素)の平均値を求めて閾値とし、ブロックの注目画素を2値化するようにしても良い。しかし、この際、中間調生成部25は何ら動作を行わず、入力されたK信号をそのまま後段の処理部に出力する。   The output tone correction unit 21 also performs binarization processing on the K image data and outputs the result to the compression processing unit 23 via the halftone generation unit 25. The threshold value for binarization is set to 128 when the image data is 8 bits. Alternatively, an average value of a pixel block composed of a plurality of pixels (for example, 3 × 3 pixels) may be obtained as a threshold value, and the target pixel of the block may be binarized. However, at this time, the halftone generation unit 25 does not perform any operation and outputs the input K signal as it is to the subsequent processing unit.

圧縮処理部23は、Kの画像データに対して、MMRなど方式で圧縮処理を行い、圧縮データを生成し、送信装置3へ出力する。   The compression processing unit 23 performs compression processing on the K image data using a method such as MMR, generates compressed data, and outputs the compressed data to the transmission device 3.

次に、処理パラメータ決定部17について詳述する。図4は実施の形態1の処理パラメータ決定部17の構成の一例を示すブロック図である。処理パラメータ決定部17は、エッジ検出部171、文字矩形抽出部172、文字列抽出部173、解像度決定部174などを備える。処理パラメータ決定部17は、入力されたRGB信号に対してエッジ検出部171でエッジ検出を行い、検出された文字エッジをベースに文字矩形抽出部172で文字矩形を抽出し、文字列抽出部173では抽出された文字矩形をベースに文字列を抽出し、解像度決定部174で文字列又は文字矩形から出力解像度を決定する。また、文字矩形抽出部172は特定情報生成部172aを有している。   Next, the processing parameter determination unit 17 will be described in detail. FIG. 4 is a block diagram illustrating an example of the configuration of the processing parameter determination unit 17 according to the first embodiment. The processing parameter determination unit 17 includes an edge detection unit 171, a character rectangle extraction unit 172, a character string extraction unit 173, a resolution determination unit 174, and the like. The processing parameter determination unit 17 performs edge detection on the input RGB signal by the edge detection unit 171, extracts a character rectangle by the character rectangle extraction unit 172 based on the detected character edge, and extracts the character string extraction unit 173. Then, the character string is extracted based on the extracted character rectangle, and the resolution determination unit 174 determines the output resolution from the character string or the character rectangle. The character rectangle extraction unit 172 includes a specific information generation unit 172a.

図5はエッジ検出部171の処理手順の一例を示すフローチャートである。図5に示すように、エッジ検出部171は、入力されたRGB信号に対してSobel又はLaplacianなどのエッジ検出フィルタを用いてエッジ検出を行う(ステップS11)。エッジ検出部171は、検出されたエッジに対して文字エッジ膨張処理(膨張処理)を行い(ステップS12)、文字エッジ候補を抽出し、処理を終了する。   FIG. 5 is a flowchart illustrating an example of a processing procedure of the edge detection unit 171. As shown in FIG. 5, the edge detection unit 171 performs edge detection on the input RGB signal using an edge detection filter such as Sobel or Laplacian (step S11). The edge detection unit 171 performs character edge expansion processing (expansion processing) on the detected edge (step S12), extracts character edge candidates, and ends the processing.

図6(図6A乃至図6E)はエッジ検出部171によるエッジ検出処理の一例を示す模式図である。図6AはRGB画像データのG信号の一部分(10×10画素)を示している。各枠内の数値は、画素値である。ここではG信号に対する処理のみ説明するが、R信号又はB信号に対しても同様の処理を行う。図6Bはエッジ検出のためのフィルタを示す。該エッジ検出のフィルタとしては、図6Bに示すように、例えば、Laplacianフィルタを用いることができる。なお、エッジ検出のフィルタが図6Bの例に限定されるものではない。   FIG. 6 (FIGS. 6A to 6E) is a schematic diagram illustrating an example of edge detection processing by the edge detection unit 171. FIG. 6A shows a part (10 × 10 pixels) of the G signal of the RGB image data. The numerical value in each frame is a pixel value. Although only the process for the G signal will be described here, the same process is performed for the R signal or the B signal. FIG. 6B shows a filter for edge detection. As the edge detection filter, for example, a Laplacian filter can be used as shown in FIG. 6B. Note that the edge detection filter is not limited to the example of FIG. 6B.

図6Aの太枠で囲まれた、8×8画素に対して、図6Bに示すフィルタによりフィルタ処理した結果を図6Cに示す。図6Cの例に対して、画素値が100以上の画素のみをエッジ画素(値を1とする)として抽出し、画素値が100未満の画素を0としたものを図6Dに示す。すなわち、図6Aの太枠(8×8画素)に対して、斯かる処理を施した場合、図6Dに示す結果が得られる。   FIG. 6C shows the result of filtering the 8 × 8 pixels surrounded by the thick frame in FIG. 6A with the filter shown in FIG. 6B. FIG. 6D shows an example in which only pixels having a pixel value of 100 or more are extracted as edge pixels (value is set to 1) and pixels having a pixel value of less than 100 are set to 0 with respect to the example of FIG. 6C. That is, when such processing is performed on the thick frame (8 × 8 pixels) in FIG. 6A, the result shown in FIG. 6D is obtained.

図6Dの例(太枠の部分)に対して、文字エッジ膨張(膨張処理)を施した結果を図6Eに示す。膨張処理は、注目画素が0であって、その近傍8画素のうち、2画素以上にエッジ画素(値が1の画素)が存在する場合、その注目画素の値を1とすることにより行われる。図6Eの例を文字エッジ候補とする。   FIG. 6E shows the result of character edge expansion (expansion processing) performed on the example (thick frame portion) in FIG. 6D. The dilation processing is performed by setting the value of the target pixel to 1 when the target pixel is 0 and there are edge pixels (pixels having a value of 1) in two or more of the eight neighboring pixels. . Let the example of FIG. 6E be a character edge candidate.

上述のように、エッジ検出の後に膨張処理を行うことにより、図6に示すように、フィルタ処理結果を閾値処理している結果、本来エッジであるにも関わらずエッジであると判定されない画素がある場合、かかる画素を訂正し、精度良くエッジを検出することができる。また、文字を構成する画素のつながりを良くすることができる。   As described above, by performing dilation processing after edge detection, as shown in FIG. 6, as a result of performing threshold processing on the filter processing result, pixels that are originally edges but are not determined to be edges are detected. In some cases, such pixels can be corrected and edges can be detected with high accuracy. Moreover, the connection of the pixels constituting the character can be improved.

図7は文字矩形抽出部172の処理手順の一例を示すフローチャートである。文字矩形抽出部172(特定情報生成部172a)は、画像に含まれる文字候補(文字矩形とも称する)を特定する文字特定情報(文字矩形情報とも称する)を生成する。文字候補は、1つの文字毎に特定することができる。文字特定情報(文字矩形情報)は、文字候補(文字矩形)を特定するための位置情報であり、例えば、文字矩形の左上及び右下の座標情報、文字矩形の水平方向の寸法(幅)及び垂直方向の寸法(高さ)などを含む。   FIG. 7 is a flowchart illustrating an example of a processing procedure of the character rectangle extraction unit 172. The character rectangle extraction unit 172 (specific information generation unit 172a) generates character specification information (also referred to as character rectangle information) that specifies character candidates (also referred to as character rectangles) included in the image. Character candidates can be specified for each character. The character specifying information (character rectangle information) is position information for specifying a character candidate (character rectangle). For example, the upper left and lower right coordinate information of the character rectangle, the horizontal dimension (width) of the character rectangle, and Including vertical dimensions (height).

より具体的には、図7に示すように、文字矩形抽出部172は、エッジ検出部171で出力された文字エッジ候補(例えば、図6Eの例)に対してラベリング処理を行い(ステップS21)、文字矩形(文字候補、文字矩形領域とも称する)を抽出する。   More specifically, as shown in FIG. 7, the character rectangle extraction unit 172 performs a labeling process on the character edge candidates (for example, the example of FIG. 6E) output by the edge detection unit 171 (step S21). , Character rectangles (also referred to as character candidates and character rectangle regions) are extracted.

文字矩形抽出部172は、文字矩形を抽出した後、抽出した文字矩形それぞれに対し、近傍の文字矩形サイズと比較する。その結果、サイズの差異が所定値よりも大きく、かつ、近傍に似たような文字矩形が存在しない文字矩形については、文字矩形抽出部172が非文字矩形として除去し(ステップS22)、残った文字矩形を文字矩形情報として、処理を終了する。   After extracting the character rectangle, the character rectangle extracting unit 172 compares each extracted character rectangle with a nearby character rectangle size. As a result, the character rectangle extraction unit 172 removes the character rectangle whose size difference is larger than the predetermined value and the character rectangle similar to the vicinity does not exist as a non-character rectangle (step S22) and remains. The process is terminated using the character rectangle as character rectangle information.

図8(図8A乃至図8E)は文字矩形抽出部172による文字矩形抽出処理の一例を示す模式図である。図8Aはエッジ検出部171で抽出されたエッジ検出結果(文字エッジ候補)の例である。なお、図8A及び図6Eは、文字エッジ候補を表すが、図8Aの例と図6Eの例とは便宜上異なっている。   FIG. 8 (FIGS. 8A to 8E) is a schematic diagram showing an example of character rectangle extraction processing by the character rectangle extraction unit 172. FIG. FIG. 8A is an example of the edge detection result (character edge candidate) extracted by the edge detection unit 171. 8A and 6E show character edge candidates, but the example of FIG. 8A and the example of FIG. 6E are different for convenience.

まず、文字矩形抽出部172は、エッジ検出部171で抽出されたエッジ検出結果(文字エッジ候補)に対してラベリング処理を行う。図8Bはラベリング処理を行う際の注目画素と参照画素を示す。図8Bの*で示す画素を注目画素とすると、当該注目画素の近傍の4つの参照画素(符号a、b、c、dで示す)のラベリング値を参照して注目画素の初期ラベルを決定する。具体的には、4つの参照画素にラベル付けした画素が存在しない場合には、注目画素に新たなラベル値を付与する。また、4つの参照画素に複数のラベル値が存在する場合には、その中での最小ラベル値を注目画素に付与する。図8Cは、図8Aに例示したエッジ検出結果(文字エッジ候補)に対して初期ラベルを付与した結果を示す。   First, the character rectangle extraction unit 172 performs a labeling process on the edge detection result (character edge candidate) extracted by the edge detection unit 171. FIG. 8B shows a target pixel and a reference pixel when performing a labeling process. If the pixel indicated by * in FIG. 8B is the target pixel, the initial label of the target pixel is determined with reference to the labeling values of the four reference pixels (indicated by symbols a, b, c, and d) in the vicinity of the target pixel. . Specifically, when there is no pixel labeled with four reference pixels, a new label value is assigned to the target pixel. Further, when a plurality of label values exist in the four reference pixels, the minimum label value among them is given to the target pixel. FIG. 8C shows a result of adding an initial label to the edge detection result (character edge candidate) illustrated in FIG. 8A.

また、ラベル値を付与した注目画素の周辺の8画素に複数のラベル値が存在する場合には、注目画素の付与した初期ラベルと、注目画素の周辺の8画素のラベル値のうち最小ラベル値を補正ラベルとして関連付けを行う。図8Dが初期ラベルと補正ラベルとの関連付けを示す例である。すなわち、図8Dは注目画素に初期ラベルを付与した際、注目画素の周辺の8画素に複数のラベルが存在した場合に、その中で最小ラベル値(注目画素に付与した初期ラベル)以外のものと最小ラベル値(初期ラベル)との関連付けを行ったものである。   Further, when there are a plurality of label values in the eight pixels around the target pixel to which the label value is assigned, the minimum label value among the initial label to which the target pixel is given and the label value of the eight pixels around the target pixel Is used as a correction label. FIG. 8D is an example showing the association between the initial label and the correction label. That is, in FIG. 8D, when an initial label is assigned to the target pixel, when there are a plurality of labels in the eight pixels around the target pixel, the label other than the minimum label value (initial label assigned to the target pixel) is included. Is associated with the minimum label value (initial label).

図8Dによれば、例えば、ラベル3(初期ラベル3)はラベル1(補正ラベル1)と関連があることを示している。また、ラベル6(初期ラベル6)は最初の関連付けの段階ではラベル5(補正ラベル5)と関連があるということになるが、ラベル5はラベル4と関係があるということがわかっているので、最終的にラベル6(初期ラベル6)はラベル4(補正ラベル4)と関連があるということになる。図8Dは、初期ラベルと最終的な最小ラベル値(補正ラベル)との関連を表す。   FIG. 8D shows that, for example, label 3 (initial label 3) is associated with label 1 (correction label 1). In addition, label 6 (initial label 6) is related to label 5 (corrected label 5) at the initial association stage, but it is known that label 5 is related to label 4, Eventually, label 6 (initial label 6) is related to label 4 (correction label 4). FIG. 8D shows the relationship between the initial label and the final minimum label value (corrected label).

図8Dに示す初期ラベルと補正ラベルとの対応関係を用いて、図8Cに示す各画素のラベルを参照しつつ、ラベル値が最小ラベル値になるように補正処理を行った結果を図8Eに示す。   FIG. 8E shows the result of performing the correction process so that the label value becomes the minimum label value while referring to the label of each pixel shown in FIG. 8C using the correspondence relationship between the initial label and the correction label shown in FIG. 8D. Show.

また、最小ラベル値になるように補正処理を行う際に同一ラベル値の画素を囲む文字矩形領域の座標の最小値(文字矩形領域の左上の位置)と最大値(文字矩形領域の右下の位置)を求めることにより、同一ラベル値を包含する文字矩形領域の矩形サイズを求める。図8Eの太線が文字矩形領域を示す。図8Eでは、ラベル値が、1、2、4、7の4つの文字矩形領域が例示されている。それぞれの文字矩形領域の最小値(文字矩形領域の左上の位置)と最大値(文字矩形領域の右下の位置)が、各ラベル(図8Eの例では、1、2、4、7)の矩形サイズとなる。   In addition, when performing correction processing so as to be the minimum label value, the minimum value (the upper left position of the character rectangular area) and the maximum value (the lower right position of the character rectangular area) of the coordinates of the character rectangular area surrounding the pixels of the same label value By calculating (position), the rectangular size of the character rectangular area including the same label value is obtained. A thick line in FIG. 8E indicates a character rectangular area. FIG. 8E illustrates four character rectangular areas with label values of 1, 2, 4, and 7. The minimum value (upper left position of the character rectangular area) and the maximum value (lower right position of the character rectangular area) of each character rectangular area are the respective labels (1, 2, 4, 7 in the example of FIG. 8E). Rectangle size.

次に、各ラベルに対して文字矩形と判定できないものを排除する。具体的には、水平方向又は垂直方向に長いラベル、例えば、図8Eのラベル4のように水平方向に16画素あり、垂直方向に2画素ある矩形領域は、垂直方向の長さに比べて水平方向の長さが長いため、水平方向の線分の可能性がある。そこで、ラベル4の矩形領域は、文字矩形ではないと判定して排除する。この場合、矩形領域が線分であるか否かを判定するためには、例えば、水平方向の画素数と垂直方向の画素数との差分を算出し、算出した差分が所定の閾値以上(例えば、12画素以上)である場合に線分と判定することができる。   Next, items that cannot be determined as character rectangles for each label are excluded. Specifically, a rectangular area having 16 pixels in the horizontal direction and having 2 pixels in the vertical direction as shown in a label 4 in FIG. 8E, which is long in the horizontal direction or the vertical direction, is horizontal compared to the length in the vertical direction. Because the length of the direction is long, there is a possibility of a horizontal line segment. Therefore, it is determined that the rectangular area of the label 4 is not a character rectangle and is excluded. In this case, in order to determine whether or not the rectangular region is a line segment, for example, a difference between the number of pixels in the horizontal direction and the number of pixels in the vertical direction is calculated, and the calculated difference is equal to or greater than a predetermined threshold (for example, , 12 pixels or more), it can be determined as a line segment.

また、求めた矩形領域のうち、サイズが小さすぎる矩形領域、例えば、図8Eのラベル7のように水平方向及び垂直方向それぞれに2画素ずつ合計で4画素しかないものは文字ではなく、汚れなどのノイズ画素(以下、ノイズ矩形とも言う)である可能性がある。そこで、ラベル7の矩形領域は文字矩形ではないと判定して排除する。この場合、矩形領域のサイズが小さいものを判定するためには、例えば、水平方向の画素数と垂直方向の画素数とを加算し、加算した値が所定の閾値以下(例えば6画素以下)である場合にノイズ画素と判定することができる。   Of the obtained rectangular areas, a rectangular area whose size is too small, such as a label 7 in FIG. 8E, which has only 2 pixels in each of the horizontal direction and the vertical direction in total, is not a character and is not a character. Noise pixels (hereinafter also referred to as noise rectangles). Therefore, it is determined that the rectangular area of the label 7 is not a character rectangle and is excluded. In this case, in order to determine whether the size of the rectangular area is small, for example, the number of pixels in the horizontal direction and the number of pixels in the vertical direction are added, and the added value is equal to or less than a predetermined threshold (for example, 6 pixels or less). In some cases, it can be determined as a noise pixel.

また、図8Eには例示していないが、矩形領域のサイズがあまりにも大きすぎるラベル、例えば、入力画像のサイズの1/4程度の大きさの矩形領域などは、文字ではなく画像などの可能性があるため排除することができる。この場合、矩形領域のサイズが大きなものを判定する際には、入力画像の画素数に対する矩形領域の画素数の比率を求め、その比率が所定の閾値以上(例えば、0.25以上)である場合には、当該矩形領域は大きすぎるラベルであると、すなわち文字矩形でないと判定することができる。上述のような非文字矩形除去処理を行うことにより、最終的に図8Eのラベル1とラベル2だけが文字矩形として抽出される。   Although not illustrated in FIG. 8E, a label whose rectangular area is too large, for example, a rectangular area whose size is about 1/4 of the size of the input image, can be an image instead of a character. It can be eliminated because of its nature. In this case, when determining that the size of the rectangular area is large, the ratio of the number of pixels of the rectangular area to the number of pixels of the input image is obtained, and the ratio is equal to or larger than a predetermined threshold (for example, 0.25 or larger). In this case, it can be determined that the rectangular area is a label that is too large, that is, not a character rectangle. By performing the non-character rectangle removal process as described above, only labels 1 and 2 in FIG. 8E are finally extracted as character rectangles.

図9は文字列抽出部173の処理手順の一例を示すフローチャートである。文字列抽出部173は、文字矩形抽出部172(特定情報生成部172a)で生成した文字特定情報(文字矩形情報)に基づいて複数の文字で構成される文字列候補(文字列とも称する)を特定する文字列特定情報(文字列情報とも称する)を生成する。文字列特定情報(文字列情報)は、文字列候補(文字列)を特定するための位置情報であり、例えば、文字列候補の左上及び右下の座標情報、文字列候補の水平方向の寸法(幅)及び垂直方向の寸法(高さ)などを含む。また、文字列特定情報は、文字列の方向(水平方向、垂直方向)を含む。   FIG. 9 is a flowchart illustrating an example of a processing procedure of the character string extraction unit 173. The character string extraction unit 173 generates character string candidates (also referred to as character strings) composed of a plurality of characters based on the character identification information (character rectangle information) generated by the character rectangle extraction unit 172 (specific information generation unit 172a). Character string specifying information to be specified (also referred to as character string information) is generated. The character string specifying information (character string information) is position information for specifying a character string candidate (character string). For example, the upper left and lower right coordinate information of the character string candidate, the horizontal dimension of the character string candidate (Width) and vertical dimension (height). The character string specifying information includes the direction of the character string (horizontal direction, vertical direction).

より具体的には、図9に示すように、文字列抽出部173は、文字矩形抽出部172で出力された文字矩形情報に対して近傍の文字矩形同士の距離を算出し(ステップS31)、近い文字矩形同士を同じ文字列のグループとして統合し、文字列情報を生成する。   More specifically, as shown in FIG. 9, the character string extraction unit 173 calculates the distance between adjacent character rectangles with respect to the character rectangle information output by the character rectangle extraction unit 172 (step S31). Close character rectangles are integrated as a group of the same character string, and character string information is generated.

文字列抽出部173は、文字矩形が統合された文字列情報に対し、文字列の長さから文字列の方向を推定する(ステップS32)。文字列抽出部173は、さらに、部分的に異なる方向であると判定された文字列、あるいは方向が不定の文字矩形について、異なる方向であると判定された文字列に属する文字矩形又は方向不定の文字矩形を正しい文字列方向に補正できる場合には文字列方向を補正する(ステップS33)。   The character string extraction unit 173 estimates the direction of the character string from the length of the character string with respect to the character string information in which the character rectangles are integrated (step S32). Further, the character string extraction unit 173 further applies a character rectangle that is determined to be in a different direction, or a character rectangle that belongs to a character string that is determined to be in a different direction, or a character rectangle that is determined to be in a different direction. If the character rectangle can be corrected in the correct character string direction, the character string direction is corrected (step S33).

文字列抽出部173は、補正された文字列の情報から文字列領域を抽出し(ステップS34)、抽出した文字列領域に属さないと判定された文字列については非文字列領域の文字列であるとして除去し(ステップS35)、残ったものを最終的な文字列情報として、処理を終了する。   The character string extraction unit 173 extracts a character string area from the corrected character string information (step S34), and the character string determined not to belong to the extracted character string area is the character string of the non-character string area. If it exists, it is removed (step S35), and the process is terminated with the remaining information as the final character string information.

図10(図10A乃至図10D)は文字列抽出部173による文字列抽出処理の一例を示す模式図である。図10Aは文字矩形抽出部172で抽出された文字矩形抽出結果の一例を示す。図10Aの例では、21個の文字矩形(文字候補)が抽出されている。   FIG. 10 (FIGS. 10A to 10D) is a schematic diagram showing an example of character string extraction processing by the character string extraction unit 173. FIG. FIG. 10A shows an example of a character rectangle extraction result extracted by the character rectangle extraction unit 172. In the example of FIG. 10A, 21 character rectangles (character candidates) are extracted.

図10Aの文字矩形抽出結果に対し、近傍の文字矩形同士の距離を算出する。まず、任意の注目文字矩形に対し、文字列情報として注目文字矩形と同じサイズの文字列サイズを設定する。近傍文字矩形の距離の求め方としては、水平方向に対し、注目文字矩形の右上の頂点座標と近い(例えば、垂直方向に±5画素以内、水平方向に10画素以内の位置にある)左上の頂点座標を持つ文字矩形が存在するかの判定、もしくは、注目文字矩形の右下の頂点座標と近い左下の頂点座標を持つ文字矩形が存在するかの判定をすべての文字矩形の座標情報から探索し、近い位置にある文字矩形を近傍文字矩形として抽出する。   The distance between adjacent character rectangles is calculated for the character rectangle extraction result shown in FIG. 10A. First, a character string size having the same size as the target character rectangle is set as character string information for an arbitrary target character rectangle. As the method for obtaining the distance of the neighboring character rectangle, the upper left corner is close to the upper right vertex coordinate of the target character rectangle (for example, within ± 5 pixels in the vertical direction and within 10 pixels in the horizontal direction). Search from the coordinate information of all character rectangles to determine whether there is a character rectangle with vertex coordinates, or whether there is a character rectangle with lower-left vertex coordinates close to the lower-right vertex coordinates of the target character rectangle Then, a character rectangle at a close position is extracted as a nearby character rectangle.

さらに、垂直方向に対し、注目文字矩形の左下の頂点座標と近い(例えば、水平方向に±5画素以内、垂直方向に10画素以内の位置にある)左上の頂点座標を持つ文字矩形が存在するかの判定、もしくは、注目文字矩形の右下の頂点座標と近い右上の頂点座標を持つ文字矩形が存在するかの判定をすべての文字矩形の座標情報から探索し、近い位置にある文字矩形を近傍文字矩形として抽出する。   In addition, there is a character rectangle having an upper left vertex coordinate that is close to the lower left vertex coordinate of the target character rectangle in the vertical direction (for example, within ± 5 pixels in the horizontal direction and within 10 pixels in the vertical direction). Or whether there is a character rectangle with the upper right vertex coordinate close to the lower right vertex coordinate of the character rectangle of interest from the coordinate information of all the character rectangles. Extract as a nearby character rectangle.

水平方向及び垂直方向の両方向に近接文字矩形が存在する場合、より近い方の文字矩形を近傍文字矩形として選択する。そして、最終的に抽出された近傍文字矩形をその注目文字矩形と同じグループの文字矩形として統合(同じ文字列であるというラベルを付ける)し、注目文字矩形の文字列サイズに近傍文字矩形を接続した際のサイズを新しい文字列サイズとして文字列情報を更新する。   When adjacent character rectangles exist in both the horizontal direction and the vertical direction, the closest character rectangle is selected as the adjacent character rectangle. Then, the extracted neighborhood character rectangle is integrated as a character rectangle of the same group as the target character rectangle (labeled as the same character string), and the adjacent character rectangle is connected to the character string size of the target character rectangle The character string information is updated with the new size as the new character string size.

仮に、近傍文字矩形が存在しない場合には、文字列情報の文字列サイズは文字矩形サイズのままとし、次の注目文字矩形の処理に移る。なお、次の注目文字矩形は、まだ、どの文字列グループにも属していない文字矩形を選択するようにし、最終的に、一度も文字列抽出処理を行っておらず、どの文字列グループにも属していない文字矩形が存在しなくなるまで繰り返し文字列抽出処理を行う。   If there is no neighboring character rectangle, the character string size of the character string information is left as the character rectangle size, and the process proceeds to the next character rectangle of interest. For the next attention character rectangle, a character rectangle that does not yet belong to any character string group is selected. Finally, no character string extraction processing has been performed, and any character string group is not selected. The character string extraction process is repeated until there is no character rectangle that does not belong.

図10Aに例示した文字矩形に対して、上述の処理を行った結果を図10Bに例示する。図10Bにおいて、太枠で囲まれた部分が抽出された文字列を示す。図10Bの例では、符号1〜6が付された6個のグループの文字列が抽出されている。   FIG. 10B illustrates the result of performing the above-described processing on the character rectangle illustrated in FIG. 10A. In FIG. 10B, a character string extracted from a portion surrounded by a thick frame is shown. In the example of FIG. 10B, six groups of character strings with reference numerals 1 to 6 are extracted.

文字列抽出処理が完了すると、各グループの文字列の水平方向及び垂直方向のサイズを算出し、サイズが長い方の方向を文字列の方向として設定する。例えば、水平方向に100画素あり、垂直方向に10画素ある文字列の場合、水平方向の文字列と設定する。   When the character string extraction process is completed, the horizontal and vertical sizes of the character strings of each group are calculated, and the longer direction is set as the direction of the character string. For example, in the case of a character string having 100 pixels in the horizontal direction and 10 pixels in the vertical direction, the character string is set as the horizontal character string.

また、文字列の水平方向のサイズ及び垂直方向のサイズが同程度である場合(例えば、水平方向が15画素であり、垂直方向が10画素である場合など)、文字列の方向を判定することができないので、当該文字列については文字列方向不定として設定しておく。図10Bの例では、符号1、2、3の文字列の方向は水平方向(水平方向文字列とも称する)であり、符号4、5、6の文字列(文字矩形を含む)は方向不定文字列となる。   Further, when the size of the character string in the horizontal direction and the size in the vertical direction are approximately the same (for example, when the horizontal direction is 15 pixels and the vertical direction is 10 pixels), the direction of the character string is determined. Therefore, the character string direction is set as indefinite. In the example of FIG. 10B, the direction of the character strings 1, 2, and 3 is the horizontal direction (also referred to as a horizontal direction character string), and the character strings 4, 5, and 6 (including the character rectangle) are directionally indefinite characters. It becomes a column.

すべてのグループの文字列に対して文字列方向を設定した後、文字列方向不定のものに対して、近傍の文字列に係る文字列情報に基づいて、正しい文字列方向に補正する。図10Bの例では、符号4の方向不定文字列は、上側近傍に位置する符号3が付されたグループの文字列とほぼ同じ横位置(例えば、水平位置が±5画素以内)にあり、また、垂直方向の距離も比較的近い(例えば、8画素以下)ので、符号3のグループの文字列と同じ方向の文字列と判定する。これにより、符号4の方向不定文字列は、水平方向の文字列であると補正される。   After the character string direction is set for the character strings of all groups, the character string direction is indefinite, and is corrected in the correct character string direction based on the character string information related to the nearby character string. In the example of FIG. 10B, the directionally indefinite character string of reference numeral 4 is in substantially the same horizontal position (for example, the horizontal position is within ± 5 pixels) as the character string of the group with reference numeral 3 located near the upper side, and Since the distance in the vertical direction is also relatively short (for example, 8 pixels or less), it is determined that the character string is in the same direction as the character string of the group of 3. Thereby, the direction indefinite character string of the code | symbol 4 is correct | amended as a character string of a horizontal direction.

また、符号5、6の方向不定文字列は、近傍に文字列が存在しないので、方向不定文字列のままとする。   In addition, the direction-indefinite character strings of reference numerals 5 and 6 are left as direction-indefinite character strings because no character string exists in the vicinity.

図10Cは図10Bに例示した文字列に対して文字列方向を補正した結果の一例を示す。図10Cにおいて、太枠で囲まれた文字列(符号1、2、3、4)が、文字列方向が定まったものである。   FIG. 10C shows an example of the result of correcting the character string direction for the character string illustrated in FIG. 10B. In FIG. 10C, the character string (reference numerals 1, 2, 3, 4) surrounded by a thick frame has a fixed character string direction.

次に、近傍に位置する文字列(近傍文字列とも称する)であってサイズが近いもの、あるいは文字列の開始位置(文字列の左端位置)又は終了位置(文字列の右端位置)が近い(例えば、8画素以内)もの同士でグループ分けを行う。これにより文字列領域を抽出する。図10Cの場合、符号1〜4の文字列が水平方向の文字列であり、文字列の開始位置又は終了位置が近いので、符号1〜4の文字列を同じグループの文字列である文字列領域として抽出する。文字列領域は、方向が同一の1又は複数の文字列を纏めたものである。そして、文字列領域に属していない符号5、6の方向不定文字列を非文字列領域として文字列情報から除去する。文字列領域を抽出し、非文字列領域を除去した結果を図10Dに例示する。すなわち、図10Dに例示する文字列領域には、文字列の方向が定まった文字列(符号1〜4で示す矩形領域)が含まれる。なお、文字列領域が1つも存在しない場合には、文字列が存在しないと判定し、文字列情報をクリアすればよい。   Next, a character string located in the vicinity (also referred to as a neighborhood character string) and close in size, or the start position of the character string (the left end position of the character string) or the end position (the right end position of the character string) is close ( For example, within 8 pixels), grouping is performed. Thereby, a character string area is extracted. In the case of FIG. 10C, since the character strings 1 to 4 are horizontal character strings and the start position or end position of the character string is close, the character strings 1 to 4 are character strings in the same group. Extract as a region. The character string area is a collection of one or more character strings having the same direction. Then, the direction indefinite character strings of reference numerals 5 and 6 that do not belong to the character string area are removed from the character string information as non-character string areas. The result of extracting the character string region and removing the non-character string region is illustrated in FIG. 10D. That is, the character string area illustrated in FIG. 10D includes a character string (rectangular area indicated by reference numerals 1 to 4) in which the direction of the character string is determined. If there is no character string area, it is determined that there is no character string and the character string information is cleared.

図11は実施の形態1において、解像度決定部174の要部構成を示す機能ブロック図である。解像度決定部174は、取得部174aと、検索部174bと、選択部174cとを有している。   FIG. 11 is a functional block diagram showing a main configuration of the resolution determination unit 174 in the first embodiment. The resolution determination unit 174 includes an acquisition unit 174a, a search unit 174b, and a selection unit 174c.

取得部174aは前記画像データの出力に係る出力設定、又は、前記原稿に係る原稿情報を取得する。
前記出力設定は、前記画像データの出力における設定であり、例えば、2値での出力又は多値での出力の何れかの設定、出力するデータ容量の大きさ(ファイルサイズ)を優先又は出力する画質を優先の何れかの設定、又は出力に係る圧縮率の設定等が含まれる。また、前記原稿情報は、斯かる原稿に関する情報であり、例えば、原稿に使われた言語(以下、使用言語と言う。)に係る情報等を含む。
The acquisition unit 174a acquires output settings related to the output of the image data or document information related to the document.
The output setting is a setting in the output of the image data. For example, priority is given to or output of the setting of either binary output or multi-value output, and the size of data to be output (file size). This includes any setting that prioritizes image quality, or a compression rate setting for output. The document information is information relating to such a document, and includes, for example, information related to a language used for the document (hereinafter referred to as a language used).

取得部174aは、表示パネル4を介してユーザから受け付けられて、例えば、記憶部24に記憶されている出力設定又は原稿情報を、記憶部24から取得する。また、これに限るものでなく、ACS(自動カラー選択)機能による処理結果を用いるように構成しても良い。   The acquisition unit 174a receives from the storage unit 24, for example, output settings or document information received from the user via the display panel 4 and stored in the storage unit 24. Further, the present invention is not limited to this, and a processing result by an ACS (automatic color selection) function may be used.

例えば、ユーザによる所定の操作によりACS機能が動作した場合、表示部(図示せず)にて白黒モードの選択を促す表示が行われるので、ユーザがグレースケール(多値)又は2値の何れかを選択することにより、取得部174aが出力設定を取得しても良い。また、画像形成装置100としてグレースケールで出力するか2値で出力するかが予め設定されている場合、取得部174aが上記設定情報を参照して何れか一方を取得するように構成しても良い。   For example, when the ACS function is activated by a predetermined operation by the user, the display unit (not shown) prompts the user to select the monochrome mode, so that the user can select either grayscale (multivalue) or binary. By selecting, the acquisition unit 174a may acquire the output setting. Further, when the image forming apparatus 100 is set in advance to output in grayscale or binary, the acquisition unit 174a may be configured to acquire either one with reference to the setting information. good.

更に、斯かる画像データに対してOCR処理を施すことにより、斯かる原稿の使用言語を判定し、該判定結果を用いて取得部174aが前記原稿情報を取得するように構成しても良い。   Furthermore, it may be configured such that an OCR process is performed on the image data to determine a language used for the document, and the acquisition unit 174a acquires the document information using the determination result.

また、検索部174bは、記憶部24に記憶されている前記出力解像度テーブルから前記画像データの文字候補に係る文字特定情報に対応する出力解像度を検索する。前記出力解像度テーブルには、取得部174aによって取得される出力設定又は前記原稿情報に応じて、前記文字特定情報及び前記出力解像度が対応付けて記憶されている。   In addition, the search unit 174b searches the output resolution table stored in the storage unit 24 for the output resolution corresponding to the character specifying information related to the character candidates of the image data. In the output resolution table, the character specifying information and the output resolution are stored in association with each other according to the output setting acquired by the acquisition unit 174a or the document information.

検索部174bは、特定情報生成部172aが生成した文字列特定情報又は文字特定情報に基づいて1又は複数の文字サイズを決定する。例えば、水平方向の文字列候補の高さ又は垂直方向の文字列候補の幅、あるいは文字候補の高さ又は幅の長い方の値に応じて文字サイズ(画素数)を決定する。検索部174bは、決定した文字サイズに基づいて、前記出力解像度テーブルから出力解像度を検索する。   The search unit 174b determines one or more character sizes based on the character string specifying information or the character specifying information generated by the specifying information generating unit 172a. For example, the character size (number of pixels) is determined according to the height of the character string candidate in the horizontal direction, the width of the character string candidate in the vertical direction, or the longer value of the character candidate. The search unit 174b searches for the output resolution from the output resolution table based on the determined character size.

図12は記憶部24に記憶されている出力解像度テーブルの一例を概念的に説明する表である。前記出力解像度テーブルにおいては、前記文字特定情報としての矩形サイズと、前記出力解像度又は前記原稿情報とが対応付けされている。ここで、矩形サイズは、前記文字候補(文字矩形)の幅又は高さの何れか長い方の値である。   FIG. 12 is a table conceptually illustrating an example of the output resolution table stored in the storage unit 24. In the output resolution table, the rectangular size as the character specifying information is associated with the output resolution or the document information. Here, the rectangle size is the longer value of the width or height of the character candidate (character rectangle).

図12Aは、出力設定が2値での出力である場合、又は、多値での出力である場合に対する出力解像度テーブルである。また、図12Bは、出力設定として出力に係る圧縮率が異なる場合に対する出力解像度テーブルである。更に、図12Cは、出力設定が、出力するデータ容量の大きさを優先する場合、又は、出力する画質を優先する場合、又は、その中間(通常)の場合に対する出力解像度テーブルである。なお、図12Dは、原稿情報として、使用言語が日本語である場合又は英語である場合に対する出力解像度テーブルである。   FIG. 12A is an output resolution table for a case where the output setting is a binary output or a multi-value output. FIG. 12B is an output resolution table for the case where the output compression rate differs as the output setting. Furthermore, FIG. 12C is an output resolution table when the output setting gives priority to the size of the output data capacity, gives priority to the output image quality, or is intermediate (normal). FIG. 12D is an output resolution table for the case where the language used is Japanese or English as the document information.

図12Aにおいては、多値での出力の場合、2値での出力の場合より、前記出力解像度が低くなるように重み付けされている。すなわち、同一の出力解像度に対して、多値で出力する場合に比べ、2値で出力する場合の方が、より大きい矩形サイズが設定されている。   In FIG. 12A, weighting is performed so that the output resolution is lower in the case of multi-value output than in the case of binary output. That is, for the same output resolution, a larger rectangular size is set for binary output than for multi-value output.

図12Bにおいては、前記圧縮率が低いほど、前記出力解像度が低くなるように重み付けされている。すなわち、同一の出力解像度に対して、前記圧縮率が高いほど大きい矩形サイズが設定されている。   In FIG. 12B, the lower the compression rate, the lower the output resolution. That is, for the same output resolution, a larger rectangular size is set as the compression rate is higher.

図12Cにおいては、出力するデータ容量の大きさを優先する場合、すなわち、出力するファイルサイズを小さくすることを優先する場合(ファイルサイズ優先の場合)、出力する画質を優先する場合より、前記出力解像度が低くなるように重み付けされている。すなわち、同一の出力解像度に対して、ファイルサイズ優先の場合に比べ、画質優先の場合に、大きい矩形サイズが設定されている。   In FIG. 12C, when priority is given to the size of the output data capacity, that is, when priority is given to reducing the output file size (when priority is given to file size), the output is given more than when priority is given to the output image quality. Weighted so that the resolution is lower. That is, for the same output resolution, a larger rectangular size is set when image quality is prioritized than when file size is prioritized.

図12Dにおいては、視認性の高い使用言語ほど前記出力解像度が低くなるように重み付けされている。上述した、日本語及び英語の例においては、漢字等を含む日本語の方が英語より視認性が低い。従って、同一の出力解像度に対して、使用言語が英語である場合に比べ、使用言語が日本語である場合に、大きい矩形サイズが設定されている。   In FIG. 12D, weighting is performed so that the language with higher visibility has a lower output resolution. In the above-mentioned examples of Japanese and English, the visibility of Japanese including Chinese characters is lower than that of English. Therefore, for the same output resolution, a larger rectangular size is set when the language used is Japanese than when the language used is English.

検索部174bは、取得部174aによって取得された出力設定又は原稿情報、及び、前記出力解像度テーブルに基づいて、前記画像データの文字候補に係る文字特定情報に対応する出力解像度を検索する。   The search unit 174b searches the output resolution corresponding to the character specifying information related to the character candidate of the image data based on the output setting or document information acquired by the acquisition unit 174a and the output resolution table.

検索部174bによって前記出力解像度テーブルから検索された出力解像度が1つである場合は、該出力解像度が最適出力解像度として取り扱われる。   When there is only one output resolution searched from the output resolution table by the search unit 174b, the output resolution is handled as the optimum output resolution.

しかし、検索部174bによって複数の出力解像度が検索された場合、選択部174cは検索された出力解像度夫々に対応する文字候補の数に基づき、いずれかの検索された出力解像度を選択し、最適出力解像度として選択する。斯かる選択の方法についての詳細は後で詳しく説明する。   However, when a plurality of output resolutions are searched by the search unit 174b, the selection unit 174c selects one of the searched output resolutions based on the number of character candidates corresponding to each of the searched output resolutions, and outputs the optimum output. Select as the resolution. Details of the selection method will be described later.

図13は解像度決定部174の処理手順の一例を示すフローチャートである。以下、読み取った画像データに対して解像度決定部174が最適出力解像度を決定する場合の処理について説明する。解像度決定部174の取得部174aが上述したように出力設定又は原稿情報を取得し、該出力設定又は該原稿情報に応じて、文字矩形抽出部172(特定情報生成部172a)で生成した文字特定情報(文字矩形情報)に基づき、検索部174bが出力解像度を前記出力解像度テーブルから検索し、選択部174cが最適出力解像度を決定する。   FIG. 13 is a flowchart illustrating an example of a processing procedure of the resolution determination unit 174. Hereinafter, processing when the resolution determination unit 174 determines the optimum output resolution for the read image data will be described. The acquisition unit 174a of the resolution determination unit 174 acquires the output setting or document information as described above, and the character specification generated by the character rectangle extraction unit 172 (specific information generation unit 172a) according to the output setting or the document information. Based on the information (character rectangle information), the search unit 174b searches the output resolution table for the output resolution, and the selection unit 174c determines the optimum output resolution.

まず、取得部174aは出力設定又は原稿情報を取得する(ステップS41)。取得部174aによる出力設定又は原稿情報の取得処理については既に説明しており、詳しい説明は省略する。   First, the acquisition unit 174a acquires output settings or document information (step S41). The output setting or document information acquisition processing by the acquisition unit 174a has already been described, and a detailed description thereof will be omitted.

次いで、解像度決定部174は、条件1の判定を行う(ステップS42)。条件1は、文字列が存在するという条件、あるいは文字列情報が存在するという条件である。   Next, the resolution determination unit 174 determines Condition 1 (Step S42). Condition 1 is a condition that a character string exists or a condition that character string information exists.

条件1を充足すると判定した場合(ステップS42:YES)、検索部174bは、文字列情報を用いて各グループの文字列の矩形サイズを決定し、決定された矩形サイズに対応する出力解像度を検索する(ステップS43)。該検索は前記出力解像度テーブルに基づいて行われる。   When it is determined that the condition 1 is satisfied (step S42: YES), the search unit 174b determines the rectangular size of the character string of each group using the character string information, and searches for the output resolution corresponding to the determined rectangular size. (Step S43). The search is performed based on the output resolution table.

以下、ステップS43での処理について詳しく説明する。
図14(図14A及び図14B)は前記文字列特定情報及び前記文字特定情報の一例を示す例示図である。図14Aは文字列抽出部173で抽出した文字列特定情報の一例であり、図14Bは文字矩形抽出部172で抽出した文字特定情報の一例である。
Hereinafter, the process in step S43 will be described in detail.
FIG. 14 (FIGS. 14A and 14B) is an exemplary diagram showing an example of the character string specifying information and the character specifying information. FIG. 14A is an example of character string specifying information extracted by the character string extracting unit 173, and FIG. 14B is an example of character specifying information extracted by the character rectangle extracting unit 172.

説明の便宜上、以下においては、当該画像データの文字列特定情報及び文字特定情報が図14と同様であり、多値での出力という出力設定が取得部174aによって取得された場合を例に挙げて説明する。   For convenience of explanation, in the following, the character string specifying information and the character specifying information of the image data are the same as those in FIG. 14, and an example in which the output setting of multi-value output is acquired by the acquisition unit 174a will be described as an example. explain.

図14Aに例示する文字列情報が存在する場合には、前述の条件1を充足する(ステップS42:YES)。条件1を充足する場合、検索部174bは、水平方向の文字列の高さ又は垂直方向の文字列の幅に基づいて決定した矩形サイズが、いずれの出力解像度テーブルの文字サイズに相当するかを判定し、当該出力解像度テーブルから該矩形サイズに対応する出力解像度を検索する。   When the character string information illustrated in FIG. 14A exists, the above condition 1 is satisfied (step S42: YES). When the condition 1 is satisfied, the search unit 174b determines which output resolution table character size corresponds to the rectangular size determined based on the height of the character string in the horizontal direction or the width of the character string in the vertical direction. The output resolution corresponding to the rectangular size is searched from the output resolution table.

例えば、図14Aにおいて、文字列ラベル1の文字列の場合、文字列の高さ(ey−sy)、すなわち、文字列に含まれた文字候補(文字矩形)の高さが50であり、文字列ラベル1の文字列の矩形サイズは50となる。   For example, in FIG. 14A, in the case of the character string of the character string label 1, the height of the character string (ey-sy), that is, the height of the character candidate (character rectangle) included in the character string is 50. The rectangular size of the character string of the column label 1 is 50.

また、本実施例においては、多値にて出力されるので(出力設定)、検索部174bは、図12Aの出力解像度テーブルから、「多値」での出力であり、かつ、矩形サイズ「50」に対応する出力解像度を検索する。結果として「150×150dpi」の出力解像度が検索される。   In this embodiment, since the output is multi-valued (output setting), the search unit 174b outputs “multi-value” and the rectangular size “50” from the output resolution table of FIG. 12A. The output resolution corresponding to "" is searched. As a result, an output resolution of “150 × 150 dpi” is searched.

この際、選択部174cは、文字列ラベル1の文字列に含まれる前記ノイズ矩形を除いた文字候補(文字矩形)の数をカウントして150×150dpiに対応付けて、例えば、記憶部24に一時的に記憶する。   At this time, the selection unit 174c counts the number of character candidates (character rectangles) excluding the noise rectangle included in the character string of the character string label 1 and associates it with 150 × 150 dpi, for example, in the storage unit 24. Memorize temporarily.

他の文字列ラベル2〜9に対しても同様の処理が施される。文字列ラベル2〜9においては文字列の高さ(矩形サイズ)が30であるので、図12Aの出力解像度テーブルから、「200×200dpi」の出力解像度が検索される。   The same processing is performed on the other character string labels 2 to 9. In the character string labels 2 to 9, since the height (rectangular size) of the character string is 30, an output resolution of “200 × 200 dpi” is retrieved from the output resolution table of FIG. 12A.

また、選択部174cは、文字列ラベル2〜9の文字列に含まれる前記ノイズ矩形を除いた文字候補(文字矩形)の数をカウントして200×200dpiに対応付けて、例えば、記憶部24に一時的に記憶する。   The selection unit 174c counts the number of character candidates (character rectangles) excluding the noise rectangle included in the character strings of the character string labels 2 to 9 and associates them with 200 × 200 dpi, for example, the storage unit 24 Memorize temporarily.

次いで、選択部174cは前記検索された出力解像度から何れかの検索された出力解像度を選択し、最適出力解像度として決定する(ステップS44)。以下、選択部174cによる最適出力解像度の決定について詳しく説明する。   Next, the selection unit 174c selects one of the retrieved output resolutions from the retrieved output resolution and determines it as the optimum output resolution (step S44). Hereinafter, the determination of the optimum output resolution by the selection unit 174c will be described in detail.

図15は検出された出力解像度と、カウントされた文字候補(文字矩形)の数との関係を示すグラフである。以下、カウントされた文字候補(文字矩形)の数をカウント値と称す。説明の便宜上図15の場合を例に説明する。   FIG. 15 is a graph showing the relationship between the detected output resolution and the number of counted character candidates (character rectangles). Hereinafter, the number of counted character candidates (character rectangles) is referred to as a count value. For convenience of explanation, the case of FIG. 15 will be described as an example.

図15は、出力解像度が150×150dpi、200×200dpi及び300×300dpiである場合における、カウント値を示している。また、出力解像度が150×150dpiである場合のカウント値は150であり、出力解像度が200×200dpiである場合のカウント値は550であり、かつ出力解像度が300×300dpiである場合のカウント値は300であるものとし、全てのカウント値の和は1000であるとする。   FIG. 15 shows the count values when the output resolution is 150 × 150 dpi, 200 × 200 dpi, and 300 × 300 dpi. The count value when the output resolution is 150 × 150 dpi is 150, the count value when the output resolution is 200 × 200 dpi is 550, and the count value when the output resolution is 300 × 300 dpi is Assume that the sum of all count values is 1000.

選択部174cは、最適出力解像度を決定する際、例えば、検出された最も高い出力解像度から、各出力解像度に対応する文字候補の数を順次加算し、斯かるカウント値と前記文字候補の全ての数との比率が所定の閾値以上になる場合、最後に加算した文字候補に係る検索された出力解像度を、最適出力解像度として選択する。   When determining the optimum output resolution, the selection unit 174c sequentially adds, for example, the number of character candidates corresponding to each output resolution from the highest detected output resolution, and the count value and all of the character candidates are added. When the ratio to the number is equal to or greater than a predetermined threshold, the searched output resolution relating to the character candidate added last is selected as the optimum output resolution.

例えば、前記閾値が0.5である場合、最も高い出力解像度の300×300dpiの場合の前記比率は0.3である。一方、最も高い出力解像度に対応する文字候補の数を、次に高い出力解像度(200×200dpi)に対応する文字候補の数に加算した場合のカウント値に係る前記比率は0.85であり閾値0.5を超える。従って、この際において最後に加算されたカウント値(文字候補)に係る出力解像度の「200×200dpi」が、選択部174cによって最適出力解像度として選択される。   For example, when the threshold is 0.5, the ratio is 0.3 for the highest output resolution of 300 × 300 dpi. On the other hand, when the number of character candidates corresponding to the highest output resolution is added to the number of character candidates corresponding to the next highest output resolution (200 × 200 dpi), the ratio relating to the count value is 0.85 and the threshold value It exceeds 0.5. Accordingly, at this time, the output resolution “200 × 200 dpi” related to the count value (character candidate) added last is selected as the optimum output resolution by the selection unit 174c.

また、本発明において、最適出力解像度を決定する方法はこれに限るものでなく、最も高いカウント値に係る出力解像度が最適出力解像度として選択されるように構成しても良い。   In the present invention, the method for determining the optimum output resolution is not limited to this, and the output resolution associated with the highest count value may be selected as the optimum output resolution.

このように、最適出力解像度が決定された場合、解像度決定部174は、最適出力解像度の決定の結果を出力し(ステップS45)、処理を終了する。   As described above, when the optimal output resolution is determined, the resolution determination unit 174 outputs the result of determination of the optimal output resolution (step S45), and ends the process.

一方、条件1を充足しない場合(ステップS42:NO)、解像度決定部174は、条件2の判定を行う(ステップS46)。条件2は、文字候補(文字矩形)が存在するという条件、あるいは文字矩形情報(文字特定情報)が存在するという条件である。   On the other hand, when the condition 1 is not satisfied (step S42: NO), the resolution determination unit 174 determines the condition 2 (step S46). Condition 2 is a condition that a character candidate (character rectangle) exists or a condition that character rectangle information (character specifying information) exists.

条件2を充足すると判定した場合(ステップS46:YES)、検索部174bは、文字特定情報(文字矩形情報)を用いて文字候補(文字矩形)の矩形サイズを決定し、決定された矩形サイズに対応する出力解像度を検索する(ステップS47)。該検索は前記出力解像度テーブルに基づいて行われる。   When it is determined that the condition 2 is satisfied (step S46: YES), the search unit 174b determines the rectangle size of the character candidate (character rectangle) using the character specifying information (character rectangle information), and sets the determined rectangle size. The corresponding output resolution is searched (step S47). The search is performed based on the output resolution table.

以下、ステップS47での処理について詳しく説明する。
例えば、図14Bに例示する文字特定情報が存在する場合には、前述の条件2を充足すると判定される(ステップS46:YES)。図14Bの文字矩形情報は、文字矩形(文字候補)のラベル番号、文字矩形の左上の座標情報(sx、sy)、文字矩形の右下の座標情報(ex,ey)、その文字矩形が属する文字列のラベル番号(0の場合はどの文字列にも属さない文字矩形)から構成されている。なお、文字列が存在せず、文字矩形のみの場合には、文字列番号は全て0となる。
Hereinafter, the process in step S47 will be described in detail.
For example, when the character specifying information illustrated in FIG. 14B exists, it is determined that the above condition 2 is satisfied (step S46: YES). The character rectangle information in FIG. 14B includes the label number of the character rectangle (character candidate), the upper left coordinate information (sx, sy) of the character rectangle, the lower right coordinate information (ex, ey) of the character rectangle, and the character rectangle. It consists of a label number of a character string (a character rectangle that does not belong to any character string in the case of 0). When there is no character string and only a character rectangle, the character string numbers are all 0.

検索部174bは、文字矩形の高さ(ey−sy)と幅(ex−sx)とを求め、高さと幅との何れか長い方を文字の矩形サイズとして選択し、ノイズ矩形および、サイズ小矩形(例えば、5以下)で無い場合に、文字矩形サイズが、いずれの出力解像度テーブルの文字サイズに相当するかを判定し、矩形サイズ別に当該出力解像度テーブルから出力解像度を検索する。検索部174bによる出力解像度の検索については、ステップS43にて既に説明しており、詳しい説明を省略する。   The search unit 174b obtains the height (ey-sy) and width (ex-sx) of the character rectangle, selects the longer one of the height and width as the character rectangle size, and selects the noise rectangle and the small size. If it is not a rectangle (for example, 5 or less), it is determined which character size of the output resolution table the character rectangle size corresponds to, and the output resolution is searched from the output resolution table for each rectangle size. The search of the output resolution by the search unit 174b has already been described in step S43, and a detailed description thereof will be omitted.

次いで、選択部174cは前記検索された出力解像度から何れかの検索された出力解像度を選択し、最適出力解像度として決定する(ステップS48)。以下、選択部174cによる最適出力解像度の決定については、ステップS44にて既に説明しており、詳しい説明を省略する。   Next, the selection unit 174c selects one of the retrieved output resolutions from the retrieved output resolution and determines it as the optimum output resolution (step S48). Hereinafter, the determination of the optimum output resolution by the selection unit 174c has already been described in step S44, and detailed description thereof will be omitted.

このように、最適出力解像度が決定された場合、解像度決定部174は、最適出力解像度の決定の結果を出力し(ステップS49)、処理を終了する。   As described above, when the optimal output resolution is determined, the resolution determination unit 174 outputs the result of determination of the optimal output resolution (step S49), and the process is terminated.

文字特定情報が存在しない場合には、前述の条件2を充足しないと判定され(ステップS46:NO)、解像度決定部174は予め設定されている出力解像度を出力する(ステップS50)。すなわち、記憶部24には解像度判定不可時のための出力解像度が予め記憶されており、この際、選択部174cは、該解像度判定不可時のための出力解像度を最も高い出力解像度として選択する。この時の出力解像度は常に固定値でも良いし、目的に応じて予めデフォルト値を設定できるようにしても良い。   If the character specifying information does not exist, it is determined that the above condition 2 is not satisfied (step S46: NO), and the resolution determining unit 174 outputs a preset output resolution (step S50). That is, the output resolution for when the resolution determination is impossible is stored in advance in the storage unit 24. At this time, the selection unit 174c selects the output resolution for when the resolution determination is impossible as the highest output resolution. The output resolution at this time may always be a fixed value, or a default value may be set in advance according to the purpose.

また、出力解像度の変換は、読み取った画像データを格納しておき、以下の2通りの方法で行うことができる。第1の方法は、1パススキャンを用いる方法であり、出力解像度を推定し、補間演算により主走査方向及び副走査方向の出力解像度を設定する。第2の方法は、2パススキャンを用いる方法であり、出力解像度を推定し、スキャナの読み取り速度を変更して再度原稿の読み取りを行う。この場合、副走査方向の出力解像度は光学的に変更し、主走査方向の出力解像度は補間演算により設定する。   Also, the conversion of the output resolution can be performed by the following two methods by storing the read image data. The first method is a method using one-pass scanning, in which output resolution is estimated and output resolution in the main scanning direction and sub-scanning direction is set by interpolation calculation. The second method is a method using two-pass scanning, in which the output resolution is estimated, the reading speed of the scanner is changed, and the original is read again. In this case, the output resolution in the sub-scanning direction is optically changed, and the output resolution in the main scanning direction is set by interpolation calculation.

本実施の形態においては、視認性が高い使用言語として英語を、視認性が低い使用原稿として日本語を例にあげて説明したが、本発明はこれに限るものでない。他に、視認性が低い使用原稿として韓国語、中国語等を追加することができ、視認性が高い使用言語としてはフランス語、ドイツ語等を追加することが出来る。従って、これら使用言語に対しても、上述したように、使用言語が日本語又は英語である場合と同様に取り扱われるように構成しても良い。   In the present embodiment, English has been described as an example of a language with high visibility and Japanese as an example of a document with low visibility, but the present invention is not limited to this. In addition, Korean, Chinese, etc. can be added as a use document with low visibility, and French, German, etc. can be added as use languages with high visibility. Therefore, the language used may be handled in the same manner as in the case where the language used is Japanese or English as described above.

(実施の形態2)
また、本発明は以上の記載に限るものでない。例えば、斯かる原稿に日本語と英語とが混在している場合を想定し、このような場合に対応できるように画像形成装置100を構成しても良い。
(Embodiment 2)
The present invention is not limited to the above description. For example, assuming that Japanese and English are mixed in such a manuscript, the image forming apparatus 100 may be configured to cope with such a case.

例えば、英語と日本語とが混在している原稿(以下、日英混在原稿)において、該日英混在原稿を日本語に設定した場合は、高解像度よりの判定がされる為に、出力画像への視認性への影響度は少ない。しかし、該日英混在原稿を英語に設定した場合は、低解像度よりの判定がされる為に、出力画像において、漢字等の視認性が低下し読めなくなる場合が発生する可能性がある。従って、入力原稿の言語設定で、英語が選択された場合は、斯かる原稿が日英混在原稿であるときは、日本語への設定を選択するよう、ユーザに注意を促す表示を行う構成であってもよい。   For example, in a manuscript in which English and Japanese are mixed (hereinafter referred to as a Japanese-English mixed manuscript), when the Japanese-English mixed manuscript is set to Japanese, the output image is judged because it is judged from high resolution. There is little impact on visibility. However, if the Japanese-English mixed manuscript is set to English, since the determination is made based on the low resolution, there is a possibility that in the output image, the visibility of kanji or the like is lowered and the reading becomes impossible. Therefore, when English is selected in the language setting of the input document, when such a document is a mixed document of Japanese and English, a display that prompts the user to select the setting for Japanese is performed. There may be.

また、以上の記載に限るものでなく、例えば、OCR処理の結果を用いて、前記日英混在原稿に対応できるように画像形成装置100を構成しても良い。   Further, the present invention is not limited to the above description. For example, the image forming apparatus 100 may be configured to handle the mixed document of Japanese and English using the result of OCR processing.

詳しくは、英語辞書データと、入力原稿より1文字単位で抽出した文字特徴量とをマッチングし、最も高い一致度を示した値を文字信頼度として、文字毎に設定する。次に、各文字に対する信頼度が、所定の値よりも大きい文字の数をカウントし、そのカウント数が、全文字数に対して占める割合が、所定の割合よりも高い場合は、英語原稿として以降の処理を行い、所定の割合よりも低い場合は、日本語原稿として以降の処理を行うように構成すれば良い。   Specifically, the English dictionary data is matched with the character feature amount extracted from the input manuscript in units of characters, and the value indicating the highest degree of matching is set for each character as the character reliability. Next, the number of characters whose reliability for each character is greater than a predetermined value is counted, and if the count number is higher than the predetermined rate, If the above processing is performed and the ratio is lower than the predetermined ratio, the subsequent processing may be performed as a Japanese manuscript.

(実施の形態3)
また、以上においては、何れかの出力設定を取得した場合、又は原稿情報を受け付けた場合を例に挙げて本発明を説明したが本発明はこれに限るものでない。以上においては、出力設定として3つの設定が挙げられており、原稿情報として1つの例が開示されている。しかし、原稿に係る設定が、これら4つの設定からなる組み合わせの場合も想定できる。斯かる例としては、出力設定と原稿情報との組み合わせの場合が想定できる。そこで、実施の形態3に係る画像形成装置100においては、このような設定の組み合わせにも対応できるように構成されている。
(Embodiment 3)
In the above description, the present invention has been described by taking as an example the case where any output setting is acquired or the case where document information is received, but the present invention is not limited thereto. In the above, three settings are listed as output settings, and one example is disclosed as document information. However, it can be assumed that the setting relating to the document is a combination of these four settings. As such an example, a combination of output setting and document information can be assumed. Therefore, the image forming apparatus 100 according to the third embodiment is configured to be able to cope with such a combination of settings.

図16は記憶部24に記憶されている出力解像度テーブルの他の例を概念的に説明する表である。図16の出力解像度テーブルにおいては、前記出力設定及び前記原稿情報の組み合わせと、前記出力解像度とが対応付けされている。図16Aは、使用言語が日本語であるとの原稿情報と出力設定との組み合わせを示しており、図16Bは、使用言語が英語であるとの原稿情報と出力設定との組み合わせを示している。   FIG. 16 is a table conceptually illustrating another example of the output resolution table stored in the storage unit 24. In the output resolution table of FIG. 16, the combination of the output setting and the document information is associated with the output resolution. FIG. 16A shows a combination of document information and output settings when the language used is Japanese, and FIG. 16B shows a combination of document information and output settings when the language used is English. .

例えば、検索部174b及び選択部174cは、図16A及び図16Bの何れかの出力解像度テーブルに基づいて、斯かる画像データの文字候補に係る文字特定情報に対応する出力解像度を適宜検索し、最適出力解像度を決定する。   For example, the search unit 174b and the selection unit 174c appropriately search for the output resolution corresponding to the character specifying information related to the character candidate of the image data based on the output resolution table in any one of FIGS. Determine the output resolution.

(実施の形態4)
図17は実施の形態4の画像読取装置120の構成の一例を示すブロック図である。画像読取装置120は、多値の画像データを出力する。画像形成装置100は、カラー画像入力装置1、カラー画像処理装置50、送信装置3などを備える。
(Embodiment 4)
FIG. 17 is a block diagram illustrating an example of the configuration of the image reading apparatus 120 according to the fourth embodiment. The image reading device 120 outputs multivalued image data. The image forming apparatus 100 includes a color image input device 1, a color image processing device 50, a transmission device 3, and the like.

カラー画像処理装置50は、A/D変換部11、シェーディング補正部12、原稿種別判別部13、入力階調補正部14、領域分離処理部15、色補正部16、空間フィルタ処理部19、解像度変換処理部20、出力階調補正部21、圧縮処理部23、記憶部24、処理パラメータ決定部17などを備える。   The color image processing apparatus 50 includes an A / D conversion unit 11, a shading correction unit 12, a document type determination unit 13, an input tone correction unit 14, a region separation processing unit 15, a color correction unit 16, a spatial filter processing unit 19, and a resolution. A conversion processing unit 20, an output tone correction unit 21, a compression processing unit 23, a storage unit 24, a processing parameter determination unit 17, and the like are provided.

カラー画像入力装置1は、例えば、CCD(Charge Coupled Device )を有するカラースキャナで構成される。カラー画像入力装置1は、CCDを用いて原稿からの反射光像を8ビット又は10ビットのRGB(R:赤、G:緑、B:青)のアナログ信号として読み取りカラー画像処理装置50へ出力する。   The color image input device 1 is composed of, for example, a color scanner having a CCD (Charge Coupled Device). The color image input apparatus 1 reads a reflected light image from an original as an 8-bit or 10-bit RGB (R: red, G: green, B: blue) analog signal using a CCD and outputs the read image to the color image processing apparatus 50. To do.

カラー画像入力装置1にて読み取られたアナログ信号は、カラー画像処理装置50内を、A/D変換部11、シェーディング補正部12、原稿種別判別部13、入力階調補正部14、領域分離処理部15、色補正部16、処理パラメータ決定部17、空間フィルタ処理部19、解像度変換処理部20、出力階調補正部21、圧縮処理部23の順で送られる。なお、各部の処理は実施の形態1の場合と同様なので説明は省略する。また、画像読取装置としてデジタルカメラを用いることもできる。   An analog signal read by the color image input device 1 is converted into an A / D conversion unit 11, a shading correction unit 12, a document type determination unit 13, an input tone correction unit 14, an area separation process in the color image processing device 50. 15, color correction unit 16, processing parameter determination unit 17, spatial filter processing unit 19, resolution conversion processing unit 20, output tone correction unit 21, and compression processing unit 23. In addition, since the process of each part is the same as that of the case of Embodiment 1, description is abbreviate | omitted. A digital camera can also be used as the image reading apparatus.

次に、多値の入力画像データを2値で出力する場合の処理を、図18に示す。図18は実施の形態4の画像読取装置120の構成の一例を示すブロック図である。なお、各部の処理は実施の形態1の場合と同様なので説明は省略する。   Next, FIG. 18 shows processing when multi-valued input image data is output in binary. FIG. 18 is a block diagram illustrating an example of the configuration of the image reading apparatus 120 according to the fourth embodiment. In addition, since the process of each part is the same as that of the case of Embodiment 1, description is abbreviate | omitted.

図19は実施の形態1乃至実施の形態4での解像度の設定方法の一例を示す模式図である。実施の形態1乃至実施の形態4の画像形成装置100、画像読取装置120において、スキャン機能における手動の設定モードでは、例えば、図19Aのように、前記表示部を介して解像度をユーザが適宜設定する必要がある。その他にも、カラー設定、原稿モード設定、ファイルフォーマット設定、圧縮率設定などの種々の設定項目が存在する。   FIG. 19 is a schematic diagram showing an example of the resolution setting method in the first to fourth embodiments. In the image forming apparatus 100 and the image reading apparatus 120 according to the first to fourth embodiments, in the manual setting mode in the scan function, for example, as shown in FIG. 19A, the user appropriately sets the resolution via the display unit. There is a need to. In addition, there are various setting items such as color settings, document mode settings, file format settings, and compression rate settings.

本実施の形態の画像形成装置100は、例えば、前記自動設定モードでは、図19Bのような操作画面を用意し、スキャン開始ボタンを押すだけで、図19Aの解像度の設定を含む他の設定(例えば、天地方向、白紙スキップなどの処理設定)を自動的に行い、最適なスキャンデータが取得できる。自動的に行われる設定には、例えば、カラーについてはACS(Auto Color Select)という機能が既に一般的に使われており、当該機能を用いることで自動的にカラー設定を行うことができる。   For example, in the automatic setting mode, the image forming apparatus 100 according to the present embodiment prepares an operation screen as shown in FIG. 19B, and simply presses the scan start button to perform other settings including the resolution setting shown in FIG. 19A ( For example, processing settings such as top and bottom direction and blank page skipping are automatically performed, and optimal scan data can be acquired. For the automatic setting, for example, a function called ACS (Auto Color Select) has already been generally used for color, and color setting can be automatically performed by using the function.

図20は実施の形態1に係る画像形成装置100及び実施の形態4に係る画像読取装置120において、前記出力設定又は前記原稿情報の入力をユーザから受け付ける入力画面を示す模式図である。例えば、図19Bに示すように、「設定入力」ボタンがある場合には、ユーザが「設定入力」ボタンを押すことにより、図20に示すような、設定入力画面が表示される。ユーザは該設定入力画面を適宜操作することにより前記出力設定(図20中、モード、圧縮率、出力形式)又は前記原稿情報(図20中、原稿言語)を入力できる。なお、出力形式として、カラー又はグレースケールを選択すると、画像データは多値で出力され、白黒2値を選択すると画像データは2値で出力される。   FIG. 20 is a schematic diagram illustrating an input screen that receives an input of the output setting or the document information from the user in the image forming apparatus 100 according to the first embodiment and the image reading apparatus 120 according to the fourth embodiment. For example, as shown in FIG. 19B, when there is a “setting input” button, the user presses the “setting input” button to display a setting input screen as shown in FIG. The user can input the output setting (mode, compression rate, output format in FIG. 20) or the document information (document language in FIG. 20) by appropriately operating the setting input screen. When color or gray scale is selected as the output format, the image data is output in multiple values, and when black and white binary is selected, the image data is output in binary.

上述の各実施の形態は、ネットワークを介してダウンロードした画像データ(画像)に対しても適用することができる。なお、ダウンロードした画像データの解像度が不明であっても、文字サイズを決定して出力解像度を決定することができる。また、クラウド等のサーバから画像データをダウンロードする際、サーバ側で解像度を判定し、圧縮処理された画像データをダウンロードすることもできる。この場合、サーバが本実施の形態の画像処理装置に該当する。また、この場合には、ダウンロードする画像データのデータ量を削減することができる。   Each of the embodiments described above can also be applied to image data (images) downloaded via a network. Even if the resolution of the downloaded image data is unknown, the character size can be determined to determine the output resolution. Further, when downloading image data from a server such as a cloud, it is possible to determine the resolution on the server side and download the compressed image data. In this case, the server corresponds to the image processing apparatus of the present embodiment. In this case, the amount of image data to be downloaded can be reduced.

上述の各実施の形態は、コンピュータに実行させるためのプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録したコンピュータ読み取り可能な記録媒体Mに、前述した最適出力解像度の決定処理を行う画像処理を記録することもできる。その結果、前述した最適出力解像度の決定処理を行うプログラムコードを記録した記録媒体Mを持ち運び自在に提供することができる。   In each of the above-described embodiments, the optimum output resolution determination process described above is recorded in a computer-readable recording medium M in which program code (execution format program, intermediate code program, source program) of a program to be executed by a computer is recorded. It is also possible to record image processing performed. As a result, the recording medium M on which the program code for determining the optimum output resolution described above is recorded can be provided in a portable manner.

なお、本実施の形態では、記録媒体Mとしては、マイクロコンピュータで処理が行われるためにメモリ、例えば、ROMのようなプログラムメディアでもよく、また、図示していないが外部記憶装置としてプログラムコードの読取装置が設けられ、該読取装置に記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。   In the present embodiment, the recording medium M may be a memory, for example, a program medium such as a ROM since processing is performed by a microcomputer. It may be a program medium provided with a reading device and readable by inserting a recording medium into the reading device.

いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であってもよく、あるいは、いずれの場合もプログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムコードが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。   In any case, the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program code is read and the read program code is displayed on the microcomputer. The program code may be downloaded to a program storage area that has not been executed and the program code executed. It is assumed that this download program is stored in the main device in advance.

ここで、プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープ又はカセットテープ等のテープ系、フレキシブルディスク又はハードディスク等の磁気ディスク、CD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory:登録商標)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する媒体であってもよい。   Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM / MO / MD / DVD, or the like. Optical disk system, IC card (including memory card) / optical card system, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory: registered trademark), flash ROM, etc. It may be a medium that carries a fixed program including the semiconductor memory according to the above.

また、本実施の形態においては、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムコードをダウンロードするように流動的にプログラムを担持する媒体であってもよい。なお、このように通信ネットワークからプログラムコードをダウンロードする場合には、ダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであってもよい。なお、本実施の形態は、前述のプログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。また、前述の記録媒体は、デジタルカラー画像形成装置又はコンピュータシステムに備えられるプログラム読取装置により読み取られることで上述した画像処理方法が実行される。   In the present embodiment, since the system configuration is such that a communication network including the Internet can be connected, the medium may be a medium that dynamically carries a program so as to download a program code from the communication network. When the program code is downloaded from the communication network as described above, the download program may be stored in the main device in advance, or may be installed from another recording medium. This embodiment can also be realized in the form of a computer data signal embedded in a carrier wave, in which the above-described program code is embodied by electronic transmission. Further, the above-described image processing method is executed by reading the above-mentioned recording medium by a digital color image forming apparatus or a program reading apparatus provided in a computer system.

コンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置、所定のプログラムがロードされることにより前記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置及びコンピュータの処理結果を紙などに出力するプリンタなどにより構成される。さらには、ネットワークを介してサーバなどに接続するための通信手段としてのネットワークカード又はモデムなどを具備する。   The computer system includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer that performs various processes such as the image processing method by loading a predetermined program, and a CRT display that displays the processing results of the computer. An image display device such as a liquid crystal display and a printer that outputs the processing results of the computer to paper or the like. Furthermore, a network card or a modem is provided as communication means for connecting to a server or the like via a network.

本発明の上述の各実施の形態で記載されている技術特徴は、お互いに組み合わせて新しい技術方案を形成することができる。   The technical features described in the above embodiments of the present invention can be combined with each other to form a new technical plan.

実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。   The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

本発明の実施態様1においては、原稿の画像データの出力処理に係る出力解像度を定める画像処理装置において、前記画像データに含まれる文字候補を特定する文字特定情報を生成する特定情報生成部と、出力に係る出力設定、又は、前記原稿に係る原稿情報を取得する取得部と、前記出力設定又は前記原稿情報に応じて前記文字特定情報及び前記出力解像度を対応付けたテーブルを記憶している記憶部と、前記取得部によって取得された出力設定又は原稿情報に応じて、前記特定情報生成部によって生成される文字特定情報に対応する出力解像度を前記テーブルから検索する検索部とを備えることを特徴とする。   In Embodiment 1 of the present invention, in an image processing apparatus that determines an output resolution related to output processing of document image data, a specific information generating unit that generates character specifying information for specifying character candidates included in the image data; A storage that stores an output setting relating to output, or an acquisition unit that obtains original information relating to the original, and a table that associates the character specifying information and the output resolution in accordance with the output setting or the original information. And a search unit that searches the table for output resolution corresponding to the character identification information generated by the specific information generation unit in accordance with the output setting or document information acquired by the acquisition unit. And

本発明によれば、前記特定情報生成部が前記画像データに含まれる文字候補を特定する文字特定情報を生成し、前記取得部が前記出力設定又は前記原稿情報を取得し、前記記憶部のテーブルに基づき、前記検索部が前記取得部によって取得された出力設定又は原稿情報に応じて、前記特定情報生成部によって生成された文字特定情報に対応する出力解像度を検索する。   According to the present invention, the specification information generation unit generates character specification information for specifying a character candidate included in the image data, the acquisition unit acquires the output setting or the document information, and the table of the storage unit The search unit searches for an output resolution corresponding to the character specifying information generated by the specifying information generating unit in accordance with the output setting or document information acquired by the acquiring unit.

本発明の実施態様2においては、複数の出力解像度が検索された場合、検索された出力解像度夫々に対応する文字特定情報に係る文字候補の数に基づいて、いずれかの検索された出力解像度を選択する選択部を備えることを特徴とする。   In Embodiment 2 of the present invention, when a plurality of output resolutions are searched, one of the searched output resolutions is determined based on the number of character candidates related to the character specifying information corresponding to each of the searched output resolutions. A selection unit for selecting is provided.

本発明によれば、複数の出力解像度が検索された場合、前記選択部は検索された出力解像度夫々に対応する文字特定情報に係る文字候補の数に基づいて、いずれかの検索された出力解像度を最適出力解像度として選択する。   According to the present invention, when a plurality of output resolutions are searched, the selection unit selects one of the searched output resolutions based on the number of character candidates related to the character specifying information corresponding to each of the searched output resolutions. As the optimal output resolution.

本発明の実施態様3においては、前記出力設定は、2値での出力又は多値での出力の何れかの設定を含み、前記テーブルは、多値での出力の場合、2値での出力の場合より、前記出力解像度が低くなるように設定されていることを特徴とする。   In the embodiment 3 of the present invention, the output setting includes either a binary output or a multi-value output, and the table is a binary output in the case of a multi-value output. In this case, the output resolution is set to be lower.

本発明によれば、前記出力設定は、例えば、2値での出力又は多値での出力の何れかの設定であり、前記テーブルは、多値での出力の場合、2値での出力の場合より、前記出力解像度が低くなるように設定され、文字の視認性を確保しつつ、データ容量の大きさを抑える。   According to the present invention, the output setting is, for example, a setting of either binary output or multi-value output, and the table is a binary output in the case of multi-value output. In some cases, the output resolution is set to be low, and the data capacity is suppressed while ensuring the visibility of characters.

本発明の実施態様4においては、前記出力設定は、出力するデータ容量の大きさを優先又は出力する画質を優先の何れかの設定を含み、前記テーブルは、出力するデータ容量の大きさを優先する場合、出力する画質を優先する場合より、前記出力解像度が低くなるように設定されていることを特徴とする。   In Embodiment 4 of the present invention, the output setting includes a setting for giving priority to the size of the output data capacity or giving priority to the image quality for output, and the table gives priority to the size of the output data capacity. In this case, the output resolution is set to be lower than when priority is given to the output image quality.

本発明によれば、前記出力設定は、例えば、出力するデータ容量の大きさを優先又は出力する画質を優先の何れかの設定であり、前記テーブルは、出力するデータ容量の大きさを優先する場合、出力する画質を優先する場合より、前記出力解像度が低くなるように設定され、ユーザの指示に応じてデータ容量の大きさを抑えることができる。   According to the present invention, the output setting is, for example, a setting that gives priority to the size of the output data capacity or priority to the image quality to output, and the table gives priority to the size of the output data capacity. In this case, the output resolution is set to be lower than when priority is given to the output image quality, and the size of the data capacity can be suppressed in accordance with a user instruction.

本発明の実施態様5においては、前記出力設定は、出力に係る圧縮率の設定を含み、前記テーブルは、前記圧縮率が低いほど、前記出力解像度が低くなるように設定されていることを特徴とする。   In Embodiment 5 of the present invention, the output setting includes a setting of a compression rate related to output, and the table is set such that the output resolution is lower as the compression rate is lower. And

本発明によれば、前記出力設定は、例えば、出力に係る圧縮率の設定であり、前記テーブルは、前記圧縮率が低いほど、前記出力解像度が低くなるように設定され、文字の視認性の確保と圧縮率との釣り合いを図る。   According to the present invention, the output setting is, for example, a compression ratio setting related to output, and the table is set such that the lower the compression ratio, the lower the output resolution, and the character visibility. Ensure balance between securing and compression rate.

本発明の実施態様6においては、前記原稿情報は、使用言語に係る情報を含み、前記テーブルは、視認性の高い使用言語ほど前記出力解像度が低くなるように設定されていることを特徴とする。   In Embodiment 6 of the present invention, the document information includes information related to a language used, and the table is set such that the output resolution is lower for a language with higher visibility. .

本発明によれば、前記原稿情報は、例えば、使用言語に係る情報であり、前記テーブルは、視認性の高い使用言語ほど前記出力解像度が低くなるように設定され、文字の視認性を確保している。   According to the present invention, the document information is, for example, information related to a language used, and the table is set so that the output resolution becomes lower as the language used becomes more visible to ensure the visibility of characters. ing.

本発明の実施態様7においては、前記選択部は、検索された最も高い出力解像度から、それぞれ検索された出力解像度に対応する文字候補の数を順次加算し、加算値と前記文字候補の全ての数との比率が所定の閾値以上になる場合、最後に加算した文字候補に係る検索された出力解像度を選択することを特徴とする。   In Embodiment 7 of the present invention, the selection unit sequentially adds the number of character candidates corresponding to each searched output resolution from the highest output resolution searched, and adds the added value and all of the character candidates. When the ratio to the number is equal to or greater than a predetermined threshold, the searched output resolution related to the character candidate added last is selected.

本発明によれば、前記選択部は、検索された最も高い出力解像度から、それぞれ検索された出力解像度に対応する文字候補の数を順次加算していき、加算値と前記文字候補の全ての数との比率が所定の閾値以上になる場合、最後に加算した文字候補に係る検索された出力解像度を最適出力解像度として選択する。   According to the present invention, the selection unit sequentially adds the number of character candidates corresponding to each searched output resolution from the highest output resolution searched, and the added value and the total number of the character candidates Is equal to or greater than a predetermined threshold, the searched output resolution relating to the character candidate added last is selected as the optimum output resolution.

本発明の実施態様8においては、前記画像データは前記文字候補を含む文字列を有しており、前記検索部は前記文字列の文字候補に係る文字特定情報に基づいて前記出力解像度を検索することを特定する。   In Embodiment 8 of the present invention, the image data includes a character string including the character candidate, and the search unit searches for the output resolution based on character specifying information related to the character candidate of the character string. Identify that.

本発明によれば、前記文字列に係る出力解像度を検索する場合、前記検索部は前記文字列の文字候補に係る文字特定情報に基づいて前記出力解像度を検索する。   According to the present invention, when searching for an output resolution related to the character string, the search unit searches for the output resolution based on character specifying information related to character candidates of the character string.

本発明の実施態様9においては、前記実施態様の何れかに記載の画像処理装置を備え、該画像処理装置によって処理された画像データに基づいて、シート状の記録媒体に画像形成を行うことを特徴とする。   In Embodiment 9 of the present invention, the image processing apparatus according to any one of the above embodiments is provided, and image formation is performed on a sheet-like recording medium based on image data processed by the image processing apparatus. Features.

本発明によれば、前記画像処理装置によって定められた最適出力解像度を用いて出力に係る処理が施された画像データに基づいて、例えば、シート状の記録用紙に画像形成が行われる。   According to the present invention, for example, image formation is performed on a sheet-like recording sheet based on image data that has been subjected to output processing using the optimum output resolution determined by the image processing apparatus.

本発明の実施態様10においては、原稿の画像データの出力処理を行う画像処理装置にて該出力処理に係る出力解像度を定める解像度決定方法において、前記画像データに含まれる文字候補を特定する文字特定情報を生成し、出力に係る出力設定、又は、前記原稿に係る原稿情報を取得し、前記出力設定又は前記原稿情報に応じて前記文字特定情報及び出力解像度を対応付けたテーブルに基づき、取得された出力設定又は原稿情報に応じて、生成された文字特定情報に対応する出力解像度を検索することを特徴とする。   In Embodiment 10 of the present invention, in a resolution determination method for determining an output resolution related to output processing in an image processing apparatus that performs output processing of document image data, character specification that specifies character candidates included in the image data Information is generated, output settings related to output or document information related to the document is acquired, and acquired based on a table in which the character specifying information and output resolution are associated with each other according to the output setting or the document information. The output resolution corresponding to the generated character specifying information is searched according to the output setting or document information.

本発明によれば、前記文字特定情報が生成され、前記出力設定又は前記原稿情報が取得され、前記テーブルに基づき、取得された出力設定又は原稿情報に応じて、生成された文字特定情報に対応する出力解像度が検索される。   According to the present invention, the character specifying information is generated, the output setting or the manuscript information is acquired, and the generated character specifying information is handled according to the acquired output setting or manuscript information based on the table. The output resolution to be searched is searched.

17 処理パラメータ決定部
24 記憶部
50 カラー画像処理装置
100 画像形成装置
172 文字矩形抽出部
172a 特定情報生成部
174 解像度決定部
174a 取得部
174c 選択部
174b 検索部
M 記録媒体
17 Processing Parameter Determination Unit 24 Storage Unit
DESCRIPTION OF SYMBOLS 50 Color image processing apparatus 100 Image forming apparatus 172 Character rectangle extraction part 172a Specific information generation part 174 Resolution determination part 174a Acquisition part 174c Selection part 174b Search part M Recording medium

Claims (9)

原稿の画像データの出力処理に係る出力解像度を定める画像処理装置において、
前記画像データに含まれる文字候補を特定するための位置情報である文字特定情報を生成する特定情報生成部と、
出力に係る出力設定、又は、前記原稿に係る原稿情報を取得する取得部と、
前記出力設定又は前記原稿情報に応じて前記文字特定情報及び前記出力解像度を対応付けたテーブルを記憶している記憶部と、
前記取得部によって取得された出力設定又は原稿情報に応じて、前記特定情報生成部によって生成される文字特定情報に対応する出力解像度を前記テーブルから検索する検索部と
複数の出力解像度が検索された場合、検索された出力解像度夫々に対応する文字特定情報に係る文字候補の数に基づいて、いずれかの検索された出力解像度を選択する選択部と
を備えることを特徴とする画像処理装置。
In an image processing apparatus for determining an output resolution related to output processing of document image data,
A specific information generating unit that generates character specifying information that is position information for specifying a character candidate included in the image data;
An acquisition unit that acquires output settings related to output or document information related to the document;
A storage unit storing a table in which the character specifying information and the output resolution are associated with each other according to the output setting or the document information;
A search unit that searches the table for an output resolution corresponding to the character identification information generated by the specific information generation unit according to the output setting or document information acquired by the acquisition unit ;
A selection unit that selects one of the searched output resolutions based on the number of character candidates related to the character identification information corresponding to each of the searched output resolutions when a plurality of output resolutions are searched ; A featured image processing apparatus.
前記出力設定は、2値での出力又は多値での出力の何れかの設定を含み、
前記テーブルは、多値での出力の場合、2値での出力の場合より、前記出力解像度が低くなるように設定されていることを特徴とする請求項1に記載の画像処理装置。
The output setting includes a setting of either binary output or multi-value output,
2. The image processing apparatus according to claim 1, wherein the table is set so that the output resolution is lower in the case of multi-value output than in the case of binary output.
前記出力設定は、出力するデータ容量の大きさを優先又は出力する画質を優先の何れかの設定を含み、
前記テーブルは、出力するデータ容量の大きさを優先する場合、出力する画質を優先する場合より、前記出力解像度が低くなるように設定されていることを特徴とする請求項1に記載の画像処理装置。
The output setting includes a setting for giving priority to the size of the output data capacity or giving priority to the image quality to be output.
The image processing according to claim 1, wherein the table is set so that the output resolution is lower when priority is given to the size of the output data capacity than when priority is given to output image quality. apparatus.
前記出力設定は、出力に係る圧縮率の設定を含み、
前記テーブルは、前記圧縮率が低いほど、前記出力解像度が低くなるように設定されていることを特徴とする請求項1に記載の画像処理装置。
The output setting includes a setting of a compression ratio related to output,
The image processing apparatus according to claim 1, wherein the table is set such that the output resolution decreases as the compression rate decreases.
前記原稿情報は、使用言語に係る情報を含み、
前記テーブルは、視認性の高い使用言語ほど前記出力解像度が低くなるように設定されていることを特徴とする請求項1に記載の画像処理装置。
The manuscript information includes information related to the language used,
The image processing apparatus according to claim 1, wherein the table is set such that the output resolution is lower for a language with higher visibility.
前記選択部は、検索された最も高い出力解像度から、それぞれ検索された出力解像度に対応する文字候補の数を順次加算し、加算値と前記文字候補の全ての数との比率が所定の閾値以上になる場合、最後に加算した文字候補に係る検索された出力解像度を選択することを特徴とする請求項に記載の画像処理装置。 The selection unit sequentially adds the number of character candidates corresponding to each searched output resolution from the highest output resolution searched, and the ratio between the added value and the total number of character candidates is equal to or greater than a predetermined threshold value. The image processing apparatus according to claim 1 , wherein the output resolution searched for the character candidate added last is selected. 前記画像データは前記文字候補を含む文字列を有しており、
前記検索部は前記文字列の文字候補に係る文字特定情報に基づいて前記出力解像度を検索することを特徴とする請求項1からの何れか一つに記載の画像処理装置。
The image data has a character string including the character candidates,
The search unit is an image processing apparatus according to any one of claims 1 to 6, wherein the searching the output resolution based on the character specific information relating to the character candidate of the character string.
請求項1からの何れかに記載の画像処理装置を備え、
該画像処理装置によって処理された画像データに基づいて、シート状の記録媒体に画像形成を行うことを特徴とする画像形成装置。
An image processing apparatus according to any one of claims 1 to 7 ,
An image forming apparatus that forms an image on a sheet-like recording medium based on image data processed by the image processing apparatus.
原稿の画像データの出力処理を行う画像処理装置にて該出力処理に係る出力解像度を定める解像度決定方法において、
前記画像データに含まれる文字候補を特定するための位置情報である文字特定情報を生成し、
出力に係る出力設定、又は、前記原稿に係る原稿情報を取得し、
前記出力設定又は前記原稿情報に応じて前記文字特定情報及び出力解像度を対応付けたテーブルに基づき、取得された出力設定又は原稿情報に応じて、生成された文字特定情報に対応する出力解像度を検索し、
複数の出力解像度が検索された場合、検索された出力解像度夫々に対応する文字特定情報に係る文字候補の数に基づいて、いずれかの検索された出力解像度を選択することを特徴とする解像度決定方法。
In a resolution determination method for determining an output resolution related to output processing in an image processing apparatus that performs output processing of document image data,
Generating character specifying information which is position information for specifying a character candidate included in the image data;
Obtain output settings related to output or document information related to the document,
Based on the table in which the character specifying information and the output resolution are associated with each other according to the output setting or the document information, the output resolution corresponding to the generated character specifying information is searched according to the acquired output setting or the document information. And
When a plurality of output resolutions are searched , the resolution determination is characterized by selecting one of the searched output resolutions based on the number of character candidates related to the character specifying information corresponding to each of the searched output resolutions Method.
JP2015185622A 2015-09-18 2015-09-18 Image processing apparatus, image forming apparatus, and resolution determination method Active JP6618307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015185622A JP6618307B2 (en) 2015-09-18 2015-09-18 Image processing apparatus, image forming apparatus, and resolution determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015185622A JP6618307B2 (en) 2015-09-18 2015-09-18 Image processing apparatus, image forming apparatus, and resolution determination method

Publications (2)

Publication Number Publication Date
JP2017060115A JP2017060115A (en) 2017-03-23
JP6618307B2 true JP6618307B2 (en) 2019-12-11

Family

ID=58390946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015185622A Active JP6618307B2 (en) 2015-09-18 2015-09-18 Image processing apparatus, image forming apparatus, and resolution determination method

Country Status (1)

Country Link
JP (1) JP6618307B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608356B2 (en) * 1997-11-18 2005-01-12 富士ゼロックス株式会社 Image processing apparatus, image processing method, image transmission apparatus, and image transmission method
JP4419893B2 (en) * 2005-03-25 2010-02-24 富士ゼロックス株式会社 Image processing apparatus and image processing method
JP2007201607A (en) * 2006-01-24 2007-08-09 Fuji Xerox Co Ltd Image input apparatus, image input method, and image input program
JP2012151695A (en) * 2011-01-19 2012-08-09 Ricoh Co Ltd Image forming apparatus, image forming method, and control program
JP2012175270A (en) * 2011-02-18 2012-09-10 Brother Ind Ltd Controller
JP5477320B2 (en) * 2011-03-30 2014-04-23 ブラザー工業株式会社 Image processing device
JP5853749B2 (en) * 2012-02-13 2016-02-09 コニカミノルタ株式会社 Image processing apparatus, image processing apparatus control method, and image processing apparatus control program

Also Published As

Publication number Publication date
JP2017060115A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
US8792735B2 (en) Image compressing apparatus which extracts black text edge pixels from an image and compresses a layer with black text edge pixels extracted
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
US8165402B2 (en) Image processing method, image processing apparatus, image forming apparatus and storage medium
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US8634650B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, and image processing method
US8532434B2 (en) Image processing method and apparatus for determining orientations based on reliabilities of a plurality of portions into which image has been divided or for determining orientations of portions of image divided by user&#39;s input so as to recognize characters for each divided portion of image, image forming apparatus, and storage medium
US8050501B2 (en) Image matching apparatus, image matching method, and image data output processing apparatus
US8463032B2 (en) Image compressing apparatus, compressed image outputting apparatus, image compression method, and recording medium
JP4118886B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
US20100296730A1 (en) Image compressing method, image compressing apparatus, image forming apparatus, computer program and computer readable medium
CN104094586A (en) Image processing device, image formation device, image processing method, program, and memory medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2008099149A (en) Image processor, image processing method and image processing program
US7986838B2 (en) Image processing apparatus and image processing method
JP6262102B2 (en) Image processing apparatus, image processing system, computer program, and recording medium
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium
JP6618307B2 (en) Image processing apparatus, image forming apparatus, and resolution determination method
JP6752263B2 (en) Image processing device, image forming device, and image processing method
JP6441772B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2010287178A (en) Image processing device, image reading apparatus, multifunction machine, image processing method, program and recording medium
JP4073877B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP7413751B2 (en) Image processing systems and programs
JP2012098811A (en) Image processing apparatus, image forming apparatus, image processing control device, image processing control method, computer program and recording medium
JP4545134B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191112

R150 Certificate of patent or registration of utility model

Ref document number: 6618307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150