JP2005079940A - Image processing apparatus and copying machine with same - Google Patents

Image processing apparatus and copying machine with same Download PDF

Info

Publication number
JP2005079940A
JP2005079940A JP2003308356A JP2003308356A JP2005079940A JP 2005079940 A JP2005079940 A JP 2005079940A JP 2003308356 A JP2003308356 A JP 2003308356A JP 2003308356 A JP2003308356 A JP 2003308356A JP 2005079940 A JP2005079940 A JP 2005079940A
Authority
JP
Japan
Prior art keywords
image
image processing
image data
type
image type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003308356A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kondo
義之 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2003308356A priority Critical patent/JP2005079940A/en
Publication of JP2005079940A publication Critical patent/JP2005079940A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of increasing image types to be classified on the basis of a feature amount of image data and flexibly classifying the image types with high accuracy, and a copying machine provided with the image processor. <P>SOLUTION: An image type is determined (S13 and S15) on the basis of a feature amount detected (S12) from input image data obtained by reading an image on a medium to be read (S11). If there is no corresponding image type (S15: NO), a new image type can be registered as user definition (S20 to S28). Also, even when there is a corresponding image type (S13: YES or S15: YES), a new image type can be registered arbitrarily (S18: NO, and S20 to S28). Then, image processing that fits an optimum image type determined in accordance with an original image is applied to the input image data (S16 or S21), and an image based on the input image data can be formed on a medium to be recorded (S31). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像データの特徴量から決定される画像種別に基づく画像処理をその画像データに対して行うことができる画像処理装置およびそれを備えた複写機に関するものである。   The present invention relates to an image processing apparatus capable of performing image processing based on an image type determined from a feature amount of image data on the image data, and a copying machine including the image processing apparatus.

従来、プリンタ、ファクシミリ、複写機等に搭載された画像処理装置では、印刷等を行うために入力された画像データを解析し、その画像データのもととなった原稿の画像種別が文書なのか、写真なのか、あるいは他の画像種別であるのか判定を行っている。そして、判定された画像種別にあわせ画像処理(例えば、文書であれば、文字のエッジを強調してくっきりさせる処理などであり、写真であれば、階調の変化をなめらかなものにしてざらつき感を抑える処理などである。)を行っている。そしてこれらの画像処理が施された画像データを印刷すれば、よりよい印刷結果を得ることができる。   Conventionally, in an image processing apparatus mounted on a printer, a facsimile machine, a copier, etc., image data input for printing or the like is analyzed, and whether the image type of the original document from which the image data is based is a document It is determined whether the image is a photograph or another image type. Then, image processing is performed in accordance with the determined image type (for example, processing for emphasizing the edges of characters in the case of a document, etc.) Etc.). If the image data subjected to such image processing is printed, a better printing result can be obtained.

例えば、特許文献1では、画像データの特徴的な要素を解析した複数の特徴量に基づいて、所定の特徴量の順に所定の条件を満たすか否かで振り分け、予め設定されている画像種別(文書種類)のいずれかに分類されるように分別を行っている。
特開2000−295468号公報(図3参照)
For example, in Patent Document 1, based on a plurality of feature amounts obtained by analyzing characteristic elements of image data, the distribution is made according to whether or not a predetermined condition is satisfied in the order of predetermined feature amounts, and a preset image type ( The document is classified so that it is classified as one of the document types.
JP 2000-295468 A (see FIG. 3)

しかしながら、特許文献1では、画像データの特徴量について、所定の特徴量の順に所定の条件を満たすか否かの振り分けを行っており、例えば、画像種別の異なる原稿ながら似通った特徴量を有する2つの画像データがあった場合、先に分別された特徴量によっては、ともに、同一の画像種別として分類されてしまうことがあった。また、画像種別が予め設定された種類にしか分類できず、必ずしも利用者の求める画像種別として分類されない場合があった。   However, in Patent Document 1, whether or not a predetermined condition is satisfied in the order of the predetermined feature amount is assigned to the feature amount of the image data. For example, the feature amount 2 is similar to a document having different image types. When there are two pieces of image data, both of them may be classified as the same image type depending on the feature amount previously classified. In addition, the image type can be classified only into a preset type and may not necessarily be classified as the image type desired by the user.

本発明は上記課題を解決するためになされたものであり、画像データの特徴量に基づき分類する画像種別を増やすことができ、さらに、柔軟かつ精度よく画像種別の分類を行うことができる画像処理装置およびそれを備えた複写機を提供することを目的とする。   The present invention has been made to solve the above-described problems, and can increase the number of image types to be classified based on the feature amount of image data, and can perform image type classification that is flexible and accurate. An object of the present invention is to provide an apparatus and a copying machine including the apparatus.

上記目的を達成するために、請求項1に係る発明の画像処理装置は、画像データの特徴量と、その特徴量の相違により種別が分類される予め定められた画像種別とを対応付けて記憶する画像種別情報記憶手段と、入力された入力画像データの特徴量の検出を行う特徴量検出手段と、前記入力画像データについて、前記画像種別情報記憶手段に記憶されていない画像種別を新たに指定するための画像種別指定手段と、前記入力画像データの特徴量と、前記画像種別指定手段によって新たに指定された画像種別とを対応付けて記憶する登録画像種別情報記憶手段と、前記特徴量検出手段によって検出された前記入力画像データの特徴量に対応した画像種別が、前記画像種別情報記憶手段に記憶されているか否かを判定する判定手段と、その判定手段により、前記画像種別が前記画像種別情報記憶手段に記憶されていると判定された場合には、前記画像種別情報記憶手段を参照し、前記画像種別が前記画像種別情報記憶手段に記憶されていないと判定された場合には、前記登録画像種別情報記憶手段を参照する参照手段と、その参照手段により参照された前記画像種別情報記憶手段または前記登録画像種別情報記憶手段に記憶された画像種別の中から、前記入力画像データの特徴量に対応した画像種別を決定する画像種別決定手段と、その画像種別決定手段によって決定された前記入力画像データの画像種別に基づいて、前記入力画像データに対する画像処理を行う画像処理手段とを備えている。   In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention associates and stores a feature amount of image data and a predetermined image type whose type is classified according to the difference in the feature amount. A new image type information storage means, a feature quantity detection means for detecting the feature quantity of the input image data input, and a new image type not stored in the image type information storage means for the input image data Image type designation means for performing registration, a registered image type information storage means for storing the feature quantity of the input image data and the image type newly designated by the image type designation means, and the feature quantity detection Determining means for determining whether or not an image type corresponding to the feature amount of the input image data detected by the means is stored in the image type information storage means; Therefore, when it is determined that the image type is stored in the image type information storage unit, the image type information storage unit is referred to, and the image type is not stored in the image type information storage unit If it is determined, the reference means for referring to the registered image type information storage means, and the image type information stored in the image type information storage means or the registered image type information storage means referred to by the reference means. An image type determining unit for determining an image type corresponding to the feature amount of the input image data, and an image for the input image data based on the image type of the input image data determined by the image type determining unit Image processing means for performing processing.

また、請求項2に係る発明の画像処理装置は、請求項1に記載の発明の構成に加え、前記画像種別は、少なくとも、文書、グラフィックチャート、自然画、人物画または夜景のいずれかの種別を含み、前記画像種別指定手段は、前記画像処理手段に、前記入力画像データに対して前記各画像種別ごとの画像処理をそれぞれ行わせ、その結果から、任意の画像種別を指定可能としたことを特徴とする。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the invention, the image type is at least one of a document, a graphic chart, a natural image, a portrait, and a night view. The image type specifying unit causes the image processing unit to perform image processing for each image type on the input image data, and from the result, an arbitrary image type can be specified. It is characterized by.

また、請求項3に係る発明の画像処理装置は、請求項1または2に記載の発明の構成に加え、前記画像処理手段が前記入力画像データの画像種別に基づき行う画像処理は、少なくとも、エッジ強調、平滑化、ホワイトバランス調整、または彩度調整のいずれかの処理を含むことを特徴とする。   According to a third aspect of the present invention, in addition to the configuration of the first or second aspect of the present invention, the image processing unit performs at least an edge processing based on the image type of the input image data. The method includes any one of enhancement, smoothing, white balance adjustment, and saturation adjustment.

また、請求項4に係る発明の画像処理装置は、請求項1乃至3のいずれかに記載の発明の構成に加え、前記画像種別決定手段による前記入力画像データの画像種別の決定後に、決定された前記画像種別とは異なる新たな画像種別を作成するための画像種別作成手段を備え、前記登録画像種別情報記憶手段は、前記入力画像データの特徴量と、前記画像種別作成手段によって新たに作成された画像種別とを対応付けて記憶することを特徴とする。   According to a fourth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the image processing apparatus is determined after the image type determination unit determines the image type of the input image data. An image type creation unit for creating a new image type different from the image type, and the registered image type information storage unit is newly created by the feature amount of the input image data and the image type creation unit. The stored image type is stored in association with each other.

また、請求項5に係る発明の画像処理装置は、請求項4に記載の発明の構成に加え、前記画像種別作成手段は、前記入力画像データに対して行う画像処理のパラメータを決定するためのパラメータ決定手段と、前記パラメータ決定手段によって決定された前記パラメータに基づく画像処理を、前記画像処理手段が前記入力画像データに対して行うように制御する画像処理制御手段と、前記画像処理制御手段が前記入力画像データに対して行った画像処理の結果を記憶する処理画像データ記憶手段と、あらかじめ決められた、前記パラメータ決定手段が決定可能なパラメータの範囲内の全パラメータに基づく画像処理を、前記画像処理制御手段が行ったか否かを判断する全パラメータ範囲画像処理終了判断手段と、前記全パラメータ範囲画像処理終了判断手段によって、全パラメータに基づく画像処理を前記画像処理制御手段が行っていないと判断された場合、前記パラメータ決定手段に前記決定されたパラメータとは異なるパラメータを決定させ、前記画像処理制御手段に前記決定された異なるパラメータに基づく画像処理を行わせ、前記処理画像データ記憶手段に前記異なるパラメータに基づいて行われた画像処理の結果を記憶させるように制御する画像処理継続制御手段と、前記全パラメータ範囲画像処理終了判断手段によって、全パラメータに基づく画像処理を前記画像処理制御手段が行ったと判断された場合、前記処理画像データ記憶手段に記憶された前記画像処理の結果を処理画像として一覧表示する処理画像一覧表示手段と、前記処理画像一覧表示手段によって表示された前記処理画像の中から任意の処理画像を選択可能とするための任意画像選択手段とを備え、前記任意画像選択手段によって選択された前記任意の処理画像に行われた画像処理の内容を、前記入力画像データの特徴量に対応付けるための新たな画像種別として作成することを特徴とする。   According to a fifth aspect of the present invention, in addition to the configuration of the fourth aspect of the invention, the image type creation unit is configured to determine parameters for image processing performed on the input image data. Parameter determining means, image processing control means for controlling the image processing means to perform image processing based on the parameters determined by the parameter determining means for the input image data, and the image processing control means Processing image data storage means for storing the results of image processing performed on the input image data, and image processing based on all parameters within a range of parameters that can be determined by the parameter determination means. All parameter range image processing end judging means for judging whether or not the image processing control means has performed; When it is determined by the end determination means that the image processing control means does not perform image processing based on all parameters, the parameter determination means determines a parameter different from the determined parameter, and the image processing control means Image processing continuation control means for controlling image processing performed based on the different parameters in the processed image data storage means, and performing image processing based on the determined different parameters. When it is determined by the all parameter range image processing end determination means that the image processing control means has performed image processing based on all parameters, the results of the image processing stored in the processed image data storage means are listed as processed images. Displayed by the processed image list display means to be displayed and the processed image list display means. Image processing performed on the arbitrary processed image selected by the arbitrary image selecting means, and an arbitrary image selecting means for making it possible to select an arbitrary processed image from the processed images. It is created as a new image type to be associated with the feature amount of the input image data.

また、請求項6に係る発明の画像処理装置は、請求項1乃至5のいずれかに記載の発明の構成に加え、前記画像種別決定手段は、前記登録画像種別情報記憶手段を参照し、前記入力画像データの特徴量に対応した画像種別が記憶されていなければ、前記画像種別情報記憶手段を参照し、前記入力画像データの特徴量に対応した画像種別の決定を行うことを特徴とする。   According to a sixth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the image type determining means refers to the registered image type information storage means, and If the image type corresponding to the feature amount of the input image data is not stored, the image type information storage unit is referred to determine the image type corresponding to the feature amount of the input image data.

また、請求項7に係る発明の複写機は、被読取媒体上に形成された画像の読み取りを行う画像読取手段と、前記画像読取手段によって読み取られた前記被読取媒体の画像データを入力画像データとし、その入力画像データに対する画像処理を行う請求項1乃至6のいずれかに記載の画像処理装置と、前記画像処理装置によって処理された前記被読取媒体の画像データに基づいて、被記録媒体上に画像の形成を行う画像形成手段とを備えている。   According to a seventh aspect of the present invention, there is provided a copying machine comprising: an image reading means for reading an image formed on a read medium; and image data of the read medium read by the image reading means as input image data. 7. An image processing apparatus according to claim 1, which performs image processing on the input image data, and on the recording medium based on the image data of the read medium processed by the image processing apparatus. And image forming means for forming an image.

請求項1に係る発明の画像処理装置では、入力画像データの特徴量に対応した画像種別が、予め定められた画像種別にない場合に、新たな画像種別を指定することができるので、画像種別の種類を増やし、より精度の高い画像種別の分類を行うことができる。   In the image processing apparatus according to the first aspect, when the image type corresponding to the feature amount of the input image data is not in the predetermined image type, a new image type can be specified. Thus, it is possible to classify image types with higher accuracy.

また、請求項2に係る発明の画像処理装置では、請求項1に係る発明の効果に加え、予め一般的な画像種別が記憶されているので、それらの画像種別については新たに指定する必要がない。   Further, in the image processing apparatus of the invention according to claim 2, in addition to the effect of the invention of claim 1, since general image types are stored in advance, it is necessary to newly designate these image types. Absent.

また、請求項3に係る発明の画像処理装置では、請求項1または2に係る発明の効果に加え、画像種別にあわせて様々な画像処理を施すことができるので、より好適な画像処理結果を得ることができる。   Further, in the image processing apparatus of the invention according to claim 3, in addition to the effect of the invention according to claim 1 or 2, since various image processing can be performed according to the image type, a more suitable image processing result can be obtained. Can be obtained.

また、請求項4に係る発明の画像処理装置では、請求項1乃至3のいずれかに係る発明の効果に加え、入力画像データの特徴量に対応した画像種別が、予め定められた画像種別にあった場合でも、新たな画像種別を指定することができるので、より細かく、より精度の高い画像種別の分類を行うことができる。   Further, in the image processing apparatus according to the fourth aspect of the invention, in addition to the effect of the invention according to any one of the first to third aspects, the image type corresponding to the feature amount of the input image data is set to a predetermined image type. Even in such a case, since a new image type can be designated, the image type can be classified more finely and with higher accuracy.

また、請求項5に係る発明の画像処理装置では、請求項4に係る発明の効果に加え、入力画像データに対してパラメータの異なる画像処理が施された複数の処理画像の中から任意の処理画像を選択することによって新たな画像種別を作成することができるので、新たな画像種別の作成を容易に行うことができ、利便性が高い。   Further, in the image processing apparatus according to the fifth aspect, in addition to the effect of the invention according to the fourth aspect, an arbitrary process is selected from a plurality of processed images obtained by performing image processing with different parameters on the input image data. Since a new image type can be created by selecting an image, a new image type can be easily created, which is highly convenient.

また、請求項6に係る発明の画像処理装置では、請求項1乃至5のいずれかに係る発明の効果に加え、入力画像データの特徴量が予め定められた画像種別に分類されるものであっても、新たに指定した画像種別に優先して分類させることができるので、より細かく、より精度の高い画像種別の分類を行うことができる。   Further, in the image processing apparatus according to the sixth aspect of the invention, in addition to the effect of the invention according to any of the first to fifth aspects, the feature amount of the input image data is classified into a predetermined image type. However, since classification can be performed with priority over the newly designated image type, it is possible to classify the image type more finely and with higher accuracy.

また、請求項7に係る発明の複写機では、請求項1乃至6のいずれかに記載の画像処理装置を備えているので、被読取媒体から読み取った画像の画像種別にあわせた画像処理を行って、被記録媒体上にその画像を形成することができる。   Further, since the copying machine of the invention according to claim 7 includes the image processing apparatus according to any one of claims 1 to 6, the image processing according to the image type of the image read from the read medium is performed. Thus, the image can be formed on the recording medium.

以下、本発明を具体化した画像処理装置およびそれを備えた複写機の一実施の形態について、本発明に係る画像処理装置を搭載した複写機1を例に、図面を参照して説明する。まず、図1を参照して、複写機1の全体の構成について説明する。図1は、複写機1の外観を示す斜視図である。   An embodiment of an image processing apparatus embodying the present invention and a copying machine including the same will be described below with reference to the drawings, taking as an example a copying machine 1 equipped with the image processing apparatus according to the present invention. First, the overall configuration of the copying machine 1 will be described with reference to FIG. FIG. 1 is a perspective view showing the appearance of the copying machine 1.

図1に示すように、複写機1は、左右方向にやや幅広となるように構成された略直方体形状の筐体10を有している。複写機1は、インクを吐出して、画像データに基づく画像を被記録媒体上に形成するプリンタ部181の上部に、画像が形成された被読取媒体を光学的に読み取ってデジタルデータ化するためのスキャナ部171が配置された構成となっている。   As shown in FIG. 1, the copying machine 1 includes a substantially rectangular parallelepiped housing 10 that is configured to be slightly wider in the left-right direction. The copying machine 1 discharges ink and optically reads the read medium on which the image is formed on the upper part of the printer unit 181 that forms an image based on the image data on the recording medium, and converts it into digital data. The scanner unit 171 is arranged.

複写機1の筐体10のプリンタ部181には、筐体10の背面に設けられた給紙口14から筐体10の内部へ被記録媒体としての用紙を供給するための給紙トレイ11と、筐体10の前面に設けられた排紙口13より排出される画像の形成された用紙を積載して保持するための排紙トレイ12とが設けられている。プリンタ部181は公知のインクジェットプリンタであり、インクジェットヘッド(図示外)から、例えばイエロー(Y)、マゼンタ(M)、シアン(C)、ブラック(K)の4色のインクを噴射して、用紙へのカラー印刷を行う。印刷が行われる際に給紙トレイ11にセットされる用紙は、筐体10の背面の給紙口14からプリンタ部181の内部へ搬送され、印刷が行われた後、前面の排紙口13から排出されて排紙トレイ12上に積層状に保持されるように構成されている。なお、図1では、排紙トレイ12は筐体10の底部に収納可能となっており、使用時には前方に引き出されて使用される。   The printer unit 181 of the housing 10 of the copying machine 1 includes a paper feed tray 11 for supplying paper as a recording medium from the paper feed port 14 provided on the back surface of the housing 10 to the inside of the housing 10. A paper discharge tray 12 is provided for stacking and holding sheets on which images discharged from a paper discharge port 13 provided on the front surface of the housing 10 are formed. The printer unit 181 is a known ink jet printer, and ejects, for example, four colors of ink of yellow (Y), magenta (M), cyan (C), and black (K) from an ink jet head (not shown) to form paper. Perform color printing on The paper set in the paper feed tray 11 when printing is carried is conveyed from the paper feed port 14 on the back surface of the housing 10 to the inside of the printer unit 181, and after printing is performed, the paper discharge port 13 on the front surface. And are held in a stacked manner on the paper discharge tray 12. In FIG. 1, the paper discharge tray 12 can be stored at the bottom of the housing 10, and is used by being pulled forward when in use.

筐体10の前面には、筐体10の左右方向に沿って延設され、前方斜め上方に操作面を向けた操作部17が設けられている。この操作部17の操作面には、利用者が複写機1にキー入力による指示を与えるための複数のキーやスイッチなどから構成される操作パネル部15と、後述する画像処理が施された入力画像データを表示したり、操作時やエラー発生時などに利用者に対してメッセージを表示する液晶ディスプレイ等からなる表示パネル部16とが設けられている。   On the front surface of the housing 10, there is provided an operation unit 17 that extends along the left-right direction of the housing 10 and has an operation surface directed obliquely upward and forward. On the operation surface of the operation unit 17, an operation panel unit 15 including a plurality of keys and switches for a user to give an instruction by key input to the copier 1, and an input subjected to image processing described later. A display panel unit 16 including a liquid crystal display or the like that displays image data or displays a message to the user when an operation or an error occurs is provided.

筐体10の上面には、筐体10の背面側を支軸とし、前面側の操作部17の上方に設けられた取手部18aに手をかけ上に持ち上げるようにして開閉可能な上蓋部18が設けられている。上蓋部18を持ち上げた内部には、略水平方向に筐体10の内部上面を覆うガラス板(図示外)が固定されている。そのガラス板面の下側には、ガラス板上に載置した被読取媒体としての原稿の画像をフォトダイオードで読み取ってデジタルデータ化するためのライン型CCDイメージセンサ(図示外)が設けられている。スキャナ部171は、いわゆるFB(Flat Bed)式のスキャナとなっており、CCDイメージセンサは、筐体10の前後方向(主走査方向)をそのフォトダイオードが列設されたライン方向とし、左右方向(副走査方向)にガラス板の下面を移動しながらガラス板上に載置された原稿のスキャンを行う。   On the upper surface of the housing 10, an upper lid portion 18 that can be opened and closed by using the back side of the housing 10 as a support shaft and lifting up the handle 18 a provided above the operation portion 17 on the front surface side. Is provided. A glass plate (not shown) that covers the inner upper surface of the housing 10 in a substantially horizontal direction is fixed to the inside where the upper lid portion 18 is lifted. A line CCD image sensor (not shown) for reading an image of a document as a read medium placed on the glass plate with a photodiode and converting it into digital data is provided below the glass plate surface. Yes. The scanner unit 171 is a so-called FB (Flat Bed) type scanner, and the CCD image sensor has a longitudinal direction of the housing 10 (main scanning direction) as a line direction in which the photodiodes are arranged in the horizontal direction. The document placed on the glass plate is scanned while moving the lower surface of the glass plate in the (sub-scanning direction).

さらに、上蓋部18には自動原稿搬送装置(以下、「ADF(Automatic Document Feeder)」という。)19が設けられている。ADF19には、原稿を、ガラス板の左端部に移動させて固定したCCDイメージセンサの上方を通過させて読み取り可能となるように、原稿を積載し、供給口20から1枚ずつ引き込まれるようにする供給トレイ21と、読み取りが終わって排出口22から排出される原稿を積載保持する排出トレイ23とが設けられている。原稿は、供給口20からガラス板の左端部に向かい、CCDイメージセンサ上でUターンして排出口22へと向かうUターン状の搬送路を通過し、筐体10の左右方向を搬送方向としている。   Further, the upper lid portion 18 is provided with an automatic document feeder (hereinafter referred to as “ADF (Automatic Document Feeder)”) 19. The ADF 19 is loaded with originals so that the originals can be read by passing over the CCD image sensor fixed by moving to the left end of the glass plate, and the ADFs 19 are drawn one by one from the supply port 20. A supply tray 21 is provided, and a discharge tray 23 is provided for loading and holding documents that have been read and discharged from the discharge port 22. The original passes from the supply port 20 toward the left end of the glass plate, passes through a U-turn-shaped conveyance path that goes U-turns on the CCD image sensor to the discharge port 22, and the horizontal direction of the casing 10 is the conveyance direction. Yes.

次に、図2〜図5を参照し、複写機1の電気的な構成について説明する。図2は、複写機1の制御部100の構成を示すブロック図である。図3は、ROM120の記憶エリアを示す概念図である。図4は、RAM130の記憶エリアを示す概念図である。図5は、フラッシュROM140の記憶エリアを示す概念図である。   Next, the electrical configuration of the copying machine 1 will be described with reference to FIGS. FIG. 2 is a block diagram illustrating a configuration of the control unit 100 of the copying machine 1. FIG. 3 is a conceptual diagram showing the storage area of the ROM 120. FIG. 4 is a conceptual diagram showing a storage area of the RAM 130. FIG. 5 is a conceptual diagram showing a storage area of the flash ROM 140.

図2に示ように、複写機1の内部には制御部100が設けられ、複写機1の各部の制御が行われている。制御部100には、複写機1の全体の制御を司るCPU110が設けられ、このCPU110に、バス115を介して、CPU110が実行する各種のプログラム等を記憶したROM120と、データを一時的に記憶するRAM130と、データの読み書きが可能で電源が切断された場合にも記憶したデータを保持できるフラッシュROM140とが接続されている。   As shown in FIG. 2, a control unit 100 is provided inside the copying machine 1 to control each part of the copying machine 1. The control unit 100 is provided with a CPU 110 that controls the entire copying machine 1. A ROM 120 that stores various programs executed by the CPU 110 and the like are temporarily stored in the CPU 110 via a bus 115. The RAM 130 is connected to a flash ROM 140 that can read and write data and can store stored data even when the power is turned off.

また、CPU110には、スキャナ部171のADF19の駆動モータ(図示外)やCCDイメージセンサ(図示外)を駆動するための回路や、CCDイメージセンサで原稿を読み取ったアナログのデータをデジタル化するA/D変換器(図示外)等を備えたスキャナ駆動部170が、バス115を介して接続されている。さらに、プリンタ部181にて用紙に対してインクを噴射するためのインクジェットヘッド(図示外)を駆動するための回路や、用紙を搬送したりするための搬送モータ(図示外)を駆動するための回路が設けられたプリンタ駆動部180が、バス115を介してCPU110に接続されている。   The CPU 110 also includes a circuit for driving a driving motor (not shown) of the ADF 19 of the scanner unit 171 and a CCD image sensor (not shown), and analog data read by the CCD image sensor. A scanner driving unit 170 including a / D converter (not shown) or the like is connected via a bus 115. Further, a circuit for driving an ink jet head (not shown) for ejecting ink onto the paper in the printer unit 181 and a drive motor (not shown) for transporting the paper are driven. A printer driving unit 180 provided with a circuit is connected to the CPU 110 via a bus 115.

CPU110にはさらに、操作部17に設けられた表示パネル部16への画像の表示の制御を行う画面駆動部150と、操作部17の操作パネル部15の各キーやスイッチの入力を検知する入力検知部160とが、バス115を介して接続されている。   The CPU 110 further includes a screen drive unit 150 that controls display of an image on the display panel unit 16 provided in the operation unit 17, and an input that detects input of each key and switch of the operation panel unit 15 of the operation unit 17. The detection unit 160 is connected via the bus 115.

次に、図3に示すように、ROM120には、CPU110が実行する各種のプログラムを記憶したプログラム記憶エリア121と、プログラムの実行開始時に設定される初期設定値等が記憶された初期設定記憶エリア122と、後述する画像種別テーブル(図6参照)を記憶したテーブル記憶エリア123とが設けられている。さらに、ROM120には、図示外の各種記憶エリアが設けられている。   Next, as shown in FIG. 3, the ROM 120 stores a program storage area 121 that stores various programs executed by the CPU 110, and an initial setting storage area that stores initial setting values set at the start of program execution. 122 and a table storage area 123 that stores an image type table (see FIG. 6) described later. Further, the ROM 120 is provided with various storage areas not shown.

次いで、図4に示すように、RAM130には、プログラムの実行中の一時的なデータを記憶するワークエリア131と、CCDイメージセンサで原稿を読み取った画像を入力画像データとして記憶する入力画像データ記憶エリア132と、画像処理を施した入力画像データを複数記憶可能な処理画像データ記憶エリア133と、印刷を行うため画像処理が施された入力画像データを変換して印刷データとして記憶する出力画像データ記憶エリア134とが設けられている。さらに、RAM130には、図示外の各種記憶エリアが設けられている。   Next, as shown in FIG. 4, the RAM 130 has a work area 131 for storing temporary data during execution of the program, and input image data storage for storing an image read by the CCD image sensor as input image data. Area 132, processed image data storage area 133 capable of storing a plurality of input image data subjected to image processing, and output image data for converting input image data subjected to image processing for printing and storing as print data A storage area 134 is provided. Further, the RAM 130 is provided with various storage areas not shown.

また、図5に示すように、フラッシュROM140には、後述する登録画像種別テーブル(図7参照)を記憶した登録テーブル記憶エリア141が設けられている。さらに、フラッシュROM140には、図示外の各種記憶エリアが設けられている。   Also, as shown in FIG. 5, the flash ROM 140 is provided with a registration table storage area 141 that stores a registered image type table (see FIG. 7) described later. Further, the flash ROM 140 is provided with various storage areas not shown.

次に、図6,図7を参照して、複写時に実行される複写プログラムにおいて参照されるテーブルについて説明する。図6は、ROM120のテーブル記憶エリア123に記憶された画像種別テーブルを示す概念図である。図7は、フラッシュROM140の登録テーブル記憶エリア141に記憶された登録画像種別テーブルを示す概念図である。   Next, with reference to FIGS. 6 and 7, a table referred to in a copy program executed at the time of copying will be described. FIG. 6 is a conceptual diagram showing an image type table stored in the table storage area 123 of the ROM 120. FIG. 7 is a conceptual diagram showing a registered image type table stored in the registration table storage area 141 of the flash ROM 140.

本実施の形態の複写機1では、スキャナ部171で読み取りを行った原稿の画像データに画像処理を行ってからプリンタ部181で用紙への印刷を行う。画像データに施される画像処理は、例えばエッジ強調、平滑化、ホワイトバランス調整、彩度調整などの公知の画像処理である。読み取られた原稿の画像のデータ、すなわち入力画像データに対してこれらの画像処理が施されるが、複写機1ではもとの原稿の画像種別(文書、グラフィックチャート、自然画、人物画、夜景など)にあわせ、各処理が異なる度合いにて施される。そのため、入力画像データの特徴量が検出され、その特徴量に基づいて、入力画像データがどの画像種別に相当するかの分類が行われる。画像種別テーブルおよび登録画像種別テーブルは、入力画像データから検出される特徴量から、その入力画像データがどの画像種別に分類されるかを、特徴量の各要素(エッジ量、エッジ強度、色数、色の分布、人物マッチング量、細線量)の値の範囲に対応付けたテーブルである。さらに、分類された画像種別に応じ、入力画像データに対して施す画像処理(エッジ強調を行うためのHPF処理,平滑化を行うためのLPF処理,彩度調整を行うための彩度強調処理)の各パラメータ値も対応付けられている。   In the copying machine 1 according to the present embodiment, image processing is performed on image data of a document read by the scanner unit 171 and then printing on a sheet is performed by the printer unit 181. The image processing performed on the image data is known image processing such as edge enhancement, smoothing, white balance adjustment, and saturation adjustment. These image processes are performed on the read image data of the original document, that is, input image data. In the copying machine 1, the original image type (document, graphic chart, natural image, portrait image, night scene) is processed. Etc.), each process is applied to a different degree. Therefore, the feature amount of the input image data is detected, and the image type to which the input image data corresponds is classified based on the feature amount. The image type table and registered image type table indicate to which image type the input image data is classified from the feature amount detected from the input image data. Each element of the feature amount (edge amount, edge strength, number of colors) , Color distribution, person matching amount, fine dose) value range. Further, image processing performed on input image data according to the classified image type (HPF processing for performing edge enhancement, LPF processing for performing smoothing, and saturation enhancement processing for performing saturation adjustment) These parameter values are also associated with each other.

以下、特徴量の各要素について説明する。エッジ量とは、入力画像データ中の任意の画素に類似する画素によって構成される領域と、非類似の画素によって構成される領域との境目となる画素が、全画素中に占める割合を示す値である。入力画像データをグレースケールに変換し、その入力画像データ中の任意の画素の階調値をf(i,j)とした場合、水平方向一次空間微分フィルタは次の式で示される。
gh(i,j) = (-1)・f(i-1,j-1) + f(i+1,j-1) + (-1)・f(i-1,j) + f(i+1,j) + (-1)・f(i-1,j+1) + f(i+1,j+1)
また、垂直方向一次空間微分フィルタは、次の式で示される。
gv(i,j) = (-1)・f(i-1,j-1) + (-1)・f(i,j-1) + (-1)・f(i+1,j-1) + f(i-1,j+1) + f(i,j+1) + f(i+1,j+1)
そして、上記任意の画像の一次微分の大きさは、以下の式で示される。

Figure 2005079940
入力画像データの全画素についてこの値を求め、それぞれ実験等により決められた所定のしきい値と比較する。そして、そのしきい値よりも大きい値をとる画素をエッジを構成するエッジ画素とし、全画素に対するエッジ画素の割合を求めることによってエッジ量が求められる。また、エッジ強度は、エッジ画素の一次微分の大きさの平均値を求めることによって得ることができる。 Hereinafter, each element of the feature amount will be described. The edge amount is a value indicating the ratio of pixels in the boundary between the region configured by pixels similar to an arbitrary pixel in the input image data and the region configured by dissimilar pixels to all the pixels. It is. When the input image data is converted to gray scale, and the gradation value of an arbitrary pixel in the input image data is f (i, j), the horizontal primary spatial differential filter is expressed by the following equation.
g h (i, j) = (-1) ・ f (i-1, j-1) + f (i + 1, j-1) + (-1) ・ f (i-1, j) + f (i + 1, j) + (-1) ・ f (i-1, j + 1) + f (i + 1, j + 1)
The vertical first-order spatial differential filter is expressed by the following equation.
g v (i, j) = (-1) ・ f (i-1, j-1) + (-1) ・ f (i, j-1) + (-1) ・ f (i + 1, j -1) + f (i-1, j + 1) + f (i, j + 1) + f (i + 1, j + 1)
The magnitude of the first derivative of the arbitrary image is expressed by the following equation.
Figure 2005079940
This value is obtained for all the pixels of the input image data, and each value is compared with a predetermined threshold value determined by experiment or the like. Then, a pixel having a value larger than the threshold value is set as an edge pixel constituting the edge, and the edge amount is obtained by obtaining the ratio of the edge pixel to all the pixels. The edge strength can be obtained by obtaining an average value of the magnitude of the first derivative of the edge pixel.

次に、色数について説明する。例えば、入力画像データの任意の画素のRGB値について、R値,G値,B値のそれぞれが0〜255の値をとる場合、その画素の色要素を、
C0,0,0 = 0≦R≦7, 0≦G≦7, 0≦B≦7
C0,0,1 = 0≦R≦7, 0≦G≦7, 8≦B≦15
C0,0,2 = 0≦R≦7, 0≦G≦7, 16≦B≦23
・・・
C31,31,30 = 248≦R≦255, 248≦G≦255, 240≦B≦247
C31,31,31 = 248≦R≦255, 248≦G≦255, 248≦B≦255
という32768個の領域に分割する。さらに、入力画像データの全画素について、各画素をそれぞれいずれかの領域に割り当てる。そして画素が割り当てられた色要素についてその数を求めれば、色数を求めることができる。また、画素が割り当てられた色要素について、隣り合う色要素同士(例えば、C0,0,0とC0,0,1)を1つの塊(クラスター)としてまとめる処理を行う。この処理を、予め実験等で決められた所定回数繰り返し行えば、まとめられたクラスターの数を色の分布として求めることができる。
Next, the number of colors will be described. For example, when the R value, G value, and B value each take a value from 0 to 255 for the RGB value of an arbitrary pixel of the input image data, the color element of that pixel is
C 0,0,0 = 0 ≦ R ≦ 7, 0 ≦ G ≦ 7, 0 ≦ B ≦ 7
C 0,0,1 = 0 ≦ R ≦ 7, 0 ≦ G ≦ 7, 8 ≦ B ≦ 15
C 0,0,2 = 0 ≦ R ≦ 7, 0 ≦ G ≦ 7, 16 ≦ B ≦ 23
...
C 31,31,30 = 248 ≦ R ≦ 255, 248 ≦ G ≦ 255, 240 ≦ B ≦ 247
C 31,31,31 = 248 ≦ R ≦ 255, 248 ≦ G ≦ 255, 248 ≦ B ≦ 255
This area is divided into 32768 areas. Furthermore, each pixel is assigned to one of the regions for all the pixels of the input image data. If the number of color elements to which pixels are assigned is obtained, the number of colors can be obtained. In addition, with respect to the color elements to which the pixels are assigned, adjacent color elements (for example, C 0,0,0 and C 0,0,1 ) are processed as a single cluster. If this process is repeated for a predetermined number of times determined in advance by experiments or the like, the number of clustered clusters can be obtained as a color distribution.

次に、人物マッチング量について説明する。公知のように、複数の人の顔の画像から顔としての領域をそれぞれ所定の大きさに切り出した画像を用意し、ある画像の任意の画素にそれぞれ対応する各画像の画素の階調値の平均を求める。これを全画素について行って、人の顔の図形的な特徴を示すパターン、すなわち人の顔のテンプレートを作成する。このテンプレートを入力画像データによって示される画像に重ね、テンプレートの座標、拡大倍率、回転角度の各パラメータを任意に変更し、画像とテンプレートとの一致度に基づき、画像中の人物の顔としての領域を抽出する。その抽出数が、人物マッチング量に相当する。   Next, the person matching amount will be described. As is well known, an image obtained by cutting a face region into a predetermined size from a plurality of human face images is prepared, and the gradation value of each image pixel corresponding to an arbitrary pixel of a certain image is prepared. Find the average. This is performed for all the pixels to create a pattern indicating the graphic features of the human face, that is, a human face template. This template is overlaid on the image indicated by the input image data, and the parameters of the template's coordinates, magnification, and rotation angle are arbitrarily changed. Based on the degree of coincidence between the image and the template, the area as a human face in the image To extract. The number of extractions corresponds to the person matching amount.

次いで、細線量について説明する。入力画像データを所定のしきい値をもって2値化し、2値化した入力画像データについて、水平方向および垂直方向にそれぞれ走査を行う。このときの画素の変化について、一方の階調から他方の階調へ変化し、また一方の階調へ変化するまでの間に、他方の階調であった画素の数が、予め実験等で決められたしきい値よりも少なければ、細線であるとみなしてその画素数を計数する。そして、全画素の数における細線とみなされた画素の数の割合を両走査方向について求め、その平均をとれば、細線量を求めることができる。   Next, the fine dose will be described. The input image data is binarized with a predetermined threshold value, and the binarized input image data is scanned in the horizontal direction and the vertical direction, respectively. Regarding the change of the pixel at this time, the number of pixels that were the other gradation before the change from one gradation to the other gradation and before the change to one gradation was previously determined by experiments or the like. If it is less than the determined threshold value, it is regarded as a thin line and the number of pixels is counted. Then, if the ratio of the number of pixels regarded as a fine line in the total number of pixels is obtained in both scanning directions and the average is taken, the fine dose can be obtained.

図6に示す画像種別テーブル、および図7に示す登録画像種別テーブルでは、画像種別ごとに、特徴量の上記各要素の値の範囲が対応付けられている。例えば、画像種別が「文書」であれば、図6に示すように、その特徴量は、エッジ量については30〜50(%)の間の値となり、色数については1〜5(色)となる。また、人物マッチング量は1〜6(個)、エッジ強度は60〜80、細線量は70〜90(%)、そして色の分布は、1〜5(個)となる。本実施の形態では、入力画像データの特徴量を検出し、その各要素が上記範囲をすべて満たす場合に、その入力画像データのもととなった原稿が「文書」であるとして分類される。すなわち、画像種別テーブルにおいて、ある画像種別の特徴量の各要素のうち一つでも一致しないものがあれば、その画像種別には分類されない。このように、他の画像種別、すなわち「グラフィックチャート」、「自然画」、「人物画」、「夜景」についても同様に、特徴量の各要素について、その値の範囲が対応付けられている。   In the image type table shown in FIG. 6 and the registered image type table shown in FIG. 7, the range of the value of each element of the feature amount is associated with each image type. For example, if the image type is “document”, as shown in FIG. 6, the feature amount is a value between 30 and 50 (%) for the edge amount, and 1 to 5 (color) for the number of colors. It becomes. The amount of person matching is 1 to 6 (pieces), the edge strength is 60 to 80, the fine dose is 70 to 90 (%), and the color distribution is 1 to 5 (pieces). In the present embodiment, when the feature amount of the input image data is detected and each element satisfies all the above ranges, the document that is the basis of the input image data is classified as “document”. That is, in the image type table, if any one of the elements of the feature amount of a certain image type does not match, it is not classified into that image type. In this manner, similarly for other image types, that is, “graphic chart”, “natural image”, “person image”, and “night scene”, the value ranges are associated with each feature element. .

また、画像種別テーブルには、各画像種別ごとに入力画像データに対して施す画像処理のパラメータ値が記憶されており、例えば、画像種別として「文書」が分類された場合には、LPF処理のパラメータ値として「0」、HPF処理のパラメータ値として「50」、彩度強調処理のパラメータ値として「0」が対応付けられている。   Further, the image type table stores parameter values for image processing applied to the input image data for each image type. For example, when “document” is classified as the image type, LPF processing is performed. “0” is associated with the parameter value, “50” as the parameter value for HPF processing, and “0” as the parameter value for saturation enhancement processing.

LPF処理は、いわゆる平滑化のための処理であり、高周波成分を減衰させてざらつき感を抑えるための処理である。具体的には、マスクパターンを用いた公知の加重平均平滑化の処理が行われる。例えば、3×3画素,5×5画素などのマスクを用意し、そのマスク内の色の階調の平均値に中央の画素を周辺の画素よりも重みを付け、中央の画素のもとの色を保持するようにしてマスク内の各画素の平滑化が行われる。そして、画像の全画素に対してこの処理が適用されることにより、画像全体のざらつき感が抑制される。LPF処理のパラメータ値によって、平滑化が行われる際の強度が決定される。   The LPF process is a process for so-called smoothing, and is a process for attenuating the feeling of roughness by attenuating high-frequency components. Specifically, a known weighted average smoothing process using a mask pattern is performed. For example, a mask of 3 × 3 pixels, 5 × 5 pixels, etc. is prepared, and the center pixel is weighted more than the surrounding pixels to the average value of the gradation of the colors in the mask, and the original pixel of the center pixel Each pixel in the mask is smoothed so as to retain the color. Then, by applying this process to all the pixels of the image, the rough feeling of the entire image is suppressed. The strength at which smoothing is performed is determined by the parameter value of the LPF process.

HPF処理は、いわゆるエッジ強調のための処理であり、高周波成分を強調し、画像中のエッジ部分を強調させるための処理である。LPF処理の場合と同様に、マスクパターンを用いた公知の鮮鋭化の処理が行われる。HPF処理のパラメータ値によって、エッジ強調が行われる際の強度が決定される。   The HPF process is a process for so-called edge enhancement, and is a process for enhancing high-frequency components and enhancing edge portions in an image. As in the case of the LPF process, a known sharpening process using a mask pattern is performed. The strength at which edge enhancement is performed is determined by the parameter value of the HPF process.

彩度強調処理は、いわゆる彩度調整のための処理であり、画像の彩度を高めることによって鮮やかな色合いを表現するための処理である。RGB値で示される入力画像データの各画素の色について、公知のL*u*v*値に変換を行う。ここで、u*v*平面では、原点から遠ざかるほど彩度が強調される。そこで、各画素についてu*v*平面における原点からの距離を遠ざける処理が行われる。彩度強調処理のパラメータ値によって、距離拡大の度合いが決定される。   The saturation enhancement process is a process for so-called saturation adjustment, and is a process for expressing a vivid hue by increasing the saturation of an image. The color of each pixel of the input image data indicated by the RGB value is converted into a known L * u * v * value. Here, in the u * v * plane, the saturation is enhanced as the distance from the origin increases. Therefore, a process for increasing the distance from the origin in the u * v * plane is performed for each pixel. The degree of distance expansion is determined by the parameter value of the saturation enhancement process.

また、本実施の形態では、入力画像データに対してホワイトバランス調整のための処理も行われる。原稿を読み取る際、光源(図示外)から強い光を出射して原稿を照らし、その反射光の光強度をCCDイメージセンサ(図示外)で読み取っている。光源から出射される光は、光源自体の個体差や経時的な変化の影響などにより、いわゆる色温度が異なる場合があり、読み取られた画像の白い色にばらつきが発生する。ホワイトバランス調整処理は、この色温度の影響によるばらつきを補正して、白であるべき画素の色を白くするための公知の処理である。入力画像データのR値、G値、B値のそれぞれの強度のバランスの調整が行われる。   In the present embodiment, processing for white balance adjustment is also performed on the input image data. When reading a document, strong light is emitted from a light source (not shown) to illuminate the document, and the light intensity of the reflected light is read by a CCD image sensor (not shown). The light emitted from the light source may have different so-called color temperatures due to individual differences in the light source itself or the influence of changes over time, and the white color of the read image varies. The white balance adjustment process is a known process for correcting the variation due to the influence of the color temperature and whitening the color of the pixel that should be white. The intensity balance of the R value, G value, and B value of the input image data is adjusted.

次に、図7に示す登録画像種別テーブルは、入力画像データが画像種別テーブルの参照において分類されなかった場合などに、利用者が新規に画像種別を作成し、登録することが可能なテーブルである。画像種別としてユーザ定義1〜ユーザ定義16が設けられており、それぞれのユーザ定義に対して、上記同様、特徴量の各要素の値の範囲と、画像処理のパラメータ値とが対応付けられて記憶されている。後述するが、本実施の形態では、画像種別の分類の際にはまず登録画像種別テーブルが参照され、分類不可能な場合に画像種別テーブルが参照される。登録画像種別テーブルの任意のユーザ定義の特徴量の全要素が、画像種別テーブルのある画像種別の特徴量の範囲内に含まれる場合もあり、登録画像種別テーブルが先に参照されることによって、画像種別としてのユーザ定義が優先して適用されるようになっている。なお、画像種別テーブルを記憶したテーブル記憶エリア123が、本発明における「画像種別情報記憶手段」に相当し、登録画像種別テーブルを記憶した登録テーブル記憶エリア141が、本発明における「登録画像種別情報記憶手段」に相当する。   Next, the registered image type table shown in FIG. 7 is a table that allows a user to newly create and register an image type when the input image data is not classified by referring to the image type table. is there. User definition 1 to user definition 16 are provided as image types, and for each user definition, as described above, the value range of each element of the feature value and the image processing parameter value are stored in association with each other. Has been. As will be described later, in the present embodiment, the registered image type table is first referred to when classifying image types, and the image type table is referred to when classification is impossible. In some cases, all elements of any user-defined feature quantity in the registered image type table are included within the range of the feature quantity of an image type in the image type table, and by referring to the registered image type table first, User definition as an image type is applied with priority. The table storage area 123 storing the image type table corresponds to the “image type information storage unit” in the present invention, and the registration table storage area 141 storing the registered image type table is the “registered image type information” in the present invention. It corresponds to “memory means”.

次に、図8,図9に示す複写プログラムのフローチャートに従って、図1〜図7および図10,図11を参照しながら、複写機1の複写時の動作について説明する。図8は、複写機1の複写プログラムのメインルーチンである。図9は、メインルーチンからコールされる画像処理のサブルーチンである。図10は、最適な画像処理の結果を選択する際に表示パネル部16へ表示する画面の例を示す図である。図11は、最適な画像処理の結果を選択する際に表示パネル部16へ表示する画面の例を示す図である。以下、フローチャートの各ステップを「S」と略記する。   Next, according to the flowchart of the copying program shown in FIGS. 8 and 9, the operation during copying of the copying machine 1 will be described with reference to FIGS. 1 to 7, 10 and 11. FIG. FIG. 8 is a main routine of the copying program of the copying machine 1. FIG. 9 is a subroutine for image processing called from the main routine. FIG. 10 is a diagram illustrating an example of a screen displayed on the display panel unit 16 when selecting an optimal image processing result. FIG. 11 is a diagram illustrating an example of a screen displayed on the display panel unit 16 when selecting an optimal image processing result. Hereinafter, each step of the flowchart is abbreviated as “S”.

本実施の形態の複写機1では、利用者の操作に基づき複写が行われる場合に、ROM120のプログラム記憶エリア121に記憶された複写プログラムがRAM130のワークエリア131に読み込まれ、実行される。図8に示すように、複写プログラムが実行されると、まず、ROM120の初期設定記憶エリア122より複写プログラム実行時の初期の設定が読み込まれ、プログラム実行時のパラメータとしてセットされる(S10)。   In the copying machine 1 of the present embodiment, when copying is performed based on a user's operation, the copying program stored in the program storage area 121 of the ROM 120 is read into the work area 131 of the RAM 130 and executed. As shown in FIG. 8, when the copy program is executed, first, the initial setting at the time of executing the copy program is read from the initial setting storage area 122 of the ROM 120 and set as a parameter at the time of executing the program (S10).

次に、複写を行う原稿の上面に形成された画像の読み取りが行われる(S11)。ガラス板(図示外)上にセットされた原稿、あるいはADF19で読み込みを行うようにセットした原稿の上面上の画像が、CCDイメージセンサ(図示外)によって読み込まれ、デジタルデータ化され、入力画像データとしてRAM130の入力画像データ記憶エリア132に記憶される。なお、S11の処理で、原稿の画像の読み取りが行われるように制御するCPU110が、本発明における「画像読取手段」に相当する。   Next, an image formed on the upper surface of the original to be copied is read (S11). A document set on a glass plate (not shown) or an image on the upper surface of a document set to be read by the ADF 19 is read by a CCD image sensor (not shown), converted into digital data, and input image data Is stored in the input image data storage area 132 of the RAM 130. Note that the CPU 110 that controls to read the image of the document in the process of S11 corresponds to the “image reading unit” in the present invention.

そして、入力画像データの特徴量の検出が行われる(S12)。前述したように、入力画像データの特徴量の各要素(エッジ量、エッジ強度、色数、色の分布、人物マッチング量、細線量)について検出が行われ、その結果がワークエリア131に記憶される。なお、S12の処理で、入力画像データの特徴量の検出を行うCPU110が、本発明における「特徴量検出手段」に相当する。   Then, the feature amount of the input image data is detected (S12). As described above, each element (edge amount, edge strength, number of colors, color distribution, person matching amount, fine dose) of the feature amount of the input image data is detected, and the result is stored in the work area 131. The Note that the CPU 110 that detects the feature amount of the input image data in the processing of S12 corresponds to the “feature amount detection means” in the present invention.

次に、ユーザが定義した画像種別(登録画像種別)に、検出された特徴量のすべての要素に一致するものがあるか、登録画像種別テーブルが参照され確認が行われる(S13)。より具体的には、まず、登録画像種別テーブルのユーザ定義1について、入力画像データの特徴量の各要素が順に、対応するユーザ定義1の特徴量の要素の範囲内にあるか否かが確認される。そして、一つでも範囲外のものがあれば、原稿の画像種別はユーザ定義1ではないとして、次いでユーザ定義2について同様の確認が行われる。特徴量のすべての要素について一致する画像種別があれば(S13:YES)、その画像種別の画像処理のパラメータ値がワークエリア131に読み込まれ、S16に進む。   Next, it is checked by referring to the registered image type table whether there is any image type (registered image type) defined by the user that matches all elements of the detected feature amount (S13). More specifically, first, for the user definition 1 in the registered image type table, it is confirmed whether each element of the feature amount of the input image data is sequentially within the range of the corresponding feature amount of the user definition 1 Is done. If there is even one out of the range, the same confirmation is performed for the user definition 2 next, assuming that the image type of the document is not the user definition 1. If there is a matching image type for all elements of the feature amount (S13: YES), the image processing parameter value of that image type is read into the work area 131, and the process proceeds to S16.

登録画像種別テーブルに記憶されたすべての登録画像種別について確認が行われても一致するものがなければ(S13:NO)、次に画像種別テーブルが参照され、予め設定されている画像種別(文書、グラフィックチャート、自然画、人物画、夜景など)のいずれかに特徴量の全要素が一致するものがあるかについて、上記同様、画像種別一つ一つについて順に確認が行われる(S15)。そして、前記同様に、すべての特徴量の要素について一致する画像種別があれば(S15:YES)、その画像種別の画像処理のパラメータ値がワークエリア131に読み込まれ、S16に進む。なお、S15の処理で、画像種別テーブルを参照し、特徴量の全要素が一致する画像種別があるかを確認するCPU110が、本発明における「判定手段」に相当する。また、S13の処理で、登録画像種別テーブルに、あるいはS15の処理で画像種別テーブルに、特徴量の全要素が一致する画像種別があると判断してその画像種別を原稿の画像種別として決定するCPU110が、本発明における「画像種別決定手段」に相当する。   If all the registered image types stored in the registered image type table are confirmed and there is no match (S13: NO), then the image type table is referred to and the preset image type (document In the same manner as described above, each of the image types is checked in order as to whether any of the elements of the feature amount matches any of a graphic chart, a natural image, a portrait, a night view, or the like (S15). As described above, if there is a matching image type for all feature amount elements (S15: YES), the image processing parameter value of that image type is read into the work area 131, and the process proceeds to S16. In the process of S15, the CPU 110 that refers to the image type table and confirms whether there is an image type that matches all the elements of the feature amount corresponds to the “determination unit” in the present invention. Further, it is determined that there is an image type in which all elements of the feature amount match in the registered image type table in the process of S13 or in the image type table in the process of S15, and the image type is determined as the image type of the document. The CPU 110 corresponds to “image type determining means” in the present invention.

S16では、図9に示す、画像処理のサブルーチンがコールされる。図9に示すように、画像処理のサブルーチンでは、ワークエリア131に記憶された画像処理のパラメータ値に基づいて、前述したLPF処理(S50)、HPF処理(S51)、および彩度強調処理(S52)が順に入力画像データに対して施される。さらに、入力画像データには、ホワイトバランス調整処理が施される(S53)。これらの各処理は、入力画像データが処理画像データ記憶エリア133にコピーされ、そのコピーされた入力画像データに対して行われる。そして、これら画像処理の終了後にメインルーチンに戻る。なお、画像処理のサブルーチンを実行するCPU110が、本発明における「画像処理手段」に相当する。   In S16, an image processing subroutine shown in FIG. 9 is called. As shown in FIG. 9, in the image processing subroutine, based on the image processing parameter values stored in the work area 131, the aforementioned LPF processing (S50), HPF processing (S51), and saturation enhancement processing (S52). ) Are sequentially applied to the input image data. Further, the input image data is subjected to white balance adjustment processing (S53). In each of these processes, the input image data is copied to the processed image data storage area 133, and the copied input image data is performed. Then, after the end of the image processing, the process returns to the main routine. The CPU 110 executing the image processing subroutine corresponds to the “image processing means” in the present invention.

図8に示すように、複写プログラムのメインルーチンに戻ると、画像処理が施された入力画像データが表示パネル部16へ表示される(S17)。利用者が、原稿の画像に画像処理が施された結果を見て、その画像処理が適正に行われたとして操作パネル部15を操作して印刷を行うように指示すれば(S18:YES)、処理画像データ記憶エリア133に記憶されており、現在、表示パネル部16への表示が行われている、上記画像処理が施された入力画像データに色変換が施され、出力画像データ記憶エリア134へ印刷データとして記憶される(S30)。公知のように、入力画像データはRGB値によって示される画像データであり、印刷を行う際にはYMCK値で示される印刷データへの色変換が行われる。   As shown in FIG. 8, when returning to the main routine of the copying program, the input image data subjected to the image processing is displayed on the display panel unit 16 (S17). If the user views the result of the image processing performed on the image of the document and instructs the operation panel unit 15 to perform printing, assuming that the image processing has been properly performed (S18: YES). Are stored in the processed image data storage area 133, are currently displayed on the display panel unit 16, and are subjected to color conversion on the input image data subjected to the above-described image processing, and output image data storage area The print data is stored in 134 (S30). As is well known, the input image data is image data indicated by RGB values, and color conversion into print data indicated by YMCK values is performed when printing is performed.

そして、印刷データに基づいて、プリンタ部181が駆動され、公知のように、インクジェットヘッド(図示外)から4色のインクが噴射されて、用紙への印刷が行われる(S31)。こうして利用者は、原稿の画像種別にあわせた適切な画像処理が施された画像の複写された用紙を得ることができる。なお、S31の処理で、用紙への印刷が行われるように制御するCPU110が、本発明における「画像形成手段」に相当する。   Then, based on the print data, the printer unit 181 is driven, and, as is well known, four colors of ink are ejected from the ink jet head (not shown), and printing on the paper is performed (S31). In this way, the user can obtain a sheet on which an image subjected to appropriate image processing according to the image type of the document is copied. Note that the CPU 110 that controls to perform printing on a sheet in the processing of S31 corresponds to the “image forming unit” in the present invention.

ところで、S13,S15の判断処理において、入力画像データの特徴量と一致する画像種別が、登録画像種別テーブルおよび画像種別テーブルのいずれにもなかった場合や(S13:NO,S15:NO)、一致する画像種別があり画像処理が施され表示パネル部16へ表示したものの利用者がその画像処理の結果について適切であるとしなかった場合(S18:NO)、以下に説明するS20〜S28の処理を行うことで、利用者が新たに画像種別を定義して、登録画像種別として登録することができる。なお、S20〜S28の処理を行って、新たな画像種別を定義可能となるように制御を行うCPU110が、本発明における「画像種別作成手段」に相当する。   By the way, in the determination processing of S13 and S15, when there is no image type that matches the feature amount of the input image data in either the registered image type table or the image type table (S13: NO, S15: NO), they match. If there is an image type to be displayed and the image processing is performed and the image is displayed on the display panel unit 16 but the user does not consider the result of the image processing appropriate (S18: NO), the processing of S20 to S28 described below is performed. By doing so, the user can newly define an image type and register it as a registered image type. The CPU 110 that performs the processing of S20 to S28 and performs control so that a new image type can be defined corresponds to the “image type creation unit” in the present invention.

S20〜S23の処理は、利用者が、複数パターン画像処理を施した入力画像データのうちから最も適切な画像処理が施された入力画像データを選択することができるようにするための処理である。まず、S10の初期設定において設定される画像処理の各パラメータの初期値に基づいて、例えば、LPF:「0」,HPF:「0」,彩度強調:「0」としてパラメータ値が設定される(S20)。なお、S20の処理で、画像処理の各パラメータ値を設定するCPU110が、本発明における「パラメータ決定手段」に相当する。   The processes of S20 to S23 are processes for allowing the user to select input image data subjected to the most appropriate image processing from input image data subjected to the multiple pattern image processing. . First, based on the initial value of each parameter of image processing set in the initial setting of S10, for example, the parameter value is set as LPF: “0”, HPF: “0”, and saturation enhancement: “0”. (S20). Note that the CPU 110 that sets each parameter value of the image processing in the processing of S20 corresponds to the “parameter determining means” in the present invention.

次に、画像処理のサブルーチンがコールされる(S21)。そして前述と同様に、処理画像データ記憶エリア133にコピーされた入力画像データに対し、各パラメータ値に基づく画像処理が施される。画像処理のパラメータ値は、例えば、LPF,HPF,彩度強調についてそれぞれ「0」〜「40」の範囲において、それぞれ10単位で変更される。そして、各パラメータの全組み合わせに基づく画像処理が入力画像データに施される。このため、画像処理の各パラメータの全組み合わせが設定されないうちは(S22:NO)、S20に戻り、パラメータが変更されて設定され(S20)、その新たに設定されたパラメータ(例えば、LPF:「10」,HPF:「0」,彩度強調:「0」)に基づく画像処理が、処理画像データ記憶エリア133に新たにコピーされた入力画像データに対して施される(S21)。処理画像データ記憶エリア133には、全組み合わせ(例えば、LPF:「0」,HPF:「0」,彩度強調:「0」からLPF:「40」,HPF:「40」,彩度強調:「40」まで10単位に値が変更された組み合わせ)の画像処理が施された入力画像データが記憶されることとなる。なお、S21の処理で、画像処理のサブルーチンをコールして処理画像データ記憶エリア133にコピーされた入力画像データに対して画像処理を施すCPU110が、本発明における「画像処理制御手段」に相当し、その画像処理が施された入力画像データを記憶する処理画像データ記憶エリア133が、本発明における「処理画像データ記憶手段」に相当する。また、S22の処理で、画像処理の各パラメータの全組み合わせが設定されたか否かの判断を行うCPU110が、本発明における「全パラメータ範囲画像処理終了判断手段」に相当し、設定されていないと判断した場合にS20に戻るように制御するCPU110が、本発明における「画像処理継続制御手段」に相当する。   Next, an image processing subroutine is called (S21). As described above, the input image data copied to the processed image data storage area 133 is subjected to image processing based on each parameter value. For example, the parameter values for image processing are changed in units of 10 in the range of “0” to “40” for LPF, HPF, and saturation emphasis, respectively. Then, image processing based on all combinations of parameters is performed on the input image data. For this reason, as long as all combinations of parameters for image processing are not set (S22: NO), the process returns to S20, the parameters are changed and set (S20), and the newly set parameters (for example, LPF: “ 10 ”, HPF:“ 0 ”, saturation enhancement:“ 0 ”) is performed on the input image data newly copied to the processed image data storage area 133 (S21). In the processed image data storage area 133, all combinations (for example, LPF: “0”, HPF: “0”, saturation enhancement: “0” to LPF: “40”, HPF: “40”, saturation enhancement: Input image data that has been subjected to image processing of a combination of values that have been changed in units of 10 to “40” is stored. In step S21, the CPU 110 that calls the image processing subroutine and performs image processing on the input image data copied to the processed image data storage area 133 corresponds to the “image processing control means” in the present invention. The processed image data storage area 133 for storing the input image data subjected to the image processing corresponds to “processed image data storage means” in the present invention. Further, the CPU 110 that determines whether or not all the combinations of the parameters of the image processing have been set in the processing of S22 corresponds to the “all parameter range image processing end determination means” in the present invention and is not set. When the determination is made, the CPU 110 that controls to return to S20 corresponds to “image processing continuation control means” in the present invention.

画像処理の各パラメータの全組み合わせについて、入力画像データに画像処理が施されれば(S22:YES)、利用者に最適な画像処理が施された入力画像データの選択を行うことができるように、その画像処理の結果が表示パネル部16へ表示される(S23)。例えば、図10に示されるように、まず、彩度強調:「0」であって、LPF:「0」〜「40」,HPF:「0」〜「40」のパラメータ値の各組み合わせに基づく画像処理の施された入力画像データの一覧が表示される。そして、利用者が、それぞれの組み合わせに振られた番号を操作パネル部15から入力するなどして、LPF処理,HPF処理について最適な画像処理の施された入力画像データを選択すると、次いで、図11に示されるように、LPF,HPFの各パラメータ値については選択された値で、彩度強調が「0
」〜「40」の範囲でパラメータ値の異なる画像処理の施された入力画像データの一覧が表示される。同様に利用者が最適な画像処理の施された入力画像データを選択することで、LPF,HPF,彩度強調の各パラメータ値が決定されることとなる(S25)。なお、S23の処理で、画像処理の結果を表示パネル部16に表示させるCPU110が、処理画像一覧表示手段に相当する。また、S25の処理で、最適な画像処理の施された入力画像データを選択可能に表示させるCPU110が、本発明における「画像種別指定手段」に相当し、表示された入力画像データの中から最適な画像処理の施されたものが利用者に選択されるようにするCPU110が、本発明における「任意画像選択手段」に相当する。
If the input image data is subjected to image processing for all combinations of image processing parameters (S22: YES), it is possible to select input image data that has been subjected to optimal image processing for the user. The result of the image processing is displayed on the display panel unit 16 (S23). For example, as shown in FIG. 10, first, saturation enhancement: “0”, based on each combination of LPF: “0” to “40”, HPF: “0” to “40”. A list of input image data subjected to image processing is displayed. Then, when the user selects the input image data subjected to the optimum image processing for the LPF processing and the HPF processing by inputting the numbers assigned to the respective combinations from the operation panel unit 15 or the like, then FIG. 11, the LPF and HPF parameter values are selected values, and the saturation enhancement is “0”.
A list of input image data that has undergone image processing with different parameter values in the range of “40” to “40” is displayed. Similarly, when the user selects input image data that has undergone optimal image processing, the parameter values of LPF, HPF, and saturation enhancement are determined (S25). In addition, CPU110 which displays the result of an image process on the display panel part 16 by the process of S23 is equivalent to a process image list display means. In addition, the CPU 110 that displays selectable input image data subjected to optimal image processing in the process of S25 corresponds to the “image type designation means” in the present invention, and is optimal from the displayed input image data. The CPU 110 that allows the user to select an image that has undergone image processing corresponds to “arbitrary image selection means” in the present invention.

このようにして選択され決定された画像処理の結果について、利用者が適切であるとしなければ(S26:NO)、LPF,HPF,彩度強調の各パラメータ値の更新値について、利用者の操作パネル部15からの入力に基づき変更が行われる(S27)。一例を挙げると、初期設定ではLPF:「0」,HPF:「0」,彩度強調:「0」からLPF:「40」,HPF:「40」,彩度強調:「40」まで10単位に値が変更されるように設定されているが、LPF:「30」,HPF:「50」,彩度強調:「20」から、LPF:「50」,HPF:「50」,彩度強調:「60」まで、LPFは5単位,HPFは変更なし,彩度強調は10単位に値が変更されるように、パラメータ値の更新値が設定される。そしてS20に戻り、前記同様、各パラメータ値の全組み合わせに基づく画像処理を入力画像データに施し、利用者に、最適な画像処理の施された入力画像データの選択を行わせる。   If the user is not appropriate for the result of the image processing selected and determined in this manner (S26: NO), the user's operation is performed on the updated values of the LPF, HPF, and saturation emphasis parameter values. The change is made based on the input from the panel unit 15 (S27). For example, in the initial setting, LPF: “0”, HPF: “0”, saturation enhancement: “0” to LPF: “40”, HPF: “40”, saturation enhancement: “40”, 10 units. However, LPF: “30”, HPF: “50”, saturation enhancement: “20”, LPF: “50”, HPF: “50”, saturation enhancement. : Up to “60”, the update value of the parameter value is set so that the LPF is changed to 5 units, the HPF is unchanged, and the saturation enhancement is changed to 10 units. Then, returning to S20, as described above, image processing based on all combinations of parameter values is performed on the input image data, and the user is allowed to select input image data that has been subjected to optimal image processing.

そして、選択され決定された画像処理の結果について、利用者が適切であるとすれば(S26:YES)、登録画像種別テーブルの空き記憶エリアへの登録が行われる(S28)。すなわち、入力画像データの特徴量の各要素と、決定された画像処理の各パラメータとが、ユーザ定義として対応付けられて、登録画像種別テーブルに記憶される。このとき、特徴量の各要素については、検出された値を中心値とする所定の範囲として記憶される。この範囲は、画像種別テーブルにおいて設定されている各画像種別の特徴量の各要素の範囲よりも、それぞれ狭い範囲(例えば、中心値に対して±5の値の範囲)となることが好ましい。例えばある画像(真っ青な空の写真など)について、S15において、本来「自然画」として分類されるべきはずが、特徴量が一致すれば「グラフィックチャート」として分類されてしまう場合がある。このような場合に、その画像には利用者の望むものとは異なる画像処理が施されてしまう。しかし、上記のように特定の特徴量を有するこの画像にユーザ定義が適用されるようにすることで、次回から似た画像が読み取られた場合にも、利用者の望む画像処理が施されるように設定することができる。   If the user is appropriate for the selected and determined image processing result (S26: YES), registration in the free storage area of the registered image type table is performed (S28). That is, each element of the feature amount of the input image data and each determined parameter of the image processing are associated with each other as a user definition and stored in the registered image type table. At this time, each element of the feature amount is stored as a predetermined range with the detected value as the center value. This range is preferably narrower than the range of each element of the feature amount of each image type set in the image type table (for example, a range having a value of ± 5 with respect to the center value). For example, an image (such as a photo of a blue sky) should be classified as a “natural image” in S15, but may be classified as a “graphic chart” if the feature values match. In such a case, the image is subjected to image processing different from that desired by the user. However, by applying the user definition to this image having a specific feature amount as described above, even when a similar image is read from the next time, the image processing desired by the user is performed. Can be set as follows.

ユーザ定義の登録後は、前記同様、画像処理の内容が決定された入力画像データに対して、色変換の処理が行われて印刷データが生成され(S30)、この印刷データに基づく印刷が行われる(S31)。こうして利用者は、原稿の画像種別をカスタマイズして、より最適な画像処理が施された画像の複写された用紙を得ることができる。   After registration of the user definition, as described above, the input image data for which the content of the image processing has been determined is subjected to color conversion processing to generate print data (S30), and printing based on this print data is performed. (S31). In this way, the user can customize the image type of the document and obtain a sheet on which an image subjected to more optimal image processing is copied.

以上説明したように、本実施の形態の複写機1は、利用者の好みに合わせてユーザ定義の登録を行ってカスタマイズすることが可能な画像処理装置を搭載している。この画像処理装置では、原稿に形成された画像を読み取った入力画像データから特徴量を検出し、原稿の画像を、特徴量の各要素に一致する画像種別に分類することができる。そして分類された画像種別に基づく画像処理を入力画像データに施すことができる。また、所定の特徴量を有する入力画像データについて利用者が最適と思われる画像処理の内容を選択可能に表示することができ、そこで選択された画像処理の内容をユーザ定義として記憶することができる。そして、そのユーザ定義が、予め設定されている画像種別よりも優先して原稿の画像種別として決定されるので、特徴量が重複する場合にも、より適切な画像処理を、入力画像データに対して施すことができる。   As described above, the copying machine 1 according to the present embodiment is equipped with an image processing apparatus that can be customized by performing user-defined registration according to user preferences. In this image processing apparatus, a feature amount is detected from input image data obtained by reading an image formed on a document, and an image of the document can be classified into image types that match each element of the feature amount. Then, image processing based on the classified image type can be performed on the input image data. In addition, it is possible to selectably display image processing content that the user thinks is optimal for input image data having a predetermined feature amount, and to store the selected image processing content as a user definition. . Since the user definition is determined as the image type of the document in preference to the preset image type, more appropriate image processing can be performed on the input image data even when feature amounts overlap. Can be applied.

なお、本発明は各種の変形が可能なことはいうまでもない。例えば、本実施の形態では、入力画像データに施した画像処理の結果を表示パネル部16へ表示してユーザ定義の作成等を行ったが、複写機1にパーソナルコンピュータを接続して、パーソナルコンピュータ上でユーザ定義の作成等を行うようにしてもよい。   Needless to say, the present invention can be modified in various ways. For example, in the present embodiment, the result of image processing performed on the input image data is displayed on the display panel unit 16 to create a user definition. However, a personal computer is connected to the copying machine 1 and the personal computer is connected. You may make it create user definition etc. above.

また、登録画像種別テーブルのユーザ定義の記憶数を「16」としたが、それ以上でもそれ以下でもあってもよい。また、画像種別テーブルに記憶されている予め設定された画像種別は、文書、グラフィックチャート、自然画、人物画、夜景に限らず、さらに多種の画像種別に分類可能としてもよい。また、入力画像データに対して施される画像処理の種類は、HPF処理、LPF処理、彩度強調処理、およびホワイトバランス調整処理としたが、さらに多くの種類の画像処理が施されるようにしてもよい。   In addition, although the user-defined storage number of the registered image type table is “16”, it may be more or less. The preset image types stored in the image type table are not limited to documents, graphic charts, natural images, portraits, and night views, and may be classified into various image types. The types of image processing performed on the input image data are HPF processing, LPF processing, saturation enhancement processing, and white balance adjustment processing. However, more types of image processing are performed. May be.

本発明に係る画像処理装置は、本発明に係る複写機以外にも、スキャナ等の画像読取装置、プリンタ等の画像形成装置、ファクシミリ等の画像転送装置、モニタ等の画像表示装置に適用することができる。   The image processing apparatus according to the present invention is applied to an image reading apparatus such as a scanner, an image forming apparatus such as a printer, an image transfer apparatus such as a facsimile, and an image display apparatus such as a monitor in addition to the copying machine according to the present invention. Can do.

複写機1の外観を示す斜視図である。1 is a perspective view showing an appearance of a copying machine 1. FIG. 複写機1の制御部100の構成を示すブロック図である。2 is a block diagram illustrating a configuration of a control unit 100 of the copying machine 1. FIG. ROM120の記憶エリアを示す概念図である。3 is a conceptual diagram showing a storage area of a ROM 120. FIG. RAM130の記憶エリアを示す概念図である。3 is a conceptual diagram showing a storage area of a RAM 130. FIG. フラッシュROM140の記憶エリアを示す概念図である。3 is a conceptual diagram showing a storage area of a flash ROM 140. FIG. ROM120のテーブル記憶エリア123に記憶された画像種別テーブルを示す概念図である。3 is a conceptual diagram showing an image type table stored in a table storage area 123 of a ROM 120. FIG. フラッシュROM140の登録テーブル記憶エリア141に記憶された登録画像種別テーブルを示す概念図である。4 is a conceptual diagram showing a registered image type table stored in a registration table storage area 141 of the flash ROM 140. FIG. 複写機1の複写プログラムのメインルーチンである。This is a main routine of a copying program of the copying machine 1. メインルーチンからコールされる画像処理のサブルーチンである。This is an image processing subroutine called from the main routine. 最適な画像処理の結果を選択する際に表示パネル部16へ表示する画面の例を示す図である。FIG. 6 is a diagram illustrating an example of a screen displayed on the display panel unit 16 when selecting an optimal image processing result. 最適な画像処理の結果を選択する際に表示パネル部16へ表示する画面の例を示す図である。FIG. 6 is a diagram illustrating an example of a screen displayed on the display panel unit 16 when selecting an optimal image processing result.

符号の説明Explanation of symbols

1 複写機
100 制御部
110 CPU
120 ROM
123 テーブル記憶エリア
140 フラッシュROM
141 登録テーブル記憶エリア
1 Copier 100 Control Unit 110 CPU
120 ROM
123 Table storage area 140 Flash ROM
141 Registration table storage area

Claims (7)

画像データの特徴量と、その特徴量の相違により種別が分類される予め定められた画像種別とを対応付けて記憶する画像種別情報記憶手段と、
入力された入力画像データの特徴量の検出を行う特徴量検出手段と、
前記入力画像データについて、前記画像種別情報記憶手段に記憶されていない画像種別を新たに指定するための画像種別指定手段と、
前記入力画像データの特徴量と、前記画像種別指定手段によって新たに指定された画像種別とを対応付けて記憶する登録画像種別情報記憶手段と、
前記特徴量検出手段によって検出された前記入力画像データの特徴量に対応した画像種別が、前記画像種別情報記憶手段に記憶されているか否かを判定する判定手段と、
その判定手段により、前記画像種別が前記画像種別情報記憶手段に記憶されていると判定された場合には、前記画像種別情報記憶手段を参照し、前記画像種別が前記画像種別情報記憶手段に記憶されていないと判定された場合には、前記登録画像種別情報記憶手段を参照する参照手段と、
その参照手段により参照された前記画像種別情報記憶手段または前記登録画像種別情報記憶手段に記憶された画像種別の中から、前記入力画像データの特徴量に対応した画像種別を決定する画像種別決定手段と、
その画像種別決定手段によって決定された前記入力画像データの画像種別に基づいて、前記入力画像データに対する画像処理を行う画像処理手段と
を備えたことを特徴とする画像処理装置。
Image type information storage means for storing the feature amount of the image data in association with a predetermined image type whose type is classified according to the difference in the feature amount;
Feature quantity detection means for detecting the feature quantity of the input image data input;
For the input image data, an image type designation unit for newly designating an image type that is not stored in the image type information storage unit;
A registered image type information storage unit that stores the feature amount of the input image data in association with the image type newly specified by the image type specifying unit;
A determination unit that determines whether or not an image type corresponding to a feature amount of the input image data detected by the feature amount detection unit is stored in the image type information storage unit;
If the determination means determines that the image type is stored in the image type information storage means, the image type information storage means is referred to and the image type is stored in the image type information storage means. If it is determined that the reference image type information storage means is referred,
Image type determining means for determining an image type corresponding to a feature amount of the input image data from among the image types stored in the image type information storing means or the registered image type information storing means referred to by the referring means. When,
An image processing apparatus comprising: image processing means for performing image processing on the input image data based on the image type of the input image data determined by the image type determining means.
前記画像種別は、少なくとも、文書、グラフィックチャート、自然画、人物画または夜景のいずれかの種別を含み、前記画像種別指定手段は、前記画像処理手段に、前記入力画像データに対して前記各画像種別ごとの画像処理をそれぞれ行わせ、その結果から、任意の画像種別を指定可能としたことを特徴とする請求項1に記載の画像処理装置。   The image type includes at least one of a document, a graphic chart, a natural image, a portrait, and a night view, and the image type designation unit sends the image processing unit to the image processing unit with respect to the input image data. The image processing apparatus according to claim 1, wherein image processing for each type is performed, and an arbitrary image type can be designated based on the result. 前記画像処理手段が前記入力画像データの画像種別に基づき行う画像処理は、少なくとも、エッジ強調、平滑化、ホワイトバランス調整、または彩度調整のいずれかの処理を含むことを特徴とする請求項1または2に記載の画像処理装置。   2. The image processing performed by the image processing unit based on the image type of the input image data includes at least one of edge enhancement, smoothing, white balance adjustment, and saturation adjustment. Or the image processing apparatus of 2. 前記画像種別決定手段による前記入力画像データの画像種別の決定後に、決定された前記画像種別とは異なる新たな画像種別を作成するための画像種別作成手段を備え、
前記登録画像種別情報記憶手段は、前記入力画像データの特徴量と、前記画像種別作成手段によって新たに作成された画像種別とを対応付けて記憶することを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
An image type creating means for creating a new image type different from the determined image type after the determination of the image type of the input image data by the image type determining means;
4. The registered image type information storage unit stores the feature amount of the input image data and the image type newly created by the image type creation unit in association with each other. An image processing apparatus according to claim 1.
前記画像種別作成手段は、
前記入力画像データに対して行う画像処理のパラメータを決定するためのパラメータ決定手段と、
前記パラメータ決定手段によって決定された前記パラメータに基づく画像処理を、前記画像処理手段が前記入力画像データに対して行うように制御する画像処理制御手段と、
前記画像処理制御手段が前記入力画像データに対して行った画像処理の結果を記憶する処理画像データ記憶手段と、
あらかじめ決められた、前記パラメータ決定手段が決定可能なパラメータの範囲内の全パラメータに基づく画像処理を、前記画像処理制御手段が行ったか否かを判断する全パラメータ範囲画像処理終了判断手段と、
前記全パラメータ範囲画像処理終了判断手段によって、全パラメータに基づく画像処理を前記画像処理制御手段が行っていないと判断された場合、前記パラメータ決定手段に前記決定されたパラメータとは異なるパラメータを決定させ、前記画像処理制御手段に前記決定された異なるパラメータに基づく画像処理を行わせ、前記処理画像データ記憶手段に前記異なるパラメータに基づいて行われた画像処理の結果を記憶させるように制御する画像処理継続制御手段と、
前記全パラメータ範囲画像処理終了判断手段によって、全パラメータに基づく画像処理を前記画像処理制御手段が行ったと判断された場合、前記処理画像データ記憶手段に記憶された前記画像処理の結果を処理画像として一覧表示する処理画像一覧表示手段と、
前記処理画像一覧表示手段によって表示された前記処理画像の中から任意の処理画像を選択可能とするための任意画像選択手段と
を備え、
前記任意画像選択手段によって選択された前記任意の処理画像に行われた画像処理の内容を、前記入力画像データの特徴量に対応付けるための新たな画像種別として作成することを特徴とする請求項4に記載の画像処理装置。
The image type creation means includes
Parameter determining means for determining parameters of image processing performed on the input image data;
Image processing control means for controlling the image processing means to perform image processing on the input image data based on the parameters determined by the parameter determination means;
Processed image data storage means for storing results of image processing performed on the input image data by the image processing control means;
All parameter range image processing end determination means for determining whether or not the image processing control means has performed image processing based on all parameters within a range of parameters that can be determined by the parameter determination means;
If the image processing control unit determines that the image processing control unit is not performing image processing based on all parameters by the all parameter range image processing end determining unit, the parameter determining unit determines a parameter different from the determined parameter. Image processing for controlling the image processing control means to perform image processing based on the determined different parameters and to store the result of the image processing performed based on the different parameters in the processed image data storage means Continuous control means;
When it is determined by the all parameter range image processing end determination means that the image processing control means has performed image processing based on all parameters, the result of the image processing stored in the processed image data storage means is used as a processed image. Processing image list display means for displaying a list;
Arbitrary image selection means for making it possible to select an arbitrary processed image from the processed images displayed by the processed image list display means,
5. The content of the image processing performed on the arbitrary processed image selected by the arbitrary image selecting unit is created as a new image type for associating with the feature amount of the input image data. An image processing apparatus according to 1.
前記画像種別決定手段は、前記登録画像種別情報記憶手段を参照し、前記入力画像データの特徴量に対応した画像種別が記憶されていなければ、前記画像種別情報記憶手段を参照し、前記入力画像データの特徴量に対応した画像種別の決定を行うことを特徴とする請求項1乃至5のいずれかに記載の画像処理装置。   The image type determining unit refers to the registered image type information storage unit, and if the image type corresponding to the feature amount of the input image data is not stored, refers to the image type information storage unit and the input image 6. The image processing apparatus according to claim 1, wherein an image type corresponding to a feature amount of data is determined. 被読取媒体上に形成された画像の読み取りを行う画像読取手段と、
前記画像読取手段によって読み取られた前記被読取媒体の画像データを入力画像データとし、その入力画像データに対する画像処理を行う請求項1乃至6のいずれかに記載の画像処理装置と、
前記画像処理装置によって処理された前記被読取媒体の画像データに基づいて、被記録媒体上に画像の形成を行う画像形成手段と
を備えたことを特徴とする複写機。
Image reading means for reading an image formed on the read medium;
The image processing apparatus according to claim 1, wherein the image data of the read medium read by the image reading unit is set as input image data, and image processing is performed on the input image data.
An image forming unit configured to form an image on a recording medium based on image data of the medium to be read processed by the image processing apparatus.
JP2003308356A 2003-09-01 2003-09-01 Image processing apparatus and copying machine with same Pending JP2005079940A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003308356A JP2005079940A (en) 2003-09-01 2003-09-01 Image processing apparatus and copying machine with same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003308356A JP2005079940A (en) 2003-09-01 2003-09-01 Image processing apparatus and copying machine with same

Publications (1)

Publication Number Publication Date
JP2005079940A true JP2005079940A (en) 2005-03-24

Family

ID=34410851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003308356A Pending JP2005079940A (en) 2003-09-01 2003-09-01 Image processing apparatus and copying machine with same

Country Status (1)

Country Link
JP (1) JP2005079940A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277275A (en) * 2005-03-29 2006-10-12 Seiko Epson Corp Image processor, printer, image processing method and image processing program
JP2009010819A (en) * 2007-06-29 2009-01-15 Sony Corp Image discriminating apparatus and method, and program
US7869630B2 (en) 2005-03-29 2011-01-11 Seiko Epson Corporation Apparatus and method for processing image
CN114615388A (en) * 2021-03-11 2022-06-10 京瓷办公信息系统株式会社 Image forming apparatus with a toner supply device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277275A (en) * 2005-03-29 2006-10-12 Seiko Epson Corp Image processor, printer, image processing method and image processing program
US7869630B2 (en) 2005-03-29 2011-01-11 Seiko Epson Corporation Apparatus and method for processing image
JP2009010819A (en) * 2007-06-29 2009-01-15 Sony Corp Image discriminating apparatus and method, and program
CN114615388A (en) * 2021-03-11 2022-06-10 京瓷办公信息系统株式会社 Image forming apparatus with a toner supply device

Similar Documents

Publication Publication Date Title
JP4878572B2 (en) Image processing apparatus and image processing method
JP4881902B2 (en) Image forming apparatus, image forming method, and image forming program
US8724194B2 (en) Image processing apparatus executing color correction on image data
US6222949B1 (en) Image forming apparatus that can make desired continuous enlargement copy
JP3641041B2 (en) Image data output method and image data output device
JP2002112022A (en) Image formation device, image formation method, and recording medium capable of reading computer recording image formation program
JP6338554B2 (en) Image processing apparatus, image processing method, and program
JP4106635B2 (en) Image processing device
JP4930423B2 (en) Image processing apparatus, image forming apparatus, image processing apparatus control method, and image processing apparatus control program
JP4237165B2 (en) Image processing apparatus and image forming apparatus
JP2006203584A (en) Image processor and program
JP7034742B2 (en) Image forming device, its method and program
JP2005079940A (en) Image processing apparatus and copying machine with same
JP2009128396A (en) Image forming apparatus, image forming method and image forming program
JP6087334B2 (en) Image processing apparatus and image forming apparatus
JP6590991B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2007088741A (en) Image processing apparatus and image processing method
WO2000054492A1 (en) Image data correcting device, image data correcting method, medium on which image data correcting program is recorded
JP2005094397A (en) Image forming device
JP2000253250A (en) Picture data ground judging method, device therefor and medium recording picture data ground control program
JP6933938B2 (en) Image processing device, image forming device, control program and control method
JP2005079750A (en) Image forming apparatus
JP2005101726A (en) Image processor, image reader, image forming apparatus, image processing method and program
JP2006203583A (en) Image processing apparatus and program
JP2009081631A (en) Image processing apparatus, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080805