JP5022979B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5022979B2
JP5022979B2 JP2008109312A JP2008109312A JP5022979B2 JP 5022979 B2 JP5022979 B2 JP 5022979B2 JP 2008109312 A JP2008109312 A JP 2008109312A JP 2008109312 A JP2008109312 A JP 2008109312A JP 5022979 B2 JP5022979 B2 JP 5022979B2
Authority
JP
Japan
Prior art keywords
image data
processing
processing content
period
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008109312A
Other languages
Japanese (ja)
Other versions
JP2009037592A (en
Inventor
広文 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008109312A priority Critical patent/JP5022979B2/en
Priority to US12/213,581 priority patent/US8244039B2/en
Priority to CN2008101280432A priority patent/CN101344964B/en
Publication of JP2009037592A publication Critical patent/JP2009037592A/en
Application granted granted Critical
Publication of JP5022979B2 publication Critical patent/JP5022979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データに適切な画像処理を施す画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for performing appropriate image processing on image data.

従来、カラースキャナやデジタルカメラの普及により、例えばデジタルカメラで撮影した画像データを印刷装置において出力するなど、画像データの入力装置と出力装置が異なる場合がある。出力装置においては、例えば背景色の補正など画像データの特徴に応じた補正を行った後に画像データを出力するが、前述のように、入力装置と出力装置とが異なる場合には、画像の特徴を特定するのが困難な場合がある。   Conventionally, with the widespread use of color scanners and digital cameras, image data input devices and output devices may be different, for example, image data captured by a digital camera is output by a printing device. In the output device, for example, the image data is output after performing correction according to the feature of the image data such as correction of the background color. As described above, when the input device and the output device are different, the feature of the image is output. It may be difficult to identify.

このような問題を解決するものとして、各画像データに適切な画像処理を施す画像処理装置が知られている(例えば、「特許文献1」参照)。この装置においては、例えばスキャナなどの画像機器より入力されたカラー文書画像データに対して、様々な用途に最適な画像データを生成するためのデータの管理や手続きを行うべく、処理のUndo(取消)やRedo(やり直し)などの処理履歴や状態を管理する。また、画像処理の状態の遷移を出力することにより、ユーザに状態の遷移を視覚的、直感的に把握させる画像処理装置が開示されている(例えば、「特許文献2」参照)。   In order to solve such a problem, an image processing apparatus that performs appropriate image processing on each image data is known (see, for example, “Patent Document 1”). In this apparatus, for example, undo (cancel) processing is performed on color document image data input from an image device such as a scanner in order to perform data management and procedures for generating image data optimal for various applications. ) And Redo (redo) process history and status. In addition, an image processing apparatus is disclosed that allows the user to visually and intuitively grasp the state transition by outputting the state transition of the image processing (see, for example, “Patent Document 2”).

特開2006−053690号公報JP 2006-053690 A 特開2006−074331号公報JP 2006-074331 A

しかしながら、画像処理の対象となる画像データの種類だけでなく、ユーザの嗜好や画像データの利用目的なども多様化してきている。例えば、地肌処理としては、地肌の色によらず白にする地肌除去および原本の色を保持したまま汚れや裏写りを取り除く地肌クリーニングがある。いずれを選択するかは、ユーザの嗜好による。しかし、画像処理の内容やそのパラメータ等を逐一ユーザに選択させる構成とした場合には、ユーザの操作が煩雑になるとともに、作業効率も低下するという問題がある。   However, not only the types of image data to be subjected to image processing, but also user preferences and purposes of using image data have been diversified. For example, the background treatment includes removal of the background to make it white regardless of the color of the background, and background cleaning to remove dirt and show-through while maintaining the original color. Which one to select depends on the user's preference. However, when the configuration is such that the user selects the contents of the image processing and its parameters one by one, there are problems that the user's operation becomes complicated and the work efficiency also decreases.

本発明は、上記に鑑みてなされたものであって、簡単な操作によりユーザが希望する画像処理を施すことのできる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide an image processing apparatus, an image processing method, and an image processing program capable of performing image processing desired by a user with a simple operation.

上述した課題を解決し、目的を達成するために、発明の画像処理装置は、第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段と、処理対象となる対象画像データに対する前記処理内容の指定を受け付ける指定受付手段と、前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出する変化検出手段と、処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新する更新手段と、前記対象画像データを取得する画像データ取得手段と、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得する処理内容取得手段と、取得された前記処理内容を出力する処理内容出力手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes a history holding unit that holds a combination of image data and processing contents for the image data in a first period , A designation accepting unit that accepts designation of the processing content for the target image data, a first period, and a second period during which processing is performed on image data similar to the image data in the first period. With respect to the processing content for the specified target image data, change detecting means for detecting whether there is a change from the processing content for the similar image data held in the history holding means, and a change in the processing content is detected. in this case, a set of the feature amount and the processing content of the image data in the first time period held in the history holding means, said second period Kicking and updating means for updating the set of the processing content and the feature amount, the image data acquisition means for acquiring the target image data, by using a combination of the history holding means held image data and process content The processing content acquisition means for acquiring the processing content for the target image data, and the processing content output means for outputting the acquired processing content.

また、発明は、上記の画像処理装置において、前記処理内容取得手段は、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、任意の特徴量から前記処理内容の予測に用いられる予測関数を作成する予測関数作成手段と、前記対象画像データの特徴量を算出する特徴量算出手段と、を備え、前記特徴量算出手段により算出された前記特徴量と、前記予測関数作成手段により作成された前記予測関数とに基づいて、前記対象画像データに対する前記処理内容を取得する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, the processing content acquisition means, by using the combination of the processing contents of the image data held in said history holding means, the processing content from any of the feature A prediction function creating unit that creates a prediction function used for prediction; and a feature amount calculating unit that calculates a feature amount of the target image data. The feature amount calculated by the feature amount calculating unit, and the prediction The processing content for the target image data is acquired based on the prediction function created by a function creation means.

また、発明は、上記の画像処理装置において、前記予測関数作成手段は、前記特徴量と前記処理内容との組み合わせに対する予測誤差が最小となるような予測関数を作成する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, the prediction function creating means, the prediction error for the combination of the processing content and the feature amount creating a prediction function that minimizes, characterized in that .

また、発明は、上記の画像処理装置において、前記予測関数作成手段は、前記特徴量のうち、前記処理内容の予測への寄与の程度が他の特徴量に比べて大きい特徴量を特定し、当該特徴量に対する重みが他の特徴量に対する重みに比べて大きくなるような前記予測関数を作成する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, the prediction function creating means, among the feature amounts, the degree of contribution to the prediction of the processing contents to identify a large feature quantity than the other feature amounts The prediction function is created such that a weight for the feature amount is larger than a weight for another feature amount.

また、発明は、上記の画像処理装置において、前記予測関数作成手段は、前記特徴量と前記処理内容の組み合わせのうち、前記処理内容の予測への寄与の程度が他の組み合わせに比べて大きい組み合わせを特定し、当該組み合わせに対する重みが他の組み合わせに比べて大きくなるような前記予測関数を作成する、ことを特徴とする。 Further, according to the present invention, in the above image processing apparatus, the prediction function creating means has a greater degree of contribution to prediction of the processing content among the combinations of the feature amount and the processing content than other combinations. A combination is specified, and the prediction function is created so that a weight for the combination is larger than other combinations.

また、発明は、上記の画像処理装置において、前記予測関数作成手段は、重みつき距離の学習を取り入れた最近傍法により前記予測関数を作成する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, the prediction function creating means creates the prediction function by nearest neighbor method incorporating learning weighted distance, characterized in that.

また、発明は、上記の画像処理装置において、前記予測関数作成手段は、最急降下法により前記予測関数を作成する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, the prediction function creating means creates the prediction function in accordance with the steepest descent method, it is characterized.

また、発明は、上記の画像処理装置において、前記変化検出手段は、前記第2の期間が経過したときに、前記変化の有無を検出する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, wherein said change detecting means, when said second period of time, to detect the presence or absence of said change, characterized in that.

また、発明は、上記の画像処理装置において、前記第2の期間とは、所定の数の画像データと処理内容の組み合わせが登録される期間である、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, wherein said a second period, a period in which a combination of processing contents and a predetermined number of image data is registered, characterized in that.

また、発明は、上記の画像処理装置において、前記第2の期間とは、所定の時間である、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, wherein said a second time period is a predetermined time, characterized in that.

また、発明は、上記の画像処理装置において、前記処理内容予測手段により予測された前記処理内容にしたがい画像処理を行う画像処理手段と、前記画像処理手段による処理結果を出力する出力手段と、をさらに備えたことを特徴とする。 According to the present invention, in the above image processing apparatus, an image processing unit that performs image processing according to the processing content predicted by the processing content prediction unit, an output unit that outputs a processing result by the image processing unit, Is further provided.

また、発明は、上記の画像処理装置において、前記履歴保持手段は、前記画像データと当該画像データに対する処理内容との組み合わせを、ユーザ毎に保持する、ことを特徴とする。 Further, the present invention is an image processing apparatus described above, wherein said history holding means, a combination of the processing content for the image data and the image data is stored for each user, characterized in that.

また、発明の画像処理方法は、画像処理装置で実行される画像処理方法であって、前記画像処理装置は、制御部と記憶部を備え、前記記憶部は、第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段を備え、前記制御部において実行される、指定受付手段が、処理対象となる対象画像データに対する前記処理内容の指定を受け付けるステップと、変化検出手段が、前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出するステップと、更新手段が、処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新するステップと、画像データ取得手段が、前記対象画像データを取得するステップと、処理内容取得手段が、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得するステップと、処理内容出力手段が、取得された前記処理内容を出力するステップと、を含むことを特徴とする。 The image processing method of the present invention is an image processing method executed by an image processing apparatus, and the image processing apparatus includes a control unit and a storage unit, and the storage unit stores image data in a first period. And a history holding means for holding a combination of the processing content for the image data and a step of receiving a designation of the processing content for the target image data to be processed , executed by the control unit ; change detecting means, said first period, between said first second period for performing processing for the image data similar to the image data of the period for the processing content for the specified the target image data a step of detecting the presence or absence of a change from the processing content for the image data similar held in said history holding means, updating means, a change in processing contents When detected, a set of the feature amount and the processing content of the image data in the first time period held in the history holding means, and the processing content as the feature amount in the second period and updating the set, the image data acquisition unit, acquiring the target image data, processing content acquisition means, by using a combination of the held image data and the processing contents in the history holding means The processing content for the target image data is acquired, and the processing content output means outputs the acquired processing content.

また、発明のプログラムは、第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段を備えたコンピュータを、処理対象となる対象画像データに対する前記処理内容の指定を受け付ける指定受付手段と、前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出する変化検出手段と、処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新する更新手段と、前記対象画像データを取得する画像データ取得手段と、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得する処理内容取得手段と、取得された前記処理内容を出力する処理内容出力手段と、として機能させることを特徴とする。 Further, the program of the present invention designates the processing contents for the target image data to be processed by using a computer having history holding means for holding a combination of the image data in the first period and the processing contents for the image data. The processing for the specified target image data between the specification receiving means for receiving the image data, the first period, and the second period for processing the image data similar to the image data of the first period Regarding the contents, a change detecting means for detecting whether or not the similar image data held in the history holding means has changed from the processing contents, and when a change in the processing contents is detected, held in the history holding means It has been a set of the feature amount and the processing content of the image data in the first period, the features and the front in the second period And updating means for updating the set of the processing contents, by using an image data acquisition means for acquiring the target image data, the combination of the processing contents of the image data held in said history holding means, the target image data It is made to function as a processing content acquisition means which acquires the processing content with respect to, and a processing content output means which outputs the acquired said processing content.

発明によれば、第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段を有し、処理対象となる対象画像データに対する処理内容の指定を受け付けて、第1の期間と、第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された対象画像データに対する処理内容について、履歴保持手段に保持された類似する画像データに対する処理内容からの変化の有無が検出された場合には、履歴保持手段に保持された第1の期間における画像データと処理内容との組を、第2の期間における画像データと処理内容との組に更新し、履歴保持手段に保持された画像データと処理内容との組み合わせを利用して対象画像データに対する処理内容を取得し、取得された処理内容を出力するので、ユーザは、所望の処理内容が表示された場合には、これを選択するだけで、所望の画像処理を施すことができる。したがって、煩雑な操作を行うことなく、簡単な操作によりユーザが希望する画像処理を施すことができるという効果を奏する。また、履歴保持手段が、画像データと指定受付手段が指定を受け付けた処理内容とを対応付けて保持するので、各ユーザに適した履歴を保持することができ、ユーザに適した処理内容を予測することができるという効果を奏する。 According to the present invention, there is a history holding unit that holds a combination of the image data in the first period and the processing contents for the image data, and the designation of the processing contents for the target image data to be processed is received . Between the first period and the second period during which processing is performed on image data similar to the image data in the first period, the processing content for the specified target image data is similar to that held in the history holding unit. When the presence / absence of change from the processing content to the image data is detected, the set of the image data and the processing content in the first period held in the history holding unit is set as the image data and the processing content in the second period. And the processing content for the target image data is acquired by using the combination of the image data and processing content held in the history holding means. Since outputs the processing content, the user, when the desired processing contents is displayed, only selected, it can be subjected to desired image processing. Therefore, the image processing desired by the user can be performed by a simple operation without performing a complicated operation. Further, since the history holding unit holds the image data and the processing contents received by the designation receiving unit in association with each other, the history suitable for each user can be held, and the processing content suitable for the user can be predicted. There is an effect that can be done.

また、発明によれば、処理内容取得手段は、履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、任意の特徴量から処理内容の予測に用いられる予測関数を作成する予測関数作成手段と、対象画像データの特徴量を算出する特徴量算出手段と、を備え、特徴量算出手段により算出された特徴量と、予測関数作成手段により作成された予測関数とに基づいて、対象画像データに対する処理内容を取得するので、処理内容の取得を自動的に行うことができる、という効果を奏する。 Further, according to the present invention, the processing content acquisition unit creates a prediction function used for prediction of processing content from an arbitrary feature amount using a combination of image data and processing content held in the history holding unit. A prediction function creating unit that calculates the feature amount of the target image data, and a feature amount calculated by the feature amount calculating unit and a prediction function created by the prediction function creating unit Thus, since the processing content for the target image data is acquired, the processing content can be automatically acquired.

また、発明によれば、予測関数作成手段は、特徴量と処理内容との組み合わせに対する予測誤差が最小となるような予測関数を作成するので、精度よく予測関数を作成することができるという効果を奏する。 In addition, according to the present invention, the prediction function creating means creates a prediction function that minimizes the prediction error with respect to the combination of the feature quantity and the processing content, so that the prediction function can be created with high accuracy. Play.

また、発明によれば、予測関数作成手段は、特徴量のうち、処理内容の予測への寄与の程度が他の特徴量に比べて大きい特徴量を特定し、当該特徴量に対する重みが他の特徴量に対する重みに比べて大きくなるような予測関数を作成するので、精度よく予測関数を作成することができるという効果を奏する。 In addition, according to the present invention, the prediction function creating means identifies a feature amount that has a greater degree of contribution to the prediction of the processing content than the other feature amounts, and the weight for the feature amount is other than the feature amount. Since a prediction function that is larger than the weight for the feature amount is created, there is an effect that the prediction function can be created with high accuracy.

また、発明によれば、予測関数作成手段は、特徴量と処理内容の組み合わせのうち、処理内容の予測への寄与の程度が他の組み合わせに比べて大きい組み合わせを特定し、当該組み合わせに対する重みが他の組み合わせに比べて大きくなるような予測関数を作成するので、精度よく予測関数を作成することができるという効果を奏する。 In addition, according to the present invention, the prediction function creating means identifies a combination that has a greater degree of contribution to the prediction of the processing content than the other combinations from among the combination of the feature amount and the processing content, and weights for the combination Since a prediction function is generated such that becomes larger than other combinations, the effect of being able to create a prediction function with high accuracy is achieved.

また、発明によれば、予測関数作成手段は、重みつき距離の学習を取り入れた最近傍法により予測関数を作成するので、精度よく予測関数を作成することができるという効果を奏する。 Further, according to the present invention, the prediction function creating means creates the prediction function by the nearest neighbor method incorporating weighted distance learning, so that it is possible to create the prediction function with high accuracy.

また、発明によれば、予測関数作成手段は、最急降下法により予測関数を作成するので、精度よく予測関数を作成することができるという効果を奏する。 Further, according to the present invention, the prediction function creating means creates the prediction function by the steepest descent method, so that it is possible to create the prediction function with high accuracy.

また、発明によれば、変化検出手段は、第2の期間が経過したときに、変化の有無を検出するので、定期的に予測関数を更新することができるという効果を奏する。 Further, according to the present invention, since the change detection unit detects the presence or absence of the change when the second period has elapsed, there is an effect that the prediction function can be updated periodically.

また、発明によれば、第2の期間とは、所定の数の画像データと処理内容の組み合わせが登録される期間であるので、適切なタイミングで予測関数を更新することができるという効果を奏する。 Further, according to the present invention, the second period is a period in which a combination of a predetermined number of image data and processing contents is registered, so that the prediction function can be updated at an appropriate timing. Play.

また、発明によれば、第2の期間とは、所定の時間であるので、適切なタイミングで予測関数を更新することができるという効果を奏する。 Further, according to the present invention, since the second period is a predetermined time, there is an effect that the prediction function can be updated at an appropriate timing.

また、発明によれば、画像処理手段が、処理内容予測手段により予測された処理内容にしたがい画像処理を行い、出力手段が、画像処理手段による処理結果を出力するので、ユーザは、予測された処理内容による画像処理結果を閲覧することができるという効果を奏する。 According to the present invention, the image processing means performs image processing according to the processing content predicted by the processing content prediction means, and the output means outputs the processing result by the image processing means. There is an effect that it is possible to view the image processing result according to the processed content.

また、発明によれば、履歴保持手段は、画像データと当該画像データに対する処理内容との組み合わせを、ユーザ毎に保持するので、ユーザ毎に対象画像データに対する処理内容を予測し、予測された処理内容を出力することができるという効果を奏する。 Further, according to the present invention, since the history holding unit holds the combination of the image data and the processing content for the image data for each user, the processing content for the target image data is predicted and predicted for each user. There is an effect that the processing contents can be output.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法およびプログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and a program according to the present invention are explained in detail below with reference to the accompanying drawings.

(第1の実施の形態)
図1は、本発明の第1の実施の形態にかかる画像処理装置1の電気的な接続を示すブロック図である。図1に示すように、画像処理装置1は、PC(Personal Computer)などのコンピュータであり、画像処理装置1の各部を集中的に制御するCPU(Central Processing Unit)2、情報を格納するROM(Read Only Memory)3及びRAM(Random Access Memory)4等の一次記憶装置5、データファイル(例えば、カラービットマップ画像データ)を記憶する記憶部であるHDD(Hard Disk Drive)7等の二次記憶装置6、情報を保管したり外部に情報を配布したり外部から情報を入手するためのCD−ROMドライブ等のリムーバブルディスク装置8、ネットワーク9を介して外部の他のコンピュータと通信により情報を伝達するためのネットワークインターフェース10、処理経過や結果等を操作者に表示するCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等の表示装置11、並びに操作者がCPU2に命令や情報等を入力するためのキーボード12、マウス等のポインティングデバイス13等から構成されており、これらの各部間で送受信されるデータをデータバス14が調停して動作する。
(First embodiment)
FIG. 1 is a block diagram showing electrical connections of the image processing apparatus 1 according to the first embodiment of the present invention. As shown in FIG. 1, an image processing apparatus 1 is a computer such as a PC (Personal Computer), and includes a CPU (Central Processing Unit) 2 that centrally controls each unit of the image processing apparatus 1 and a ROM ( Secondary storage such as primary storage device 5 such as Read Only Memory (RAM) 3 and RAM (Random Access Memory) 4 and HDD (Hard Disk Drive) 7 as a storage unit for storing data files (for example, color bitmap image data). Information is transmitted by communication with other external computers via the network 6, a removable disk device 8 such as a CD-ROM drive for storing information, distributing information to the outside, and obtaining information from the outside, and a network 9. Network interface 10, CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), etc. for displaying the process progress and results to the operator The display device 11 and a keyboard 12 for an operator to input commands and information to the CPU 2, a pointing device 13 such as a mouse, and the like. The data bus 14 arbitrates data transmitted and received between these components. Works.

なお、本実施の形態においては、画像処理装置1として一般的なパーソナルコンピュータを適用して説明しているが、これに限るものではなく、PDA(Personal Digital Assistants)と称される携帯用情報端末、palmTopPC、携帯電話、PHS(Personal Handyphone System)等であっても良い。   In the present embodiment, a general personal computer is applied as the image processing apparatus 1. However, the present invention is not limited to this, and a portable information terminal called PDA (Personal Digital Assistants). , PalmTopPC, mobile phone, PHS (Personal Handyphone System), etc.

このような画像処理装置1では、ユーザが電源を投入するとCPU2がROM3内のローダーというプログラムを起動させ、HDD6よりオペレーティングシステムというコンピュータのハードウェアとソフトウェアとを管理するプログラムをRAM4に読み込み、このオペレーティングシステムを起動させる。このようなオペレーティングシステムは、ユーザの操作に応じてプログラムを起動したり、情報を読み込んだり、保存を行ったりする。オペレーティングシステムのうち代表的なものとしては、Windows(登録商標)、UNIX(登録商標)等が知られている。これらのオペレーティングシステム上で走る動作プログラムをアプリケーションプログラムと呼んでいる。   In such an image processing apparatus 1, when the user turns on the power, the CPU 2 activates a program called a loader in the ROM 3, loads a program for managing the hardware and software of the computer called the operating system from the HDD 6 into the RAM 4, and Start the system. Such an operating system starts a program, reads information, and performs storage according to a user operation. As typical operating systems, Windows (registered trademark), UNIX (registered trademark), and the like are known. An operation program running on these operating systems is called an application program.

ここで、画像処理装置1は、アプリケーションプログラムとして、画像処理プログラムをHDD6に記憶している。この意味で、HDD6は、画像処理プログラムを記憶する記憶媒体として機能する。   Here, the image processing apparatus 1 stores an image processing program in the HDD 6 as an application program. In this sense, the HDD 6 functions as a storage medium that stores the image processing program.

また、一般的には、画像処理装置1のHDD6等の二次記憶装置7にインストールされるアプリケーションプログラムは、CD−ROMやDVD−ROM等の光情報記録メディアやFD等の磁気メディア等の記憶媒体8aに記録され、この記憶媒体8aに記録されたアプリケーションプログラムがHDD6等の二次記憶装置7にインストールされる。このため、CD−ROM等の光情報記録メディアやFD等の磁気メディア等の可搬性を有する記憶媒体8aも、画像処理プログラムを記憶する記憶媒体となり得る。さらには、画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、例えばネットワークインターフェース10を介して外部からダウンロードさせることにより、HDD6等の二次記憶装置7にインストールするように構成しても良い。また、本実施の形態の画像処理装置1で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   In general, the application program installed in the secondary storage device 7 such as the HDD 6 of the image processing apparatus 1 is stored in an optical information recording medium such as a CD-ROM or DVD-ROM, or a magnetic medium such as an FD. The application program recorded on the medium 8 a and recorded on the storage medium 8 a is installed in the secondary storage device 7 such as the HDD 6. Therefore, the portable storage medium 8a such as an optical information recording medium such as a CD-ROM or a magnetic medium such as an FD can also be a storage medium for storing an image processing program. Further, the image processing program is stored on a computer connected to a network such as the Internet, and is installed in the secondary storage device 7 such as the HDD 6 by being downloaded from the outside via the network interface 10, for example. You may do it. The image processing program executed by the image processing apparatus 1 according to the present embodiment may be provided or distributed via a network such as the Internet.

画像処理装置1は、オペレーティングシステム上で動作する画像処理プログラムが起動すると、この画像処理プログラムに従い、CPU2が各種の演算処理を実行して各部を集中的に制御する。画像処理装置1のCPU2が実行する各種の演算処理のうち、本実施の形態の特長的な処理である画像データの蓄積/送信の際の正規化処理について以下に説明する。ここで、正規化処理とは、画像処理装置1に接続された外部機器(例えば、スキャナやデジタルカメラなど)やネットワーク9を通じて受け付けたデジタル画像データを理想的な形に変換するための処理である。   In the image processing apparatus 1, when an image processing program that operates on an operating system is started, the CPU 2 executes various arithmetic processes according to the image processing program and centrally controls each unit. Of various types of arithmetic processing executed by the CPU 2 of the image processing apparatus 1, normalization processing at the time of image data accumulation / transmission, which is a characteristic processing of the present embodiment, will be described below. Here, the normalization process is a process for converting digital image data received through an external device (for example, a scanner or a digital camera) connected to the image processing apparatus 1 or the network 9 into an ideal form. .

なお、リアルタイム性が重要視される場合には、処理を高速化する必要がある。そのためには、論理回路(図示せず)を別途設け、論理回路の動作により各種の演算処理を実行するようにするのが望ましい。   In addition, when real-time property is regarded as important, it is necessary to speed up the processing. For this purpose, it is desirable to separately provide a logic circuit (not shown) and execute various arithmetic processes by the operation of the logic circuit.

ここで、画像処理装置1のCPU2が実行する画像処理について説明する。図2は、画像処理装置1のCPU2が実行する画像処理にかかる機能を示す機能ブロック図である。画像処理装置1は、機能構成として、画像データ取得部100と、特徴量算出部102と、指定受付部104と、履歴データベース(DB)110と、予測関数作成部120と、処理内容予測部(処理内容取得部)122と、処理内容出力部124と、画像処理部126と、変化検出部130と、更新部132とを備えている。   Here, image processing executed by the CPU 2 of the image processing apparatus 1 will be described. FIG. 2 is a functional block diagram illustrating functions related to image processing executed by the CPU 2 of the image processing apparatus 1. The image processing apparatus 1 includes an image data acquisition unit 100, a feature amount calculation unit 102, a designation reception unit 104, a history database (DB) 110, a prediction function creation unit 120, a processing content prediction unit ( Processing content acquisition unit) 122, processing content output unit 124, image processing unit 126, change detection unit 130, and update unit 132.

画像データ取得部100は、画像データを取得する。さらに、入力された画像データが文書に関するものである場合には、文書の傾きの補正、すなわちスキュー補正を施す。   The image data acquisition unit 100 acquires image data. Further, when the input image data is related to a document, the tilt of the document, that is, skew correction is performed.

特徴量算出部102は、画像データ全体における特徴量を算出する。ここで、特徴量としては、画像全体における文字の割合や、画像全体における絵の割合、文字と絵の散乱度、レイアウト密度などの統計情報がある。また、文字や絵の空間分布、色やエッジの分布および地肌色などがある。   The feature amount calculation unit 102 calculates a feature amount in the entire image data. Here, the feature amount includes statistical information such as the ratio of characters in the entire image, the ratio of pictures in the entire image, the degree of scattering between characters and pictures, and the layout density. In addition, there are a spatial distribution of characters and pictures, a distribution of colors and edges, and a background color.

指定受付部104は、特徴量算出部102が取得した画像データに対して施すべき処理内容の指定を受け付ける。なお、処理内容の指定は、ユーザからの入力により行われる。処理内容には、処理の種類と、そのパラメータ等が含まれている。処理の種類としては、例えば、地肌色補正処理、空間フィルタ処理および解像度拡大処理などがある。   The designation receiving unit 104 receives a designation of processing content to be performed on the image data acquired by the feature amount calculating unit 102. The processing content is designated by an input from the user. The processing content includes the type of processing and its parameters. Examples of the processing type include a background color correction process, a spatial filter process, and a resolution enlargement process.

地肌色補正処理としては、地肌色を除く地肌除去、地肌の色を補正する地肌クリーニングがある。地肌除去については、特開2004−320701号公報や特開2005−110184号公報に記載されている。ここで、アルゴリズムやパラメータの集合をAとすると、地肌色補正処理は、以下のように定義される。   As the background color correction processing, there are background removal excluding the background color and background cleaning for correcting the background color. Background removal is described in Japanese Patent Application Laid-Open Nos. 2004-320701 and 2005-110184. Here, assuming that a set of algorithms and parameters is A, the background color correction process is defined as follows.

A={地肌除去、地肌クリーニング、何もしない}       A = {Skin removal, skin cleaning, do nothing}

空間フィルタ処理としては、処理対象画像の全面に平滑化処理、エッジ強調処理、適応フィルタリングがある。ここで、適応フィルタリングとは、画素ごとに異なる処理を行うものである。詳細については、特開2003−281526号公報に記載されている。空間フィルタ処理は、以下のように定義される。   Spatial filter processing includes smoothing processing, edge enhancement processing, and adaptive filtering over the entire processing target image. Here, adaptive filtering performs different processing for each pixel. Details are described in JP-A No. 2003-281526. Spatial filtering is defined as follows.

A={平滑化処理、エッジ強調処理、適応的フィルタリング、何もしない}       A = {smoothing process, edge enhancement process, adaptive filtering, nothing}

解像度拡大処理としては、例えば、特開2005−063055号公報に記載されているような文字の解像度を拡大するような処理、通常の画像補間がある。解像度拡大処理は、以下のように定義される。   Examples of the resolution enlarging process include a process for enlarging the resolution of characters as described in Japanese Patent Application Laid-Open No. 2005-063055, and normal image interpolation. The resolution enlargement process is defined as follows.

A={文字解像度拡大、画像補間、何もしない}       A = {Character resolution enlargement, image interpolation, do nothing}

履歴DB110は、所定の画像データに対して、特徴量算出部102により得られた特徴量と、同一の画像データに対してユーザから指定された処理内容とを対応付けてユーザ毎に(ユーザIDを付して)格納する。履歴DB110は、特徴量と処理内容との組み合わせを、処理内容が指定された順に時系列に沿って格納する。すなわち、履歴DB110は、(式1)で示されるような履歴情報Hを格納する。

Figure 0005022979
The history DB 110 associates the feature amount obtained by the feature amount calculation unit 102 with predetermined image data and the processing content designated by the user for the same image data for each user (user ID). Store). The history DB 110 stores combinations of feature amounts and processing contents in chronological order in the order in which the processing contents are specified. That is, the history DB 110 stores history information H as shown in (Equation 1).
Figure 0005022979

ここで、x(k)はk番目の画像データから抽出された特徴量である。α(k)(α ∈ A)はその画像データに適したアルゴリズムや処理パラメータ、すなわち処理内容である。   Here, x (k) is a feature amount extracted from the kth image data. α (k) (α ∈ A) is an algorithm or processing parameter suitable for the image data, that is, processing content.

予測関数作成部120は、履歴DB110が保持している特徴量と、処理内容との関係に基づいて、新たに取得した画像データに対して施すべき処理内容を特定するための予測関数を作成する。   The prediction function creation unit 120 creates a prediction function for specifying the processing content to be performed on the newly acquired image data based on the relationship between the feature amount held in the history DB 110 and the processing content. .

処理内容予測部(処理内容取得部)122は、特徴量算出部102及び予測関数作成部120を備え、予測対象となる対象画像データに対し、特徴量算出部102により算出された特徴量と予測関数作成部120により作成された予測関数とに基づいて、対象画像データに最適な処理内容を予測する。   The processing content prediction unit (processing content acquisition unit) 122 includes a feature amount calculation unit 102 and a prediction function creation unit 120, and the feature amount calculated by the feature amount calculation unit 102 and prediction for target image data to be predicted. Based on the prediction function created by the function creation unit 120, the optimum processing content for the target image data is predicted.

処理内容出力部124は、処理内容予測部(処理内容取得部)122により予測された最適な処理内容を表示画面に表示する。   The processing content output unit 124 displays the optimal processing content predicted by the processing content prediction unit (processing content acquisition unit) 122 on the display screen.

画像処理部126は、指定受付部104により選択された処理内容にしたがい、画像データに対し画像処理を施す。   The image processing unit 126 performs image processing on the image data in accordance with the processing content selected by the designation receiving unit 104.

変化検出部130は、所定の期間、すなわち第1期間に履歴DB110に登録された画像データと処理内容の関係と、第1期間よりも後の期間である第2期間に履歴DB110に登録された画像データと処理内容の関係との間の変化の有無を検出する。なお、画像データには、画像データの特徴量も含まれている。   The change detection unit 130 is registered in the history DB 110 in a predetermined period, that is, the relationship between the image data registered in the history DB 110 in the first period and the processing content, and in a second period that is a period after the first period. The presence or absence of a change between the image data and the relationship between the processing contents is detected. The image data includes the feature amount of the image data.

更新部132は、変化検出部130による検出結果に基づいて、履歴DB110の内容を更新する。   The update unit 132 updates the contents of the history DB 110 based on the detection result by the change detection unit 130.

図3は、画像処理装置1において、特徴量ベクトルと、処理内容とを履歴DB110に登録する履歴登録処理を示すフローチャートである。まず、画像データ取得部100は、画像データを取得する(ステップS100)。次に、特徴量算出部102は、画像データ取得部100が取得した画像データの特徴量ベクトルを算出する(ステップS102)。さらに、指定受付部104は、画像データ取得部100が取得した画像データに対する画像処理の処理内容の指定を受け付ける(ステップS104)。   FIG. 3 is a flowchart showing a history registration process for registering the feature vector and the processing content in the history DB 110 in the image processing apparatus 1. First, the image data acquisition unit 100 acquires image data (step S100). Next, the feature amount calculation unit 102 calculates a feature amount vector of the image data acquired by the image data acquisition unit 100 (step S102). Furthermore, the designation accepting unit 104 accepts designation of processing details of image processing for the image data acquired by the image data acquiring unit 100 (step S104).

次に、特徴量算出部102により算出された特徴量ベクトルと、指定受付部104により指定された処理内容とが対応付けて履歴DB110に格納される(ステップS106)。すなわち、「x(k)α(k)」が履歴情報Hに追加される。そして、画像処理部126において画像データに対し指定された処理内容の画像処理が施される(ステップS108)。   Next, the feature amount vector calculated by the feature amount calculation unit 102 and the processing content specified by the designation receiving unit 104 are stored in the history DB 110 in association with each other (step S106). That is, “x (k) α (k)” is added to the history information H. Then, the image processing unit 126 performs image processing of the specified processing content on the image data (step S108).

図4は、特徴量算出処理(ステップS102)における詳細な処理を示すフローチャートである。特徴量算出部102は、画像データ取得部100から取得した画像データを同じ大きさの矩形ブロックに排他的に分割する(ステップS110)。具体的には、画像データを同じサイズのブロック、たとえば、1cm×1cm(解像度が200dpiであれば80画素×80画素、解像度が300dpiであれば120画素×高さ120画素)の矩形に分割する。   FIG. 4 is a flowchart showing detailed processing in the feature amount calculation processing (step S102). The feature amount calculation unit 102 exclusively divides the image data acquired from the image data acquisition unit 100 into rectangular blocks having the same size (step S110). Specifically, the image data is divided into blocks of the same size, for example, a 1 cm × 1 cm rectangle (80 pixels × 80 pixels if the resolution is 200 dpi, 120 pixels × height 120 pixels if the resolution is 300 dpi). .

次に、各ブロックを、“絵”“文字”“他”の3種類のいずれかに分類する(ステップS112)。具体的には、図5に示すように、まず、処理対象となるブロック画像を100dpi程度の低解像度に縮小した画像Iを生成するとともに(ステップS120)、解像度のレベル数Lを設定し(ステップS122)、解像度縮小レベルkを初期化(k←0)する(ステップS124)。このようなステップS120〜S124の処理を行うのは、図6に示すように、画像Iとともに、さらに低解像度化した画像からも特徴を抽出するためである。詳細は後述するが、例えば、解像度レベル数Lを2にした場合には、画像Iと、解像度が1/2の画像I1と、解像度が1/4の画像の画像I2との計3つの画像から特徴を抽出する。 Next, each block is classified into one of three types of “picture”, “character”, and “other” (step S112). Specifically, as shown in FIG. 5, first, an image I obtained by reducing a block image to be processed to a low resolution of about 100 dpi is generated (step S120), and a resolution level number L is set (step S120). In step S122, the resolution reduction level k is initialized (k ← 0) (step S124). The reason why the processes in steps S120 to S124 are performed is to extract features from the image I and the resolution-reduced image as shown in FIG. Although details will be described later, for example, when the resolution level number L 2, the image I, the images I 1 resolution 1/2, the resolution is the image I 2 1/4 image meter 3 Extract features from two images.

解像度縮小レベルkが解像度レベル数Lに達していない場合には(ステップS126,Yes)、ステップS120において生成した画像Iから解像度を1/2kに縮小した画像Ik(k=0,・・・,L)を生成する(ステップS128)。次に、画像Ikを2値化する(ステップS130)。ただし、2値画像において、黒画素は値1、白画素は値0をとるとする。 If the resolution reduction level k has not reached the resolution level number L (Yes in step S126), the image I k (k = 0,...) Obtained by reducing the resolution to 1/2 k from the image I generated in step S120. ., L) is generated (step S128). Next, the image I k is binarized (step S130). However, in a binary image, a black pixel has a value 1 and a white pixel has a value 0.

次いで、2値化した解像度が1/2kの画像Ikから、M次元の特徴量ベクトルfkを計算した後(ステップS132)、解像度縮小レベルkを“1”だけインクリメント(k←k+1)する(ステップS134)。 Then, from the image I k of binarized resolution 1/2 k, after calculating the feature vectors f k M-dimensional (step S132), the resolution reduction level k by "1" is incremented (k ← k + 1) (Step S134).

ここで、画像Ik(k=0,・・・,L)を2値化した画像から特徴を抽出する方法を述べる。自己相関関数を高次(N次)へと拡張した「高次自己相関関数(N次自己相関関数)」は、画面内の対象画像をI(r)とすると、変位方向(S1,S2,…,SN)に対して、(式2)で定義される。

Figure 0005022979
Here, a method for extracting features from an image obtained by binarizing the image I k (k = 0,..., L) will be described. The “higher order autocorrelation function (Nth order autocorrelation function)”, which is an extension of the autocorrelation function to the higher order (Nth order), indicates that the displacement direction (S 1 , S 2 ,..., S N ), defined by (Equation 2).
Figure 0005022979

ここで、和Σは画像全体の画素rについての加算である。従って、高次自己相関関数は、次数や変位方向(S1,S2,…,SN)の取り方により、無数に考えられる。ここでは、簡単のため高次自己相関関数の次数Nを“2”までとする。また、変位方向を参照画素rの周りの局所的な3×3画素の領域に限定する。平行移動により等価な特徴を除くと、2値画像に対して、図7に示すように特徴の数は全部で25個になる。各特徴の計算は、局所パターンの対応する画素の値の積を全画像に対して足し合わせればよい。例えば、「No.3」の局所パターンに対応する特徴は、参照画素rでの濃淡値とそのすぐ右隣の点での濃淡値との全画像に対する積和を取ることによって計算される。このようにして、解像度が1/2kの画像から、M=25次元の特徴量ベクトルfkが(式3)により計算される。

Figure 0005022979
Here, the sum Σ is addition for the pixel r of the entire image. Therefore, an infinite number of high-order autocorrelation functions can be considered depending on the order and the direction of displacement (S 1 , S 2 ,..., S N ). Here, for simplicity, the order N of the higher-order autocorrelation function is set to “2”. Further, the displacement direction is limited to a local 3 × 3 pixel region around the reference pixel r. Excluding equivalent features by translation, the total number of features is 25 for a binary image as shown in FIG. For the calculation of each feature, the product of the corresponding pixel values of the local pattern may be added to the entire image. For example, the feature corresponding to the local pattern of “No. 3” is calculated by taking the sum of products for the entire image of the gray value at the reference pixel r and the gray value at the point immediately adjacent to the reference pixel r. In this way, an M = 25-dimensional feature vector f k is calculated by (Equation 3) from an image having a resolution of 1/2 k .
Figure 0005022979

上述したようなステップS128〜S134の処理は、ステップS18でインクリメントされた解像度縮小レベルkが解像度レベル数Lを超える迄(ステップS126,No)、繰り返される。   The processes in steps S128 to S134 as described above are repeated until the resolution reduction level k incremented in step S18 exceeds the resolution level number L (No in step S126).

ステップS134でインクリメントされた解像度縮小レベルkが解像度レベル数Lを超えた場合には(ステップS126,No)、特徴量ベクトルf0,・・・,fLをもとにして、ブロックを、“絵”“文字”“他”の3種類のいずれかに分類する(ステップ136)。 If incremented resolution reduction level k has exceeded the number of resolution levels L at step S134 (step S126, No), feature vector f 0, · · ·, based on f L, the block, " It is classified into one of three types of picture, “character” and “other” (step 136).

ここで、ブロックの分類の方法について詳述する。まず、前述したM=25次元の特徴量ベクトルfk=(g(k,1),・・・,g(k,25))(k=0,・・・,L)から(25×L)次元の特徴量ベクトルx=(g(0,1),・・・,g(0,25),・・・,g(L,1),・・・,g(L,25))を生成する。このようなブロックの特徴量ベクトルxを用いて分類を行うためには、前もって学習を行うことが必要である。そこで、本実施の形態においては、学習用データを文字だけ含むようなものと文字を含まないようなものの2種類に分けて特徴量ベクトルxを計算する。その後、それぞれの平均をとることによって、文字画素の特徴量ベクトルp0と非文字画素の特徴量ベクトルp1を前もって計算しておく。そして、分類しようとしているブロック画像から得られた特徴量ベクトルxを、既知の特徴量ベクトルp0とp1の線形結合に分解すれば、その結合係数a0,a1が文字画素と非文字画素の比率、あるいは、ブロックの「文字らしさ」と「非文字らしさ」を表すことになる。このような分解が可能であるのは、高次局所自己相関に基づく特徴が画面内の対象の位置に不変で、しかも、対象の数に関して加法性を持つことによる。特徴量ベクトルxは、(式4)のように分解される。

Figure 0005022979
ここで、eは誤差ベクトルである。また、Fは(式5)により定義される。
Figure 0005022979
最小二乗法により、最適な結合係数ベクトルaは、(式6)により与えられる。
Figure 0005022979
Here, the block classification method will be described in detail. First, from the aforementioned M = 25-dimensional feature vector f k = (g (k, 1),..., G (k, 25)) (k = 0,..., L) to (25 × L ) Dimension feature vector x = (g (0,1),..., G (0,25),..., G (L, 1),. Generate. In order to perform classification using such a block feature quantity vector x, it is necessary to perform learning in advance. Therefore, in the present embodiment, the feature amount vector x is calculated by dividing the learning data into two types, one containing only characters and one not containing characters. Thereafter, the feature quantity vector p 0 of the character pixel and the feature quantity vector p 1 of the non-character pixel are calculated in advance by taking the respective averages. Then, if the feature vector x obtained from the block image to be classified is decomposed into a linear combination of the known feature vectors p 0 and p 1 , the coupling coefficients a 0 and a 1 become character pixels and non-characters. It represents the ratio of pixels or the “characteristic” and “non-characteristic” of the block. Such decomposition is possible because the feature based on the higher-order local autocorrelation is invariant to the position of the object in the screen, and is additive with respect to the number of objects. The feature vector x is decomposed as in (Equation 4).
Figure 0005022979
Here, e is an error vector. F is defined by (Formula 5).
Figure 0005022979
By the least square method, the optimum coupling coefficient vector a is given by (Equation 6).
Figure 0005022979

各ブロックについて、「非文字らしさ」を表すパラメータa1について閾値処理することにより、そのブロックを「絵」、「絵でない」、「未定」に分類する。各ブロックについて、「未定」または「絵でない」に分類されていて、文字らしさを表すパラメータa0が閾値以上であれば「文字」に、そうでなければ「その他」に分類する。図8にブロック分類の例を示す。図8の例においては、黒部分は「文字」、グレイ部分は「絵」、白部分は「他」を表わしている。 Each block is classified into “picture”, “not a picture”, and “undecided” by performing threshold processing on the parameter a 1 representing “non-characteristic”. Each block is classified as “undecided” or “not a picture”, and is classified as “character” if the parameter a 0 representing the character character is greater than or equal to a threshold value, and “other” otherwise. FIG. 8 shows an example of block classification. In the example of FIG. 8, the black portion represents “character”, the gray portion represents “picture”, and the white portion represents “other”.

再び説明を図4に戻す。“絵”“文字”“他”の3種類のいずれかへの分類の後、すべてのブロックの分類結果をもとに20程度の数の画像特徴量を算出する(ステップS114)。画像特徴量としては、例えば、文字、絵の割合、密集率:レイアウトの混み方(狭いところに詰め込まれている度合い)、文字、絵の散乱度:文字や写真が紙面全体に散らばって分布している度合いがある。この場合、具体的には、以下の5つの値を画像特徴量として計算する。なお、特徴量算出部102は、これ以外にも多様な画像特徴量を算出する。特徴量算出部102は、20種類程度、すなわち20次元程度の特徴量を抽出する。多様なユーザによる処理内容の指定の履歴に応じて適切な処理内容を選択するような予測関数を作成する観点から、できるだけ多くの特徴量を利用するのが好ましい。
1.文字の割合Rt∈[0,1]:全ブロックの中で「文字」に分類されたブロックの割合
2.非文字の割合Rp∈[0,1]:全ブロックの中で「絵」に分類されたブロックの割合
3.レイアウト密度D∈[0,1]:「文字」と「絵」のブロック数の面積の和を、描画領域の面積で割ったもの
4.文字散乱度St(>0):文字ブロックのx,y方向の空間的分布について、分散・共分散行列の行列式を、画像の面積で正規化したもの
5.非文字散乱度Sp(>0):絵ブロックのx,y方向の空間的分布について、分散・共分散行列の行列式を、画像の面積で正規化したもの
The description returns to FIG. 4 again. After classification into any of the three types of “picture”, “character” and “other”, about 20 image feature quantities are calculated based on the classification results of all blocks (step S114). Image features include, for example, the ratio of characters and pictures, the density ratio: how the layout is crowded (the degree to which it is packed in a narrow space), and the degree of scattering of letters and pictures: the characters and pictures are scattered throughout the paper. There is a degree. In this case, specifically, the following five values are calculated as image feature amounts. Note that the feature amount calculation unit 102 calculates various image feature amounts other than this. The feature quantity calculation unit 102 extracts about 20 types, that is, about 20 dimensions. It is preferable to use as many feature quantities as possible from the viewpoint of creating a prediction function that selects appropriate process contents according to the history of process contents designation by various users.
1. Character ratio Rtε [0,1]: Ratio of blocks classified as “character” in all blocks 2. Non-character ratio Rpε [0, 1]: Ratio of blocks classified as “picture” in all blocks Layout density Dε [0, 1]: the sum of the areas of the blocks of “character” and “picture” divided by the area of the drawing area 4. Character scattering degree St (> 0): the spatial distribution of character blocks in the x and y directions, normalized by the area of the image of the determinant of the variance / covariance matrix Non-character scattering degree Sp (> 0): the spatial distribution of picture blocks in the x and y directions, normalized by the area of the image and the determinant of the variance / covariance matrix

図9は、履歴DB110に登録された履歴情報の一例を示す図である。図9に示す例においては、画像データと、画像データから得られた特徴量と、画像データに対して指定された処理内容とが対応付けられている。また、画像データに対して指定された処理内容は、図10に示すように、地肌色補正処理(地肌除去、地肌クリーニング)、空間フィルタ処理(平滑化処理、エッジ強調処理、適応的フィルタリング)、解像度拡大処理(文字解像度拡大、画像補間)などの内容である。また、図10に示すように、画像データに対して指定される処理内容は、処理そのもののみならず、パラメータも含んでいる。図10に示す「地肌除去3」「エッジ強調1」等がパラメータである。   FIG. 9 is a diagram illustrating an example of history information registered in the history DB 110. In the example shown in FIG. 9, the image data, the feature amount obtained from the image data, and the processing content designated for the image data are associated with each other. Further, the processing content designated for the image data includes background color correction processing (background removal, background cleaning), spatial filter processing (smoothing processing, edge enhancement processing, adaptive filtering), as shown in FIG. The contents include resolution enlargement processing (character resolution enlargement, image interpolation) and the like. Further, as shown in FIG. 10, the processing content designated for the image data includes not only the processing itself but also parameters. “Skin removal 3”, “Edge enhancement 1”, and the like shown in FIG. 10 are parameters.

図11は、予測関数を利用してユーザに適切な処理内容を提示する処理内容予測処理を示すフローチャートである。なお、例えば20など予め定めた規定数の画像データに対する履歴情報Hを利用した場合に、適切な予測関数を得ることができる。そこで、規定数以上の履歴情報Hが格納されると、処理内容予測処理を開始する。   FIG. 11 is a flowchart showing a process content prediction process for presenting appropriate process contents to the user using a prediction function. An appropriate prediction function can be obtained when the history information H is used for a predetermined number of image data such as 20, for example. Therefore, when the history information H of a specified number or more is stored, the process content prediction process is started.

まず、予測関数作成部120は、履歴DB110に格納されている履歴情報Hに基づいて、画像データから処理内容を予測するための予測関数を作成する(ステップS200)。予測関数は、履歴情報Hから学習により得られる関数である。すなわち、履歴DB110に格納されている履歴情報Hは、予測関数を作成するための学習データセットとして設定される。予測関数は、重み付き距離の学習を取り入れた最近傍法を利用して作成する。   First, the prediction function creation unit 120 creates a prediction function for predicting processing contents from image data based on the history information H stored in the history DB 110 (step S200). The prediction function is a function obtained by learning from the history information H. That is, the history information H stored in the history DB 110 is set as a learning data set for creating a prediction function. The prediction function is created using a nearest neighbor method incorporating weighted distance learning.

画像コンテンツを表現する特徴量集合F,処理内容やパラメータのアルゴリズム集合Aと履歴情報Hが与えられているとき、ユーザ集合Uの要素u∈Uと、与えられた未知の画像データに対して観測された特徴量xに対するアルゴリズムα∈AのふさわしさfH(α,x,u)を表す関数fを予測関数として作成する。ここで、fHは、(式7)のように示される。

Figure 0005022979
When a feature value set F representing image content, an algorithm set A of processing contents and parameters, and history information H are given, an element uεU of the user set U and given unknown image data are observed. A function f representing the suitability f H (α, x, u) of the algorithm α∈A for the feature quantity x is generated as a prediction function. Here, f H is expressed as (Equation 7).
Figure 0005022979

ただし、異なるアルゴリズム集合Aごとに異なる関数fHを構築する。すなわち、「地肌色補正処理」のアルゴリズム集合Aについての関数fHと、「空間フィルタ処理」のアルゴリズム集合Aについての関数fHは別個に構築する。 However, a different function f H is constructed for each different algorithm set A. That is, the function f H of the algorithm set A of the "background color correction processing" function f H of the algorithm set A of the "spatial filtering" is constructed separately.

但し、次のような技術的課題がある。すなわちベイズ識別の枠組みで考えると、ユーザu、画像特徴x、処理αについて、fH(α,x,u)は、(式8)により示される確率を求める問題として定式化できる。

Figure 0005022979
However, there are the following technical problems. In other words, considering the Bayesian identification framework, f H (α, x, u) can be formulated as a problem for obtaining the probability represented by (Equation 8) for the user u, the image feature x, and the process α.
Figure 0005022979

ここで、P(x|u)は、画像に関する正規化ファクタである。したがって、複数の処理αの優先順位を求める際には無視してもよい。したがって、fH(α,x,u)は、(式9)により求められることになる。

Figure 0005022979
Here, P (x | u) is a normalization factor for the image. Therefore, it may be ignored when determining the priority order of the plurality of processes α. Therefore, f H (α, x, u) is obtained by (Equation 9).
Figure 0005022979

P(α|u)を、履歴情報Hから求めるのは容易である。処理内容αについて、ユーザごとにその処理を使った回数を記録すればよい。ユーザuが処理内容αを適用した画像についての特徴量の分布 p(x|α,u)が履歴情報Hである。   It is easy to obtain P (α | u) from the history information H. For the processing content α, the number of times the processing is used may be recorded for each user. The history information H is the distribution p (x | α, u) of the feature quantity for the image to which the user u has applied the processing content α.

但し、予測関数を作成する際には、さらに以下の4つの点を考慮する。
1. 履歴DB110に格納されている履歴情報Hは、当該画像処理装置1のユーザの嗜好およびタスクに依存している。したがって、オンサイトでのオンライン学習が必要になる。
2. 画像処理装置1においては、学習に利用できる履歴情報は比較的少ない(数十から百)ことを想定しなければならない。なお、これは、オンサイトでは、ユーザの嗜好やタスクをできるだけ少ないデータから読み取り、即座に適応することが必要なことに起因する。
3. 特徴空間は多次元(20程度)である。そこで、予測に適した特徴だけを選択し、撹乱要因を取り除くための特徴選択機構、あるいは、各特徴次元への重み付けが必要である。また、個々の選択対象やユーザによって予測に適した特徴部分集合が違うことを考慮する必要がある。
4. 特徴量が連続量であり、かつ多次元である。さらにデータの数が少ない。この場合に、p(x|α,u)を求めるのは現実的に難しい。「次元の呪い」の問題によって、ノンパラメトリックなParzen窓法や、混合ガウス分布を仮定したEM法などを使って確率分布p(x|α,u)を推定することが難しいためである。
However, the following four points are further considered when creating the prediction function.
1. The history information H stored in the history DB 110 depends on the user's preference and task of the image processing apparatus 1. Therefore, on-site online learning is required.
2. In the image processing apparatus 1, it must be assumed that the history information that can be used for learning is relatively small (several tens to hundreds). This is due to the fact that on-site it is necessary to read user preferences and tasks from as little data as possible and adapt immediately.
3. The feature space is multidimensional (about 20). Therefore, a feature selection mechanism for selecting only features suitable for prediction and removing disturbance factors, or weighting to each feature dimension is necessary. In addition, it is necessary to consider that the feature subsets suitable for prediction differ depending on individual selection targets and users.
4). The feature quantity is continuous and multidimensional. Furthermore, the number of data is small. In this case, it is practically difficult to obtain p (x | α, u). This is because it is difficult to estimate the probability distribution p (x | α, u) by using the non-parametric Parzen window method or the EM method assuming a mixed Gaussian distribution due to the problem of “curse of dimension”.

これに対し、最近傍法は、オンサイトでの学習に適しており、確率分布関数の形を仮定しない識別方法である。最近傍法は、現在処理しているものと最も似ている過去の事例を使った予測方式であり、類似データが増えるほど、予測精度が向上する。また、ガウス分布などの確率分布の推定を必要としない識別方法である。   On the other hand, the nearest neighbor method is suitable for on-site learning and is an identification method that does not assume the form of a probability distribution function. The nearest neighbor method is a prediction method using a past case that is most similar to the one currently being processed, and the prediction accuracy improves as the number of similar data increases. In addition, the identification method does not require estimation of probability distribution such as Gaussian distribution.

さらに、学習データが少なく、特徴が多次元である問題については、最近傍法における距離尺度に、各特徴次元の予測に対する貢献度に応じた重み付けや、学習データ(特徴量と処理内容の組み合わせ)ごとの重要度に応じた重み付けによりデータ数と次元数の間のジレンマを解消することができる。そこで、本実施の形態においては、このような最近傍法、すなわち重み付き距離の学習を取り入れた最近傍法を利用する。   Furthermore, for problems with less learning data and multidimensional features, the distance measure in the nearest neighbor method is weighted according to the contribution to the prediction of each feature dimension, and learning data (combination of feature quantity and processing content) The dilemma between the number of data and the number of dimensions can be eliminated by weighting according to the importance of each. Therefore, in this embodiment, such a nearest neighbor method, that is, a nearest neighbor method incorporating weighted distance learning is used.

重み付き距離の学習を取り入れた最近傍法は、基本的に最近傍法に基づく方法であり、さらに、プロトタイプ点と予測対象点との距離計算の際に、単純なユークリッド距離ではなく、プロトタイプ点の重要度と各予測対象点の重要度に応じて重みを付けた距離を計算する。   The nearest neighbor method incorporating weighted distance learning is basically based on the nearest neighbor method. Furthermore, when calculating the distance between the prototype point and the prediction target point, the prototype point is not a simple Euclidean distance. The weighted distance is calculated according to the importance of each and the importance of each prediction target point.

ここで、i番目のプロトタイプ点xを(式10)のように定義し、予測対象点、すなわち識別対象の任意の点yを(式11)のように定義する。なお、ここで、プロトタイプ点xiは、履歴情報Hに含まれる各特徴量αに相当する。また、識別対象の任意の点yは、対象画像データから得られた特徴量αに相当する。

Figure 0005022979
Figure 0005022979
Here, the i-th prototype point x i is defined as in (Expression 10), and the prediction target point, that is, an arbitrary point y to be identified is defined as in (Expression 11). Here, the prototype point x i corresponds to each feature quantity α included in the history information H. An arbitrary point y to be identified corresponds to the feature amount α obtained from the target image data.
Figure 0005022979
Figure 0005022979

さらに、クラスをcとする。ここで、クラスとは、集合Aの要素、すなわち適用するアルゴリズムや処理パラメータのインデックスのことである。各プロトタイプ点xiには、ユーザが適用したクラスを示すクラス情報が付随している。 Further, let c be a class. Here, the class is an element of the set A, that is, an index of an applied algorithm or processing parameter. Each prototype point x i is accompanied by class information indicating the class applied by the user.

i番目のプロトタイプ点についての重みviと,クラスcについて、j番目の特徴次元の重みwcjにより,xiとyの距離の2乗(Δ)は(式12)により算出される。

Figure 0005022979
The square (Δ) of the distance between x i and y is calculated by (Equation 12) using the weight v i for the i-th prototype point and the weight w cj for the j-th feature dimension for class c.
Figure 0005022979

パラメータの数は,特徴次元数をd,データ数をN,クラス数をCとすると、プロトタイプの重みでN個、さらにクラスごとに決定する各次元の重みでCd個ある。すなわち、合計N+Cd個となる。   Assuming that the number of feature dimensions is d, the number of data is N, and the number of classes is C, the number of parameters is N for the prototype weight and Cd for the weight of each dimension determined for each class. That is, N + Cd in total.

(式9)における重みviとwcjをデータから自動的に学習する。学習の基準は,Leave−One−Outで評価した誤り率を最小にすることである。すなわち、重みは、以下の4つの基準により、最急降下法により学習する。
1. 所定のプロトタイプ点と同じクラスの点がまばらに分布しており、このプロトタイプ点がなくなることによって識別結果が変わるとする。この場合には、このプロトタイプ点が処理内容の予測関数に及ぼす影響が大きい、すなわち重要度が高いプロトタイプ点であると判断できる。そこで、このプロトタイプ点が影響を及ぼす範囲がより広くなるように、重みviをより大きい値にする。
2. 所定のプロトタイプ点と同じクラスの点が密集しており、このプロトタイプ点の存在が識別結果に影響を与える度合いが低いとする。この場合には、このプロトタイプ点の重要度は低いと判断できる。そこで、重みviをより小さい値にする。
3. 所定のクラスcについて、j番目の特徴次元が予測に及ぼす影響がより大きければ重みwcjはより大きい値をとる。
4. クラスcについて、j番目の特徴次元が予測を撹乱するような要因であれば、重みwcjは0に近い値になる。
The weights v i and w cj in (Equation 9) are automatically learned from the data. The criterion for learning is to minimize the error rate evaluated by Leave-One-Out. That is, the weight is learned by the steepest descent method according to the following four criteria.
1. It is assumed that the same class of points as the predetermined prototype points are sparsely distributed, and the identification result changes due to the absence of the prototype points. In this case, it can be determined that this prototype point has a large influence on the prediction function of the processing content, that is, a prototype point having a high importance. Therefore, the weight v i is set to a larger value so that the range affected by the prototype point becomes wider.
2. It is assumed that points of the same class as the predetermined prototype points are dense, and the presence of the prototype points has a low degree of influence on the identification result. In this case, it can be determined that the importance of this prototype point is low. Therefore, the weight v i is set to a smaller value.
3. For a given class c, the weight w cj takes a larger value if the influence of the jth feature dimension on the prediction is greater.
4). For class c, if the j-th feature dimension is a factor that disturbs the prediction, the weight w cj is close to zero.

なお、重み付き距離の学習を取り入れた最近傍法については、R. Paredes & E. Vidal, “Learning weighted metrics to minimize nearest-neighbor classification error,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 28, no. 7, pp. 1100-1110, July 2006に記載されている。   For the nearest neighbor method incorporating weighted distance learning, see R. Paredes & E. Vidal, “Learning weighted metrics to minimize nearest-neighbor classification error,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 28, no. 7, pp. 1100-1110, July 2006.

予測関数が作成された後、画像データ取得部100が予測対象となる対象画像データを取得すると(ステップS202,Yes)、特徴量算出部102は、画像データ取得部100が取得した対象画像データの特徴量を算出する(ステップS204)。なお、特徴量を算出する処理は、図3などを参照しつつ説明したステップS102における特徴量算出処理と同様である。   After the prediction function is created, when the image data acquisition unit 100 acquires target image data to be predicted (step S202, Yes), the feature amount calculation unit 102 acquires the target image data acquired by the image data acquisition unit 100. A feature amount is calculated (step S204). Note that the process for calculating the feature amount is the same as the feature amount calculation process in step S102 described with reference to FIG.

次に、処理内容予測部(処理内容取得部)122は、対象画像データに最適な処理内容を予測する(ステップS206)。具体的には、特徴量算出部102から取得した対象画像データに対する特徴量を入力する。そして、予測関数を用いて対象画像データに最適な処理内容、すなわちアルゴリズムや処理パラメータを予測する。i番目のプロトタイプ点xi(ただし、そのクラスラベルはc)と、対象画像データに対して得られた特徴量yとの距離の2乗(Δ)を(式12)により算出する。なお、このとき、予測関数作成部120が求めたi番目のプロトタイプ点についての重みviと,クラスcについて、j番目の特徴次元の重みwcjを利用する。処理内容予測部(処理内容取得部)122は、プロトタイプ点と予測対象点の距離を最小とするようなプロトタイプ点を特定する。そして、この特徴量のクラスラベルを推奨アルゴリズム、あるいは、推奨パラメータを特定する。 Next, the processing content prediction unit (processing content acquisition unit) 122 predicts the optimal processing content for the target image data (step S206). Specifically, the feature amount for the target image data acquired from the feature amount calculation unit 102 is input. Then, the optimal processing content, that is, the algorithm and processing parameters for the target image data is predicted using the prediction function. The square (Δ) of the distance between the i-th prototype point x i (its class label is c) and the feature quantity y obtained for the target image data is calculated by (Equation 12). At this time, the weight v i for the i-th prototype point obtained by the prediction function creation unit 120 and the weight w cj of the j-th feature dimension are used for the class c. The processing content prediction unit (processing content acquisition unit) 122 identifies a prototype point that minimizes the distance between the prototype point and the prediction target point. Then, a recommended algorithm or a recommended parameter is specified for the class label of the feature amount.

すなわち、履歴DB110に格納されている各画像データの特徴量の中から対象画像データの特徴量に最も近似する特徴量を特定する。そして、この特徴量に対応付けられている処理内容αを対象画像データに最適な処理内容と予測し、取得する。   That is, the feature quantity that most closely approximates the feature quantity of the target image data is specified from the feature quantities of each image data stored in the history DB 110. Then, the processing content α associated with the feature amount is predicted and acquired as the optimal processing content for the target image data.

次に、処理内容出力部124は、処理内容予測部(処理内容取得部)122により取得された最適な処理内容αをユーザに提示する(ステップS208)。   Next, the processing content output unit 124 presents the optimal processing content α acquired by the processing content prediction unit (processing content acquisition unit) 122 to the user (step S208).

このように、最適な処理内容がユーザに提示されるので、ユーザは、希望の処理内容が提示されればこれを選択することにより、対応する処理内容を施すことができる。これにより、画像データを入力する度に、各種処理内容やパラメータなどを逐一入力する手間を省くことができる。   As described above, since the optimum processing content is presented to the user, the user can perform the corresponding processing content by selecting the desired processing content if presented. Thus, it is possible to save the trouble of inputting various processing contents and parameters every time image data is input.

さらに、提示された処理内容が希望するものでない場合には、ユーザは、キーボードやマウスなどのユーザインタフェースを用いて、適切な処理内容やパラメータを指定すればよい。   Furthermore, when the presented processing content is not what is desired, the user may specify appropriate processing content and parameters using a user interface such as a keyboard and a mouse.

指定受付部104がユーザからユーザIDとともに処理内容の変更指定を受け付けた場合には(ステップS210,Yes)、指定受付部104は、変更指定にしたがい履歴DB110の内容を変更する(ステップS212)。ここで、変更指定とは、対象画像データに対し、提示された処理内容と異なる処理内容を適用する旨の指定である。変更指定には、変更後の処理内容が含まれている。具体的には、対象画像データに対して得られた特徴量と、変更指定に含まれる処理内容とを新たに履歴情報Hに追加する。変更指定がない場合には(ステップS210,No)、ステップS214へ進む。   When the designation receiving unit 104 receives a change specification of the processing content from the user together with the user ID (Yes at Step S210), the specification receiving unit 104 changes the content of the history DB 110 according to the change specification (Step S212). Here, the change designation is designation for applying processing contents different from the presented processing contents to the target image data. The change specification includes the processing content after the change. Specifically, the feature amount obtained for the target image data and the processing content included in the change designation are newly added to the history information H. If there is no change designation (step S210, No), the process proceeds to step S214.

次に、特定された処理内容にしたがい対象画像データに対する画像処理を施す(ステップS214)。次に、学習データセットの更新タイミングである場合には(ステップS216,Yes)、変化検出部130による嗜好変化の有無の検出およびデータセットの更新が行われる(ステップS218)。そして、再びステップS202戻る。なお、学習データセットの更新タイミングは、例えば前回の学習データセットの更新タイミングから所定の期間経過後とする。   Next, image processing is performed on the target image data in accordance with the specified processing content (step S214). Next, when it is the update timing of the learning data set (step S216, Yes), the change detection unit 130 detects the presence / absence of preference change and updates the data set (step S218). Then, the process returns to step S202 again. Note that the update timing of the learning data set is, for example, after a predetermined period has elapsed since the previous update timing of the learning data set.

また、他の例としては、例えば学習データセットを設定した後、または、学習データセットを更新した後(後述)で、新たに所定の数の画像データに対する特徴量と処理内容の組み合わせが履歴DB110に追加されたときとしてもよい。   As another example, for example, after a learning data set is set or a learning data set is updated (described later), a combination of feature amounts and processing contents for a predetermined number of image data is newly added to the history DB 110. It may be when it is added to.

また、他の例としては、新たな特徴量と処理内容の組み合わせが追加される度に学習データセットの更新を行ってもよい。このように、タイミングは、予め定められたタイミングであればよく、実施の形態に限定されるものではない。   As another example, the learning data set may be updated each time a new combination of feature amount and processing content is added. Thus, the timing may be a predetermined timing and is not limited to the embodiment.

図12は、嗜好変化有無検出および学習データセット更新処理(ステップS218)における詳細な処理を示すフローチャートである。変化検出部130による嗜好変化の有無の検出は、指定された対象画像データに対する処理内容(処理内容やアルゴリズム)とは異なる処理内容が、特徴量が類似する画像データに対して組み合わせられているか否かの検出により行う。   FIG. 12 is a flowchart showing detailed processing in preference change presence / absence detection and learning data set update processing (step S218). Whether or not there is a preference change by the change detection unit 130 is determined whether processing content different from processing content (processing content or algorithm) for the specified target image data is combined with image data having similar feature amounts. This is done by detecting this.

まず、前提として、前回予測関数を作成した際(ステップS200または後述のステップS224)に利用した学習データセットT0をセットする。さらに、前回予測関数を作成した後に、履歴DB110の履歴情報Hに追加されたデータセットT1をセットする(ステップS220)。さらに、T0から作成された予測関数をP0とする。ここで、T0は、(式13)のように示される。

Figure 0005022979
First, as a premise, the learning data set T 0 used when the previous prediction function was created (step S200 or step S224 described later) is set. Furthermore, after creating the previous prediction function, the data set T 1 added to the history information H of the history DB 110 is set (step S220). Furthermore, let P 0 be a prediction function created from T 0 . Here, T 0 is expressed as (Equation 13).
Figure 0005022979

次に、誤りデータFを検出する(ステップS222)。具体的には、最近傍法により、T0 ∪T の各要素について、自身を除いた場合の最も近いデータを見つける(一点除外法)。ここで、T0 ∪Tにインデックス付けをしておく。具体的には、1〜|T0|をT0の要素とする。|T0|+1〜|T|をTの要素とする。 Next, error data F is detected (step S222). Specifically, by using the nearest neighbor method, for each element of T 0 ∪T 1 , the closest data obtained by excluding itself is found (one-point exclusion method). Here, T 0 ∪T 1 is indexed. Specifically, 1 to | T 0 | is an element of T 0 . Let | T 0 | +1 to | T 1 | be an element of T 1 .

そして、(式14)により示される誤りデータFを求める。ここで、誤りデータFとは、最近傍法により正しく認識できなかったデータである。すなわち、誤りデータFとは、自身を除いた場合の最も近いデータに対応付けて記録されている選択事例(処理内容)と実際に選択された処理内容が異なるものである。

Figure 0005022979
Then, error data F indicated by (Equation 14) is obtained. Here, the error data F is data that could not be correctly recognized by the nearest neighbor method. In other words, the error data F is different from the selection example (processing content) recorded in association with the closest data excluding itself and the processing content actually selected.
Figure 0005022979

次に、矛盾したデータの組み合わせSを検出する(ステップS224)。ここで、組み合わせSは、距離は近いけれども、T0とTとにおいて選択が異なるようなデータの組み合わせである。すなわち、特徴量は近いけれども、対応付けられている処理内容が異なるデータの組み合わせである。 Next, the contradictory data combination S is detected (step S224). Here, the combination S is a combination of data whose selection is different between T 0 and T 1 though the distance is short. In other words, it is a combination of data that is similar in feature quantity but different in associated processing content.

組み合わせSは、(式15)のように定義される。

Figure 0005022979
The combination S is defined as (Equation 15).
Figure 0005022979

すなわち、組み合わせSにおけるiとkは互いに最近傍点である。また、iとkは、それぞれT0とTとに属する。しかし、iとkにおいて選択事例が異なり、T0とTとを併合した場合に、互いに悪影響を及ぼしあう。すなわち、矛盾したデータの組み合わせである。 That is, i and k in the combination S are the nearest neighbor points. I and k belong to T 0 and T 1 , respectively. However, the selection cases are different between i and k, and when T 0 and T 1 are merged, they adversely affect each other. That is, the data combination is inconsistent.

図13は、組み合わせSを説明するための図である。図13において白い点は、T0のデータを示している。黒い点は、Tのデータを示している。T0のデータAとTのデータBの距離をdとする。それぞれAとBを中心にした半径dの円の中に他のデータが存在せず、かつ点Aと点Bでの選択事例が異なるとする。この場合には、データAおよびデータBの組み合わせを集合Sに追加する。 FIG. 13 is a diagram for explaining the combination S. FIG. In FIG. 13, white dots indicate T 0 data. Black dots shows the data of T 1. The distance between the data A at T 0 and the data B at T 1 is d. Assume that there is no other data in a circle with a radius d centered on A and B, respectively, and the selection examples at points A and B are different. In this case, a combination of data A and data B is added to the set S.

再び説明を図12に戻す。組み合わせSを検出した後(ステップS224)、T0に含まれるデータの中から、組み合わせSに含まれる古いデータを削除する(ステップS226)。すなわち、(式16)の処理を行う。

Figure 0005022979
The description returns to FIG. 12 again. After detecting the combination S (step S224), from among the data included in the T 0, deleting old data contained in the combination S (step S226). That is, the processing of (Expression 16) is performed.
Figure 0005022979

次に、削除後のT0とT1を併合したデータを学習用データセットとする。すなわち、学習用データセットを更新する(ステップS228)。次に、予測関数作成部120は、新たに設定された学習用データセットを利用して、予測関数を作成する。すなわち、予測関数を更新する(ステップS230)。なお、予測関数を作成する処理は、図11を参照しつつ説明した予測関数作成処理(ステップS200)と同様である。 Next, data obtained by merging T 0 and T 1 after deletion is used as a learning data set. That is, the learning data set is updated (step S228). Next, the prediction function creating unit 120 creates a prediction function using the newly set learning data set. That is, the prediction function is updated (step S230). Note that the process of creating a prediction function is the same as the process of creating a prediction function (step S200) described with reference to FIG.

次に、Sの数が予め定められた規定値以上である場合には(ステップS232,Yes)、嗜好変化ありと判断し、その旨をユーザに通知すべく出力する(ステップS234)。一方、Sの数が規定値未満である場合には(ステップS232,No)、嗜好変化なしと判断し、その旨をユーザに通知すべく出力する(ステップS236)。以上で、嗜好変化有無検出処理(ステップS218)が完了する。   Next, when the number of S is equal to or larger than a predetermined value (step S232, Yes), it is determined that there is a preference change, and output is made to notify the user to that effect (step S234). On the other hand, if the number of S is less than the specified value (No at step S232), it is determined that there is no preference change and is output to notify the user to that effect (step S236). This completes the preference change presence / absence detection process (step S218).

以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。   As described above, the present invention has been described using the embodiment, but various changes or improvements can be added to the above embodiment.

(第2の実施の形態)
次に、第2の実施の形態にかかる画像処理装置20について説明する。第2の実施の形態にかかる画像処理装置20は、複数枚の対象画像データに対して処理内容予測処理をバッチ的に行う。図14は、第2の実施の形態にかかる画像処理装置20におけるCPU2が実行する画像処理にかかる機能を示す機能ブロック図である。第2の実施の形態にかかる画像処理装置20の機能としては、第1の実施の形態にかかる画像処理装置20の機能に加えて、さらに処理結果保持部140と、処理結果表示部142とを備えている。処理結果保持部140は、画像処理部126により施された画像処理の処理結果を保持する。処理結果表示部142は、処理結果保持部140に保持されている処理結果を表示する。
(Second Embodiment)
Next, an image processing apparatus 20 according to the second embodiment will be described. The image processing apparatus 20 according to the second embodiment performs processing content prediction processing on a plurality of pieces of target image data in batches. FIG. 14 is a functional block diagram illustrating functions related to image processing executed by the CPU 2 in the image processing apparatus 20 according to the second embodiment. As functions of the image processing apparatus 20 according to the second embodiment, in addition to the functions of the image processing apparatus 20 according to the first embodiment, a processing result holding unit 140 and a processing result display unit 142 are further provided. I have. The processing result holding unit 140 holds the processing result of the image processing performed by the image processing unit 126. The processing result display unit 142 displays the processing result held in the processing result holding unit 140.

図15は、変更例にかかる処理内容予測処理を示すフローチャートである。最適な処理内容を予測した後(ステップS206)、対象画像データに対し、予測した処理内容により実際に画像処理が施される(ステップS240)。次に、この処理結果を記憶する。処理結果は、一次記憶装置5などに記憶される。以上の処理により画像処理が施されていない対象画像データが残っている場合には(ステップS244,Yes)、ステップS204からステップS242の処理を行う。すべての対象画像データに対して画像処理が施されると(ステップS244,No)、次に、すべての対象画像データに対する処理結果を提示する(ステップS246)。続いて、ステップS210以降の処理を行う。   FIG. 15 is a flowchart illustrating the processing content prediction processing according to the modification example. After predicting the optimum processing content (step S206), the target image data is actually subjected to image processing according to the predicted processing content (step S240). Next, the processing result is stored. The processing result is stored in the primary storage device 5 or the like. If target image data that has not been subjected to image processing remains after the above processing (step S244, Yes), the processing from step S204 to step S242 is performed. If image processing has been performed on all target image data (step S244, No), then processing results for all target image data are presented (step S246). Then, the process after step S210 is performed.

このように、第2の実施の形態にかかる画像処理装置20においては、画像処理の処理結果を表示するので、ユーザは処理結果を実際に閲覧して処理内容を変更するか否かを決定することができる。さらに、このようにバッチ的に処理を行うことにより、処理の効率化を図ることができる。   As described above, in the image processing apparatus 20 according to the second embodiment, the processing result of the image processing is displayed. Therefore, the user determines whether to actually browse the processing result and change the processing content. be able to. Further, the processing efficiency can be improved by performing the processing in batches in this way.

(第3の実施の形態)
図16は、第3の実施の形態にかかる複合機50の概略構成を示す図である。図16に示すように、複合機50は、画像読取手段であるスキャナ部51及び画像印刷装置であるプリンタ部52を備えている。この複合機50は、他の実施の形態において説明した画像処理装置1の各機能を有している。より具体的には、画像データ取得部100は、スキャナ部51で読み取ったスキャン画像を画像データおよび対象画像データとして取得し、処理内容予測にかかる各種処理を行う。
(Third embodiment)
FIG. 16 is a diagram illustrating a schematic configuration of a multi-function device 50 according to the third embodiment. As shown in FIG. 16, the multi-function device 50 includes a scanner unit 51 that is an image reading unit and a printer unit 52 that is an image printing apparatus. The multi-function device 50 has the functions of the image processing apparatus 1 described in the other embodiments. More specifically, the image data acquisition unit 100 acquires a scan image read by the scanner unit 51 as image data and target image data, and performs various processes related to process content prediction.

なお、第3の実施の形態にかかる複合機50のこれ以外の構成および処理は、他の実施の形態にかかる画像処理装置1の構成および処理と同様である。   Other configurations and processes of the multi-function device 50 according to the third embodiment are the same as the configurations and processes of the image processing apparatus 1 according to the other embodiments.

(第4の実施の形態)
図17は、第4の実施の形態にかかる画像処理システム60の全体構成を示す図である。画像処理システム60は、サーバクライアントシステムであり、サーバコンピュータSと、複数のクライアントコンピュータCとがネットワークNを介して接続されている。サーバコンピュータSは、画像処理装置1における処理を行う。各クライアントコンピュータCは、サーバコンピュータSに対して画像を送信する。サーバコンピュータSは、画像処理装置1の各機能を有している。さらに、ネットワークN上には、ネットワークスキャナNSが設けられている。サーバコンピュータSの画像データ取得部100は、各クライアントコンピュータSまたはネットワークスキャナNSから画像データを取得する。
(Fourth embodiment)
FIG. 17 is a diagram illustrating an overall configuration of an image processing system 60 according to the fourth embodiment. The image processing system 60 is a server client system, and a server computer S and a plurality of client computers C are connected via a network N. The server computer S performs processing in the image processing apparatus 1. Each client computer C transmits an image to the server computer S. The server computer S has each function of the image processing apparatus 1. Further, a network scanner NS is provided on the network N. The image data acquisition unit 100 of the server computer S acquires image data from each client computer S or network scanner NS.

また、履歴DB110は、サーバコンピュータS以外のサーバ(図示せず)に保持されるものであっても良い。   The history DB 110 may be held in a server (not shown) other than the server computer S.

なお、第4の実施の形態にかかる画像処理システム60のこれ以外の構成および処理は、他の実施の形態にかかる画像処理装置1の構成および処理と同様である。   Other configurations and processes of the image processing system 60 according to the fourth embodiment are the same as the configurations and processes of the image processing apparatus 1 according to the other embodiments.

第1の実施の形態にかかる画像処理装置の電気的な接続を示すブロック図である。1 is a block diagram showing electrical connection of an image processing apparatus according to a first embodiment. 画像処理装置のCPUが実行する画像処理にかかる機能を示す機能ブロック図である。It is a functional block diagram which shows the function concerning the image processing which CPU of an image processing apparatus performs. 画像処理装置において、特徴量ベクトルと、処理内容とを履歴DBに登録する履歴登録処理を示すフローチャートである。It is a flowchart which shows the history registration process which registers a feature-value vector and process content in log | history DB in an image processing apparatus. 特徴量算出処理における詳細な処理を示すフローチャートである。It is a flowchart which shows the detailed process in a feature-value calculation process. 分類処理における詳細な処理を示すフローチャートである。It is a flowchart which shows the detailed process in a classification | category process. 多重解像度処理を示す模式図である。It is a schematic diagram which shows multi-resolution processing. 高次元自己相関関数計算のためのマスクパターンの一例を示す図である。It is a figure which shows an example of the mask pattern for high-dimensional autocorrelation function calculation. ブロック分類の例を示す模式図である。It is a schematic diagram which shows the example of a block classification | category. 履歴DBに登録された履歴情報の一例を示す図である。It is a figure which shows an example of the log | history information registered into log | history DB. 履歴DBに登録された処理内容の一例を示す図である。It is a figure which shows an example of the processing content registered into log | history DB. 予測関数を利用してユーザに適切な処理内容を提示する処理内容予測処理を示すフローチャートである。It is a flowchart which shows the process content prediction process which shows a suitable process content to a user using a prediction function. 嗜好変化有無検出および学習データセット更新処理における詳細な処理を示すフローチャートである。It is a flowchart which shows the detailed process in a preference change presence-and-absence detection and learning data set update process. 組み合わせSを説明するための図である。It is a figure for demonstrating the combination S. FIG. 第2の実施の形態にかかる画像処理装置におけるCPUが実行する画像処理にかかる機能を示す機能ブロック図である。It is a functional block diagram which shows the function concerning the image processing which CPU in the image processing apparatus concerning 2nd Embodiment performs. 変更例にかかる処理内容予測処理を示すフローチャートである。It is a flowchart which shows the process content prediction process concerning the example of a change. 第3の実施の形態にかかる複合機の概略構成を示す図である。It is a figure which shows schematic structure of the multifunctional device concerning 3rd Embodiment. 第4の実施の形態にかかる画像処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the image processing system concerning 4th Embodiment.

符号の説明Explanation of symbols

1,20 画像処理装置
2 CPU
5 一次記憶装置
6 二次記憶装置
8 リムーバブルディスク装置
8a 記憶媒体
10 ネットワークインターフェース
11 表示装置
12 キーボード
13 ポインティングデバイス
14 バスコントローラ
50 複合機
51 スキャナ部
52 プリンタ部
60 画像処理システム
100 画像データ取得部
102 特徴量算出部
104 指定受付部
110 履歴DB
120 予測関数作成部
122 処理内容予測部
124 処理内容出力部
126 画像処理部
130 変化検出部
132 更新部
140 処理結果保持部
142 処理結果表示部
1,20 Image processing device 2 CPU
5 Primary storage device 6 Secondary storage device 8 Removable disk device 8a Storage medium 10 Network interface 11 Display device 12 Keyboard 13 Pointing device 14 Bus controller 50 Multifunction device 51 Scanner unit 52 Printer unit 60 Image processing system 100 Image data acquisition unit 102 Features Quantity calculation unit 104 Specification reception unit 110 History DB
DESCRIPTION OF SYMBOLS 120 Prediction function production | generation part 122 Process content prediction part 124 Process content output part 126 Image processing part 130 Change detection part 132 Update part 140 Process result holding part 142 Process result display part

Claims (14)

第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段と、
処理対象となる対象画像データに対する前記処理内容の指定を受け付ける指定受付手段と、
前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出する変化検出手段と、
処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新する更新手段と、
前記対象画像データを取得する画像データ取得手段と、
前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得する処理内容取得手段と、
取得された前記処理内容を出力する処理内容出力手段と、
を備えたことを特徴とする画像処理装置。
History holding means for holding a combination of image data in the first period and processing contents for the image data ;
A designation accepting unit that accepts designation of the processing content for target image data to be processed;
It said first time period, between said first second period for performing processing for the image data similar to the image data of the period for the processing content for the specified the target image data, the history holding means Change detection means for detecting the presence or absence of a change from the processing content with respect to similar image data held in
When a change in processing content is detected, a set of the feature amount of the image data and the processing content in the first period held in the history holding unit is set as the feature amount in the second period. And updating means for updating to a set of the processing contents;
An image data acquisition means for acquiring the target image data,
Processing content acquisition means for acquiring processing content for the target image data using a combination of image data and processing content held in the history holding means;
Processing content output means for outputting the acquired processing content;
An image processing apparatus comprising:
前記処理内容取得手段は、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、任意の特徴量から前記処理内容の予測に用いられる予測関数を作成する予測関数作成手段と、前記対象画像データの特徴量を算出する特徴量算出手段と、を備え、前記特徴量算出手段により算出された前記特徴量と、前記予測関数作成手段により作成された前記予測関数とに基づいて、前記対象画像データに対する前記処理内容を取得する、
ことを特徴とする請求項1に記載の画像処理装置。
The processing content obtaining unit creates a prediction function used to predict the processing content from an arbitrary feature amount using a combination of the image data and processing content held in the history holding unit. And a feature amount calculation means for calculating a feature amount of the target image data, and based on the feature amount calculated by the feature amount calculation means and the prediction function created by the prediction function creation means Obtaining the processing content for the target image data,
The image processing apparatus according to claim 1.
前記予測関数作成手段は、前記特徴量と前記処理内容との組み合わせに対する予測誤差が最小となるような予測関数を作成する、
ことを特徴とする請求項2に記載の画像処理装置。
The prediction function creating means creates a prediction function that minimizes a prediction error for a combination of the feature quantity and the processing content;
The image processing apparatus according to claim 2.
前記予測関数作成手段は、前記特徴量のうち、前記処理内容の予測への寄与の程度が他の特徴量に比べて大きい特徴量を特定し、当該特徴量に対する重みが他の特徴量に対する重みに比べて大きくなるような前記予測関数を作成する、
ことを特徴とする請求項に記載の画像処理装置。
The prediction function creating means identifies a feature amount that has a greater degree of contribution to prediction of the processing content than the other feature amounts, and the weight for the feature amount is a weight for the other feature amount. Create the prediction function that is larger than
The image processing apparatus according to claim 3 .
前記予測関数作成手段は、前記特徴量と前記処理内容の組み合わせのうち、前記処理内容の予測への寄与の程度が他の組み合わせに比べて大きい組み合わせを特定し、当該組み合わせに対する重みが他の組み合わせに比べて大きくなるような前記予測関数を作成する、
ことを特徴とする請求項またはに記載の画像処理装置。
The prediction function creating means identifies a combination having a larger degree of contribution to the prediction of the processing content than the other combinations among the combination of the feature amount and the processing content, and the weight for the combination is another combination Create the prediction function that is larger than
The image processing apparatus according to claim 3 or 4, characterized in that.
前記予測関数作成手段は、重みつき距離の学習を取り入れた最近傍法により前記予測関数を作成する、
ことを特徴とする請求項またはに記載の画像処理装置。
The prediction function creating means creates the prediction function by a nearest neighbor method incorporating weighted distance learning.
The image processing apparatus according to claim 4 or 5, characterized in that.
前記予測関数作成手段は、最急降下法により前記予測関数を作成する、
ことを特徴とする請求項からのいずれか一項に記載の画像処理装置。
The prediction function creating means creates the prediction function by a steepest descent method.
The image processing apparatus according to any one of claims 3 5, characterized in that.
前記変化検出手段は、前記第2の期間が経過したときに、前記変化の有無を検出する、
ことを特徴とする請求項1からのいずれか一項に記載の画像処理装置。
The change detecting means detects the presence or absence of the change when the second period has elapsed;
The image processing apparatus according to any one of claims 1 to 7, characterized in that.
前記第2の期間とは、所定の数の画像データと処理内容の組み合わせが登録される期間である、
ことを特徴とする請求項1からのいずれか一項に記載の画像処理装置。
The second period is a period in which a predetermined number of combinations of image data and processing contents are registered.
The image processing apparatus according to any one of claims 1 to 8, characterized in that.
前記第2の期間とは、所定の時間である、
ことを特徴とする請求項1からのいずれか一項に記載の画像処理装置。
The second period is a predetermined time.
The image processing apparatus according to any one of claims 1 9, characterized in that.
前記処理内容予測手段により予測された前記処理内容にしたがい画像処理を行う画像処理手段と、
前記画像処理手段による処理結果を出力する出力手段と、
をさらに備えたことを特徴とする請求項1から1のいずれか一項に記載の画像処理装置。
Image processing means for performing image processing according to the processing content predicted by the processing content prediction means;
Output means for outputting a processing result by the image processing means;
The image processing apparatus according to any one of claims 1 to 1 0, characterized in that it further comprises a.
前記履歴保持手段は、前記画像データと当該画像データに対する処理内容との組み合わせを、ユーザ毎に保持する、
ことを特徴とする請求項1から1のいずれか一項に記載の画像処理装置。
The history holding unit holds a combination of the image data and the processing content for the image data for each user.
The image processing apparatus according to any one of claims 1 1 1, characterized in that.
画像処理装置で実行される画像処理方法であって、
前記画像処理装置は、制御部と記憶部を備え、
前記記憶部は、
第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段を備え、
前記制御部において実行される、
指定受付手段が、処理対象となる対象画像データに対する前記処理内容の指定を受け付けるステップと、
変化検出手段が、前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出するステップと、
更新手段が、処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新するステップと、
画像データ取得手段が、前記対象画像データを取得するステップと、
処理内容取得手段が、前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得するステップと、
処理内容出力手段が、取得された前記処理内容を出力するステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
The image processing apparatus includes a control unit and a storage unit,
The storage unit
A history holding means for holding a combination of the image data in the first period and the processing content for the image data;
Executed in the control unit,
A step of accepting designation of the processing content with respect to target image data to be processed;
Change detecting means, said first period, between said first second period for performing processing for the image data similar to the image data of the period for the processing content for the specified the target image data Detecting the presence or absence of a change from the processing content for similar image data held in the history holding means ;
When a change in processing content is detected by the update unit, a set of the feature amount of the image data and the processing content in the first period held in the history holding unit is set in the second period. Updating to the set of the feature quantity and the processing content in
Image data acquisition means, acquiring the target image data,
Processing content acquisition means, using a combination of image data and processing content held in the history holding means, to obtain processing content for the target image data;
A processing content output means for outputting the acquired processing content;
An image processing method comprising:
第1の期間における画像データと当該画像データに対する処理内容との組み合わせを保持する履歴保持手段を備えたコンピュータを、
処理対象となる対象画像データに対する前記処理内容の指定を受け付ける指定受付手段と、
前記第1の期間と、前記第1の期間の画像データと類似する画像データに対する処理を行う第2の期間との間で、指定された前記対象画像データに対する前記処理内容について、前記履歴保持手段に保持された類似する画像データに対する前記処理内容からの変化の有無を検出する変化検出手段と、
処理内容の変化が検出された場合には、前記履歴保持手段に保持された前記第1の期間における前記画像データの特徴量と前記処理内容との組を、前記第2の期間における前記特徴量と前記処理内容との組に更新する更新手段と、
前記対象画像データを取得する画像データ取得手段と、
前記履歴保持手段に保持された画像データと処理内容との組み合わせを利用して、前記対象画像データに対する処理内容を取得する処理内容取得手段と、
取得された前記処理内容を出力する処理内容出力手段と、
として機能させることを特徴とするプログラム。
A computer having history holding means for holding a combination of image data in the first period and processing contents for the image data ,
A designation accepting unit that accepts designation of the processing content for target image data to be processed;
It said first time period, between said first second period for performing processing for the image data similar to the image data of the period for the processing content for the specified the target image data, the history holding means Change detection means for detecting the presence or absence of a change from the processing content with respect to similar image data held in
When a change in processing content is detected, a set of the feature amount of the image data and the processing content in the first period held in the history holding unit is set as the feature amount in the second period. And updating means for updating to a set of the processing contents;
An image data acquisition means for acquiring the target image data,
Processing content acquisition means for acquiring processing content for the target image data using a combination of image data and processing content held in the history holding means;
Processing content output means for outputting the acquired processing content;
A program characterized by functioning as
JP2008109312A 2007-07-12 2008-04-18 Image processing apparatus, image processing method, and program Expired - Fee Related JP5022979B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008109312A JP5022979B2 (en) 2007-07-12 2008-04-18 Image processing apparatus, image processing method, and program
US12/213,581 US8244039B2 (en) 2007-07-12 2008-06-20 Apparatus, method, and computer program product for acquiring processing content for image data
CN2008101280432A CN101344964B (en) 2007-07-12 2008-07-10 Apparatus and method for processing image

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007183000 2007-07-12
JP2007183000 2007-07-12
JP2008109312A JP5022979B2 (en) 2007-07-12 2008-04-18 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009037592A JP2009037592A (en) 2009-02-19
JP5022979B2 true JP5022979B2 (en) 2012-09-12

Family

ID=40246963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008109312A Expired - Fee Related JP5022979B2 (en) 2007-07-12 2008-04-18 Image processing apparatus, image processing method, and program

Country Status (2)

Country Link
JP (1) JP5022979B2 (en)
CN (1) CN101344964B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050837A (en) * 2011-08-31 2013-03-14 Dainippon Screen Mfg Co Ltd Classification processing generation device and classification processing generation method
EP3156897B1 (en) * 2014-06-11 2023-04-19 Fujitsu Limited Program generation device, program generation method and program
US10163028B2 (en) * 2016-01-25 2018-12-25 Koninklijke Philips N.V. Image data pre-processing
CN114330400B (en) * 2020-10-12 2023-12-08 珠海格力电器股份有限公司 Two-dimensional code image processing method, system, device, electronic equipment and storage medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2815157B2 (en) * 1988-02-25 1998-10-27 株式会社リコー Image processing device
JP2676009B2 (en) * 1991-12-26 1997-11-12 富士写真フイルム株式会社 Radiation image reading condition and / or image processing condition determination method and device, and radiation image analysis method and device
JPH0737087A (en) * 1993-07-19 1995-02-07 Matsushita Electric Ind Co Ltd Picture processor
JPH10283458A (en) * 1997-04-04 1998-10-23 Minolta Co Ltd Image processor
JPH11185034A (en) * 1997-12-24 1999-07-09 Casio Comput Co Ltd Image data correction device and recording medium recording image data correction processing program
US6834130B1 (en) * 1998-02-18 2004-12-21 Minolta Co., Ltd. Image retrieval system for retrieving a plurality of images which are recorded in a recording medium, and a method thereof
JP3991196B2 (en) * 2001-12-18 2007-10-17 富士ゼロックス株式会社 Image processing system and image processing server
JP3978098B2 (en) * 2002-08-12 2007-09-19 株式会社日立製作所 Defect classification method and apparatus
JP4228641B2 (en) * 2002-09-20 2009-02-25 セイコーエプソン株式会社 Output target image data selection
JP2004302502A (en) * 2003-03-28 2004-10-28 Fuji Photo Film Co Ltd Image processing device
JP4980552B2 (en) * 2003-09-30 2012-07-18 コニカミノルタエムジー株式会社 Image processing method, image processing apparatus, and image processing program
JP4339730B2 (en) * 2004-03-26 2009-10-07 富士フイルム株式会社 Image processing method and apparatus
JP2006053690A (en) * 2004-08-10 2006-02-23 Ricoh Co Ltd Image processing device, image processing method, image processing program, and recording medium
JP2006074331A (en) * 2004-09-01 2006-03-16 Ricoh Co Ltd Picture processor, picture processing method, storage medium, picture processing control method for picture processor and picture forming device

Also Published As

Publication number Publication date
CN101344964A (en) 2009-01-14
JP2009037592A (en) 2009-02-19
CN101344964B (en) 2011-11-16

Similar Documents

Publication Publication Date Title
CN108520229B (en) Image detection method, image detection device, electronic equipment and computer readable medium
JP4768451B2 (en) Image processing apparatus, image forming apparatus, program, and image processing method
JP4859025B2 (en) Similar image search device, similar image search processing method, program, and information recording medium
US8812978B2 (en) System and method for dynamic zoom to view documents on small displays
US8619340B2 (en) Augmenting page orientation direction detection in a digital document processing environment
US7616813B2 (en) Background area extraction in document layout analysis
US11334771B2 (en) Methods, devices and systems for combining object detection models
US8254669B2 (en) Data processing apparatus, computer program product, and data processing method for predicting an optimum function based on a case database and image feature values calculated by a feature-value calculating unit
US20090019010A1 (en) Document Search Device, Imaging Forming Apparatus, and Document Search System
JP2007286864A (en) Image processor, image processing method, program, and recording medium
JP4615462B2 (en) Image processing apparatus, image forming apparatus, program, and image processing method
US8321367B2 (en) Data processing apparatus, method, and computer program product for user objective prediction
JP2008537198A (en) Intelligent import of information from a foreign application user interface using artificial intelligence
US20050160194A1 (en) Method of limiting amount of waste paper generated from printed documents
JP7381942B2 (en) Control method, information processing device and control program
JP5022979B2 (en) Image processing apparatus, image processing method, and program
US8581936B2 (en) Method and apparatus for generating image display data
US6718075B1 (en) Image search method and apparatus
JP5113653B2 (en) Data processing apparatus, program, and data processing method
JP5750093B2 (en) Band-based patch selection with dynamic grid
JP5006263B2 (en) Image processing apparatus, program, and image processing method
CN112116585A (en) Image removal tampering blind detection method, system, device and storage medium
CN102375883B (en) font matching
US8380653B2 (en) Solving continuous stochastic jump control problems with approximate linear programming
US8244039B2 (en) Apparatus, method, and computer program product for acquiring processing content for image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

R150 Certificate of patent or registration of utility model

Ref document number: 5022979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees