JP2010226241A - Computer program for executing image processing, image processing apparatus and image processing instruction device - Google Patents

Computer program for executing image processing, image processing apparatus and image processing instruction device Download PDF

Info

Publication number
JP2010226241A
JP2010226241A JP2009068967A JP2009068967A JP2010226241A JP 2010226241 A JP2010226241 A JP 2010226241A JP 2009068967 A JP2009068967 A JP 2009068967A JP 2009068967 A JP2009068967 A JP 2009068967A JP 2010226241 A JP2010226241 A JP 2010226241A
Authority
JP
Japan
Prior art keywords
image data
processing
type
image processing
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009068967A
Other languages
Japanese (ja)
Other versions
JP4930534B2 (en
Inventor
Chol Yoo
哲 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009068967A priority Critical patent/JP4930534B2/en
Publication of JP2010226241A publication Critical patent/JP2010226241A/en
Application granted granted Critical
Publication of JP4930534B2 publication Critical patent/JP4930534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To quickly provide processed thumbnail image data to a user. <P>SOLUTION: A multifunctional machine 10 transmits filter ID 100 corresponding to filter processing selected by a user to a server 50. The server 50 executes the filter processing corresponding to the filter ID 100, and transmits processed thumbnail image data 120 to the multifunctional machine 10. The server 50 predicts a filter to be selected next to the filter ID 100 by using past selection results. The server 50 executes filter processing corresponding to the predicted filter regardless of whether or not the filter processing corresponding to the filter is selected by the user in the multifunctional machine 10. If the filter processing corresponding to the predicted filter is executed, by the user, the server 50 can transmit generated thumbnail image data to the multifunctional machine 10. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理の技術に関する。   The present invention relates to an image processing technique.

例えば、特許文献1には、サーバと外部装置とを含むシステムが開示されている。外部装置は、画像データをサーバに送信し、その画像データに対して特定の画像処理を実行することをサーバに指示する。サーバは、処理後の画像データを外部装置に送信する。外部装置は、処理後の画像データを取得する。   For example, Patent Document 1 discloses a system including a server and an external device. The external device transmits image data to the server and instructs the server to execute specific image processing on the image data. The server transmits the processed image data to the external device. The external device acquires the processed image data.

特開2003−283740号公報JP 2003-283740 A

処理後の画像データをできるだけ速くユーザに提供することが求められている。本明細書では、処理後の画像データをユーザに迅速に提供することができる技術を開示する。   There is a demand for providing processed image data to a user as quickly as possible. The present specification discloses a technique capable of quickly providing processed image data to a user.

複数種類の画像処理の中から2種類以上の画像処理をユーザが順に選択する可能性がある。例えば、第1画像データに対して第1種類の画像処理を実行することをユーザが希望し、次いで、第2画像データ(上記の第1画像データと同じものであってもよいし、異なるものであってもよい)に対して第2種類の画像処理を実行することをユーザが希望する可能性がある。本明細書によって開示される一つの技術では、上記の第1種類の画像処理の次に選択される上記の第2種類の画像処理で得られる処理後の画像データを、ユーザに迅速に提供する。本技術は、以下の構成を備える。   There is a possibility that the user sequentially selects two or more types of image processing from among a plurality of types of image processing. For example, the user desires to execute the first type of image processing on the first image data, and then the second image data (which may be the same as or different from the first image data described above) The user may desire to execute the second type of image processing. In one technique disclosed by this specification, the processed image data obtained by the second type of image processing selected after the first type of image processing is quickly provided to the user. . The present technology includes the following configuration.

本明細書によって開示される一つの技術は、以下の各処理をコンピュータに実行させるコンピュータプログラムである。上記のコンピュータが搭載されるデバイスについては、特に限定されない。例えば、コンピュータは、外部装置とその外部装置からの指示に従って画像処理を実行するサーバとを含むシステムで利用される上記のサーバに搭載されてもよい。また、例えば、コンピュータは、自身が備える操作部においてユーザによって入力される指示に従って、自身が画像処理を実行するデバイス(例えば、PC、プリンタ、スキャナ、FAX、多機能機等)に搭載されてもよい。なお、以下では、サーバに画像処理を実行させずに、自身が画像処理を実行するデバイスのことを、画像処理実行デバイスと呼ぶ。上記の各処理は、画像データ取得処理と種類情報取得処理と第1処理後画像データ生成処理と第1実績情報生成処理と第1予測処理と第2処理後画像データ生成処理とを含む。   One technique disclosed in this specification is a computer program that causes a computer to execute the following processes. The device on which the computer is mounted is not particularly limited. For example, the computer may be mounted on the above server used in a system including an external device and a server that executes image processing in accordance with an instruction from the external device. In addition, for example, a computer may be mounted on a device (for example, a PC, a printer, a scanner, a FAX, a multi-function device, etc.) that executes image processing in accordance with an instruction input by a user in an operation unit included in the computer. Good. In the following, a device that executes image processing itself without causing the server to perform image processing is referred to as an image processing execution device. Each of the above processes includes an image data acquisition process, a type information acquisition process, a first post-processing image data generation process, a first performance information generation process, a first prediction process, and a second post-processing image data generation process.

画像データ取得処理では、処理対象の画像データを取得する。例えば、サーバに搭載されるコンピュータは、外部装置から送信される画像データを受信することによって、処理対象の画像データを取得してもよい。また、例えば、画像処理実行デバイスに搭載されるコンピュータは、画像処理実行デバイスが備える記憶部(又は外部メモリ)に記憶されている複数の画像データの中から1つの画像データを選択することをユーザに許容し、ユーザによって選択された画像データを読み込むことによって、処理対象の画像データを取得してもよい。   In the image data acquisition process, image data to be processed is acquired. For example, a computer mounted on a server may acquire image data to be processed by receiving image data transmitted from an external device. In addition, for example, a computer mounted on an image processing execution device may select one image data from a plurality of image data stored in a storage unit (or external memory) included in the image processing execution device. The image data to be processed may be acquired by reading the image data selected by the user.

種類情報取得処理では、N種類(Nは2以上の整数)の画像処理の中からユーザによって選択された種類の画像処理に対応する種類情報を取得する。例えば、サーバに搭載されるコンピュータは、外部装置においてユーザによって選択された種類の画像処理に対応する種類情報を外部装置から受信することによって、種類情報を取得してもよい。また、例えば、画像処理実行デバイスに搭載されるコンピュータは、N種類の画像処理の中から1つの種類の画像処理を選択することをユーザに許容し、ユーザによって選択された種類の画像処理に対応する種類情報を読み込むことによって、種類情報を取得してもよい。なお、上記の種類情報は、画像処理の種類を特定することが可能であるあらゆる情報(例えばID等)を含む概念である。また、画像処理の種類は、様々な基準を用いて分類することができる。例えば、肌色補正、トリミング、ぼかし等の画像処理が存在する場合、それらの画像処理のそれぞれを1つの種類の画像処理として分類してもよい。また、例えば、肌色補正という画像処理が存在し、その肌色補正の補正量を示す複数のパラメータが存在する場合、複数のパラメータのそれぞれを1つの種類の画像処理として分類してもよい。   In the type information acquisition process, type information corresponding to the type of image processing selected by the user from among N types (N is an integer of 2 or more) of image processing is acquired. For example, the computer mounted on the server may acquire the type information by receiving from the external device type information corresponding to the type of image processing selected by the user in the external device. In addition, for example, a computer mounted on an image processing execution device allows a user to select one type of image processing from among N types of image processing, and supports the type of image processing selected by the user. The type information may be acquired by reading the type information. Note that the type information is a concept including any information (for example, ID) that can specify the type of image processing. The types of image processing can be classified using various criteria. For example, when image processing such as skin color correction, trimming, and blurring exists, each of these image processing may be classified as one type of image processing. Further, for example, when image processing called skin color correction exists and there are a plurality of parameters indicating the correction amount of the skin color correction, each of the plurality of parameters may be classified as one type of image processing.

第1処理後画像データ生成処理では、種類情報取得処理によって取得された種類情報に対応する種類の画像処理を、処理対象の画像データに対して実行して第1処理後画像データを生成する。第1実績情報生成処理では、N種類の画像処理のそれぞれについて、当該種類の画像処理の次にいずれの種類の画像処理が選択されたのかを示す第1実績情報を生成する。第1予測処理では、種類情報取得処理によって取得された種類情報に対応する種類の画像処理の次に選択されるべき種類の画像処理を、第1実績情報を用いて予測する第1予測を実行する。なお、上記の「次に選択されるべき種類の画像処理」を、第1実績情報を用いて予め決定しておき、その決定結果を第1実績情報に加えておいてもよい。この場合、第1予測処理では、種類情報取得処理によって種類情報が取得された場合に、その種類情報について予め決定されている種類の画像処理を特定(「選択」と言うこともできる)することによって、上記の第1予測を実行してもよい。   In the first post-processing image data generation processing, the type of image processing corresponding to the type information acquired by the type information acquisition processing is executed on the image data to be processed to generate first post-processing image data. In the first performance information generation process, for each of the N types of image processing, first performance information indicating which type of image processing is selected next to the type of image processing is generated. In the first prediction process, the first prediction for predicting the type of image processing to be selected next to the type of image processing corresponding to the type information acquired by the type information acquisition process is performed using the first result information. To do. The above-mentioned “type of image processing to be selected next” may be determined in advance using the first performance information, and the determination result may be added to the first performance information. In this case, in the first prediction process, when type information is acquired by the type information acquisition process, an image process of a type determined in advance for the type information is specified (also referred to as “selection”). The first prediction described above may be executed.

第2処理後画像データ生成処理では、第1予測処理によって予測された種類の画像処理を、処理対象の画像データに対して実行して第2処理後画像データを生成してもよい。なお、第2処理後画像データ生成処理での処理対象の画像データは、第1処理後画像データ生成処理での処理対象の画像データと同じものであってもよいし、異なるものであってもよい。後者の場合、例えば、第2処理後画像データ生成処理での処理対象の画像データは、第1処理後画像データであってもよい。この例の場合、画像データ取得処理では、第1処理後画像データ生成処理によって生成された第1処理後画像データを読み込むことによって、処理対象の画像データである第1処理後画像データを取得することになり、第2処理後画像データ生成処理では、画像データ取得処理によって取得された処理対象の画像データである第1処理後画像データに対して画像処理を実行して第2処理後画像データを生成することになる。   In the second post-processing image data generation processing, the second post-processing image data may be generated by executing the type of image processing predicted by the first prediction processing on the image data to be processed. Note that the image data to be processed in the second processed image data generation process may be the same as or different from the image data to be processed in the first processed image data generation process. Good. In the latter case, for example, the image data to be processed in the second processed image data generation process may be the first processed image data. In this example, in the image data acquisition process, the first post-processing image data that is the processing target image data is acquired by reading the first post-processing image data generated by the first post-processing image data generation process. That is, in the second post-processing image data generation processing, the second post-processing image data is executed by performing image processing on the first post-processing image data that is the processing target image data acquired by the image data acquisition processing. Will be generated.

上記のコンピュータプログラムによると、コンピュータは、N種類の画像処理の中から第1種類の画像処理がユーザによって選択され、次いで、第2種類の画像処理がユーザによって選択された場合に、第1種類の画像処理の次に第2種類の画像処理がユーザによって選択されたことを示す第1実績情報を生成することができる。コンピュータは、ユーザの過去の選択実績である第1実績情報に基づいて第1予測を実行することができる。即ち、コンピュータは、別の機会において、第1種類の画像処理がユーザによって選択された場合(即ち第1種類の画像処理に対応する種類情報が種類情報取得処理で取得された場合)に、次に第2種類の画像処理が選択されることを予測することができる(第1予測処理)。この場合、コンピュータは、第2種類の画像処理が実際にユーザによって選択されたのか否かに関わらず(即ち第2種類の画像処理に対応する種類情報が種類情報取得処理で取得されたのか否かに関わらず)、第2種類の画像処理を実行することができる。即ち、コンピュータは、第1種類の画像処理がユーザによって選択された場合に、過去の選択実績に照らすと次に選択される可能性が高い第2種類の画像処理を、先行して実行して処理後の画像データを生成しておくことができる。この場合、仮に、次に第2種類の画像処理がユーザによって選択された場合に、処理後の画像データをユーザに迅速に提供することができる。   According to the above computer program, the computer selects the first type when the first type of image processing is selected by the user from among the N types of image processing and then the second type of image processing is selected by the user. Next, the first performance information indicating that the second type of image processing is selected by the user can be generated. The computer can execute the first prediction based on the first performance information that is the past selection performance of the user. That is, at another opportunity, when the first type image processing is selected by the user (that is, when the type information corresponding to the first type image processing is acquired by the type information acquisition processing), It is possible to predict that the second type of image processing is selected (first prediction processing). In this case, the computer determines whether or not the second type of image processing is actually selected by the user (that is, whether or not the type information corresponding to the second type of image processing has been acquired by the type information acquisition processing). Regardless, the second type of image processing can be performed. That is, when the first type of image processing is selected by the user, the computer executes the second type of image processing that is likely to be selected next in light of past selection results in advance. Image data after processing can be generated. In this case, if the second type of image processing is next selected by the user, the processed image data can be quickly provided to the user.

第1実績情報は、例えば、以下の(1)〜(3)のいずれの形態であってもよい。(1)例えば、第1実績情報は、N種類の画像処理のそれぞれについて、当該種類の画像処理に対応する第1種類情報と、当該種類の画像処理の次に選択された種類の画像処理に対応する第2種類情報と、が関連づけられた関連情報を含んでいてもよい。例えば、種類Xの次に種類Yが選択されたことがあり、かつ、種類Xの次に種類Zが選択されたことがある場合には、第1実績情報は、第1種類情報としての種類Xと、第2種類情報としての種類Yと、が関連づけられた関連情報、及び、第1種類情報としての種類Xと、第2種類情報としての種類Zと、が関連づけられた関連情報、を含んでいてもよい。(2)例えば、第1実績情報は、N種類の画像処理のそれぞれについて、当該種類の画像処理に対応する第1種類情報と、当該種類の画像処理の次に最新に選択された種類の画像処理に対応する第2種類情報と、が関連づけられた関連情報を含んでいてもよい。例えば、種類Xの次に種類Yが選択されたことがあるが、それより最近に種類Xの次に種類Zが選択されたことがある場合には、第1実績情報は、第1種類情報としての種類Xと、第2種類情報としての種類Zと、が関連づけられた関連情報を含んでいてもよい(第1種類情報としての種類Xと、第2種類情報としての種類Yと、が関連づけられた関連情報は含まなくてもよい)。   The 1st performance information may be any form of the following (1)-(3), for example. (1) For example, the first performance information includes, for each of the N types of image processing, the first type information corresponding to the type of image processing and the type of image processing selected next to the type of image processing. The related second type information and the related information associated with each other may be included. For example, when the type Y has been selected after the type X and the type Z has been selected after the type X, the first performance information is the type as the first type information. Related information in which X and type Y as second type information are associated, and related information in which type X as first type information and type Z as second type information are associated. May be included. (2) For example, the first performance information includes, for each of N types of image processing, the first type information corresponding to the type of image processing and the type of image selected most recently after the type of image processing. Related information associated with the second type information corresponding to the process may be included. For example, when the type Y has been selected after the type X, but the type Z has been selected after the type X more recently, the first result information is the first type information. May include related information in which the type X as the second type information is associated with the type Z as the second type information (the type X as the first type information and the type Y as the second type information include Related information may not be included).

(3)例えば、第1実績情報は、N種類の画像処理のそれぞれについて、当該種類の画像処理に対応する第1種類情報と、当該種類の画像処理の次に選択された種類の画像処理に対応する第2種類情報と、第1種類情報に対応する種類の画像処理の次に第2種類情報に対応する種類の画像処理が選択された回数に関する第1選択回数情報と、が関連づけられた第1関連情報を含んでいてもよい。この場合、第1予測処理では、種類情報取得処理によって取得された種類情報に対応する第1種類情報に関連づけられている第2種類情報であって、最も大きい第1選択回数情報に関連づけられている第2種類情報を特定することによって、第1予測を実行してもよい。この構成によると、ユーザの過去の選択実績に基づいて、第1予測を精度よく実行することができる。なお、上記の「第1予測処理では、・・・第2種類情報を特定する」は、以下の構成を含む概念である。即ち、第1予測で特定されるべき第2種類情報を予め決定しておいてもよい。例えば、N種類の画像処理のそれぞれについて、当該処理の画像処理に対応する種類情報が取得された場合に第1予測で特定されるべき第2種類情報を予め決定しておいてもよい。この場合、種類情報取得処理によって種類情報が取得された場合に、その種類情報について予め決定されている第2種類情報を特定することによって、第1予測を実行してもよい。 (3) For example, the first performance information includes, for each of the N types of image processing, the first type information corresponding to the type of image processing and the type of image processing selected next to the type of image processing. The corresponding second type information is associated with the first selection number information related to the number of times the type of image processing corresponding to the second type information is selected next to the type of image processing corresponding to the first type information. The first related information may be included. In this case, in the first prediction process, the second type information is associated with the first type information corresponding to the type information acquired by the type information acquisition process, and is associated with the largest first selection number information. The first prediction may be executed by specifying the second type information. According to this configuration, the first prediction can be accurately executed based on the past selection results of the user. The above-mentioned “in the first prediction process... Specifying the second type information” is a concept including the following configuration. That is, the second type information to be specified by the first prediction may be determined in advance. For example, for each of the N types of image processing, when the type information corresponding to the image processing of the processing is acquired, the second type information to be specified in the first prediction may be determined in advance. In this case, when the type information is acquired by the type information acquisition process, the first prediction may be executed by specifying the second type information determined in advance for the type information.

第1予測処理では、種類情報取得処理によって取得された種類情報に対応する第1種類情報に関連づけられている最も大きい第1選択回数情報が所定数に満たない場合に、第1予測を実行しなくてもよい。   In the first prediction process, when the largest first selection number information associated with the first type information corresponding to the type information acquired by the type information acquisition process is less than a predetermined number, the first prediction is executed. It does not have to be.

上記のコンピュータプログラムは、第2実績情報生成処理と第2予測処理と第3処理後画像データ生成処理とをコンピュータにさらに実行させてもよい。第2実績情報生成処理では、N種類の画像処理のそれぞれについて、当該種類の画像処理が選択されたことを示す第2実績情報を生成してもよい。第2予測処理では、選択されるべき種類の画像処理を、第2実績情報を用いて予測する第2予測を実行してもよい。第3処理後画像データ生成処理は、第2予測処理によって予測された種類の画像処理を、処理対象の画像データに対して実行して第3処理後画像データを生成してもよい。なお、第3処理後画像データ生成処理での処理対象の画像データは、第1処理後画像データ生成処理又は第2処理後画像データ生成処理での処理対象の画像データと同じものであってもよいし、異なるものであってもよい。   The computer program may cause the computer to further execute a second performance information generation process, a second prediction process, and a third post-processing image data generation process. In the second performance information generation process, second performance information indicating that the type of image processing is selected may be generated for each of the N types of image processing. In the second prediction process, a second prediction for predicting the type of image processing to be selected using the second performance information may be executed. In the third post-processing image data generation processing, the third post-processing image data may be generated by executing the type of image processing predicted by the second prediction processing on the image data to be processed. Note that the image data to be processed in the third processed image data generation process may be the same as the image data to be processed in the first processed image data generation process or the second processed image data generation process. It may be different or different.

上記のコンピュータプログラムによると、コンピュータは、ユーザの過去の選択実績である第2実績情報に基づいて、ユーザが選択する可能性が高い特定の種類の画像処理を予測することができる(第2予測処理)。コンピュータは、上記の特定の種類の画像処理が実際にユーザによって選択されたのか否かに関わらず(即ち上記の特定の種類の画像処理に対応する種類情報が種類情報取得処理で取得されたのか否かに関わらず)、上記の種類の画像処理を実行することができる。コンピュータは、過去の選択実績に照らすと選択される可能性が高い上記の特定の種類の画像処理を、先行して実行して処理後の画像データを生成しておくことができる。この場合、仮に、上記の特定の種類の画像処理がユーザによって選択された場合に、処理後の画像データをユーザに迅速に提供することができる。   According to the above computer program, the computer can predict a specific type of image processing that is likely to be selected by the user based on the second performance information that is the past selection performance of the user (second prediction). processing). Regardless of whether or not the specific type of image processing is actually selected by the user (ie, whether or not the type information corresponding to the specific type of image processing has been acquired by the type information acquisition processing). Regardless of whether or not), the above kind of image processing can be performed. The computer can generate the processed image data by executing in advance the specific type of image processing that is likely to be selected in light of past selection results. In this case, if the specific type of image processing is selected by the user, the processed image data can be quickly provided to the user.

なお、上記の第2予測処理及び第3処理後画像データ生成処理は、例えば、複数種類の画像処理がユーザによって順に選択され得る状況において、1種類目の画像処理が選択される前に実行されてもよい(例えば処理対象の画像データが取得されたタイミングで実行されてもよい)。また、上記の第2予測処理及び第3処理後画像データ生成処理は、例えば、特定の種類の画像処理がユーザによって選択された場合であって、その特定の種類の画像処理の次に選択されるべき種類の画像処理を第1予測処理によって予測することができない場合(又は第1予測処理を実行しない場合)に、実行されてもよい。   Note that the second prediction process and the third post-process image data generation process are executed before the first type of image processing is selected in a situation where a plurality of types of image processing can be sequentially selected by the user, for example. (For example, it may be executed at the timing when the image data to be processed is acquired). In addition, the second prediction process and the third post-processing image data generation process are, for example, when a specific type of image processing is selected by the user, and are selected next to the specific type of image processing. It may be executed when the type of image processing to be predicted cannot be predicted by the first prediction processing (or when the first prediction processing is not executed).

なお、第2実績情報は、例えば、以下の(1)〜(2)のいずれの形態であってもよい。(1)例えば、第2実績情報は、過去に選択された種類の画像処理に対応する種類情報を含んでいてもよい。この場合、第2実績情報は、過去の所定日時から現在までの期間に選択された種類の画像処理に対応する種類情報を含んでいてもよい。(2)例えば、第2実績情報は、N種類の画像処理のそれぞれについて、当該種類の画像処理に対応する第3種類情報と、当該種類の画像処理が選択された回数に関する第2選択回数情報と、が関連づけられた第2関連情報を含んでいてもよい。この場合、第2予測処理では、最も大きい第2選択回数情報に関連づけられている第3種類情報を特定することによって、第2予測を実行してもよい。なお、上記の「第2予測処理では、・・・第3種類情報を特定する」は、以下の構成を含む概念である。即ち、第2予測で特定されるべき第3種類情報を予め決定しておいてもよい。この場合、予め決定されている第3種類情報を特定することによって、第2予測を実行してもよい。   In addition, 2nd performance information may be any form of the following (1)-(2), for example. (1) For example, the second performance information may include type information corresponding to the type of image processing selected in the past. In this case, the second performance information may include type information corresponding to the type of image processing selected during the period from the past predetermined date and time to the present. (2) For example, the second performance information includes, for each of N types of image processing, third type information corresponding to the type of image processing and second selection number information regarding the number of times the type of image processing has been selected. And the second related information associated with each other. In this case, in the second prediction process, the second prediction may be executed by specifying the third type information associated with the largest second selection count information. Note that “in the second prediction process,... Specifying the third type information” is a concept including the following configuration. That is, the third type information to be specified by the second prediction may be determined in advance. In this case, you may perform 2nd prediction by specifying the 3rd type information determined beforehand.

第2選択回数情報は、同じ処理対象の画像データに関して複数種類の画像処理が順に選択された場合の初回に選択された回数に第1値が乗算された値と、同じ処理対象の画像データに関して複数種類の画像処理が順に選択された場合の二回目以降に選択された回数に第2値が乗算された値と、の和に相当する値であってもよい。この場合、第1値は、第2値より大きくてもよい。この構成によると、初回に選択された場合の重みを大きくすることができる。即ち、各種類の画像処理の第2選択回数情報を参照することによって、初回に選択される可能性が高い種類の画像処理を特定することができる。この構成は、例えば、複数種類の画像処理がユーザによって順に選択され得る状況において、1種類目の画像処理が選択される前に上記の第2予測処理が実行される場合(例えば処理対象の画像データが取得されたタイミングで第2予測処理が実行される場合)に有効である。   The second selection number information is the same as the value obtained by multiplying the first selected number of times when a plurality of types of image processing are sequentially selected with respect to the same processing target image data and the same processing target image data. It may be a value corresponding to the sum of a value obtained by multiplying the number of times selected after the second time when a plurality of types of image processing are sequentially selected by the second value. In this case, the first value may be larger than the second value. According to this configuration, the weight when selected for the first time can be increased. That is, by referring to the second selection count information of each type of image processing, it is possible to specify the type of image processing that is highly likely to be selected for the first time. This configuration is, for example, when the second prediction process is executed before the first type of image processing is selected in a situation where a plurality of types of image processing can be sequentially selected by the user (for example, the processing target image) This is effective when the second prediction process is executed at the timing when the data is acquired.

なお、第1予測処理では、さらに、第2予測処理によって予測された種類の画像処理の次にユーザによって選択されるべき種類の画像処理を、第1実績情報を用いて予測する第3予測を実行してもよい。この構成によると、コンピュータは、第2予測処理によって予測された種類の画像処理の次にユーザによって選択される可能性が高い種類の画像処理を、第3予測処理によって予測することができる。コンピュータは、第3予測処理によって予測された種類の画像処理が実際にユーザによって選択されたのか否かに関わらず、その種類の画像処理を実行することができる。   In the first prediction process, a third prediction for predicting the type of image processing to be selected by the user next to the type of image processing predicted by the second prediction process is performed using the first performance information. May be executed. According to this configuration, the computer can predict the type of image processing that is likely to be selected by the user next to the type of image processing predicted by the second prediction process, by the third prediction process. The computer can execute the type of image processing regardless of whether or not the type of image processing predicted by the third prediction process is actually selected by the user.

例えば、第2実績情報の情報量が少ない場合や、第2実績情報における各種類の選択回数がほぼ等しい場合等には、第2実績情報に基づいて第2予測を精度よく実行することができない可能性がある。このような場合に、以下の各処理を実行してもよい。即ち、上記のコンピュータプログラムは、処理前分割画像データ生成処理と処理後分割画像データ生成処理と結合画像データ生成処理とをコンピュータにさらに実行させてもよい。処理前分割画像データ生成処理では、第2実績情報が予め決められた条件を満たす場合に、処理対象の画像データをN個に分割することによってN個の分割画像データを生成してもよい。処理後分割画像データ生成処理では、N種類の画像処理のそれぞれを、N個の分割画像データのうちの異なる1つの分割画像データに対して実行して、N個の処理後分割画像データを生成してもよい。結合画像データ生成処理では、分割画像データ生成処理によって生成されるN個の処理後分割画像データを結合することによって、1個の結合画像データを生成してもよい。この構成によると、コンピュータは、第2実績情報に基づいて第2予測を精度よく実行することができない可能性がある場合(即ち第2実績情報が予め決められた条件を満たす場合)に、全ての種類の画像処理で得られた処理後分割画像データを含む結合画像データを生成することができる。なお、この記載は、第2予測を実行することを禁止することを意味するものではない。例えば、上記の結合画像データが生成された後に、第2予測が実行されてもよい。   For example, when the information amount of the second track record information is small, or when the number of times of selection of each type in the second track record information is almost equal, the second prediction cannot be accurately executed based on the second track record information. there is a possibility. In such a case, the following processes may be executed. That is, the computer program may cause the computer to further execute a pre-processed divided image data generation process, a post-processed divided image data generation process, and a combined image data generation process. In the pre-process divided image data generation processing, when the second performance information satisfies a predetermined condition, N pieces of divided image data may be generated by dividing the image data to be processed into N pieces. In the post-processing divided image data generation processing, each of the N types of image processing is executed on one different divided image data among the N pieces of divided image data to generate N post-processing divided image data. May be. In the combined image data generation process, one combined image data may be generated by combining the N post-processing divided image data generated by the divided image data generation process. According to this configuration, when there is a possibility that the computer cannot accurately execute the second prediction based on the second performance information (that is, when the second performance information satisfies a predetermined condition), Combined image data including post-processed divided image data obtained by this kind of image processing can be generated. Note that this description does not mean prohibiting the execution of the second prediction. For example, the second prediction may be performed after the combined image data is generated.

上記のコンピュータは、外部装置に通信可能に接続されるサーバに搭載されてもよい。この場合、画像データ取得処理では、外部装置から送信される処理対象の画像データを受信することによって、処理対象の画像データを取得してもよい。種類情報取得処理では、外部装置において選択された種類の画像処理に対応する種類情報であって、外部装置から送信される種類情報を受信することによって、種類情報を取得してもよい。上記のコンピュータプログラムは、第1処理後画像データ生成処理によって生成された第1処理後画像データを外部装置に送信する第1送信処理と、第2処理後画像データ生成処理によって生成された第2処理後画像データを外部装置に送信する第2送信処理と、をコンピュータにさらに実行させてもよい。この構成によると、処理後の画像データを外部装置のユーザに迅速に提供することができる。なお、上記の外部装置とサーバとによって構成されるシステムも新規で有用である。   The computer may be mounted on a server that is communicably connected to an external device. In this case, in the image data acquisition process, the image data to be processed may be acquired by receiving the image data to be processed transmitted from the external device. In the type information acquisition process, the type information may be acquired by receiving type information corresponding to the type of image processing selected by the external device and transmitted from the external device. The computer program described above includes a first transmission process for transmitting the first post-processing image data generated by the first post-processing image data generation process to the external device, and a second generation generated by the second post-processing image data generation process. You may make a computer perform further the 2nd transmission process which transmits the image data after a process to an external device. According to this configuration, the processed image data can be quickly provided to the user of the external device. A system constituted by the external device and the server is also new and useful.

なお、第2送信処理では、第1予測処理によって予測された種類の画像処理が実際に外部装置において選択された場合(即ち当該種類の画像処理に対応する種類情報が種類情報取得処理によって取得された場合)に、第2処理後画像データを外部装置に送信してもよい。一方において、第2送信処理では、第2処理後画像データ生成処理によって第2処理後画像データが生成された直後に、第2処理後画像データを外部装置に送信してもよい。なお、上記の「第2処理後画像データ生成処理によって第2処理後画像データが生成された直後に」は、「第1予測処理によって予測された種類の画像処理が実際に外部装置において選択されるのか否かに関わらず」と言い換えてもよいし、「第1予測処理によって予測された種類の画像処理が実際に外部装置において選択される前に」と言い換えてもよい。この構成によると、第1予測処理によって予測された種類の画像処理が実際に外部装置において選択された場合に、外部装置は、サーバから取得済みの処理後の画像データをユーザに提供することができる(例えば出力(表示、印刷等)することができる)。処理後の画像データをユーザにより迅速に提供することができる   In the second transmission process, when the type of image processing predicted by the first prediction process is actually selected by the external device (that is, type information corresponding to the type of image process is acquired by the type information acquisition process). The post-second processing image data may be transmitted to the external device. On the other hand, in the second transmission process, the second processed image data may be transmitted to the external device immediately after the second processed image data is generated by the second processed image data generation process. Note that “immediately after the second post-processing image data is generated by the second post-processing image data generation processing” described above, “the type of image processing predicted by the first prediction processing is actually selected in the external device. It may be rephrased as “regardless of whether or not the image processing of the type predicted by the first prediction process is actually selected in the external device”. According to this configuration, when the type of image processing predicted by the first prediction process is actually selected by the external device, the external device can provide the processed image data acquired from the server to the user. (E.g., output (display, print, etc.)). The processed image data can be quickly provided to the user.

なお、上記のコンピュータプログラムによって実現される画像処理装置、制御方法等も、新規で有用である。また、本明細書によって開示される技術は、サーバに画像処理を実行させる画像処理指示装置として表現することもできる。この画像処理指示装置は、上記の画像データ取得処理、種類情報取得処理、第1実績情報生成処理、及び、第1予測処理のそれぞれを実行する各手段に加えて、第1指示手段と第1受信手段と第2指示手段と第2受信手段とを備える、第1指示手段は、種類情報取得手段によって取得された種類情報に対応する種類の画像処理を、処理対象の画像データに対して実行して第1処理後画像データを生成するように、サーバに指示する。第1受信手段は、サーバから送信される第1処理後画像データを受信する。第2指示手段は、第1予測手段によって予測された種類の画像処理を、処理対象の画像データに対して実行して第2処理後画像データを生成するように、サーバに指示する。第2受信手段は、サーバから送信される第2処理後画像データを受信する。この構成によっても、処理後の画像データをユーザに迅速に提供(例えば出力)することができる。なお、上記の画像処理指示装置を実現するための制御方法及びコンピュータプログラムも新規で有用である。さらに、上記の画像処理指示装置とサーバとによって構成されるシステムも新規で有用である。   Note that an image processing apparatus, a control method, and the like realized by the above computer program are also novel and useful. The technology disclosed in this specification can also be expressed as an image processing instruction device that causes a server to execute image processing. The image processing instruction device includes a first instruction unit and a first instruction unit in addition to each unit that executes the image data acquisition process, the type information acquisition process, the first performance information generation process, and the first prediction process. The first instruction means, comprising a reception means, a second instruction means, and a second reception means, executes the type of image processing corresponding to the type information acquired by the type information acquisition means for the image data to be processed. Then, the server is instructed to generate the first processed image data. The first receiving means receives the first post-processing image data transmitted from the server. The second instruction means instructs the server to execute the type of image processing predicted by the first prediction means on the image data to be processed to generate second processed image data. The second receiving means receives the second processed image data transmitted from the server. Also with this configuration, the processed image data can be quickly provided (for example, output) to the user. A control method and a computer program for realizing the above-described image processing instruction apparatus are also new and useful. Furthermore, a system constituted by the image processing instruction device and the server is also new and useful.

画像処理システムの構成の一例を示す。1 shows an example of the configuration of an image processing system. 多機能機とサーバが実行する処理のシーケンス図を示す。The sequence diagram of the process which a multi-function device and a server perform is shown. 図2の続きのシーケンス図を示す。FIG. 3 shows a sequence diagram continued from FIG. 2. 優先度情報テーブルの一例を示す。An example of a priority information table is shown. 次回選択予測テーブルの一例を示す。An example of the next selection prediction table is shown. フィルタ実行テーブルの一例を示す。An example of a filter execution table is shown. サーバのメイン処理のフローチャートを示す。The flowchart of the main process of a server is shown. サーバの予測処理のフローチャートを示す。The flowchart of the prediction process of a server is shown. サーバのテーブル更新処理のフローチャートを示す。The flowchart of a server table update process is shown. サーバの調整処理のフローチャートを示す。The flowchart of the adjustment process of a server is shown. サーバの予測処理のフローチャートを示す(第2実施例)。The flowchart of a server's prediction process is shown (2nd Example).

ここでは、以下の実施例に記載の技術の一部を列挙しておく。
(形態1)上記の所定数は、種類情報取得処理によって取得された種類情報に対応する第1種類情報に関連づけられている全ての第1選択回数情報の平均値に基づいて設定されてもよい。例えば、上記の所定数は、上記の平均値であってもよいし、上記の平均値に所定値が乗算(加算、減算、又は、除算)された値であってもよい。
Here, some of the techniques described in the following examples are listed.
(Mode 1) The predetermined number may be set based on an average value of all the first selection number information associated with the first type information corresponding to the type information acquired by the type information acquisition process. . For example, the predetermined number may be the average value or a value obtained by multiplying (adding, subtracting, or dividing) the predetermined value by the average value.

(形態2)上記の処理前分割画像データ生成処理では、処理対象の画像データをE行F列(ただしE×F=上記のNである)のマトリクス状に分割してもよい。 (Mode 2) In the pre-process divided image data generation process, the image data to be processed may be divided into a matrix of E rows and F columns (where E × F = N as described above).

(形態3)以下の各処理をコンピュータに実行させるコンピュータプログラムも有用である。
(1)処理対象の画像データを取得する画像データ取得処理。
(2)N種類(Nは2以上の整数)の画像処理のそれぞれについて、当該種類の画像処理が選択されたことを示す実績情報を生成する実績情報生成処理。
(3)選択されるべき種類の画像処理を、実績情報を用いて予測する予測処理。
(4)予測処理によって予測された種類の画像処理を、処理対象の画像データに対して実行して処理後画像データを生成する処理後画像データ生成処理。
(Mode 3) A computer program that causes a computer to execute the following processes is also useful.
(1) Image data acquisition processing for acquiring image data to be processed.
(2) For each of N types (N is an integer of 2 or more) of image processing, performance information generation processing for generating performance information indicating that the type of image processing has been selected.
(3) Prediction processing for predicting the type of image processing to be selected using performance information.
(4) A post-processing image data generation process that generates post-processing image data by executing the type of image processing predicted by the prediction process on the processing target image data.

(形態4)以下の各処理をコンピュータに実行させるコンピュータプログラムも有用である。
(1)処理対象の画像データを取得する画像データ取得処理。
(2)処理対象の画像データをN個(Nは2以上の整数)に分割することによってN個の分割画像データを生成する処理前分割画像データ生成処理。
(3)N種類の画像処理のそれぞれを、N個の分割画像データのうちの異なる1つの分割画像データに対して実行して、N個の処理後分割画像データを生成する処理後分割画像データ生成処理。
(4)分割画像データ生成処理によって生成されるN個の処理後分割画像データを結合することによって、1個の結合画像データを生成する結合画像データ生成処理。
(Mode 4) A computer program that causes a computer to execute the following processes is also useful.
(1) Image data acquisition processing for acquiring image data to be processed.
(2) Pre-process divided image data generation processing for generating N pieces of divided image data by dividing the image data to be processed into N pieces (N is an integer of 2 or more).
(3) The post-processed divided image data for generating N post-processed divided image data by executing each of the N types of image processing on different one of the N pieces of divided image data. Generation process.
(4) Combined image data generation processing for generating one combined image data by combining the N post-processing divided image data generated by the divided image data generation processing.

(第1実施例)
(システムの構成)
図面を参照して実施例を説明する。図1は、本実施例の画像処理システム2の概略図を示す。画像処理システム2は、インターネット4と複数の多機能機10,40とサーバ50等を備える。インターネット4には、複数の多機能機10,40とサーバ50とが接続されている。
(First embodiment)
(System configuration)
Embodiments will be described with reference to the drawings. FIG. 1 shows a schematic diagram of an image processing system 2 of the present embodiment. The image processing system 2 includes the Internet 4, a plurality of multi-function devices 10 and 40, a server 50, and the like. A plurality of multi-function devices 10 and 40 and a server 50 are connected to the Internet 4.

(多機能機10の構成)
多機能機10の構成について詳しく説明する。なお、多機能機40は、多機能機10と同様の構成を有する。多機能機10は、制御部12と表示部14と操作部16とUSBインターフェイス18とネットワークインターフェイス20と印刷部22と記憶部24等を備える。制御部12は、記憶部24に記憶されているプログラム30に従って処理を実行する。表示部14は、様々な情報を表示する。操作部16は、複数のキーを備える。ユーザは、操作部16を操作することによって、様々な指示を多機能機10に入力することができる。USBインターフェイス18には、USBメモリ(図示省略)等が接続される。ネットワークインターフェイス20は、インターネット4に接続されている。印刷部22は、画像データを印刷する。
(Configuration of multi-function device 10)
The configuration of the multi-function device 10 will be described in detail. The multi-function device 40 has the same configuration as the multi-function device 10. The multi-function device 10 includes a control unit 12, a display unit 14, an operation unit 16, a USB interface 18, a network interface 20, a printing unit 22, a storage unit 24, and the like. The control unit 12 executes processing according to the program 30 stored in the storage unit 24. The display unit 14 displays various information. The operation unit 16 includes a plurality of keys. The user can input various instructions to the multi-function device 10 by operating the operation unit 16. A USB memory (not shown) or the like is connected to the USB interface 18. The network interface 20 is connected to the Internet 4. The printing unit 22 prints image data.

記憶部24は、処理対象の画像データ26を記憶することができる。例えば、ユーザは、USBインターフェイス18にUSBメモリを挿入し、操作部16を操作することによってUSBメモリに記憶されている複数の画像データの中から1つの画像データを選択することができる。ここで選択された画像データが、処理対象の画像データ26として記憶される。また、記憶部24は、フィルタ種類リスト28を記憶することができる。フィルタ種類リスト28は、サーバ50が実行可能である複数種類のフィルタ処理(画像処理)を示す情報である。フィルタ種類リスト28は、記憶部24に予め記憶されていてもよいし、サーバ50から取得されるものであってもよい。例えば、サーバ50は、肌色補正、トリミング、ぼかし、赤目補正等のフィルタ処理を実行することができる。フィルタ種類リスト28は、これらのフィルタ処理のそれぞれの名称とフィルタIDとを含んでいる。記憶部24は、さらに、制御部12によって実行されるべきプログラム30を記憶している。また、記憶部24は、上記の各情報26,28,30以外の情報を記憶するための記憶領域32を有する。   The storage unit 24 can store image data 26 to be processed. For example, the user can select one image data from a plurality of image data stored in the USB memory by inserting the USB memory into the USB interface 18 and operating the operation unit 16. The image data selected here is stored as image data 26 to be processed. The storage unit 24 can store a filter type list 28. The filter type list 28 is information indicating a plurality of types of filter processing (image processing) that can be executed by the server 50. The filter type list 28 may be stored in the storage unit 24 in advance or may be acquired from the server 50. For example, the server 50 can execute filter processing such as skin color correction, trimming, blurring, and red-eye correction. The filter type list 28 includes the names and filter IDs of these filter processes. The storage unit 24 further stores a program 30 to be executed by the control unit 12. Further, the storage unit 24 has a storage area 32 for storing information other than the information 26, 28, and 30 described above.

(多機能機10が実行する処理)
続いて、多機能機10が実行する処理について説明する。図2と図3は、多機能機10とサーバ50が実行する処理のシーケンス図を示す。多機能機10は、操作部16において所定の操作が実行された場合(S2)に、プレビュー画面表示処理を実行する(S4)。図2の符号14aは、プレビュー画面表示処理(S4)で表示部14に表示される表示内容の一例を示す。本実施例のプレビュー画面表示処理では、USBメモリに記憶されている複数の画像データのサムネイル画像データ80,82,84が表示される。
(Processes executed by the multi-function device 10)
Next, processing executed by the multi-function device 10 will be described. 2 and 3 show sequence diagrams of processing executed by the multi-function device 10 and the server 50. FIG. The multi-function device 10 executes a preview screen display process (S4) when a predetermined operation is performed on the operation unit 16 (S2). 2 indicates an example of display contents displayed on the display unit 14 in the preview screen display process (S4). In the preview screen display process of the present embodiment, thumbnail image data 80, 82, 84 of a plurality of image data stored in the USB memory is displayed.

ユーザは、複数のサムネイル画像データ80,82,84の中から1つのサムネイル画像データを選択する画像選択操作を実行することができる(S6)。なお、本実施例では、サムネイル画像データ80が選択された場合を例として、以下の説明を続ける。多機能機10は、ユーザによって選択されたサムネイル画像データ80をサーバ50に送信する画像データ送信処理を実行する(S8)。この結果、サーバ50は、後述の予測処理を開始する(S10)。多機能機10は、画像選択操作(S6)が実行された場合に、選択画面表示処理を実行する(S12)。図2の符号14bは、選択画面表示処理(S12)で表示部14に表示される表示内容の一例を示す。本実施例の選択画面表示処理では、画像選択操作(S6)で選択されたサムネイル画像データ80と、フィルタ種類リスト28(図1参照)に含まれる複数種類のフィルタ処理の名称X,Y等が表示される。   The user can execute an image selection operation for selecting one thumbnail image data from among the plurality of thumbnail image data 80, 82, 84 (S6). In the present embodiment, the following description will be continued by taking as an example the case where the thumbnail image data 80 is selected. The multi-function device 10 executes an image data transmission process for transmitting the thumbnail image data 80 selected by the user to the server 50 (S8). As a result, the server 50 starts a prediction process described later (S10). When the image selection operation (S6) is executed, the multi-function device 10 executes a selection screen display process (S12). 2 indicates an example of display contents displayed on the display unit 14 in the selection screen display process (S12). In the selection screen display process of the present embodiment, the thumbnail image data 80 selected by the image selection operation (S6) and the names X, Y, etc. of the plural types of filter processes included in the filter type list 28 (see FIG. 1) are included. Is displayed.

ユーザは、複数種類のフィルタ処理の名称X,Y等の中から1種類のフィルタ処理を選択するフィルタ選択操作を実行することができる(S14)。多機能機10は、ユーザによって選択されたフィルタ処理に対応するフィルタID100(IDに代えて名称であってもよい)をサーバ50に送信するフィルタ情報送信処理を実行する(S16)。この結果、サーバ50は、後述の調整処理を実行する(S18)。サーバ50は、フィルタ選択操作(S14)によって選択された種類のフィルタ処理(フィルタID100に対応するフィルタ処理)を、サムネイル画像データ80に対して実行することによって、処理後のサムネイル画像データ120を生成する。サーバ50は、サムネイル画像データ120を多機能機10に送信する。なお、後で詳しく述べるが、サムネイル画像データ120は、サーバ50がフィルタID100を受信する前に予め生成され得る。この場合、サーバ50は、フィルタID100が受信された場合に、生成済みのサムネイル画像データ120を多機能機10に送信する。多機能機10は、サムネイル画像データ80に代えて、サムネイル画像データ120を表示部14に表示させる選択画面更新処理を実行する(S20)。図2の符号14cは、選択画面更新処理(S20)で表示部14に表示される表示内容の一例を示す。   The user can execute a filter selection operation for selecting one type of filter processing from among a plurality of types of filter processing names X and Y (S14). The multi-function device 10 executes filter information transmission processing for transmitting to the server 50 the filter ID 100 (which may be a name instead of ID) corresponding to the filter processing selected by the user (S16). As a result, the server 50 executes an adjustment process described later (S18). The server 50 generates the processed thumbnail image data 120 by executing the type of filter processing (filter processing corresponding to the filter ID 100) selected by the filter selection operation (S14) on the thumbnail image data 80. To do. The server 50 transmits the thumbnail image data 120 to the multi-function device 10. As will be described in detail later, the thumbnail image data 120 can be generated in advance before the server 50 receives the filter ID 100. In this case, the server 50 transmits the generated thumbnail image data 120 to the multi-function device 10 when the filter ID 100 is received. The multi-function device 10 executes a selection screen update process for displaying the thumbnail image data 120 on the display unit 14 instead of the thumbnail image data 80 (S20). 2 indicates an example of display content displayed on the display unit 14 in the selection screen update process (S20).

多機能機10とサーバ50は、上記のフィルタ選択操作(S14)が実行される毎に、フィルタ情報送信処理(S16)、調整処理(S18)、及び、選択画面更新処理(S20)を実行する。例えば、図3に示されるように、ユーザは、S20の選択画面更新処理において更新された画面14cにおいて、さらに、1種類のフィルタ処理を選択するフィルタ選択操作を実行することができる(S22)。この場合、多機能機10は、ユーザによって選択されたフィルタ処理に対応するフィルタID102をサーバ50に送信するフィルタ情報送信処理を実行する(S24)。この結果、サーバ50は、後述の調整処理を実行する(S26)。サーバ50は、フィルタID102に対応するフィルタ処理で得られた処理後のサムネイル画像データ122を多機能機10に送信する。なお、後で詳しく述べるが、サムネイル画像データ122は、サーバ50がフィルタID102を受信する前に予め生成され得る。多機能機10は、サムネイル画像データ120に代えて、サムネイル画像データ122を表示部14に表示させる選択画面更新処理を実行する(S28)。図3の符号14dは、選択画面更新処理(S28)で表示部14に表示される表示内容の一例を示す。   The multi-function device 10 and the server 50 execute the filter information transmission process (S16), the adjustment process (S18), and the selection screen update process (S20) each time the filter selection operation (S14) is executed. . For example, as shown in FIG. 3, the user can further execute a filter selection operation for selecting one type of filter processing on the screen 14c updated in the selection screen update processing in S20 (S22). In this case, the multi-function device 10 executes a filter information transmission process for transmitting the filter ID 102 corresponding to the filter process selected by the user to the server 50 (S24). As a result, the server 50 executes an adjustment process described later (S26). The server 50 transmits the processed thumbnail image data 122 obtained by the filter processing corresponding to the filter ID 102 to the multi-function device 10. As will be described in detail later, the thumbnail image data 122 can be generated in advance before the server 50 receives the filter ID 102. The multi-function device 10 executes a selection screen update process for displaying the thumbnail image data 122 on the display unit 14 instead of the thumbnail image data 120 (S28). Reference numeral 14d in FIG. 3 shows an example of display contents displayed on the display unit 14 in the selection screen update process (S28).

なお、図2及び図3のシーケンス図に示されていないが、多機能機10のユーザは、フィルタIDを選択し、印刷決定ボタンを押すことができる。この場合、多機能機10は、ユーザによって選択されたフィルタIDと、図2の画像選択操作(S6)において選択されたサムネイル画像データ80に対応するオリジナルの画像データと、をサーバ50に送信する。なお、上記のオリジナルの画像データは、サムネイル画像データ80に対応する画像を表す画像データであって、サムネイル画像データ80よりデータサイズが大きい画像データである。サーバ50は、上記のオリジナルの画像データに対して、ユーザによって選択されたフィルタIDに対応するフィルタ処理を実行することによって、処理後の画像データを生成する。サーバ50は、処理後の画像データを多機能機10に送信する。この結果、多機能機10は、処理後の画像データを印刷する。   Although not shown in the sequence diagrams of FIGS. 2 and 3, the user of the multi-function device 10 can select the filter ID and press the print determination button. In this case, the multi-function device 10 transmits the filter ID selected by the user and the original image data corresponding to the thumbnail image data 80 selected in the image selection operation (S6) of FIG. . The original image data is image data representing an image corresponding to the thumbnail image data 80 and is image data having a data size larger than that of the thumbnail image data 80. The server 50 generates post-processing image data by performing a filtering process corresponding to the filter ID selected by the user on the original image data. The server 50 transmits the processed image data to the multi-function device 10. As a result, the multi-function device 10 prints the processed image data.

(サーバ50の構成)
続いて、図1を参照して、サーバ50の構成について説明する。サーバ50は、制御部52とネットワークインターフェイス54と記憶部56とを備える。制御部52は、記憶部56に記憶されているプログラム66に従って処理を実行する。ネットワークインターフェイス54は、インターネット4に接続されている。
(Configuration of server 50)
Next, the configuration of the server 50 will be described with reference to FIG. The server 50 includes a control unit 52, a network interface 54, and a storage unit 56. The control unit 52 executes processing according to the program 66 stored in the storage unit 56. The network interface 54 is connected to the Internet 4.

記憶部56は、優先度情報テーブル58を記憶する。図4は、優先度情報テーブル58の一例を示す。優先度情報テーブル58は、ユーザ毎に作成される。例えば、多機能機10がユーザU1によって使用され、多機能機40がユーザU2によって使用される場合、ユーザU1,U2のそれぞれの優先度情報テーブル58が生成される。なお、1つの多機能機について、複数のユーザが存在していてもよい。例えば、多機能機40がユーザU2とU3によって使用される場合、ユーザU2,U3のそれぞれの優先度情報テーブル58が生成されてもよい。このような形態を採用する場合、サーバ50は、多機能機40が図2及び図3に示す処理を実行する際に、多機能機40においていずれのユーザが使用しているのか示す情報を予め取得する必要がある。   The storage unit 56 stores a priority information table 58. FIG. 4 shows an example of the priority information table 58. The priority information table 58 is created for each user. For example, when the multi-function device 10 is used by the user U1 and the multi-function device 40 is used by the user U2, the respective priority information tables 58 of the users U1 and U2 are generated. A plurality of users may exist for one multi-function device. For example, when the multi-function device 40 is used by the users U2 and U3, the respective priority information tables 58 of the users U2 and U3 may be generated. When such a form is adopted, the server 50 preliminarily stores information indicating which user is using the multi-function device 40 when the multi-function device 40 executes the processes shown in FIGS. 2 and 3. Need to get.

本実施例では、図4のユーザU1に対応する優先度情報テーブル58aが、多機能機10に対応する優先度情報テーブルである場合を例にして、以下の説明を続ける。優先度情報テーブル58aは、複数の組合せ情報130〜136を含む。各組合せ情報130〜136は、フィルタID140と、初回選択回数142と、2回目以降選択回数144と、優先度146と、が関連づけられた情報である。フィルタID140は、フィルタ処理の種類を特定するIDである。本実施例では、4種類のフィルタ処理が存在し、それぞれの種類に対応するフィルタID100〜106が存在する。初回選択回数142は、画像選択操作(図2のS6参照)によって選択されたサムネイル画像データについて、複数回に亘ってフィルタ選択操作(図2のS14、図3のS22参照)が実行される場合の初回に選択された回数を示す。また、2回目以降選択回数144は、画像選択操作(図2のS6参照)によって選択されたサムネイル画像データについて、複数回に亘ってフィルタ選択操作(図2のS14、図3のS22参照)が実行される場合の2回目以降に選択された回数を示す。   In the present embodiment, the following description will be continued by taking as an example the case where the priority information table 58a corresponding to the user U1 in FIG. 4 is a priority information table corresponding to the multi-function device 10. The priority information table 58a includes a plurality of combination information 130 to 136. Each of the combination information 130 to 136 is information in which the filter ID 140, the first selection number 142, the second and subsequent selection numbers 144, and the priority 146 are associated with each other. The filter ID 140 is an ID that identifies the type of filter processing. In this embodiment, there are four types of filter processing, and there are filter IDs 100 to 106 corresponding to the respective types. The first selection number 142 is a case where the filter selection operation (see S14 in FIG. 2 and S22 in FIG. 3) is executed a plurality of times for the thumbnail image data selected by the image selection operation (see S6 in FIG. 2). Indicates the number of times selected for the first time. The second and subsequent selection times 144 are determined by the filter selection operation (see S14 in FIG. 2 and S22 in FIG. 3) multiple times for thumbnail image data selected by the image selection operation (see S6 in FIG. 2). The number of times selected after the second time when executed is shown.

例えば、図2及び図3の例では、サムネイル画像データ80について、初回にフィルタID100に対応するフィルタ処理が選択され(図2のS14参照)、次いで、フィルタID102に対応するフィルタ処理が選択されている(図3のS22参照)。この場合、フィルタID100の初回選択回数142に「1」が加算され、フィルタID102の2回目以降選択回数144に「1」が加算される。また、優先度146は、初回選択回数142に「3」が乗算された値と2回目以降選択回数144との和に相当する値である。即ち、本実施例では、初回選択回数142は、2回目以降選択回数144よりも、優先度146に与える影響(重み)が大きい。   For example, in the example of FIGS. 2 and 3, for the thumbnail image data 80, the filter process corresponding to the filter ID 100 is selected for the first time (see S14 in FIG. 2), and then the filter process corresponding to the filter ID 102 is selected. (See S22 in FIG. 3). In this case, “1” is added to the first selection number 142 of the filter ID 100, and “1” is added to the second and subsequent selection times 144 of the filter ID 102. The priority 146 is a value corresponding to the sum of the value obtained by multiplying the initial selection count 142 by “3” and the second and subsequent selection counts 144. In other words, in this embodiment, the initial selection number 142 has a larger influence (weight) on the priority 146 than the second and subsequent selection numbers 144.

記憶部56は、さらに、次回選択予測テーブル60(図1参照)を記憶する。図5は、次回選択予測テーブル60の一例を示す。次回選択予測テーブル60は、ユーザ毎に作成される。本実施例では、図5のユーザU1に対応する次回選択予測テーブル60aが、多機能機10に対応する次回選択予測テーブルである場合を例にして、以下の説明を続ける。次回選択予測テーブル60aは、最も左の列150に並んでいる各フィルタID100〜106がユーザによって選択され、次いで、最も上の列152に並んでいる各フィルタID100〜106がユーザによって選択された回数を示す。従って、図5では、例えば、フィルタID100が選択され、次いで、フィルタID102が選択された回数は、欄154に示されるように5回である。また、例えば、フィルタID100が選択され、次いで、フィルタID104が選択された回数は、ゼロである。   The storage unit 56 further stores a next selection prediction table 60 (see FIG. 1). FIG. 5 shows an example of the next selection prediction table 60. The next selection prediction table 60 is created for each user. In the present embodiment, the following description will be continued by taking as an example the case where the next selection prediction table 60a corresponding to the user U1 in FIG. 5 is the next selection prediction table corresponding to the multi-function device 10. In the next selection prediction table 60a, the number of times each filter ID 100 to 106 arranged in the leftmost column 150 is selected by the user, and then each filter ID 100 to 106 arranged in the uppermost column 152 is selected by the user. Indicates. Accordingly, in FIG. 5, for example, the number of times the filter ID 100 is selected and then the filter ID 102 is selected is five as shown in the column 154. Also, for example, the number of times the filter ID 100 is selected and then the filter ID 104 is selected is zero.

なお、次回選択予測テーブル60aでは、各フィルタID100〜106に予測フィルタ160が関連づけられている。例えば、フィルタID100には、予測フィルタ160としてフィルタID102が関連づけられている。フィルタID100に関連づけられている予測フィルタ160(即ちフィルタID102)は、以下のようにして決定される。まず、フィルタID100が選択されたトータルの回数である「5」(5+0+0)を、他のフィルタID102〜106の数である「3」で除算することによって、平均値である「1.66・・・」を算出する。次いで、算出された平均値に2を乗算することによって、基準値「3.33・・・」を算出する。次いで、算出された基準値より大きい回数を有するフィルタIDであるフィルタID102を特定する。このようにして特定されたフィルタID102が、予測フィルタ160として決定される。即ち、フィルタID100に関連する予測フィルタ160であるフィルタID102は、フィルタID100が選択された場合に、次に選択される可能性が最も高いフィルタIDであると言える。なお、基準値より大きい回数を有するフィルタIDが複数存在する場合には、それらのフィルタIDの中から最も大きい回数を有するフィルタIDが予測フィルタ160として決定される。   In the next selection prediction table 60a, the prediction filter 160 is associated with each of the filter IDs 100 to 106. For example, the filter ID 102 is associated with the filter ID 100 as the prediction filter 160. The prediction filter 160 (that is, the filter ID 102) associated with the filter ID 100 is determined as follows. First, “5” (5 + 0 + 0), which is the total number of times the filter ID 100 is selected, is divided by “3”, which is the number of the other filter IDs 102 to 106, thereby obtaining an average value of “1.66.・ ”Is calculated. Next, the reference value “3.33...” Is calculated by multiplying the calculated average value by 2. Next, a filter ID 102 that is a filter ID having a number of times larger than the calculated reference value is specified. The filter ID 102 specified in this way is determined as the prediction filter 160. That is, it can be said that the filter ID 102 that is the prediction filter 160 related to the filter ID 100 is the filter ID that is most likely to be selected next when the filter ID 100 is selected. If there are a plurality of filter IDs having a number of times greater than the reference value, the filter ID having the largest number of times is determined as the prediction filter 160 from among the filter IDs.

フィルタID100以外の各フィルタID102〜106についても、同様に予測フィルタ160が決定される。例えば、図5では、フィルタID104に関連する予測フィルタ160は、フィルタID106である。なお、図5では、フィルタID102及び106には、予測フィルタ160が関連づけられていない。これは、上記の手法を用いて予測フィルタ160を決定することができないことを意味する。即ち、上記の基準値より大きい回数を有するフィルタIDが存在しないことを意味する。   The prediction filter 160 is similarly determined for each of the filter IDs 102 to 106 other than the filter ID 100. For example, in FIG. 5, the prediction filter 160 associated with the filter ID 104 is the filter ID 106. In FIG. 5, the filter IDs 102 and 106 are not associated with the prediction filter 160. This means that the prediction filter 160 cannot be determined using the above method. That is, it means that there is no filter ID having a number of times larger than the reference value.

図1に示されるように、記憶部56は、さらに、ワーク領域62を有する。ワーク領域62は、制御部52が処理を実行する過程で生成されるデータを記憶する。例えば、ワーク領域62は、フィルタ実行テーブル64を記憶する。図6は、フィルタ実行テーブル64の一例を示す。フィルタ実行テーブル64は、複数の組合せ情報170〜176を含む。各組合せ情報170〜176は、フィルタID180と、優先度182と、予測フィルタ184と、ステータス186と、が関連づけられた情報である。優先度182は、図4に示される優先度146に対応し、予測フィルタ184は、図5に示される予測フィルタ160に対応する。なお、ステータス186は、「0」と「1」と「2」のいずれかの値に設定される。「0」はフィルタ処理が実行されていないことを示し、「1」はフィルタ処理の実行中であることを示し、「2」はフィルタ処理が完了したことを示す。   As shown in FIG. 1, the storage unit 56 further has a work area 62. The work area 62 stores data generated in the process in which the control unit 52 executes processing. For example, the work area 62 stores a filter execution table 64. FIG. 6 shows an example of the filter execution table 64. The filter execution table 64 includes a plurality of combination information 170 to 176. Each combination information 170 to 176 is information in which the filter ID 180, the priority 182, the prediction filter 184, and the status 186 are associated with each other. The priority 182 corresponds to the priority 146 shown in FIG. 4, and the prediction filter 184 corresponds to the prediction filter 160 shown in FIG. The status 186 is set to one of “0”, “1”, and “2”. “0” indicates that the filtering process is not being executed, “1” indicates that the filtering process is being executed, and “2” indicates that the filtering process has been completed.

図1に示されるように、記憶部56は、さらに、制御部52によって実行されるべきプログラム66を記憶している。プログラム66は、例えば、プログラム記憶媒体からサーバ50にインストールされるものであってもよいし、インターネット4からサーバ50にダウンロードされるものであってもよい。また。記憶部56は、上記の各情報58,60,64,66以外の情報を記憶するための記憶領域68を有する。   As shown in FIG. 1, the storage unit 56 further stores a program 66 to be executed by the control unit 52. The program 66 may be installed in the server 50 from a program storage medium, or may be downloaded from the Internet 4 to the server 50, for example. Also. The storage unit 56 has a storage area 68 for storing information other than the information 58, 60, 64, 66 described above.

(サーバ50が実行する処理)
続いて、サーバ50の制御部52が実行する処理の内容について説明する。図7は、制御部52が実行するメイン処理のフローチャートを示す。制御部52は、サムネイル画像データを受信することを監視している(S40)。例えば、図2のS8の画像データ送信処理において多機能機10から送信されたサムネイル画像データ80が受信された場合に、制御部52は、S40においてYESと判断する。この場合、制御部52は、予測処理を開始する(S42)。
(Processing executed by the server 50)
Then, the content of the process which the control part 52 of the server 50 performs is demonstrated. FIG. 7 shows a flowchart of the main process executed by the control unit 52. The control unit 52 monitors the reception of thumbnail image data (S40). For example, when the thumbnail image data 80 transmitted from the multi-function device 10 is received in the image data transmission process of S8 of FIG. 2, the control unit 52 determines YES in S40. In this case, the control unit 52 starts the prediction process (S42).

図8は、予測処理のフローチャートを示す。制御部52は、フィルタ実行テーブルを生成する(S70)。例えば、多機能機10から送信されたサムネイル画像データ80(図2参照)が図7のS40において受信された場合、制御部52は、多機能機10に対応するフィルタ実行テーブル64(図6参照)を生成する。まず、制御部52は、フィルタID180の欄にフィルタID100〜106を書き込む。次いで、制御部52は、多機能機10に対応するユーザU1の優先度情報テーブル58a(図4参照)から、各フィルタID100〜106の優先度146を特定する。制御部52は、特定された各優先度146を、フィルタ実行テーブル64の優先度182の欄に書き込む。次いで、制御部52は、多機能機10に対応するユーザU1の次回選択予測テーブル60a(図5参照)から、各フィルタID100〜106の予測フィルタ160を特定する。制御部52は、特定された各予測フィルタ160を、フィルタ実行テーブル64の予測フィルタ184の欄に書き込む。さらに、制御部52は、フィルタ実行テーブル64の全てのフィルタID100〜106のステータス186の欄に「0」を書き込む。   FIG. 8 shows a flowchart of the prediction process. The control unit 52 generates a filter execution table (S70). For example, when the thumbnail image data 80 (see FIG. 2) transmitted from the multi-function device 10 is received in S40 of FIG. 7, the control unit 52 performs the filter execution table 64 (see FIG. 6) corresponding to the multi-function device 10. ) Is generated. First, the control unit 52 writes the filter IDs 100 to 106 in the column of the filter ID 180. Next, the control unit 52 specifies the priority 146 of each of the filter IDs 100 to 106 from the priority information table 58a (see FIG. 4) of the user U1 corresponding to the multi-function device 10. The control unit 52 writes the identified priorities 146 in the priority 182 column of the filter execution table 64. Subsequently, the control part 52 specifies the prediction filter 160 of each filter ID100-106 from the next selection prediction table 60a (refer FIG. 5) of the user U1 corresponding to the multi-function device 10. FIG. The control unit 52 writes each identified prediction filter 160 in the column of the prediction filter 184 of the filter execution table 64. Further, the control unit 52 writes “0” in the status 186 column of all the filter IDs 100 to 106 in the filter execution table 64.

次いで、制御部52は、フィルタ実行テーブル64を参照することによって、ステータス186が「0」であるフィルタIDであって、優先度182が最も大きいフィルタIDを選択する(S72)。例えば、図6のフィルタ実行テーブル64において全てのフィルタID100〜106のステータス186が「0」である場合、制御部52は、フィルタID100を特定する。続いて、制御部52は、S72で選択されたフィルタID(例えばフィルタID100)のステータス186の欄に「1」を書き込む(S74)。次いで、制御部52は、図7のS40で受信されたサムネイル画像データ80(図2参照)に対して、S72で選択されたフィルタID(例えばフィルタID100)に対応するフィルタ処理を開始する(S76)。   Next, the control unit 52 refers to the filter execution table 64 to select a filter ID having a status 186 of “0” and a highest priority 182 (S72). For example, when the status 186 of all the filter IDs 100 to 106 is “0” in the filter execution table 64 of FIG. 6, the control unit 52 specifies the filter ID 100. Subsequently, the control unit 52 writes “1” in the status 186 column of the filter ID (eg, filter ID 100) selected in S72 (S74). Next, the control unit 52 starts filter processing corresponding to the filter ID selected in S72 (for example, filter ID 100) on the thumbnail image data 80 (see FIG. 2) received in S40 of FIG. 7 (S76). ).

制御部52は、S76で開始されたフィルタ処理が完了することを監視している(S78)。ここでYESの場合、制御部52は、S72で選択されたフィルタID(例えばフィルタID100)のステータス186(図6参照)の欄に「2」を書き込む(S80)。次いで、制御部52は、S72で選択されたフィルタID(例えばフィルタID100)に対応するフィルタ処理(S78で完了したフィルタ処理)で得られた処理後のサムネイル画像データをワーク領域62(図1参照)に記憶させる(S82)。   The control unit 52 monitors completion of the filter process started in S76 (S78). In the case of YES here, the control unit 52 writes “2” in the column of the status 186 (see FIG. 6) of the filter ID (for example, filter ID 100) selected in S72 (S80). Next, the control unit 52 uses the processed thumbnail image data obtained by the filter process (filter process completed in S78) corresponding to the filter ID selected in S72 (for example, the filter ID 100) as the work area 62 (see FIG. 1). (S82).

次いで、制御部52は、フィルタ実行テーブル64(図6参照)を参照することによって、S72で選択されたフィルタID(例えばフィルタID100)の予測フィルタ160を特定する。例えば、フィルタID100に対応するフィルタ処理が完了した場合、制御部52は、フィルタID102を特定する。さらに、制御部52は、特定されたフィルタID(例えばフィルタID102)のステータス186が「0」であるのか否かを判断する(S84)。ここでYESの場合、制御部52は、特定されたフィルタID(例えばフィルタID102)を選択し(S86)、S74に進む。この結果、S86で選択されたフィルタID(例えばフィルタID102)について、S74以降の処理が実行される。一方において、S84でNOの場合で、ステータス186が「0」であるフィルタIDがフィルタ実行テーブル64に存在する場合(S94でYESの場合)、制御部52は、S72に進む。この結果、制御部52は、ステータス186が「0」であるフィルタIDであって、優先度182が最も大きいフィルタID(例えばフィルタID104)を選択する。この結果、S72で選択されたフィルタID(例えばフィルタID104)について、S74以降の処理が実行される。なお、ステータス186が「0」であるフィルタIDがフィルタ実行テーブル64に存在しない場合(S94でNOの場合)、即ち、全てのフィルタ処理を実行し終えた場合、本処理を終了する。   Next, the control unit 52 specifies the prediction filter 160 of the filter ID (for example, filter ID 100) selected in S72 by referring to the filter execution table 64 (see FIG. 6). For example, when the filter process corresponding to the filter ID 100 is completed, the control unit 52 specifies the filter ID 102. Further, the control unit 52 determines whether or not the status 186 of the specified filter ID (for example, the filter ID 102) is “0” (S84). In the case of YES here, the control unit 52 selects the specified filter ID (for example, the filter ID 102) (S86), and proceeds to S74. As a result, the processing after S74 is executed for the filter ID selected in S86 (for example, the filter ID 102). On the other hand, in the case of NO in S84, if the filter ID whose status 186 is “0” exists in the filter execution table 64 (YES in S94), the control unit 52 proceeds to S72. As a result, the control unit 52 selects the filter ID (for example, the filter ID 104) having the highest priority 182 and the filter ID having the status 186 of “0”. As a result, the processing after S74 is executed for the filter ID (for example, filter ID 104) selected in S72. If a filter ID having a status 186 of “0” does not exist in the filter execution table 64 (NO in S94), that is, if all filter processes have been executed, this process ends.

一方において、S76でフィルタ処理を開始すると、制御部52は、後述する調整処理からキャンセルが指示されることを監視する(S88)。ここでYESの場合、制御部52は、S76で開始されたフィルタ処理をキャンセル(中止)し、そのフィルタ処理に対応するフィルタID(S72又はS86で選択されたフィルタID)のステータス186に「0」を書き込む(S90)。次いで、制御部52は、調整処理から通知されたフィルタIDを選択し(S92)、S74に進む。この結果、S92で選択されたフィルタIDについて、S74以降の処理が実行される。   On the other hand, when the filter process is started in S76, the control unit 52 monitors whether cancellation is instructed from an adjustment process described later (S88). In the case of YES here, the control unit 52 cancels (stops) the filter process started in S76, and “0” is displayed in the status 186 of the filter ID (filter ID selected in S72 or S86) corresponding to the filter process. Is written (S90). Next, the control unit 52 selects the filter ID notified from the adjustment process (S92), and proceeds to S74. As a result, the processing after S74 is executed for the filter ID selected in S92.

図7に示されるように、制御部52は、フィルタIDを受信することを監視している(S44)。例えば、図2のS16又は図3のS24のフィルタ情報送信処理において多機能機10から送信されたフィルタID100,102が受信された場合に、制御部52は、S44においてYESと判断する。この場合、制御部52は、テーブル更新処理を開始する(S46)。   As shown in FIG. 7, the control unit 52 monitors the reception of the filter ID (S44). For example, when the filter IDs 100 and 102 transmitted from the multi-function device 10 are received in the filter information transmission process of S16 of FIG. 2 or S24 of FIG. 3, the control unit 52 determines YES in S44. In this case, the control unit 52 starts a table update process (S46).

図9は、テーブル更新処理のフローチャートを示す。制御部52は、図7のS44で受信されたフィルタIDが、処理対象のサムネイル画像データ80(図2参照)が受信されてから初めて受信されたものであるのか否かを判断する(S110)。例えば、図2のS16のフィルタ情報送信処理において多機能機10から送信されたフィルタID100が受信された場合、そのフィルタID100は初めて受信されたものであるために、制御部52は、S110でNOと判断する。一方において、例えば、図3のS24のフィルタ情報送信処理において多機能機10から送信されたフィルタID102が受信された場合、そのフィルタID102は2回目以降に受信されたものであるために、制御部52は、S110でYESと判断する。   FIG. 9 shows a flowchart of the table update process. The control unit 52 determines whether or not the filter ID received in S44 of FIG. 7 is received for the first time after the thumbnail image data 80 to be processed (see FIG. 2) is received (S110). . For example, when the filter ID 100 transmitted from the multi-function device 10 is received in the filter information transmission process of S16 of FIG. 2, the control unit 52 determines NO in S110 because the filter ID 100 is received for the first time. Judge. On the other hand, for example, when the filter ID 102 transmitted from the multi-function device 10 is received in the filter information transmission process of S24 of FIG. 3, the filter ID 102 is received for the second time or later. 52 determines YES in S110.

S110でNOの場合、制御部52は、優先度情報テーブル58a(図4参照)を更新する(S112)。具体的に言うと、制御部52は、優先度情報テーブル58aにおいて、図7のS44で受信されたフィルタID(例えばフィルタID100)の初回選択回数142に「1」を加算する。一方において、S112でYESの場合、制御部52は、優先度情報テーブル58a(図4参照)を更新するとともに、次回選択予測テーブル60a(図5参照)を更新する(S114,S116)。具体的に言うと、制御部52は、優先度情報テーブル58aにおいて、図7のS44で受信されたフィルタID(例えばフィルタID102)の2回目以降選択回数144に「1」を加算する(S114)。さらに、制御部52は、次回選択予測テーブル60aにおいて、図7のS44で前回に受信されたフィルタID(例えばフィルタID100)と、図7のS44で今回に受信されたフィルタID(例えばフィルタID102)と、の組合せに「1」を加算する。例えば、図7のS44で前回に受信されたのがフィルタID100であり、図7のS44で今回に受信されたのがフィルタID102である場合、図5の欄154の「5」に「1」を加算する(S116)。   In the case of NO in S110, the control unit 52 updates the priority information table 58a (see FIG. 4) (S112). More specifically, the control unit 52 adds “1” to the initial selection number 142 of the filter ID (for example, filter ID 100) received in S44 of FIG. 7 in the priority information table 58a. On the other hand, in the case of YES in S112, the control unit 52 updates the priority information table 58a (see FIG. 4) and also updates the next selection prediction table 60a (see FIG. 5) (S114, S116). Specifically, in the priority information table 58a, the control unit 52 adds “1” to the selection count 144 after the second time of the filter ID (for example, the filter ID 102) received in S44 of FIG. 7 (S114). . Further, in the next selection prediction table 60a, the control unit 52 filters the filter ID (for example, filter ID 100) received last time in S44 of FIG. 7 and the filter ID (for example, filter ID 102) received this time in S44 of FIG. “1” is added to the combination. For example, if the filter ID 100 was received last time in S44 of FIG. 7 and the filter ID 102 was received this time in S44 of FIG. 7, “1” is set to “5” in the column 154 of FIG. Are added (S116).

なお、フローチャートには示されていないが、制御部52は、優先度情報テーブル58aが更新された場合、所定のタイミングで、優先度情報テーブル58aの優先度146(図4参照)を計算する処理を実行する。また、制御部52は、次回選択予測テーブル60aが更新された場合、所定のタイミングで、次回選択予測テーブル60aの予測フィルタ160(図5参照)を特定する処理を実行する。なお、上記の所定のタイミングは、例えば、多機能機10との通信が終了した直後のタイミングであってもよいし、テーブル58a,60aが更新されたタイミングであってもよい。   Although not shown in the flowchart, when the priority information table 58a is updated, the control unit 52 calculates the priority 146 (see FIG. 4) of the priority information table 58a at a predetermined timing. Execute. Further, when the next selection prediction table 60a is updated, the control unit 52 executes a process of specifying the prediction filter 160 (see FIG. 5) of the next selection prediction table 60a at a predetermined timing. The predetermined timing described above may be, for example, a timing immediately after the communication with the multi-function device 10 is completed, or may be a timing when the tables 58a and 60a are updated.

図7に示されるように、制御部52は、テーブル更新処理を開始すると(S46)、続いて、フィルタ実行テーブル64(図6参照)を参照することによって、S44で受信されたフィルタIDのステータス186が「2」であるのか否かを判断する(S48)。ここでNOの場合、制御部52は、調整処理を開始する(S50)。   As shown in FIG. 7, when the control unit 52 starts the table update process (S46), the status of the filter ID received in S44 is subsequently referred to by referring to the filter execution table 64 (see FIG. 6). It is determined whether or not 186 is “2” (S48). In the case of NO here, the control unit 52 starts the adjustment process (S50).

図10は、調整処理のフローチャートを示す。制御部52は、図7のS44で受信されたフィルタIDのステータス186が「0」であるのか否かを判断する(S130)。ここでNOの場合は、図7のS44で受信されたフィルタIDのステータス186が「1」であり、そのフィルタIDに対応するフィルタ処理が予測処理(図8参照)において実行されていることを意味する。この場合、制御部52は、調整処理を終了する。   FIG. 10 shows a flowchart of the adjustment process. The control unit 52 determines whether or not the status 186 of the filter ID received in S44 of FIG. 7 is “0” (S130). In the case of NO here, the status 186 of the filter ID received in S44 of FIG. 7 is “1”, and the filter processing corresponding to the filter ID is being executed in the prediction processing (see FIG. 8). means. In this case, the control unit 52 ends the adjustment process.

一方において、S130でYESの場合は、図7のS44で受信されたフィルタID以外のフィルタIDに対応するフィルタ処理が予測処理(図8参照)において実行されていることを意味する。この場合、制御部52は、予測処理にキャンセルを指示する(S132)。さらに、制御部52は、予測処理に図7のS44で受信されたフィルタIDを通知する(S134)。この結果、図8の予測処理では、S88でYESと判断されて現在実行されているフィルタ処理がキャンセルされ、調整処理から通知されたフィルタIDに対応するフィルタ処理が実行される(S92、S74、S76)。   On the other hand, if YES in S130, it means that the filter process corresponding to the filter ID other than the filter ID received in S44 of FIG. 7 is being executed in the prediction process (see FIG. 8). In this case, the control unit 52 instructs the prediction process to be canceled (S132). Further, the control unit 52 notifies the prediction process of the filter ID received in S44 of FIG. 7 (S134). As a result, in the prediction process of FIG. 8, it is determined as YES in S88, the currently executed filter process is canceled, and the filter process corresponding to the filter ID notified from the adjustment process is executed (S92, S74, S76).

図7に示されるように、制御部52は、調整処理を開始すると(S50)、S44で受信されたフィルタIDに従って予測処理においてフィルタ処理が完了することまで待機する(S52)。制御部52は、S44で受信されたフィルタIDに対応するフィルタ処理が完了した場合に、そのフィルタ処理で得られた処理後のサムネイル画像データ(図8のS82で記憶されたサムネイル画像データ)を多機能機10に送信する(S54)。なお、S48でYESの場合も、S54に進む。この場合も、制御部52は、S44で受信されたフィルタIDに対応するフィルタ処理で得られた処理後のサムネイル画像データ(S82で記憶されたサムネイル画像データ)を多機能機10に送信する。S54が実行されることによって、多機能機10は、処理後のサムネイル画像データを表示部14に表示させることができる(図2のS20、図3のS28参照)。   As shown in FIG. 7, when starting the adjustment process (S50), the control unit 52 waits until the filter process is completed in the prediction process according to the filter ID received in S44 (S52). When the filter process corresponding to the filter ID received in S44 is completed, the control unit 52 performs the processed thumbnail image data (thumbnail image data stored in S82 of FIG. 8) obtained by the filter process. It transmits to the multi-function device 10 (S54). In the case of YES in S48, the process proceeds to S54. Also in this case, the control unit 52 transmits the processed thumbnail image data (thumbnail image data stored in S82) obtained by the filter processing corresponding to the filter ID received in S44 to the multi-function device 10. By executing S54, the multi-function device 10 can display the processed thumbnail image data on the display unit 14 (see S20 in FIG. 2 and S28 in FIG. 3).

本実施例の画像処理システム2について詳しく説明した。サーバ50は、図9のテーブル更新処理を実行することによって、次回選択予測テーブル60aを生成することができる。サーバ50は、例えば、多機能機10のユーザによってフィルタID100が選択された場合に、次回選択予測テーブル60aを参照することによって、次に選択される可能性が高いフィルタID102を予測することができる(図8のS84及びS86)。サーバ50は、予測されたフィルタID102がユーザによって実際に選択されたのか否かに関わらず、フィルタID102に対応するフィルタ処理を実行する(図8のS76)。このために、仮に、フィルタID100の次にフィルタID102がユーザによって選択された場合(即ち図7のS44でフィルタID102が受信された場合)に、サーバ50では、フィルタID102に対応するフィルタ処理が完了している可能性がある。仮に、フィルタID102に対応するフィルタ処理が完了している場合、サーバ50は、図7のS44でのフィルタID102の受信に応じて、サムネイル画像データをすぐに送信することができる。処理後のサムネイル画像データを多機能機10のユーザに迅速に提供することができる。   The image processing system 2 of the present embodiment has been described in detail. The server 50 can generate the next selection prediction table 60a by executing the table update process of FIG. For example, when the filter ID 100 is selected by the user of the multi-function device 10, the server 50 can predict the filter ID 102 that is likely to be selected next by referring to the next selection prediction table 60a. (S84 and S86 in FIG. 8). The server 50 executes the filter process corresponding to the filter ID 102 regardless of whether or not the predicted filter ID 102 is actually selected by the user (S76 in FIG. 8). Therefore, if the filter ID 102 is selected by the user after the filter ID 100 (that is, when the filter ID 102 is received in S44 of FIG. 7), the server 50 completes the filter processing corresponding to the filter ID 102. There is a possibility. If the filter processing corresponding to the filter ID 102 has been completed, the server 50 can immediately transmit the thumbnail image data in response to the reception of the filter ID 102 in S44 of FIG. The processed thumbnail image data can be quickly provided to the user of the multi-function device 10.

また、サーバ50は、図9のテーブル更新処理を実行することによって、優先度情報テーブル58aを生成することができる。サーバ50は、例えば、図2の画像データ送信処理(S8)において多機能機10から送信されるサムネイル画像データ80が受信された場合に、優先度情報テーブル58aを参照することによって、選択される可能性が高いフィルタID(例えばフィルタID100)を予測することができる(図8のS72)。上述したように、優先度146(図4参照)は、初回選択回数142の重みが大きい。このために、サーバ50は、初回に選択される可能性が高いフィルタID(例えばフィルタID100)を精度よく予測することができる。サーバ50は、予測されたフィルタID100がユーザによって実際に選択されたのか否かに関わらず、そのフィルタID100に対応するフィルタ処理を実行する(図8のS76)。このために、仮に、サムネイル画像データ80が受信されてから最初にフィルタID100がユーザによって選択された場合(即ち図7のS44でフィルタID100が受信された場合)に、サーバ50では、フィルタID100に対応するフィルタ処理が完了している可能性がある。仮に、フィルタID100に対応するフィルタ処理が完了している場合、サーバ50は、図7のS44でのフィルタID100の受信に応じて、サムネイル画像データをすぐに送信することができる。処理後のサムネイル画像データを多機能機10のユーザに迅速に提供することができる。   Further, the server 50 can generate the priority information table 58a by executing the table update process of FIG. For example, when the thumbnail image data 80 transmitted from the multi-function device 10 is received in the image data transmission process (S8) of FIG. 2, the server 50 is selected by referring to the priority information table 58a. A filter ID (for example, filter ID 100) having a high possibility can be predicted (S72 in FIG. 8). As described above, the priority 146 (see FIG. 4) has a large weight of the first selection number 142. Therefore, the server 50 can accurately predict a filter ID (for example, filter ID 100) that is likely to be selected for the first time. The server 50 executes the filter process corresponding to the filter ID 100 regardless of whether or not the predicted filter ID 100 is actually selected by the user (S76 in FIG. 8). Therefore, if the filter ID 100 is first selected by the user after the thumbnail image data 80 is received (that is, if the filter ID 100 is received in S44 of FIG. 7), the server 50 sets the filter ID 100 to the filter ID 100. Corresponding filtering may have been completed. If the filter processing corresponding to the filter ID 100 is completed, the server 50 can immediately transmit the thumbnail image data in response to the reception of the filter ID 100 in S44 of FIG. The processed thumbnail image data can be quickly provided to the user of the multi-function device 10.

なお、本実施例では、ユーザによって選択されたフィルタIDの次に選択されるべき予測フィルタ160(図5参照)が次回選択予測テーブル60aに存在しない場合(図8のS84でNOの場合)にも、優先度情報テーブル58aを用いてフィルタIDを予測する処理が実行される。予測フィルタ160(図5参照)が存在しない場合でも、次に選択される可能性が高いフィルタIDを予測することができる。   In the present embodiment, when the prediction filter 160 (see FIG. 5) to be selected next to the filter ID selected by the user does not exist in the next selection prediction table 60a (NO in S84 of FIG. 8). In addition, the process of predicting the filter ID using the priority information table 58a is executed. Even when the prediction filter 160 (see FIG. 5) does not exist, it is possible to predict a filter ID that is likely to be selected next.

(第2実施例)
第1実施例と異なる点について説明する。第1実施例では、サーバ50は、多機能機10におけるフィルタ処理の選択(即ちフィルタIDの受信)に応じて、処理後のサムネイル画像データを多機能機10に送信する。本実施例のサーバ50は、この点が第1実施例と異なる。即ち、本実施例のサーバ50は、図8のS78において、フィルタ処理が完了した場合に、多機能機10におけるフィルタ処理の選択に関わらず、そのフィルタ処理で得られた処理後のサムネイル画像データを多機能機10に送信する。多機能機10は、サーバ50から送信されるサムネイル画像データを記憶領域32(図1参照)にキャッシュしておく。多機能機10は、ユーザによってフィルタ処理が選択され、かつ、そのフィルタ処理で得られたサムネイル画像データがキャッシュされている場合には、そのサムネイル画像データを表示部14aに表示させる。なお、サムネイル画像データがキャッシュされていない場合には、多機能機10は、そのサムネイル画像データをサーバ50から受信するまで待機する。
(Second embodiment)
Differences from the first embodiment will be described. In the first embodiment, the server 50 transmits the processed thumbnail image data to the multi-function device 10 in accordance with the selection of the filter process in the multi-function device 10 (that is, reception of the filter ID). The server 50 of this embodiment is different from the first embodiment in this point. That is, when the filtering process is completed in S78 of FIG. 8, the server 50 according to the present embodiment performs the processed thumbnail image data obtained by the filtering process regardless of the selection of the filtering process in the multi-function device 10. Is transmitted to the multi-function device 10. The multi-function device 10 caches thumbnail image data transmitted from the server 50 in the storage area 32 (see FIG. 1). When the filtering process is selected by the user and the thumbnail image data obtained by the filtering process is cached, the multi-function device 10 displays the thumbnail image data on the display unit 14a. If the thumbnail image data is not cached, the multi-function device 10 waits until the thumbnail image data is received from the server 50.

本実施例によると、多機能機10は、ユーザによって選択されたフィルタ処理で得られたサムネイル画像データがキャッシュされている場合に、そのサムネイル画像データを表示部14aに迅速に表示させることができる。   According to the present embodiment, when the thumbnail image data obtained by the filtering process selected by the user is cached, the multi-function device 10 can quickly display the thumbnail image data on the display unit 14a. .

(第3実施例)
第1実施例及び第2実施例と異なる点について説明する。本実施例のサーバ50は、予測処理(図8参照)の内容が第1実施例及び第2実施例と異なる。図11は、本実施例の予測処理のフローチャートを示す。サーバ50の制御部52は、フィルタ実行テーブル64(図6参照)を生成する。この点は、第1実施例及び第2実施例と同様である。制御部52は、フィルタ実行テーブル64の全てのフィルタID100〜106の優先度182の平均値を算出し、平均値から第1所定値を減算することによって値T1を算出し、平均値に第2所定値(第1所定値と同じ値であってもよいし、異なる値であってもよい)を加算することによって値T2を算出する。次いで、制御部52は、フィルタ実行テーブル64の全てのフィルタID100〜106の優先度182が、上記のT1とT2の間の範囲に含まれるのか否かを判断する(S152)。ここでNOの場合、図8のS72に進む。
(Third embodiment)
Differences from the first and second embodiments will be described. The server 50 of the present embodiment is different from the first and second embodiments in the content of the prediction process (see FIG. 8). FIG. 11 shows a flowchart of the prediction process of the present embodiment. The control unit 52 of the server 50 generates a filter execution table 64 (see FIG. 6). This is the same as in the first and second embodiments. The control unit 52 calculates the average value of the priorities 182 of all the filter IDs 100 to 106 in the filter execution table 64, calculates the value T1 by subtracting the first predetermined value from the average value, and sets the second value to the average value. A value T2 is calculated by adding a predetermined value (may be the same value as the first predetermined value or a different value). Next, the control unit 52 determines whether or not the priorities 182 of all the filter IDs 100 to 106 in the filter execution table 64 are included in the range between the above T1 and T2 (S152). In the case of NO here, the process proceeds to S72 of FIG.

一方において、S152でYESの場合、制御部52は、フィルタ実行テーブル64を参照することによって、ステータス186が「0」であるフィルタIDの数をカウントする(S154)。以下では、ここでカウントされた数を「C」とする。例えば、図6の例の場合、4つのフィルタIDが存在するために、S154では、C=4が得られる。次いで、制御部52は、図7のS40で受信されたサムネイル画像データを、S154でカウントされたC個の画像データに分割する(S156)。例えば、制御部52は、サムネイル画像データをE行F列(E×F=C)のマトリクス状に分割する。これにより、C個の分割画像データが得られる。   On the other hand, in the case of YES in S152, the control unit 52 refers to the filter execution table 64 to count the number of filter IDs whose status 186 is “0” (S154). Hereinafter, the number counted here is assumed to be “C”. For example, in the example of FIG. 6, since there are four filter IDs, C = 4 is obtained in S154. Next, the control unit 52 divides the thumbnail image data received in S40 of FIG. 7 into C image data counted in S154 (S156). For example, the control unit 52 divides the thumbnail image data into a matrix of E rows and F columns (E × F = C). As a result, C pieces of divided image data are obtained.

続いて、制御部52は、C個の分割画像データのそれぞれについて、C個のフィルタID100〜106に対応するフィルタ処理を開始する(S158)。例えば、第1〜第4の分割画像データが得られた場合、制御部52は、第1の分割画像データに対してフィルタID100に対応するフィルタ処理を開始する。さらに、制御部52は、他の第2〜第4の分割画像データに対してフィルタID102,104,106に対応するフィルタ処理をそれぞれ開始する。   Subsequently, the control unit 52 starts filter processing corresponding to the C filter IDs 100 to 106 for each of the C divided image data (S158). For example, when the first to fourth divided image data are obtained, the control unit 52 starts a filter process corresponding to the filter ID 100 for the first divided image data. Further, the control unit 52 starts filter processing corresponding to the filter IDs 102, 104, and 106 for the other second to fourth divided image data.

制御部52は、C個の分割画像データに対するフィルタ処理が完了することを監視している(S160)。ここでYESの場合、制御部52は、C個の分割画像データを結合することによって、1個の処理後のサムネイル画像データを生成する(S162)。次いで、制御部52は、処理後のサムネイル画像データを多機能機10に送信する(S164)。この結果、多機能機10は、処理後のサムネイル画像データを表示部14に表示させる。S164を終えると、図8のS72に進む。また、制御部52は、図10の調整処理からキャンセルが指示されることを監視している(S166)。ここでYESの場合、制御部52は、S158で開始されたフィルタ処理を中止し、図8のS92に進む。   The control unit 52 monitors the completion of the filter processing for the C divided image data (S160). In the case of YES here, the control unit 52 generates one processed thumbnail image data by combining the C divided image data (S162). Next, the control unit 52 transmits the processed thumbnail image data to the multi-function device 10 (S164). As a result, the multi-function device 10 causes the display unit 14 to display the processed thumbnail image data. When S164 ends, the process proceeds to S72 of FIG. Further, the control unit 52 monitors whether cancellation is instructed from the adjustment process of FIG. 10 (S166). In the case of YES here, the control unit 52 stops the filter process started in S158 and proceeds to S92 in FIG.

本実施例では、サーバ50は、突出した優先度182を有するフィルタIDが存在しない場合(即ち優先度182に基づいて精度よく予測することができない場合)に、複数のフィルタIDに対応するフィルタ処理を実行することによって処理後のサムネイル画像データを生成し、そのサムネイル画像データを多機能機10に送信する。複数のフィルタIDに対応するフィルタ処理で得られるサムネイル画像データをユーザに提供することができる。ユーザは、サムネイル画像データを見ることによって、各フィルタ処理によってどのような加工が行なわれるのかを知ることができる。   In the present embodiment, the server 50 performs filter processing corresponding to a plurality of filter IDs when there is no filter ID having the protruding priority 182 (that is, when it cannot be accurately predicted based on the priority 182). Is executed to generate thumbnail image data after processing, and the thumbnail image data is transmitted to the multi-function device 10. Thumbnail image data obtained by filter processing corresponding to a plurality of filter IDs can be provided to the user. The user can know what kind of processing is performed by each filter process by looking at the thumbnail image data.

(第4実施例)
第1実施例〜第3実施例と異なる点について説明する。本実施例では、多機能機10が、優先度情報テーブル58と次回選択予測テーブル60を生成し、図7〜図10の各処理を実行する。ただし、図7〜図10の各処理において、以下の各点が異なる。図7のS40において、多機能機10は、画像データを受信することを監視するのではなく、図2の画像選択操作(S6)が実行されるのを監視する。図7のS44において、多機能機10は、フィルタIDを受信することを監視するのではなく、図2及び図3のフィルタ選択操作(S14,S22)が実行されるのを監視する。
(Fourth embodiment)
Differences from the first to third embodiments will be described. In the present embodiment, the multi-function device 10 generates the priority information table 58 and the next selection prediction table 60, and executes each process of FIGS. However, the following points are different in each processing of FIGS. In S40 of FIG. 7, the multi-function device 10 does not monitor the reception of image data, but monitors the execution of the image selection operation (S6) of FIG. In S44 of FIG. 7, the multi-function device 10 does not monitor the reception of the filter ID but monitors the execution of the filter selection operations (S14, S22) of FIGS.

図8のS76において、多機能機10は、フィルタ処理を開始するのではなく、フィルタ処理を開始するようにサーバ50に指示する。この指示では、S72、S86、又は、S92で選択されたフィルタIDに対応するフィルタ処理を開始するようにサーバ50に指示する。図8のS78において、多機能機10は、サーバ50においてフィルタ処理が完了し、そのフィルタ処理で得られた処理後のサムネイル画像データをサーバ50から受信することを監視する。また、図7のS52において、多機能機10は、サーバ50においてフィルタ処理が完了し、そのフィルタ処理で得られた処理後のサムネイル画像データをサーバ50から受信するまで待機する。図7のS54において、多機能機10は、処理後のサムネイル画像データを送信するのではなく、処理後のサムネイル画像データを表示部14に表示させる選択画面更新処理(図2のS20、図3のS28参照)を実行する。   In S <b> 76 of FIG. 8, the multi-function device 10 instructs the server 50 not to start the filter process but to start the filter process. In this instruction, the server 50 is instructed to start the filter process corresponding to the filter ID selected in S72, S86, or S92. In S78 of FIG. 8, the multi-function device 10 monitors whether the server 50 has completed the filtering process and receives the processed thumbnail image data obtained by the filtering process from the server 50. Further, in S52 of FIG. 7, the multi-function device 10 stands by until the filter processing is completed in the server 50 and the processed thumbnail image data obtained by the filter processing is received from the server 50. In S54 of FIG. 7, the multi-function device 10 does not transmit the processed thumbnail image data, but the selection screen update process for displaying the processed thumbnail image data on the display unit 14 (S20 of FIG. 2, FIG. 3). (Refer to S28).

本実施例によっても、処理後のサムネイル画像データを多機能機10のユーザに迅速に提供することができる。   Also according to this embodiment, the processed thumbnail image data can be quickly provided to the user of the multi-function device 10.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The modifications of the above embodiment are listed below.

(1)上記の実施例では、次回選択予測テーブル60a(図5参照)において、予測フィルタ160が予め決定されている。即ち、サーバ50は、図8のS84及びS86において、ユーザによって選択されたフィルタ処理に対応するフィルタIDについて予め決められている予測フィルタ160を特定することによって、次に選択されるべきフィルタIDを予測している。しかしながら、サーバ50は、次回選択予測テーブル60aにおいて、予測フィルタ160を予め決定しておかなくてもよい。この場合、サーバ50は、図8のS82を終える毎に、上記の実施例に記載した手法を利用して、ユーザによって選択されたフィルタ処理(又はS72で選択されたフィルタ処理)の次に選択されるべきフィルタ処理(フィルタID)を決定してもよい。 (1) In the above embodiment, the prediction filter 160 is previously determined in the next selection prediction table 60a (see FIG. 5). That is, the server 50 specifies the filter ID to be selected next by specifying the prediction filter 160 predetermined for the filter ID corresponding to the filter process selected by the user in S84 and S86 of FIG. Predict. However, the server 50 may not determine the prediction filter 160 in advance in the next selection prediction table 60a. In this case, each time S <b> 82 in FIG. 8 is finished, the server 50 selects the filter process selected by the user (or the filter process selected in S <b> 72) using the method described in the above embodiment. The filtering process (filter ID) to be performed may be determined.

(2)上記の実施例では、サーバ50がフィルタ処理を実行しているが、多機能機10がフィルタ処理を実行してもよい。例えば、上記の第4実施例において、多機能機10がサーバ50にフィルタ処理を指示する構成を、多機能機10が自身でフィルタ処理を実行する構成に代えることができる。この構成の場合、サーバ50を省略することができる。 (2) In the above embodiment, the server 50 executes the filter process, but the multi-function device 10 may execute the filter process. For example, in the fourth embodiment, the configuration in which the multi-function device 10 instructs the server 50 to perform the filtering process can be replaced with a configuration in which the multi-function device 10 performs the filtering process by itself. In the case of this configuration, the server 50 can be omitted.

(3)上記の実施例では、サーバ50は、多機能機10において選択された各フィルタ処理を同じサムネイル画像データ80に対して実行する。しかしながら、多機能機10において選択された各フィルタ処理は、異なるサムネイル画像データに対して実行されてもよい。例えば、サーバ50は、多機能機10から送信されたフィルタID100が受信された場合に、サムネイル画像データ80に対してフィルタID100に対応するフィルタ処理を実行し、次いで、フィルタID100の次に選択されるべきフィルタID102を予測した場合に、フィルタID100に対応するフィルタ処理で得られたサムネイル画像データに対してフィルタID102に対応するフィルタ処理を実行してもよい。 (3) In the above embodiment, the server 50 executes each filter process selected in the multi-function device 10 for the same thumbnail image data 80. However, each filter process selected in the multi-function device 10 may be executed for different thumbnail image data. For example, when the filter ID 100 transmitted from the multi-function device 10 is received, the server 50 performs a filter process corresponding to the filter ID 100 on the thumbnail image data 80, and then selected next to the filter ID 100. When the filter ID 102 to be predicted is predicted, the filter process corresponding to the filter ID 102 may be executed on the thumbnail image data obtained by the filter process corresponding to the filter ID 100.

(4)上記の実施例では、多機能機10は、サムネイル画像データ80をサーバ50に送信し、サーバ50は、サムネイル画像データ80に対してフィルタ処理を実行する。しかしながら、多機能機10は、オリジナルの画像データ(サムネイル画像データ80の元の画像データ)をサーバ50に送信し、サーバ50は、オリジナルの画像データに対してフィルタ処理を実行してもよい。 (4) In the above embodiment, the multi-function device 10 transmits the thumbnail image data 80 to the server 50, and the server 50 executes the filtering process on the thumbnail image data 80. However, the multi-function device 10 may transmit original image data (original image data of the thumbnail image data 80) to the server 50, and the server 50 may perform a filtering process on the original image data.

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

2:画像処理システム、4:インターネット、10,40:多機能機、12:制御部、14:表示部、14a〜14d:画面、16:操作部、18:USBインターフェイス、20:ネットワークインターフェイス、22:印刷部、24:記憶部、28:フィルタ種類リスト、30:プログラム、50:サーバ、52:制御部、54:ネットワークインターフェイス、56:記憶部、58,58a:優先度情報テーブル、60,60a:次回選択予測テーブル、64:フィルタ実行テーブル、66:プログラム、80:サムネイル画像データ、100〜106:フィルタID、120,122:処理後のサムネイル画像データ   2: image processing system, 4: internet, 10, 40: multi-function device, 12: control unit, 14: display unit, 14a to 14d: screen, 16: operation unit, 18: USB interface, 20: network interface, 22 : Printing unit, 24: Storage unit, 28: Filter type list, 30: Program, 50: Server, 52: Control unit, 54: Network interface, 56: Storage unit, 58, 58a: Priority information table, 60, 60a : Next selection prediction table, 64: Filter execution table, 66: Program, 80: Thumbnail image data, 100 to 106: Filter ID, 120, 122: Thumbnail image data after processing

Claims (14)

処理対象の画像データを取得する画像データ取得処理と、
N種類(Nは2以上の整数)の画像処理の中からユーザによって選択された種類の画像処理に対応する種類情報を取得する種類情報取得処理と、
前記種類情報取得処理によって取得された前記種類情報に対応する種類の画像処理を、前記処理対象の画像データに対して実行して第1処理後画像データを生成する第1処理後画像データ生成処理と、
前記N種類の画像処理のそれぞれについて、当該種類の画像処理の次にいずれの種類の画像処理が選択されたのかを示す第1実績情報を生成する第1実績情報生成処理と、
前記種類情報取得処理によって取得された前記種類情報に対応する種類の画像処理の次に選択されるべき種類の画像処理を、前記第1実績情報を用いて予測する第1予測を実行する第1予測処理と、
前記第1予測処理によって予測された種類の画像処理を、前記処理対象の画像データに対して実行して第2処理後画像データを生成する第2処理後画像データ生成処理と、
をコンピュータに実行させるコンピュータプログラム。
Image data acquisition processing for acquiring image data to be processed;
Type information acquisition processing for acquiring type information corresponding to the type of image processing selected by the user from among N types of image processing (N is an integer of 2 or more);
First post-processing image data generation processing for generating first post-processing image data by executing image processing of the type corresponding to the type information acquired by the type information acquisition processing on the image data to be processed When,
For each of the N types of image processing, first performance information generation processing for generating first performance information indicating which type of image processing is selected next to the type of image processing;
A first prediction is executed for predicting, using the first performance information, the type of image processing to be selected next to the type of image processing corresponding to the type information acquired by the type information acquisition processing. The prediction process,
A second post-processing image data generation process for generating the second post-processing image data by executing the type of image processing predicted by the first prediction process on the processing target image data;
A computer program that causes a computer to execute.
前記第1実績情報は、前記N種類の画像処理のそれぞれについて、
当該種類の画像処理に対応する第1種類情報と、
当該種類の画像処理の次に選択された種類の画像処理に対応する第2種類情報と、
前記第1種類情報に対応する種類の画像処理の次に前記第2種類情報に対応する種類の画像処理が選択された回数に関する第1選択回数情報と、
が関連づけられた第1関連情報を含む
ことを特徴とする請求項1に記載のコンピュータプログラム。
The first record information is about each of the N types of image processing.
First type information corresponding to the type of image processing;
Second type information corresponding to the type of image processing selected next to the type of image processing;
First selection number information relating to the number of times an image processing of a type corresponding to the second type information is selected after an image processing of a type corresponding to the first type information;
The computer program according to claim 1, further comprising first related information associated with each other.
前記第1予測処理では、前記種類情報取得処理によって取得された前記種類情報に対応する前記第1種類情報に関連づけられている前記第2種類情報であって、最も大きい前記第1選択回数情報に関連づけられている前記第2種類情報を特定することによって、前記第1予測を実行する
ことを特徴とする請求項2に記載のコンピュータプログラム。
In the first prediction process, the second type information associated with the first type information corresponding to the type information acquired by the type information acquisition process is the largest first selection count information. The computer program according to claim 2, wherein the first prediction is executed by specifying the second type information associated with the second type information.
前記第1予測処理では、前記種類情報取得処理によって取得された前記種類情報に対応する前記第1種類情報に関連づけられている最も大きい前記第1選択回数情報が所定数に満たない場合に、前記第1予測を実行しない
ことを特徴とする請求項2又は3に記載のコンピュータプログラム。
In the first prediction process, when the largest first selection number information associated with the first type information corresponding to the type information acquired by the type information acquisition process is less than a predetermined number, The computer program according to claim 2 or 3, wherein the first prediction is not executed.
前記N種類の画像処理のそれぞれについて、当該種類の画像処理が選択されたことを示す第2実績情報を生成する第2実績情報生成処理と、
選択されるべき種類の画像処理を、前記第2実績情報を用いて予測する第2予測を実行する第2予測処理と、
前記第2予測処理によって予測された種類の画像処理を、前記処理対象の画像データに対して実行して第3処理後画像データを生成する第3処理後画像データ生成処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1から4のいずれかに記載のコンピュータプログラム。
For each of the N types of image processing, second performance information generation processing for generating second performance information indicating that the type of image processing has been selected;
A second prediction process for executing a second prediction for predicting the type of image processing to be selected using the second performance information;
A third post-processing image data generation process for generating the third post-processing image data by performing the type of image processing predicted by the second prediction process on the processing target image data;
The computer program according to claim 1, further causing the computer to execute.
前記第2実績情報は、前記N種類の画像処理のそれぞれについて、
当該種類の画像処理に対応する第3種類情報と、
当該種類の画像処理が選択された回数に関する第2選択回数情報と、
が関連づけられた第2関連情報を含む
ことを特徴とする請求項5に記載のコンピュータプログラム。
The second performance information is about each of the N types of image processing.
Third type information corresponding to the type of image processing;
Second selection number information regarding the number of times the type of image processing has been selected;
The computer program according to claim 5, further comprising second related information associated with.
前記第2予測処理では、最も大きい前記第2選択回数情報に関連づけられている前記第3種類情報を特定することによって、前記第2予測を実行する
ことを特徴とする請求項6に記載のコンピュータプログラム。
7. The computer according to claim 6, wherein in the second prediction process, the second prediction is executed by specifying the third type information associated with the largest second selection count information. program.
前記第2選択回数情報は、
同じ処理対象の画像データに関して複数種類の画像処理が順に選択された場合の初回に選択された回数に第1値が乗算された値と、
同じ処理対象の画像データに関して複数種類の画像処理が順に選択された場合の二回目以降に選択された回数に第2値が乗算された値と、
の和に相当する値であり、
前記第1値は、前記第2値より大きい
ことを特徴とする請求項6又は7に記載のコンピュータプログラム。
The second selection number information is
A value obtained by multiplying a first value by the number of times selected for the first time when a plurality of types of image processing are sequentially selected with respect to the same image data to be processed;
A value obtained by multiplying the second value by the number of times selected after the second time when a plurality of types of image processing are sequentially selected with respect to the same image data to be processed;
Is equivalent to the sum of
The computer program according to claim 6 or 7, wherein the first value is larger than the second value.
前記第1予測処理では、さらに、前記第2予測処理によって予測された種類の画像処理の次にユーザによって選択されるべき種類の画像処理を、前記第1実績情報を用いて予測する第3予測を実行する
ことを特徴とする請求項5から8のいずれかに記載のコンピュータプログラム。
In the first prediction process, a third prediction for predicting a type of image processing to be selected by the user next to the type of image processing predicted by the second prediction process is performed using the first performance information. The computer program according to claim 5, wherein the computer program is executed.
前記第2実績情報が予め決められた条件を満たす場合に、前記処理対象の画像データを前記N個に分割することによって前記N個の分割画像データを生成する処理前分割画像データ生成処理と、
前記N種類の画像処理のそれぞれを、前記N個の分割画像データのうちの異なる1つの分割画像データに対して実行して、前記N個の処理後分割画像データを生成する処理後分割画像データ生成処理と、
前記分割画像データ生成処理によって生成される前記N個の処理後分割画像データを結合することによって、1個の結合画像データを生成する結合画像データ生成処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項5から9のいずれかに記載のコンピュータプログラム。
When the second performance information satisfies a predetermined condition, a pre-process divided image data generation process for generating the N divided image data by dividing the image data to be processed into the N pieces;
Each of the N types of image processing is executed on one different divided image data among the N divided image data to generate the post-processed divided image data. Generation process,
A combined image data generation process for generating one combined image data by combining the N post-processed divided image data generated by the divided image data generation process;
The computer program according to claim 5, further causing the computer to execute.
前記コンピュータは、外部装置に通信可能に接続されるサーバに搭載され、
前記画像データ取得処理では、前記外部装置から送信される前記処理対象の画像データを受信することによって、前記処理対象の画像データを取得し、
前記種類情報取得処理では、前記外部装置において選択された種類の画像処理に対応する前記種類情報であって、前記外部装置から送信される前記種類情報を受信することによって、前記種類情報を取得し、
前記第1処理後画像データ生成処理によって生成された前記第1処理後画像データを前記外部装置に送信する第1送信処理と、
前記第2処理後画像データ生成処理によって生成された前記第2処理後画像データを前記外部装置に送信する第2送信処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1から10のいずれかに記載のコンピュータプログラム。
The computer is mounted on a server communicably connected to an external device,
In the image data acquisition process, the image data to be processed is acquired by receiving the image data to be processed transmitted from the external device,
In the type information acquisition process, the type information is acquired by receiving the type information corresponding to the type of image processing selected in the external device and transmitted from the external device. ,
First transmission processing for transmitting the first post-processing image data generated by the first post-processing image data generation processing to the external device;
A second transmission process for transmitting the second post-processing image data generated by the second post-processing image data generation process to the external device;
The computer program according to claim 1, further causing the computer to execute.
前記第2送信処理では、前記第2処理後画像データ生成処理によって前記第2処理後画像データが生成された直後に、前記第2処理後画像データを前記外部装置に送信する
ことを特徴とする請求項11に記載のコンピュータプログラム。
In the second transmission processing, the second post-processing image data is transmitted to the external device immediately after the second post-processing image data is generated by the second post-processing image data generation processing. The computer program according to claim 11.
処理対象の画像データを取得する画像データ取得手段と、
N種類(Nは2以上の整数)の画像処理の中からユーザによって選択された種類の画像処理に対応する種類情報を取得する種類情報取得手段と、
前記種類情報取得手段によって取得された前記種類情報に対応する種類の画像処理を、前記処理対象の画像データに対して実行して第1処理後画像データを生成する第1処理後画像データ生成手段と、
前記N種類の画像処理のそれぞれについて、当該種類の画像処理の次にいずれの種類の画像処理が選択されたのかを示す第1実績情報を生成する第1実績情報生成手段と、
前記種類情報取得手段によって取得された前記種類情報に対応する種類の画像処理の次に選択されるべき種類の画像処理を、前記第1実績情報を用いて予測する第1予測を実行する第1予測手段と、
前記第1予測手段によって予測された種類の画像処理を、前記処理対象の画像データに対して実行して第2処理後画像データを生成する第2処理後画像データ生成手段と、
を備える画像処理装置。
Image data acquisition means for acquiring image data to be processed;
Type information acquisition means for acquiring type information corresponding to the type of image processing selected by the user from among N types of image processing (N is an integer of 2 or more);
First post-processing image data generation means for generating first post-processing image data by executing image processing of a type corresponding to the type information acquired by the type information acquisition means on the processing target image data. When,
For each of the N types of image processing, a first result information generating unit that generates first result information indicating which type of image processing is selected next to the type of image processing;
A first prediction is executed for predicting, using the first performance information, the type of image processing to be selected next to the type of image processing corresponding to the type information acquired by the type information acquisition means. Prediction means,
Second post-processing image data generation means for generating the second post-processing image data by executing the type of image processing predicted by the first prediction means on the processing target image data;
An image processing apparatus comprising:
サーバに画像処理を実行させる画像処理指示装置であって、
処理対象の画像データを取得する画像データ取得手段と、
N種類(Nは2以上の整数)の画像処理の中からユーザによって選択された種類の画像処理に対応する種類情報を取得する種類情報取得手段と、
前記種類情報取得手段によって取得された前記種類情報に対応する種類の画像処理を、前記処理対象の画像データに対して実行して第1処理後画像データを生成するように、前記サーバに指示する第1指示手段と、
前記サーバから送信される前記第1処理後画像データを受信する第1受信手段と、
前記N種類の画像処理のそれぞれについて、当該種類の画像処理の次にいずれの種類の画像処理が選択されたのかを示す第1実績情報を生成する第1実績情報生成手段と、
前記種類情報取得手段によって取得された前記種類情報に対応する種類の画像処理の次に選択されるべき種類の画像処理を、前記第1実績情報を用いて予測する第1予測を実行する第1予測手段と、
前記第1予測手段によって予測された種類の画像処理を、前記処理対象の画像データに対して実行して第2処理後画像データを生成するように、前記サーバに指示する第2指示手段と、
前記サーバから送信される前記第2処理後画像データを受信する第2受信手段と、
を備える画像処理指示装置。
An image processing instruction device for causing a server to execute image processing,
Image data acquisition means for acquiring image data to be processed;
Type information acquisition means for acquiring type information corresponding to the type of image processing selected by the user from among N types of image processing (N is an integer of 2 or more);
Instructs the server to execute image processing of a type corresponding to the type information acquired by the type information acquisition unit on the processing target image data to generate first processed image data. First instruction means;
First receiving means for receiving the first processed image data transmitted from the server;
For each of the N types of image processing, a first result information generating unit that generates first result information indicating which type of image processing is selected next to the type of image processing;
A first prediction is executed for predicting, using the first performance information, the type of image processing to be selected next to the type of image processing corresponding to the type information acquired by the type information acquisition means. Prediction means,
Second instruction means for instructing the server to perform image processing of the type predicted by the first prediction means on the image data to be processed to generate second processed image data;
Second receiving means for receiving the second processed image data transmitted from the server;
An image processing instruction apparatus.
JP2009068967A 2009-03-19 2009-03-19 Computer program for executing image processing, image processing apparatus, and image processing instruction apparatus Active JP4930534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009068967A JP4930534B2 (en) 2009-03-19 2009-03-19 Computer program for executing image processing, image processing apparatus, and image processing instruction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009068967A JP4930534B2 (en) 2009-03-19 2009-03-19 Computer program for executing image processing, image processing apparatus, and image processing instruction apparatus

Publications (2)

Publication Number Publication Date
JP2010226241A true JP2010226241A (en) 2010-10-07
JP4930534B2 JP4930534B2 (en) 2012-05-16

Family

ID=43042989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009068967A Active JP4930534B2 (en) 2009-03-19 2009-03-19 Computer program for executing image processing, image processing apparatus, and image processing instruction apparatus

Country Status (1)

Country Link
JP (1) JP4930534B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155803A (en) * 2019-03-18 2020-09-24 セイコーエプソン株式会社 Image processing device and image processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342226A (en) * 2004-06-03 2005-12-15 Ziosoft Inc Image processor, image processing method and image processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342226A (en) * 2004-06-03 2005-12-15 Ziosoft Inc Image processor, image processing method and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155803A (en) * 2019-03-18 2020-09-24 セイコーエプソン株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JP4930534B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP2006069117A5 (en)
JP6891409B2 (en) Image processing device and image forming device
US10270928B2 (en) Image forming apparatus, printing method with image forming apparatus and print process apparatus with print condition settings set before print data is downloaded from a network location
JP2007293044A (en) Image display device, image display method, information processor, information processing method, and program
US20120236351A1 (en) Image forming apparatus and display device
US20130061149A1 (en) Image processing apparatus, control method therefor, and storage medium storing control program therefor
JP2005102001A (en) Image processing apparatus
US9747060B2 (en) Information processing apparatus, information processing method, and computer program product
JP4930534B2 (en) Computer program for executing image processing, image processing apparatus, and image processing instruction apparatus
JP2021064832A5 (en)
JP2010015366A (en) Image processor, image processing program, and image processing system
JP2010278665A (en) Communication apparatus communicably connected to a plurality of image processing servers
US20180046414A1 (en) Image forming apparatus, control method thereof, and non-transitory computer-readable storage medium
JP4957740B2 (en) Image processing instruction apparatus and computer program for server
US9374482B2 (en) Image processing apparatus, method for displaying preview image, and recording medium
JP2018170653A (en) Image forming apparatus and program
JP2010278666A (en) Communication apparatus communicably connected to a plurality of image processing servers
JP6627742B2 (en) Information processing device and program
JP6521763B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and recording medium
JP2006121577A (en) Image forming apparatus and image forming system
JP6410051B2 (en) Server and server program
JP2006228009A (en) Printer driver and print system
JP6096645B2 (en) Image processing apparatus, image processing method, and program
JP2007135047A (en) Multifunctional printer
JP7194009B2 (en) Data processing apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

R150 Certificate of patent or registration of utility model

Ref document number: 4930534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3