JP2016032259A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2016032259A
JP2016032259A JP2014154958A JP2014154958A JP2016032259A JP 2016032259 A JP2016032259 A JP 2016032259A JP 2014154958 A JP2014154958 A JP 2014154958A JP 2014154958 A JP2014154958 A JP 2014154958A JP 2016032259 A JP2016032259 A JP 2016032259A
Authority
JP
Japan
Prior art keywords
image
data
scan
image processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014154958A
Other languages
Japanese (ja)
Other versions
JP6361355B2 (en
Inventor
真由美 倉谷
Mayumi Kuratani
真由美 倉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014154958A priority Critical patent/JP6361355B2/en
Publication of JP2016032259A publication Critical patent/JP2016032259A/en
Application granted granted Critical
Publication of JP6361355B2 publication Critical patent/JP6361355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a novel technology for executing image processing utilizing template data.SOLUTION: An image processing server utilizes target image data which are obtained by scanning a document, and order TP data to generate specific image data, supplies the specific image data to an MFP in such a manner that a specific image SPI is printed on a printing medium, and acquires described scan data which are obtained by scanning the printing medium. A described scan image represented by the described scan data includes an enclosure line object described within a scan image area SA1 by a user and a painted-out object described within a TP area TA1 by the user. In accordance with the enclosure line object and the painted-out object, the image processing server executes image processing on the target image data and outputs processed image data.SELECTED DRAWING: Figure 4

Description

本明細書では、スキャンデータを用いて得られる対象画像データに対して、画像処理を実行する画像処理装置を開示する。   The present specification discloses an image processing apparatus that performs image processing on target image data obtained using scan data.

特許文献1に開示されている複合機は、予め準備されているオーダーシートを印刷する。ユーザは、オーダーシートの印刷物に手書き文字等の対象物を記録する。複合機は、対象物が記録された印刷物をスキャンし、スキャンによって得られる対象物の画像と他の画像とを合成し、合成画像を印刷する。   The multifunction machine disclosed in Patent Document 1 prints an order sheet prepared in advance. The user records an object such as a handwritten character on the printed matter of the order sheet. The multifunction device scans a printed material on which the object is recorded, combines the image of the object obtained by the scan with another image, and prints a composite image.

特開2009−278667号公報JP 2009-278667 A

本明細書では、オーダーシート等のテンプレートデータを利用した画像処理を実行するための新規な手法を提供する。   The present specification provides a novel technique for performing image processing using template data such as an order sheet.

本明細書によって開示される画像処理装置は、第1の取得部と、生成部と、供給部と、第2の取得部と、目的処理実行部と、を備える。第1の取得部は、原稿のスキャンによって得られる第1のスキャンデータを取得する。生成部は、第1のスキャンデータと、予め準備されているテンプレートデータと、を利用して、特定画像データを生成する。特定画像データによって表わされる特定画像は、第1のスキャンデータによって表わされる第1のスキャン画像に相当する画像を示す第1のスキャン画像領域と、テンプレートデータによって表わされるテンプレート画像を示す第1のテンプレート領域と、を含む。供給部は、印刷媒体上への特定画像の印刷が実行されるように、特定画像データを印刷実行部に供給する。第2の取得部は、印刷媒体のスキャンによって得られる第2のスキャンデータを取得する。第2のスキャンデータによって表わされる第2のスキャン画像は、印刷媒体に印刷された第1のスキャン画像領域内にユーザによって記述された第1のオブジェクトを含む第2のスキャン画像領域と、印刷媒体に印刷された第1のテンプレート領域内にユーザによって記述された第2のオブジェクトを含む第2のテンプレート領域と、を含む。目的処理実行部は、第1のスキャンデータを用いて得られる対象画像データを利用して、第2のスキャン画像に含まれる第1のオブジェクトと第2のオブジェクトとに従った目的処理を実行する。目的処理は、対象画像データに対して、第1のオブジェクトに従った画像処理を実行して、処理済み画像データを生成すること、及び、処理済み画像データを出力すること、を含む。   The image processing apparatus disclosed in the present specification includes a first acquisition unit, a generation unit, a supply unit, a second acquisition unit, and an objective process execution unit. The first acquisition unit acquires first scan data obtained by scanning a document. The generating unit generates specific image data using the first scan data and template data prepared in advance. The specific image represented by the specific image data includes a first scan image area indicating an image corresponding to the first scan image represented by the first scan data, and a first template indicating a template image represented by the template data. A region. The supply unit supplies the specific image data to the print execution unit so that the specific image is printed on the print medium. The second acquisition unit acquires second scan data obtained by scanning the print medium. The second scan image represented by the second scan data includes a second scan image area including a first object described by a user in the first scan image area printed on the print medium, and the print medium. And a second template region including a second object described by the user in the first template region printed on. The target processing execution unit executes target processing according to the first object and the second object included in the second scan image, using the target image data obtained using the first scan data. . The target processing includes performing image processing according to the first object on the target image data to generate processed image data, and outputting the processed image data.

上記の構成によると、画像処理装置は、原稿のスキャンによって得られる第1のスキャンデータを取得し、第1のスキャンデータとテンプレートデータとを利用して特定画像データを生成し、特定画像データを印刷実行部に供給する。これにより、印刷媒体上への特定画像の印刷が実行される。そして、画像処理装置は、当該印刷媒体のスキャンによって得られる第2のスキャンデータを取得し、当該印刷媒体にユーザによって記述された第1及び第2のオブジェクトに従った目的処理を実行する。このように、画像処理装置は、新規な手法に従って、テンプレートデータを利用した画像処理を実行することができる。特に、ユーザは、特定画像が印刷された印刷媒体に第1及び第2のオブジェクトを記述するので、原稿にオブジェクトを記述せずに済む。即ち、画像処理装置は、原稿を元の状態に維持しながら、ユーザによって印刷媒体に記述される第1及び第2のオブジェクトに従った目的処理を実行することができる。   According to the above configuration, the image processing apparatus acquires first scan data obtained by scanning a document, generates specific image data using the first scan data and template data, and stores the specific image data. Supply to the print execution unit. Thereby, printing of the specific image on the print medium is executed. The image processing apparatus acquires second scan data obtained by scanning the print medium, and executes target processing according to the first and second objects described by the user on the print medium. Thus, the image processing apparatus can execute image processing using template data according to a novel method. Particularly, since the user describes the first and second objects on the print medium on which the specific image is printed, it is not necessary to describe the object on the document. That is, the image processing apparatus can execute a target process according to the first and second objects described on the print medium by the user while maintaining the original in the original state.

上記の画像処理装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も新規で有用である。   A control method, a computer program, and a computer-readable recording medium storing the computer program for realizing the image processing apparatus are also novel and useful.

通信システムの構成を示す。1 shows a configuration of a communication system. 画像処理サーバの処理のフローチャートを示す。3 shows a flowchart of processing of an image processing server. 特定画像データ生成処理のフローチャートを示す。The flowchart of a specific image data generation process is shown. 特定画像データ生成処理の内容を説明するための説明図を示す。An explanatory view for explaining the contents of specific image data generation processing is shown. 処理済み画像データ生成処理のフローチャートを示す。The flowchart of a processed image data generation process is shown. 処理済み画像データ生成処理の内容を説明するための説明図を示す。An explanatory view for explaining the contents of processed image data generation processing is shown. 画像処理のフローチャートと、その内容を説明するための説明図を示す。The flowchart of an image process and explanatory drawing for demonstrating the content are shown.

(通信システム2の構成;図1)
図1に示されるように、通信システム2は、多機能機10と、画像処理サーバ50と、データ保存サーバ80と、を備える。各デバイス10,50,80は、インターネットを介して、相互に通信可能である。以下では、多機能機10のことを「MFP(Multi-Function Peripheral)10」と記載する。
(Configuration of communication system 2; FIG. 1)
As shown in FIG. 1, the communication system 2 includes a multi-function device 10, an image processing server 50, and a data storage server 80. The devices 10, 50, and 80 can communicate with each other via the Internet. Hereinafter, the multi-function device 10 is referred to as “MFP (Multi-Function Peripheral) 10”.

(MFP10の構成)
MFP10は、印刷機能、スキャン機能等を含む多機能を実行可能な周辺機器(即ち、図示省略のPC等の周辺機器)である。MFP10は、操作部12と、表示部14と、ネットワークインターフェース16と、印刷実行部18と、スキャン実行部20と、制御部30と、を備える。各部10〜30は、バス線(符号省略)を介して、相互に接続されている。
(Configuration of MFP 10)
The MFP 10 is a peripheral device (that is, a peripheral device such as a PC (not shown)) that can execute multiple functions including a print function and a scan function. The MFP 10 includes an operation unit 12, a display unit 14, a network interface 16, a print execution unit 18, a scan execution unit 20, and a control unit 30. Each part 10-30 is mutually connected via the bus line (symbol abbreviation).

操作部12は、複数個のキーを備える。ユーザは、操作部12を操作することによって、様々な指示をMFP10に入力することができる。表示部14は、様々な情報を表示するためのディスプレイである。ネットワークインターフェース16は、図示省略のLANを介して、インターネットに接続される。印刷実行部18は、インクジェット方式又はレーザー方式に従って、印刷媒体上への画像の印刷を実行する。スキャン実行部20は、CCD(Charge Coupled Deviceの略)方式又はCIS(Contact Image Sensorの略)方式に従って、図示省略の原稿台に載置される原稿DCのスキャンを実行する。原稿台の上面は、白色を示す。原稿DCは、カラーの写真画像を示す。制御部30は、CPU32とメモリ34とを備える。CPU32は、メモリ34に格納されているプログラム36に従って、様々な処理を実行するプロセッサ(即ちコンピュータ)である。   The operation unit 12 includes a plurality of keys. The user can input various instructions to the MFP 10 by operating the operation unit 12. The display unit 14 is a display for displaying various information. The network interface 16 is connected to the Internet via a LAN (not shown). The print execution unit 18 executes printing of an image on a print medium according to an inkjet method or a laser method. The scan execution unit 20 scans a document DC placed on a document table (not shown) according to a CCD (abbreviation of Charge Coupled Device) method or a CIS (abbreviation of Contact Image Sensor) method. The upper surface of the document table is white. The document DC shows a color photographic image. The control unit 30 includes a CPU 32 and a memory 34. The CPU 32 is a processor (that is, a computer) that executes various processes in accordance with a program 36 stored in the memory 34.

(画像処理サーバ50の構成)
画像処理サーバ50は、MFP10のベンダによってインターネット上に設置される。画像処理サーバ50は、MFP10から取得されるスキャンデータに基づいて画像処理を実行して、処理済み画像データを出力する。画像処理サーバ50は、ネットワークインターフェース52と、制御部60と、を備える。
(Configuration of the image processing server 50)
The image processing server 50 is installed on the Internet by the vendor of the MFP 10. The image processing server 50 executes image processing based on the scan data acquired from the MFP 10 and outputs processed image data. The image processing server 50 includes a network interface 52 and a control unit 60.

ネットワークインターフェース52は、インターネットに接続される。制御部60は、CPU62とメモリ64とを備える。CPU62は、メモリ64に格納されているプログラム66に従って、様々な処理を実行するプロセッサである。メモリ64は、DRAM、フラッシュメモリ等であり、プログラム66に加えて、オーダーテンプレートデータ68と、複数個の合成テンプレートデータ70と、を格納する。以下では、テンプレートのことを「TP」と記載する。   The network interface 52 is connected to the Internet. The control unit 60 includes a CPU 62 and a memory 64. The CPU 62 is a processor that executes various processes in accordance with a program 66 stored in the memory 64. The memory 64 is a DRAM, a flash memory, or the like, and stores order template data 68 and a plurality of synthesized template data 70 in addition to the program 66. Hereinafter, the template is described as “TP”.

オーダーTPデータ68は、様々な項目をユーザに選択させるためのTP画像を表わすデータであり、後述の特定画像データの生成(図2のS20参照)に利用される。各合成TPデータ70は、原稿DCのスキャンによって得られる対象画像データに合成されるべき合成元画像を表わすデータである。各合成TPデータ70は、異なる画像(例えば、赤色を示す画像、青色を示す画像、木目を示す画像、水玉を示す画像等)を表わす。   The order TP data 68 is data representing a TP image for allowing the user to select various items, and is used for generating specific image data (see S20 in FIG. 2) described later. Each synthesized TP data 70 is data representing a synthesized original image to be synthesized with target image data obtained by scanning the document DC. Each synthetic TP data 70 represents a different image (for example, an image showing red, an image showing blue, an image showing wood, an image showing polka dots, etc.).

(データ保存サーバ80の構成)
データ保存サーバ80は、MFP10のベンダによってインターネット上に設置されるものであってもよいし、MFP10のベンダとは異なる事業者によってインターネット上に設置されるものであってもよい。データ保存サーバ80は、画像処理サーバ50によって生成される処理済み画像データを保存する。
(Configuration of data storage server 80)
The data storage server 80 may be installed on the Internet by the vendor of the MFP 10, or may be installed on the Internet by an operator different from the vendor of the MFP 10. The data storage server 80 stores processed image data generated by the image processing server 50.

(画像処理サーバ50の処理;図2)
図2を参照して、画像処理サーバ50のCPU62によって実行される処理の内容を説明する。MFP10のユーザは、原稿DCの写真画像に対する画像処理が実行されることを望む場合に、MFP10の操作部12を操作して、表示部14に表示されるメニュー画面の中から、画像処理の実行を示すボタンを選択する。そして、ユーザは、原稿DCをMFP10の原稿台に載置して、操作部12内のスキャン実行ボタンを操作する。これにより、MFP10のCPU32は、原稿DCのカラースキャンをスキャン実行部20に実行させて、元スキャンデータを生成する。この際に、CPU32は、原稿台の全範囲のスキャンをスキャン実行部20に実行させる。従って、原稿台よりも小さいサイズを有する原稿DCがスキャンされる場合には、元スキャンデータは、原稿DCの写真画像を示す原稿領域のみならず、原稿台のうちの原稿DCが載置されていない部分を示す非載置領域も表わす。元スキャンデータは、複数個のRGB画素(例えば、RGB色空間内の256階調の値を示す画素)によって構成されるカラー画像データである。そして、CPU32は、元スキャンデータを画像処理サーバ50に供給する。この結果、S10では、画像処理サーバ50のCPU62は、MFP10から元スキャンデータを取得する。
(Processing of image processing server 50; FIG. 2)
The contents of processing executed by the CPU 62 of the image processing server 50 will be described with reference to FIG. When the user of the MFP 10 desires to perform image processing on a photographic image of the document DC, the user operates the operation unit 12 of the MFP 10 and executes image processing from the menu screen displayed on the display unit 14. Select the button indicating. Then, the user places the document DC on the document table of the MFP 10 and operates the scan execution button in the operation unit 12. As a result, the CPU 32 of the MFP 10 causes the scan execution unit 20 to perform a color scan of the document DC and generates original scan data. At this time, the CPU 32 causes the scan execution unit 20 to scan the entire range of the document table. Therefore, when a document DC having a size smaller than the document table is scanned, the original scan data includes not only the document area indicating the photographic image of the document DC but also the document DC on the document table. A non-mounting area indicating a non-portion is also shown. The original scan data is color image data composed of a plurality of RGB pixels (for example, pixels indicating 256 gradation values in the RGB color space). Then, the CPU 32 supplies the original scan data to the image processing server 50. As a result, in S <b> 10, the CPU 62 of the image processing server 50 acquires the original scan data from the MFP 10.

S20では、CPU62は、S10で取得された元スキャンデータと、メモリ64内に予め準備されているオーダーTPデータ68(図1参照)と、を利用して、特定画像データを生成する(後述の図3参照)。特定画像データは、複数個のRGB画素によって構成されるモノクロ画像データである。   In S20, the CPU 62 generates specific image data using the original scan data acquired in S10 and the order TP data 68 (see FIG. 1) prepared in advance in the memory 64 (described later). (See FIG. 3). The specific image data is monochrome image data composed of a plurality of RGB pixels.

S30では、CPU62は、S20で生成された特定画像データをMFP10に供給する。これにより、MP10のCPU32は、特定画像データに含まれる各RGB画素に対するCMYK色変換処理を実行して、複数個のCMYK画素(例えば、CMYK色空間内の256階調の値を示す画素)によって構成されるCMYK画像データを生成する。次いで、CPU32は、CMYK画像データに対する二値化処理(例えば、ハーフトーン処理、ディザ処理)を実行して、複数個の二値画素によって構成される二値画像データを生成する。各二値画素は、CMYK色空間内の2階調の画素値(即ち「1」又は「0」)を示す。ここで、「1」は、印刷媒体上にドットを形成することを示し、「0」は、ドットを形成しないことを示す。そして、CPU32は、二値画像データを印刷実行部18に供給して、印刷実行部18に印刷を実行させる。これにより、特定画像データによって表わされる特定画像が印刷媒体に印刷される。上述したように、特定画像データがモノクロ画像データであるので、印刷媒体に印刷される特定画像もモノクロ画像である。   In S <b> 30, the CPU 62 supplies the specific image data generated in S <b> 20 to the MFP 10. Thereby, the CPU 32 of the MP10 executes CMYK color conversion processing for each RGB pixel included in the specific image data, and uses a plurality of CMYK pixels (for example, pixels indicating 256 gradation values in the CMYK color space). Generated CMYK image data. Next, the CPU 32 executes binarization processing (for example, halftone processing and dither processing) on the CMYK image data, and generates binary image data composed of a plurality of binary pixels. Each binary pixel indicates a pixel value of two gradations (ie, “1” or “0”) in the CMYK color space. Here, “1” indicates that dots are formed on the print medium, and “0” indicates that dots are not formed. Then, the CPU 32 supplies the binary image data to the print execution unit 18 and causes the print execution unit 18 to execute printing. Thereby, the specific image represented by the specific image data is printed on the print medium. As described above, since the specific image data is monochrome image data, the specific image printed on the print medium is also a monochrome image.

上述したように、本実施例では、MFP10がCMYK色変換処理と二値化処理とを実行するが、変形例では、画像処理サーバ50がCMYK色変換処理を実行してもよい。この場合、S30でMFP10に供給される特定画像データは、複数個のCMYK画素によって構成され、MFP10は、当該特定画像データに対する二値化処理を実行して、二値画像データを生成する。また、別の変形例では、画像処理サーバ50がCMYK色変換処理と二値化処理とを実行してもよい。この場合、S30でMFP10に供給される特定画像データは、複数個の二値画素によって構成されるので、MFP10は、当該特定画像データに対するCMYK色変換処理と二値化処理とのどちらも実行しなくてよい。   As described above, in this embodiment, the MFP 10 executes the CMYK color conversion process and the binarization process. However, in a modified example, the image processing server 50 may execute the CMYK color conversion process. In this case, the specific image data supplied to the MFP 10 in S30 is configured by a plurality of CMYK pixels, and the MFP 10 executes binarization processing on the specific image data to generate binary image data. In another modification, the image processing server 50 may execute CMYK color conversion processing and binarization processing. In this case, since the specific image data supplied to the MFP 10 in S30 is composed of a plurality of binary pixels, the MFP 10 executes both CMYK color conversion processing and binarization processing for the specific image data. It is not necessary.

MFP10のユーザは、例えば赤色のペンを利用して、特定画像が印刷された印刷媒体に手書きでオブジェクトを記述する。変形例では、オブジェクトは、赤色のペンで記述されなくてもよく、青色等の他の色のペンで記述されてもよい。即ち、オブジェクトは、黒色以外のペンで記述されればよい。そして、ユーザは、オブジェクトが記述された記述済み印刷媒体をMFP10の原稿台に載置して、操作部12内のスキャン実行ボタンを操作する。これにより、MFP10のCPU32は、記述済み印刷媒体のカラースキャンをスキャン実行部20に実行させて、記述済みスキャンデータを生成する。記述済みスキャンデータは、複数個のRGB画素によって構成されるカラー画像データである。そして、CPU32は、記述済みスキャンデータを画像処理サーバ50に供給する。この結果、S32では、画像処理サーバ50のCPU62は、MFP10から記述済みスキャンデータを取得する。   The user of the MFP 10 uses, for example, a red pen to describe an object by hand on a print medium on which a specific image is printed. In a modification, the object may not be described with a red pen, and may be described with a pen of another color such as blue. That is, the object may be described with a pen other than black. Then, the user places the described print medium describing the object on the document table of the MFP 10 and operates the scan execution button in the operation unit 12. As a result, the CPU 32 of the MFP 10 causes the scan execution unit 20 to perform a color scan of the described print medium to generate the described scan data. The described scan data is color image data composed of a plurality of RGB pixels. Then, the CPU 32 supplies the described scan data to the image processing server 50. As a result, in S <b> 32, the CPU 62 of the image processing server 50 acquires the described scan data from the MFP 10.

S40では、CPU62は、S32で取得された記述済みスキャンデータを利用して、対象画像データに対する画像処理を実行して、処理済み画像データを生成する(後述の図5〜図7参照)。ここで、対象画像データは、S10で取得された元スキャンデータを用いて得られる画像データである。処理済み画像データは、複数個のRGB画素によって構成されるカラー画像データである。   In S40, the CPU 62 performs image processing on the target image data using the described scan data acquired in S32, and generates processed image data (see FIGS. 5 to 7 described later). Here, the target image data is image data obtained using the original scan data acquired in S10. The processed image data is color image data composed of a plurality of RGB pixels.

S60では、CPU62は、S40で生成された処理済み画像データを出力する。具体的には、CPU62は、S32で取得された記述済みスキャンデータに応じて、処理済み画像データをデータ保存サーバ80に供給するのか、処理済み画像データをMFP10に供給するのか、を変える。処理済み画像データがデータ保存サーバ80に供給される場合には、データ保存サーバ80は、処理済み画像データを保存する。これにより、ユーザは、例えば図示省略のPCを利用して、データ保存サーバ80にアクセスすれば、処理済み画像データを取得することができる。また、処理済み画像データがMFP10に供給される場合には、MFP10のCPU32は、処理済み画像データに対するCMYK色変換処理と二値化処理とを実行して、二値画像データを生成する。そして、CPU32は、二値画像データを印刷実行部18に供給して、印刷実行部18に印刷を実行させる。これにより、処理済み画像データによって表わされる処理済み画像が印刷媒体に印刷される。ユーザは、処理済み画像が印刷された印刷媒体を取得することができる。S60が終了すると、図2の処理が終了する。   In S60, the CPU 62 outputs the processed image data generated in S40. Specifically, the CPU 62 changes whether the processed image data is supplied to the data storage server 80 or the processed image data is supplied to the MFP 10 in accordance with the described scan data acquired in S32. When the processed image data is supplied to the data storage server 80, the data storage server 80 stores the processed image data. Thus, the user can acquire processed image data by accessing the data storage server 80 using, for example, a PC (not shown). When processed image data is supplied to the MFP 10, the CPU 32 of the MFP 10 performs CMYK color conversion processing and binarization processing on the processed image data to generate binary image data. Then, the CPU 32 supplies the binary image data to the print execution unit 18 and causes the print execution unit 18 to execute printing. Thereby, the processed image represented by the processed image data is printed on the print medium. The user can acquire a print medium on which the processed image is printed. When S60 ends, the process of FIG. 2 ends.

(特定画像データ生成処理;図3、図4)
続いて、図3及び図4を参照して、図2のS20で実行される特定画像データ生成処理の内容を説明する。図3のS21では、画像処理サーバ50のCPU62は、元スキャンデータから対象画像データを取得する。図4に示されるように、元スキャンデータは、カラー画像である元スキャン画像OSIを表わす。元スキャン画像OSIは、原稿DCの写真画像を示す原稿領域DCAと、原稿台のうちの原稿DCが載置されていない部分を示す非載置領域NAと、を含む。原稿領域DCAは、原稿DCの写真画像を示すので、通常、白色以外の色を含む。非載置領域NAは、原稿台の上面の色である白色のみを含む。CPU62は、元スキャン画像OSI内の原稿領域DCAを特定し、元スキャンデータから原稿領域DCAを表わす対象画像データを取得する。具体的には、CPU62は、次のようにして原稿領域DCAを特定する。
(Specific image data generation processing; FIGS. 3 and 4)
Next, the specific image data generation process executed in S20 of FIG. 2 will be described with reference to FIGS. In S21 of FIG. 3, the CPU 62 of the image processing server 50 acquires target image data from the original scan data. As shown in FIG. 4, the original scan data represents an original scan image OSI that is a color image. The original scan image OSI includes a document area DCA indicating a photographic image of the document DC, and a non-placement area NA indicating a portion of the document table where the document DC is not placed. Since the document area DCA indicates a photographic image of the document DC, it usually includes a color other than white. The non-loading area NA includes only white which is the color of the upper surface of the document table. The CPU 62 specifies the document area DCA in the original scan image OSI, and acquires target image data representing the document area DCA from the original scan data. Specifically, the CPU 62 specifies the document area DCA as follows.

CPU62は、まず、元スキャンデータを構成する複数個のRGB画素のうち、図4の縦方向に沿った1本の縦ラインを構成する2個以上のRGB画素から得られる2個以上の輝度値の平均値(以下では「輝度平均値」と呼ぶ)を算出する。同様に、CPU62は、他の各縦ラインについても、輝度平均値を算出する。グラフG1は、各縦ラインに対応する各輝度平均値を示す。原稿領域DCAが白色以外の色を含むので、原稿領域DCAを含む各縦ラインに対応する各輝度平均値は、比較的に小さい値を示す。一方、非載置領域NAが白色のみを含むので、非載置領域NAのみを含む各縦ラインに対応する各輝度平均値は、比較的に大きい値(即ち255に近い値)である。CPU62は、所定の閾値Th1(例えば200)よりも小さい各輝度平均値が算出された各縦ラインの位置を特定することによって、横方向において、元スキャン画像OSI内の原稿領域DCAを特定する。同様に、CPU62は、図4の横方向に沿った各横ラインについて、輝度平均値を算出する。グラフG2は、各横ラインに対応する各輝度平均値を示す。CPU62は、所定の閾値Th2(例えば200)よりも小さい各輝度平均値が算出された各横ラインの位置を特定することによって、横方向において、元スキャン画像OSI内の原稿領域DCAを特定する。これにより、CPU62は、横方向及び縦方向において、元スキャン画像OSI内の原稿領域DCAを特定することができる。   First, the CPU 62 selects two or more luminance values obtained from two or more RGB pixels constituting one vertical line in the vertical direction of FIG. 4 among the plurality of RGB pixels constituting the original scan data. The average value (hereinafter referred to as “brightness average value”) is calculated. Similarly, the CPU 62 calculates the average brightness value for each of the other vertical lines. Graph G1 shows each luminance average value corresponding to each vertical line. Since the document area DCA includes a color other than white, each luminance average value corresponding to each vertical line including the document area DCA is a relatively small value. On the other hand, since the non-mounting area NA includes only white, each luminance average value corresponding to each vertical line including only the non-mounting area NA is a relatively large value (that is, a value close to 255). The CPU 62 specifies the document area DCA in the original scan image OSI in the horizontal direction by specifying the position of each vertical line from which each luminance average value smaller than a predetermined threshold Th1 (for example, 200) is calculated. Similarly, the CPU 62 calculates a luminance average value for each horizontal line along the horizontal direction in FIG. The graph G2 shows each luminance average value corresponding to each horizontal line. The CPU 62 specifies the document area DCA in the original scan image OSI in the horizontal direction by specifying the position of each horizontal line from which each luminance average value smaller than a predetermined threshold Th2 (for example, 200) is calculated. Thus, the CPU 62 can specify the document area DCA in the original scan image OSI in the horizontal direction and the vertical direction.

上記のように原稿領域DCAが特定され、原稿領域DCAを表わす対象画像データが取得されるので、対象画像データによって表わされる対象画像TIは、元スキャン画像OSI内の原稿領域DCAと同じカラー画像を示す。図3のS22では、CPU62は、S21で取得された対象画像データをメモリ64に記憶させる。   Since the document area DCA is specified as described above and target image data representing the document area DCA is acquired, the target image TI represented by the target image data is the same color image as the document area DCA in the original scan image OSI. Show. In S22 of FIG. 3, the CPU 62 stores the target image data acquired in S21 in the memory 64.

S23では、CPU62は、S22で対象画像データが記憶されたメモリ64内の位置情報(例えばURL)に対応するコード画像COIを表わすコード画像データを生成する。図4に示されるように、コード画像COIは、二次元コード画像であり、例えば、QRコード(登録商標)である。変形例では、コード画像COIは、例えば、一次元バーコード等の他の種類のコードを示す画像であってもよい。   In S23, the CPU 62 generates code image data representing the code image COI corresponding to the position information (for example, URL) in the memory 64 in which the target image data is stored in S22. As shown in FIG. 4, the code image COI is a two-dimensional code image, for example, a QR code (registered trademark). In a modification, the code image COI may be an image showing another type of code such as a one-dimensional barcode.

S24では、CPU62は、まず、S21で取得された対象画像データに対するモノクロ変換を実行する。CPU62は、さらに、モノクロ変換済みの対象画像データを単純拡大又は単純縮小することによって、変更済み画像データを生成する。単純拡大又は単純縮小は、画像の対角線方向に沿って画像データを拡大又は縮小することを意味する。具体的には、CPU62は、まず、対象画像データのサイズを変更するための変更率CRを算出する。詳しくは後述するが、S26において、変更済み画像データがオーダーTPデータ68(図1参照)に合成される。そして、オーダーTPデータ68内に合成可能な変更済み画像データの上限サイズ(例えば、横方向の上限画素数、縦方向の上限画素数)は、予め決められている。CPU62は、上記の上限サイズに収まる範囲内で、変更済み画像データのサイズが最大になるように、変更率CRを算出する。そして、CPU62は、変更率CRに従った倍率でモノクロ変換済みの対象画像データのサイズを変更して、変更済み画像データを生成する。図4の例では、対象画像データが変更率CRに従った倍率で拡大されるので、変更済み画像データによって表わされる変更済み画像CHIは、対象画像TIよりも大きい。   In S24, the CPU 62 first performs monochrome conversion on the target image data acquired in S21. The CPU 62 further generates changed image data by simply enlarging or reducing the target image data that has been subjected to monochrome conversion. Simple enlargement or simple reduction means enlarging or reducing the image data along the diagonal direction of the image. Specifically, the CPU 62 first calculates a change rate CR for changing the size of the target image data. Although described later in detail, in S26, the changed image data is combined with the order TP data 68 (see FIG. 1). The upper limit size (for example, the upper limit number of pixels in the horizontal direction and the upper limit number of pixels in the vertical direction) of the changed image data that can be combined in the order TP data 68 is determined in advance. The CPU 62 calculates the change rate CR so that the size of the changed image data is maximized within a range that falls within the above upper limit size. Then, the CPU 62 changes the size of the target image data that has been subjected to monochrome conversion at a magnification according to the change rate CR, and generates changed image data. In the example of FIG. 4, since the target image data is enlarged at a magnification according to the change rate CR, the changed image CHI represented by the changed image data is larger than the target image TI.

S25では、CPU62は、S22で記憶された対象画像データに対応付けて、S24で算出された変更率をメモリ64内に記憶させる。   In S25, the CPU 62 stores the change rate calculated in S24 in the memory 64 in association with the target image data stored in S22.

S26では、CPU62は、メモリ64からオーダーTPデータ68を取得し、取得済みのオーダーTPデータ68と、S23で生成されたコード画像データと、S24で生成された変更済み画像データと、を利用して、特定画像データを生成する。具体的には、CPU62は、オーダーTPデータ68内の予め決められている第1の位置、第2の位置に、それぞれ、コード画像データ、変更済み画像データを合成することによって、特定画像データを生成する。   In S26, the CPU 62 acquires the order TP data 68 from the memory 64, and uses the acquired order TP data 68, the code image data generated in S23, and the changed image data generated in S24. Specific image data is generated. Specifically, the CPU 62 synthesizes the specific image data by synthesizing the code image data and the changed image data at the predetermined first position and second position in the order TP data 68, respectively. Generate.

図4に示されるように、特定画像データは、モノクロの特定画像SPIを表わす。特定画像SPIは、コード画像領域CA1と、スキャン画像領域SA1と、TP領域TA1と、を含む。コード画像領域CA1は、コード画像データによって表わされるコード画像COIを示す。スキャン画像領域SA1は、変更済み画像データによって表わされる変更済み画像CHIを示す。換言すると、スキャン画像領域SA1は、変更済み画像データの元である対象画像データに表わされる対象画像TIに相当する画像(即ち変更済み画像CHI)を示す。TP領域TA1は、オーダーTPデータ68によって表わされる画像を示す領域であり、出力形式を選択するための領域A1と、画像処理を選択するための領域A2と、合成元画像を選択するための領域A3と、を含む。領域A1は、文字列「サーバ保存」と、文字列「印刷」と、各文字列に対応する各ボックスと、を含む。文字列「サーバ保存」、文字列「印刷」は、それぞれ、処理済み画像データの出力形式が、「サーバ保存」、「印刷」であることを意味する。領域A2は、文字列「囲み内部合成」と、文字列「囲み外部合成」と、各文字列に対応する各ボックスと、を含む。文字列「囲み内部合成」、文字列「囲み外部合成」は、それぞれ、スキャン画像領域SA1内にユーザによって記述される囲み線オブジェクトの内部領域に画像を合成するための画像処理、当該囲み線オブジェクトの外部領域に画像を合成するための画像処理を意味する。以下では、前者の画像処理、後者の画像処理のことを、それぞれ、「内部合成画像処理」、「外部合成画像処理」と呼ぶ。領域A3は、文字列「赤」と、文字列「青」と、文字列「木目」と、文字列「水玉」と、各文字列に対応する各ボックスと、を含む。文字列「赤」、「青」、「木目」、「水玉」は、それぞれ、赤色、青色、木目、水玉を示す合成元画像を意味する。S26が終了すると、図3の処理が終了する。   As shown in FIG. 4, the specific image data represents a monochrome specific image SPI. The specific image SPI includes a code image area CA1, a scan image area SA1, and a TP area TA1. The code image area CA1 shows the code image COI represented by the code image data. The scanned image area SA1 shows the changed image CHI represented by the changed image data. In other words, the scan image area SA1 indicates an image corresponding to the target image TI represented in the target image data that is the source of the changed image data (that is, the changed image CHI). The TP area TA1 is an area indicating an image represented by the order TP data 68, and includes an area A1 for selecting an output format, an area A2 for selecting image processing, and an area for selecting a composition source image. A3. The area A1 includes a character string “server save”, a character string “print”, and boxes corresponding to the character strings. The character string “server save” and the character string “print” mean that the output formats of the processed image data are “server save” and “print”, respectively. The area A2 includes a character string “enclosed inner composition”, a character string “enclosed outer composition”, and each box corresponding to each character string. The character string “enclosed inner composition” and the character string “enclosed outer composition” are image processing for synthesizing an image in the inner area of the encircling line object described by the user in the scanned image area SA1, respectively. Image processing for synthesizing an image in the external area. Hereinafter, the former image processing and the latter image processing are referred to as “internal composite image processing” and “external composite image processing”, respectively. The area A3 includes a character string “red”, a character string “blue”, a character string “wood”, a character string “polka dot”, and boxes corresponding to the character strings. The character strings “red”, “blue”, “wood”, and “polka dot” mean composite original images indicating red, blue, wood, and polka dots, respectively. When S26 ends, the process of FIG. 3 ends.

上述したように、図2のS30で特定画像データがMFP10に供給されると、MFP10は、特定画像SPIを印刷媒体に印刷する。ユーザは、印刷媒体上の特定画像SPIを見ながら、赤色のペンを利用して、印刷媒体に各オブジェクトを記述する。ユーザは、スキャン画像領域SA1内に囲み線を示す囲み線オブジェクトを記述する。囲み線は、円形、楕円形、矩形等のような単純な形状であってもよいし、より複雑な形状であってもよい。また、ユーザは、TP領域TA1内の3個の領域A1,A2,A3のそれぞれについて、当該領域内の1個のボックスを塗りつぶして、塗りつぶしオブジェクトを記述する。ユーザは、処理済み画像データがデータ保存サーバ80に保存されることを望む場合には、領域A1内の文字列「サーバ保存」に対応するボックスを塗りつぶし、処理済み画像が印刷されることを望む場合には、領域A1内の文字列「印刷」に対応するボックスを塗りつぶす。また、ユーザは、内部合成画像処理が実行されることを望む場合には、領域A2内の文字列「囲み内部合成」に対応するボックスを塗りつぶし、外部合成画像処理が実行されることを望む場合には、領域A2内の文字列「囲み外部合成」に対応するボックスを塗りつぶす。また、ユーザは、合成元画像の種類を選択して、領域A3内の1個の文字列(例えば「水玉」)に対応するボックスを塗りつぶす。その後、MFP10は、囲み線オブジェクトと3個の塗りつぶしオブジェクトとが記述された印刷媒体をカラースキャンして、記述済みスキャンデータを生成し、記述済みスキャンデータを画像処理サーバ50に供給する。これにより、画像処理サーバ50は、記述済みスキャンデータを取得して(図2のS32)、次に説明する処理済み画像データ生成処理(S40)を実行する。   As described above, when the specific image data is supplied to the MFP 10 in S30 of FIG. 2, the MFP 10 prints the specific image SPI on the print medium. The user describes each object on the print medium using a red pen while viewing the specific image SPI on the print medium. The user describes a surrounding line object indicating a surrounding line in the scanned image area SA1. The encircling line may be a simple shape such as a circle, an ellipse, a rectangle, or the like, or a more complicated shape. In addition, for each of the three areas A1, A2, and A3 in the TP area TA1, the user fills one box in the area and describes a filled object. When the user desires to store the processed image data in the data storage server 80, the user wants to fill the box corresponding to the character string “server storage” in the area A1 and print the processed image. In this case, the box corresponding to the character string “print” in the area A1 is filled. Further, when the user desires to execute the internal composite image processing, the user fills a box corresponding to the character string “enclosed internal composite” in the area A2 and desires to execute the external composite image processing. Is filled with a box corresponding to the character string “enclosed outer composition” in the area A2. In addition, the user selects the type of the composition source image and fills a box corresponding to one character string (for example, “polka dot”) in the area A3. After that, the MFP 10 performs color scanning on the print medium in which the enclosing line object and the three filled objects are described, generates described scan data, and supplies the described scan data to the image processing server 50. As a result, the image processing server 50 acquires the written scan data (S32 in FIG. 2), and executes the processed image data generation process (S40) described below.

(処理済み画像データ生成処理;図5、図6)
続いて、図5及び図6を参照して、図2のS40で実行される処理済み画像データ生成処理の内容を説明する。図5のS41では、画像処理サーバ50のCPU62は、記述済みスキャンデータを利用して、コード画像が示すメモリ64内の位置情報と、3個の塗りつぶしオブジェクトと、を特定する。
(Processed image data generation process; FIGS. 5 and 6)
Next, the content of the processed image data generation process executed in S40 of FIG. 2 will be described with reference to FIGS. In S41 of FIG. 5, the CPU 62 of the image processing server 50 specifies the position information in the memory 64 indicated by the code image and the three filled objects using the written scan data.

図6は、記述済みスキャンデータによって表わされる記述済みスキャン画像DSIを示す。上述したように、特定画像SPI(図4参照)がモノクロ画像であり、各オブジェクトが赤色で記述されるので、記述済みスキャン画像DSIでは、各オブジェクトが赤色を示し、他の部分がモノクロ(即ち黒又は白)を示す。記述済みスキャン画像DSIは、コード画像領域CA2と、スキャン画像領域SA2と、TP領域TA2と、を含む。コード画像領域CA2は、特定画像SPI(図4参照)内のコード画像領域CA1と同じコード画像を表わす。スキャン画像領域SA2は、特定画像SPI内のスキャン画像領域SA1に囲み線オブジェクトOBa,OBbが記述された画像を表わす。図6の例では、左側の山の内部に円形の囲み線オブジェクトOBaが記述されていると共に、右側の山の内部に矩形の囲み線オブジェクトOBbが記述されている。TP領域TA2は、3個の領域A11,A12,A13を含む。各領域A11,A12,A13は、特定画像SPI内の各領域A1,A2,A3に各塗りつぶしオブジェクトOB1,OB2,OB3が記述された画像を表わす。図6の例では、文字列「印刷」に対応する塗りつぶしオブジェクトOB1と、文字列「囲み外部合成」に対応する塗りつぶしオブジェクトOB2と、文字列「水玉」に対応する塗りつぶしオブジェクトOB3と、が記述されている。   FIG. 6 shows the described scan image DSI represented by the described scan data. As described above, the specific image SPI (see FIG. 4) is a monochrome image, and each object is described in red. Therefore, in the described scan image DSI, each object shows red, and the other part is monochrome (that is, Black or white). The described scan image DSI includes a code image area CA2, a scan image area SA2, and a TP area TA2. The code image area CA2 represents the same code image as the code image area CA1 in the specific image SPI (see FIG. 4). The scan image area SA2 represents an image in which the surrounding line objects OBa and OBb are described in the scan image area SA1 in the specific image SPI. In the example of FIG. 6, a circular enclosing object OBa is described inside the left mountain, and a rectangular enclosing object OBb is described inside the right mountain. The TP area TA2 includes three areas A11, A12, and A13. Each area A11, A12, A13 represents an image in which each filled object OB1, OB2, OB3 is described in each area A1, A2, A3 in the specific image SPI. In the example of FIG. 6, a fill object OB1 corresponding to the character string “print”, a fill object OB2 corresponding to the character string “enclosed outer composition”, and a fill object OB3 corresponding to the character string “polka dot” are described. ing.

S41では、CPU62は、例えば、メモリ64に予め内蔵されているQRコード(登録商標)リーダーを利用して、コード画像領域CA2内のコード画像を読取ることによって、メモリ64内の位置情報を特定する。また、CPU62は、コード画像領域CA2の位置に対する相対的な位置関係に基づいて、各領域A11,A12,A13内の各ボックスの位置を特定する。そして、CPU62は、各ボックスが塗りつぶされているのか否かを判断することによって、各領域A11,A12,A13から各塗りつぶしオブジェクトOB1,OB2,OB3を特定する。具体的には、CPU62は、記述済みスキャンデータを構成する複数個のRGB画素のうち、領域A11に含まれる1個のボックス(例えば文字列「サーバ保存」に対応するボックス)の内部を構成する2個以上のRGB画素を特定する。次いで、CPU62は、特定済みの2個以上のRGB画素を利用して、2個以上のR値の平均値Raveと、2個以上のG値の平均値Gaveと、2個以上のB値の平均値Baveと、を算出する。次いで、CPU62は、3個の平均値Rave,Gave,Baveから1個の輝度値を算出する。そして、CPU62は、算出済みの輝度値が予め決められている赤色に対応する数値範囲に含まれる場合に、塗りつぶしオブジェクトが記述されていると判断し、算出済みの輝度値が上記の数値範囲に含まれない場合に、塗りつぶしオブジェクトが記述されていないと判断する。CPU62は、領域A11に含まれる他のボックス(例えば文字列「印刷」に対応するボックス)と、領域A12,A13に含まれる各ボックスと、についても、同様の処理を実行することによって、各領域A11,A12,A13から各塗りつぶしオブジェクトOB1,OB2,OB3を特定する。図6の例では、CPU62は、処理済み画像データの出力形式として「印刷」を特定し、画像処理の種類として「内部合成画像処理」を特定し、合成元画像の種類として「水玉」を特定する。   In S41, the CPU 62 specifies position information in the memory 64 by reading a code image in the code image area CA2 by using, for example, a QR code (registered trademark) reader built in the memory 64 in advance. . Further, the CPU 62 specifies the position of each box in each area A11, A12, A13 based on the relative positional relationship with respect to the position of the code image area CA2. Then, the CPU 62 determines each filled object OB1, OB2, OB3 from each region A11, A12, A13 by determining whether each box is filled. Specifically, the CPU 62 configures the inside of one box (for example, a box corresponding to the character string “server save”) included in the area A11 among a plurality of RGB pixels constituting the described scan data. Specify two or more RGB pixels. Next, the CPU 62 uses two or more specified RGB pixels to determine an average value Rave of two or more R values, an average value Gave of two or more G values, and two or more B values. An average value Bave is calculated. Next, the CPU 62 calculates one luminance value from the three average values Rave, Gave, and Bave. Then, the CPU 62 determines that the filled object is described when the calculated luminance value is included in the predetermined numerical range corresponding to red, and the calculated luminance value falls within the above numerical range. If it is not included, it is determined that the fill object is not described. The CPU 62 executes the same processing for other boxes included in the area A11 (for example, a box corresponding to the character string “print”) and each box included in the areas A12 and A13, so that each area Each filled object OB1, OB2, OB3 is specified from A11, A12, A13. In the example of FIG. 6, the CPU 62 specifies “print” as the output format of the processed image data, specifies “internal composite image processing” as the type of image processing, and specifies “polka dot” as the type of the source image. To do.

S42では、CPU62は、記述済みスキャンデータを利用して、スキャン画像領域SA2内の各囲み線オブジェクトOBa,OBbを特定する。CPU62は、例えば、以下のようにして、各囲み線オブジェクトOBa,OBbを特定する。CPU62は、まず、記述済みスキャンデータのうち、スキャン画像領域SA2を表わす部分データを取得する。次いで、CPU62は、取得済みの部分データを構成する2個以上のRGB画素のそれぞれについて、輝度値を算出する。そして、CPU62は、上記の部分データを構成する2個以上のRGB画素のそれぞれについて、当該RGB画素から算出された輝度値が予め決められている赤色に対応する数値範囲に含まれる場合に、当該RGB画素をON画素として決定し、当該RGB画素から算出された輝度値が上記の数値範囲に含まれない場合に、当該RGB画素をOFF画素として決定する。これにより、CPU62は、赤色に対応するON画素と、赤色以外の色(即ち黒色、白色等)に対応するOFF画素と、によって構成されるON/OFF画像データを生成することができる。そして、CPU62は、ON/OFF画像データからループを形成する各ON画素を特定することによって、各囲み線オブジェクトOBa,OBbを特定する。即ち、CPU62は、当該各ON画素の位置を特定することによって、各囲み線オブジェクトOBa,OBbの各位置を特定する。   In S <b> 42, the CPU 62 specifies the surrounding line objects OBa and OBb in the scanned image area SA <b> 2 using the described scan data. For example, the CPU 62 specifies the surrounding line objects OBa and OBb as follows. First, the CPU 62 acquires partial data representing the scan image area SA2 from the described scan data. Next, the CPU 62 calculates a luminance value for each of two or more RGB pixels constituting the acquired partial data. Then, when each of two or more RGB pixels constituting the partial data has a luminance value calculated from the RGB pixel included in a predetermined numerical range corresponding to red, the CPU 62 An RGB pixel is determined as an ON pixel, and when a luminance value calculated from the RGB pixel is not included in the numerical value range, the RGB pixel is determined as an OFF pixel. Thus, the CPU 62 can generate ON / OFF image data including ON pixels corresponding to red and OFF pixels corresponding to colors other than red (that is, black, white, etc.). Then, the CPU 62 specifies the surrounding line objects OBa and OBb by specifying each ON pixel forming a loop from the ON / OFF image data. That is, the CPU 62 specifies the positions of the surrounding line objects OBa and OBb by specifying the positions of the ON pixels.

また、変形例では、CPU62は、以下のようにして、囲み線オブジェクトを特定してもよい。即ち、CPU62は、上記のON/OFF画像データに対するHough変換を実行して、直線状に連続する2個以上のON画素を1本の線分として特定する。この結果、CPU62は、上記のON/OFF画像データから複数本の線分を特定することができる。そして、CPU62は、特定済みの複数本の線分のうちの2本以上の線分によってループが形成される場合に、当該2本以上の線分の位置を囲み線オブジェクトの位置として特定する。また、別の変形例では、CPU62は、円形、矩形等のパターンマッチングを実行して、囲み線オブジェクトの位置を特定してもよい。また、例えば、特開平3−236069号公報には、囲み線を特定するための手法が開示されており、CPU62は、当該手法を利用して、囲み線オブジェクトを特定してもよい。   In the modification, the CPU 62 may specify the surrounding line object as follows. That is, the CPU 62 performs Hough conversion on the above-mentioned ON / OFF image data, and specifies two or more ON pixels that are continuous in a straight line as one line segment. As a result, the CPU 62 can specify a plurality of line segments from the above ON / OFF image data. Then, when a loop is formed by two or more line segments of the plurality of identified line segments, the CPU 62 identifies the positions of the two or more line segments as the position of the surrounding line object. In another modification, the CPU 62 may specify the position of the surrounding line object by executing pattern matching such as a circle and a rectangle. Further, for example, Japanese Patent Laid-Open No. 3-236069 discloses a method for specifying a surrounding line, and the CPU 62 may specify the surrounding line object by using the method.

次いで、S43では、CPU62は、S41で特定された画像処理の種類(即ち、内部合成画像処理又は外部合成画像処理)と、S42で特定された囲み線オブジェクトOBa,OBbの位置と、を利用して、マスクデータを生成する。図6に示されるように、マスクデータによって表わされるマスク画像MAIは、値「0」を示す画素と、値「1」を示す画素と、によって構成される。CPU62は、以下のようにして、マスクデータを生成する。即ち、CPU62は、まず、記述済みスキャンデータのうち、スキャン画像領域SA2を表わす部分データの縦方向の画素数及び横方向の画素数を特定する。次いで、CPU62は、当該縦方向の画素数と当該横方向の画素数とを有し、かつ、全ての画素の値が「0」である元データを生成する。そして、CPU62は、S41で特定された画像処理の種類が「内部合成画像処理」である場合には、上記の元データを構成する複数個の画素のうち、S42で特定された各囲み線オブジェクトOBa,OBbの内部領域に対応する各画素の値を「1」に変更することによって、マスクデータを生成する。また、CPU62は、S41で特定された画像処理の種類が「外部合成画像処理」である場合には、上記の元データを構成する複数個の画素のうち、S42で特定された各囲み線オブジェクトOBa,OBbの外部領域を構成する各画素の値を「1」に変更することによって、マスクデータを生成する。   Next, in S43, the CPU 62 uses the type of image processing specified in S41 (that is, internal composite image processing or external composite image processing) and the positions of the surrounding line objects OBa and OBb specified in S42. To generate mask data. As shown in FIG. 6, the mask image MAI represented by the mask data is composed of pixels indicating the value “0” and pixels indicating the value “1”. The CPU 62 generates mask data as follows. That is, the CPU 62 first specifies the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the partial data representing the scan image area SA2 in the described scan data. Next, the CPU 62 generates original data having the number of pixels in the vertical direction and the number of pixels in the horizontal direction, and the values of all the pixels are “0”. Then, when the type of image processing specified in S41 is “internal composite image processing”, the CPU 62 selects each of the surrounding line objects specified in S42 among the plurality of pixels constituting the original data. The mask data is generated by changing the value of each pixel corresponding to the internal area of OBa and OBb to “1”. In addition, when the type of image processing specified in S41 is “external composite image processing”, the CPU 62 selects each of the surrounding line objects specified in S42 among the plurality of pixels constituting the original data. The mask data is generated by changing the value of each pixel constituting the external area of OBa and OBb to “1”.

S44では、CPU62は、S41で特定されたメモリ64内の位置情報を利用して、メモリ64から、対象画像データ(図3のS22参照)と、当該対象画像データに対応付けられている変更率(S25参照)と、を取得する。図6の例では、対象画像TIを表わす対象画像データと、変更率CRと、が取得される。このように、本実施例によると、画像処理サーバ50は、記述済みスキャン画像DSI内のコード画像領域CA2(図6参照)からメモリ64内の位置情報を特定して、当該位置情報を利用して、対象画像データと変更率CRとを適切に取得することができる。   In S44, the CPU 62 uses the positional information in the memory 64 specified in S41, and from the memory 64, the target image data (see S22 in FIG. 3) and the change rate associated with the target image data. (Refer to S25). In the example of FIG. 6, target image data representing the target image TI and the change rate CR are acquired. Thus, according to the present embodiment, the image processing server 50 specifies the position information in the memory 64 from the code image area CA2 (see FIG. 6) in the described scan image DSI, and uses the position information. Thus, it is possible to appropriately acquire the target image data and the change rate CR.

S46では、CPU62は、S44で取得された変更率CRに基づいて、S43で生成されたマスクデータのサイズを変更して、変更済みマスクデータを生成する。具体的には、CPU62は、変更率CRの逆数(即ち1/CR)である倍率でマスクデータを単純拡大又は単純縮小することによって、変更済みマスクデータを生成する。これにより、対象画像データのサイズに一致するサイズを有する変更済みマスクデータが生成される。図6の例では、マスク画像MAIが1/CRの倍率で縮小されることによって、対象画像TIのサイズに一致するサイズを有する変更済みマスク画像CMIを表わす変更済みマスクデータが生成される。   In S46, the CPU 62 changes the size of the mask data generated in S43 based on the change rate CR acquired in S44, and generates changed mask data. Specifically, the CPU 62 generates changed mask data by simply enlarging or reducing the mask data at a magnification that is the reciprocal of the change rate CR (ie, 1 / CR). Thereby, changed mask data having a size that matches the size of the target image data is generated. In the example of FIG. 6, the mask image MAI is reduced at a magnification of 1 / CR, thereby generating changed mask data representing a changed mask image CMI having a size that matches the size of the target image TI.

S47では、CPU62は、メモリ64から複数個の合成TPデータ70(図1参照)のうちの1個の合成TPデータを取得し、当該1個の合成TPデータのサイズを変更して、変更済みTPデータを生成する。CPU62は、まず、複数個の合成TPデータ70のうち、S41で特定された合成元画像の種類(即ち、「赤」、「青」、「木目」、「水玉」のうちのいずれか)に対応する1個の合成TPデータ(以下では「特定の合成TPデータ」と呼ぶ)を取得する。そして、CPU62は、変更済みTPデータのサイズが、S44で取得された対象画像データのサイズに一致するように(即ち、S46で生成された変更済みマスクデータのサイズに一致するように)、特定の合成TPデータのサイズを変更して、変更済みTPデータを生成する。ここで、CPU62は、特定の合成TPデータを単純拡大又は単純縮小するのではなく、特定の合成TPデータによって表わされる画像のパターン(例えば水玉の配列)と変更済みTPデータによって表わされる画像のパターンとが一致するように、画素の追加又は画素の削除を実行して、特定の合成TPデータのサイズを変更する。図6の例では、水玉のパターンを示す合成TP画像COIを表わす特定の合成TPデータから、変更済みTP画像CTIを表わす変更済みTPデータが生成される。仮に、合成TP画像COIを単純拡大すると、変更済みTP画像CTI内の1個の水玉のサイズは、合成TP画像COI内の1個の水玉のサイズよりも大きくなる。本実施例では、合成TP画像COIのパターン(即ち水玉)と変更済みTP画像CTIのパターンとが一致するように、合成TP画像COIに画素が追加されるので(即ち画像COIのパターンを並べて配置するので)、変更済みTP画像CTI内の1個の水玉のサイズは、合成TP画像COI内の1個の水玉のサイズと同じである。   In S47, the CPU 62 acquires one composite TP data out of the plurality of composite TP data 70 (see FIG. 1) from the memory 64, changes the size of the single composite TP data, and has changed the data. TP data is generated. First, the CPU 62 selects the type of the composition source image specified in S41 among the plurality of composition TP data 70 (that is, one of “red”, “blue”, “wood”, and “polka dot”). One piece of corresponding synthetic TP data (hereinafter referred to as “specific synthetic TP data”) is acquired. Then, the CPU 62 specifies the size of the changed TP data so that it matches the size of the target image data acquired in S44 (that is, matches the size of the changed mask data generated in S46). The size of the synthesized TP data is changed to generate changed TP data. Here, the CPU 62 does not simply enlarge or reduce the specific composite TP data, but the image pattern (for example, an array of polka dots) represented by the specific composite TP data and the image pattern represented by the changed TP data. Are added or deleted so that the size of the specific composite TP data is changed. In the example of FIG. 6, changed TP data representing the modified TP image CTI is generated from specific synthetic TP data representing the synthetic TP image COI representing the polka dot pattern. If the composite TP image COI is simply enlarged, the size of one polka dot in the changed TP image CTI is larger than the size of one polka dot in the composite TP image COI. In this embodiment, pixels are added to the composite TP image COI so that the pattern of the composite TP image COI (that is, polka dots) matches the pattern of the modified TP image CTI (that is, the patterns of the image COI are arranged side by side). Therefore, the size of one polka dot in the modified TP image CTI is the same as the size of one polka dot in the composite TP image COI.

次いで、S50では、CPU62は、S44で取得された対象画像データと、S46で生成された変更済みマスクデータと、S47で生成された変更済みTPデータと、を利用して、画像処理(図7参照)を実行する。S50が終了すると、図5の処理が終了する。   Next, in S50, the CPU 62 uses the target image data acquired in S44, the changed mask data generated in S46, and the changed TP data generated in S47 to perform image processing (FIG. 7). ). When S50 ends, the process of FIG. 5 ends.

(画像処理;図7)
続いて、図7を参照して、図5のS50で実行される画像処理の内容を説明する。S51では、CPU62は、まず、対象画像データ内の1個の画素を特定する。図7の例では、対象画像TIに付されている符号TP1,TP2は、それぞれ、1個の画素を示す。以下では、S51で特定された画素のことを「特定済み画素」と呼ぶ。
(Image processing; FIG. 7)
Subsequently, the contents of the image processing executed in S50 of FIG. 5 will be described with reference to FIG. In S51, the CPU 62 first identifies one pixel in the target image data. In the example of FIG. 7, the codes TP1 and TP2 attached to the target image TI each indicate one pixel. Hereinafter, the pixel specified in S51 is referred to as “specified pixel”.

S52では、CPU62は、変更済みマスクデータ内の対応画素の値が「1」であるのか否かを判断する。変更済みマスクデータ内の上記の対応画素は、対象画像データ内の特定済み画素の位置に対応する位置に存在する画素である。図7の例では、対象画像TI内の特定済み画素が画素TP1である場合には、変更済みマスク画像CMI内の対応画素MP1の値が「0」であるために、CPU62は、S52でNOと判断し、S53をスキップしてS54に進む。また、対象画像TI内の特定済み画素が画素TP2である場合には、変更済みマスク画像CMI内の対応画素MP2の値が「1」であるために、CPU62は、S52でYESと判断し、S53に進む。   In S52, the CPU 62 determines whether or not the value of the corresponding pixel in the changed mask data is “1”. The corresponding pixel in the changed mask data is a pixel that exists at a position corresponding to the position of the specified pixel in the target image data. In the example of FIG. 7, when the specified pixel in the target image TI is the pixel TP1, the value of the corresponding pixel MP1 in the changed mask image CMI is “0”, so the CPU 62 determines NO in S52. It skips S53 and progresses to S54. When the specified pixel in the target image TI is the pixel TP2, the value of the corresponding pixel MP2 in the changed mask image CMI is “1”, so the CPU 62 determines YES in S52, Proceed to S53.

S53では、CPU62は、対象画像データ内の特定済み画素の値を変更済みTPデータ内の対応画素の値に置換する。換言すると、CPU62は、対象画像データ内の特定済み画素に代えて、変更済みTPデータ内の対応画素を合成する。変更済みTPデータ内の上記の対応画素は、対象画像データ内の特定済み画素の位置に対応する位置に存在する画素である。図7の例では、対象画像TI内の特定済み画素が画素TP2である場合には、当該特定済み画素の値が、変更済みTP画像CTI内の対応画素CPの値に変更される。   In S53, the CPU 62 replaces the value of the specified pixel in the target image data with the value of the corresponding pixel in the changed TP data. In other words, the CPU 62 combines corresponding pixels in the changed TP data instead of the specified pixels in the target image data. The corresponding pixel in the changed TP data is a pixel that exists at a position corresponding to the position of the specified pixel in the target image data. In the example of FIG. 7, when the specified pixel in the target image TI is the pixel TP2, the value of the specified pixel is changed to the value of the corresponding pixel CP in the changed TP image CTI.

S54では、CPU62は、対象画像データ内の全ての画素がS51で特定済みであるのか否かを判断する。CPU62は、対象画像データ内の全ての画素が特定済みでない場合には、S54でNOと判断し、S51において、対象画像データ内の他の1個の画素を特定する。一方、CPU62は、対象画像データ内の全ての画素が特定済みである場合には、S54でYESと判断し、図7の処理を終了する。これにより、処理済み画像データが完成する。図7の例では、処理済み画像データによって表わされる処理済み画像PRIにおいて、山の内部領域が複数個の水玉によって表現される。これは、図5のS42で特定された各囲み線オブジェクトOBa,OBbの内部領域が、S47で生成された変更済みTP画像CTIが示す水玉のパターンに変更されるように、対象画像データに変更済みTPデータが合成されたことを意味する。即ち、内部合成画像処理が実行されたことを意味する。   In S54, the CPU 62 determines whether all the pixels in the target image data have been specified in S51. If all the pixels in the target image data have not been specified, the CPU 62 determines NO in S54 and specifies one other pixel in the target image data in S51. On the other hand, if all the pixels in the target image data have been specified, the CPU 62 determines YES in S54 and ends the process of FIG. Thereby, processed image data is completed. In the example of FIG. 7, in the processed image PRI represented by the processed image data, the inner region of the mountain is represented by a plurality of polka dots. This is changed to the target image data so that the inner area of each of the surrounding line objects OBa and OBb specified in S42 of FIG. 5 is changed to the polka dot pattern indicated by the changed TP image CTI generated in S47. This means that the completed TP data has been synthesized. That is, it means that the internal composite image processing has been executed.

仮に、図5のS41で特定される画像処理の種類が「外部合成画像処理」であれば、変更済みマスク画像CMIにおいて、各画素の値が逆になる。即ち、変更済みマスク画像CMIにおいて、画素MP1の値が「1」になり、画素MP2の値が「0」になる。この場合、囲み線オブジェクトOBa,OBbの外部領域が、変更済みTP画像CTIが示す水玉のパターンに変更されるように、対象画像データに変更済みTPデータが合成される。即ち、外部合成画像処理が実行される。   If the type of image processing specified in S41 of FIG. 5 is “external composite image processing”, the value of each pixel is reversed in the changed mask image CMI. That is, in the changed mask image CMI, the value of the pixel MP1 is “1” and the value of the pixel MP2 is “0”. In this case, the changed TP data is combined with the target image data so that the outer area of the surrounding line objects OBa and OBb is changed to the polka dot pattern indicated by the changed TP image CTI. That is, external composite image processing is executed.

上述したように、画像処理サーバ50は、各囲み線オブジェクトOBa,OBbの位置に従って、対象画像TI内の一部を変更するための画像処理を実行することができる。また、画像処理サーバ50は、ユーザによって選択された画像処理の種類(即ち塗りつぶしオブジェクトOB2)に応じて、内部合成画像処理又は外部合成画像処理を実行することができる。また、画像処理サーバ50は、ユーザによって選択された合成元画像の種類(即ち塗りつぶしオブジェクトOB3)に応じて、対象画像TI内の一部を変更するための画像処理を実行することができる。   As described above, the image processing server 50 can execute image processing for changing a part in the target image TI in accordance with the positions of the surrounding line objects OBa and OBb. Further, the image processing server 50 can execute the internal composite image process or the external composite image process according to the type of image processing selected by the user (that is, the filled object OB2). Further, the image processing server 50 can execute image processing for changing a part of the target image TI in accordance with the type of the composition source image selected by the user (that is, the filled object OB3).

図2のS60では、CPU62は、処理済み画像データを出力する。具体的には、CPU62は、図5のS41で出力形式として「サーバ保存」が特定された場合には、処理済み画像データをデータ保存サーバ80に供給する。また、CPU62は、図5のS41で出力形式として「印刷」が特定された場合には、処理済み画像データをMFP10に供給する。このように、本実施例によると、画像処理サーバ50は、ユーザによって選択された出力形式(即ちサーバ保存又は印刷)に応じて、処理済み画像データを出力することができる。   In S60 of FIG. 2, the CPU 62 outputs processed image data. Specifically, the CPU 62 supplies the processed image data to the data storage server 80 when “server storage” is specified as the output format in S41 of FIG. Further, when “print” is specified as the output format in S <b> 41 of FIG. 5, the CPU 62 supplies the processed image data to the MFP 10. Thus, according to the present embodiment, the image processing server 50 can output processed image data according to the output format selected by the user (that is, server storage or printing).

(本実施例の効果)
画像処理サーバ50は、原稿DCのスキャンによって得られる対象画像データを取得し(図2のS10、図3のS21)、対象画像データとオーダーTPデータとを利用して特定画像データを生成し(図3のS26)、特定画像データをMFP10に供給する(図2のS30)。これにより、印刷媒体上への特定画像SPIの印刷が実行される。そして、画像処理サーバ50は、当該印刷媒体のスキャンによって得られる記述済みスキャンデータを取得し(図2のS32)、当該印刷媒体にユーザによって記述された各囲み線オブジェクトOBa,OBbと各塗りつぶしオブジェクトOB1,OB2,OB3とに従って、処理(図2のS40、S60)を実行する。即ち、画像処理装置は、各囲み線オブジェクトOBa,OBbと各塗りつぶしオブジェクトOB2,OB3とに従って、画像処理を実行して、処理済み画像データを生成し(図7)、塗りつぶしオブジェクトOB1に従って、処理済み画像データを外部に出力する(図2のS60)。このように、画像処理サーバ50は、新規な手法に従って、オーダーTPデータを利用した画像処理を実行することができる。
(Effect of this embodiment)
The image processing server 50 acquires target image data obtained by scanning the document DC (S10 in FIG. 2 and S21 in FIG. 3), and generates specific image data using the target image data and the order TP data ( The specific image data is supplied to the MFP 10 (S30 in FIG. 2). As a result, the specific image SPI is printed on the print medium. Then, the image processing server 50 acquires the described scan data obtained by scanning the print medium (S32 in FIG. 2), and each of the surrounding line objects OBa and OBb described by the user on the print medium and each filled object. Processing (S40, S60 in FIG. 2) is executed according to OB1, OB2, and OB3. That is, the image processing apparatus executes image processing according to the surrounding line objects OBa and OBb and the filled objects OB2 and OB3 to generate processed image data (FIG. 7), and has been processed according to the filled object OB1. The image data is output to the outside (S60 in FIG. 2). As described above, the image processing server 50 can execute image processing using the order TP data according to a novel method.

特に、ユーザは、特定画像SPIが印刷された印刷媒体に各オブジェクトOBa,OBb,OB1〜OB3を記述するので、原稿DCにオブジェクトを記述せずに済む。即ち、画像処理サーバ50は、原稿DCを元の状態に維持しながら、ユーザによって印刷媒体に記述される各オブジェクトOBa,OBb,OB1〜OB3に従って、適切な処理を実行することができる。また、ユーザは、原稿DCの写真画像に対する画像処理が実行されることを望む場合に、原稿DCのスキャンをMFP10に実行させ、特定画像SPIが印刷された印刷媒体に各オブジェクトOBa等を記述し、当該印刷媒体のスキャンをMFP10に実行させればよい。即ち、ユーザは、PC等を利用せずに済むので、原稿DCの写真画像に対する画像処理が実行された結果を容易に取得することができる。   Particularly, since the user describes each object OBa, OBb, OB1 to OB3 on the print medium on which the specific image SPI is printed, it is not necessary to describe the object in the document DC. That is, the image processing server 50 can execute appropriate processing according to the objects OBa, OBb, OB1 to OB3 described on the print medium by the user while maintaining the original DC in the original state. When the user desires to perform image processing on a photographic image of the document DC, the user causes the MFP 10 to scan the document DC, and describes each object OBa or the like on the print medium on which the specific image SPI is printed. The MFP 10 may be caused to scan the print medium. That is, since the user does not need to use a PC or the like, it is possible to easily obtain the result of executing the image processing on the photographic image of the document DC.

(対応関係)
画像処理サーバ50が、MFP10が、それぞれ、「画像処理装置」、「印刷実行部」の一例である。図2のS40(即ち図5及び図7の各処理)及びS60が、「目的処理」の一例である。内部合成画像処理、外部合成画像処理が、それぞれ、「第1種の画像処理」、「第2種の画像処理」の一例である。出力形式「サーバ保存」、出力形式「印刷」が、それぞれ、「第1種の出力形式」、「第2種の出力形式」の一例である。
(Correspondence)
The image processing server 50 and the MFP 10 are examples of an “image processing apparatus” and a “print execution unit”, respectively. S40 in FIG. 2 (that is, each process in FIGS. 5 and 7) and S60 are examples of the “target process”. The internal composite image processing and the external composite image processing are examples of “first type image processing” and “second type image processing”, respectively. The output format “server save” and the output format “print” are examples of “first type output format” and “second type output format”, respectively.

対象画像データ、記述済みスキャンデータ、オーダーTPデータが、それぞれ、「第1のスキャンデータ」、「第2のスキャンデータ」、「テンプレートデータ」の一例である。図4の対象画像TI、変更済み画像CHI、図6の記述済みスキャン画像DSIが、それぞれ、「第1のスキャン画像」、「第1のスキャン画像に相当する画像」、「第2のスキャン画像」の一例である。図4のスキャン画像領域SA1、TP領域TA1、コード画像領域CA1が、それぞれ、「第1のスキャン画像領域」、「第1のテンプレート領域」、「第1のコード画像領域」の一例である。図6のスキャン画像領域SA2、TP領域TA2、コード画像領域CA2が、それぞれ、「第2のスキャン画像領域」、「第2のテンプレート領域」、「第2のコード画像領域」の一例である。複数個の合成TPデータ70によって表わされる複数個の合成元画像が、「2個以上の所定画像」の一例である。ユーザによって選択された合成元画像(例えば水玉を示す画像)が、「目的画像」の一例である。   The target image data, the described scan data, and the order TP data are examples of “first scan data”, “second scan data”, and “template data”, respectively. The target image TI in FIG. 4, the modified image CHI, and the described scan image DSI in FIG. 6 are “first scan image”, “image corresponding to the first scan image”, and “second scan image”, respectively. Is an example. The scan image area SA1, the TP area TA1, and the code image area CA1 in FIG. 4 are examples of the “first scan image area”, the “first template area”, and the “first code image area”, respectively. The scan image area SA2, the TP area TA2, and the code image area CA2 in FIG. 6 are examples of the “second scan image area”, the “second template area”, and the “second code image area”, respectively. A plurality of composition original images represented by a plurality of composition TP data 70 is an example of “two or more predetermined images”. The composition source image (for example, an image showing polka dots) selected by the user is an example of the “target image”.

図4の領域A2,A3(即ち図6の領域A12,A13)に含まれる複数個の項目が、「画像処理に関する複数個の項目」の一例である。図6の各囲み線オブジェクトOBa,OBbが、「第1のオブジェクト」の一例であり、各塗りつぶしオブジェクトOB1〜OB3が、「第2のオブジェクト」の一例である。2個の塗りつぶしオブジェクトOB2,OB3が、「項目選択オブジェクト」の一例である。塗りつぶしオブジェクトOB1、塗りつぶしオブジェクトOB2、塗りつぶしオブジェクトOB3が、それぞれ、「形式選択オブジェクト」、「処理選択オブジェクト」、「画像選択オブジェクト」の一例である。   A plurality of items included in the areas A2 and A3 in FIG. 4 (that is, the areas A12 and A13 in FIG. 6) are examples of “a plurality of items relating to image processing”. Each of the surrounding line objects OBa and OBb in FIG. 6 is an example of a “first object”, and each of the filled objects OB1 to OB3 is an example of a “second object”. Two filled objects OB2 and OB3 are examples of “item selection object”. The fill object OB1, the fill object OB2, and the fill object OB3 are examples of “format selection object”, “processing selection object”, and “image selection object”, respectively.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The modifications of the above embodiment are listed below.

(変形例1)上記の実施例では、MFP10が原稿台の全範囲のスキャンを実行するので、画像処理サーバ50は、MFP10から取得される元スキャンデータから原稿領域DCA(図4参照)を特定し、原稿領域DCAを表わす対象画像データを取得する(図3のS21)。これに代えて、MFP10は、原稿台のうちの原稿DCが載置されている部分のみのスキャンを実行してもよい。この場合、画像処理サーバ50は、MFP10から、原稿領域DCAのみを表わす元スキャンデータ(即ち、非載置領域NAを表わさない元スキャンデータ)を取得することができる。この場合、画像処理サーバ50は、元スキャンデータに対して図3のS21の処理を実行せずに、元スキャンデータを対象画像データとして扱って、S22以降の処理を実行する。本変形例では、元スキャンデータが、「第1のスキャンデータ」の一例である。 (Modification 1) In the above embodiment, since the MFP 10 scans the entire range of the document table, the image processing server 50 identifies the document area DCA (see FIG. 4) from the original scan data acquired from the MFP 10. Then, target image data representing the document area DCA is acquired (S21 in FIG. 3). Instead of this, the MFP 10 may scan only the portion of the document table on which the document DC is placed. In this case, the image processing server 50 can acquire original scan data representing only the document area DCA (that is, original scan data not representing the non-placement area NA) from the MFP 10. In this case, the image processing server 50 treats the original scan data as the target image data without executing the process of S21 of FIG. 3 on the original scan data, and executes the processes after S22. In the present modification, the original scan data is an example of “first scan data”.

(変形例2)上記の実施例では、画像処理サーバ50は、対象画像データから変更済み画像データを生成し(図3のS24)、変更済み画像データをオーダーTPデータ68に合成することによって、特定画像データを生成する(S26)。即ち、変更済み画像データによって表わされる変更済み画像CHI(図4参照)が、「第1のスキャン画像に相当する画像」の一例である。これに代えて、画像処理サーバ50は、対象画像データそのものをオーダーTPデータ68に合成することによって、特定画像データを生成してもよい。この場合、特定画像データのうちの一部である対象画像データがカラー画像を表わすので、画像処理サーバ50は、モノクロ印刷の実行指示と、特定画像データと、をMFP10に供給する。これにより、MFP10がモノクロ印刷を実行するので、上記の実施例と同様に、モノクロの特定画像SPIが印刷された印刷媒体をユーザに提供することができる。本変形例では、対象画像TIが、「第1のスキャン画像に相当する画像」の一例である。即ち、本変形例では、「第1のスキャン画像」と「第1のスキャン画像に相当する画像」とが同じ画像である。 (Modification 2) In the above embodiment, the image processing server 50 generates changed image data from the target image data (S24 in FIG. 3), and synthesizes the changed image data with the order TP data 68. Specific image data is generated (S26). That is, the changed image CHI (see FIG. 4) represented by the changed image data is an example of “an image corresponding to the first scan image”. Instead, the image processing server 50 may generate the specific image data by combining the target image data itself with the order TP data 68. In this case, since the target image data which is a part of the specific image data represents a color image, the image processing server 50 supplies the MFP 10 with an instruction to execute monochrome printing and the specific image data. Accordingly, since the MFP 10 performs monochrome printing, a print medium on which the monochrome specific image SPI is printed can be provided to the user as in the above-described embodiment. In the present modification, the target image TI is an example of “an image corresponding to the first scan image”. That is, in the present modification, the “first scan image” and the “image corresponding to the first scan image” are the same image.

(変形例3)上記の実施例では、画像処理サーバ50は、図3のS21で取得された画像データに対する画像処理を実行する(図7)。即ち、S21で取得された画像データが、「対象画像データ」の一例である。これに代えて、「対象画像データ」は、例えば、S21で取得された画像データを変更率CR(図4参照)に従った倍率で単純拡大又は単純縮小することによって得られる画像データ(即ち、変更済み画像CHIと同じサイズを有する画像データ)であってもよい。 (Modification 3) In the above embodiment, the image processing server 50 executes image processing on the image data acquired in S21 of FIG. 3 (FIG. 7). That is, the image data acquired in S21 is an example of “target image data”. Instead, the “target image data” is, for example, image data obtained by simply enlarging or simply reducing the image data acquired in S21 at a magnification according to the change rate CR (see FIG. 4) (ie, Image data having the same size as the changed image CHI).

(変形例4)上記の実施例では、特定画像SPI(図4参照)が印刷された印刷媒体に含まれるスキャン画像領域SA1内において、囲み線オブジェクトOBa,OBb(図6参照)がユーザによって記述される。これに代えて、スキャン画像領域SA1内において、囲み線とは異なるオブジェクトがユーザによって記述されてもよい。例えば、画像が合成されるべき領域が赤色のペンでベタ塗りされたオブジェクトがユーザによって記述されてもよい。この場合、画像処理サーバ50は、記述済みスキャン画像DSI(図6参照)内のスキャン画像領域SA2からベタ塗りのオブジェクトの位置を特定し、当該オブジェクトに対応する対象画像TI内の領域に合成元画像(例えば水玉の画像)を合成してもよい。本変形例では、ベタ塗りのオブジェクトが、「第1のオブジェクト」の一例である。また、別の変形例では、例えば、赤色のペンで文字列を示すオブジェクトがユーザによって記述されてもよい。この場合、画像処理サーバ50は、記述済みスキャン画像DSI(図6参照)内のスキャン画像領域SA2から文字列を示すオブジェクトの位置を特定し、当該オブジェクトに対応する対象画像TI内の領域に合成元画像(例えば水玉の画像)を合成してもよい。本変形例では、文字列を示すオブジェクトが、「第1のオブジェクト」の一例である。 (Modification 4) In the above embodiment, the surrounding line objects OBa and OBb (see FIG. 6) are described by the user in the scan image area SA1 included in the print medium on which the specific image SPI (see FIG. 4) is printed. Is done. Instead, an object different from the enclosing line may be described by the user in the scanned image area SA1. For example, an object in which an area where an image is to be synthesized is solid-coated with a red pen may be described by the user. In this case, the image processing server 50 identifies the position of the solid object from the scan image area SA2 in the described scan image DSI (see FIG. 6), and combines it into the area in the target image TI corresponding to the object. An image (for example, an image of a polka dot) may be synthesized. In the present modification, the solid object is an example of a “first object”. In another modification, for example, an object indicating a character string with a red pen may be described by the user. In this case, the image processing server 50 identifies the position of the object indicating the character string from the scanned image area SA2 in the described scanned image DSI (see FIG. 6), and combines it with the area in the target image TI corresponding to the object. An original image (for example, a polka dot image) may be synthesized. In the present modification, the object indicating the character string is an example of “first object”.

(変形例5)上記の実施例では、「画像処理」は、囲み線オブジェクトOBa,OBbの内部領域又は外部領域に対応する対象画像TI内の領域(以下では「対象領域」と呼ぶ)に合成元画像(例えば水玉の画像)を合成するための処理である。これに代えて、「画像処理」は、対象領域内の色の濃さ、コントラスト、シャープネス等を変更するための画像処理であってもよい。この場合、例えば、特定画像SPI(図4参照)内の領域A3は、合成元画像を選択するための領域ではく、色の濃さの変更、コントラストの変更、シャープネスの変更等のうちの1種類の画像処理を選択するための領域であってもよい。 (Modification 5) In the above embodiment, “image processing” is combined with an area (hereinafter referred to as “target area”) in the target image TI corresponding to the internal area or the external area of the surrounding line objects OBa and OBb. This is a process for synthesizing an original image (for example, a polka dot image). Instead, “image processing” may be image processing for changing the color density, contrast, sharpness, etc. in the target area. In this case, for example, the area A3 in the specific image SPI (see FIG. 4) is not an area for selecting a composition source image, but one of a change in color density, a change in contrast, a change in sharpness, and the like. It may be an area for selecting a type of image processing.

(変形例6)上記の実施例では、特定画像SPI(図4参照)内のTP領域TA1は、3個の領域A1〜A3を含む。これに代えて、TP領域TA1は、3個の領域A1〜A3のうちの1個又は2個の領域のみを含んでいてもよい。例えば、以下の変形例(6−1)〜(6−3)のいずれかが採用されてもよい。 (Modification 6) In the above embodiment, the TP area TA1 in the specific image SPI (see FIG. 4) includes three areas A1 to A3. Instead of this, the TP region TA1 may include only one or two of the three regions A1 to A3. For example, any of the following modified examples (6-1) to (6-3) may be adopted.

(変形例6−1)例えば、画像処理サーバ50は、内部合成画像処理のみを実行可能であると共に、複数個の合成TPデータ70を記憶しておらず、1種類の合成元画像(例えば水玉を示す画像)を表わす1個の合成TPデータのみを記憶していてもよい。この場合、TP領域TA1(図4参照)は、領域A2,A3を含まず、領域A1のみを含んでいてもよい。即ち、「第2のオブジェクト」は、形式選択オブジェクトのみを含んでいてもよい。 (Modification 6-1) For example, the image processing server 50 can execute only the internal composite image process, and does not store a plurality of composite TP data 70, but one composite original image (for example, polka dots). Only one composite TP data representing an image) may be stored. In this case, the TP area TA1 (see FIG. 4) may not include the areas A2 and A3 but may include only the area A1. That is, the “second object” may include only the format selection object.

(変形例6−2)例えば、画像処理サーバ50は、複数個の合成TPデータ70を記憶しておらず、1種類の合成元画像(例えば水玉を示す画像)を表わす1個の合成TPデータのみを記憶していていると共に、出力形式として「印刷」のみを実行可能であってもよい。この場合、TP領域TA1(図4参照)は、領域A1,A3を含まず、領域A2のみを含んでいてもよい。即ち、「第2のオブジェクト」は、処理選択オブジェクトのみを含んでいてもよい。 (Modification 6-2) For example, the image processing server 50 does not store a plurality of synthesized TP data 70, and one synthesized TP data representing one kind of synthesized original image (for example, an image showing polka dots). Only “print” may be executed as an output format. In this case, the TP area TA1 (see FIG. 4) may not include the areas A1 and A3 but may include only the area A2. That is, the “second object” may include only the process selection object.

(変形例6−3)例えば、画像処理サーバ50は、内部合成画像処理のみを実行可能であると共に、出力形式として「印刷」のみを実行可能であってもよい。この場合、TP領域TA1(図4参照)は、領域A1,A2を含まず、領域A3のみを含んでいてもよい。即ち、「第2のオブジェクト」は、画像選択オブジェクトのみを含んでいてもよい。 (Modification 6-3) For example, the image processing server 50 may be able to execute only the internal composite image processing and may execute only “print” as the output format. In this case, the TP area TA1 (see FIG. 4) may not include the areas A1 and A2 but may include only the area A3. That is, the “second object” may include only the image selection object.

(変形例7)画像処理サーバ50は、出力形式「データ保存」がユーザによって選択される場合に、処理済み画像データをデータ保存サーバ80に供給する代わりに、処理済み画像データを画像処理サーバ50自身のメモリ64に記憶させてもよい。この場合、画像処理サーバ50は、後にユーザがPCを利用して画像処理サーバ50にアクセスする際に、メモリ64内の処理済み画像データをPCに供給してもよい。即ち、画像処理サーバ50は、処理済み画像データを生成した直後に、処理済み画像データを出力してもよいし、処理済み画像データを記憶しておいて、ユーザから要求を受けた際に、処理済み画像データを出力してもよい。 (Modification 7) When the output format “data storage” is selected by the user, the image processing server 50 supplies the processed image data to the image processing server 50 instead of supplying the processed image data to the data storage server 80. It may be stored in its own memory 64. In this case, the image processing server 50 may supply the processed image data in the memory 64 to the PC when the user accesses the image processing server 50 later using the PC. That is, the image processing server 50 may output the processed image data immediately after generating the processed image data, or stores the processed image data and receives a request from the user. Processed image data may be output.

(変形例8)上記の実施例では、処理済み画像データの出力形式として「データ保存」及び「印刷」が採用されている。出力形式は、これらに限られず、「USB保存」、「表示」等であってもよい。例えば、出力形式「USB保存」がユーザによって選択される場合には、画像処理サーバ50は、処理済み画像データをMFP10に供給して、MFP10に挿入されているUSBメモリ内に処理済み画像データを記憶させる。また、例えば、出力形式「表示」がユーザによって選択される場合には、画像処理サーバ50は、処理済み画像データを表示デバイス(例えばPC等)に供給して、当該表示デバイスに処理済み画像PRIを表示させる。一般的に言うと、画像処理装置は、処理済み画像データを出力すればよい。 (Modification 8) In the above embodiment, “data storage” and “print” are adopted as output formats of processed image data. The output format is not limited to these, and may be “USB storage”, “display”, or the like. For example, when the output format “USB storage” is selected by the user, the image processing server 50 supplies the processed image data to the MFP 10 and stores the processed image data in the USB memory inserted in the MFP 10. Remember. Further, for example, when the output format “display” is selected by the user, the image processing server 50 supplies the processed image data to a display device (for example, a PC) and processes the processed image PRI on the display device. Is displayed. Generally speaking, the image processing apparatus may output processed image data.

(変形例9)上記の実施例では、MFP10が、原稿DCのスキャン、特定画像SPI(図4参照)の印刷、各オブジェクトが記述された印刷媒体のスキャン、及び、処理済み画像PRI(図7参照)の印刷を実行し、画像処理サーバ50が、他の各処理(即ち図2の各処理)を実行する。これに代えて、MFP10が、図2の各処理のうちの一部を実行してもよい。例えば、MFP10は、オーダーTPデータ68を記憶している場合に、元スキャンデータを画像処理サーバ50に供給せずに、図2のS20の特定画像データ生成処理を実行し、特定画像SPI(図4参照)の印刷を実行してもよい。この場合、MFP10は、その後の処理(例えばS40、S60の処理)を画像処理サーバ50に実行させてもよい。また、MFP10は、複数個の合成TPデータ70を記憶している場合に、画像処理サーバ50から特定画像データを取得した後に、S40の処理済み画像データ生成処理と、S60の出力処理と、を実行してもよい。本変形例では、MFP10と画像処理サーバ50とを備えるシステムが、「画像処理装置」の一例である。また、別の変形例では、画像処理サーバ50が設けられていなくてもよく、MFP10は、図2のS20、S40、及び、S60の各処理を実行してもよい。本変形例では、MFP10が、「画像処理装置」の一例である。 (Modification 9) In the above embodiment, the MFP 10 scans the original DC, prints the specific image SPI (see FIG. 4), scans the print medium on which each object is described, and the processed image PRI (FIG. 7). The image processing server 50 executes other processes (that is, the processes in FIG. 2). Instead, the MFP 10 may execute some of the processes in FIG. For example, when the order TP data 68 is stored, the MFP 10 does not supply the original scan data to the image processing server 50, and executes the specific image data generation process of S20 of FIG. 4) may be executed. In this case, the MFP 10 may cause the image processing server 50 to execute subsequent processing (for example, processing in S40 and S60). Further, when the MFP 10 stores a plurality of composite TP data 70, after acquiring the specific image data from the image processing server 50, the processed image data generation process of S40 and the output process of S60 are performed. May be executed. In this modification, a system including the MFP 10 and the image processing server 50 is an example of an “image processing apparatus”. In another modification, the image processing server 50 may not be provided, and the MFP 10 may execute the processes of S20, S40, and S60 in FIG. In this modification, the MFP 10 is an example of an “image processing apparatus”.

(変形例10)上記の実施例では、画像処理サーバ50のCPU62がプログラム66(即ちソフトウェア)を実行することによって、図2、図3、図5、及び、図7の各処理が実現される。これに代えて、これらの各処理のうちの少なくとも1つの処理は、論理回路等のハードウェアによって実現されてもよい。 (Modification 10) In the above-described embodiment, the CPU 62 of the image processing server 50 executes the program 66 (that is, software), thereby realizing the processes shown in FIGS. 2, 3, 5, and 7. . Instead, at least one of these processes may be realized by hardware such as a logic circuit.

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

2:通信システム、10:多機能機(MFP)、12:操作部、14:表示部、16:ネットワークインターフェース、18:印刷実行部、20:スキャン実行部、30:制御部、32:CPU、34:メモリ、36:プログラム、50:画像処理サーバ、52:ネットワークインターフェース、60:制御部、62:CPU、64:メモリ、66:プログラム、68:オーダーTPデータ、70:合成TPデータ、80:データ保存サーバ、CA1,CA2:コード画像領域、COI:コード画像、CR:変更率、DC:原稿、DCA:原稿領域、DSI:記述済みスキャン画像、NA:非載置領域、OB1,OB2,OB3:塗りつぶしオブジェクト、OBa,OBb:囲み線オブジェクト、OSI:元スキャン画像、PRI:処理済み画像、SA1,SA2:スキャン画像領域、SPI:特定画像、TI:対象画像、TA1,TA2:TP領域   2: communication system, 10: multi-function device (MFP), 12: operation unit, 14: display unit, 16: network interface, 18: print execution unit, 20: scan execution unit, 30: control unit, 32: CPU, 34: Memory, 36: Program, 50: Image processing server, 52: Network interface, 60: Control unit, 62: CPU, 64: Memory, 66: Program, 68: Order TP data, 70: Composite TP data, 80: Data storage server, CA1, CA2: Code image area, COI: Code image, CR: Change rate, DC: Document, DCA: Document area, DSI: Described scan image, NA: Non-placed area, OB1, OB2, OB3 : Filled object, OBa, OBb: Surrounding line object, OSI: Original scan image, PRI: Processed Image, SA1, SA2: scanning the image area, SPI: specific image, TI: target image, TA1, TA2: TP region

Claims (13)

画像処理装置であって、
原稿のスキャンによって得られる第1のスキャンデータを取得する第1の取得部と、
前記第1のスキャンデータと、予め準備されているテンプレートデータと、を利用して、特定画像データを生成する生成部であって、前記特定画像データによって表わされる特定画像は、前記第1のスキャンデータによって表わされる第1のスキャン画像に相当する画像を示す第1のスキャン画像領域と、前記テンプレートデータによって表わされるテンプレート画像を示す第1のテンプレート領域と、を含む、前記生成部と、
印刷媒体上への前記特定画像の印刷が実行されるように、前記特定画像データを印刷実行部に供給する供給部と、
前記印刷媒体のスキャンによって得られる第2のスキャンデータを取得する第2の取得部であって、前記第2のスキャンデータによって表わされる第2のスキャン画像は、前記印刷媒体に印刷された前記第1のスキャン画像領域内にユーザによって記述された第1のオブジェクトを含む第2のスキャン画像領域と、前記印刷媒体に印刷された前記第1のテンプレート領域内に前記ユーザによって記述された第2のオブジェクトを含む第2のテンプレート領域と、を含む、前記第2の取得部と、
前記第1のスキャンデータを用いて得られる対象画像データを利用して、前記第2のスキャン画像に含まれる前記第1のオブジェクトと前記第2のオブジェクトとに従った目的処理を実行する目的処理実行部と、を備え、
前記目的処理は、
前記対象画像データに対して、前記第1のオブジェクトに従った画像処理を実行して、処理済み画像データを生成すること、及び、
前記処理済み画像データを出力すること、
を含む、画像処理装置。
An image processing apparatus,
A first acquisition unit that acquires first scan data obtained by scanning a document;
A generation unit that generates specific image data using the first scan data and template data prepared in advance, wherein the specific image represented by the specific image data is the first scan The generation unit including: a first scan image area indicating an image corresponding to a first scan image represented by data; and a first template area indicating a template image represented by the template data;
A supply unit that supplies the specific image data to a print execution unit so that printing of the specific image on a print medium is executed;
A second acquisition unit that acquires second scan data obtained by scanning the print medium, wherein the second scan image represented by the second scan data is printed on the print medium. A second scan image area including a first object described by a user in one scan image area; and a second scan image area described by the user in the first template area printed on the print medium. A second template region including an object, the second acquisition unit,
Objective processing for executing objective processing according to the first object and the second object included in the second scan image using target image data obtained using the first scan data An execution unit, and
The objective process is:
Performing image processing according to the first object on the target image data to generate processed image data; and
Outputting the processed image data;
An image processing apparatus.
前記目的処理実行部は、前記第2のスキャン画像領域内での前記第1のオブジェクトの位置を特定し、前記対象画像データに対して、前記第1のオブジェクトの前記位置に従った前記画像処理を実行する、請求項1に記載の画像処理装置。   The object processing execution unit specifies a position of the first object in the second scan image area, and performs the image processing according to the position of the first object with respect to the target image data. The image processing apparatus according to claim 1, wherein: 前記第2のオブジェクトは、画像処理に関する複数個の項目の中から前記ユーザによって選択された結果を示す項目選択オブジェクトを含み、
前記目的処理実行部は、前記対象画像データに対して、前記第1のオブジェクトと前記項目選択オブジェクトとに従った前記画像処理を実行する、請求項1又は2に記載の画像処理装置。
The second object includes an item selection object indicating a result selected by the user from a plurality of items related to image processing,
The image processing apparatus according to claim 1, wherein the target processing execution unit executes the image processing according to the first object and the item selection object on the target image data.
前記項目選択オブジェクトは、2種類以上の画像処理の中から前記ユーザによって選択された結果を示す処理選択オブジェクトを含む、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the item selection object includes a processing selection object indicating a result selected by the user from two or more types of image processing. 前記第1のオブジェクトは、囲み線を示すオブジェクトであり、
前記目的処理実行部は、前記対象画像データを構成する複数個の画素のうち、前記第1のオブジェクトによって示される前記囲み線の内部領域又は外部領域に対応する各画素の値を変更するための前記画像処理を実行する、請求項1から4のいずれか一項に記載の画像処理装置。
The first object is an object indicating a surrounding line,
The object processing execution unit is configured to change a value of each pixel corresponding to an inner region or an outer region of the surrounding line indicated by the first object among a plurality of pixels constituting the target image data. The image processing apparatus according to claim 1, wherein the image processing is executed.
前記第2のオブジェクトは、前記囲み線の前記内部領域に対応する各画素の値を変更するための第1種の画像処理と、前記囲み線の前記外部領域に対応する各画素の値を変更するための第2種の画像処理と、を含む2種類以上の画像処理の中から前記ユーザによって選択された結果を示す処理選択オブジェクトを含み、
前記目的処理実行部は、
前記処理選択オブジェクトが前記第1種の画像処理を示す場合に、前記対象画像データに対して前記第1種の画像処理を実行し、
前記処理選択オブジェクトが前記第2種の画像処理を示す場合に、前記対象画像データに対して前記第2種の画像処理を実行する、請求項5に記載の画像処理装置。
The second object includes a first type of image processing for changing a value of each pixel corresponding to the inner area of the surrounding line, and a value of each pixel corresponding to the outer area of the surrounding line. A processing selection object indicating a result selected by the user from two or more types of image processing including the second type of image processing
The object processing execution unit
When the processing selection object indicates the first type of image processing, the first type of image processing is performed on the target image data;
The image processing apparatus according to claim 5, wherein when the processing selection object indicates the second type of image processing, the second type of image processing is executed on the target image data.
前記目的処理実行部は、前記対象画像データによって表わされる対象画像内の一部を目的画像に合成するための前記画像処理を実行する、請求項1から6のいずれか一項に記載の画像処理装置。   The image processing according to claim 1, wherein the target processing execution unit executes the image processing for synthesizing a part of a target image represented by the target image data with a target image. apparatus. 前記第2のオブジェクトは、2個以上の所定画像の中から前記ユーザによって選択された結果を示す画像選択オブジェクトを含み、
前記目的処理実行部は、前記対象画像内の前記一部を、前記2個以上の所定画像のうち、前記画像選択オブジェクトによって示される前記目的画像に合成するための前記画像処理を実行する、請求項7に記載の画像処理装置。
The second object includes an image selection object indicating a result selected by the user from two or more predetermined images,
The target processing execution unit executes the image processing for combining the part of the target image with the target image indicated by the image selection object among the two or more predetermined images. Item 8. The image processing device according to Item 7.
前記第2のオブジェクトは、第1種の出力形式と、前記第1種の出力形式とは異なる第2種の出力形式と、を含む2種類以上の出力形式の中から前記ユーザによって選択された結果を示す形式選択オブジェクトを含み、
前記目的処理実行部は、
前記形式選択オブジェクトが前記第1種の出力形式を示す場合に、前記第1種の出力形式に従って前記処理済み画像データを出力し、
前記形式選択オブジェクトが前記第2種の出力形式を示す場合に、前記第2種の出力形式に従って前記処理済み画像データを出力する、請求項1から8のいずれか一項に記載の画像処理装置。
The second object is selected by the user from two or more output formats including a first type output format and a second type output format different from the first type output format. Contains a format selection object indicating the result,
The object processing execution unit
When the format selection object indicates the first type of output format, the processed image data is output according to the first type of output format;
9. The image processing apparatus according to claim 1, wherein when the format selection object indicates the second type of output format, the processed image data is output in accordance with the second type of output format. 10. .
前記目的処理実行部は、前記第1のスキャンデータである前記対象画像データに対して前記画像処理を実行する、請求項1から9のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target processing execution unit executes the image processing on the target image data that is the first scan data. 前記画像処理装置は、さらに、
前記第1のスキャンデータを記憶するメモリを備え、
前記特定画像は、さらに、前記第1のスキャンデータが記憶されている前記メモリ内の位置を示す位置情報に対応するコード画像を示す第1のコード画像領域を含み、
前記第2のスキャン画像は、前記コード画像を示す第2のコード画像領域を含み、
前記目的処理実行部は、前記第2のコード画像領域に示される前記コード画像に基づいて前記位置情報を特定し、前記位置情報によって示される前記メモリ内の前記位置から前記第1のスキャンデータである前記対象画像データを取得し、取得済みの前記対象画像データに対して前記画像処理を実行する、請求項10に記載の画像処理装置。
The image processing apparatus further includes:
A memory for storing the first scan data;
The specific image further includes a first code image area indicating a code image corresponding to position information indicating a position in the memory in which the first scan data is stored;
The second scan image includes a second code image region indicating the code image,
The object processing execution unit identifies the position information based on the code image indicated in the second code image area, and uses the first scan data from the position in the memory indicated by the position information. The image processing apparatus according to claim 10, wherein the target image data is acquired and the image processing is executed on the acquired target image data.
画像処理装置のためのコンピュータプログラムであって、
前記画像処理装置に搭載されるコンピュータに、以下の各処理、即ち、
原稿のスキャンによって得られる第1のスキャンデータを取得する第1の取得処理と、
前記第1のスキャンデータと、予め準備されているテンプレートデータと、を利用して、特定画像データを生成する生成処理であって、前記特定画像データによって表わされる特定画像は、前記第1のスキャンデータによって表わされる第1のスキャン画像に相当する画像を示す第1のスキャン画像領域と、前記テンプレートデータによって表わされるテンプレート画像を示す第1のテンプレート領域と、を含む、前記生成処理と、
印刷媒体上への前記特定画像の印刷が実行されるように、前記特定画像データを印刷実行部に供給する供給処理と、
前記印刷媒体のスキャンによって得られる第2のスキャンデータを取得する第2の取得処理であって、前記第2のスキャンデータによって表わされる第2のスキャン画像は、前記印刷媒体に印刷された前記第1のスキャン画像領域内にユーザによって記述された第1のオブジェクトを含む第2のスキャン画像領域と、前記印刷媒体に印刷された前記第1のテンプレート領域内に前記ユーザによって記述された第2のオブジェクトを含む第2のテンプレート領域と、を含む、前記第2の取得処理と、
前記第1のスキャンデータを用いて得られる対象画像データを利用して、前記第2のスキャン画像に含まれる前記第1のオブジェクトと前記第2のオブジェクトとに従った目的処理と、実行させ、
前記目的処理は、
前記対象画像データに対して、前記第1のオブジェクトに従った画像処理を実行して、処理済み画像データを生成すること、及び、
前記処理済み画像データを出力すること、
を含む、コンピュータプログラム。
A computer program for an image processing apparatus,
In the computer mounted on the image processing apparatus, the following processes, that is,
A first acquisition process for acquiring first scan data obtained by scanning a document;
A generation process for generating specific image data using the first scan data and template data prepared in advance, wherein the specific image represented by the specific image data is the first scan The generation process including: a first scan image area indicating an image corresponding to a first scan image represented by data; and a first template area indicating a template image represented by the template data;
A supply process for supplying the specific image data to a print execution unit so that printing of the specific image on a print medium is executed;
A second acquisition process for acquiring second scan data obtained by scanning the print medium, wherein the second scan image represented by the second scan data is printed on the print medium. A second scan image area including a first object described by a user in one scan image area; and a second scan image area described by the user in the first template area printed on the print medium. A second template region including an object, and the second acquisition process,
Using target image data obtained using the first scan data, and executing a target process according to the first object and the second object included in the second scan image,
The objective process is:
Performing image processing according to the first object on the target image data to generate processed image data; and
Outputting the processed image data;
Including computer programs.
画像処理方法であって、
原稿のスキャンによって得られる第1のスキャンデータを取得する第1の取得工程と、
前記第1のスキャンデータと、予め準備されているテンプレートデータと、を利用して、特定画像データを生成する生成工程であって、前記特定画像データによって表わされる特定画像は、前記第1のスキャンデータによって表わされる第1のスキャン画像に相当する画像を示す第1のスキャン画像領域と、前記テンプレートデータによって表わされるテンプレート画像を示す第1のテンプレート領域と、を含む、前記生成工程と、
印刷媒体上への前記特定画像の印刷が実行されるように、前記特定画像データを印刷実行部に供給する供給工程と、
前記印刷媒体のスキャンによって得られる第2のスキャンデータを取得する第2の取得工程であって、前記第2のスキャンデータによって表わされる第2のスキャン画像は、前記印刷媒体に印刷された前記第1のスキャン画像領域内にユーザによって記述された第1のオブジェクトを含む第2のスキャン画像領域と、前記印刷媒体に印刷された前記第1のテンプレート領域内に前記ユーザによって記述された第2のオブジェクトを含む第2のテンプレート領域と、を含む、前記第2の取得工程と、
前記第1のスキャンデータを用いて得られる対象画像データを利用して、前記第2のスキャン画像に含まれる前記第1のオブジェクトと前記第2のオブジェクトとに従った目的処理を実行する目的処理実行工程と、を備え、
前記目的処理は、
前記対象画像データに対して、前記第1のオブジェクトに従った画像処理を実行して、処理済み画像データを生成すること、及び、
前記処理済み画像データを出力すること、
を含む、画像処理方法。
An image processing method comprising:
A first acquisition step of acquiring first scan data obtained by scanning a document;
A generation step of generating specific image data using the first scan data and template data prepared in advance, wherein the specific image represented by the specific image data is the first scan The generating step, comprising: a first scan image area indicating an image corresponding to a first scan image represented by data; and a first template area indicating a template image represented by the template data;
Supplying the specific image data to a print execution unit so that printing of the specific image on a print medium is executed;
A second acquisition step of acquiring second scan data obtained by scanning the print medium, wherein a second scan image represented by the second scan data is printed on the print medium; A second scan image area including a first object described by a user in one scan image area; and a second scan image area described by the user in the first template area printed on the print medium. A second template region including an object, and the second acquisition step,
Objective processing for executing objective processing according to the first object and the second object included in the second scan image using target image data obtained using the first scan data An execution process,
The objective process is:
Performing image processing according to the first object on the target image data to generate processed image data; and
Outputting the processed image data;
Including an image processing method.
JP2014154958A 2014-07-30 2014-07-30 Image processing device Active JP6361355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014154958A JP6361355B2 (en) 2014-07-30 2014-07-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014154958A JP6361355B2 (en) 2014-07-30 2014-07-30 Image processing device

Publications (2)

Publication Number Publication Date
JP2016032259A true JP2016032259A (en) 2016-03-07
JP6361355B2 JP6361355B2 (en) 2018-07-25

Family

ID=55442391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014154958A Active JP6361355B2 (en) 2014-07-30 2014-07-30 Image processing device

Country Status (1)

Country Link
JP (1) JP6361355B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017000945T5 (en) 2016-02-23 2018-10-31 Denso Corporation HEAD-UP DISPLAY DEVICE

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006312A (en) * 2001-06-20 2003-01-10 Fuji Xerox Co Ltd Processing device, processing program and processing system for photographic image data
JP2007181028A (en) * 2005-12-28 2007-07-12 Canon Inc Image processing apparatus and image processing method by sheet scanning system
JP2007243529A (en) * 2006-03-08 2007-09-20 Seiko Epson Corp Image forming system and image forming method
JP2010045444A (en) * 2008-08-08 2010-02-25 Canon Inc Image forming system, and image forming method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006312A (en) * 2001-06-20 2003-01-10 Fuji Xerox Co Ltd Processing device, processing program and processing system for photographic image data
JP2007181028A (en) * 2005-12-28 2007-07-12 Canon Inc Image processing apparatus and image processing method by sheet scanning system
JP2007243529A (en) * 2006-03-08 2007-09-20 Seiko Epson Corp Image forming system and image forming method
JP2010045444A (en) * 2008-08-08 2010-02-25 Canon Inc Image forming system, and image forming method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017000945T5 (en) 2016-02-23 2018-10-31 Denso Corporation HEAD-UP DISPLAY DEVICE

Also Published As

Publication number Publication date
JP6361355B2 (en) 2018-07-25

Similar Documents

Publication Publication Date Title
JP5304827B2 (en) Control device
JP5477320B2 (en) Image processing device
JP5360112B2 (en) Control device
US8493629B2 (en) Image processing apparatus, method, and computer program
JP2022184133A (en) Electronic watermark analyzing device and electronic watermark analyzing method
JP6361355B2 (en) Image processing device
JP2011166403A (en) Image processing apparatus, method, and computer program
US10542158B1 (en) Image forming apparatus and image forming method with gamma correction
JP6322923B2 (en) Information processing apparatus, information processing program, storage medium, information processing system, and information processing method
JP2016092672A (en) Image processing apparatus and computer program
JP2010088048A (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP2008160250A (en) Image processing apparatus and image processing program
JP2007067637A (en) Image processing device and image processing system
JP2015198277A (en) Image processing device and computer program
JP6427960B2 (en) Image processing device
JP5672340B2 (en) Control device
JP6163964B2 (en) Image processing device
JP2013201539A (en) Image formation device and image formation program
JP2005109807A (en) Image processing method, image processor, image forming device and image processing system
JP6260144B2 (en) Image processing apparatus and computer program
JP6061654B2 (en) Image processing apparatus, image processing method, and computer program
JP7321885B2 (en) Image processing device, image processing method, and program
JP2012205190A (en) Image processing apparatus and program
JP2023018850A (en) program
JP4248809B2 (en) Image processing apparatus, image data conversion program, and inverse conversion shaping table creation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6361355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150