JP2018093337A - Image processing apparatus and image forming apparatus - Google Patents

Image processing apparatus and image forming apparatus Download PDF

Info

Publication number
JP2018093337A
JP2018093337A JP2016234162A JP2016234162A JP2018093337A JP 2018093337 A JP2018093337 A JP 2018093337A JP 2016234162 A JP2016234162 A JP 2016234162A JP 2016234162 A JP2016234162 A JP 2016234162A JP 2018093337 A JP2018093337 A JP 2018093337A
Authority
JP
Japan
Prior art keywords
image
unit
box
input
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016234162A
Other languages
Japanese (ja)
Inventor
クリスティアン レイ・パンティン カール
Christian Ley Pan Tin Karl
クリスティアン レイ・パンティン カール
ジョン・アバキタ アール
John Abakita R
ジョン・アバキタ アール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016234162A priority Critical patent/JP2018093337A/en
Priority to US15/813,834 priority patent/US10270934B2/en
Priority to CN201711189366.8A priority patent/CN108132762B/en
Publication of JP2018093337A publication Critical patent/JP2018093337A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily combine character data for input to an image requiring input of the character data for input.SOLUTION: In an image forming apparatus 2, a storage part 19 stores, as a template, a document image and box information on boxes as input areas to which character data for input is input obtained by associating images indicating rectangles designated as the boxes, and identification information on the images indicating rectangles. A control part 21 stores, in the storage part 19, the character data for input acquired by the a character data for input acquisition part 26 and the identification information associated with the character data for input, as an input data file. An image processing part 27 performs synthesis processing on the character data for input included in the input data file and associated with the same identification information, in an area of an image indicating a rectangle designated as a box indicated in the identification information in the document image indicated in the template, to create a synthesis result image.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置及び画像形成装置に関し、特に、読み取った原稿の画像を加工する技術に関する。   The present invention relates to an image processing apparatus and an image forming apparatus, and more particularly to a technique for processing a read original image.

画像形成装置では、例えば、各種届出用紙等の必要項目を記入させるための予め定められた様式の原稿を読み取り、この読み取った原稿を示す文字や罫線等の画像のデータが当該原稿のテンプレートとしてHDD等の記憶部に記憶される。画像形成装置は、このようなテンプレートに基づき、原稿の画像を記録媒体に印刷する。   In the image forming apparatus, for example, a document in a predetermined format for inputting necessary items such as various notification sheets is read, and image data such as characters and ruled lines indicating the read document is used as a template for the document. Etc. are stored in the storage unit. The image forming apparatus prints an image of a document on a recording medium based on such a template.

また、例えば下記特許文献1に示されるように、上記原稿のテンプレートを記憶させるときに、上記必要項目が記入(入力)される入力領域としての矩形を示す画像のデータを取得して記憶する画像処理装置がある。更に、この画像処理装置では、上記入力用文字データを記載した別の原稿を読み取り、この読み取った入力用文字データの画像と、当該入力用文字データが入力される矩形を示す画像のデータとを当該別の原稿のテンプレートとして記憶部に記憶させる。そして、この画像処理装置では、記憶部に記憶させた矩形を示す画像のデータに基づいて、当該矩形を示す画像の領域内に、対応する入力用文字データを自動で合成する技術が提案されている。   For example, as shown in Patent Document 1 below, when storing the template of the original, an image that acquires and stores image data indicating a rectangle as an input area in which the necessary items are entered (input) is stored. There is a processing device. Further, the image processing apparatus reads another document in which the input character data is described, and reads the input character data image and image data indicating a rectangle into which the input character data is input. The data is stored in the storage unit as a template for the other document. In this image processing apparatus, a technique has been proposed in which, based on image data indicating a rectangle stored in the storage unit, corresponding input character data is automatically combined in an image area indicating the rectangle. Yes.

特開2008−131381号公報JP 2008-131381 A

しかしながら、上記のような画像処理装置では、上記入力領域としての矩形を示す画像の領域への入力用文字データの入力内容を変更することは困難である。つまり、この画像処理装置では、ユーザーが入力用文字データの入力内容を変更する場合には、ユーザーは、当該入力内容を変更した新たな様式の原稿を読み取り、新たなテンプレートを作成する必要がある。更に、ユーザーは、上記入力内容の変更に対応した入力用文字データを記載した別の原稿を読み取る必要がある。このように、この画像処理装置では、ユーザーが入力用文字データの入力内容を変更する場合には、2種類の原稿の新たな読み取り動作を行わせる必要がある。   However, in the image processing apparatus as described above, it is difficult to change the input content of the character data for input to the image area indicating the rectangle as the input area. In other words, in this image processing apparatus, when the user changes the input content of the input character data, the user needs to read a new style original with the changed input content and create a new template. . Furthermore, the user needs to read another document in which character data for input corresponding to the change of the input content is described. As described above, in this image processing apparatus, when the user changes the input content of the input character data, it is necessary to perform a new reading operation of two types of documents.

本発明は、上記の事情に鑑みなされたものであり、入力用文字データの入力が求められている画像に対して、当該入力用文字データを簡単に合成することを可能にすることを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to make it possible to easily synthesize input character data with respect to an image for which input of input character data is required. To do.

本発明の一局面に係る画像処理装置は、ネットワークを介して情報処理装置に接続している画像処理装置であって、
原稿画像と、前記原稿画像に含まれる矩形を示す画像であって、入力用文字データが入力される入力領域としてのボックスに指定された当該矩形を示す画像と、当該矩形を示す画像に割り振られた識別情報を対応付けたボックスのボックス情報とを含むテンプレートとして記憶する記憶部と、
前記ネットワークを通じて、前記情報処理装置との間でデータを送受信する通信部と、
前記ネットワークを介して前記情報処理装置から前記ボックスに入力される入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを前記通信部を介して取得する入力用文字データ取得部と、
前記入力用文字データ取得部が取得した前記入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを入力データファイルとして前記記憶部に記憶させる制御部と、
前記テンプレートが示す前記原稿画像における前記識別情報が示すボックスに指定された矩形を示す画像の領域内に、前記入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する画像処理部と、を備えるものである。
An image processing apparatus according to an aspect of the present invention is an image processing apparatus connected to an information processing apparatus via a network,
An original image, an image indicating a rectangle included in the original image, and an image indicating the rectangle designated in a box as an input area into which input character data is input, and an image indicating the rectangle A storage unit for storing a template including box information of a box associated with the identified information;
A communication unit that transmits and receives data to and from the information processing apparatus through the network;
Input character data acquisition for acquiring input character data input to the box from the information processing apparatus via the network and the identification information associated with the input character data via the communication unit And
A control unit that causes the storage unit to store the input character data acquired by the input character data acquisition unit and the identification information associated with the input character data as an input data file;
Input characters that are included in the input data file and are associated with the same identification information as the identification information within the area of the image that indicates the rectangle specified in the box indicated by the identification information in the document image indicated by the template And an image processing unit for synthesizing data and creating a synthesis result image.

本発明の他の一局面に係る画像形成装置は、上記画像処理装置と、前記画像作成部によって作成された前記合成結果画像を記録媒体上に形成する画像形成部とを、備えたものである。   An image forming apparatus according to another aspect of the present invention includes the image processing apparatus and an image forming unit that forms the synthesized result image created by the image creating unit on a recording medium. .

本発明によれば、入力用文字データの入力が求められている画像に対して、当該入力用文字データを簡単に合成することが可能になる。   According to the present invention, it is possible to easily synthesize input character data for an image for which input character data is required to be input.

本発明の一実施形態に係る画像形成装置を用いた画像形成システムの全体を示す図である。1 is a diagram illustrating an entire image forming system using an image forming apparatus according to an embodiment of the present invention. 画像形成装置の要部構成を示す機能ブロック図である。2 is a functional block diagram illustrating a main configuration of the image forming apparatus. FIG. PCの要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of PC. 画像形成装置での原稿画像のテンプレートを作成する処理の流れを示すフローチャートである。5 is a flowchart showing a flow of processing for creating a document image template in the image forming apparatus. PCでの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in PC. 画像形成装置での合成結果画像を作成する処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing for creating a composite result image in the image forming apparatus. 画像読取部による読取で得られる原稿の一例を示した図である。FIG. 6 is a diagram illustrating an example of a document obtained by reading by an image reading unit. 画像読取部による読取で得られた原稿画像において、抽出された矩形を示す画像と当該矩形を示す画像に割り振られた識別情報の具体例を示した図である。FIG. 5 is a diagram illustrating a specific example of an image indicating an extracted rectangle and identification information allocated to the image indicating the rectangle in a document image obtained by reading by an image reading unit. 画像形成装置の表示部に表示される表示画面の一例を示した図である。6 is a diagram illustrating an example of a display screen displayed on a display unit of the image forming apparatus. FIG. ボックス情報の具体例を示す図である。It is a figure which shows the specific example of box information. 画像形成装置の表示部に表示される表示画面の一例を示した図である。6 is a diagram illustrating an example of a display screen displayed on a display unit of the image forming apparatus. FIG. 画像形成装置の表示部に表示される表示画面の一例を示した図である。6 is a diagram illustrating an example of a display screen displayed on a display unit of the image forming apparatus. FIG. PCの表示部に表示される表示画面の一例を示した図である。It is the figure which showed an example of the display screen displayed on the display part of PC. PCのHDDに記憶されるドキュメントデータの具体例を示した図である。It is the figure which showed the specific example of the document data memorize | stored in HDD of PC. PCの表示部に表示される表示画面の一例を示した図である。It is the figure which showed an example of the display screen displayed on the display part of PC. 画像形成装置の記憶部に記憶されるテンプレートと入力データファイルの具体例を示した図である。6 is a diagram illustrating a specific example of templates and input data files stored in a storage unit of the image forming apparatus. FIG. 画像形成装置の表示部に表示される表示画面の一例を示した図である。6 is a diagram illustrating an example of a display screen displayed on a display unit of the image forming apparatus. FIG. 合成処理されるテンプレートと、入力データファイルとの具体例を示した図である。It is the figure which showed the specific example of the template and input data file which are synthesize | combined. 画像形成装置の表示部に表示される表示画面の一例を示した図である。6 is a diagram illustrating an example of a display screen displayed on a display unit of the image forming apparatus. FIG.

以下、本発明に係る画像処理装置及び画像形成装置の一実施形態について図面を参照して説明する。図1は、本発明の一実施形態に係る画像形成装置を用いた画像形成システムの全体を示す図である。図2は、画像形成装置の要部構成を示す機能ブロック図である。図3は、PCの要部構成を示す機能ブロック図である。   Hereinafter, an image processing apparatus and an image forming apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an entire image forming system using an image forming apparatus according to an embodiment of the present invention. FIG. 2 is a functional block diagram illustrating a main configuration of the image forming apparatus. FIG. 3 is a functional block diagram showing the main configuration of the PC.

画像形成システム100は、情報処理装置としてのパーソナルコンピューター(以下、PCと称す)1と、本発明の一実施形態に係る画像処理装置としての画像形成装置2とを備える。これらPC1と、画像形成装置2とは、インターネット又はLAN等のネットワーク3により互いに接続されている。   The image forming system 100 includes a personal computer (hereinafter referred to as a PC) 1 as an information processing apparatus and an image forming apparatus 2 as an image processing apparatus according to an embodiment of the present invention. The PC 1 and the image forming apparatus 2 are connected to each other via a network 3 such as the Internet or a LAN.

また、画像形成システム100では、例えばユーザーからの操作指示に応じて、画像形成装置2に対して、PC1から印刷ジョブが送信されて、当該画像形成装置2で印刷ジョブを用いた印刷処理(画像形成処理)が実行される。更に、画像形成システム100では、後に詳述するように、PC1側で作成された入力用文字データが画像形成装置2に送られ、画像形成装置2において、後述の識別情報に対応付けられたボックス(入力用文字データが入力される入力領域)の領域内に、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成する合成処理が行われる。   Further, in the image forming system 100, for example, in response to an operation instruction from a user, a print job is transmitted from the PC 1 to the image forming apparatus 2, and the image forming apparatus 2 performs print processing (image processing). Forming process). Furthermore, in the image forming system 100, as will be described in detail later, input character data created on the PC 1 side is sent to the image forming apparatus 2, and the image forming apparatus 2 uses a box associated with identification information described later. In the area of (input area where input character data is input), a combining process for combining the input character data associated with the same identification information as the identification information is performed.

画像形成装置2は、例えば、コピー機能、プリンター機能、スキャナー機能、及びファクシミリ機能のような複数の機能を兼ね備えたMFP(複合機)である。この画像形成装置2は、制御ユニット11と、表示部12と、画像メモリー13と、操作部14と、タッチパネル15と、通信部16と、画像読取部17と、画像形成部18と、記憶部19とを備えている。これらの構成要素は、互いにバスを通じてデータ又は信号の送受信が可能とされている。   The image forming apparatus 2 is an MFP (multifunction machine) having a plurality of functions such as a copy function, a printer function, a scanner function, and a facsimile function. The image forming apparatus 2 includes a control unit 11, a display unit 12, an image memory 13, an operation unit 14, a touch panel 15, a communication unit 16, an image reading unit 17, an image forming unit 18, and a storage unit. 19. These components can transmit / receive data or signals to / from each other through a bus.

画像読取部17は、原稿を光学的に読み取るスキャナーを有し、読み取った原稿の画像を示す画像データを生成し、この画像データを画像メモリー13や記憶部19に記憶させる。   The image reading unit 17 includes a scanner that optically reads a document, generates image data indicating an image of the read document, and stores the image data in the image memory 13 or the storage unit 19.

画像形成部18は、図略の感光体ドラムの表面を均一帯電させ、感光体ドラムの表面を露光して、感光体ドラムの表面に静電潜像を形成し、感光体ドラムの表面の静電潜像をトナー像に現像して、感光体ドラムの表面のトナー像(画像)を、中間転写ベルトを介して記録紙に転写し、記録紙上のトナー像を定着させ、記録紙を排出する。例えば、画像読取部17で生成された画像データによって示される画像を記録紙に印刷する。   The image forming unit 18 uniformly charges the surface of the photosensitive drum (not shown), exposes the surface of the photosensitive drum, forms an electrostatic latent image on the surface of the photosensitive drum, and statically removes the surface of the photosensitive drum. The electrostatic latent image is developed into a toner image, and the toner image (image) on the surface of the photosensitive drum is transferred to the recording paper via the intermediate transfer belt, the toner image on the recording paper is fixed, and the recording paper is discharged. . For example, an image indicated by the image data generated by the image reading unit 17 is printed on a recording sheet.

表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイなどから構成される。   The display unit 12 includes a liquid crystal display (LCD), an organic EL (Organic Light-Emitting Diode) display, and the like.

表示部12の画面には、タッチパネル15が配置されている。タッチパネル15は、所謂抵抗膜方式や静電容量方式などのタッチパネルであって、タッチパネル15に対するユーザーの指などの接触(タッチ)をその接触位置とともに検知して、その接触位置の座標を示す検知信号を制御ユニット11の後述する制御部21などに出力する。従って、タッチパネル15は、表示部12の画面に対するユーザー操作が入力される操作部としての役割を果たす。   A touch panel 15 is arranged on the screen of the display unit 12. The touch panel 15 is a so-called resistive film type or capacitive type touch panel, and detects a contact (touch) of a user's finger or the like with the touch position along with the touch position, and a detection signal indicating coordinates of the touch position. Is output to a control unit 21 described later of the control unit 11. Accordingly, the touch panel 15 serves as an operation unit to which a user operation on the screen of the display unit 12 is input.

操作部14は、決定キー、スタートキーなどのハードキーを備えている。   The operation unit 14 includes hard keys such as an enter key and a start key.

通信部16は、通信モジュールを備える通信インターフェイスである。   The communication unit 16 is a communication interface including a communication module.

記憶部19は、HDD(Hard Disk Drive)などの大容量の記憶装置である。   The storage unit 19 is a large-capacity storage device such as an HDD (Hard Disk Drive).

制御ユニット11は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、例えば、CPU(Central Processing Unit)、MPU、ASIC等である。この制御ユニット11は、上記のROMまたは記憶部19に記憶された画像処理プログラムが上記のプロセッサーにより実行されることにより、制御部21、表示制御部22、矩形抽出部23、識別情報割振部24、ボックス情報作成部25、入力用文字データ取得部26、及び画像処理部27として機能する。なお、制御ユニット11の制御部21、表示制御部22、矩形抽出部23、識別情報割振部24、ボックス情報作成部25、入力用文字データ取得部26、及び画像処理部27は、プログラムに基づく動作によらず、それぞれハード回路により構成されてもよい。   The control unit 11 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is, for example, a CPU (Central Processing Unit), MPU, ASIC, or the like. The control unit 11 includes a control unit 21, a display control unit 22, a rectangular extraction unit 23, and an identification information allocating unit 24 when the image processing program stored in the ROM or the storage unit 19 is executed by the processor. , Function as a box information creation unit 25, an input character data acquisition unit 26, and an image processing unit 27. The control unit 21, the display control unit 22, the rectangle extraction unit 23, the identification information allocation unit 24, the box information creation unit 25, the input character data acquisition unit 26, and the image processing unit 27 of the control unit 11 are based on a program. Regardless of the operation, each may be configured by a hard circuit.

制御部21は、画像形成装置1の全体的な動作制御を司る。制御部21は、タッチパネル15から出力される検知信号に基づき、タッチパネル15に対するユーザー操作を受け付ける機能を有する。また、制御部21は、操作部14のハードキーに対するユーザー操作を受け付ける機能を有する。なお、操作部14及びタッチパネル15は、特許請求の範囲における操作受付部の一例である。   The control unit 21 controls the overall operation of the image forming apparatus 1. The control unit 21 has a function of accepting a user operation on the touch panel 15 based on a detection signal output from the touch panel 15. Further, the control unit 21 has a function of accepting a user operation on the hard key of the operation unit 14. The operation unit 14 and the touch panel 15 are examples of an operation reception unit in the claims.

さらに、制御部21は、通信部16による通信動作を制御する機能を有する。通信部16は、制御部21による制御のもと、ネットワーク3を通じて、PC1等との間でデータを送受信する。   Further, the control unit 21 has a function of controlling the communication operation by the communication unit 16. The communication unit 16 transmits and receives data to and from the PC 1 and the like through the network 3 under the control of the control unit 21.

表示制御部22は、表示部12の動作を制御する。表示制御部22は、表示部12に、例えば、合成処理に用いられる、入力用文字データが入力される入力領域であるボックス等についての詳細項目を設定するための入力画面、情報の入力画面、あるいは画像形成装置2の操作ガイダンスなどを表示させる。   The display control unit 22 controls the operation of the display unit 12. The display control unit 22 displays, on the display unit 12, for example, an input screen for setting detailed items for a box or the like that is an input area in which character data for input is used, which is used for composition processing, an information input screen, Alternatively, an operation guidance for the image forming apparatus 2 is displayed.

矩形抽出部23は、記憶部19等に記憶されている予め定められた矩形を示す画像を用いて、画像読取部17による読取で得られた原稿画像に対して、パターンマッチングを行うことにより、当該原稿画像から矩形(正方形や長方形を含む四角形)を示す画像を抽出する。更に、矩形抽出部23は、当該矩形を示す画像の当該原稿画像における座標位置に基づいて、当該矩形を示す画像の大きさ及び位置を検出する。当該抽出される矩形を示す画像は、後に詳述するように、ユーザーからの操作指示により、上記ボックスとして用いられる。   The rectangle extraction unit 23 performs pattern matching on a document image obtained by reading by the image reading unit 17 using an image indicating a predetermined rectangle stored in the storage unit 19 or the like. An image showing a rectangle (a square or a rectangle including a rectangle) is extracted from the document image. Further, the rectangle extracting unit 23 detects the size and position of the image representing the rectangle based on the coordinate position of the image representing the rectangle in the document image. The extracted image showing the rectangle is used as the box in response to an operation instruction from the user, as will be described in detail later.

画像処理部27は、ユーザーにより当該矩形を示す画像がボックスに指定されて、入力用文字データが入力される入力領域とされたとき、当該ボックスの原稿画像における大きさ及び位置に基づいて、当該ボックスの領域内に入力用文字データを入力(合成)する。これにより、この入力領域(ボックス)に対して入力対象の入力用文字データを確実に入力可能としている。   When the image indicating the rectangle is designated by the user as a box and the input character data is input, the image processing unit 27 is based on the size and position of the box in the document image. Input (synthesize) character data for input in the box area. As a result, the input character data to be input can be reliably input to this input area (box).

識別情報割振部24は、矩形抽出部23によって抽出された矩形を示す画像に識別情報を順次割り振る。   The identification information allocating unit 24 sequentially allocates identification information to the image indicating the rectangle extracted by the rectangle extracting unit 23.

識別情報割振部24が、抽出された矩形を示す画像に対し識別情報を順次割り振ると、制御部21は、矩形抽出部23によって抽出された矩形を示す画像と、当該矩形を示す画像について矩形抽出部23により検出された上記原稿画像における大きさ及び位置と、当該矩形を示す画像に割り振られた識別情報とを対応付けて記憶部19に記憶させる。また、表示制御部22は、画像読取部17で読み取られた原稿画像を表示部12に表示させるとき、矩形抽出部23によって抽出された矩形を示す画像に、上記対応付けられた識別情報を重ねて表示部12に表示させる。   When the identification information allocating unit 24 sequentially assigns identification information to the extracted image indicating the rectangle, the control unit 21 performs rectangle extraction on the image indicating the rectangle extracted by the rectangle extracting unit 23 and the image indicating the rectangle. The size and position of the original image detected by the unit 23 and the identification information allocated to the image indicating the rectangle are associated with each other and stored in the storage unit 19. Further, when the display control unit 22 displays the document image read by the image reading unit 17 on the display unit 12, the display control unit 22 superimposes the associated identification information on the image indicating the rectangle extracted by the rectangle extraction unit 23. Display on the display unit 12.

ボックス情報作成部25は、ユーザーから表示部12に表示されている矩形を示す画像を入力用文字データが入力される入力領域であるボックスとして指定する指定要求を上記操作受付部(操作部14及びタッチパネル15)が受け付けた場合に、その指定要求でボックスに指定された矩形を示す画像と、当該矩形を示す画像に割り振られた識別情報とを対応付けて、当該ボックスのボックス情報として作成する。また、このボックス情報には、指定要求でボックスに指定された矩形を示す画像の上記原稿画像における大きさ及び位置が含まれている。   The box information creation unit 25 sends a designation request for designating an image indicating a rectangle displayed on the display unit 12 from the user as a box which is an input area to which input character data is input. When the touch panel 15) accepts, the image indicating the rectangle specified in the box by the specification request is associated with the identification information allocated to the image indicating the rectangle, and is generated as box information of the box. Further, the box information includes the size and position of the image indicating the rectangle designated in the box by the designation request in the original image.

また、ボックス情報作成部25は、ユーザーから上記指定要求と、当該指定要求により指定されたボックスの種類として、(i)少なくとも一つの文字が上記入力用文字データとして入力される標準ボックス、(ii)上記入力用文字データが各々入力される複数のボックスを一つのボックスとして連結した連結ボックス、及び(iii)予め定められたチェックマークが上記入力用文字データとして入力されるチェックボックス、のいずれかを選択する選択要求とを上記操作受付部が受け付けた場合に、上記指定要求でボックスに指定された矩形を示す画像と、当該矩形の上記原稿画像における大きさ及び位置と、当該矩形を示す画像に割り振られた識別情報と、更に、上記選択要求によって選択されたボックスの種類とを対応付けて、当該ボックスのボックス情報として作成する。   Further, the box information creation unit 25 includes (i) a standard box in which at least one character is input as the input character data, (ii) as the specification request from the user and the type of the box specified by the specification request. ) Any one of a concatenated box in which a plurality of boxes each of which input character data is input is connected as one box; and (iii) a check box in which a predetermined check mark is input as the input character data. When the operation accepting unit accepts a selection request for selecting the image, the image indicating the rectangle specified in the box by the specification request, the size and position of the rectangle in the document image, and the image indicating the rectangle The identification information allocated to the box is further associated with the type of box selected by the selection request, and the box of the box is selected. To create as scan information.

また、表示制御部22は、ボックス情報作成部25がボックス情報を作成した場合に、上記原稿画像を表示部12に表示させるとき、ボックスの種類毎に互いに異なる表示方法でボックスを表示させる。   In addition, when the box information creation unit 25 creates the box information, the display control unit 22 causes the display unit 12 to display the box by a different display method for each type of box when displaying the original image on the display unit 12.

制御部21は、ボックス情報作成部25がボックス情報を作成した場合には、画像読取部17で読み取られた原稿画像と、当該ボックス情報とをテンプレートとして記憶部19に記憶させる。また、制御部21は、PC1に対して、ネットワーク3を介して記憶部19に記憶させた原稿画像のテンプレートと、指示信号とを通信部16により送信させる。当該指示信号は、PC1の表示部82において、ボックスに指定された矩形を示す画像に、この矩形を示す画像に割り振られた識別情報を対応付けて、これらの矩形を示す画像と識別情報とを上記テンプレートが示す原稿画像の上に重ねて入力画面として表示することを指示するものである。   When the box information creation unit 25 creates the box information, the control unit 21 stores the document image read by the image reading unit 17 and the box information in the storage unit 19 as a template. Further, the control unit 21 causes the communication unit 16 to transmit the original image template stored in the storage unit 19 and the instruction signal to the PC 1 via the network 3. The instruction signal associates the identification information allocated to the image indicating the rectangle with the image indicating the rectangle specified in the box on the display unit 82 of the PC 1, and displays the image indicating the rectangle and the identification information. It is instructed to be displayed as an input screen superimposed on the original image indicated by the template.

更に、制御部21は、PC1に対して、ネットワーク3を介して記憶部19に記憶させた原稿画像のテンプレートを通信部16に送信させる場合に、PC1に対して、上記原稿画像として、上記指示信号とともに、当該テンプレートに含まれた、ボックスの種類毎に表示方法を互いに異ならせた画像を通信部16に送信させ、当該PC1の表示部82に入力画面として表示させる。   Further, when the control unit 21 causes the PC 1 to transmit the template of the document image stored in the storage unit 19 to the communication unit 16 via the network 3, the control unit 21 transmits the instruction to the PC 1 as the document image. Along with the signal, an image included in the template and having a different display method for each type of box is transmitted to the communication unit 16 and displayed on the display unit 82 of the PC 1 as an input screen.

また、表示制御部22は、上記操作受付部(操作部14及びタッチパネル15)がボックスを指定する指定要求をユーザーから受け付けた後に、当該ボックスの大きさ、つまりボックスの高さ及び幅の各値の変更をユーザーから受け付けるための画像を表示部12に表示させる。   The display control unit 22 receives the designation request for designating the box from the user by the operation accepting unit (the operation unit 14 and the touch panel 15), and then each value of the size of the box, that is, the height and width of the box. An image for accepting the change from the user is displayed on the display unit 12.

そして、制御部21は、操作受付部(操作部14及びタッチパネル15)がボックスの大きさを指定する値の入力による変更指示を受け付けたときに、受け付けた変更指示が示す大きさを、上記ボックスとして指定された矩形を示す画像の原稿画像における大きさとして、ボックス情報に含めて記憶部19に記憶させる。   Then, when the operation receiving unit (the operation unit 14 and the touch panel 15) receives a change instruction by inputting a value specifying the size of the box, the control unit 21 sets the size indicated by the received change instruction to the box. Is stored in the storage unit 19 as box size information as the size of the image showing the rectangle designated as.

入力用文字データ取得部26は、ネットワーク3を介してPC1から、上記ボックスに入力される入力用文字データと、当該入力用文字データに対応付けられた上記識別情報とを、通信部16を介して取得する。   The input character data acquisition unit 26 transmits the input character data input to the box from the PC 1 via the network 3 and the identification information associated with the input character data via the communication unit 16. Get.

制御部21は、入力用文字データ取得部26が、上記入力用文字データと、これに対応付けられた識別情報とを取得したとき、当該取得した入力用文字データ及び識別情報を入力データファイルとして記憶部19に記憶させる。なお、記憶部19には、少なくとも一つの上記テンプレートが記憶されていればよいが、本実施形態では、記憶部19に複数のテンプレートが記憶されているものとする。また、記憶部19には、少なくとも一つの上記入力データファイルが記憶されていればよいが、本実施形態では、記憶部19に複数の入力データファイルが記憶されているものとする。そして、表示制御部22は、記憶部19に記憶されているテンプレートの一覧と、当該記憶部19に記憶されている入力データファイルの一覧とを表示部12に表示させる。   When the input character data acquisition unit 26 acquires the input character data and the identification information associated therewith, the control unit 21 uses the acquired input character data and identification information as an input data file. The data is stored in the storage unit 19. The storage unit 19 only needs to store at least one template, but in the present embodiment, it is assumed that a plurality of templates are stored in the storage unit 19. The storage unit 19 only needs to store at least one input data file, but in the present embodiment, the storage unit 19 stores a plurality of input data files. The display control unit 22 causes the display unit 12 to display a list of templates stored in the storage unit 19 and a list of input data files stored in the storage unit 19.

画像処理部27は、画像読取部17による原稿読取で得られた原稿画像など、画像メモリー13内の画像データに対して各種の画像処理を施す。また、画像処理部27は、上記指定要求によって指定された前記ボックスである矩形を示す画像に対して、記憶部19に記憶されている入力データファイルに含まれる入力用文字データを合成処理する。例えば、画像処理部27は、テンプレートが示す原稿画像におけるボックスの領域内に、入力データファイルに含まれ、当該ボックスに割り振られた識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する。   The image processing unit 27 performs various types of image processing on image data in the image memory 13 such as a document image obtained by document reading by the image reading unit 17. In addition, the image processing unit 27 synthesizes the input character data included in the input data file stored in the storage unit 19 with the image indicating the rectangle that is the box specified by the specification request. For example, the image processing unit 27 synthesizes the input character data that is included in the input data file and is associated with the same identification information as the identification information allocated to the box in the area of the box in the document image indicated by the template. Processing to create a composite result image.

また、表示制御部22が、上記テンプレートの一覧と、上記入力データファイルの一覧とを表示部12に表示させたときに、上記操作受付部が、ユーザーからの操作指示により、テンプレートの一覧から選択された一つのテンプレートと、入力データファイルの一覧から選択された一つの入力データファイルとを指定する指示を受け付けた場合には、画像処理部27は、選択された一つのテンプレートが示す上記原稿画像における上記識別情報が示すボックスに指定された矩形を示す画像の領域内に、上記選択された一つの入力データファイルに含まれており、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する。   When the display control unit 22 displays the template list and the input data file list on the display unit 12, the operation accepting unit selects from the template list according to an operation instruction from the user. When receiving an instruction to specify one selected template and one input data file selected from the list of input data files, the image processing unit 27 displays the original image indicated by the selected one template. An input character that is included in the selected one input data file and is associated with the same identification information as the identification information in the area of the image that indicates the rectangle specified in the box indicated by the identification information in FIG. The data is synthesized and a synthesis result image is created.

また、表示制御部22は、画像処理部27が作成した合成結果画像を表示部12に表示させる。   Further, the display control unit 22 causes the display unit 12 to display the synthesis result image created by the image processing unit 27.

PC1は、制御ユニット70と、操作部81と、表示部82と、送受信部83と、HDD84とを有する。これら各部は、互いにCPUバスによりデータ又は信号の送受信が可能とされている。   The PC 1 includes a control unit 70, an operation unit 81, a display unit 82, a transmission / reception unit 83, and an HDD 84. These units can transmit / receive data or signals to / from each other via a CPU bus.

操作部81は、キーボード、マウス、又はタッチパネルを有し、この操作部81には、ユーザーにより、印刷対象とする印刷用データ(印刷ジョブ)及びこれに用いる画像形成装置2を指定する印刷指示等が入力される。   The operation unit 81 includes a keyboard, a mouse, or a touch panel. The operation unit 81 includes a print instruction for specifying print data (print job) to be printed and the image forming apparatus 2 to be used by the user. Is entered.

表示部82は、LCD(Liquid Crystal Display)等からなり、ユーザーに対する操作案内等を表示する。   The display unit 82 includes an LCD (Liquid Crystal Display) or the like, and displays operation guidance for the user.

送受信部83は、LANボード等の通信モジュールから構成されており、当該送受信部83に接続されたネットワーク3を介して、画像形成装置2と種々のデータや信号の送受信を行う。送受信部83は、画像形成装置2から原稿画像のテンプレートを受信する。   The transmission / reception unit 83 includes a communication module such as a LAN board, and transmits / receives various data and signals to / from the image forming apparatus 2 via the network 3 connected to the transmission / reception unit 83. The transmission / reception unit 83 receives a document image template from the image forming apparatus 2.

制御ユニット70は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、例えば、CPU(Central Processing Unit)、MPU、ASICである。この制御ユニット70は、上記HDD84等に記憶された入力用文字データ作成プログラムが上記のプロセッサーで実行されることにより、制御部71、表示制御部72、受付部73、及び印刷ジョブ生成部74として機能する。なお、制御ユニット70の制御部71、表示制御部72、受付部73、及び印刷ジョブ生成部74は、上記入力用文字データ作成プログラムに基づく動作によらず、それぞれハード回路により構成されてもよい。以下、特に触れない限り、各実施形態について同様である。   The control unit 70 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is, for example, a CPU (Central Processing Unit), MPU, or ASIC. The control unit 70 is configured as a control unit 71, a display control unit 72, a reception unit 73, and a print job generation unit 74 by executing the input character data creation program stored in the HDD 84 or the like by the above processor. Function. Note that the control unit 71, the display control unit 72, the reception unit 73, and the print job generation unit 74 of the control unit 70 may each be configured by a hardware circuit regardless of the operation based on the input character data generation program. . The same applies to each embodiment unless otherwise specified.

制御部71は、PC1の全体的な動作制御を司る。   The control unit 71 governs overall operation control of the PC 1.

表示制御部72は、表示部82の動作を制御する。また、表示制御部72は、受付部73が受け付けた指示信号に従って後述の入力画面を表示部82に表示させる制御等を行う。   The display control unit 72 controls the operation of the display unit 82. In addition, the display control unit 72 performs control to display an input screen described later on the display unit 82 in accordance with the instruction signal received by the receiving unit 73.

受付部73は、送受信部83を介して画像形成装置2から表示部82での上記テンプレートの表示方法を指示する上記指示信号を受け付ける(詳細は後述)。   The accepting unit 73 accepts the instruction signal that instructs the display method of the template on the display unit 82 from the image forming apparatus 2 via the transmission / reception unit 83 (details will be described later).

また、制御部71は、操作部81に対するユーザーの操作に応じて、HDD84に記憶されているドキュメントデータや、PC1の外部、例えば当該PC1のUSBポートに接続されたUSBメモリー等からドキュメントデータを読み出す。   In addition, the control unit 71 reads out document data stored in the HDD 84 or externally from the PC 1, for example, a USB memory connected to the USB port of the PC 1, in accordance with a user operation on the operation unit 81. .

ドキュメントデータは、例えばPC1で実行されるワードプロセッサー等のアプリケーションで作成された平仮名や漢字などの日本語文字、アルファベット、数字、アットマークや郵便マークなどの特殊文字を含んだデータである。   The document data is data including special characters such as Japanese characters such as hiragana and kanji created by an application such as a word processor executed on the PC 1, alphabets, numbers, and at and postal marks.

印刷ジョブ生成部74は、制御部71によって読み出されたドキュメントデータから印刷ジョブを生成する。例えば、印刷ジョブ生成部74は、HDD84に記憶されたプリンタードライバーに従って動作することで、上記ドキュメントデータを、画像形成装置2に適したプリンター言語によるフォーマットに変換して印刷データ(例えば、PRNファイル)とし、この印刷データを含む印刷処理用の印刷ジョブを生成する。なお、当該印刷ジョブは、上記印刷データ(つまり、上記フォーマットに変換された入力用文字データ)と、当該入力用文字データに対応付けられた識別情報とを有するものである(詳細は後述)。   The print job generation unit 74 generates a print job from the document data read by the control unit 71. For example, the print job generation unit 74 operates according to a printer driver stored in the HDD 84 to convert the document data into a format in a printer language suitable for the image forming apparatus 2 and print data (for example, a PRN file). A print job for print processing including this print data is generated. The print job has the print data (that is, input character data converted into the format) and identification information associated with the input character data (details will be described later).

以下、上記のように構成された画像形成システム100の動作について図4乃至図6を用いて具体的に説明する。図4は、画像形成装置での原稿画像のテンプレートを作成する処理の流れを示すフローチャートである。図5は、PCでの処理の流れを示すフローチャートである。図6は、画像形成装置での合成結果画像を作成する処理の流れを示すフローチャートである。   Hereinafter, the operation of the image forming system 100 configured as described above will be specifically described with reference to FIGS. FIG. 4 is a flowchart showing a flow of processing for creating a document image template in the image forming apparatus. FIG. 5 is a flowchart showing the flow of processing in the PC. FIG. 6 is a flowchart showing a flow of processing for creating a composite result image in the image forming apparatus.

まず、画像形成装置2において、ユーザーが図7に示す原稿Gを画像読取部17にセットして、操作部14のスタートキーを操作すると、これにより原稿読取指示が制御部21に受け付けられ、制御部21は、画像読取部17に原稿Gの画像を読み取らせ、読み取られた原稿Gの画像を示す画像データ(原稿画像G1)を画像メモリー13に記憶させる(ステップS1)。   First, in the image forming apparatus 2, when the user sets the original G shown in FIG. 7 in the image reading unit 17 and operates the start key of the operation unit 14, the original reading instruction is received by the control unit 21 and the control is performed. The unit 21 causes the image reading unit 17 to read the image of the original G, and stores the image data (original image G1) indicating the read image of the original G in the image memory 13 (step S1).

続いて、矩形抽出部23が、読取で得られた原稿Gの原稿画像G1から矩形を示す画像を抽出する(ステップS2)。また、矩形抽出部23は、原稿画像から上記矩形を示す画像を抽出するとともに、当該矩形を示す画像の当該原稿画像における大きさ及び位置を検出する。   Subsequently, the rectangle extracting unit 23 extracts an image indicating a rectangle from the document image G1 of the document G obtained by reading (step S2). In addition, the rectangle extraction unit 23 extracts an image indicating the rectangle from the document image, and detects the size and position of the image indicating the rectangle in the document image.

ここで、矩形抽出部23が、原稿画像G1から矩形を示す画像を一つも抽出できない場合(ステップS2でNO)、処理は終了する。   If the rectangle extraction unit 23 cannot extract any image indicating a rectangle from the document image G1 (NO in step S2), the process ends.

一方、矩形抽出部23が、原稿画像G1から少なくとも一つ以上矩形を示す画像を抽出できた場合には(ステップS2でYES)、識別情報割振部24が、矩形抽出部23によって抽出された矩形を示す各画像に識別情報を順次割り振る(ステップS3)。例えば、原稿画像G1において、30個の矩形を示す画像が矩形抽出部23によって抽出された場合、図8に示すように、30個の各矩形を示す画像には、抽出された順番に応じて、識別情報割振部24が、(1)〜(30)の各識別情報を、対応する矩形を示す画像の位置に割り振る。   On the other hand, when the rectangle extracting unit 23 can extract at least one image showing a rectangle from the document image G1 (YES in step S2), the identification information allocating unit 24 extracts the rectangle extracted by the rectangle extracting unit 23. Identification information is sequentially allocated to each image indicating (step S3). For example, in the original image G1, when an image showing 30 rectangles is extracted by the rectangle extraction unit 23, as shown in FIG. 8, the images showing 30 rectangles are displayed according to the order of extraction. The identification information allocating unit 24 allocates each identification information (1) to (30) to the position of the image indicating the corresponding rectangle.

また、表示制御部22は、図9に示すように、画像読取部17で読み取られた原稿画像G1を表示部12に表示させるとともに、記憶部19に記憶されているテンプレートに含まれる矩形を示す画像と、この矩形を示す画像に割り振られている識別情報とを原稿画像G1の上で重ねて、表示部12に表示させる(ステップS4)。   Further, as shown in FIG. 9, the display control unit 22 displays the document image G1 read by the image reading unit 17 on the display unit 12 and also shows a rectangle included in the template stored in the storage unit 19. The image and the identification information assigned to the image indicating the rectangle are superimposed on the document image G1 and displayed on the display unit 12 (step S4).

続いて、制御部21は、タッチパネル(操作受付部)15により、原稿画像G1における矩形を示す画像を上記ボックスとして指定する指定要求を受け付けたかどうかを判別する(ステップS5)。例えば、図9に示す表示画面(入力画面)において、ボックスとして指定する矩形を示す画像を表示する部分がユーザーにより押下され、これがタッチパネル15により検出されたとき、制御部21は、上記指定要求を受け付けたと判別する。制御部21が、指定要求が受け付けられなかったと判別した場合、処理は了する(ステップS5でNO)。   Subsequently, the control unit 21 determines whether a designation request for designating an image indicating a rectangle in the document image G1 as the box is received by the touch panel (operation receiving unit) 15 (step S5). For example, in the display screen (input screen) shown in FIG. 9, when a part that displays an image indicating a rectangle designated as a box is pressed by the user and detected by the touch panel 15, the control unit 21 issues the designation request. It is determined that it has been accepted. If the control unit 21 determines that the designation request has not been accepted, the process ends (NO in step S5).

尚、上記の説明以外に、ユーザーが矩形を示す画像を上記ボックスとして指定する際に、当該ユーザーが操作部14に設けられた図略の数字キーのうち、この矩形を示す画像に割り振られた識別情報に対応した数字キーを押下することにより、数字を示す指示が入力され、制御部21が、この入力された数字が矩形を示す画像を指定されたボックスと判別する構成としてもよい。   In addition to the above description, when the user specifies an image indicating a rectangle as the box, the user is assigned to the image indicating the rectangle among the unillustrated numeric keys provided on the operation unit 14. An instruction indicating a number may be input by pressing a number key corresponding to the identification information, and the control unit 21 may determine that an image in which the input number indicates a rectangle is a designated box.

一方、制御部21は、指定要求が受け付けられたと判別した場合(ステップS5でYES)、その指定要求によって指定されたボックスについて、ボックスの種類がユーザーにより選択されたかを判別する。例えば、制御部21は、入力キー12aがユーザーにより押下され、続けて標準ボックスとして指定する矩形を示す画像を表示する部分がユーザーにより押下され、更に保存キー12eがユーザーにより押下されたことが、タッチパネル15により検出されたときに、当該ボックスを標準ボックスとする選択要求を受け付けたと判別する(ステップS6)。また、制御部21は、キャンセルキー12fがユーザーにより押下され、タッチパネル15により検出された場合に、ステップS5での指定要求が取り消されたと判断する。   On the other hand, when it is determined that the designation request has been accepted (YES in step S5), the control unit 21 determines whether or not the type of box has been selected by the user for the box designated by the designation request. For example, the control unit 21 indicates that the user presses the input key 12a, subsequently presses the part that displays an image indicating a rectangle designated as the standard box, and further presses the save key 12e. When it is detected by the touch panel 15, it is determined that a selection request for setting the box as a standard box has been received (step S6). Further, when the cancel key 12f is pressed by the user and detected by the touch panel 15, the control unit 21 determines that the designation request in step S5 has been canceled.

標準ボックスとする選択要求が受け付けられたと判別した場合(ステップS6でYES)、制御部21は、その標準ボックスの大きさを指定する指示が入力されたか否かを判別する(ステップS7)。例えば、制御部21は、標準ボックスとする選択要求を受け付けた後、標準ボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことをタッチパネル15により検出されたときに、この標準ボックスの大きさ(つまり、上記入力領域の範囲)を指定する指示を受け付ける。   If it is determined that a selection request for a standard box has been received (YES in step S6), the control unit 21 determines whether or not an instruction for specifying the size of the standard box has been input (step S7). For example, when the control unit 21 receives a selection request to be a standard box and then detects that the user presses a part that displays an image indicating a rectangle designated as the standard box, the control unit 21 An instruction for specifying the size of the standard box (that is, the range of the input area) is received.

制御部21が、標準ボックスの大きさを指定する指示が入力されていないと判別した場合(ステップS7でNO)、例えば、保存キー12eが押下された後予め定められた時間内に標準ボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことをタッチパネル15によって検出されない場合、ボックス情報作成部25は、ボックス情報の作成を行う(ステップS9)。   When the control unit 21 determines that an instruction to specify the size of the standard box has not been input (NO in step S7), for example, as a standard box within a predetermined time after the save key 12e is pressed. If the touch panel 15 does not detect that the part that displays the image indicating the designated rectangle is pressed by the user, the box information creation unit 25 creates box information (step S9).

すなわち、ボックス情報作成部25は、上記ステップS5での指定要求でボックスに指定された矩形を示す画像の原稿画像G1における大きさ及び位置と、当該矩形を示す画像に割り振られた識別情報と、選択要求によって選択されたボックスの種類とを対応付けて、当該ボックスのボックス情報として作成する。   That is, the box information creation unit 25 has the size and position in the document image G1 of the image indicating the rectangle specified in the box in the specification request in step S5, the identification information allocated to the image indicating the rectangle, The box type selected by the selection request is associated with the box type and created as box information of the box.

例えば、図9に例示するように、(18)、(27)、(29)、及び(30)の識別情報がそれぞれ割り振られた4つの各矩形を示す画像が標準ボックスとして選択された場合には、ボックス情報作成部25は、これら4つの各矩形を示す画像の原稿画像G1における大きさ及び位置と、対応する矩形を示す画像に割り振られた識別情報と、標準ボックスであることを示す情報に対応付けて、4つのボックス毎に、ボックス情報を作成する。そして、制御部21は、これらのボックス情報をテンプレートとして記憶部19に記憶させる。尚、矩形を示す画像の原稿画像G1における大きさ及び位置は、矩形である当該原稿画像G1での座標における任意の点(例えば最も上、かつ、最も左の点)を(0,0)としたxy座標で規定される。これにより、例えば、図10に示すように、記憶部19には、ボックス情報として、ボックスに指定された矩形を示す画像に割り振られた識別情報と、ボックスの種類と、矩形を示す画像の原稿画像G1における大きさ及び位置としての当該矩形を示す画像の4点の位置とが記憶される。   For example, as illustrated in FIG. 9, when an image showing four rectangles each assigned identification information (18), (27), (29), and (30) is selected as a standard box The box information creation unit 25 is the size and position of the image showing each of these four rectangles in the document image G1, the identification information assigned to the image showing the corresponding rectangle, and the information indicating that it is a standard box Box information is created for each of the four boxes. And the control part 21 memorize | stores these box information in the memory | storage part 19 as a template. Note that the size and position of the image representing the rectangle in the document image G1 is defined as an arbitrary point (for example, the uppermost and leftmost point) in the coordinates of the document image G1 that is a rectangle as (0, 0). Xy coordinates. Thus, for example, as shown in FIG. 10, the storage unit 19 stores, as box information, identification information assigned to an image indicating a rectangle designated for the box, a box type, and an original document indicating the rectangle. The size and the position of the four points of the image showing the rectangle as the position in the image G1 are stored.

一方、制御部21が、標準ボックスの大きさを指定する指示を受け付けたと判別した場合には(ステップS7でYES)、表示制御部22は、図11に示す表示画面を表示部12に表示させる。例えば、(18)の識別情報が割り振られた矩形を示す画像が標準ボックスとして選択された後、その大きさの変更を制御部21が受け付ける場合には、図11に例示するように、表示制御部22は、変更後の高さ及び幅をそれぞれ入力させるための高さ入力キー12g及び幅入力キー12hを表示部12に表示させる。そして、ユーザーがタッチパネル15又は操作部14の図略の数字キーを操作して、所望の高さ及び幅の値を入力する。これにより、入力された高さ及び幅が、変更後の高さ及び幅として、制御部21に受け付けられる。表示制御部22は、図11に示すように、高さ入力キー12g及び幅入力キー12hの領域内にそれぞれ受け付けられた高さ及び幅を表示させる。また、表示制御部22は、実行キー12iがユーザーにより押下され、タッチパネル15により当該押下が検出されたとき、図9に示す表示画面を表示部12に表示させる。   On the other hand, if the control unit 21 determines that an instruction to specify the size of the standard box has been received (YES in step S7), the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG. . For example, when an image indicating a rectangle to which the identification information (18) is allocated is selected as a standard box and the control unit 21 receives a change in the size, display control is performed as illustrated in FIG. The unit 22 causes the display unit 12 to display a height input key 12g and a width input key 12h for inputting the changed height and width, respectively. Then, the user operates the numeric keys (not shown) on the touch panel 15 or the operation unit 14 and inputs desired height and width values. Thereby, the input height and width are received by the control unit 21 as the changed height and width. As shown in FIG. 11, the display control unit 22 displays the received height and width in the area of the height input key 12g and the width input key 12h. Further, when the execution key 12i is pressed by the user and the pressing is detected by the touch panel 15, the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG.

尚、上記の説明以外に、制御部21は、標準ボックスについての上記所望の高さ及び幅の値が入力された後、保存キー12eがユーザーにより押下され、タッチパネル15により当該押下が検出されたときに、当該標準ボックスでの変更後の高さ及び幅として入力された高さ及び幅を受け付ける構成でもよい。また、ユーザーが上記数字キー等で所望の高さ及び幅の値を入力する以外に、ユーザーがタッチパネル15上で標準ボックスとして選択した矩形を示す画像をドラッグして当該画像の大きさを変更することにより、制御部21が当該標準ボックスの大きさの変更を受け付ける構成でもよい。   In addition to the above description, after the desired height and width values for the standard box are input, the control unit 21 detects that the save key 12e is pressed and the touch panel 15 detects the press. In some cases, the height and width input as the height and width after the change in the standard box may be accepted. In addition to the user inputting the desired height and width values using the numeric keys, the user can drag the image indicating the rectangle selected as the standard box on the touch panel 15 to change the size of the image. Accordingly, the control unit 21 may accept a change in the size of the standard box.

そして、ボックス情報作成部25は、保存キー12eがユーザーにより押下され、タッチパネル15により検出された場合に、上記受け付けられた変更後の高さ及び幅の各値を、(18)の識別情報が割り振られた矩形を示す画像の大きさとして、当該(18)の識別情報が割り振られた矩形を示す画像に対応するボックスのボックス情報に含めて記憶部19に記憶させる。   Then, when the save key 12e is pressed by the user and detected by the touch panel 15, the box information creation unit 25 uses the received height and width values after the change as identification information (18). The size of the image indicating the allocated rectangle is included in the box information of the box corresponding to the image indicating the rectangle to which the identification information (18) is allocated, and is stored in the storage unit 19.

また、制御部21は、標準ボックスとする選択要求を受け付けなかったと判別した場合(ステップS6でNO)、連結ボックスとする選択要求を受け付けたかを判別する(ステップS10)。例えば、制御部21は、入力キー12aがユーザーにより押下され、続けて連結ボックスとして指定する矩形を示す画像を表示する部分がユーザーにより押下され、更に連結キー12cがユーザーにより押下されたことをタッチパネル15により検出されたときに、当該ボックスを連結ボックスとする選択要求を受け付けたと判別する。   Further, when it is determined that the selection request for the standard box has not been received (NO in step S6), the control unit 21 determines whether the selection request for the connection box has been received (step S10). For example, the control unit 21 touches the touch panel that the input key 12a is pressed by the user, a part for displaying an image indicating a rectangle designated as a connection box is subsequently pressed by the user, and the connection key 12c is further pressed by the user. When it is detected by 15, it is determined that a selection request for using the box as a connected box has been received.

制御部21は、連結ボックスとする選択要求を受け付けたと判別した場合(ステップS10でYES)、その連結ボックスの大きさを指定する指示が入力されたかを判別する(ステップS7)。例えば、制御部21は、連結ボックスとする選択要求を受け付けた後、連結ボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことをタッチパネル15により検出されたときに、この連結ボックスの大きさ(つまり、上記入力領域の範囲)を指定する指示を受け付ける。   When it is determined that the selection request for the connection box is received (YES in Step S10), the control unit 21 determines whether an instruction for designating the size of the connection box is input (Step S7). For example, when the control unit 21 receives a selection request for a connection box and detects that the user presses a part that displays an image indicating a rectangle specified as the connection box, the control unit 21 detects this. An instruction to specify the size of the connection box (that is, the range of the input area) is received.

制御部21が、連結ボックスの大きさを指定する指示を受け付けていないと判別した場合(ステップS7でNO)、例えば、連結キー12cが押下された後、予め定められた時間内に連結ボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことをタッチパネル15によって検出されない場合、ボックス情報作成部25は、ボックス情報の作成を行う(ステップS9)。   When the control unit 21 determines that an instruction to specify the size of the connection box has not been received (NO in step S7), for example, after the connection key 12c is pressed, the connection unit is used as a connection box within a predetermined time. If the touch panel 15 does not detect that the part that displays the image indicating the designated rectangle is pressed by the user, the box information creation unit 25 creates box information (step S9).

例えば、図9に示す(14)、(15)、及び(16)の識別情報がそれぞれ割り振られた3つの矩形を示す画像が連結ボックスとして選択された場合には、ボックス情報作成部25は、これら3つの各矩形を示す画像の原稿画像G1におけるそれぞれの大きさ及び位置と、対応する矩形を示す画像に割り振られた識別情報とを、一つの連結ボックスであることを示す一つのボックス情報を作成する。このボックス情報には、(14)、(15)、及び(16)の識別情報がそれぞれ割り振られた3つの各矩形を示す画像が、互いに独立して入力用文字データが入力可能なサブボックスであることを示す情報が含まれている。   For example, when images indicating three rectangles to which the identification information of (14), (15), and (16) shown in FIG. 9 are allocated are selected as linked boxes, the box information creation unit 25 One box information indicating that each of the three rectangles is a single connected box, the size and position of the image representing the respective rectangles in the document image G1, and the identification information allocated to the image representing the corresponding rectangle. create. In this box information, images showing three rectangles to which the identification information of (14), (15), and (16) are allocated are sub-boxes in which character data for input can be input independently of each other. Information indicating that it is present is included.

また、例えば、図9に示す(19)、(20)、(21)、及び(22)の識別情報がそれぞれ割り振られた4つの矩形を示す画像が連結ボックスとして選択された場合には、ボックス情報作成部25は、これら4つの各矩形を示す画像の原稿画像G1における大きさ及び位置と、対応する矩形を示す画像に割り振られた識別情報とを、一つの連結ボックスであることを示す一つのボックス情報を作成する。このボックス情報には、(19)、(20)、(21)、及び(22)の識別情報がそれぞれ割り振られた4つの各矩形を示す画像が、上記サブボックスであることを示す情報が含まれている。そして、ボックス情報作成部25は、これらのボックス情報をテンプレートとして記憶部19に記憶させる。   Further, for example, when an image showing four rectangles to which the identification information (19), (20), (21), and (22) shown in FIG. The information creation unit 25 indicates the size and position of the image representing each of the four rectangles in the document image G1 and the identification information allocated to the image representing the corresponding rectangle as one linked box. Create one box information. The box information includes information indicating that the images indicating the four rectangles to which the identification information of (19), (20), (21), and (22) are allocated are the sub-boxes. It is. The box information creating unit 25 stores these box information in the storage unit 19 as a template.

一方、制御部21が、連結ボックスの大きさを指定する指示を受け付けたと判別した場合には(ステップS7でYES)、表示制御部22は、図11に示す表示画面を表示部12に表示させる。例えば、(14)、(15)、及び(16)の識別情報が割り振られた矩形を示す画像が連結ボックスとして選択された後、その大きさを指定する指示を受け付ける場合には、図11に例示するように、表示制御部22は、変更後の高さ及び幅を示す値をそれぞれ入力させるための高さ入力キー12g及び幅入力キー12hを表示部12に表示させる。そして、ユーザーがタッチパネル15又は操作部14の図略の数字キーに対して、所望の高さ及び幅の値を入力する。これにより、入力された高さ及び幅が変更後の高さ及び幅として制御部21に受け付けられる。表示制御部22は、図11に示すように、高さ入力キー12g及び幅入力キー12hの領域内にそれぞれ受け付けた高さ及び幅を表示させる。また、表示制御部22は、実行キー12iがユーザーにより押下され、タッチパネル15により検出されたとき、図9に示す表示画面を表示部12に表示させる。そして、制御部21が、保存キー12eが押下されたことを検出すると、ボックス情報作成部25は、受け付けた変更後の高さ及び幅の各値を、(14)、(15)、及び(16)の識別情報が割り振られた3つの矩形が結合してなる1つの矩形を示す画像の大きさとして、当該(14)、(15)、及び(16)の識別情報が割り振られた矩形を示す連結ボックスのボックス情報に含めて記憶部19に記憶させる。   On the other hand, when the control unit 21 determines that an instruction to specify the size of the connection box has been received (YES in step S7), the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG. . For example, when an image indicating a rectangle to which the identification information of (14), (15), and (16) is allocated is selected as a connection box and an instruction for specifying the size is received, FIG. As illustrated, the display control unit 22 causes the display unit 12 to display a height input key 12g and a width input key 12h for inputting values indicating the changed height and width, respectively. Then, the user inputs desired height and width values to the numeric keys (not shown) on the touch panel 15 or the operation unit 14. Thereby, the input height and width are received by the control unit 21 as the changed height and width. As shown in FIG. 11, the display control unit 22 displays the received height and width in the area of the height input key 12g and the width input key 12h, respectively. Further, the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG. 9 when the execution key 12 i is pressed by the user and detected by the touch panel 15. When the control unit 21 detects that the save key 12e is pressed, the box information creation unit 25 sets the received height and width values to (14), (15), and ( 16) As a size of an image showing one rectangle formed by combining three rectangles to which the identification information of (16) is allocated, the rectangle to which the identification information of (14), (15), and (16) is allocated. It is included in the box information of the connected box shown and stored in the storage unit 19.

尚、上記の説明以外に、制御部21は、連結ボックスについての上記所望の高さ及び幅の値が入力された後、保存キー12eがユーザーにより押下され、タッチパネル15により当該押下が検出されたときに、当該連結ボックスでの変更後の高さ及び幅として入力された高さ及び幅を受け付ける構成でもよい。また、ユーザーが上記数字キー等で所望の高さ及び幅の値を入力する以外に、ユーザーがタッチパネル15上で連結ボックスとして選択した矩形を示す画像をドラッグして当該画像の大きさを変更することにより、制御部21が当該連結ボックスの大きさの変更を受け付ける構成でもよい。   In addition to the above description, the control unit 21 detects that the save key 12e is pressed by the user after the desired height and width values for the connection box are input, and the touch panel 15 detects the press. In some cases, the height and width input as the changed height and width in the connection box may be accepted. In addition to the user inputting the desired height and width values using the numeric keys, the user can drag the image indicating the rectangle selected as the connection box on the touch panel 15 to change the size of the image. Thereby, the structure which receives the change of the magnitude | size of the said connection box by the control part 21 may be sufficient.

制御部21が、連結ボックスとする選択要求が受け付けられていないと判別した場合(ステップS10でNO)、チェックボックスとする選択要求を受け付けたかどうかを判別する(ステップS11)。例えば、制御部21は、入力キー12aがユーザーにより押下され、続けてチェックボックスとして指定する矩形を示す画像を表示する部分がユーザーにより押下され、更にチェックキー12dがユーザーにより押下されたことをタッチパネル15により検出されたとき、当該ボックスをチェックボックスとする選択要求を受け付けたと判別する。   When the control unit 21 determines that a selection request for a connection box has not been received (NO in step S10), it determines whether a selection request for a check box has been received (step S11). For example, the control unit 21 determines that the user presses the input key 12a, subsequently presses the part that displays an image indicating a rectangle specified as a check box, and further presses the check key 12d by the user. When it is detected by No. 15, it is determined that a selection request using the box as a check box has been received.

制御部21が、チェックボックスとする選択要求が受け付けられたと判別した場合(ステップS11でYES)、制御部21は、そのチェックボックスの大きさを指定する指示を受け付けたか否かを判別する(ステップS7)。例えば、制御部21は、チェックボックスとする選択要求を受け付けた後、チェックボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことをタッチパネル15により検出されたときに、このチェックボックスの大きさ(つまり、上記入力領域の範囲)を指定する指示を受け付ける。   If the control unit 21 determines that a selection request for a check box has been received (YES in step S11), the control unit 21 determines whether an instruction for specifying the size of the check box has been received (step S11). S7). For example, when the control unit 21 receives a selection request as a check box and detects that the user presses a part that displays an image indicating a rectangle designated as the check box, the control unit 21 detects this request. An instruction to specify the size of the check box (that is, the range of the input area) is received.

制御部21が、チェックボックスの大きさを指定する指示を受け付けていないと判別した場合(ステップS7でNO)、例えば、チェックキー12dが押下された後予め定められた時間内にチェックボックスとして指定された矩形を示す画像を表示する部分がユーザーにより押下されたことがタッチパネル15により検出されない場合、ボックス情報作成部25は、ボックス情報の作成を行う(ステップS9)。   If the control unit 21 determines that an instruction to specify the size of the check box is not received (NO in step S7), for example, the check key is specified as a check box within a predetermined time after the check key 12d is pressed. When the touch panel 15 does not detect that the part displaying the image indicating the rectangle is pressed by the user, the box information creation unit 25 creates box information (step S9).

例えば、図9に示す(5)、(6)、(7)、及び(8)の識別情報がそれぞれ割り振られた4つの矩形を示す画像がチェックボックスとして選択された場合には、ボックス情報作成部25は、これら4つの各矩形を示す画像の原稿画像G1における大きさ及び位置と、対応する矩形を示す画像に割り振られた識別情報と、チェックボックスであることを示す情報に対応付けて、4つのボックス毎に、ボックス情報をそれぞれ作成する。そして、ボックス情報作成部25は、後述するように、これらのボックス情報をテンプレートとして記憶部19に記憶させる。   For example, when an image showing four rectangles to which identification information of (5), (6), (7), and (8) shown in FIG. The unit 25 correlates the size and position of the image indicating each of the four rectangles in the document image G1, the identification information allocated to the image indicating the corresponding rectangle, and the information indicating the check box, Box information is created for each of the four boxes. The box information creation unit 25 stores the box information in the storage unit 19 as a template, as will be described later.

一方、制御部21が、チェックボックスの大きさ大きさを指定する指示を受け付けたと判別した場合(ステップS7でYES)、表示制御部22は、図11に示す表示画面を表示部12に表示させる。例えば、(5)の識別情報が割り振られた矩形を示す画像がチェックボックスとして選択された後、その大きさを指定する指示が受け付けられた場合には、図11に例示するように、表示制御部22は、変更後の高さ及び幅をそれぞれ入力させるための高さ入力キー12g及び幅入力キー12hを表示部12に表示させる。   On the other hand, when it is determined that the control unit 21 has received an instruction to specify the size of the check box (YES in step S7), the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG. . For example, after an image indicating a rectangle to which the identification information (5) is allocated is selected as a check box and an instruction to specify the size is received, display control is performed as illustrated in FIG. The unit 22 causes the display unit 12 to display a height input key 12g and a width input key 12h for inputting the changed height and width, respectively.

そして、ユーザーがタッチパネル15又は操作部14の図略の数字キーに対して、所望の高さ及び幅の値を入力する。これにより、入力された高さ及び幅が変更後の高さ及び幅として制御部21に受け付けられる。表示制御部22は、図11に示すように、高さ入力キー12g及び幅入力キー12hの領域内にそれぞれ受け付けた高さ及び幅を表示させる。また、表示制御部22は、実行キー12iがユーザーにより押下され、タッチパネル15により検出されたとき、図9に示す表示画面を表示部12に表示させる。そして、制御部21が、保存キー12eが押下されたことを検出した場合に、ボックス情報作成部25は、受け付けた変更後の高さ及び幅の各値を、(5)の識別情報が割り振られた矩形を示す画像の大きさとして扱い、当該(5)の識別情報が割り振られた矩形を示す画像に対応するチェックボックスのボックス情報に含めて記憶部19に記憶させる。   Then, the user inputs desired height and width values to the numeric keys (not shown) on the touch panel 15 or the operation unit 14. Thereby, the input height and width are received by the control unit 21 as the changed height and width. As shown in FIG. 11, the display control unit 22 displays the received height and width in the area of the height input key 12g and the width input key 12h, respectively. Further, the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG. 9 when the execution key 12 i is pressed by the user and detected by the touch panel 15. When the control unit 21 detects that the save key 12e has been pressed, the box information creation unit 25 assigns the received height and width values to the identification information of (5). It is treated as the size of the image indicating the rectangle, and is included in the box information of the check box corresponding to the image indicating the rectangle to which the identification information (5) is allocated and stored in the storage unit 19.

尚、上記の説明以外に、制御部21は、チェックボックスについての上記所望の高さ及び幅の値が入力された後、保存キー12eがユーザーにより押下され、タッチパネル15により当該押下が検出されたときに、当該チェックボックスでの変更後の高さ及び幅として入力された高さ及び幅を受け付ける構成でもよい。また、ユーザーが上記数字キー等で所望の高さ及び幅の値を入力する以外に、ユーザーがタッチパネル15上でチェックボックスとして選択した矩形を示す画像をドラッグして当該画像の大きさを変更することにより、制御部21が当該チェックボックスの大きさの変更を受け付ける構成でもよい。   In addition to the above description, after the desired height and width values for the check box are input, the control unit 21 detects that the save key 12e is pressed by the user and the touch panel 15 detects the press. In some cases, the height and width input as the height and width after the change in the check box may be accepted. In addition to the user inputting the desired height and width values using the numeric keys, the user can drag the image indicating the rectangle selected as the check box on the touch panel 15 to change the size of the image. Accordingly, the control unit 21 may accept a change in the size of the check box.

制御部21が、チェックボックスとする選択要求が受け付けられなかったと判別した場合(ステップS11でNO)、処理は、ステップS5に戻る。   If the control unit 21 determines that a selection request for a check box has not been accepted (NO in step S11), the process returns to step S5.

ボックス情報作成部25がボックス情報の作成を終了すると、制御部21は、全てのボックスについてボックス情報の作成が終了したかどうかについて判別する(ステップS12)。ボックス情報作成部25が、全てのボックスについてボックス情報の作成が終了していないと判別した場合は(ステップS12でNO)、処理はステップS5に戻る。   When the box information creation unit 25 finishes creating the box information, the control unit 21 determines whether or not creation of the box information is finished for all boxes (step S12). If the box information creation unit 25 determines that the creation of box information has not been completed for all boxes (NO in step S12), the process returns to step S5.

一方、ボックス情報作成部25が、全てのボックスについてボックス情報の作成が終了したと判別した場合は(ステップS12でYES)、制御部21は、上記原稿画像G1と、ボックス情報作成部25が作成した全てのボックス情報とを、当該原稿画像G1のテンプレートTとして記憶部19に記憶させる(ステップS13)。   On the other hand, when the box information creation unit 25 determines that the creation of box information has been completed for all boxes (YES in step S12), the control unit 21 creates the original image G1 and the box information creation unit 25. All the box information is stored in the storage unit 19 as the template T of the document image G1 (step S13).

また、表示制御部22は、上記テンプレートTにおいて、標準ボックス、連結ボックス、及びチェックボックスを互いに異なる表示方法で表示部12に表示させる。例えば、表示制御部22は、ボックス情報作成部25がボックスのボックス情報を作成した場合に、ボックスの種類毎に互いに異なる表示方法で当該ボックスを表示部12に表示させる。表示制御部22は、例えば、図12に示すように、標準ボックスに選択された矩形を示す画像、つまり(18)、(27)、(29)、及び(30)の識別情報がそれぞれ割り振られた4つの矩形を示す画像を、一点鎖線の矩形で囲んで表示させる。また、表示制御部22は、連結ボックスに選択された矩形を示す画像、つまり(14)、(15)、及び(16)の識別情報がそれぞれ割り振られた3つの矩形を示す画像と、(19)、(20)、(21)、及び(22)の識別情報がそれぞれ割り振られた4つの矩形を示す画像とを、二点鎖線の矩形で囲んで表示させる。また、表示制御部22は、チェックボックスに選択された矩形を示す画像、つまり(5)、(6)、(7)、及び(8)の識別情報がそれぞれ割り振られた4つの矩形を示す画像を、点線の矩形で囲んで表示させる。このような互いに異なる表示部12での表示は、ボックス情報作成部25がボックスのボックス情報を作成する毎に実行されている。尚、この説明以外に、例えば、表示制御部22が、ボックスの種類毎に互いに異なる色の矩形でボックスを囲んで表示するようにしてもよい。また、連結ボックスに含まれたサブボックスも他のボックスと異なる表示方法で表示部12に表示させてもよい。   Further, the display control unit 22 causes the display unit 12 to display the standard box, the connection box, and the check box in the template T by using different display methods. For example, when the box information creation unit 25 creates the box information of the box, the display control unit 22 causes the display unit 12 to display the box by a different display method for each type of box. For example, as shown in FIG. 12, the display control unit 22 is assigned an image indicating the selected rectangle in the standard box, that is, identification information of (18), (27), (29), and (30). An image showing four rectangles is displayed surrounded by a one-dot chain line rectangle. In addition, the display control unit 22 displays an image indicating a rectangle selected in the connection box, that is, an image indicating three rectangles to which the identification information items (14), (15), and (16) are allocated, and (19 ), (20), (21), and an image showing four rectangles to which the identification information of (22) is assigned are displayed surrounded by a two-dot chain line rectangle. In addition, the display control unit 22 displays an image indicating the rectangle selected in the check box, that is, an image indicating the four rectangles to which the identification information items (5), (6), (7), and (8) are allocated. Is surrounded by a dotted rectangle. Such display on different display units 12 is performed every time the box information creation unit 25 creates box information of a box. In addition to this description, for example, the display control unit 22 may enclose and display a box with different color rectangles for each type of box. Further, the sub-boxes included in the connection box may be displayed on the display unit 12 by a display method different from other boxes.

その後、制御部21は、PC1に対して、ネットワーク3を介して記憶部19に記憶させた原稿画像のテンプレートTと、当該PC1の表示部82において、上記テンプレートTに含まれた原稿画像、ボックスに指定された矩形を示す画像、及びこの矩形を示す画像に割り振られた識別情報を対応付けて入力画面として表示することを指示する指示信号とを通信部16に送信させる(ステップS14)。また、制御部21が、この指示信号に対し、PC1の表示部82に表示される入力画面において、当該テンプレートTに含まれたボックスの種類毎に互いに異なる表示方法でボックスを表示することを指示する指示信号を含ませている。   Thereafter, the control unit 21 sends the original image template T stored in the storage unit 19 to the PC 1 via the network 3, and the original image and box included in the template T in the display unit 82 of the PC 1. The communication unit 16 is caused to transmit an image indicating a rectangle designated to the image and an instruction signal instructing that the identification information allocated to the image indicating the rectangle is displayed in association with the image (step S14). Further, the control unit 21 instructs the instruction signal to display a box in a different display method for each type of box included in the template T on the input screen displayed on the display unit 82 of the PC 1. An instruction signal to be included is included.

続いて、PC1では、受付部73が送受信部83を介して画像形成装置2からテンプレートTと指示信号とを受け付けたかどうかについて判別する(ステップS15)。テンプレートTと指示信号とを受け付けなければ(ステップS15でNO)、PC1は、待機状態となる。   Subsequently, in the PC 1, it is determined whether or not the reception unit 73 has received the template T and the instruction signal from the image forming apparatus 2 via the transmission / reception unit 83 (step S15). If the template T and the instruction signal are not received (NO in step S15), the PC 1 enters a standby state.

一方、受付部73が、テンプレートTと指示信号とを送受信部83を介して受け付ければ(ステップS15でYES)、制御部71は、当該テンプレートTに含まれたボックスに入力される入力用文字データの作成が開始されるかどうかについて判別する(ステップS16)。例えば、受付部73が、テンプレートTと指示信号とを受け付けた場合、制御部71は、表示制御部72を介して入力用文字データの作成を開始するか否かを問い合わせる旨の表示を表示部82に行わせる。操作部81がユーザーから入力用文字データの作成を開始する指示の操作を受け付けなければ(ステップS16でNO)、制御部71は、PC1を待機状態とする。   On the other hand, if the accepting unit 73 accepts the template T and the instruction signal via the transmission / reception unit 83 (YES in step S15), the control unit 71 inputs characters for input to the box included in the template T. It is determined whether or not data creation is started (step S16). For example, when the receiving unit 73 receives the template T and the instruction signal, the control unit 71 displays a display for inquiring whether to start the creation of input character data via the display control unit 72. 82. If the operation unit 81 does not accept an operation of an instruction to start creating character data for input from the user (NO in step S16), the control unit 71 places the PC 1 in a standby state.

また、操作部81が、ユーザーから入力用文字データの作成を開始する指示の操作を受け付ければ(ステップS16でYES)、表示制御部72は、受付部73が受け付けた指示信号に従って、受け付けたテンプレートTを図13に例を示すようにして表示部82に表示させる(ステップS17)。ユーザーは、操作部81を操作することにより、ワードプロセッサー等のアプリケーションを起動して、当該アプリケーションでドキュメントデータ(入力用文字データ)を作成する(ステップS18)。   If the operation unit 81 accepts an operation of an instruction to start creation of input character data from the user (YES in step S16), the display control unit 72 accepts it according to the instruction signal accepted by the acceptance unit 73. The template T is displayed on the display unit 82 as shown in FIG. 13 (step S17). The user activates an application such as a word processor by operating the operation unit 81, and creates document data (input character data) using the application (step S18).

また、上記入力画面では、図13に示すように、表示部82に表示されるテンプレートTでは、原稿画像に加えて、上記ステップS5でボックスに指定された矩形を示す画像と、当該矩形を示す画像に割り振られた識別情報と、ボックスの選択された種類とが表示される。つまり、この入力画面では、入力用文字データが入力される入力領域(ボックス)が、その対応する矩形を示す画像に割り振られた識別情報とともに表示されているので、ユーザーはボックスを認識しつつ、当該ボックスに入力されるドキュメントデータを容易に作成することができる。   In the input screen, as shown in FIG. 13, in the template T displayed on the display unit 82, in addition to the document image, an image indicating the rectangle designated in the box in step S5 and the rectangle are displayed. The identification information assigned to the image and the selected type of box are displayed. That is, in this input screen, the input area (box) where the input character data is input is displayed together with the identification information assigned to the image indicating the corresponding rectangle, so that the user can recognize the box while Document data input to the box can be easily created.

例えば、ユーザーがPC1においてワードプロセッサーや表計算ソフト等のアプリケーションを起動し、そのアプリケーションを用いて、予め定められたフォーマットからなるデータファイルDを作成する。ユーザーは、アプリケーションを用いて、当該フォーマットが示す配列通りに、数字や「入力文字」を、操作部81の操作により入力して配置することで、図14に例を示すような配列からなるデータファイルDを作成する。このデータファイルDでは、上記各識別情報を示す数字が予め定められたそれぞれの位置に配置される。そして、各識別情報の配置位置から、予め定められた数のスペースを空けた位置に、入力用文字データとしての数値や文字等が配置される。このように識別情報や入力用文字データが配置することにより、画像形成装置2における、画像処理部7等による、データファイルDからの識別情報及び入力用文字データの読み出しを可能にしている。なお、データファイルDは、記憶部84の「Form Application」84aの領域に記憶される。   For example, the user activates an application such as a word processor or spreadsheet software on the PC 1 and creates a data file D having a predetermined format using the application. The user uses an application to input and arrange numbers and “input characters” by operating the operation unit 81 according to the arrangement indicated by the format, and thereby data having an arrangement as shown in FIG. File D is created. In the data file D, numbers indicating the identification information are arranged at predetermined positions. Then, numerical values, characters, and the like as input character data are arranged at positions where a predetermined number of spaces are left from the arrangement positions of the identification information. By arranging the identification information and the input character data in this way, it is possible to read the identification information and the input character data from the data file D by the image processing unit 7 or the like in the image forming apparatus 2. The data file D is stored in the area of “Form Application” 84a in the storage unit 84.

例えば、図14に示すように、(18)の識別情報が割り振られた位置に隣接させて、矩形を示す画像に対応する標準ボックス用の入力用文字データとして「777」が入力される。   For example, as shown in FIG. 14, “777” is input as character data for input for a standard box corresponding to an image showing a rectangle, adjacent to the position where the identification information of (18) is allocated.

また、(14)、(15)、及び(16)の識別情報が連結ボックスとしての識別情報であるとすると、(14)の識別情報が割り振られた位置に隣接させて、連結ボックス用の入力用文字データとして、予め定められた区切り文字(例えば「,」)を介在させて、それぞれのサブボックス入力される各入力用文字データが連続した状態で配置される。例えば、図14に示す例では、上記サブボックス単位の入力用文字データが「07」、「25」、及び「2016」とされ、(14)の識別情報に隣接させて「07,25,2016」が配置される。   If the identification information of (14), (15), and (16) is identification information as a connection box, the input for the connection box is made adjacent to the position where the identification information of (14) is allocated. As the character data, input character data input in the respective sub-boxes are arranged in succession with a predetermined delimiter (for example, “,”) interposed therebetween. For example, in the example shown in FIG. 14, the input character data in units of sub-boxes are “07”, “25”, and “2016”, and “07, 25, 2016” is adjacent to the identification information of (14). Is arranged.

また、(5)の識別情報がチェックボックスとしての識別情報であるとすると、(5)の識別情報が割り振られた位置に隣接させて、チェックボックス用の入力用文字データとして「×」が配置される。   If the identification information of (5) is identification information as a check box, “x” is placed as input character data for the check box adjacent to the position where the identification information of (5) is allocated. Is done.

その後、PC1では、ユーザーによる操作部81の操作で、画像形成装置2に送信する対象として、HDD84の「Form Application」84aの領域からデータファイルDが選択されると、印刷ジョブ生成部74が、当該選択されたデータファイルDを用いて印刷ジョブを生成する(ステップS19)。   Thereafter, in the PC 1, when the data file D is selected from the “Form Application” 84 a area of the HDD 84 as a target to be transmitted to the image forming apparatus 2 by the operation of the operation unit 81 by the user, the print job generation unit 74 A print job is generated using the selected data file D (step S19).

例えば、ユーザーが操作部81を操作することにより、プリンタードライバーを起動すると、表示制御部72が、図15に例示するように、ジョブ82aのタブが選択された入力画面を表示部82に表示させる。そして、ユーザーが操作部81を操作することにより、上記入力画面での「Form Application」82bの欄を選択して、更に、HDD84の「Form Application」84aの領域からデータファイルDを選択すると、印刷ジョブ生成部74は、データファイルDを、画像形成装置2に適した上記印刷データ(画像形成装置2に適したプリンター言語によるフォーマットに変換されたデータ)とし、この印刷データを含む印刷処理用の印刷ジョブを生成する。   For example, when the user activates the printer driver by operating the operation unit 81, the display control unit 72 causes the display unit 82 to display an input screen in which the tab of the job 82a is selected as illustrated in FIG. . Then, when the user operates the operation unit 81 to select the “Form Application” 82 b field on the input screen and further select the data file D from the “Form Application” 84 a area of the HDD 84, the print The job generation unit 74 uses the data file D as the print data suitable for the image forming apparatus 2 (data converted into a format in a printer language suitable for the image forming apparatus 2), and for print processing including the print data. Generate a print job.

このとき、印刷ジョブ生成部74は、データファイルD内の入力用文字データ部分のみを印刷データに変換する。印刷ジョブ生成部74は、識別情報部分については、対応する入力用文字データを示す情報を追加した上で、別データとして、印刷ジョブに組み込まれる。すなわち、この印刷ジョブでは、図14に示したデータファイルDにおいて、(5)、(6)、----、(29)、(30)の識別情報は、印刷データに変換されておらず、入力用文字データのみが、画像形成装置2での印刷用のデータに変換されている。   At this time, the print job generation unit 74 converts only the input character data portion in the data file D into print data. The print job generation unit 74 adds information indicating the corresponding input character data to the identification information portion, and then incorporates it into the print job as separate data. That is, in this print job, the identification information (5), (6), ----, (29), (30) is not converted into print data in the data file D shown in FIG. Only the input character data is converted into data for printing in the image forming apparatus 2.

続いて、制御部71は、ボックスに入力される入力用文字データと上記の別データとを含む印刷ジョブを、送受信部83から、ネットワーク3を介して画像形成装置2に送信させる(ステップS20)。   Subsequently, the control unit 71 causes the transmission / reception unit 83 to transmit a print job including the input character data input to the box and the other data to the image forming apparatus 2 via the network 3 (step S20). .

画像形成装置2では、制御部21が、通信部16を介してPC1からの印刷ジョブを入力用文字データ取得部26が受信したか否かについて判別する(ステップS21)。制御部21は、入力用文字データ取得部26が印刷ジョブを受信するまでは(ステップS21でNO)、画像形成装置2を待機状態とする。   In the image forming apparatus 2, the control unit 21 determines whether the input character data acquisition unit 26 has received a print job from the PC 1 via the communication unit 16 (step S21). The control unit 21 places the image forming apparatus 2 in a standby state until the input character data acquisition unit 26 receives a print job (NO in step S21).

一方、制御部21は、入力用文字データ取得部26が通信部16を介してPC1からの印刷ジョブを受信したとき(ステップS21でYES)、この印刷ジョブに含まれた上記入力用文字データと上記別データ(識別情報を含む)を、入力データファイルとして、記憶部19に記憶させる(ステップS22)。記憶部19には、図16に示すように、入力データファイル領域19bに入力データファイルが記憶され、テンプレート領域19aに、画像読取部17で読み取られた原稿画像Gと、ボックス情報作成部25で作成されたボックス情報とを含むテンプレートTが記憶される。   On the other hand, when the input character data acquisition unit 26 receives a print job from the PC 1 via the communication unit 16 (YES in step S21), the control unit 21 receives the input character data included in the print job and The other data (including identification information) is stored in the storage unit 19 as an input data file (step S22). As shown in FIG. 16, the storage unit 19 stores the input data file in the input data file area 19b, the original image G read by the image reading unit 17 in the template area 19a, and the box information creation unit 25. A template T including the created box information is stored.

上記操作受付部に対するユーザーの操作に応じて、表示制御部22は、記憶部19に記憶されている、テンプレートT及び入力データファイルの各一覧を表示部12に表示させる(ステップS23)。例えば、表示制御部22は、図17に示す表示画面を表示部12に表示させる。   In response to a user operation on the operation accepting unit, the display control unit 22 causes the display unit 12 to display a list of templates T and input data files stored in the storage unit 19 (step S23). For example, the display control unit 22 causes the display unit 12 to display the display screen illustrated in FIG.

その後、制御部21は、操作部14に対するユーザーの操作指示により、一つのテンプレートと一つの入力データファイルとが選択されたかどうかについて判別する(ステップS24)。一つのテンプレートと一つの入力データファイルとが選択されなければ(ステップS24でNO)、画像形成装置2は、待機状態となる。   Thereafter, the control unit 21 determines whether one template and one input data file are selected in accordance with a user operation instruction to the operation unit 14 (step S24). If one template and one input data file are not selected (NO in step S24), the image forming apparatus 2 enters a standby state.

一方、制御部21が、一つのテンプレートと一つの入力データファイルとが選択されたことを検出した場合(ステップS24でYES)、制御部21は、その選択されたテンプレートと入力データファイルとを用いた合成処理を画像処理部27に行わせる(ステップS25)。   On the other hand, when the control unit 21 detects that one template and one input data file are selected (YES in step S24), the control unit 21 uses the selected template and input data file. The image processing unit 27 is made to perform the combined processing (step S25).

例えば、ステップS24が行われる際、表示制御部22は、表示部12に、図17に例を示す表示画面を表示させる。この表示画面では、ユーザーが、テンプレートの一覧を示す表示欄12jから「Payment Form」の欄を押下し、この押下がタッチパネル15により検出されると、制御部21は、当該「Payment Form」をテンプレートとする選択を受け付ける。また、ユーザーがタッチパネル15において入力データファイルの一覧を示す表示欄12kから「Payment Form Info」の欄を押下し、この押下がタッチパネル15により検出されると、制御部21は、当該「Payment Form Info」を入力データファイルとする選択を受け付ける。   For example, when step S24 is performed, the display control unit 22 causes the display unit 12 to display a display screen illustrated in FIG. In this display screen, when the user presses the “Payment Form” column from the display column 12j indicating the list of templates, and this pressing is detected by the touch panel 15, the control unit 21 sets the “Payment Form” as the template. The selection is accepted. In addition, when the user presses the “Payment Form Info” field from the display field 12k indicating the list of input data files on the touch panel 15, and this pressing is detected by the touch panel 15, the control unit 21 controls the “Payment Form Info”. "Is accepted as an input data file.

更には、合成キー12lがユーザーにより押下され、この押下がタッチパネル15により検出された場合、制御部21は、これら選択された「Payment Form」のテンプレートと、「Payment Form Info」の入力データファイルとを用いた合成処理を画像処理部27に実行させる。   Further, when the composite key 12l is pressed by the user and this press is detected by the touch panel 15, the control unit 21 reads the selected “Payment Form” template, the “Payment Form Info” input data file, The image processing unit 27 is caused to execute a combining process using

上記合成処理では、画像処理部27は、図18に示すように、合成処理対象の「Payment Form」のテンプレートT、及び「Payment Form Info」の入力データファイルIを、それぞれ記憶部19のテンプレート領域19a(図16)及び入力データファイル領域19b(図16)から読み出す。そして、画像処理部27は、「Payment Form」のテンプレートTが示す原稿画像における識別情報が示すボックスに指定された矩形を示す画像の領域内に、「Payment Form Info」の入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを配置してこれら両画像を合成処理して、合成結果画像を作成する。また、この作成された合成結果画像は、画像メモリー13や記憶部19に記憶される。   In the above composition processing, as shown in FIG. 18, the image processing unit 27 converts the “Payment Form” template T and the “Payment Form Info” input data file I to be combined into template regions of the storage unit 19, respectively. 19a (FIG. 16) and input data file area 19b (FIG. 16). Then, the image processing unit 27 is included in the input data file of “Payment Form Info” in the region of the image indicating the rectangle specified in the box indicated by the identification information in the document image indicated by the template T of “Payment Form”. Then, the input character data associated with the same identification information as the identification information is arranged and the two images are combined to create a combined result image. Further, the created synthesis result image is stored in the image memory 13 or the storage unit 19.

例えば、画像処理部27は、図18に示す「Payment Form Info」の入力データファイルIにおける、(27)の識別情報が示すボックス(標準ボックスであるものとする)に指定された矩形を示す画像の領域内に、同一の識別情報(27)に対応付けられた入力用文字データとしての「山田太郎」を配置して、これら両画像を合成処理する。画像処理部27は、(27)の識別情報が示すボックスが標準ボックスであることを「Payment Form」のテンプレートTに含まれている上記ボックス情報に基づいて判別する。画像処理部27は、(27)の識別情報に対応付けられている入力用文字データが「山田太郎」であることを、上記の別データに含まれる、識別情報に対応する入力用文字データを示す情報に基づいて判別する。   For example, the image processing unit 27 displays an image indicating a rectangle designated in a box (assumed to be a standard box) indicated by the identification information (27) in the input data file I of “Payment Form Info” shown in FIG. In this area, “Taro Yamada” as input character data associated with the same identification information (27) is arranged, and these two images are combined. The image processing unit 27 determines that the box indicated by the identification information in (27) is a standard box based on the box information included in the “Tayment Form” template T. The image processing unit 27 indicates that the input character data associated with the identification information of (27) is “Taro Yamada” and uses the input character data corresponding to the identification information included in the other data. It discriminate | determines based on the information shown.

また、画像処理部27は、(14)、(15)、及び(16)の識別情報が示すボックス(連結ボックスであるものとする)に指定された3つの矩形を示す画像の領域内に、同一性を有する識別情報(14)に対応付けられた入力用文字データとしての「07,25,2016」をPayment Form Info」の入力データファイルIから読み出し、(14)の識別情報に対応付けられたボックスに「07」を配置し、(15)の識別情報に対応付けられたボックスに「25」を配置し、(16)の識別情報に対応付けられたボックスに「2016」を配置して、各ボックスとしての矩形を示す画像と、入力用文字データの画像とを合成処理する。画像処理部27は、(14)、(15)、及び(16)の識別情報が示すボックスが連結ボックスであることを「Payment Form」のテンプレートTに含まれている上記ボックス情報に基づいて判別する。そして、画像処理部27は、この場合、連続する識別情報のうち、最も若い番号の識別情報に隣接して配置されている入力用文字データを、当該合成に用いる入力用文字データとし、この入力用文字データとしての「07,25,2016」において「,」で区切られた各「07」「25」「2016」を、その並び順に、それぞれ当該連結ボックスをなすサブボックスのうち、最も若い番号の識別番号に対応するサブボックスから順次配置していく。   In addition, the image processing unit 27 includes, in the region of the image indicating the three rectangles designated in the box (assuming that it is a linked box) indicated by the identification information of (14), (15), and (16). “07, 25, 2016” as input character data associated with the identification information (14) having the identity is read from the input data file I of “Payment Form Info”, and is associated with the identification information of (14). “07” is placed in the box, “25” is placed in the box associated with the identification information of (15), and “2016” is placed in the box associated with the identification information of (16). Then, an image showing a rectangle as each box is combined with an image of input character data. The image processing unit 27 determines that the box indicated by the identification information of (14), (15), and (16) is a linked box based on the box information included in the template T of “Payment Form”. To do. Then, in this case, the image processing unit 27 sets the input character data arranged adjacent to the identification information of the smallest number among the continuous identification information as input character data used for the composition. “07”, “25”, “2016” delimited by “,” in “07, 25, 2016” as the character data, the smallest number among the sub-boxes that form the linked box in the order of arrangement. The sub boxes corresponding to the identification numbers are sequentially arranged.

また、画像処理部27は、(5)の識別情報が示すボックス(チェックボックスであるものとする)に指定された矩形を示す画像の領域内に、入力用文字データとしての「×」を配置してこれら両画像を合成処理する。画像処理部27は、(5)の識別情報が示すボックスがチェックボックスであることを「Payment Form」のテンプレートTに含まれている上記ボックス情報に基づいて判別する。画像処理部27は、(5)の識別情報に対応付けられている入力用文字データが「×」であることを、上記の別データに含まれる、識別情報に対応する入力用文字データを示す情報に基づいて判別する。   In addition, the image processing unit 27 arranges “x” as input character data in the area of the image indicating the rectangle designated in the box (check box) indicated by the identification information of (5). Then, these two images are combined. The image processing unit 27 determines that the box indicated by the identification information in (5) is a check box based on the box information included in the “Tayment Form” template T. The image processing unit 27 indicates that the input character data associated with the identification information of (5) is “x” and indicates the input character data corresponding to the identification information included in the other data. Determine based on information.

続いて、表示制御部22は、図19に示すように、画像処理部27が作成した合成結果画像Fを表示部12に表示させる(ステップS26)。   Subsequently, as shown in FIG. 19, the display control unit 22 causes the display unit 12 to display the composite result image F created by the image processing unit 27 (step S26).

その後、制御部21は、上記合成結果画像Fの印刷が要求されているかどうかについて判別する(ステップS27)。例えば、図19に示した表示画面において、制御部21が、ユーザーによって印刷キー12nが押下されたことを検出した場合、制御部21は合成結果画像Fの印刷が要求されていると判断して、画像形成部18に当該合成結果画像Fの印刷処理を行わせる(ステップS28)。   Thereafter, the control unit 21 determines whether or not printing of the composite result image F is requested (step S27). For example, when the control unit 21 detects that the user presses the print key 12n on the display screen shown in FIG. 19, the control unit 21 determines that printing of the composite result image F is requested. Then, the image forming unit 18 is caused to perform printing processing of the composite result image F (step S28).

一方、制御部21が、ユーザーによって保存キー12eが押下されたことを検出した場合、制御部21は現時点で合成結果画像Fの印刷が要求されていないと判断して、当該合成結果画像Fを記憶部19に保存させる(ステップS29)。   On the other hand, when the control unit 21 detects that the save key 12e is pressed by the user, the control unit 21 determines that printing of the composite result image F is not requested at present, and displays the composite result image F as a result. The data is stored in the storage unit 19 (step S29).

以上のように本実施形態では、テンプレートTの作成時には、矩形抽出部23が画像読取部17による読取で得られた原稿画像から矩形を示す画像を抽出して、当該矩形を示す画像の原稿画像における大きさ及び位置を検出し、識別情報割振部24が抽出された矩形を示す画像に識別情報を順次割り振っている。また、表示制御部22は、上記原稿画像と、抽出された矩形を示す画像と、この矩形を示す画像に対し割り振られた識別情報とを対応付けて、表示部12に表示させている。また、ボックス情報作成部25は、指定要求でボックスに指定された矩形を示す画像と、当該矩形を示す画像の原稿画像における大きさ及び位置と、当該矩形を示す画像に割り振られた識別情報とを対応付けて、当該ボックスのボックス情報として作成している。また、制御部21は、ボックス情報作成部25がボックス情報を作成した場合には、原稿画像と、当該ボックス情報とを含むテンプレートとして記憶部19に記憶させている。   As described above, in the present embodiment, when the template T is created, the rectangle extracting unit 23 extracts an image indicating a rectangle from the document image obtained by reading by the image reading unit 17, and an original image of the image indicating the rectangle. The identification information is sequentially allocated to the image indicating the extracted rectangle by the identification information allocating unit 24. In addition, the display control unit 22 causes the display unit 12 to display the document image, the image indicating the extracted rectangle, and the identification information allocated to the image indicating the rectangle in association with each other. The box information creation unit 25 also includes an image indicating the rectangle designated in the box by the designation request, the size and position of the image representing the rectangle in the document image, and identification information allocated to the image representing the rectangle. Are created as box information of the box. Further, when the box information creation unit 25 creates the box information, the control unit 21 stores the document image and the template including the box information in the storage unit 19.

本実施形態では、画像処理部27が、テンプレートTが示す原稿画像における識別情報が示すボックスに指定された矩形を示す画像の領域内に、入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを配置してこれら両画像を合成処理して、合成結果画像を作成するため、原稿画像におけるユーザー所望の位置に所望の文字等を配置した印刷を簡単に行うことができる。また、ユーザーは、上述したテンプレートTの作成及びデータファイルDの作成により、簡単に、原稿画像における入力用文字データの配置位置や、入力文字データの内容を変更することが可能である。   In the present embodiment, the image processing unit 27 includes the same identification information as the identification information included in the input data file in the region of the image indicating the rectangle specified in the box indicated by the identification information in the document image indicated by the template T. Since the input character data associated with the image data is arranged and the two images are combined to create a combined result image, the user can easily print a desired character or the like at a desired position in the document image. be able to. Also, the user can easily change the arrangement position of the input character data in the document image and the contents of the input character data by creating the template T and the data file D described above.

すなわち、本実施形態では、ユーザーが、読取済みの原稿において、入力用文字データを入力させるボックスの位置を変更する場合、制御部21は、記憶部19から原稿画像のテンプレートに含まれた原稿画像を読み出して、この原稿画像に対する矩形抽出部23と識別情報割振部24とによる処理で、変更後のボックスを認識するため、その後、ボックス情報作成部25により、変更後のボックスに対応したボックス情報を作成させれば、原稿の新たな読取動作を行うことなく、入力用文字データを入力させるボックスの位置を簡単に変更することができる。   That is, in the present embodiment, when the user changes the position of the box for inputting the input character data in the read document, the control unit 21 reads the document image included in the document image template from the storage unit 19. Is read out and the box after the change is recognized by the processing by the rectangle extracting unit 23 and the identification information allocating unit 24 for the document image. Thereafter, the box information creating unit 25 performs box information corresponding to the box after the change. Can be used to easily change the position of the box for inputting the input character data without performing a new reading operation of the document.

このため、本実施形態では、従来と異なり、入力用文字データの入力が求められている画像に対して、当該入力用文字データを簡単に合成することが可能になる。   Therefore, in the present embodiment, unlike the conventional case, it is possible to easily synthesize the input character data with respect to an image for which input character data is required to be input.

尚、上記の説明では、PC(情報処理装置)1側にプリンタードライバーに従って動作する印刷ジョブ生成部74を設けた場合について説明したが、本発明は画像形成装置2の入力用文字データ取得部26がPC1で作成された入力用文字データを取得するものであればよく、例えば、入力用文字データ取得部26がPC1で作成されたドキュメントデータを入力用文字データとして取得し、その取得した入力用文字データを画像形成装置2に設けたプリンタードライバーで印刷処理用の印刷データに変換する構成でもよい。この場合、上記印刷ジョブ生成部74を画像形成装置2が備えることになる。   In the above description, the case where the print job generation unit 74 that operates according to the printer driver is provided on the PC (information processing apparatus) 1 side has been described. However, the present invention provides the input character data acquisition unit 26 of the image forming apparatus 2. For example, the input character data acquisition unit 26 acquires the document data generated by the PC 1 as input character data, and the acquired input data is obtained. The character data may be converted into print data for print processing by a printer driver provided in the image forming apparatus 2. In this case, the image forming apparatus 2 includes the print job generation unit 74.

また、上記実施形態では、図1乃至図19を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。   Moreover, in the said embodiment, the structure and process which were shown by the said embodiment using FIG. 1 thru | or FIG. 19 are only one Embodiment of this invention, and are not the meaning which limits this invention to the said structure and process.

2 画像形成装置(画像処理装置)
12 表示部
14 操作部(操作受付部)
15 タッチパネル(操作受付部)
17 画像読取部
18 画像形成部
19 記憶部
21 制御部
22 表示制御部
23 矩形抽出部
24 識別情報割振部
25 ボックス情報作成部
26 入力用文字データ取得部
27 画像処理部
2 Image forming device (image processing device)
12 display unit 14 operation unit (operation reception unit)
15 Touch panel (operation reception part)
DESCRIPTION OF SYMBOLS 17 Image reading part 18 Image formation part 19 Memory | storage part 21 Control part 22 Display control part 23 Rectangle extraction part 24 Identification information allocation part 25 Box information creation part 26 Input character data acquisition part 27 Image processing part

Claims (7)

ネットワークを介して情報処理装置に接続している画像処理装置であって、
原稿画像と、前記原稿画像に含まれる矩形を示す画像であって、入力用文字データが入力される入力領域としてのボックスに指定された当該矩形を示す画像と、当該矩形を示す画像に割り振られた識別情報を対応付けたボックスのボックス情報とを含むテンプレートとして記憶する記憶部と、
前記ネットワークを通じて、前記情報処理装置との間でデータを送受信する通信部と、
前記ネットワークを介して前記情報処理装置から前記ボックスに入力される入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを前記通信部を介して取得する入力用文字データ取得部と、
前記入力用文字データ取得部が取得した前記入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを入力データファイルとして前記記憶部に記憶させる制御部と、
前記テンプレートが示す前記原稿画像における前記識別情報が示すボックスに指定された矩形を示す画像の領域内に、前記入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する画像処理部と、を備える画像処理装置。
An image processing apparatus connected to an information processing apparatus via a network,
An original image, an image indicating a rectangle included in the original image, and an image indicating the rectangle designated in a box as an input area into which input character data is input, and an image indicating the rectangle A storage unit for storing a template including box information of a box associated with the identified information;
A communication unit that transmits and receives data to and from the information processing apparatus through the network;
Input character data acquisition for acquiring input character data input to the box from the information processing apparatus via the network and the identification information associated with the input character data via the communication unit And
A control unit that causes the storage unit to store the input character data acquired by the input character data acquisition unit and the identification information associated with the input character data as an input data file;
Input characters that are included in the input data file and are associated with the same identification information as the identification information within the area of the image that indicates the rectangle specified in the box indicated by the identification information in the document image indicated by the template An image processing apparatus comprising: an image processing unit that combines data and creates a combined result image.
前記ボックス情報には、前記ボックスが、少なくとも一つの文字が前記入力用文字データとして入力される標準ボックス、前記入力用文字データが各々入力される複数のボックスを一つのボックスとして連結した連結ボックス、及び予め定められたチェックマークが前記入力用文字データとして入力されるチェックボックスのいずれの種別であるかを示す情報が含まれている請求項1に記載の画像処理装置。   In the box information, the box is a standard box in which at least one character is input as the input character data, a connected box in which a plurality of boxes into which the input character data is input are connected as one box, The image processing apparatus according to claim 1, further comprising: information indicating which type of check box is a predetermined check mark input as the input character data. 前記画像処理部は、
前記標準ボックスには、一つの文字を前記入力用文字データとして合成し、
前記連結ボックスには、当該連結ボックスに含まれる複数のサブボックスのそれぞれに、予め定められた区切り文字により区切られた各文字であって、前記サブボックスに対応付けられた文字を前記入力用文字データとして合成し、
前記チェックボックスには、予め定められたチェックマークを前記入力用文字データとして合成する請求項2に記載の画像処理装置。
The image processing unit
In the standard box, one character is synthesized as the input character data,
In the connection box, each of the plurality of sub-boxes included in the connection box is a character separated by a predetermined delimiter, and the character associated with the sub-box is the input character. Synthesized as data,
The image processing apparatus according to claim 2, wherein a predetermined check mark is synthesized as the input character data in the check box.
表示部と、
前記記憶部に記憶されている前記テンプレートの一覧と、当該記憶部に記憶されている前記入力データファイルの一覧とを前記表示部に表示させる表示制御部と、
ユーザーからの操作指示により、前記テンプレートの前記一覧から選択された一つのテンプレートと、前記入力データファイルの前記一覧から選択された一つの入力データファイルとを受け付ける操作受付部とを更に備え、
前記操作受付部により前記一つのテンプレートと、前記一つの入力データファイルとの選択が受け付けられた場合に、前記画像処理部は、前記選択された一つのテンプレートが示す前記原稿画像における前記識別情報が示すボックスに指定された矩形を示す画像の領域内に、前記選択された一つの入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する請求項1乃至請求項3のいずれか1項に記載の画像処理装置。
A display unit;
A display control unit for displaying a list of the templates stored in the storage unit and a list of the input data files stored in the storage unit on the display unit;
An operation receiving unit that receives one template selected from the list of templates and one input data file selected from the list of input data files according to an operation instruction from a user;
When the selection of the one template and the one input data file is received by the operation receiving unit, the image processing unit displays the identification information in the document image indicated by the selected one template. In the region of the image indicating the rectangle specified in the box to be displayed, the input character data included in the selected one input data file and associated with the same identification information as the identification information is synthesized, The image processing apparatus according to claim 1, wherein a composite result image is created.
前記表示制御部は、前記画像処理部が作成した合成結果画像を前記表示部に表示させる請求項1乃至請求項4のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit causes the display unit to display a synthesis result image created by the image processing unit. 表示部と、
原稿の画像を読み取る画像読取部と、
前記画像読取部による読取で得られた原稿画像から矩形を示す画像を抽出して、当該矩形を示す画像の前記原稿画像における大きさ及び位置を検出する矩形抽出部と、
前記矩形抽出部によって抽出された矩形を示す画像に識別情報を順次割り振る識別情報割振部と、
前記原稿画像と、当該原稿画像において前記矩形抽出部によって抽出された矩形を示す画像を、前記表示部に表示させる表示制御部と、
ユーザーからの操作指示を受け付ける操作受付部と、
ユーザーから前記表示部に表示されている矩形を示す画像を、入力用文字データが入力される入力領域であるボックスとして指定する指定要求を前記操作受付部が受け付けた場合には、前記指定要求で前記ボックスに指定された矩形を示す画像と、当該矩形を示す画像の前記原稿画像における大きさ及び位置と、当該矩形を示す画像に割り振られた識別情報とを対応付けて、当該ボックスのボックス情報として作成するボックス情報作成部と、
記憶部と、
前記ボックス情報作成部が前記ボックス情報を作成した場合には、前記原稿画像と、当該ボックス情報とを含むテンプレートとして前記記憶部に記憶させる制御部と、
前記ネットワークを通じて、前記情報処理装置との間でデータを送受信する通信部と、
前記ネットワークを介して前記情報処理装置から前記ボックスに入力される入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを前記通信部を介して取得する入力用文字データ取得部と、
画像処理部と、を備え、
前記制御部は、前記入力用文字データ取得部が取得した前記入力用文字データと、当該入力用文字データに対応付けられた前記識別情報とを入力データファイルとして前記記憶部に記憶させ、
前記画像処理部は、前記テンプレートが示す前記原稿画像における前記識別情報が示すボックスに指定された矩形を示す画像の領域内に、前記入力データファイルに含まれ、当該識別情報と同じ識別情報に対応付けられた入力用文字データを合成処理して、合成結果画像を作成する、画像処理装置。
A display unit;
An image reading unit for reading an image of a document;
A rectangle extracting unit that extracts an image indicating a rectangle from the document image obtained by reading by the image reading unit, and detects a size and a position of the image indicating the rectangle in the document image;
An identification information allocating unit that sequentially allocates identification information to an image indicating a rectangle extracted by the rectangle extracting unit;
A display control unit that causes the display unit to display the document image and an image indicating a rectangle extracted by the rectangle extraction unit in the document image;
An operation reception unit for receiving operation instructions from the user;
When the operation accepting unit accepts a designation request for designating an image showing a rectangle displayed on the display unit from the user as a box that is an input area into which input character data is input, Box information of the box by associating an image indicating the rectangle specified in the box, a size and position of the image indicating the rectangle in the document image, and identification information allocated to the image indicating the rectangle A box information creation section to create as
A storage unit;
When the box information creating unit creates the box information, a control unit that stores the original image and a template including the box information in the storage unit;
A communication unit that transmits and receives data to and from the information processing apparatus through the network;
Input character data acquisition for acquiring input character data input to the box from the information processing apparatus via the network and the identification information associated with the input character data via the communication unit And
An image processing unit,
The control unit causes the storage unit to store the input character data acquired by the input character data acquisition unit and the identification information associated with the input character data as an input data file,
The image processing unit corresponds to the same identification information as the identification information included in the input data file within an image area indicating a rectangle designated by a box indicated by the identification information in the document image indicated by the template. An image processing apparatus for synthesizing input character data attached to create a synthesized result image.
請求項1乃至請求項6のいずれかに記載の画像処理装置と、
前記画像処理部によって作成された前記合成結果画像を記録媒体上に形成する画像形成部とを、備えた画像形成装置。
An image processing apparatus according to any one of claims 1 to 6,
An image forming apparatus comprising: an image forming unit that forms the combined result image created by the image processing unit on a recording medium.
JP2016234162A 2016-12-01 2016-12-01 Image processing apparatus and image forming apparatus Pending JP2018093337A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016234162A JP2018093337A (en) 2016-12-01 2016-12-01 Image processing apparatus and image forming apparatus
US15/813,834 US10270934B2 (en) 2016-12-01 2017-11-15 Image processing apparatus and image forming apparatus
CN201711189366.8A CN108132762B (en) 2016-12-01 2017-11-24 Image processing apparatus and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016234162A JP2018093337A (en) 2016-12-01 2016-12-01 Image processing apparatus and image forming apparatus

Publications (1)

Publication Number Publication Date
JP2018093337A true JP2018093337A (en) 2018-06-14

Family

ID=62566468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016234162A Pending JP2018093337A (en) 2016-12-01 2016-12-01 Image processing apparatus and image forming apparatus

Country Status (1)

Country Link
JP (1) JP2018093337A (en)

Similar Documents

Publication Publication Date Title
CN108132762B (en) Image processing apparatus and image forming apparatus
US10078476B2 (en) Image forming apparatus and image forming method
JP6066108B2 (en) Electronic document generation system and program
CN109587366A (en) Image forming apparatus
JP7224856B2 (en) Image generation device, image generation method, and program
JP2019109628A5 (en)
US8941875B2 (en) Image processing system, image processing method, and computer readable recording medium storing program thereof
JP2019109628A (en) Image processing apparatus
US9998622B2 (en) Image processing apparatus and control method for processing plurality of partial images and determining layout
US10949697B2 (en) Image processing apparatus and image forming apparatus
JP6885319B2 (en) Image processing device
JP6624027B2 (en) Image processing apparatus and image forming apparatus
JP2019109629A5 (en)
JP2018093337A (en) Image processing apparatus and image forming apparatus
JP2018093336A5 (en)
JP2018202719A (en) Image formation apparatus and image formation system
JP6511899B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND PROGRAM
JP6187366B2 (en) Image processing apparatus, image processing method, and program
JP7312357B2 (en) image forming device
JP2010109653A (en) Image reader, image forming apparatus, image reading method, and image reading program
US11849086B2 (en) Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index
JP6711316B2 (en) Image processing device communication and system
JP2017157981A (en) Electronic apparatus
JP2005157745A (en) Print system, print apparatus, print controller and print apparatus control program
JP3964901B2 (en) Image forming system