JP2011010227A - Information embedding device, input detector, information embedding method, input detection method, program and storage medium - Google Patents

Information embedding device, input detector, information embedding method, input detection method, program and storage medium Download PDF

Info

Publication number
JP2011010227A
JP2011010227A JP2009154110A JP2009154110A JP2011010227A JP 2011010227 A JP2011010227 A JP 2011010227A JP 2009154110 A JP2009154110 A JP 2009154110A JP 2009154110 A JP2009154110 A JP 2009154110A JP 2011010227 A JP2011010227 A JP 2011010227A
Authority
JP
Japan
Prior art keywords
image
input
unit
position information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009154110A
Other languages
Japanese (ja)
Inventor
Motohiro Kuroda
元宏 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009154110A priority Critical patent/JP2011010227A/en
Publication of JP2011010227A publication Critical patent/JP2011010227A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technique for allowing an input detecting device to detect input omission without registering an image of a ledger sheet to be printed in a database.SOLUTION: A ledger sheet generating application 110 generates an original ledger sheet image. An embedded information generating part 124 generates a dot image by using the original ledger sheet image and input position information. A superposed image generating part 125 superposes the dot image on the original ledger sheet image and generates a superposed image. A printing processing part 126 performs printing processing of the superposed image. A printer 14 prints the superposed image after printing processing on a printing medium. A scanner 131 reads the image written on the printing medium. An information extracting part 162 extracts the original ledger sheet image and the input position information from the image. An input detector 164 determines whether input fields are filled or not by comparing the read image and the original ledger sheet image by using the input position information. A detected image generating part 165 generates an image in response to the result of determination of the input detector 164.

Description

本発明は、情報埋込装置、入力検出装置、情報埋込方法、入力検出方法、プログラム及び記憶媒体に関する。   The present invention relates to an information embedding device, an input detection device, an information embedding method, an input detection method, a program, and a storage medium.

インターネットの普及によってオンラインによる申込や申請が増えてきてはいるが、受付業務においては、紙による申込書や申請書が未だに多く利用されている。これは、コンピュータ端末を操作できない人に配慮していることや、日本の押印という文化に起因していることも大きい。また、システムの開発と運用にかかわる費用や、停電やシステムの不具合が発生した際の対策も考慮すると、安価な紙という媒体に落ち着いているケースも多いと思われる。さて、これら申込書類や申請書類などの帳票には、普段書き慣れていない人々が記入することが多いため、どうしても間違いや記入漏れが発生しやすい。帳票に記入が必須の入力フィールドを大きく配置したり、色や枠を太くするなど目立つようにしたり、書き方の手本を置いたりするなど対策を行っているものの、間違いや漏れはどうしても発生してしまう。そのため、記入漏れが無いかを人が目視で検査する仕事が、非常に負担になっている。特に新人が配属されたり、帳票のレイアウトが変更されたりすると、業務効率が著しく低下し、間違いを見逃してしまい、システムに多大な影響を与えてしまう危険性がある。例えば書類を支店で受け付けて、本社でそのデータを登録するという業務フローにおいて、支店で入力チェックに不備があり、本社で記入漏れが発見されると、書類を支店に送り返して記入してもらい、本社に再度送付することになる。この場合、大きな時間的ロスが発生し、見積りや契約業務においては期限が過ぎてしまうという問題もはらんでいる。   Although online applications and applications are increasing due to the spread of the Internet, paper applications and applications are still widely used in reception work. This is largely due to considerations for those who cannot operate computer terminals and the culture of Japanese seals. In addition, considering the costs involved in system development and operation, as well as the measures to be taken in the event of a power outage or system failure, there are many cases where the paper is settled on an inexpensive paper medium. Now, because people who are not familiar with writing often fill out these forms such as application documents and application documents, mistakes and omissions are apt to occur. Although we have taken measures such as placing large input fields that must be filled in the form, making the colors and borders more prominent, putting examples of writing, etc., mistakes and omissions inevitably occur End up. For this reason, the task of visually inspecting whether there are omissions is very burdensome. In particular, when a new employee is assigned or the layout of the form is changed, there is a risk that the business efficiency is remarkably lowered, an error is missed, and the system is greatly affected. For example, in the business flow of accepting documents at the branch office and registering the data at the head office, if there is a deficiency in the input check at the branch office and an omission is found at the head office, the document will be sent back to the branch office for entry, It will be sent again to the head office. In this case, there is a problem that a large time loss occurs and the deadline is passed in the estimation and contract work.

近年では、帳票に記載された内容を画像としてスキャンして、当該画像にOCRを行い、書誌情報を自動的に抽出したり、入力フィールドの属性情報を自動的に作成したりする技術が開発されている(例えば特許文献1〜2参照)。そこで、このような技術において、記入が必須な入力フィールドをチェックする方法として、スキャンした画像に貼り付けられているバーコードや文字列を読み取って帳票番号を抽出し、抽出した帳票番号をキーにデータベースを検索し、帳票の入力フィールドの位置情報を取得して、スキャンした画像の位置情報に該当する領域に何か入力されているか調べる方法がある。また、バーコードやOCR処理を利用する代わりに、帳票上の罫線を認識してデータベースに登録されている帳票の画像を検索する方法などもある。このように、機械的に入力漏れを検出する技術として、入力検出装置が開発されている。   In recent years, a technology has been developed that scans the contents of a form as an image, performs OCR on the image, automatically extracts bibliographic information, and automatically creates input field attribute information. (For example, refer to Patent Documents 1 and 2). Therefore, in such a technique, as a method of checking the input fields that must be filled in, the bar code or character string pasted on the scanned image is read to extract the form number, and the extracted form number is used as a key. There is a method of searching a database, acquiring position information of an input field of a form, and checking whether something is input in an area corresponding to position information of a scanned image. Further, there is a method of recognizing ruled lines on a form and searching for a form image registered in a database instead of using a barcode or OCR processing. Thus, an input detection device has been developed as a technique for mechanically detecting an input leakage.

しかし、データベースを検索する技術では、入力検出装置に全てのデータベースが接続されていなければならず、しかも改定された全ての帳票の画像を保持しておかなければならない恐れがある。また検索時間もかかるという問題がある。また、保険契約書等、お客様の情報やお勧めプランなど予め印刷しておきたいケースでは、印刷する全ての帳票の画像をデータベースに登録しておくことは困難である。   However, in the technique of searching a database, all databases must be connected to the input detection device, and there is a possibility that images of all revised forms must be held. Another problem is that it takes a long time to search. Also, in cases such as insurance contracts where customer information or recommended plans are to be printed in advance, it is difficult to register images of all forms to be printed in the database.

本発明は、上記に鑑みてなされたものであって、印刷する対象の帳票の画像を入力検出装置においてデータベースに登録することなく、入力漏れを検出可能にするための情報埋込装置、入力検出装置、情報埋込方法、入力検出方法、プログラム及び記憶媒体を提供することを目的とする。   The present invention has been made in view of the above, and an information embedding device for enabling detection of an input omission without registering an image of a form to be printed in a database in the input detection device, and input detection An object is to provide an apparatus, an information embedding method, an input detection method, a program, and a storage medium.

上述した課題を解決し、目的を達成するために、本発明は、情報埋込装置であって、少なくとも1つの入力フィールドを含む画像を取得する画像取得手段と、前記画像取得手段が取得した前記画像に対して、情報量を減少させる画像処理を行う画像処理手段と、前記画像に含まれる前記入力フィールドの位置を表す入力位置情報を取得する入力位置情報取得手段と、前記画像処理手段が前記画像処理を行なった画像及び前記入力位置情報を用いて、変換画像を生成する変換画像生成手段と、前記画像取得手段が取得した前記画像に対して、前記変換画像生成手段が生成した前記変換画像を重畳した重畳画像を生成する重畳画像生成手段とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides an information embedding device, an image acquisition unit that acquires an image including at least one input field, and the image acquisition unit that acquires the image. Image processing means for performing image processing for reducing the amount of information on an image, input position information acquisition means for acquiring input position information representing the position of the input field included in the image, and the image processing means Using the image that has undergone image processing and the input position information, a converted image generating unit that generates a converted image, and the converted image generated by the converted image generating unit with respect to the image acquired by the image acquiring unit And a superimposed image generating means for generating a superimposed image on which is superimposed.

また、本発明は、入力検出装置であって、少なくとも1つの入力フィールドを含む第1画像を取得する検出画像取得手段と、前記検出画像取得手段が取得した前記第1画像に、変換画像として重畳された第2画像及び当該第1画像に含まれる前記入力フィールドの位置を表す入力位置情報を抽出する画像抽出手段と、前記画像抽出手段が抽出した前記第1画像と、前記検出画像取得手段が取得した前記第2画像とを用いて、前記画像抽出手段が取得した前記入力位置情報によって表される前記入力フィールドの位置における比較を行い、前記第1画像における前記入力フィールドにおける入力の有無を検出する入力有無検出手段とを備えることを特徴とする。   In addition, the present invention is an input detection device, wherein a detection image acquisition unit that acquires a first image including at least one input field, and a superimposed image superimposed on the first image acquired by the detection image acquisition unit Image extraction means for extracting the input second position image and input position information representing the position of the input field included in the first image, the first image extracted by the image extraction means, and the detected image acquisition means. Using the acquired second image, a comparison is made at the position of the input field represented by the input position information acquired by the image extraction means, and the presence or absence of input in the input field in the first image is detected. Input presence / absence detecting means.

また、本発明は、画像取得手段と、画像処理手段と、入力位置情報取得手段と、変換画像生成手段と、変換画像生成手段と、重畳画像生成手段とを備える情報埋込装置で実行される情報埋込方法であって、前記画像取得手段が、少なくとも1つの入力フィールドを含む画像を取得する画像取得ステップと、前記画像処理手段が、前記画像取得手段が取得した前記画像に対して、情報量を減少させる画像処理を行う画像処理ステップと、前記入力位置情報取得手段が、前記画像に含まれる前記入力フィールドの位置を表す入力位置情報を取得する入力位置情報取得ステップと、前記変換画像生成手段が、前記画像処理手段が前記画像処理を行なった画像及び前記入力位置情報を用いて、変換画像を生成する変換画像生成ステップと、前記重畳画像生成手段が、前記画像取得手段が取得した前記画像に対して、前記変換画像生成手段が生成した前記変換画像を重畳した重畳画像を生成する重畳画像生成ステップとを含むことを特徴とする。   In addition, the present invention is executed by an information embedding device including an image acquisition unit, an image processing unit, an input position information acquisition unit, a converted image generation unit, a converted image generation unit, and a superimposed image generation unit. An information embedding method, in which the image acquisition means acquires an image including at least one input field, and the image processing means performs information on the image acquired by the image acquisition means. An image processing step for performing image processing for reducing the amount; an input position information acquiring step for acquiring input position information representing a position of the input field included in the image; Means for generating a converted image using the image processed by the image processing means and the input position information; and the superimposed image Generating means to the image by the image acquisition unit has acquired, characterized in that it comprises a superimposed image generating step of the converted image generating means for generating a superimposed image obtained by superimposing the converted image generated is.

また、本発明は、検出画像取得手段と、画像抽出手段と、入力有無検出手段とを備える入力検出装置で実行される入力検出方法であって、前記検出画像取得手段が、少なくとも1つの入力フィールドを含む第1画像を取得する検出画像取得ステップと、前記画像抽出手段が、前記検出画像取得手段が取得した前記第1画像に、変換画像として重畳された第2画像及び当該第1画像に含まれる前記入力フィールドの位置を表す入力位置情報を抽出する画像抽出ステップと、前記入力有無検出手段が、前記画像抽出手段が抽出した前記第1画像と、前記検出画像取得手段が取得した前記第2画像とを用いて、前記画像抽出手段が取得した前記入力位置情報によって表される前記入力フィールドの位置における比較を行い、前記第1画像における前記入力フィールドにおける入力の有無を検出する入力有無検出ステップとを含むことを特徴とする。   The present invention is also an input detection method executed by an input detection apparatus including a detection image acquisition unit, an image extraction unit, and an input presence / absence detection unit, wherein the detection image acquisition unit includes at least one input field. A detection image acquisition step of acquiring a first image including a second image superimposed as a converted image on the first image acquired by the detection image acquisition unit, and the image extraction unit included in the first image An image extraction step for extracting input position information representing the position of the input field, the input presence / absence detecting means, the first image extracted by the image extracting means, and the second image acquired by the detected image acquiring means. A comparison is made at the position of the input field represented by the input position information acquired by the image extraction means, and Characterized in that it comprises an input presence detection step of detecting the presence or absence of an input in the input field.

また、本発明は、上記の方法をコンピュータに実行させるためのプログラムである。   Moreover, this invention is a program for making a computer perform said method.

また、本発明は、上記のプログラムを記憶したコンピュータ読み取り可能な記憶媒体である。   Further, the present invention is a computer-readable storage medium storing the above program.

本発明によれば、印刷する対象の帳票の画像を入力検出装置においてデータベースに登録することなく、入力漏れを検出可能になる。   According to the present invention, it is possible to detect an input omission without registering an image of a form to be printed in a database in an input detection device.

図1は、一実施の形態にかかる情報埋込装置に相当するPC100の構成及び入力検出装置に相当するPC150の構成を例示する図である。FIG. 1 is a diagram illustrating a configuration of a PC 100 corresponding to an information embedding device and a configuration of a PC 150 corresponding to an input detection device according to an embodiment. 図2は、原票画像を例示する図である。FIG. 2 is a diagram illustrating an original form image. 図3は、図2に示される原票画像に対してドット画像が重ねられた重畳画像を例示する図である。FIG. 3 is a diagram illustrating a superimposed image in which dot images are superimposed on the original form image shown in FIG. 図4は、重畳画像が生成されるまでの遷移を模式的に示す図である。FIG. 4 is a diagram schematically illustrating a transition until a superimposed image is generated. 図5は、スキャナ131に読み取られる帳票画像を例示する図である。FIG. 5 is a diagram illustrating a form image read by the scanner 131. 図6は、図5に例示された帳票画像からドット画像が除去された画像を例示する図である。FIG. 6 is a diagram illustrating an image obtained by removing the dot image from the form image illustrated in FIG. 図7は、印刷媒体に印刷される印刷用画像を例示する図である。FIG. 7 is a diagram illustrating a printing image printed on a printing medium. 図8は、PC100の行う情報埋込処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing a procedure of information embedding processing performed by the PC 100. 図9は、PC150が行なう入力検出処理の手順を示すフローチャートである。FIG. 9 is a flowchart showing a procedure of input detection processing performed by the PC 150. 図10は、一変形例にかかる入力検出処理の手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a procedure of input detection processing according to a modification. 図11は、一変形例にかかる入力検出処理の手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a procedure of input detection processing according to a modification.

以下に添付図面を参照して、この発明にかかる情報埋込装置、入力検出装置、情報埋込方法、入力検出方法、プログラム及び記憶媒体の実施の形態を詳細に説明する。   Exemplary embodiments of an information embedding device, an input detection device, an information embedding method, an input detection method, a program, and a storage medium according to the present invention will be explained below in detail with reference to the accompanying drawings.

図1は、本実施の形態にかかる情報埋込装置に相当するPC100の構成及び入力検出装置に相当するPC150の構成を例示する図である。まず、PC100の構成について説明する。PC100は、記憶部101と、操作入力受付部102と、表示制御部103と、制御部104とを有する。そして、PC100には、キーボード11やマウス12等の入力デバイスと、モニタ13と、プリンタ14とが接続される。入力デバイスには、ユーザからの操作が入力される。モニタ13は、液晶ディスプレイやCRTディスプレイ(Cathode Ray Tube) などであり、情報を表示する。プリンタ14は、画像を紙などの印刷媒体に印刷する。記憶部101は、画像などの各種データや各種プログラムを記憶する。また、記憶部101は、帳票を生成するためのフォーム情報や、帳票における各入力フィールドの位置を表す入力位置情報を記憶する。フォーム情報は、例えば、帳票を識別するための帳票番号、帳票の名称、帳票のレイアウト、各入力フィールドの名称及び各入力フィールドの位置を表す。各入力フィールドは、帳票において矩形領域によって定義される。このため、各入力フィールドの位置は、例えば、帳票の全部又は一部の面を2次元座標とした場合、矩形領域の4点の座標値や、又は、矩形領域のうち1点の座標値、高さ及び幅などによって表される。本実施の形態においては、このようにして表される入力フィールドの位置を入力位置情報は表すと共に、入力フィールドの名称と、各入力フィールドの組合せ及び入力を必須とする条件(入力必須条件という)とを入力位置情報は更に表す。入力必須条件については後述する。このような入力位置情報は例えばXML(Extensible Markup Language)などの簡易言語で記述され、帳票番号と対応付けられて記憶部101に記憶される。制御部104は、CPU(Central Processing Unit)等で構成され、記憶部101に記憶された各種プログラムを実行することにより、装置全体を制御する。制御部104が各種プログラムを実行することにより実現される機能の実体としては、同図に示されるように、帳票生成アプリケーション110と、プリンタドライバ120とがある。操作入力受付部102は、入力デバイスを介して帳票作成者の操作入力を受け付ける。表示制御部103は、制御部104の制御の下、モニタ13への情報の表示を制御する。   FIG. 1 is a diagram illustrating a configuration of a PC 100 corresponding to the information embedding device according to the present embodiment and a configuration of a PC 150 corresponding to an input detection device. First, the configuration of the PC 100 will be described. The PC 100 includes a storage unit 101, an operation input receiving unit 102, a display control unit 103, and a control unit 104. An input device such as a keyboard 11 and a mouse 12, a monitor 13, and a printer 14 are connected to the PC 100. An operation from the user is input to the input device. The monitor 13 is a liquid crystal display, a CRT display (Cathode Ray Tube) or the like, and displays information. The printer 14 prints an image on a print medium such as paper. The storage unit 101 stores various data such as images and various programs. The storage unit 101 also stores form information for generating a form and input position information indicating the position of each input field in the form. The form information represents, for example, a form number for identifying a form, a form name, a form layout, a name of each input field, and a position of each input field. Each input field is defined by a rectangular area in the form. For this reason, the position of each input field is, for example, the coordinate value of four points in the rectangular area or the coordinate value of one point in the rectangular area when all or part of the surface of the form is a two-dimensional coordinate. Expressed by height and width. In the present embodiment, the input position information represents the position of the input field represented in this way, and the input field name, the combination of each input field, and the condition that requires input (referred to as input-required condition) The input position information further represents. The required input conditions will be described later. Such input position information is described in a simple language such as XML (Extensible Markup Language), and is stored in the storage unit 101 in association with the form number. The control unit 104 is configured by a CPU (Central Processing Unit) or the like, and controls the entire apparatus by executing various programs stored in the storage unit 101. Examples of functions realized by the control unit 104 executing various programs include a form generation application 110 and a printer driver 120, as shown in FIG. The operation input receiving unit 102 receives an operation input from the form creator via the input device. The display control unit 103 controls the display of information on the monitor 13 under the control of the control unit 104.

帳票生成アプリケーション110は、記憶部101に記憶されたフォーム情報を用いて、帳票の原票の画像(原票画像という)を生成して、生成した原票画像を表示制御部103を介してモニタ13に表示させる。図2は、原票画像を例示する図である。同図においては、「住所」、「世帯主」、「生年月日」、「必要な方」、「続柄」、「氏名」、「レ印」、「レ印に対応する通数」及び「請求理由」が入力フィールドである。このうち、入力が必須となるのは、「住所」、「世帯主」、「生年月日」、「レ印」、「レ印に対応する通数」及び「請求理由」であり、「必要な方」に入力がされている場合にはそれに続く「続柄」及び「氏名」の入力が必要になる。このように入力が必須な入力フィールド及び入力が必須になるときの入力フィールドの組み合わせが上述の入力必須条件として入力位置情報によって表される。モニタ13に表示されたこのような原票画像を帳票作成者は確認しながら、キーボード11またはマウス12を操作して、情報の追加や変更などの修正の入力を行うと、帳票生成アプリケーション110は、操作入力受付部102を介して当該操作の入力(操作入力)を受け付け、原票画像に対して操作入力に応じた修正を適宜行なって、原票画像を更新する。ここでの入力は、入力フィールドへの入力ではなく、帳票の原票自体に対する修正の入力である。このような修正の入力はなくても良い。帳票生成アプリケーション110は、生成又は更新した原票画像と当該帳票における入力位置情報とをプリンタドライバ120へ渡す。尚、入力フィールド位置情報は、記憶部101に一旦記憶された後、記憶部101からプリンタドライバ120がこれを読み出すことにより、プリンタドライバ120へ渡される。   The form generation application 110 uses the form information stored in the storage unit 101 to generate a form original image (referred to as an original form image), and displays the generated original form image on the monitor 13 via the display control unit 103. Let FIG. 2 is a diagram illustrating an original form image. In the figure, “address”, “household”, “birth date”, “necessary person”, “relationship”, “name”, “remark”, “number corresponding to reprint” and “ "Billing reason" is an input field. Of these, the “address”, “household”, “date of birth”, “remark”, “number of mails corresponding to reprint”, and “reason for billing” are mandatory. If "Nana" is entered, then the following "Relationship" and "Name" must be entered. Thus, the combination of the input field in which the input is essential and the input field when the input becomes essential is represented by the input position information as the above-mentioned input essential condition. When the form creator operates the keyboard 11 or the mouse 12 and inputs corrections such as addition or change of information while checking the original image displayed on the monitor 13, the form generation application 110 The input (operation input) of the operation is received via the operation input receiving unit 102, and the original image is updated by appropriately modifying the original image according to the operation input. The input here is not an input to the input field, but an input for correcting the original form of the form itself. There is no need to input such correction. The form generation application 110 passes the generated or updated original form image and input position information on the form to the printer driver 120. The input field position information is temporarily stored in the storage unit 101, and then transferred to the printer driver 120 when the printer driver 120 reads it from the storage unit 101.

画像取得部121は、帳票生成アプリケーション110から渡された原票画像を取得する。圧縮部122は、画像取得部121が取得した原票画像に対してZip等による圧縮処理を行い、当該原票画像を圧縮する。これにより当該原票画像の情報量を減少させる。入力位置取得部123は、記憶部101から入力位置情報を読み出すことにより、これを取得する。埋込情報生成部124は、圧縮部122が圧縮した原票画像及び入力位置取得部123が取得した入力位置情報を用いて、ドット画像を生成する。即ち、埋込情報生成部124は、圧縮された原票画像及び入力位置情報を、画像取得部121が取得した原票画像に埋め込むための情報としてドット画像(変換画像)を生成する。尚、埋込情報生成部124が、圧縮された原票画像及び入力位置情報を用いてドット画像を生成する方法は、特に限定されず、例えば、特開2007−5935号公報に示される方法であって良い。重畳画像生成部125は、画像取得部121が取得した原票画像と、埋込情報生成部124が生成したドット画像とを重畳し、重畳画像を生成する。この結果、画像取得部121が取得した原票画像に、圧縮された原票画像及び入力位置情報がドット画像として埋め込まれる。   The image acquisition unit 121 acquires the original form image passed from the form generation application 110. The compression unit 122 performs a compression process using Zip or the like on the original form image acquired by the image acquisition unit 121 and compresses the original form image. As a result, the information amount of the original form image is reduced. The input position acquisition unit 123 acquires the input position information by reading the input position information from the storage unit 101. The embedding information generation unit 124 generates a dot image using the original form image compressed by the compression unit 122 and the input position information acquired by the input position acquisition unit 123. That is, the embedding information generation unit 124 generates a dot image (converted image) as information for embedding the compressed original form image and input position information in the original form image acquired by the image acquisition unit 121. Note that the method by which the embedding information generation unit 124 generates the dot image using the compressed original form image and the input position information is not particularly limited, and is, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2007-5935. Good. The superimposed image generation unit 125 superimposes the original form image acquired by the image acquisition unit 121 and the dot image generated by the embedding information generation unit 124 to generate a superimposed image. As a result, the compressed original image and the input position information are embedded as dot images in the original image acquired by the image acquisition unit 121.

印刷処理部126は、重畳画像生成部125が生成した重畳画像をプリンタ言語で表される画像(印刷用画像という)に変換するなどの印刷処理を行い、印刷用画像をプリンタ14へ渡す。プリンタ14は、印刷処理部126から渡された印刷用画像を印刷媒体に印刷する。この結果、例えば、図3に示される画像が、印刷される。同図に示される画像は、図2に示される原票画像に対して、ドット画像が重ねられている。尚、このような画像が印刷された印刷媒体を帳票という。この帳票はコピー機やMFP(複合機)で複製することができる。   The print processing unit 126 performs a printing process such as converting the superimposed image generated by the superimposed image generation unit 125 into an image (referred to as a printing image) expressed in a printer language, and passes the printing image to the printer 14. The printer 14 prints the print image passed from the print processing unit 126 on a print medium. As a result, for example, the image shown in FIG. 3 is printed. In the image shown in the figure, a dot image is superimposed on the original form image shown in FIG. A print medium on which such an image is printed is called a form. This form can be copied by a copier or MFP (multifunction machine).

図4は、重畳画像が生成されるまでの遷移を模式的に示す図である。同図の(a)に示される原票画像が、帳票生成アプリケーション110によって生成され、これと、同図の(b)に示される入力位置情報とが用いられて、同図の(c)に示されるドット画像が埋込情報生成部124によって生成され、これと、同図の(a)に示される原票画像とが重畳画像生成部125によって重畳され、同図の(d)に示される重畳画像が生成される。この重畳画像が印刷された印刷媒体が帳票となる。このような帳票の各入力フィールドに帳票利用者が入力をして、PC150で入力漏れの検出を行なう。   FIG. 4 is a diagram schematically illustrating a transition until a superimposed image is generated. The original form image shown in (a) of the figure is generated by the form generation application 110, and this and the input position information shown in (b) of the figure are used, and shown in (c) of the figure. A dot image to be generated is generated by the embedding information generation unit 124, and this and the original form image shown in (a) of the figure are superimposed by the superimposed image generation unit 125, and the superimposed image shown in (d) of the figure Is generated. A print medium on which the superimposed image is printed becomes a form. A form user inputs each entry field of such a form, and the PC 150 detects an input omission.

次に、PC150の構成について説明する。PC150は、記憶部151と、操作入力受付部152と、表示制御部154と、制御部155とを有する。そして、PC150は、スキャナ131と、キーボード132やマウス133等の入力デバイスと、モニタ135と、プリンタ134とが接続される。入力デバイス、モニタ135及びプリンタ134は、PC100に接続される入力デバイス、モニタ13及びプリンタ14と各々略同様であるため、その説明を省略する。また、記憶部151、操作入力受付部152及び表示制御部154についても、PC100の有する記憶部101、操作入力受付部102及び表示制御部103と各々略同様であるため、その説明を省略する。スキャナ131は、図示しない原稿載置台にセットされた帳票に表される画像(帳票画像という)を読み取り、これを制御部155に渡す。図5は、スキャナ131に読み取られる帳票画像を例示する図である。同図に示される帳票画像においては、住所、世帯主、レ印及び請求理由の各入力フィールドに入力がされている。制御部155は、CPU(Central Processing Unit)等で構成され、記憶部151に記憶された各種プログラムを実行することにより、装置全体を制御する。制御部155が各種プログラムを実行することにより実現される機能の実体としては、図1に示されるように、プリンタドライバ153と、検出画像取得部161と、情報抽出部162と、比較画像生成部163と、入力検出部164と、検出画像生成部165と、印刷処理部166と、表示処理部167とがある。   Next, the configuration of the PC 150 will be described. The PC 150 includes a storage unit 151, an operation input reception unit 152, a display control unit 154, and a control unit 155. The PC 150 is connected to a scanner 131, input devices such as a keyboard 132 and a mouse 133, a monitor 135, and a printer 134. The input device, the monitor 135, and the printer 134 are substantially the same as the input device, the monitor 13, and the printer 14 connected to the PC 100, and thus description thereof is omitted. The storage unit 151, the operation input reception unit 152, and the display control unit 154 are also substantially the same as the storage unit 101, the operation input reception unit 102, and the display control unit 103 of the PC 100, and thus description thereof is omitted. The scanner 131 reads an image (referred to as a “form image”) represented on a form set on a document placement table (not shown), and passes this to the control unit 155. FIG. 5 is a diagram illustrating a form image read by the scanner 131. In the form image shown in the figure, input is made in the input fields for address, householder, stamp, and billing reason. The control unit 155 is configured by a CPU (Central Processing Unit) or the like, and controls the entire apparatus by executing various programs stored in the storage unit 151. As functions of the functions realized by the control unit 155 executing various programs, as shown in FIG. 1, a printer driver 153, a detected image acquisition unit 161, an information extraction unit 162, and a comparison image generation unit 163, an input detection unit 164, a detection image generation unit 165, a print processing unit 166, and a display processing unit 167.

検出画像取得部161は、スキャナ131が帳票から読み取った帳票画像を取得し、これを記憶部151に記憶させる。情報抽出部162は、記憶部151に記憶された帳票画像を取得し、当該帳票画像に重畳されたドット画像を解析して、当該ドット画像によって帳票画像に埋め込まれている情報として、圧縮されている画像及び入力位置情報を抽出する。尚、情報抽出部162が、ドット画像を解析して情報を抽出する方法は、特に限定されず、特開2007−5935号広報に示される方法であって良い。比較画像生成部163は、情報抽出部162が抽出した画像を伸張する。これにより原票画像を復元して、当該原票画像の情報量を復元させる。この結果、例えば、図2に示されるような原票画像が得られる。また、比較画像生成部163は、記憶部151に記憶されている帳票画像(例えば図5参照)に対して孤立点除去処理を行い、当該帳票画像に対して重畳されているドット画像を除去する。この結果、例えば、図6に示されるような画像が得られる。同図に示される画像は、図5に例示された帳票画像から、ドット画像が除去されたものである。   The detected image acquisition unit 161 acquires a form image read from the form by the scanner 131 and stores the form image in the storage unit 151. The information extraction unit 162 acquires the form image stored in the storage unit 151, analyzes the dot image superimposed on the form image, and is compressed as information embedded in the form image by the dot image. Image and input position information are extracted. Note that a method by which the information extraction unit 162 extracts information by analyzing the dot image is not particularly limited, and may be a method disclosed in Japanese Unexamined Patent Application Publication No. 2007-5935. The comparison image generation unit 163 expands the image extracted by the information extraction unit 162. Thereby, the original form image is restored, and the information amount of the original form image is restored. As a result, for example, an original form image as shown in FIG. 2 is obtained. Further, the comparison image generation unit 163 performs isolated point removal processing on the form image (see, for example, FIG. 5) stored in the storage unit 151, and removes the dot image superimposed on the form image. . As a result, for example, an image as shown in FIG. 6 is obtained. The image shown in the figure is obtained by removing the dot image from the form image illustrated in FIG.

入力検出部164は、比較画像生成部163が伸長した原票画像(例えば図2参照)と、比較画像生成部163がドット画像を除去した帳票画像(例えば図6参照)とにおいて、情報抽出部162が抽出した入力位置情報によって表される入力必須条件に従って、入力位置情報によってその位置が表される入力フィールドにおける画像を各々比較する。具体的には、入力フィールドの定義されている矩形領域が入力位置情報によって判断することができるから、入力検出部164は、前者の画像と後者の画像との各々において、入力が必須である入力フィールドの矩形領域内の画像が一致するか否かを判断する。入力フィールドが複数ある場合には、このような判断を入力フィールド毎に入力検出部164は行なう。そして、前者の画像と後者の画像とが一致する、即ち、変化がない場合は、入力検出部164は、当該入力フィールドに入力がされていない、即ち、入力漏れであると判断し、前者の画像と後者の画像とが一致しない場合は、当該入力フィールドに入力がされていると判断する。以上のようにして入力検出部164は入力漏れを検出する。   The input detection unit 164 includes an information extraction unit 162 in the original form image (see, for example, FIG. 2) expanded by the comparative image generation unit 163 and the form image (see, for example, FIG. 6) from which the comparative image generation unit 163 has removed the dot image. Each of the images in the input field whose position is represented by the input position information is compared in accordance with the input requirement condition represented by the input position information extracted by. Specifically, since the rectangular area in which the input field is defined can be determined based on the input position information, the input detection unit 164 requires input in each of the former image and the latter image. It is determined whether the images in the rectangular area of the field match. When there are a plurality of input fields, the input detection unit 164 makes such a determination for each input field. When the former image matches the latter image, that is, when there is no change, the input detection unit 164 determines that no input is made in the input field, that is, an input omission, and the former image. If the image and the latter image do not match, it is determined that an input has been made in the input field. As described above, the input detection unit 164 detects input leakage.

検出画像生成部165は、比較画像生成部163がドット画像を除去した帳票画像において、入力がされていないと入力検出部164が判断した入力フィールドの矩形領域に対してドット画像を重畳する画像加工を行い、重畳画像を生成する。この場合のドット画像は情報を埋め込むためのものではなく、入力がされていない入力フィールドを識別可能にするためであり、ユーザに視認可能にするためものである。このような重畳画像は、入力がされたと入力検出部164が判断した入力フィールド及び入力がされていないと入力検出部164が判断した入力フィールドのうち少なくとも一方を識別可能な判断結果情報である。   The detected image generation unit 165 superimposes the dot image on the rectangular area of the input field that the input detection unit 164 has determined that no input has been made in the form image from which the comparison image generation unit 163 has removed the dot image. To generate a superimposed image. The dot image in this case is not for embedding information, but for identifying an input field that has not been input, and for making it visible to the user. Such a superimposed image is determination result information capable of identifying at least one of the input field determined by the input detection unit 164 as input and the input field determined by the input detection unit 164 as not input.

印刷処理部166は、ユーザがキーボード132またはマウス133である入力デバイスを介して印刷を指示する操作入力を行い、当該操作入力を操作入力受付部152が受け付けた場合、検出画像生成部165が生成した重畳画像をプリンタドライバ153へ渡して、当該重畳画像の印刷を指示する。プリンタドライバ153は、印刷処理部166から渡された重畳画像をプリンタ言語で表される画像(印刷用画像)に変換するなどの印刷処理を行い、印刷用画像をプリンタ134へ渡す。プリンタ134は、プリンタドライバ153から渡された印刷用画像を印刷媒体に印刷する。この結果、例えば、図7に示される画像が、印刷される。同図に示される画像は、図6に示される帳票画像に対して、入力漏れが生じている世帯主の生年月日及び通数などの入力フィールドに、矩形状のドット画像が重ねられている。これにより、入力漏れが生じている入力フィールドをユーザが容易に視認することができる。   The print processing unit 166 performs an operation input instructing printing by the user via the input device that is the keyboard 132 or the mouse 133, and when the operation input reception unit 152 receives the operation input, the detection image generation unit 165 generates the operation input. The superposed image is transferred to the printer driver 153, and printing of the superposed image is instructed. The printer driver 153 performs print processing such as converting the superimposed image received from the print processing unit 166 into an image (print image) expressed in the printer language, and passes the print image to the printer 134. The printer 134 prints the print image passed from the printer driver 153 on a print medium. As a result, for example, the image shown in FIG. 7 is printed. In the image shown in the figure, a rectangular dot image is superimposed on an input field such as the date of birth and the number of mails of the householder who has an input omission in the form image shown in FIG. . Thereby, the user can easily visually recognize the input field where the input leakage has occurred.

次に、本実施の形態にかかるPC100の行う情報埋込処理の手順について図8を用いて説明する。PC100は、帳票生成アプリケーション110の機能により、フォーム情報を用いて生成し適宜更新した原票画像と入力位置情報とをプリンタドライバ120に渡す(ステップS1)。次に、PC100は、プリンタドライバ120の画像取得部121の機能により、ステップS1で渡された原票画像を取得する(ステップS2)。そして、PC100は、圧縮部122の機能により、ステップS2で取得された原票画像を圧縮する。また、PC100は、入力位置取得部123の機能により、ステップS1で渡された入力位置情報を取得する(ステップS4)。次いで、PC100は、埋込情報生成部124の機能により、ステップS3で圧縮された原票画像と、ステップS4で取得された入力位置情報とを用いて、原票画像に埋め込むための情報として、ドット画像を生成する(ステップS5)。そして、PC100は、重畳画像生成部125の機能により、ステップS3で圧縮された原票画像と、ステップS5で変換されたドット画像とを重畳し、重畳画像を生成する(ステップS6)。次いで、PC100は、印刷処理部126の機能により、ステップS6で生成された重畳画像を用いて印刷処理を行い、プリンタ14が当該重畳画像を印刷媒体に印刷する(ステップS7)。   Next, the procedure of information embedding processing performed by the PC 100 according to the present embodiment will be described with reference to FIG. The PC 100 uses the function of the form generation application 110 to pass the original form image generated by using the form information and appropriately updated to the printer driver 120 (step S1). Next, the PC 100 acquires the original slip image passed in step S1 by the function of the image acquisition unit 121 of the printer driver 120 (step S2). Then, the PC 100 compresses the original form image acquired in step S <b> 2 by the function of the compression unit 122. Further, the PC 100 acquires the input position information passed in step S1 by the function of the input position acquisition unit 123 (step S4). Next, the PC 100 uses the function of the embedding information generation unit 124 to use a dot image as information to be embedded in the original image using the original image compressed in step S3 and the input position information acquired in step S4. Is generated (step S5). Then, the PC 100 uses the function of the superimposed image generation unit 125 to superimpose the original form image compressed in step S3 and the dot image converted in step S5 to generate a superimposed image (step S6). Next, the PC 100 performs print processing using the superimposed image generated in step S6 by the function of the print processing unit 126, and the printer 14 prints the superimposed image on a print medium (step S7).

次に、以上のようにしてPC100が生成した重畳画像が印刷された印刷媒体(帳票)を用いてPC150が行なう入力検出処理の手順について図9を用いて説明する。帳票利用者が帳票に記入(入力)をして、帳票を原稿載置台にセットした後、キーボード132またはマウス133の入力デバイスにおいて画像の読取を指示する操作入力を行なうと、操作入力受付部152の機能により、当該操作入力を受け付け、スキャナ131が、原稿載置台にセットされた帳票によって表される画像(帳票画像)を読み取り、これを制御部155に渡す。ここで読み取られた帳票画像は、例えば、図5に示される。そして、PC150は、制御部155の検出画像取得部161の機能により、スキャナ131から渡された帳票画像を取得してこれを記憶部151に記憶させる(ステップS11)。次に、PC150は、情報抽出部162の機能により、ステップS11で取得され記憶部151に記憶された帳票画像を取得し、当該帳票画像に重畳されたドット画像を解析して、当該ドット画像によって帳票画像に埋め込まれている情報として、圧縮されている原票画像及び入力位置情報を抽出する(ステップS12)。そして、PC150は、比較画像生成部163の機能により、ステップS12で抽出された原票画像を伸長する(ステップS13)。この原票画像は、例えば、図2に示される。また、PC150は、記憶部151に記憶されている帳票画像(例えば図5参照)に対して孤立点除去処理を行い、当該帳票画像に対して重畳されているドット画像を除去する。この画像は、例えば、図6に示される。次いで、PC150は、入力検出部164の機能により、ステップS13で伸長された原票画像と、ステップS13でドット画像が除去された帳票画像とにおいて、ステップS12で抽出された入力位置情報によって表される入力必須条件に従って、入力位置情報によってその位置が表される入力フィールドの矩形領域内における画像を各々比較して、入力が必須である各入力フィールドにおける入力の有無を判断する(ステップS14)。   Next, the procedure of input detection processing performed by the PC 150 using the print medium (form) on which the superimposed image generated by the PC 100 as described above is printed will be described with reference to FIG. When the form user fills in (inputs) the form, sets the form on the document table, and performs an operation input for instructing reading of an image using the keyboard 132 or the input device of the mouse 133, the operation input receiving unit 152 With this function, the operation input is received, and the scanner 131 reads an image (form image) represented by the form set on the document placing table and passes it to the control unit 155. The form image read here is shown in FIG. 5, for example. Then, the PC 150 acquires the form image passed from the scanner 131 by the function of the detected image acquisition unit 161 of the control unit 155, and stores it in the storage unit 151 (step S11). Next, the PC 150 acquires the form image acquired in step S11 and stored in the storage unit 151 by the function of the information extraction unit 162, analyzes the dot image superimposed on the form image, and uses the dot image as a result. As the information embedded in the form image, the compressed original form image and input position information are extracted (step S12). Then, the PC 150 expands the original form image extracted in step S12 by the function of the comparison image generation unit 163 (step S13). This original form image is shown in FIG. 2, for example. Further, the PC 150 performs isolated point removal processing on the form image (see, for example, FIG. 5) stored in the storage unit 151, and removes the dot image superimposed on the form image. This image is shown in FIG. 6, for example. Next, the PC 150 is represented by the input position information extracted in step S12 in the original form image expanded in step S13 and the form image from which the dot image has been removed in step S13 by the function of the input detection unit 164. In accordance with the input requirement conditions, the images in the rectangular area of the input field whose position is represented by the input position information are respectively compared to determine whether there is an input in each input field for which input is essential (step S14).

例えば、図2と図6とを例にすると、「住所」、「世帯主」、「生年月日」、「レ印」、「レ印に対応する通数」及び「請求理由」の各入力フィールドについて、PC150は、各入力フィールドの矩形領域内の画像を各々比較する。また、PC150は、「必要な方」の各入力フィールドについて各入力フィールドの矩形領域内の画像を比較してこれらが一致しない場合には、「必要な方」に入力がされているということである。この場合、PC150は、更に、「続柄」及び「氏名」各入力フィールドについて各入力フィールドの矩形領域内の画像を比較して、入力の有無を判断する。「必要な方」の各入力フィールドについて各入力フィールドの矩形領域内の画像が一致する場合には、「必要な方」に入力がされていないということである。この場合、PC150は、「続柄」及び「氏名」の各入力フィールドについては入力の有無を判断しない。   For example, in FIG. 2 and FIG. 6, each input of “address”, “household owner”, “date of birth”, “remark”, “number corresponding to reprint”, and “request reason” For the field, the PC 150 compares the images in the rectangular area of each input field. In addition, the PC 150 compares the images in the rectangular area of each input field for each “necessary” input field, and if these do not match, the PC 150 has input to the “necessary one”. is there. In this case, the PC 150 further compares the images in the rectangular area of each input field for each of the “continuation pattern” and “name” input fields to determine whether or not there is an input. If the images in the rectangular area of each input field match for each “necessary one” input field, this means that the “necessary one” has not been input. In this case, the PC 150 does not determine whether or not there is an input for each of the “continuation pattern” and “name” input fields.

その後、PC150は、検出画像生成部165の機能により、ステップS13でドット画像が除去された帳票画像において入力がされていないとステップS14で判断された入力フィールドの矩形領域に対してドット画像を重畳し、重畳画像を生成する(ステップS15)。そして、帳票利用者がキーボード132またはマウス133である入力デバイスを介して重畳画像の印刷を指示する操作入力を行った場合、PC150は、操作入力受付部152の機能により、当該操作入力を受け付け(ステップS16:YES)、印刷処理部166を介してプリンタドライバ153の機能により、ステップS15で生成された重畳画像を用いて印刷処理を行い、印刷処理後の重畳画像(印刷用画像)をプリンタ134が印刷媒体に印刷する(ステップS17)。この結果、例えば図7に示される画像が印刷される。   Thereafter, the PC 150 superimposes the dot image on the rectangular area of the input field determined in step S14 that no input is made in the form image from which the dot image has been removed in step S13 by the function of the detected image generation unit 165. Then, a superimposed image is generated (step S15). When the form user performs an operation input for instructing the printing of the superimposed image via the input device that is the keyboard 132 or the mouse 133, the PC 150 receives the operation input by the function of the operation input receiving unit 152 ( In step S16: YES), the print driver 153 functions through the print processing unit 166 to perform print processing using the superimposed image generated in step S15, and the superimposed image (print image) after the print processing is printed on the printer 134. Prints on the print medium (step S17). As a result, for example, the image shown in FIG. 7 is printed.

以上のように、帳票の原票の画像を印刷する際に当該画像に当該画像と入力位置情報とを併せて埋め込んで印刷する。そして、印刷された帳票にユーザが入力したものをスキャナにより画像として読み取り、埋め込まれた画像と入力位置情報を抽出し、入力位置情報に従って、スキャナにより読み取った画像と、埋め込まれた画像とを用いて比較を行い、変化がない入力フィールドを入力漏れとして判断する。このような構成によれば、帳票の画像を読み取る装置側でデータベースを必要とせず、スタンドアローン環境においても入力漏れの検出が可能となる。従って、保険契約書等それぞれ印刷する対象の帳票の種類が異なっても、入力漏れを検出するためのシステムの肥大化を抑制することができる。   As described above, when printing the image of the original form of the form, the image and the input position information are embedded in the image and printed. Then, what the user inputs to the printed form is read as an image by the scanner, the embedded image and the input position information are extracted, and the image read by the scanner and the embedded image are used according to the input position information. The input field with no change is judged as an input omission. According to such a configuration, it is possible to detect an input omission even in a stand-alone environment without requiring a database on the device side that reads the image of the form. Therefore, even if the types of forms to be printed, such as insurance contracts, are different, it is possible to suppress the enlargement of the system for detecting an input omission.

また、入力漏れが生じている入力フィールドの部分に画像加工を行なって、帳票の画像を印刷することで、入力漏れが生じている入力フィールドを帳票利用者が容易に視認可能となる。   Further, by performing image processing on the input field portion where the input omission has occurred and printing the image of the form, the form user can easily see the input field in which the input omission has occurred.

また、入力位置情報が、入力フィールドの位置の他、入力が必須となる条件を表すようにしたため、入力が必須な入力フィールドに対してのみ入力の有無を判断することができる。このため、入力漏れをより効果的に検出することができる。   In addition, since the input position information represents the condition that the input is essential in addition to the position of the input field, it is possible to determine whether or not there is an input only to the input field that requires the input. For this reason, input leakage can be detected more effectively.

[変形例]
なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に例示するような種々の変形が可能である。
[Modification]
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Further, various modifications as exemplified below are possible.

<変形例1>
上述した実施の形態において、PC100で実行される各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また当該各種プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。PC150についても同様である。
<Modification 1>
In the embodiment described above, various programs executed on the PC 100 may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The various programs are recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, and a DVD (Digital Versatile Disk) in a file in an installable or executable format. May be configured to be provided. The same applies to the PC 150.

<変形例2>
上述の実施の形態では、情報埋込装置としてPC100を例示し、PC100にキーボード11、マウス12、モニタ13及びプリンタ14が接続される構成であったが、これに限らず、情報埋込装置は、PC100、キーボード11、マウス12、モニタ13及びプリンタ14が一体化された1台のマルチファンクションプリンタ(MFP)で構成されていても良い。
<Modification 2>
In the above-described embodiment, the PC 100 is exemplified as the information embedding device, and the keyboard 11, the mouse 12, the monitor 13, and the printer 14 are connected to the PC 100. However, the information embedding device is not limited to this. The PC 100, the keyboard 11, the mouse 12, the monitor 13, and the printer 14 may be integrated into a single multifunction printer (MFP).

入力検出装置としてPC150を例示し、PC150にスキャナ131、キーボード132、マウス133、プリンタ134及びモニタ135が接続される構成であったが、これに限らず、入力検出装置は、PC150、スキャナ131、キーボード132、マウス133、プリンタ134及びモニタ135が一体化された1台のマルチファンクションプリンタ(MFP)で構成されていても良い。   The PC 150 is exemplified as the input detection device, and the scanner 131, the keyboard 132, the mouse 133, the printer 134, and the monitor 135 are connected to the PC 150. However, the present invention is not limited to this, and the input detection device includes the PC 150, the scanner 131, The keyboard 132, the mouse 133, the printer 134, and the monitor 135 may be integrated into a single multifunction printer (MFP).

<変形例3>
上述の実施の形態では、PC100の帳票生成アプリケーション110は、帳票を生成する専用のソフトウェアであっても良いし、マイクロソフト(登録商標)のWordやExcel等の文書作成のためのソフトウェアであっても良い。
<Modification 3>
In the above-described embodiment, the form generation application 110 of the PC 100 may be dedicated software for generating a form, or may be software for creating a document such as Microsoft (registered trademark) Word or Excel. good.

<変形例4>
上述の実施の形態では、PC150の検出画像生成部165が生成した重畳画像に対して印刷処理を行い、印刷処理後の重畳画像(印刷用画像)を印刷媒体に印刷するようにしたが、これに限らず、検出画像生成部165が生成した重畳画像を表示処理部167がモニタ135に表示させるようにしても良い。図10は、本変形例にかかる入力検出処理の手順を示すフローチャートである。ステップS11〜S15は上述の実施の形態と同様である。ステップS15の後、帳票利用者がキーボード132またはマウス133である入力デバイスを介して帳票画像の表示を指示する操作入力を行った場合、PC150は、操作入力受付部152の機能により、当該操作入力を受け付け(ステップS20:YES)、表示処理部167の機能により、ステップS15で生成された重畳画像を、表示制御部154を介してモニタ135に表示させる(ステップS21)。
<Modification 4>
In the above-described embodiment, print processing is performed on the superimposed image generated by the detection image generation unit 165 of the PC 150, and the superimposed image (printing image) after the printing processing is printed on the print medium. However, the display processing unit 167 may cause the monitor 135 to display the superimposed image generated by the detection image generation unit 165. FIG. 10 is a flowchart showing the procedure of the input detection process according to this modification. Steps S11 to S15 are the same as in the above-described embodiment. After step S <b> 15, when the form user performs an operation input for instructing display of the form image via the input device such as the keyboard 132 or the mouse 133, the PC 150 uses the function of the operation input reception unit 152 to perform the operation input. Is received (step S20: YES), and the superimposed image generated in step S15 is displayed on the monitor 135 via the display control unit 154 by the function of the display processing unit 167 (step S21).

このような構成によれば、重畳画像を印刷媒体に印刷することなく、帳票利用者は、入力漏れが生じている入力フィールドをモニタ135において容易に視認することができる。   According to such a configuration, the form user can easily visually recognize the input field where the input omission has occurred on the monitor 135 without printing the superimposed image on the print medium.

尚、重畳画像をモニタ135に表示させるための十分な表示領域がモニタ135において確保できない場合、入力がされていないと入力検出部164が判断した入力フィールドの名称をモニタ135に表示させるようにしても良い。即ち、入力がされていないと入力検出部164が判断した入力フィールドの名称を、判断結果情報として用いても良い。図11は、本変形例にかかる入力検出処理の手順を示すフローチャートである。ステップS11〜S15は上述の実施の形態と同様であり、ステップS20〜S21は図9を用いて説明した変形例と同様である。ステップS20の後、PC150は、表示処理部167の機能により、ステップS15で生成した重畳画像をモニタ135に表示させるに十分な表示領域がモニタ135にあるか否かを判断する(ステップS30)。例えば、PC150は、当該重畳画像のサイズ以上の表示領域がモニタ135にあるか否かを表示制御部154を介して検出する。重畳画像をモニタ135に表示させるに十分な表示領域がある場合には、ステップS21に進む。重畳画像をモニタ135に表示させるに十分な表示領域がない場合、PC150は、表示処理部167の機能により、ステップS11で抽出された入力位置情報を用いて、入力がされていないとステップS14で判断した入力フィールドの名称を取得して、当該名称を、表示制御部154を介してモニタ135に表示させる(ステップS31)。   If a sufficient display area for displaying the superimposed image on the monitor 135 cannot be secured on the monitor 135, the name of the input field determined by the input detection unit 164 that no input has been made is displayed on the monitor 135. Also good. That is, the name of the input field determined by the input detection unit 164 as not being input may be used as the determination result information. FIG. 11 is a flowchart showing the procedure of the input detection process according to this modification. Steps S11 to S15 are the same as those in the above-described embodiment, and steps S20 to S21 are the same as the modification described with reference to FIG. After step S20, the PC 150 determines whether the monitor 135 has a display area sufficient to display the superimposed image generated in step S15 on the monitor 135 by the function of the display processing unit 167 (step S30). For example, the PC 150 detects whether or not the monitor 135 has a display area larger than the size of the superimposed image via the display control unit 154. If there is a display area sufficient to display the superimposed image on the monitor 135, the process proceeds to step S21. If there is not enough display area to display the superimposed image on the monitor 135, the PC 150 uses the input position information extracted in step S11 by the function of the display processing unit 167, and if the input has not been performed, in step S14. The name of the determined input field is acquired, and the name is displayed on the monitor 135 via the display control unit 154 (step S31).

以上のように、入力位置情報を用いて、入力漏れが検出された入力フィールドの名称を取得してこれをモニタ135に表示させることによっても、入力漏れが生じている入力フィールドをモニタ135において帳票利用者は容易に視認することができる。   As described above, using the input position information, the name of the input field in which the input omission is detected is acquired and displayed on the monitor 135. The user can easily see it.

<変形例5>
上述の実施の形態では、PC150の検出画像生成部165は、比較画像生成部163がドット画像を除去した帳票画像において入力がされていないと入力検出部164が判断した入力フィールドの矩形領域にドット画像を重畳する画像加工を行うようにしたが、これに限らず、カラー画像を重畳する画像加工を行うようにしても良い。即ち、検出画像生成部165は、入力がされていないと入力検出部164が判断した入力フィールドの矩形領域を色塗りするようにしても良い。尚、入力がされていないと入力検出部164が判断した入力フィールドの矩形領域に対して行なう画像加工は、当該入力フィールドを識別可能にするものであれば、上述のものに限らない。
<Modification 5>
In the above-described embodiment, the detection image generation unit 165 of the PC 150 has a dot in the rectangular area of the input field that the input detection unit 164 has determined that the comparison image generation unit 163 has not input the form image from which the dot image has been removed. Although image processing for superimposing an image is performed, the present invention is not limited to this, and image processing for superimposing a color image may be performed. That is, the detected image generation unit 165 may color the rectangular area of the input field that the input detection unit 164 has determined that no input has been made. Note that the image processing performed on the rectangular area of the input field determined by the input detection unit 164 as not being input is not limited to the above as long as the input field can be identified.

また、検出画像生成部165は、入力がされていないと入力検出部164が判断した入力フィールドの矩形領域に対してではなく、入力がされていると入力検出部164が判断した入力フィールドの矩形領域に対して、当該入力フィールドを識別可能にする画像加工を行うようにしても良い。このような構成によっても、入力漏れが生じている入力フィールドを帳票利用者は容易に視認することができる。   In addition, the detected image generation unit 165 does not input the rectangular area of the input field determined by the input detection unit 164 as not being input, but the input field rectangle determined by the input detection unit 164 as being input. You may make it perform the image process which makes the said input field identifiable with respect to an area | region. Even with such a configuration, the form user can easily see the input field where the input leakage has occurred.

<変形例6>
上述の実施の形態では、情報量を減少させる画像処理として、PC100の圧縮部122が、画像取得部121が取得した原票画像を圧縮するようにしたが、これに限らず、当該原票画像の解像度が元の解像度より小さくなるように、解像度を変換するようにしても良い。また、その他、PC100は、減色処理や階調変換を行うようにしても良い。
<Modification 6>
In the above-described embodiment, as the image processing for reducing the amount of information, the compression unit 122 of the PC 100 compresses the original form image acquired by the image acquisition unit 121. However, the present invention is not limited thereto, and the resolution of the original form image is not limited thereto. The resolution may be converted so that is smaller than the original resolution. In addition, the PC 100 may perform color reduction processing and gradation conversion.

また、上述の実施の形態では、PC150の比較画像生成部163は、情報抽出部162が抽出した画像を伸張するようにした。しかし、これに限らず、PC150は、PC100が行なった情報量を減少させる画像処理に応じて、情報量を復元させる画像処理を、情報抽出部162が抽出した画像に対して行うようにすれば良い。   In the above-described embodiment, the comparison image generation unit 163 of the PC 150 expands the image extracted by the information extraction unit 162. However, the present invention is not limited to this, and the PC 150 may perform image processing for restoring the information amount on the image extracted by the information extraction unit 162 in accordance with image processing for reducing the information amount performed by the PC 100. good.

<変形例7>
上述の実施の形態では、PC150の検出画像生成部165は、比較画像生成部163がドット画像を除去した帳票画像において、入力がされていないと入力検出部164が判断した入力フィールドの矩形領域に対してドット画像を重畳したが、これに限らず、比較画像生成部163がドット画像を除去する前の帳票画像において、当該入力フィールドの矩形領域に対してドット画像を重畳するようにしても良い。
<Modification 7>
In the above-described embodiment, the detection image generation unit 165 of the PC 150 applies to the rectangular area of the input field determined by the input detection unit 164 that no input has been made in the form image from which the comparison image generation unit 163 has removed the dot image. However, the present invention is not limited to this, and the dot image may be superimposed on the rectangular area of the input field in the form image before the comparison image generating unit 163 removes the dot image. .

11 キーボード
12 マウス
13 モニタ
14 プリンタ
101 記憶部
102 操作入力受付部
103 表示制御部
104 制御部
110 帳票生成アプリケーション
120 プリンタドライバ
121 画像取得部
122 圧縮部
123 入力位置取得部
124 埋込情報生成部
125 重畳画像生成部
126 印刷処理部
131 スキャナ
132 キーボード
133 マウス
134 プリンタ
135 モニタ
151 記憶部
152 操作入力受付部
153 プリンタドライバ
154 表示制御部
155 制御部
161 検出画像取得部
162 情報抽出部
163 比較画像生成部
164 入力検出部
165 検出画像生成部
166 印刷処理部
167 表示処理部
11 Keyboard 12 Mouse 13 Monitor 14 Printer 101 Storage Unit 102 Operation Input Accepting Unit 103 Display Control Unit 104 Control Unit 110 Form Generation Application 120 Printer Driver 121 Image Acquisition Unit 122 Compression Unit 123 Input Position Acquisition Unit 124 Embedded Information Generation Unit 125 Superimposition Image generation unit 126 Print processing unit 131 Scanner 132 Keyboard 133 Mouse 134 Printer 135 Monitor 151 Storage unit 152 Operation input reception unit 153 Printer driver 154 Display control unit 155 Control unit 161 Detected image acquisition unit 162 Information extraction unit 163 Comparison image generation unit 164 Input detection unit 165 Detected image generation unit 166 Print processing unit 167 Display processing unit

特開2005−044256号公報Japanese Patent Laid-Open No. 2005-044256 特開2005−011260号公報JP 2005-011260 A

Claims (17)

少なくとも1つの入力フィールドを含む画像を取得する画像取得手段と、
前記画像取得手段が取得した前記画像に対して、情報量を減少させる画像処理を行う画像処理手段と、
前記画像に含まれる前記入力フィールドの位置を表す入力位置情報を取得する入力位置情報取得手段と、
前記画像処理手段が前記画像処理を行なった画像及び前記入力位置情報を用いて、変換画像を生成する変換画像生成手段と、
前記画像取得手段が取得した前記画像に対して、前記変換画像生成手段が生成した前記変換画像を重畳した重畳画像を生成する重畳画像生成手段とを備える
ことを特徴とする情報埋込装置。
Image acquisition means for acquiring an image including at least one input field;
Image processing means for performing image processing for reducing the amount of information on the image acquired by the image acquisition means;
Input position information acquisition means for acquiring input position information representing the position of the input field included in the image;
A converted image generating means for generating a converted image using the image processed by the image processing means and the input position information;
An information embedding apparatus comprising: a superimposed image generating unit that generates a superimposed image in which the converted image generated by the converted image generating unit is superimposed on the image acquired by the image acquiring unit.
前記入力フィールドは、矩形領域として定義され、
前記入力位置情報は、前記矩形領域の位置と、前記入力フィールドの名称と、各前記入力フィールドの組合せ及び入力を必須とする条件とを表す
ことを特徴とする請求項1に記載の情報埋込装置。
The input field is defined as a rectangular area;
The information embedding according to claim 1, wherein the input position information represents a position of the rectangular area, a name of the input field, a combination of the input fields, and a condition that requires input. apparatus.
前記重畳画像生成手段が生成した前記重畳画像を印刷媒体に印刷する印刷手段を更に備える
ことを特徴とする請求項1又は2に記載の情報埋込装置。
The information embedding apparatus according to claim 1, further comprising a printing unit that prints the superimposed image generated by the superimposed image generation unit on a print medium.
少なくとも1つの入力フィールドを含む第1画像を取得する検出画像取得手段と、
前記検出画像取得手段が取得した前記第1画像に、変換画像として重畳された第2画像及び当該第1画像に含まれる前記入力フィールドの位置を表す入力位置情報を抽出する画像抽出手段と、
前記画像抽出手段が抽出した前記第1画像と、前記検出画像取得手段が取得した前記第2画像とを用いて、前記画像抽出手段が取得した前記入力位置情報によって表される前記入力フィールドの位置における比較を行い、前記第1画像における前記入力フィールドにおける入力の有無を検出する入力有無検出手段とを備える
ことを特徴とする入力検出装置。
Detected image acquisition means for acquiring a first image including at least one input field;
An image extracting means for extracting a second image superimposed as a converted image on the first image acquired by the detected image acquiring means and input position information indicating the position of the input field included in the first image;
The position of the input field represented by the input position information acquired by the image extracting means using the first image extracted by the image extracting means and the second image acquired by the detected image acquiring means And an input presence / absence detecting means for detecting presence / absence of input in the input field in the first image.
前記検出画像取得手段は、前記第1画像が印刷された印刷媒体から当該第1画像を読み取ることにより、前記第1画像を取得する
ことを特徴とする請求項4に記載の入力検出装置。
The input detection apparatus according to claim 4, wherein the detection image acquisition unit acquires the first image by reading the first image from a print medium on which the first image is printed.
前記入力フィールドは、矩形領域として定義され、
前記入力位置情報は、前記矩形領域の位置を表し、
前記入力有無検出手段は、前記第1画像と前記第2画像との各々において、前記入力位置情報のよってその位置が表される前記矩形領域内の画像を比較して、これらが一致している場合、当該矩形領域として定義された前記入力フィールドに入力がされていないと判断し、これらが一致していない場合、前記入力フィールドに入力がされていると判断することにより、前記第1画像における前記入力フィールドにおける入力の有無を検出する
ことを特徴とする請求項4又は5に記載の入力検出装置。
The input field is defined as a rectangular area;
The input position information represents the position of the rectangular area,
The input presence / absence detecting means compares the images in the rectangular area, the positions of which are represented by the input position information in each of the first image and the second image, and they match. The input field defined as the rectangular area is determined not to be input, and if they do not match, it is determined that the input field is input, 6. The input detection device according to claim 4, wherein presence / absence of input in the input field is detected.
前記入力位置情報は、各前記入力フィールドの組合せ及び入力を必須とする条件を更に表し、
前記入力有無検出手段は、前記入力位置情報によって表される前記条件に従って、第1の前記入力フィールドにおける入力の有無に応じて、第2の前記入力フィールドの入力の有無を判断することにより、前記第1画像における前記入力フィールドにおける入力の有無を検出する
ことを特徴とする請求項4乃至6のいずれか一項に記載の入力検出装置。
The input position information further represents a combination of each input field and a condition that requires input,
The input presence / absence detecting means determines the presence / absence of input in the second input field according to the presence / absence of input in the first input field according to the condition represented by the input position information, The input detection apparatus according to claim 4, wherein presence / absence of input in the input field in the first image is detected.
前記第1画像において入力がされたと前記入力有無判断手段が判断した前記矩形領域及び入力がされていないと前記入力有無判断手段が判断した前記矩形領域のうち少なくとも一方を識別可能にする画像加工を、前記第1画像に対して行なう画像加工手段を更に備える
ことを特徴とする請求項7に記載の入力検出装置。
Image processing that makes it possible to identify at least one of the rectangular area determined by the input presence / absence determination means that has been input in the first image and the rectangular area determined by the input presence / absence determination means that no input has been made. The input detection apparatus according to claim 7, further comprising image processing means for performing the first image.
前記画像加工手段は、前記第1画像において入力がされたと前記入力有無判断手段が判断した前記矩形領域及び入力がされていないと前記入力有無判断手段が判断した前記矩形領域のうち少なくとも一方に対してドット画像又はカラー画像を、前記第1画像に対して重畳することにより、前記画像加工を行なう
ことを特徴とする請求項7に記載の入力検出装置。
The image processing means applies to at least one of the rectangular area determined by the input presence / absence determination means that an input has been made in the first image and the rectangular area determined by the input presence / absence determination means that no input has been made. The input detection apparatus according to claim 7, wherein the image processing is performed by superimposing a dot image or a color image on the first image.
前記画像加工手段が前記画像加工を行なった前記第1画像を印刷媒体に印刷する印刷手段を更に備える
ことを特徴とする請求項8又は9に記載の入力検出装置。
The input detection apparatus according to claim 8, further comprising a printing unit that prints the first image on which the image processing unit has performed the image processing on a print medium.
入力がされたと前記入力有無判断手段が判断した前記矩形領域及び入力がされていないと前記入力有無検出手段が判断した前記矩形領域のうち少なくとも一方を識別可能な判断結果情報を表示手段に表示させる表示処理手段を更に備える
ことを特徴とする請求項4乃至9のいずれか一項に記載の入力検出装置。
The display means displays judgment result information capable of identifying at least one of the rectangular area judged by the input presence / absence judging means that the input has been made and the rectangular area judged by the input presence / absence detecting means that the input has not been made. The input detection device according to claim 4, further comprising display processing means.
前記第2画像に対して、情報量を減少させる画像処理が行われており、
前記第2画像に対して、情報量を復元させる画像処理を行う画像処理手段を更に備える
ことを特徴とする請求項4乃至11のいずれか一項に記載の入力検出装置。
Image processing for reducing the amount of information is performed on the second image,
The input detection apparatus according to claim 4, further comprising an image processing unit that performs image processing for restoring the amount of information with respect to the second image.
前記第1画像から前記変換画像を除去する除去手段を更に備え、
前記入力有無検出手段は、前記除去手段が前記変換画像を除去した前記第1画像と、前記画像処理手段が前記画像処理を行なった前記第2画像との各々において、前記画像抽出手段が取得した前記入力位置情報によって表される前記入力フィールドの位置における画像を比較して、前記第1画像における前記入力フィールドにおける入力の有無を検出する
ことを特徴とする請求項12に記載の入力検出装置。
A removal unit for removing the converted image from the first image;
The input presence / absence detection means is acquired by the image extraction means in each of the first image from which the removal means has removed the converted image and the second image to which the image processing means has performed the image processing. The input detection apparatus according to claim 12, wherein presence / absence of input in the input field in the first image is detected by comparing images at the position of the input field represented by the input position information.
画像取得手段と、画像処理手段と、入力位置情報取得手段と、変換画像生成手段と、変換画像生成手段と、重畳画像生成手段とを備える情報埋込装置で実行される情報埋込方法であって、
前記画像取得手段が、少なくとも1つの入力フィールドを含む画像を取得する画像取得ステップと、
前記画像処理手段が、前記画像取得手段が取得した前記画像に対して、情報量を減少させる画像処理を行う画像処理ステップと、
前記入力位置情報取得手段が、前記画像に含まれる前記入力フィールドの位置を表す入力位置情報を取得する入力位置情報取得ステップと、
前記変換画像生成手段が、前記画像処理手段が前記画像処理を行なった画像及び前記入力位置情報を用いて、変換画像を生成する変換画像生成ステップと、
前記重畳画像生成手段が、前記画像取得手段が取得した前記画像に対して、前記変換画像生成手段が生成した前記変換画像を重畳した重畳画像を生成する重畳画像生成ステップとを含む
ことを特徴とする情報埋込方法。
An information embedding method executed by an information embedding device including an image acquisition unit, an image processing unit, an input position information acquisition unit, a converted image generation unit, a converted image generation unit, and a superimposed image generation unit. And
An image acquiring step in which the image acquiring means acquires an image including at least one input field;
An image processing step in which the image processing means performs image processing for reducing the amount of information with respect to the image acquired by the image acquisition means;
An input position information acquisition step in which the input position information acquisition means acquires input position information representing the position of the input field included in the image;
The converted image generation means generates a converted image using the image processed by the image processing means and the input position information; and
The superimposed image generating means includes a superimposed image generating step of generating a superimposed image in which the converted image generated by the converted image generating means is superimposed on the image acquired by the image acquiring means. How to embed information.
検出画像取得手段と、画像抽出手段と、入力有無検出手段とを備える入力検出装置で実行される入力検出方法であって、
前記検出画像取得手段が、少なくとも1つの入力フィールドを含む第1画像を取得する検出画像取得ステップと、
前記画像抽出手段が、前記検出画像取得手段が取得した前記第1画像に、変換画像として重畳された第2画像及び当該第1画像に含まれる前記入力フィールドの位置を表す入力位置情報を抽出する画像抽出ステップと、
前記入力有無検出手段が、前記画像抽出手段が抽出した前記第1画像と、前記検出画像取得手段が取得した前記第2画像とを用いて、前記画像抽出手段が取得した前記入力位置情報によって表される前記入力フィールドの位置における比較を行い、前記第1画像における前記入力フィールドにおける入力の有無を検出する入力有無検出ステップとを含む
ことを特徴とする入力検出方法。
An input detection method that is executed by an input detection device that includes a detection image acquisition unit, an image extraction unit, and an input presence / absence detection unit,
A detection image acquisition step in which the detection image acquisition means acquires a first image including at least one input field;
The image extraction unit extracts a second image superimposed as a converted image on the first image acquired by the detection image acquisition unit and input position information indicating the position of the input field included in the first image. An image extraction step;
The input presence / absence detecting means uses the first image extracted by the image extracting means and the second image acquired by the detected image acquiring means to represent the input position information acquired by the image extracting means. And an input presence / absence detection step of performing a comparison at the position of the input field to detect presence / absence of input in the input field in the first image.
請求項14又は15に記載の方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the method of Claim 14 or 15. 請求項16に記載のプログラムを記憶したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 16.
JP2009154110A 2009-06-29 2009-06-29 Information embedding device, input detector, information embedding method, input detection method, program and storage medium Pending JP2011010227A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009154110A JP2011010227A (en) 2009-06-29 2009-06-29 Information embedding device, input detector, information embedding method, input detection method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009154110A JP2011010227A (en) 2009-06-29 2009-06-29 Information embedding device, input detector, information embedding method, input detection method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2011010227A true JP2011010227A (en) 2011-01-13

Family

ID=43566333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009154110A Pending JP2011010227A (en) 2009-06-29 2009-06-29 Information embedding device, input detector, information embedding method, input detection method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2011010227A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013041454A (en) * 2011-08-17 2013-02-28 Fuji Xerox Co Ltd Information processing device and program
JP2013211662A (en) * 2012-03-30 2013-10-10 Eizo Corp Gradation correction apparatus or method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013041454A (en) * 2011-08-17 2013-02-28 Fuji Xerox Co Ltd Information processing device and program
JP2013211662A (en) * 2012-03-30 2013-10-10 Eizo Corp Gradation correction apparatus or method thereof

Similar Documents

Publication Publication Date Title
US8331677B2 (en) Combined image and text document
JP5712487B2 (en) Image processing apparatus, image processing system, image processing method, and program
US8610929B2 (en) Image processing apparatus, control method therefor, and program
JP2010510563A (en) Automatic generation of form definitions from hardcopy forms
JP5682218B2 (en) Difference detection device, difference output device, and program
US11418658B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US8144988B2 (en) Document-image-data providing system, document-image-data providing device, information processing device, document-image-data providing method, information processing method, document-image-data providing program, and information processing program
JP2008059157A (en) Document confirmation support system, document confirmation support device and program
US7844080B2 (en) Image processing system and image processing method, and computer program
US7738703B2 (en) Image processing apparatus, image processing method and computer readable medium storing image processing program
JP4275973B2 (en) Retouched image extraction apparatus, program, storage medium, and retouched image extraction method
JP2011010227A (en) Information embedding device, input detector, information embedding method, input detection method, program and storage medium
US8194982B2 (en) Document-image-data providing system, document-image-data providing device, information processing device, document-image-data providing method, information processing method, document-image-data providing program, and information processing program
US20100030751A1 (en) Operations information management system
JP4922732B2 (en) Input support scan solution system
JP2009176100A (en) File management device
JP5720350B2 (en) Information processing apparatus, information processing program, and information processing system
JP4626565B2 (en) Image processing apparatus, image forming apparatus, and program
JP2011197844A (en) Difference detection system
JP2012190357A (en) Image processing device, image processing method and program
JP2008181223A (en) Electronic document management system, electronic document management method, program, and recording medium
JP4192792B2 (en) Document processing apparatus and document output program
JP5446893B2 (en) Image output apparatus and image output program
JP2013109724A (en) Image processing apparatus, image processing program, and image processing system
JP2013041454A (en) Information processing device and program