JP2019159932A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2019159932A
JP2019159932A JP2018047061A JP2018047061A JP2019159932A JP 2019159932 A JP2019159932 A JP 2019159932A JP 2018047061 A JP2018047061 A JP 2018047061A JP 2018047061 A JP2018047061 A JP 2018047061A JP 2019159932 A JP2019159932 A JP 2019159932A
Authority
JP
Japan
Prior art keywords
entry
image
frame
extracted
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018047061A
Other languages
Japanese (ja)
Other versions
JP7035656B2 (en
Inventor
久美 藤原
Kumi Fujiwara
久美 藤原
木村 俊一
Shunichi Kimura
俊一 木村
拓也 桜井
Takuya Sakurai
拓也 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018047061A priority Critical patent/JP7035656B2/en
Publication of JP2019159932A publication Critical patent/JP2019159932A/en
Priority to JP2022030979A priority patent/JP2022066321A/en
Application granted granted Critical
Publication of JP7035656B2 publication Critical patent/JP7035656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

To more accurately extract an entry frame from an image of a sheet formed with an entry column in which information is to be entered in comparison with a case of extracting the entry frame corresponding to the entry column in a fully automatic manner.SOLUTION: A rectangular part as an entry frame corresponding to an entry column is extracted from an image of a sheet formed with the entry column, and the entry frame is displayed. Edition for extracting the rectangular part as the entry frame is performed to the image in accordance with a user's instruction. The rectangular part as the entry frame is re-extracted from the image to which the edition has been reflected. Definition information indicating association of the re-extracted entry frame with attributes of information to be entered in the entry column is outputted.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

帳票等の用紙に対してOCR(Optical Character Recognition)等の文字認識処理を適用することで、当該用紙上の記入欄に記入されている文字が認識される場合がある。その文字認識には、一般的には、予め作成された定義情報が用いられる。定義情報は、例えば、文字が記入されるべき記入欄に対応する記入枠の用紙上の位置情報を含む。その定義情報を作成するための技術として、記入欄が形成されている用紙(例えば帳票等)の画像から、その記入欄に対応する記入枠としての矩形部分を自動的に抽出する技術が知られている。   By applying a character recognition process such as OCR (Optical Character Recognition) to paper such as a form, the characters entered in the entry field on the paper may be recognized. In general, definition information created in advance is used for the character recognition. The definition information includes, for example, position information on a sheet of an entry frame corresponding to an entry field in which characters are to be entered. As a technique for creating the definition information, a technique for automatically extracting a rectangular portion as an entry frame corresponding to the entry field from an image of a form (for example, a form) on which the entry field is formed is known. ing.

特許文献1には、ユーザによって指定された範囲を枠線検出範囲として定義し、その枠線検出範囲内に存在する枠線を検出し、その検出された枠線の位置情報を含むフォーマット情報を表示する方法が記載されている。   Patent Document 1 defines a range designated by a user as a frame line detection range, detects a frame line existing in the frame line detection range, and format information including position information of the detected frame line. The method of displaying is described.

特許文献2には、スキャナによる読み取りによって生成されたドットパターンデータに真線化処理を施すことで、図形や文字のパターンを認識するシステムが記載されている。   Patent Document 2 describes a system that recognizes a pattern of a figure or a character by applying a straight line process to dot pattern data generated by reading by a scanner.

特許文献3には、帳票画像から罫線を抽出し、罫線情報から罫線枠を抽出し、その後、抽出された罫線枠に相当する部分の画像を帳票画像から消去し、生成された枠消去画像から再び罫線を抽出し、これらの処理を繰り返す装置が記載されている。   In Patent Document 3, a ruled line is extracted from a form image, a ruled line frame is extracted from the ruled line information, and then an image corresponding to the extracted ruled line frame is deleted from the form image, and the generated frame deleted image is used. An apparatus is described in which ruled lines are extracted again and these processes are repeated.

特開平11−66228号公報Japanese Patent Laid-Open No. 11-66228 特開平6−215178号公報JP-A-6-215178 特開2000−172780号公報JP 2000-172780 A

ところで、全自動で記入枠を抽出する技術が適用された場合、抽出されるべき記入枠が抽出されないことや、記入枠として抽出されるべきではない部分が記入枠として抽出されることがある。   By the way, when a technique for extracting an entry frame in a fully automatic manner is applied, an entry frame to be extracted may not be extracted, or a portion that should not be extracted as an entry frame may be extracted as an entry frame.

本発明の目的は、情報が記入されるべき記入欄が形成されている用紙の画像から、その記入欄に対応する記入枠を全自動で抽出する場合と比べて、より正確に記入枠を抽出することにある。   The purpose of the present invention is to extract the entry frame more accurately than the case where the entry frame corresponding to the entry field is automatically extracted from the image of the paper on which the entry field to be filled with information is formed. There is to do.

請求項1に記載の発明は、情報が記入されるべき記入欄が形成されている用紙の画像から前記記入欄に対応する記入枠としての矩形部分を抽出する抽出手段と、前記抽出手段による抽出結果を表示手段に表示させる表示制御手段と、前記抽出結果の表示の後、ユーザの指示に従って、前記記入枠としての矩形部分を抽出するための編集を前記画像に対して行う画像編集手段と、前記編集が反映された前記画像から前記記入枠としての矩形部分を再抽出する再抽出手段と、前記記入欄に記入された情報を抽出するために用いられる定義情報を出力する出力手段であって、前記再抽出手段によって抽出された前記記入枠と、前記記入欄に記入されるべき情報の属性との対応付けを示す定義情報を出力する出力手段と、を有する情報処理装置である。   The invention according to claim 1 is an extraction means for extracting a rectangular portion as an entry frame corresponding to the entry field from an image of a sheet on which an entry field to be filled with information is formed, and an extraction by the extraction means Display control means for displaying a result on a display means, and after the display of the extraction result, an image editing means for editing the image to extract a rectangular portion as the entry frame according to a user instruction; Re-extracting means for re-extracting a rectangular portion as the entry frame from the image in which the edit is reflected; and output means for outputting definition information used for extracting information entered in the entry field. An information processing apparatus comprising: output means for outputting definition information indicating correspondence between the entry frame extracted by the re-extraction means and attributes of information to be entered in the entry field

請求項2に記載の発明は、前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像に対して線分からなる図形を形成し、前記再抽出手段は、前記図形が形成されている前記画像から前記記入枠としての矩形部分を再抽出する、ことを特徴とする請求項1に記載の情報処理装置である。   According to a second aspect of the present invention, the image editing unit forms a figure composed of a line segment with respect to the image as the editing in accordance with a user instruction, and the re-extracting unit forms the figure. The information processing apparatus according to claim 1, wherein a rectangular portion as the entry frame is re-extracted from the image.

請求項3に記載の発明は、前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像に対して矩形部分からなる図形を形成し、前記再抽出手段は、前記図形が形成されている前記画像から前記記入枠としての矩形部分を再抽出する、ことを特徴とする請求項1に記載の情報処理装置である。   According to a third aspect of the present invention, the image editing means forms a graphic consisting of a rectangular portion with respect to the image as the editing in accordance with a user instruction, and the re-extracting means forms the graphic. The information processing apparatus according to claim 1, wherein a rectangular portion as the entry frame is re-extracted from the image.

請求項4に記載の発明は、前記画像編集手段は、ユーザによって前記画像上に形成されている図形を補正することで、前記画像に対して矩形部分を形成する、ことを特徴とする請求項3に記載の情報処理装置である。   The invention according to claim 4 is characterized in that the image editing means corrects a figure formed on the image by a user to form a rectangular portion with respect to the image. 3. The information processing apparatus according to 3.

請求項5に記載の発明は、前記画像編集手段は、前記画像に表された前記記入欄を構成する線分と接する前記図形を形成する、ことを特徴とする請求項2から請求項4のいずれか一項に記載の情報処理装置である。   The invention according to claim 5 is characterized in that the image editing means forms the graphic in contact with the line segment constituting the entry field represented in the image. It is an information processing apparatus as described in any one.

請求項6に記載の発明は、前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像上に非抽出領域を形成し、前記再抽出手段は、前記画像内の前記非抽出領域以外の領域から前記記入枠としての矩形部分を再抽出する、ことを特徴とする請求項1に記載の情報処理装置である。   According to a sixth aspect of the present invention, the image editing means forms a non-extraction area on the image as the editing in accordance with a user instruction, and the re-extraction means is other than the non-extraction area in the image. The information processing apparatus according to claim 1, wherein a rectangular portion as the entry frame is re-extracted from the area.

請求項7に記載の発明は、前記表示制御手段は、前記抽出結果と共に、前記画像を背景画像として前記表示手段に表示させる、ことを特徴とする請求項1から請求項6のいずれか一項に記載の情報処理装置である。   The invention according to claim 7 is characterized in that the display control means causes the display means to display the image as a background image together with the extraction result. It is an information processing apparatus as described in.

請求項8に記載の発明は、コンピュータを、情報が記入されるべき記入欄が形成されている用紙の画像から前記記入欄に対応する記入枠としての矩形部分を抽出する抽出手段、前記抽出手段による抽出結果を表示手段に表示させる表示制御手段、前記抽出結果の表示の後、ユーザの指示に従って、前記記入枠としての矩形部分を抽出するための編集を前記画像に対して行う画像編集手段、前記編集が反映された前記画像から前記記入枠としての矩形部分を再抽出する再抽出手段、前記記入欄に記入された情報を抽出するために用いられる定義情報を出力する出力手段であって、前記再抽出手段によって抽出された前記記入枠と、前記記入欄に記入されるべき情報の属性との対応付けを示す定義情報を出力する出力手段、として機能させるプログラムである。   According to an eighth aspect of the present invention, there is provided an extracting means for extracting a rectangular portion as an entry frame corresponding to the entry field from an image of a sheet on which an entry field to be filled with information is formed. Display control means for displaying the extraction result by the display means, after displaying the extraction result, an image editing means for performing editing for extracting the rectangular portion as the entry frame on the image according to a user instruction, Re-extracting means for re-extracting a rectangular portion as the entry frame from the image in which the edit is reflected, output means for outputting definition information used for extracting information entered in the entry field, A program that functions as output means for outputting definition information indicating the correspondence between the entry frame extracted by the re-extraction means and the attribute of the information to be entered in the entry field. It is a lamb.

請求項1,8に記載の発明によれば、情報が記入されるべき記入欄が形成されている用紙の画像から、その記入欄に対応する記入枠を全自動で抽出する場合と比べて、より正確に記入枠を抽出することにある。   According to the inventions described in claims 1 and 8, compared with a case where the entry frame corresponding to the entry field is fully automatically extracted from the image of the paper on which the entry field to be filled with information is formed, The purpose is to extract the entry frame more accurately.

請求項2,3,5に記載の発明によれば、抽出されるべき記入枠が抽出される。   According to the invention described in claims 2, 3 and 5, the entry frame to be extracted is extracted.

請求項4に記載の発明によれば、ユーザの操作のみによって矩形部分を形成する場合と比べて、より正確に矩形部分が形成される。   According to the fourth aspect of the present invention, the rectangular portion is formed more accurately than when the rectangular portion is formed only by the user's operation.

請求項6に記載の発明によれば、抽出されるべきではない部分が記入枠として抽出されることが防止される。   According to the sixth aspect of the present invention, it is prevented that a portion that should not be extracted is extracted as an entry frame.

請求項7に記載の発明によれば、抽出された記入枠と画像に表されている記入欄との対比が可能となる。   According to the invention described in claim 7, it is possible to compare the extracted entry frame with the entry field shown in the image.

本発明の実施形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on embodiment of this invention. 帳票を示す図である。It is a figure which shows a form. 記入欄を示す図である。It is a figure which shows an entry column. 定義情報を示す図である。It is a figure which shows definition information. テンプレート表示画面を示す図である。It is a figure which shows a template display screen. 枠表示画面を示す図である。It is a figure which shows a frame display screen. テンプレート表示画面を示す図である。It is a figure which shows a template display screen. 枠表示画面を示す図である。It is a figure which shows a frame display screen. テンプレート表示画面を示す図である。It is a figure which shows a template display screen. 枠表示画面を示す図である。It is a figure which shows a frame display screen. 変形例1に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 1. FIG. 変形例2に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 2. FIG. 抽出された線分を示す図である。It is a figure which shows the extracted line segment. 抽出された記入枠を示す図である。It is a figure which shows the extracted entry frame. 変形例2に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 2. 抽出された記入枠を示す図である。It is a figure which shows the extracted entry frame. 変形例3に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 3. FIG. 抽出された記入枠を示す図である。It is a figure which shows the extracted entry frame. 変形例4に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 4. 変形例4に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 4. 変形例4に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 4. 変形例4に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 4. 変形例5に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 5. 変形例5に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 5. 変形例6に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 6. FIG. 抽出された記入枠を示す図である。It is a figure which shows the extracted entry frame. 変形例6に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 6. FIG. 変形例6に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 6. FIG. 変形例6に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 6. FIG. 変形例7に係る記入欄を示す図である。It is a figure which shows the entry column which concerns on the modification 7. 変形例7に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 7. 変形例8に係る用紙を示す図である。FIG. 10 is a diagram illustrating a sheet according to modification example 8. 変形例8に係るテンプレート画像を示す図である。It is a figure which shows the template image which concerns on the modification 8. 抽出された記入枠を示す図である。It is a figure which shows the extracted entry frame. 変形例8に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 8. 変形例9に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 9. 変形例9に係る編集を示す図である。It is a figure which shows the edit which concerns on the modification 9. 変形例10に係る枠表示画面を示す図である。It is a figure which shows the frame display screen which concerns on the modification 10. As shown in FIG.

図1を参照して、本発明の実施形態に係る情報処理システムについて説明する。図1には、本実施形態に係る情報処理システムの一例が示されている。   An information processing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 shows an example of an information processing system according to this embodiment.

本実施形態に係る情報処理システムは、一例として、情報処理装置10とスキャナ12とを含む。情報処理装置10とスキャナ12は、ネットワーク等の通信経路を介して、又は、直接的に、互いに通信する機能を有する。その通信は、無線通信であってもよいし、有線通信であってもよい。   The information processing system according to the present embodiment includes an information processing apparatus 10 and a scanner 12 as an example. The information processing apparatus 10 and the scanner 12 have a function of communicating with each other via a communication path such as a network or directly. The communication may be wireless communication or wired communication.

情報処理装置10は、例えば、パーソナルコンピュータ(PC)、タブレットPC、スマートフォン、携帯電話、等の端末装置であり、OCR等の文字認識処理に用いられる定義情報を作成する装置である。その定義情報は、帳票等の用紙に対する文字認識処理によって、その用紙上の記入欄に記入されている情報としての文字を認識するために用いられる情報である。定義情報は、例えば、当該記入欄に対応する記入枠の用紙上の位置情報を含む情報である。記入枠は、文字認識処理が適用される矩形状の領域である。記入枠は、記入欄と同じ形状及び大きさを有していてもよいし、記入欄とは異なる形状及び大きさを有していてもよい。例えば、記入枠は、記入欄内において文字が記載されると想定される領域として定められる。   The information processing apparatus 10 is a terminal device such as a personal computer (PC), a tablet PC, a smartphone, or a mobile phone, and is a device that creates definition information used for character recognition processing such as OCR. The definition information is information used for recognizing characters as information entered in the entry field on the paper by character recognition processing on the paper such as a form. The definition information is, for example, information including position information on a sheet of an entry frame corresponding to the entry field. The entry frame is a rectangular area to which character recognition processing is applied. The entry frame may have the same shape and size as the entry field, or may have a shape and size different from the entry field. For example, the entry frame is defined as an area in which characters are assumed to be written in the entry field.

スキャナ12は、スキャン機能を有する装置であり、原稿を読み取ることで画像データを生成する。生成された画像データは、スキャナ12から情報処理装置10に送られる。   The scanner 12 is a device having a scanning function, and generates image data by reading a document. The generated image data is sent from the scanner 12 to the information processing apparatus 10.

本実施形態では、帳票等の用紙がスキャナ12によって読み取られ、これによって、その用紙を表す画像データが生成される。その用紙には、文字が記入されるべき記入欄が形成されている。文字認識処理に用いられる定義情報を作成するためには、記入欄に文字が記入されていない帳票等の用紙がスキャナ12によって読み取られ、これによって、記入欄に文字が記入されていない用紙を表す画像データが生成される。情報処理装置10は、その画像データに画像処理を適用することで、当該画像データから記入欄に対応する記入枠を抽出し、更に、用紙上における当該記入枠の位置情報を含む定義情報を作成する。   In the present embodiment, a sheet such as a form is read by the scanner 12, thereby generating image data representing the sheet. An entry field in which characters are to be entered is formed on the sheet. In order to create definition information used for character recognition processing, a sheet of paper or the like in which characters are not entered in the entry column is read by the scanner 12, thereby representing a sheet in which no characters are entered in the entry column. Image data is generated. The information processing apparatus 10 applies image processing to the image data to extract an entry frame corresponding to the entry field from the image data, and further creates definition information including position information of the entry frame on the form To do.

なお、情報処理装置10は、スキャナ12以外の装置(例えばサーバ等の装置)から画像データを取得し、当該画像データに対して画像処理を適用することで、記入枠の抽出と定義情報の作成を行ってもよい。情報処理装置10にスキャナ12が含まれて、これによって、いわゆる複合機等の画像形成装置(スキャン機能の他に、コピー機能やプリント機能等の画像形成機能を有する装置)が構成されてもよい。この場合、画像形成装置によって、画像データに対して画像処理が適用される。   The information processing apparatus 10 acquires image data from an apparatus other than the scanner 12 (for example, an apparatus such as a server), and applies image processing to the image data, thereby extracting entry frames and creating definition information. May be performed. The information processing apparatus 10 may include a scanner 12, thereby configuring an image forming apparatus such as a so-called multifunction peripheral (an apparatus having an image forming function such as a copy function or a print function in addition to a scan function). . In this case, image processing is applied to the image data by the image forming apparatus.

以下、情報処理装置10の構成について詳しく説明する。   Hereinafter, the configuration of the information processing apparatus 10 will be described in detail.

通信部14は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部14は、無線通信機能を有する通信インターフェースであってもよいし、有線通信機能を有する通信インターフェースであってもよい。   The communication unit 14 is a communication interface and has a function of transmitting data to other devices and a function of receiving data from other devices. The communication unit 14 may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

UI部16はユーザインターフェースであり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボードやマウス等の入力装置である。   The UI unit 16 is a user interface and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel, a keyboard, or a mouse.

記憶部18はハードディスクやメモリ等の記憶装置である。記憶部18には、例えば、スキャナ12や他の装置から送られてきた画像データ、その他のデータ、各種のプログラム、等が記憶されている。   The storage unit 18 is a storage device such as a hard disk or a memory. The storage unit 18 stores, for example, image data sent from the scanner 12 and other devices, other data, various programs, and the like.

画像処理部20は、記入欄が形成されている帳票等の用紙を表す画像データに対して画像処理を適用することで、当該記入欄に対応する記入枠を当該画像データから抽出し、更に、当該用紙上における当該記入枠の位置情報を含む定義情報を作成するように構成されている。以下、画像処理部20の構成について詳しく説明する。   The image processing unit 20 extracts an entry frame corresponding to the entry field from the image data by applying image processing to image data representing a sheet such as a form in which the entry field is formed, Definition information including position information of the entry frame on the form is created. Hereinafter, the configuration of the image processing unit 20 will be described in detail.

抽出部22は、記入欄が形成されている帳票等の用紙を表す画像データから、当該記入欄に対応する記入枠としての矩形部分を抽出するように構成されている。例えば、抽出部22は、ヒストグラム法やハフ変換等を用いることで画像データから枠線としての線分を検出し、複数の線分によって構成される矩形部分(複数の線分によって矩形状の囲みが形成されている部分)を記入枠として抽出する。具体的には、1つの線分に他の線分が接続され、4つの線分によって矩形状の囲みが形成されている場合、抽出部22は、それらの線分を一纏めにして矩形部分としての記入枠を抽出する。   The extraction unit 22 is configured to extract a rectangular portion as an entry frame corresponding to the entry field from image data representing a sheet such as a form in which the entry field is formed. For example, the extraction unit 22 detects a line segment as a frame line from the image data by using a histogram method, a Hough transform, or the like, and a rectangular portion composed of a plurality of line segments (a rectangular shape surrounded by a plurality of line segments). Is extracted as an entry frame. Specifically, when another line segment is connected to one line segment and a rectangular enclosure is formed by the four line segments, the extraction unit 22 collects the line segments as a rectangular part. Extract the box for.

表示制御部24は、抽出部22によって抽出された記入枠を表す画像をUI部16の表示部に表示させるように構成されている。また、表示制御部24は、後述する再抽出部28によって抽出された記入枠を表す画像をUI部16の表示部に表示させるように構成されている。   The display control unit 24 is configured to display an image representing the entry frame extracted by the extraction unit 22 on the display unit of the UI unit 16. The display control unit 24 is configured to display an image representing an entry frame extracted by the re-extraction unit 28 described later on the display unit of the UI unit 16.

画像編集部26は、ユーザの指示に従って、用紙を表す画像データを編集するように構成されている。編集は、図形の追加や削除等である。画像データに対して、図形が追加されると共に、画像データを構成する図形が削除されてもよい。図形は、例えば、線分からなる図形や、矩形部分からなる図形等である。   The image editing unit 26 is configured to edit image data representing a sheet in accordance with a user instruction. Editing includes adding and deleting graphics. A figure may be added to the image data and a figure constituting the image data may be deleted. The figure is, for example, a figure made up of line segments or a figure made up of a rectangular part.

再抽出部28は、画像編集部26による編集が反映された画像データから、記入枠としての矩形部分を抽出するように構成されている。その抽出アルゴリズムは、抽出部22における抽出アルゴリズムと同じである。なお、再抽出部28が画像処理部20に設けられずに、抽出部22によって、再抽出部28による処理が実行されてもよい。   The re-extracting unit 28 is configured to extract a rectangular portion as an entry frame from the image data reflecting the editing by the image editing unit 26. The extraction algorithm is the same as the extraction algorithm in the extraction unit 22. The re-extraction unit 28 may be executed by the extraction unit 22 without the re-extraction unit 28 being provided in the image processing unit 20.

定義情報作成部30は、再抽出部28によって抽出された記入枠と、その記入枠に対応する記入欄に記載されるべき情報(文字)の属性との対応付けを示す定義情報を作成するように構成されている。例えば、その定義情報は、用紙上における記入枠の位置情報(座標情報)と、情報(文字)の属性を示す属性情報とが互いに対応付けられている。属性情報は、例えば、記入欄に記入されるべき内容を示す情報や、文字認識処理に用いられる辞書を示す情報等を含む。定義情報は、例えば、UI部16の表示部に表示されてもよいし、情報処理装置10以外の装置や記録媒体に出力されてもよい。また、定義情報は、ユーザによって編集されてもよい。定義情報は、記入欄に文字が記入された用紙から文字を認識するときに用いられる。例えば、定義情報に含まれる位置情報に基づいて、用紙の画像に表されている記入枠が特定され、その記入枠内に表されている画像に対して文字認識処理が適用されることで、記入欄に記入されている文字が認識される。   The definition information creation unit 30 creates definition information indicating the correspondence between the entry frame extracted by the re-extraction unit 28 and the attribute of the information (character) to be described in the entry field corresponding to the entry frame. It is configured. For example, in the definition information, the position information (coordinate information) of the entry frame on the paper and the attribute information indicating the attribute of the information (character) are associated with each other. The attribute information includes, for example, information indicating contents to be entered in the entry field, information indicating a dictionary used for character recognition processing, and the like. For example, the definition information may be displayed on the display unit of the UI unit 16 or may be output to a device other than the information processing device 10 or a recording medium. The definition information may be edited by the user. The definition information is used when recognizing characters from a sheet in which characters are entered in the entry field. For example, based on the position information included in the definition information, the entry frame represented in the image of the paper is specified, and the character recognition process is applied to the image represented in the entry frame, The characters entered in the entry field are recognized.

制御部32は、情報処理装置10の各部の動作を制御するように構成されている。例えば、制御部32は、通信部14による通信、UI部16の表示部による情報の表示、記憶部18からの情報の読み出し、記憶部18への情報の書き込み、等を制御する。   The control unit 32 is configured to control the operation of each unit of the information processing apparatus 10. For example, the control unit 32 controls communication by the communication unit 14, display of information by the display unit of the UI unit 16, reading of information from the storage unit 18, writing of information to the storage unit 18, and the like.

なお、画像処理部20による処理は、サーバ等の外部装置によって行われ、その処理結果を示す情報が外部装置から情報処理装置10に送信されて、その情報が情報処理装置10に表示されてもよい。すなわち、画像処理部20による画像処理と、その処理結果の表示は、同一装置によって行われてもよいし、それぞれ異なる装置によって行われてもよい。また、画像処理部20による処理の対象となる画像データは、スキャナ12以外の装置(例えばサーバ等の外部装置)から情報処理装置10に送られてもよい。すなわち、画像処理部20による処理の対象となる画像データは、文字が記入されていない帳票等の用紙がスキャナ12によってスキャンされることで生成された画像データであってもよいし、スキャンによらずに生成された画像データであってもよい。   The processing by the image processing unit 20 is performed by an external device such as a server, and information indicating the processing result is transmitted from the external device to the information processing device 10, and the information is displayed on the information processing device 10. Good. That is, the image processing by the image processing unit 20 and the display of the processing result may be performed by the same device or may be performed by different devices. Further, image data to be processed by the image processing unit 20 may be sent to the information processing apparatus 10 from an apparatus other than the scanner 12 (for example, an external apparatus such as a server). That is, the image data to be processed by the image processing unit 20 may be image data generated by scanning a sheet such as a form in which characters are not entered by the scanner 12, or by scanning. Alternatively, the generated image data may be used.

以下、本実施形態に係る情報処理システムについて詳しく説明する。   Hereinafter, the information processing system according to the present embodiment will be described in detail.

図2を参照して、記入欄に文字が記入されていない用紙の一例として、帳票について説明する。以下、記入欄に文字列が記入されていない用紙を「テンプレート」と称することとする。図2には、帳票のテンプレートの一例が示されている。帳票34(テンプレート)は、用紙の一例である。帳票34には、表形式の記入欄が形成されている。具体的には、帳票34には、「氏名」が記入されるべき記入欄36,38と、「住所」が記入されるべき記入欄40,42,44,46が形成されている(例えば印刷されている)。記入欄36は、「氏名」の「ふりがな」が記入されるべき欄であり、記入欄38は、漢字、ひらがな、カタカナ、数字、アルファベット等によって表現される「氏名」が記入されるべき欄である。記入欄40は、「住所1」の「ふりがな」が記入されるべき欄であり、記入欄42は、漢字、ひらがな、カタカナ、数字、アルファベット等によって表現される「住所1」が記入されるべき欄である。記入欄44は、「住所2」の「ふりがな」が記入されるべき欄であり。記入欄46は、漢字、ひらがな、カタカナ、数字、アルファベット等によって表現される「住所2」が記入されるべき欄である。各記入欄には文字は記入されていない。   With reference to FIG. 2, a form will be described as an example of a sheet on which characters are not entered in the entry column. Hereinafter, a sheet in which no character string is entered in the entry field is referred to as a “template”. FIG. 2 shows an example of a form template. The form 34 (template) is an example of paper. The form 34 has a tabular entry field. Specifically, the form 34 is formed with entry fields 36 and 38 in which “name” is to be entered, and entry fields 40, 42, 44 and 46 in which “address” is to be entered (for example, printing). Have been). The entry field 36 is a field in which “phonetic” of “name” is to be entered, and the entry field 38 is a field in which “name” expressed in kanji, hiragana, katakana, numbers, alphabets, etc. is to be entered. is there. The entry field 40 is a field where “phonetic” of “address 1” should be entered, and the entry field 42 should be filled with “address 1” expressed in kanji, hiragana, katakana, numbers, alphabets, etc. It is a column. The entry column 44 is a column in which “phonetic” of “address 2” should be entered. The entry field 46 is a field in which “address 2” expressed by kanji, hiragana, katakana, numbers, alphabets, and the like is to be entered. There are no letters in each entry field.

氏名に関しては、全体の記入欄は実線で構成されているが、記入欄36と記入欄38は、破線によって区分けされている。同様に、住所1に関しては、全体の記入欄は実線で構成されているが、記入欄40と記入欄42は、破線によって区分けされている。住所2についても同様であり、記入欄44と記入欄46は、破線によって区分けされている。   Regarding the name, the entire entry field is composed of solid lines, but the entry field 36 and entry field 38 are separated by a broken line. Similarly, for address 1, the entire entry field is composed of solid lines, but entry field 40 and entry field 42 are separated by a broken line. The same applies to the address 2, and the entry field 44 and entry field 46 are separated by a broken line.

また、X方向とY方向は互いに直交する方向であり、各記入欄は、X方向に平行な線分とY方向に平行な線分とによって構成されている。線分は、実線又は破線である。例えば、記入欄36は、X方向に平行な2つの線分と、Y方向に平行な2つの線分とによって構成されている。他の記入欄についても同様である。このように、図2に示されている各記入欄は、矩形状の形状を有する。   Further, the X direction and the Y direction are directions orthogonal to each other, and each entry column is composed of a line segment parallel to the X direction and a line segment parallel to the Y direction. The line segment is a solid line or a broken line. For example, the entry field 36 includes two line segments parallel to the X direction and two line segments parallel to the Y direction. The same applies to the other entry fields. Thus, each entry field shown in FIG. 2 has a rectangular shape.

ここで、図3を参照して、記入欄36,38の構成について詳しく説明する。図3には、記入欄36,38が示されている。記入欄36は、点A1,A2,A3,A4を頂点とする矩形状の領域である。つまり、記入欄36は、X方向に平行な線分A1A2(点A1と点A2とを結ぶ線分)、X方向に平行な線分A3A4(点A3と点A4とを結ぶ線分)、Y方向に平行な線分A1A3(点A1と点A3とを結ぶ線分)、及び、Y方向に平行な線分A2A4(点A2と点A4とを結ぶ線分)によって囲まれた矩形状の領域である。記入欄38は、点A3,A4,A5,A6を頂点とする矩形状の領域である。つまり、記入欄38は、X方向に平行な線分A3A4、X方向に平行な線分A5A6(点A5と点A6とを結ぶ線分)、Y方向に平行な線分A3A5(点A3と点A5とを結ぶ線分)、及び、Y方向に平行な線分A4A6(点A4と点A6とを結ぶ線分)によって囲まれた矩形状の領域である。線分A3A4は破線であり、他の線分は実線である。住所に関する記入欄40,42,44,46も同様の構成を有する。   Here, the configuration of the entry fields 36 and 38 will be described in detail with reference to FIG. In FIG. 3, entry fields 36 and 38 are shown. The entry field 36 is a rectangular area having points A1, A2, A3, and A4 as vertices. That is, the entry column 36 includes a line segment A1A2 parallel to the X direction (line segment connecting the points A1 and A2), a line segment A3A4 parallel to the X direction (line segment connecting the points A3 and A4), Y A rectangular region surrounded by a line segment A1A3 parallel to the direction (line segment connecting point A1 and point A3) and a line segment A2A4 parallel to the Y direction (line segment connecting point A2 and point A4) It is. The entry field 38 is a rectangular area having points A3, A4, A5, and A6 as vertices. That is, the entry field 38 includes a line segment A3A4 parallel to the X direction, a line segment A5A6 parallel to the X direction (line segment connecting the points A5 and A6), and a line segment A3A5 parallel to the Y direction (point A3 and point A3). A line segment connecting A5) and a line segment A4A6 parallel to the Y direction (line segment connecting point A4 and point A6). The line segment A3A4 is a broken line, and the other line segments are solid lines. The entry fields 40, 42, 44, and 46 regarding the address have the same configuration.

帳票34が実際に利用される場面においては、帳票34の利用者によって、帳票34内の各記入欄に、氏名や住所を表す文字列が記入される。そのようにして文字列が記入された帳票に対して、OCR等の文字認識処理が適用されることで、氏名や住所を表す文字列が認識される。その文字認識には定義情報が用いられる。   In a scene where the form 34 is actually used, the user of the form 34 enters a character string representing the name and address in each entry field in the form 34. By applying a character recognition process such as OCR to the form in which the character string is entered in this way, a character string representing a name and an address is recognized. Definition information is used for character recognition.

以下、図4を参照して、文字認識処理に用いられる定義情報について説明する。図4には、帳票34の定義情報の一例が示されている。この定義情報においては、一例として、記入欄に対応する記入枠の識別情報としての名称やIDと、用紙上における当該記入枠の位置情報としての座標情報と、当該記入枠の種類を示す種類情報と、が互いに対応付けられている。これら以外の情報が、定義情報に含まれていてもよい。識別情報と種類情報は、記入欄に記入されるべき情報(文字)の属性を示す属性情報の一例に相当する。座標は、X軸(X方向)とY軸(Y方向)上の位置によって定義されている。   Hereinafter, the definition information used for the character recognition process will be described with reference to FIG. FIG. 4 shows an example of definition information for the form 34. In this definition information, as an example, the name and ID as identification information of the entry frame corresponding to the entry field, the coordinate information as the position information of the entry frame on the paper, and the type information indicating the type of the entry frame Are associated with each other. Information other than these may be included in the definition information. The identification information and the type information correspond to an example of attribute information indicating attributes of information (characters) to be entered in the entry column. The coordinates are defined by positions on the X axis (X direction) and the Y axis (Y direction).

記入枠の識別情報は、記入欄に記入されるべき内容を示している。例えば、枠名「Furigana_Name」は、その記入欄に「氏名のふりがな」が記入されるべきことを示している。座標情報は、文字認識処理を適用すべき領域を示している。つまり、座標情報によって示された領域(記入枠)に対して文字認識処理が適用され、その記入枠から文字が抽出される。また、記入枠の種類は、文字認識処理に用いられる辞書を示している。例えば、枠種類「氏名ふりがな」は、その記入欄に対する文字認識処理には、「氏名ふりがな」専用の辞書を用いることを示している。なお、枠名は、文字認識処理によって認識された文字列を管理するデータベースにおける管理情報に対応していてもよい。   The identification information of the entry frame indicates the contents to be entered in the entry column. For example, the frame name “Furigana_Name” indicates that “phonetic name” should be entered in the entry field. The coordinate information indicates an area to which the character recognition process is to be applied. That is, the character recognition process is applied to the area (entry frame) indicated by the coordinate information, and characters are extracted from the entry frame. The type of entry frame indicates a dictionary used for character recognition processing. For example, the frame type “name furigana” indicates that a dictionary dedicated to “name furigana” is used for character recognition processing for the entry field. The frame name may correspond to management information in a database that manages the character string recognized by the character recognition process.

例えば、枠名「Furigana_Name」は、帳票34に形成されている記入欄36に対応する記入枠の識別情報である。この識別情報は、記入欄36に「氏名ふりがな」が記入されるべきことを示している。座標「1100,2100,370,390」は、記入欄36に対応する記入枠の座標である。より詳しく説明すると、記入欄36に対応する記入枠は、頂点としての点A1、A2,A3,A4に対応する頂点を有する。点A1に対応する頂点の座標(X,Y)は(1100,370)であり、点A2に対応する頂点の座標(X,Y)は(2100,370)であり、点A3に対応する頂点の座標(X,Y)は(1100,390)であり、点A4に対応する頂点の座標(X,Y)は(2100,390)である。なお、文字認識処理が適用される記入枠の各頂点の座標は、記入欄36の各頂点の座標と一致していてもよいし、一致していなくてもよい。つまり、記入枠は、記入欄36よりも広い領域として定義されてもよいし、狭い領域として定義されてもよい。また、枠種類「氏名ふりがな」は、記入欄36に記入されるべき情報(文字)の種類である。この種類情報は、文字認識処理に際して「氏名ふりがな」専用の辞書を用いるべきことを示している。他の記入欄に対応する記入枠についても、記入欄36に対応する記入枠と同様に、座標情報等が定義されている。   For example, the frame name “Furigana_Name” is identification information of an entry frame corresponding to the entry field 36 formed in the form 34. This identification information indicates that “name furigana” should be entered in the entry field 36. The coordinates “1100, 2100, 370, 390” are the coordinates of the entry frame corresponding to the entry field 36. More specifically, the entry frame corresponding to the entry field 36 has vertices corresponding to points A1, A2, A3, and A4 as vertices. The coordinates (X, Y) of the vertex corresponding to the point A1 are (1100, 370), the coordinates (X, Y) of the vertex corresponding to the point A2 are (2100, 370), and the vertex corresponding to the point A3. The coordinates (X, Y) of (1) are (1100, 390), and the coordinates (X, Y) of the vertex corresponding to the point A4 are (2100, 390). Note that the coordinates of each vertex of the entry frame to which the character recognition process is applied may or may not coincide with the coordinates of each vertex in the entry field 36. That is, the entry frame may be defined as an area wider than the entry field 36 or may be defined as a narrow area. Further, the frame type “name furigana” is the type of information (characters) to be entered in the entry field 36. This type information indicates that a dictionary dedicated to “name furigana” should be used for character recognition processing. As with the entry frame corresponding to the entry field 36, coordinate information and the like are defined for entry boxes corresponding to other entry fields.

例えば、記入欄36に対応する記入枠(上記の座標情報で定義されている領域)に対して文字認識処理が適用される。その際、「氏名ふりがな」専用の辞書が用いられて、その記入枠から文字が抽出される。抽出された文字は、「氏名ふりがな」を示す文字として、データベース等に管理される。他の記入欄についても同様である。   For example, the character recognition process is applied to an entry frame (an area defined by the coordinate information) corresponding to the entry field 36. At that time, a dictionary dedicated to “name furigana” is used to extract characters from the entry box. The extracted characters are managed in a database or the like as characters indicating “name furigana”. The same applies to the other entry fields.

情報処理装置10は、上記の定義情報を作成するために用いられる。そのために、情報処理装置10は、記入欄に文字が記入されていない帳票34(テンプレート)から記入欄に対応する記入枠を抽出する。   The information processing apparatus 10 is used to create the above definition information. For this purpose, the information processing apparatus 10 extracts an entry frame corresponding to the entry field from the form 34 (template) in which no characters are entered in the entry field.

なお、帳票34は用紙の一例に過ぎない。帳票以外にも、例えば、テストの解答用紙、アンケートの回答用紙、カルテ、公的機関が発行する書類(例えば住民票等)、申込用紙、投票用紙、等のように、記入欄が形成されている用紙であれば、本実施形態に係る処理が適用されてもよい。以下では、用紙の一例として帳票34を例に挙げて各処理について説明するが、帳票34以外の用紙にも、帳票34に対する処理と同様の処理が適用されてもよい。   The form 34 is only an example of paper. In addition to forms, for example, there are entry fields such as test answer sheets, questionnaire answer sheets, medical records, documents issued by public institutions (such as resident cards), application forms, ballots, etc. The processing according to the present embodiment may be applied to any paper that is present. In the following, each process will be described by taking the form 34 as an example of the sheet, but the same process as the process for the form 34 may be applied to a sheet other than the form 34.

以下、定義情報を作成するための処理について詳しく説明する。   Hereinafter, the process for creating the definition information will be described in detail.

定義情報を作成するためには、まず、記入欄に文字が記入されていない帳票34がスキャナ12によってスキャンされる。これにより、記入欄に文字が記入されていない帳票34の画像データ(以下、「テンプレート画像データ」と称する)が生成され、その画像データは、スキャナ12から情報処理装置10に送信される。そのテンプレート画像は、UI部16の表示部に表示される。   In order to create the definition information, first, the scanner 12 scans a form 34 in which characters are not entered in the entry field. As a result, image data (hereinafter referred to as “template image data”) of the form 34 in which no characters are entered in the entry field is generated, and the image data is transmitted from the scanner 12 to the information processing apparatus 10. The template image is displayed on the display unit of the UI unit 16.

図5には、テンプレート画像の表示例が示されている。例えば、ユーザがUI部16を操作してテンプレート画像の表示指示を与えた場合、表示制御部24は、テンプレート表示画面48を表示部に表示させ、そのテンプレート表示画面48にテンプレート画像を表示させる。テンプレート表示画面48は領域50を含み、その領域50内にテンプレート画像が表示される。例えば、氏名の記入欄を表す記入欄オブジェクト52と、住所の記入欄を表す記入欄オブジェクト54とを含む画像が、テンプレート画像として表示されている。また、テンプレート表示画面48には、記入枠の抽出指示を与えるための枠抽出ボタンと、定義情報の登録指示を与えるための登録ボタンが表示されている。   FIG. 5 shows a display example of the template image. For example, when the user operates the UI unit 16 to give a template image display instruction, the display control unit 24 displays the template display screen 48 on the display unit and displays the template image on the template display screen 48. The template display screen 48 includes an area 50, and a template image is displayed in the area 50. For example, an image including an entry field object 52 representing a name entry field and an entry field object 54 representing an address entry field is displayed as a template image. The template display screen 48 also displays a frame extraction button for giving an entry frame extraction instruction and a registration button for giving a definition information registration instruction.

テンプレート表示画面48上で、ユーザが枠抽出ボタンを押した場合、抽出部22は、テンプレート画像から記入枠としての矩形部分を抽出する。表示制御部24は、抽出部22によって抽出された記入枠を表す画像をUI部16の表示部に表示させる。   When the user presses the frame extraction button on the template display screen 48, the extraction unit 22 extracts a rectangular portion as an entry frame from the template image. The display control unit 24 displays an image representing the entry frame extracted by the extraction unit 22 on the display unit of the UI unit 16.

図6には、記入枠の抽出結果の表示例が示されている。表示制御部24は、枠表示画面56をUI部16の表示部に表示させ、その枠表示画面56に記入枠を表す画像を表示させる。枠表示画面56は、記入枠を表す画像が表示される領域58と、記入枠の座標情報等が表示される領域60とを含む。図6に示す例では、記入枠を表す記入枠画像62,64,66が表示されている。記入枠画像62は、記入欄36,38を合体させたような領域を表す画像である。記入枠画像64は、記入欄40,42を合体させたような領域を表す画像である。記入枠画像66は、記入欄44,46を合体させたような領域を表す画像である。つまり、各記入欄を構成する実線は枠線として抽出されているが、破線は枠線として抽出されていないため、記入欄36,38が区別されずに抽出されている。記入欄40,42と記入欄44,46についても同様である。   FIG. 6 shows a display example of the extraction result of the entry frame. The display control unit 24 displays the frame display screen 56 on the display unit of the UI unit 16 and displays an image representing the entry frame on the frame display screen 56. The frame display screen 56 includes an area 58 in which an image representing an entry frame is displayed and an area 60 in which coordinate information of the entry frame is displayed. In the example shown in FIG. 6, entry frame images 62, 64, and 66 representing entry frames are displayed. The entry frame image 62 is an image representing an area where the entry fields 36 and 38 are combined. The entry frame image 64 is an image representing an area where the entry fields 40 and 42 are combined. The entry frame image 66 is an image representing an area where the entry fields 44 and 46 are combined. That is, the solid lines constituting each entry field are extracted as frame lines, but the broken lines are not extracted as frame lines, so the entry fields 36 and 38 are extracted without distinction. The same applies to the entry fields 40 and 42 and the entry fields 44 and 46.

ここで、図3を参照して、線分の抽出アルゴリズムについて説明する。一例として、ヒストグラム法を用いて線分を抽出するものとする。抽出部22は、記入欄36,38を表す画像(テンプレート画像の一部)を構成する画素の黒点数を、抽出しようとする枠線と同一方向(例えばX方向及びY方向)に集計し、ヒストグラムを作成する。例えば、抽出部22は、Y方向の各座標において、画素の黒点数をX方向に集計し、各Y座標におけるX方向に対するヒストグラムを作成する。具体例を挙げて説明すると、抽出部22は、線分A1A2を構成する画素の黒点数をX方向に集計し、線分A1A2のヒストグラムを作成する。同様に、抽出部22は、X方向の各座標において、画素の黒点数をY方向に集計し、各X座標におけるY方向に対するヒストグラムを作成する。具体例を挙げて説明すると、抽出部22は、線分A1A5を構成する画素の黒点数をY方向に集計し、線分A1A5のヒストグラムを作成する。線分A1A2等の実線のヒストグラムは、枠線のない部分の黒点数に比べて大きな値となっている。それ故、線分A1A2等の実線が記入欄を構成する枠線として抽出されて枠線のない部分が枠線として抽出されないような閾値を設定しておき、ヒストグラムの値が閾値以上となる線分を枠線として抽出することで、線分A1A2等の実線が枠線として抽出される。その結果、実線として、X方向に平行な線分A1A2,A5A6と、Y方向に平行な線分A1A5,A2A6が、枠線として抽出される。一方、破線としての線分A3A4は、上記の閾値との関係で、枠線として抽出されない場合がある。   Here, the line segment extraction algorithm will be described with reference to FIG. As an example, a line segment is extracted using a histogram method. The extraction unit 22 aggregates the number of black spots of pixels constituting the image (part of the template image) representing the entry fields 36 and 38 in the same direction (for example, the X direction and the Y direction) as the frame line to be extracted, Create a histogram. For example, the extraction unit 22 adds up the number of black spots of pixels in the X direction at each coordinate in the Y direction, and creates a histogram for the X direction at each Y coordinate. To explain with a specific example, the extraction unit 22 adds up the number of black spots of the pixels constituting the line segment A1A2 in the X direction, and creates a histogram of the line segment A1A2. Similarly, the extraction unit 22 adds up the number of black spots of pixels in the Y direction at each coordinate in the X direction, and creates a histogram for the Y direction at each X coordinate. To explain with a specific example, the extraction unit 22 adds up the number of black spots of the pixels constituting the line segment A1A5 in the Y direction, and creates a histogram of the line segment A1A5. The histogram of the solid line such as the line segment A1A2 has a larger value than the number of black spots in the portion without the frame line. Therefore, a threshold value is set so that a solid line such as the line segment A1A2 is extracted as a frame line constituting the entry field and a portion without the frame line is not extracted as a frame line, and the histogram value is equal to or greater than the threshold value. By extracting the minute as a frame line, a solid line such as the line segment A1A2 is extracted as a frame line. As a result, line segments A1A2 and A5A6 parallel to the X direction and line segments A1A5 and A2A6 parallel to the Y direction are extracted as frame lines as solid lines. On the other hand, the line segment A3A4 as a broken line may not be extracted as a frame line because of the relationship with the above threshold value.

抽出された線分A1A2,A5A6,A1A5,A2A6に、これらの線分の中の他の線分が接続され、これら4つの線分によって矩形状の囲みが形成されているので、抽出部22は、これら4つの線分を一纏めにして矩形部分としての記入枠を抽出する。図6に示されている記入枠画像62は、このようにして抽出された記入枠を表す画像である。つまり、記入枠画像62は、線分A1A2,A5A6,A1A5,A2A6によって構成される矩形部分を表す画像(点A1,A2,A5,A6を頂点とする矩形部分を表す画像)である。破線としての線分A3A4は枠線として抽出されていないため、記入欄36と記入欄38は区別されずに、それらが1つの纏まりの領域として抽出されている。   Since the extracted line segments A1A2, A5A6, A1A5, and A2A6 are connected to other line segments, and these four line segments form a rectangular box, the extraction unit 22 These four line segments are grouped to extract an entry frame as a rectangular portion. The entry frame image 62 shown in FIG. 6 is an image representing the entry frame extracted in this way. That is, the entry frame image 62 is an image representing a rectangular portion composed of line segments A1A2, A5A6, A1A5, A2A6 (an image representing a rectangular portion having vertices at points A1, A2, A5, A6). Since the line segment A3A4 as a broken line is not extracted as a frame line, the entry field 36 and the entry field 38 are not distinguished from each other and are extracted as one grouped area.

住所に関する記入欄40,42,44,46についても同様であり、これらの記入欄を構成する実線が枠線として抽出され、破線は抽出されない。それ故、記入欄40,42が区別されずに、それらが1つの纏まりの領域として抽出され、その領域を表す画像が記入枠画像64として表示されている。同様に、記入欄44,46が区別されずに、それらが1つの纏まりの領域として抽出され、その領域を表す画像が記入枠画像66として表示されている。   The same applies to the entry fields 40, 42, 44, and 46 regarding the address, and the solid lines constituting these entry fields are extracted as frame lines, and the broken lines are not extracted. Therefore, the entry fields 40 and 42 are not distinguished from each other, and they are extracted as one grouped area, and an image representing the area is displayed as the entry frame image 64. Similarly, the entry fields 44 and 46 are not distinguished, but they are extracted as one grouped area, and an image representing the area is displayed as the entry frame image 66.

領域60には、例えば、抽出された記入枠のIDや、テンプレート画像上の記入枠の座標情報等が表示される。IDは、例えば、Y座標の小さい順に各記入枠に自動的に紐付けられる。図6に示す例では、3つの記入枠(記入枠画像62,64,66が表す記入枠)が抽出されているため、それら3つの記入枠のIDや座標情報が、領域60内に表示されている。   In the area 60, for example, the ID of the extracted entry frame, the coordinate information of the entry frame on the template image, and the like are displayed. For example, the ID is automatically associated with each entry frame in ascending order of the Y coordinate. In the example shown in FIG. 6, since three entry frames (entry frames represented by the entry frame images 62, 64, and 66) are extracted, the ID and coordinate information of these three entry frames are displayed in the area 60. ing.

また、枠表示画面56には、定義情報の登録指示を与えるための登録ボタンと、テンプレート画像の編集指示を与えるための編集ボタンが表示されている。ユーザが編集ボタンを押した場合、テンプレート画像を編集するための画面がUI部16の表示部に表示される。   The frame display screen 56 also displays a registration button for giving a definition information registration instruction and an editing button for giving a template image editing instruction. When the user presses the edit button, a screen for editing the template image is displayed on the display unit of the UI unit 16.

図6に示す例では、抽出されるべき記入枠(記入欄36,38,40,42,44,46のそれぞれに対応する記入枠)が抽出されていないため、記入枠の抽出に不足が発生している。この場合、ユーザによってテンプレート画像が編集され、その編集が反映されたテンプレート画像に対して抽出処理が適用されることで、より正確に記入枠が抽出される。   In the example shown in FIG. 6, since the entry frames to be extracted (entry frames corresponding to the entry fields 36, 38, 40, 42, 44, 46) are not extracted, there is a shortage of entry frame extraction. is doing. In this case, the template image is edited by the user, and the entry frame is extracted more accurately by applying the extraction process to the template image reflecting the editing.

以下、テンプレート画像の編集について説明する。   Hereinafter, editing of the template image will be described.

ユーザが編集ボタンを押した場合、表示制御部24は、テンプレート表示画面48をUI部16の表示部に表示させる。図7には、そのテンプレート表示画面48が示されている。テンプレート表示画面48には、図5と同様に、テンプレート画像が表示される。ユーザがUI部16を操作して、テンプレート表示画面48上で線分の描画指示を与えると、画像編集部26は、その指示に従って、テンプレート画像に線分からなる図形を追加する。例えば、ユーザが、マウスによるクリックやタッチパネル上のタッチ操作によって、図3中の線分A3A4を表す破線68の端点70,72を指定した場合、画像編集部26は、端点70,72を結ぶ実線からなる図形をテンプレート画像に追加する。なお、端点70は、線分A1A5上に指定され、端点72は、線分A2A6上に指定されている。表示制御部24は、その実線をテンプレート表示画面48に表示させる。図8には、その表示例が示されている。破線68上に、実線としての線分74が描画されている。なお、ユーザは、端点70,72を指定する方法以外に、テンプレート画像上に線分を直接的に描画してもよい。   When the user presses the edit button, the display control unit 24 displays the template display screen 48 on the display unit of the UI unit 16. FIG. 7 shows the template display screen 48. A template image is displayed on the template display screen 48 as in FIG. When the user operates the UI unit 16 and gives an instruction to draw a line segment on the template display screen 48, the image editing unit 26 adds a graphic composed of the line segment to the template image in accordance with the instruction. For example, when the user specifies the end points 70 and 72 of the broken line 68 representing the line segment A3A4 in FIG. 3 by clicking with the mouse or a touch operation on the touch panel, the image editing unit 26 displays the solid line connecting the end points 70 and 72. Add a figure consisting of to the template image. The end point 70 is specified on the line segment A1A5, and the end point 72 is specified on the line segment A2A6. The display control unit 24 displays the solid line on the template display screen 48. FIG. 8 shows a display example. A line segment 74 as a solid line is drawn on the broken line 68. Note that the user may directly draw a line segment on the template image in addition to the method of specifying the end points 70 and 72.

他の破線についても上記の描画操作によって、実線としての線分がテンプレート画像に追加される。具体的には、テンプレート画像上において、記入欄40,42を区分けする破線と、記入欄44,46を区分けする破線とに、実線としての線分が追加される。例えば図9に示すように、各破線上に実線としての線分が追加されて描画されている。   As for other broken lines, a line segment as a solid line is added to the template image by the above drawing operation. Specifically, on the template image, a line segment as a solid line is added to the broken line that separates the entry fields 40 and 42 and the broken line that separates the entry fields 44 and 46. For example, as shown in FIG. 9, a line segment as a solid line is added and drawn on each broken line.

上記のようにして実線がテンプレート画像に追加された後、ユーザが枠抽出ボタンを押した場合、再抽出部28は、実線が追加されたテンプレート画像から記入枠としての矩形部分を抽出する。その抽出アルゴリズムは、上述した抽出アルゴリズム(抽出部22の抽出アルゴリズム)と同じである。再抽出部28は、実線が追加された部分については、その実線を対象として抽出アルゴリズムを適用する。例えば、ヒストグラム法が適用された場合、その実線が追加された部分(破線の部分)のヒストグラムの値は閾値以上となるため、その実線が追加された部分は線分として抽出される。   After the solid line is added to the template image as described above, when the user presses the frame extraction button, the re-extraction unit 28 extracts a rectangular portion as an entry frame from the template image to which the solid line is added. The extraction algorithm is the same as the extraction algorithm described above (the extraction algorithm of the extraction unit 22). The re-extraction unit 28 applies an extraction algorithm for the portion to which the solid line is added with respect to the solid line. For example, when the histogram method is applied, the value of the histogram of the portion to which the solid line is added (dashed line portion) is equal to or greater than the threshold value, so the portion to which the solid line is added is extracted as a line segment.

なお、編集(図8に示す例では線分の追加)によって、テンプレート画像に線分等の図形が合成されてもよいし、テンプレート画像のレイヤーとその図形のレイヤーとが分かれて管理されてもよい。記入枠の抽出処理では、テンプレート画像のレイヤーとその図形のレイヤーとが合成された画像に対して抽出アルゴリズムが適用されることで、線分が抽出される。   Note that a graphic such as a line segment may be combined with the template image by editing (adding a line segment in the example shown in FIG. 8), or the template image layer and the graphic layer may be managed separately. Good. In the entry frame extraction process, a line segment is extracted by applying an extraction algorithm to an image in which a template image layer and a graphic layer are combined.

図10には、再抽出結果の一例が示されている。記入枠が抽出された場合、表示制御部24は、枠表示画面56をUI部16の表示部に表示させ、その枠表示画面56に記入枠を表す画像を表示させる。例えば、記入枠画像76,78,80,82,84,86が表示されている。図9に示すように、各破線上に実線からなる線分が追加されたので、各破線も抽出されている。その結果、記入欄36,38,40,42,44,46のそれぞれに対応する記入枠が個別的に抽出され、各記入欄に対応する記入枠を表す画像が表示されている。詳しく説明すると、図3中の線分A3A4(破線)も抽出され、これにより、線分A1A2,A3A4,A1A3,A2A4によって矩形状の囲みが形成されているので、再抽出部28は、これら4つの線分を一纏めにして矩形部分としての記入枠を抽出する。これにより、記入欄36に対応する記入枠が抽出される。他の記入欄についても同様である。   FIG. 10 shows an example of the re-extraction result. When the entry frame is extracted, the display control unit 24 displays the frame display screen 56 on the display unit of the UI unit 16 and displays an image representing the entry frame on the frame display screen 56. For example, entry frame images 76, 78, 80, 82, 84, 86 are displayed. As shown in FIG. 9, since the line segment which consists of a solid line was added on each broken line, each broken line is also extracted. As a result, entry frames corresponding to each of the entry fields 36, 38, 40, 42, 44, 46 are individually extracted, and an image representing the entry frame corresponding to each entry field is displayed. More specifically, the line segment A3A4 (broken line) in FIG. 3 is also extracted. As a result, a rectangular enclosure is formed by the line segments A1A2, A3A4, A1A3, and A2A4. The entry frame as a rectangular part is extracted by grouping the two line segments. As a result, an entry frame corresponding to the entry field 36 is extracted. The same applies to the other entry fields.

例えば、記入枠画像76は、記入欄36に対応する記入枠を表す画像である。記入枠画像78は、記入欄38に対応する記入枠を表す画像である。記入枠画像80は、記入欄40に対応する記入枠を表す画像である。記入枠画像82は、記入欄42に対応する記入枠を表す画像である。記入枠画像84は、記入欄44に対応する記入枠を表す画像である。記入枠画像86は、記入欄46に対応する記入枠を表す画像である。   For example, the entry frame image 76 is an image representing an entry frame corresponding to the entry field 36. The entry frame image 78 is an image representing an entry frame corresponding to the entry field 38. The entry frame image 80 is an image representing an entry frame corresponding to the entry field 40. The entry frame image 82 is an image representing an entry frame corresponding to the entry field 42. The entry frame image 84 is an image representing an entry frame corresponding to the entry field 44. The entry frame image 86 is an image representing an entry frame corresponding to the entry field 46.

図10に示す例では、帳票34に形成されている6つの記入欄に対応する6つの記入枠が抽出されているため、それら6つの記入枠のIDや座標情報が、領域60内に表示されている。   In the example shown in FIG. 10, since six entry frames corresponding to the six entry fields formed in the form 34 are extracted, the ID and coordinate information of these six entry frames are displayed in the area 60. ing.

枠表示画面56上で、ユーザが登録ボタンを押した場合、定義情報作成部30は、各記入枠の座標情報を含む定義情報を作成する。その定義情報は、UI部16の表示部に表示されてもよいし、他の装置に出力されてもよいし、ユーザによって編集されてもよい。例えば、各記入枠の座標情報に、文字認識処理に用いられる辞書を示す辞書情報(指名用の辞書情報や住所用の辞書情報等)や、記入欄に記入されるべき内容を示す情報等が、ユーザによって紐付けられる。また、座標情報が編集されてもよい。例えば、実際の記入欄よりも広い範囲が記入枠として定義されてもよい。また、定義情報は、そのデータ形式が変換されて出力されてもよい。   When the user presses the registration button on the frame display screen 56, the definition information creation unit 30 creates definition information including coordinate information of each entry frame. The definition information may be displayed on the display unit of the UI unit 16, may be output to another device, or may be edited by the user. For example, the coordinate information of each entry frame includes dictionary information indicating a dictionary used for character recognition processing (designation dictionary information, address dictionary information, etc.), information indicating contents to be entered in the entry field, and the like. , Tied by the user. Also, the coordinate information may be edited. For example, a range wider than the actual entry field may be defined as the entry frame. Further, the definition information may be output after the data format is converted.

記入欄に文字が記入された帳票34に対して、上記の定義情報を用いて文字認識処理を適用することで、記入枠画像76,78,80,82,84,86のそれぞれに対応する記入枠内に対して文字認識処理が適用され、各記入枠内から文字が抽出される。   The entry corresponding to each of the entry frame images 76, 78, 80, 82, 84, 86 is applied to the form 34 in which characters are entered in the entry field by applying the character recognition processing using the above definition information. Character recognition processing is applied to the inside of the frame, and characters are extracted from each entry frame.

以上のように、本実施形態によれば、全自動抽出処理では抽出されなかった破線が、記入枠を構成する枠線として抽出されるので、全自動で記入枠を抽出する場合と比べて、より正確に記入枠が抽出される。   As described above, according to the present embodiment, since the broken line that is not extracted in the fully automatic extraction process is extracted as the frame line constituting the entry frame, compared to the case where the entry frame is extracted fully automatically, The entry box is extracted more accurately.

再抽出の後、枠表示画面56上でユーザが編集ボタンを押した場合、表示制御部24は、テンプレート表示画面48を表示部に表示させる。ユーザは、そのテンプレート表示画面48上で、再び、テンプレート画像を編集してもよい。その編集後、ユーザが枠抽出ボタンを押した場合、再抽出部28は、その編集が反映されたテンプレート画像から記入枠を抽出し、表示制御部24は、その抽出結果を枠表示画面56に表示させる。このように、ユーザは、枠表示画面56上で記入枠の抽出結果を確認し、その抽出結果がユーザの期待と異なれば、テンプレート表示画面48にてテンプレート画像を編集してもよい。抽出結果がユーザの期待通りになるまで、ユーザは、上記の操作を繰り返してもよい。なお、表示制御部24は、枠抽出ボタンと編集ボタンとに対する操作によって画面を切り替えずに、タブ画面を利用して画面を切り替えてもよいし、1つの画面内に、テンプレート表示画面48と枠表示画面56の両方を表示させてもよい。   After the re-extraction, when the user presses the edit button on the frame display screen 56, the display control unit 24 displays the template display screen 48 on the display unit. The user may edit the template image again on the template display screen 48. After the editing, when the user presses the frame extraction button, the re-extraction unit 28 extracts an entry frame from the template image reflecting the editing, and the display control unit 24 displays the extraction result on the frame display screen 56. Display. As described above, the user may confirm the extraction result of the entry frame on the frame display screen 56 and edit the template image on the template display screen 48 if the extraction result is different from the user's expectation. The user may repeat the above operation until the extraction result is as expected by the user. Note that the display control unit 24 may switch the screen using the tab screen without switching the screen by operating the frame extraction button and the edit button, or the template display screen 48 and the frame within one screen. Both display screens 56 may be displayed.

なお、枠表示画面56上で、ユーザが、記入枠のIDを指定した場合、表示制御部24は、その指定されたIDに紐付く記入枠画像を、他の記入枠画像と区別して(識別可能な状態にして)枠表示画面56に表示させてもよい。例えば、表示制御部24は、指定されたIDに紐付く記入枠画像をハイライト表示によって枠表示画面56に表示させる。こうすることで、上記の区別を行わない場合と比べて、ユーザにとって、自身が指定している記入枠の認識が容易となる。例えば、ユーザが記入枠の座標情報を編集する場合に、ユーザが指定したIDに紐付く記入枠画像がハイライト表示されることで、ユーザにとって、その編集対象の記入枠の認識が容易となる。   When the user designates an entry frame ID on the frame display screen 56, the display control unit 24 distinguishes the entry frame image associated with the designated ID from other entry frame images (identification). It may be displayed on the frame display screen 56 (in a possible state). For example, the display control unit 24 displays an entry frame image associated with the designated ID on the frame display screen 56 by highlight display. This makes it easier for the user to recognize the entry frame designated by the user than when the above-described distinction is not made. For example, when the user edits the coordinate information of the entry frame, the entry frame image associated with the ID specified by the user is highlighted, so that the user can easily recognize the entry frame to be edited. .

以下、変形例について説明する。   Hereinafter, modified examples will be described.

(変形例1)
図11を参照して、変形例1について説明する。図11には、変形例1に係る記入欄が示されている。この記入欄88は、全体が実線によって構成された矩形状の形状を有するが、その矩形部分の内部に、Y方向に平行な破線90等が形成されている。この場合も、その破線は線分として抽出されない場合がある。その場合、ユーザが、テンプレート表示画面において、破線90の端点92,94を指定すると、画像編集部26は、端点92,94を結ぶ実線としての線分をテンプレート画像に追加する。なお、端点92,94は、X方向に平行な実線としての線分上に指定されている。他の線分についても同様の操作によって、実線としての線分が追加される。線分が追加されたテンプレート画像に対して抽出処理が適用されることで、破線90も線分として抽出され、その破線90を含む記入欄に対応する記入枠が抽出される。他の破線についても同様である。
(Modification 1)
A first modification will be described with reference to FIG. FIG. 11 shows an entry field according to the first modification. The entry field 88 has a rectangular shape entirely constituted by a solid line, and a broken line 90 or the like parallel to the Y direction is formed inside the rectangular portion. Also in this case, the broken line may not be extracted as a line segment. In this case, when the user specifies the end points 92 and 94 of the broken line 90 on the template display screen, the image editing unit 26 adds a line segment as a solid line connecting the end points 92 and 94 to the template image. Note that the end points 92 and 94 are specified on a line segment as a solid line parallel to the X direction. With respect to other line segments, a line segment as a solid line is added by the same operation. By applying the extraction process to the template image to which the line segment has been added, the broken line 90 is also extracted as a line segment, and an entry frame corresponding to the entry field including the broken line 90 is extracted. The same applies to the other broken lines.

変形例1においても、上記の実施形態と同様に、全自動で記入枠を抽出する場合と比べて、より正確に記入枠が抽出される。   Also in the modified example 1, as in the above-described embodiment, the entry frame is extracted more accurately than in the case where the entry frame is extracted fully automatically.

(変形例2)
変形例2について説明する。図12には、変形例2に係る記入欄が示されている。記入欄96は、曲線を有する表形式の記入欄である。記入欄96は、線分C1D1,B1D2,D1D2と曲線部分C1B1とによって囲まれている記入欄(氏名欄)、線分D1C2,D2B2,D1D2と曲線部分C2B2とによって囲まれている記入欄(氏名欄)、線分B1D2,B3D3,B1B3,D2D3によって囲まれている記入欄(住所欄)、線分D2B2,D3B4,D2D3,B2B4によって囲まれている記入欄(住所欄)、線分B3D3,C3D4,D3D4と曲線部分B3C3とによって囲まれている記入欄(電話番号欄)、及び、線分D3B4,D4C4,D3D4と曲線部分B4C4とによって囲まれている記入欄(電話番号欄)を含む。なお、点C1等の各点を表す黒丸は、説明の便宜上、図示されているが、実際の記入欄96には、黒丸は形成されていない。
(Modification 2)
Modification 2 will be described. FIG. 12 shows an entry field according to the second modification. The entry column 96 is a tabular entry column having a curve. The entry field 96 is an entry field (name field) surrounded by the line segments C1D1, B1D2, D1D2 and the curve portion C1B1, and an entry field (name) surrounded by the line segments D1C2, D2B2, D1D2 and the curve part C2B2. Column), entry column (address column) surrounded by line segments B1D2, B3D3, B1B3, D2D3, entry column (address column) surrounded by line segments D2B2, D3B4, D2D3, B2B4, and line segments B3D3, C3D4 , D3D4 and a curved line portion B3C3, and an entry field (telephone number field) surrounded by line segments D3B4, D4C4, D3D4 and a curved line part B4C4. Note that black circles representing points such as the point C1 are shown for convenience of explanation, but no black circle is formed in the actual entry field 96.

記入欄96に対して抽出部22による抽出処理が適用された場合、曲線部分は抽出されずに、直線部分のみが抽出される。図13には、線分の抽出結果98が示されている。例えば、線分B1B2,B3B4,B1B3,B2B4,C1C2,C3C4,D1D4が抽出され、曲線部分B1C1,B2C2,B3C3,B4C4は抽出されない。つまり、上述したヒストグラム法によれば、X方向又はY方向に平行な線分が抽出され、それら以外の線分(斜め線)や曲線は抽出されない。従って、記入欄96を構成する曲線部分は抽出されない。その結果、記入枠としては、上記の線分によって構成される記入枠のみが抽出される。   When the extraction process by the extraction unit 22 is applied to the entry field 96, only the straight line portion is extracted without extracting the curved portion. FIG. 13 shows a line segment extraction result 98. For example, the line segments B1B2, B3B4, B1B3, B2B4, C1C2, C3C4, and D1D4 are extracted, and the curve portions B1C1, B2C2, B3C3, and B4C4 are not extracted. That is, according to the above-described histogram method, line segments parallel to the X direction or the Y direction are extracted, and other line segments (oblique lines) and curves are not extracted. Therefore, the curve portion constituting the entry field 96 is not extracted. As a result, only the entry frame constituted by the above-described line segment is extracted as the entry frame.

図14には、抽出部22によって抽出された記入枠100,102が示されている。記入枠100は、線分B1D2,B3D3,B1B3,D3D3によって構成される矩形部分である。記入枠102は、線分D2B2,D3B4,D2D3,B2B4によって構成される矩形部分である。このように、曲線部分を含む記入欄(氏名欄と電話番号欄)に対応する記入枠は抽出されない。   FIG. 14 shows entry frames 100 and 102 extracted by the extraction unit 22. The entry frame 100 is a rectangular portion constituted by line segments B1D2, B3D3, B1B3, and D3D3. The entry frame 102 is a rectangular portion constituted by line segments D2B2, D3B4, D2D3, and B2B4. As described above, the entry frame corresponding to the entry field (name field and telephone number field) including the curved portion is not extracted.

曲線部分を含む記入欄に対応する記入枠を抽出するために、変形例2では、画像編集部26は、矩形部分を形成するための頂点を擬似的に作成し、再抽出部28は、その頂点を含む矩形部分を記入枠として抽出する。   In the second modification, in order to extract the entry frame corresponding to the entry field including the curved portion, the image editing unit 26 creates a pseudo vertex for forming the rectangular portion, and the re-extracting unit 28 A rectangular part including the vertex is extracted as an entry frame.

以下、図15を参照して、変形例3について詳しく説明する。例えば、テンプレート表示画面上で、ユーザが点B1,C1を指定すると、画像編集部26は、線分B1B3の延長線と線分C1C2の延長線とを仮想的に形成し、それら2つの延長線の交点である点E1の位置を演算する。次に、画像編集部26は、点E1と点B1とを結ぶ線分E1B1、及び、点E1と点C1とを結ぶ線分E1C1を、記入欄96を表すテンプレート画像に追加する。点E2,E3,E4についても同様であり、線分E2B2,E2C2,E3B3,E3C3,E4B4,E4C4が、テンプレート画像に追加される。なお、点Bi=(Xbi,Ybi)、点Ci=(Xc1,Yci)とした場合、点Ei=(Xbi,Yci)である(i=1,2,3,4)。   Hereinafter, the third modification will be described in detail with reference to FIG. For example, when the user designates points B1 and C1 on the template display screen, the image editing unit 26 virtually forms an extension line of the line segment B1B3 and an extension line of the line segment C1C2, and these two extension lines. The position of the point E1, which is the intersection of the two, is calculated. Next, the image editing unit 26 adds a line segment E1B1 connecting the points E1 and B1 and a line segment E1C1 connecting the points E1 and C1 to the template image representing the entry field 96. The same applies to points E2, E3, and E4, and line segments E2B2, E2C2, E3B3, E3C3, E4B4, and E4C4 are added to the template image. When the point Bi = (Xbi, Ybi) and the point Ci = (Xc1, Yci), the point Ei = (Xbi, Yci) (i = 1, 2, 3, 4).

図15に示されているテンプレート画像(線分が追加されたテンプレート画像)に対して、再抽出部28による抽出処理が適用された場合、線分E1E2,B1B2,B3B4,E3E4,E1E3,D1D4,E2E4が抽出され、これらによって構成される矩形部分が記入枠として抽出される。   When the extraction process by the re-extraction unit 28 is applied to the template image (template image with the line segment added) shown in FIG. 15, the line segments E1E2, B1B2, B3B4, E3E4, E1E3, D1D4 E2E4 is extracted, and a rectangular portion constituted by these is extracted as an entry frame.

図16には、記入枠の抽出結果が示されている。ここでは、記入枠104,106,108,110,112,114が抽出されている。記入枠104は、線分E1D1,B1D2,E1B1,D1D2によって構成される矩形部分である。記入枠106は、線分D1E2,D2B2,D1D2,E2B2によって構成される矩形部分である。記入枠108は、線分B1D2,B3D3,B1B3,D2D3によって構成される矩形部分である。記入枠110は、線分D2B2,D3B4,D2D3,B2B4によって構成される矩形部分である。記入枠112は、線分B3D3,E3D4,B3E3,D3D4によって構成される矩形部分である。記入枠114は、線分D3B4,D4E4,D3D4,B4E4によって構成される矩形部分である。これらの記入枠は、記入欄96に含まれる各記入欄に対応する領域である。   FIG. 16 shows the extraction result of the entry frame. Here, entry boxes 104, 106, 108, 110, 112, and 114 are extracted. The entry frame 104 is a rectangular portion constituted by line segments E1D1, B1D2, E1B1, and D1D2. The entry frame 106 is a rectangular portion constituted by line segments D1E2, D2B2, D1D2, and E2B2. The entry frame 108 is a rectangular portion constituted by line segments B1D2, B3D3, B1B3, D2D3. The entry frame 110 is a rectangular portion constituted by line segments D2B2, D3B4, D2D3, and B2B4. The entry frame 112 is a rectangular portion constituted by line segments B3D3, E3D4, B3E3, D3D4. The entry frame 114 is a rectangular portion constituted by line segments D3B4, D4E4, D3D4, and B4E4. These entry frames are areas corresponding to the entry fields included in the entry field 96.

以上のように、変形例2によれば、記入欄が曲線部分を含む場合であっても、その記入欄を含む記入枠が抽出され、その記入枠の座標情報を含む定義情報が作成される。   As described above, according to the second modification, even if the entry field includes a curved portion, the entry frame including the entry field is extracted, and the definition information including the coordinate information of the entry frame is created. .

なお、曲線部分を含む記入欄に対応する記入枠は、その記入欄と全く同じ形状を有する枠として抽出されないが、その記入欄を含む枠として抽出される。このように、記入欄が矩形状の形状を有していない場合、抽出された記入枠と元々の記入欄との間で、形状や大きさは一致しない。この場合であっても、抽出された記入枠は、元々の記入欄を含む領域であるため、その記入枠内を対象として文字認識処理が適用されることで、その記入欄に記載された文字が認識される。   Note that the entry frame corresponding to the entry field including the curved portion is not extracted as a frame having exactly the same shape as the entry field, but is extracted as a frame including the entry field. Thus, when the entry field does not have a rectangular shape, the shape and size do not match between the extracted entry frame and the original entry field. Even in this case, since the extracted entry frame is an area including the original entry field, the character recognition process is applied to the inside of the entry box, so that the characters described in the entry field are displayed. Is recognized.

(変形例3)
変形例3について説明する。変形例3では、外枠の一部を有していない記入欄を対象にして記入枠が抽出される。図17には、変形例3に係る記入欄の一例が示されている。記入欄115は、Y方向に平行な外枠を有していない表(開放表)である。つまり、点F1と点F10とを結ぶ線分が形成されておらず、同様に、点F3と点F12とを結ぶ線分が形成されていない。なお、点F1等の各点を表す黒丸は、説明の便宜上、図示されているが、実際の記入欄115には、黒丸は形成されていない。
(Modification 3)
Modification 3 will be described. In the third modification, an entry frame is extracted for an entry field that does not have a part of the outer frame. FIG. 17 shows an example of an entry field according to the third modification. The entry column 115 is a table (open table) that does not have an outer frame parallel to the Y direction. That is, the line segment connecting the point F1 and the point F10 is not formed, and similarly, the line segment connecting the point F3 and the point F12 is not formed. Note that black circles representing points such as the point F1 are illustrated for convenience of explanation, but no black circle is formed in the actual entry field 115.

記入欄115に対して抽出部22による抽出処理が適用された場合、線分F1F3,F4F6,F7F9,F10F12,F2F11が抽出される。しかし、これらの線分によっては矩形部分は構成されないため、矩形部分としての記入枠は抽出されない。   When the extraction process by the extraction unit 22 is applied to the entry field 115, line segments F1F3, F4F6, F7F9, F10F12, and F2F11 are extracted. However, since the rectangular portion is not constituted by these line segments, the entry frame as the rectangular portion is not extracted.

記入枠を抽出するために、テンプレート表示画面上で、ユーザが点F1,F10を指定すると、画像編集部26は、線分F1F10をテンプレート画像に追加する。同様に、ユーザが点F3F12を指定すると、画像編集部26は、線分F3F12をテンプレート画像に追加する。   When the user designates points F1 and F10 on the template display screen in order to extract the entry frame, the image editing unit 26 adds the line segment F1F10 to the template image. Similarly, when the user designates the point F3F12, the image editing unit 26 adds the line segment F3F12 to the template image.

各線分が追加されたテンプレート画像に対して、再抽出部28による抽出処理が適用された場合、線分F1F3,F4F6,F7F9,F10F12,F2F11に加えて、線分F1F10,F3F12が抽出され、これらによって構成される矩形部分が記入枠として抽出される。図18には、記入枠の抽出結果が示されている。ここでは、記入枠116,118,120,122,124,126が抽出されている。   When the extraction process by the re-extraction unit 28 is applied to the template image to which each line segment is added, in addition to the line segments F1F3, F4F6, F7F9, F10F12, and F2F11, line segments F1F10 and F3F12 are extracted, and these Is extracted as an entry frame. FIG. 18 shows the extraction result of the entry frame. Here, entry boxes 116, 118, 120, 122, 124, 126 are extracted.

以上のように、変形例3によれば、記入欄が外枠を有していない場合であっても、その記入欄に対応する記入枠が抽出され、その記入枠の座標情報を含む定義情報が作成される。   As described above, according to the third modification, even when the entry field does not have an outer frame, the entry frame corresponding to the entry field is extracted, and the definition information including the coordinate information of the entry frame Is created.

元々の記入欄115には、線分F1F10,F3F12が記載されていないが、例えば、点F2,F3,F5,F6を頂点とする仮想の矩形部分に氏名が記入されることが想定されている。住所や電話番号についても同様である。その仮想の矩形部分は、図18に示されている記入枠118に相当する。それ故、記入枠118に対して文字認識処理が適用されることで、氏名が記入されることが想定されている部分から、氏名を表す文字列が認識されることになる。   Although the line segments F1F10 and F3F12 are not described in the original entry field 115, for example, it is assumed that the name is entered in a virtual rectangular portion having the vertices at the points F2, F3, F5, and F6. . The same applies to addresses and telephone numbers. The virtual rectangular portion corresponds to the entry frame 118 shown in FIG. Therefore, by applying the character recognition process to the entry box 118, the character string representing the name is recognized from the portion where the name is supposed to be entered.

(変形例4)
変形例4について説明する。変形例4では、外枠を有していない記入欄を対象にして記入枠が抽出される。図19には、変形例4に係る記入欄の一例が示されている。記入欄128は、X方向に平行な外枠とY方向に平行な外枠の両方を有していない表(開放表)である。なお、点G1等の各点を表す黒丸は、説明の便宜上、図示されているが、実際の記入欄128には、黒丸は形成されていない。
(Modification 4)
Modification 4 will be described. In the fourth modification, entry frames are extracted for entry fields that do not have an outer frame. FIG. 19 shows an example of an entry field according to the fourth modification. The entry column 128 is a table (open table) that does not have both an outer frame parallel to the X direction and an outer frame parallel to the Y direction. Note that black circles representing points such as the point G1 are shown for convenience of explanation, but no black circle is formed in the actual entry field 128.

記入欄128に対して抽出部22による抽出処理が適用された場合、線分G2G4,G5G7,G1G8が抽出される。しかし、これらの線分によっては矩形部分は構成されないため、矩形部分としての記入枠は抽出されない。   When the extraction process by the extraction unit 22 is applied to the entry field 128, line segments G2G4, G5G7, and G1G8 are extracted. However, since the rectangular portion is not constituted by these line segments, the entry frame as the rectangular portion is not extracted.

記入枠を抽出するために、テンプレート表示画面上で、ユーザが、外枠を構成する4つの点を指定すると、画像編集部26は、その4つの点を頂点とする矩形をテンプレート画像に追加する。例えば、図20に示すように、ユーザが、矩形を構成する点H1,H2,H3,H4を指定すると、画像編集部26は、それらの点を頂点とする矩形130をテンプレート画像に追加する。この矩形130は、X方向に平行な線分H1H2,H3H4と、Y方向に平行な線分H1H3,H2H4とによって構成されている。図20に示す例では、線分H1H2は、記入欄128を構成する線分の端点である点G1上を通るように形成されており、線分H3H4は、記入欄128を構成する線分の端点である点G8上を通るように形成されており、線分H1H3は、記入欄128を構成する線分の端点である点G2、G5上を通るように形成されており、線分H2H4は、記入欄128を構成する線分の端点である点G4,G7上を通るように形成されている。このようにして、元々の記入欄128の外枠を形成する矩形130がテンプレート画像に追加されている。   In order to extract the entry frame, when the user designates four points constituting the outer frame on the template display screen, the image editing unit 26 adds a rectangle having the four points as vertices to the template image. . For example, as shown in FIG. 20, when the user designates points H1, H2, H3, and H4 that form a rectangle, the image editing unit 26 adds a rectangle 130 having these points as vertices to the template image. The rectangle 130 includes line segments H1H2 and H3H4 parallel to the X direction and line segments H1H3 and H2H4 parallel to the Y direction. In the example shown in FIG. 20, the line segment H1H2 is formed so as to pass on the point G1, which is the end point of the line segment that forms the entry column 128, and the line segment H3H4 is the line segment that constitutes the entry column 128. The line segment H1H3 is formed so as to pass over the point G8 which is the end point, and the line segment H1H3 is formed so as to pass over the points G2 and G5 which are the end points of the line segment constituting the entry field 128. , It is formed so as to pass on points G4 and G7 which are end points of the line segments constituting the entry field 128. In this way, a rectangle 130 forming the outer frame of the original entry field 128 is added to the template image.

矩形130が追加されたテンプレート画像に対して、再抽出部28による抽出処理が適用された場合、線分H1H2,G2G4,G5G7,H3H4,H1H3,G1G8,H2H4が抽出され、これらによって構成される矩形部分が記入枠として抽出される。例えば、図18に示されている記入枠と同じ記入枠が抽出される。   When the extraction process by the re-extraction unit 28 is applied to the template image to which the rectangle 130 is added, the line segments H1H2, G2G4, G5G7, H3H4, H1H3, G1G8, and H2H4 are extracted and formed by these. The part is extracted as an entry frame. For example, the same entry frame as the entry frame shown in FIG. 18 is extracted.

以上のように、変形例4によれば、記入欄が外枠を有していない場合であっても、その記入欄に対応する記入枠が抽出され、その記入枠の座標情報を含む定義情報が作成される。   As described above, according to the modified example 4, even when the entry field does not have an outer frame, the entry frame corresponding to the entry field is extracted, and the definition information including the coordinate information of the entry frame Is created.

元々の記入欄128には、矩形130を構成する線分が記載されていないが、例えば、点G1,H2,G3,G4を頂点とする仮想の矩形部分に氏名が記入されることが想定されている。住所や電話番号についても同様である。その仮想の矩形部分は、図18に示されている記入枠118に相当する。それ故、記入枠118に対して文字認識処理を適用することで、氏名が記入されることが想定されている部分から、氏名を表す文字列が認識されることになる。   The original entry field 128 does not describe the line segment constituting the rectangle 130. For example, it is assumed that the name is entered in a virtual rectangle portion having the points G1, H2, G3, and G4 as vertices. ing. The same applies to addresses and telephone numbers. The virtual rectangular portion corresponds to the entry frame 118 shown in FIG. Therefore, by applying the character recognition process to the entry box 118, the character string representing the name is recognized from the portion where the name is supposed to be entered.

また、変形例4において、画像編集部26は、ユーザによって指定された4点によって矩形が形成されるように、各点の位置を補正してもよい。図21及び図22を参照して、この補正処理について説明する。図21に示すように、ユーザが、元々の記入欄128が表されているテンプレート画像に対して、点K1、K2,K3,K4を指定したものとする。画像編集部26は、点K1,K2,K3、K4を頂点とする図形132をテンプレート画像に追加する。図形132は、矩形ではなく台形である。つまり、点K1,K2,K3との関係で、点K2が矩形の頂点の位置に指定されていないため、図形132は矩形に該当していない。この場合、画像編集部26は、線分K1K2と線分K2K4とが直交するように、点K2の位置を補正する。つまり、画像編集部26は、線分が他の線分と直交するように、当該線分の傾きを補正する。図22には、補正後の図形134が示されている。点K5は、補正後の点K2の位置である。補正によって、線分K1K5と線分K5K4とが直交し、これにより、矩形状の図形134が形成される。矩形状の図形134が形成された後は、上記の変形例4に係る処理と同様に、再抽出部28によって、記入枠が抽出される。なお、図22に示す例では、点K2の位置が補正されているが、他の点の位置が補正されることで、矩形状の図形がテンプレート画像に追加されてもよい。   In the fourth modification, the image editing unit 26 may correct the position of each point so that a rectangle is formed by the four points designated by the user. This correction process will be described with reference to FIGS. As shown in FIG. 21, it is assumed that the user has designated points K1, K2, K3, and K4 for the template image in which the original entry field 128 is represented. The image editing unit 26 adds a graphic 132 having vertices at the points K1, K2, K3, and K4 to the template image. The figure 132 is not a rectangle but a trapezoid. That is, the figure 132 does not correspond to the rectangle because the point K2 is not designated as the position of the rectangular vertex due to the relationship with the points K1, K2, and K3. In this case, the image editing unit 26 corrects the position of the point K2 so that the line segment K1K2 and the line segment K2K4 are orthogonal to each other. That is, the image editing unit 26 corrects the inclination of the line segment so that the line segment is orthogonal to the other line segments. FIG. 22 shows a corrected figure 134. Point K5 is the position of corrected point K2. By the correction, the line segment K1K5 and the line segment K5K4 are orthogonal to each other, thereby forming a rectangular figure 134. After the rectangular figure 134 is formed, an entry frame is extracted by the re-extraction unit 28 as in the processing according to the modification example 4 described above. In the example shown in FIG. 22, the position of the point K2 is corrected, but a rectangular figure may be added to the template image by correcting the positions of other points.

画像編集部26は、各点の位置の補正量(複数の点の位置を補正する場合には、その補正量の合計)が最小となるように、各点の位置を補正してもよいし、補正対象となる点の数が最小となるように、各点の位置を補正してもよい。図21及び図22に示す例では、画像編集部26は、各点の位置の補正量が最小であり、かつ、補正対象となる点の数が最小となるように、点K2の位置を補正している。   The image editing unit 26 may correct the position of each point so that the correction amount of the position of each point (the total of the correction amounts when correcting the positions of a plurality of points) is minimized. The position of each point may be corrected so that the number of points to be corrected is minimized. In the example shown in FIGS. 21 and 22, the image editing unit 26 corrects the position of the point K2 so that the correction amount of the position of each point is the minimum and the number of points to be corrected is the minimum. is doing.

また、上記の補正量が閾値以上となる場合、アラームが通知されてもよい。例えば、表示制御部24は、補正量が閾値以上となる旨を示すメッセージをUI部16の表示部に表示させる。もちろん、アラーム音が発せられてもよい。補正量が閾値以上となる場合、画像編集部26は、画像の編集(矩形の形成)を中止してもよい。   Further, an alarm may be notified when the correction amount is equal to or greater than the threshold value. For example, the display control unit 24 displays a message indicating that the correction amount is greater than or equal to the threshold on the display unit of the UI unit 16. Of course, an alarm sound may be emitted. When the correction amount is equal to or greater than the threshold value, the image editing unit 26 may stop editing the image (rectangular formation).

なお、画像編集部26は、ユーザによって描画された線分が、X方向又はY方向に平行となるように線分の位置を補正してもよい。例えば、ユーザによって2点が指定された場合において、その2点を結ぶ線分が、X方向又はY方向に平行ではない場合、画像編集部26は、その線分がX方向又はY方向に平行となるように線分の位置を補正する。例えば、画像編集部26は、ユーザによって指定された2点の中の1点を固定し、他の1点の位置を補正することで、X方向又はY方向に平行な線分を形成してもよいし、当該2点の位置を補正することで、X方向又はY方向に平行な線分を形成してもよい。   Note that the image editing unit 26 may correct the position of the line segment so that the line segment drawn by the user is parallel to the X direction or the Y direction. For example, when two points are specified by the user and the line segment connecting the two points is not parallel to the X direction or the Y direction, the image editing unit 26 determines that the line segment is parallel to the X direction or the Y direction. The position of the line segment is corrected so that For example, the image editing unit 26 forms a line segment parallel to the X direction or the Y direction by fixing one of the two points designated by the user and correcting the position of the other point. Alternatively, a line segment parallel to the X direction or the Y direction may be formed by correcting the positions of the two points.

(変形例5)
変形例5について説明する。変形例5では、画像編集部26は、ユーザによって指定された4つの点を頂点とする矩形を形成し、更に、その矩形の大きさを調整することで、元々の記入欄を構成する線分に接する矩形を形成し、その矩形をテンプレート画像に追加する。再抽出部28は、その矩形が追加されたテンプレート画像に対して抽出処理を適用することで、矩形部分としての記入枠を抽出する。以下、変形例5について詳しく説明する。
(Modification 5)
Modification 5 will be described. In the fifth modification, the image editing unit 26 forms a rectangle having four points designated by the user as vertices, and further adjusts the size of the rectangle to thereby form a line segment constituting the original entry field. Is formed, and the rectangle is added to the template image. The re-extraction unit 28 extracts an entry frame as a rectangular portion by applying extraction processing to the template image to which the rectangle is added. Hereinafter, Modification 5 will be described in detail.

例えば、図19に示すように、元々のテンプレート画像に、外枠を有していない記入欄128が表されているものとする。この記入欄128に対して、ユーザによって4つの点が指定されると、変形例4と同様に、画像編集部26は、4つの点を頂点とする矩形を形成する。図23には、その矩形の一例が示されている。矩形136が、ユーザによって指定された4つの点を頂点とする矩形である。この矩形136は、図20に示されている矩形130(記入欄128の外枠に相当する図形)よりも内側に形成されている。つまり、矩形136は、記入欄128において文字が記入されると想定される領域よりも狭い範囲を囲む図形である。この場合、画像編集部26は、矩形136を拡大することで、記入欄128の外枠に相当する図形を形成する。図23に示されている矩形138は、矩形136が拡大された後の図形である。矩形138は、元々の記入欄128を構成する線分の端点である点G1,G2,G4,G5,G7,G8上を通るように形成されている。つまり、矩形138は、元々の記入欄128を構成する線分に接する矩形であるといえる。このようにして、元々の記入欄128の外枠を形成する矩形138がテンプレート画像に追加される。矩形138が追加されたテンプレート画像に対して、再抽出部28による抽出処理が適用され、これによって、矩形部分としての記入枠が抽出される。   For example, as shown in FIG. 19, it is assumed that an entry field 128 having no outer frame is represented in the original template image. When the user designates four points in the entry field 128, the image editing unit 26 forms a rectangle having the four points as vertices as in the fourth modification. FIG. 23 shows an example of the rectangle. A rectangle 136 is a rectangle having four points designated by the user as vertices. This rectangle 136 is formed inside the rectangle 130 (a figure corresponding to the outer frame of the entry field 128) shown in FIG. That is, the rectangle 136 is a figure that encloses a range narrower than the area in which the character is assumed to be entered in the entry field 128. In this case, the image editing unit 26 enlarges the rectangle 136 to form a figure corresponding to the outer frame of the entry field 128. A rectangle 138 shown in FIG. 23 is a figure after the rectangle 136 is enlarged. The rectangle 138 is formed so as to pass over the points G1, G2, G4, G5, G7, and G8 which are the end points of the line segment constituting the original entry field 128. That is, it can be said that the rectangle 138 is a rectangle in contact with the line segment constituting the original entry field 128. In this way, a rectangle 138 that forms the outer frame of the original entry field 128 is added to the template image. Extraction processing by the re-extraction unit 28 is applied to the template image to which the rectangle 138 is added, and thereby an entry frame as a rectangular portion is extracted.

また、図24には、ユーザによって指定された4つの点を頂点とする別の矩形140が示されている。この矩形140は、元々の記入欄128の外枠に相当する図形(例えば図2中の矩形130)よりも外側に形成されている。つまり、矩形140は、記入欄128において文字が記入されると想定される領域よりも広い範囲を囲む図形である。矩形140が追加されたテンプレート画像に対して再抽出部28による抽出処理が適用された場合、元々の記入欄128に対応する記入枠は抽出されず、新たに追加された矩形140が抽出されるだけである。つまり、矩形140は、元々の記入欄128を構成する線分に接していないため、矩形140は、記入欄128に対応する記入枠の抽出に寄与しない。この場合、画像編集部26は、矩形140を縮小することで、記入欄128の外枠に相当する図形を形成する。図24に示されている矩形138は、矩形140が縮小された後の図形である。その矩形138が追加されたテンプレート画像に対して、再抽出部28による抽出処理が適用され、これによって、矩形部分としての記入枠が抽出される。   FIG. 24 shows another rectangle 140 whose apexes are the four points designated by the user. The rectangle 140 is formed outside the figure corresponding to the outer frame of the original entry field 128 (for example, the rectangle 130 in FIG. 2). That is, the rectangle 140 is a figure that encloses a wider area than the area in which the character is assumed to be entered in the entry field 128. When the extraction process by the re-extraction unit 28 is applied to the template image to which the rectangle 140 is added, the entry frame corresponding to the original entry field 128 is not extracted, and the newly added rectangle 140 is extracted. Only. That is, since the rectangle 140 is not in contact with the line segment constituting the original entry field 128, the rectangle 140 does not contribute to the extraction of the entry frame corresponding to the entry field 128. In this case, the image editing unit 26 reduces the rectangle 140 to form a figure corresponding to the outer frame of the entry field 128. A rectangle 138 shown in FIG. 24 is a figure after the rectangle 140 is reduced. Extraction processing by the re-extraction unit 28 is applied to the template image to which the rectangle 138 is added, and thereby an entry frame as a rectangular portion is extracted.

以上のように、変形例5によれば、ユーザの指示によって描画された矩形の大きさが自動的に調整されて、記入欄に対応する記入枠が抽出される。   As described above, according to the fifth modification, the size of the rectangle drawn by the user's instruction is automatically adjusted, and the entry frame corresponding to the entry field is extracted.

なお、記入欄の外枠に相当しなくても、記入欄を構成する線分に接する矩形が形成されてもよい。記入欄を構成する線分に接する矩形の概念の範疇には、その線分と交差する矩形も含まれる。例えば、図23に示されている矩形136は、記入欄を構成する線分G2G4,G5G7,G1G8に交差する図形である。この矩形136が追加されたテンプレート画像に対して再抽出部28による抽出処理が適用された場合、矩形136を構成する線分と、矩形136の内側に存在する線分(元々の記入欄128を構成する線分)が抽出される。それらの線分によって6つの矩形部分が構成されるため、再抽出部28は、それら6つの矩形部分を記入枠として抽出する。具体的には、図18に示されている記入枠116,118,120,122,124,126よりも小さい6つの記入枠が抽出される。このように、矩形136がテンプレート画像に追加された場合には、記入欄に対応する記入枠が抽出される。その抽出後、ユーザは、記入枠の座標情報を編集することで、記入枠の大きさを調整してもよい。   In addition, even if it does not correspond to the outer frame of the entry field, a rectangle in contact with the line segment constituting the entry field may be formed. The category of the rectangle that touches the line segment that forms the entry field includes a rectangle that intersects the line segment. For example, a rectangle 136 shown in FIG. 23 is a figure that intersects the line segments G2G4, G5G7, and G1G8 constituting the entry field. When the extraction process by the re-extraction unit 28 is applied to the template image to which the rectangle 136 is added, a line segment that forms the rectangle 136 and a line segment that exists inside the rectangle 136 (the original entry field 128 is changed). The line segment) is extracted. Since the six rectangular parts are constituted by these line segments, the re-extraction unit 28 extracts these six rectangular parts as an entry frame. Specifically, six entry frames smaller than the entry frames 116, 118, 120, 122, 124, and 126 shown in FIG. 18 are extracted. Thus, when the rectangle 136 is added to the template image, the entry frame corresponding to the entry field is extracted. After the extraction, the user may adjust the size of the entry frame by editing the coordinate information of the entry frame.

記入欄を構成する線分に接する線分がユーザによって追加された場合も、上記と同様のことがいえる。例えば図7及び図8に示すように、ユーザによって追加された線分74は、元々の記入欄36,38を構成する線分A1A5,A2A6(図3参照)に接する線分であるといえる。   The same applies to the case where a line segment in contact with the line segment constituting the entry field is added by the user. For example, as shown in FIGS. 7 and 8, the line segment 74 added by the user can be said to be a line segment in contact with the line segments A1A5 and A2A6 (see FIG. 3) constituting the original entry fields 36 and 38.

また、ユーザの指示に従って追加された線分や矩形が、元々の記入欄を構成する線分と全く接しない場合、エラーが通知されてもよい。例えば、表示制御部24は、そのエラーを示す情報を表示部に表示させる。こうすることで、記入枠の抽出に寄与する線分や矩形の追加をユーザに促すことができる。   Further, an error may be notified when the line segment or rectangle added according to the user's instruction does not touch the line segment constituting the original entry field at all. For example, the display control unit 24 displays information indicating the error on the display unit. By doing so, it is possible to prompt the user to add a line segment or a rectangle that contributes to the extraction of the entry frame.

また、記入枠の抽出に寄与しない図形がユーザによって追加された場合、表示制御部24は、テンプレート表示画面48上にて、その追加された図形を、他の図形と識別可能にして表示してもよい。例えば、表示制御部24は、追加された図形をハイライト表示によってテンプレート表示画面48に表示させてもよい。それとは逆に、表示制御部24は、テンプレート画像をハイライト表示によってテンプレート表示画面48に表示させてもよい。   When a figure that does not contribute to extraction of the entry frame is added by the user, the display control unit 24 displays the added figure on the template display screen 48 so that it can be distinguished from other figures. Also good. For example, the display control unit 24 may display the added graphic on the template display screen 48 by highlight display. On the contrary, the display control unit 24 may display the template image on the template display screen 48 by highlight display.

(変形例6)
変形例6について説明する。変形例6では、画像編集部26は、ユーザの指示に従って、テンプレート画像上に非抽出領域を形成する。再抽出部28は、テンプレート画像内の非抽出領域以外の領域から記入枠としての矩形部分を抽出する。非抽出領域は、例えば、その部分の画像を白色で塗り潰すことによって形成されてもよいし、その部分の画像が削除されることで形成されてもよい。以下、変形例6について詳しく説明する。
(Modification 6)
Modification 6 will be described. In the sixth modification, the image editing unit 26 forms a non-extraction region on the template image in accordance with a user instruction. The re-extraction unit 28 extracts a rectangular portion as an entry frame from an area other than the non-extraction area in the template image. The non-extraction area may be formed by, for example, filling the image of the part with white, or may be formed by deleting the image of the part. Hereinafter, Modification 6 will be described in detail.

図25には、変形例6に係る記入欄142が示されている。この記入欄142は、Y方向に平行な二重線部分144を有する。この記入欄142に対して抽出部22による抽出処理が適用されると、その二重線部分144を構成する線分によって囲まれた部分が記入枠として抽出される。図26には、その抽出結果146が示されている。二重線部分144に対応する記入枠148が抽出されている。   FIG. 25 shows an entry field 142 according to Modification 6. This entry field 142 has a double line portion 144 parallel to the Y direction. When the extraction process by the extraction unit 22 is applied to the entry field 142, the part surrounded by the line segment constituting the double line part 144 is extracted as an entry frame. FIG. 26 shows the extraction result 146. An entry frame 148 corresponding to the double line portion 144 is extracted.

上記の二重線部分144は、通常、文字が記入される領域ではなく、互いに隣り合う記入欄を区分けするために用いられる。そのため、二重線部分144を残したまま抽出処理を実行すると、記入枠ではない部分も記入枠として抽出されることになる。   The double-line portion 144 is usually used to separate adjacent entry fields, not an area where characters are entered. Therefore, if the extraction process is executed with the double line portion 144 left, a portion that is not an entry frame is also extracted as an entry frame.

そこで、変形例6では、線分が抽出されない非抽出領域がテンプレート画像に形成される。例えば、図27に示すように、ユーザが、テンプレート表示画面において、不要な矩形部分を構成する4つの頂点L1,L2,L3,L4を指定すると、画像編集部26は、頂点L1,L2,L3、L4によって構成される非抽出領域をテンプレート画像に形成する。例えば、画像編集部26は、その非抽出領域を白色で塗り潰す。図28には、非抽出領域が白色で塗り潰された記入欄150が示されている。この記入欄150に対して再抽出部28による抽出処理が適用された場合、白色の非抽出領域以外の領域から線分が抽出され、更に、記入枠が抽出される。つまり、非抽出領域は白色に塗り潰されているため、その部分からは線分が抽出されない。これにより、二重線部分144に対応する記入枠は抽出されず、それ以外の記入枠が抽出される。   Therefore, in Modification 6, a non-extracted area where no line segment is extracted is formed in the template image. For example, as illustrated in FIG. 27, when the user designates four vertices L1, L2, L3, and L4 that form unnecessary rectangular portions on the template display screen, the image editing unit 26 causes the vertices L1, L2, and L3 to be displayed. , L4 is formed in the template image. For example, the image editing unit 26 fills the non-extraction area with white. FIG. 28 shows an entry field 150 in which the non-extraction area is filled with white. When the extraction process by the re-extraction unit 28 is applied to the entry field 150, a line segment is extracted from an area other than the white non-extraction area, and an entry frame is further extracted. That is, since the non-extracted region is filled with white, no line segment is extracted from that portion. As a result, the entry frame corresponding to the double line portion 144 is not extracted, and other entry frames are extracted.

変形例6によれば、記入枠ではない部分が記入枠として抽出されることが防止される。   According to the modified example 6, it is possible to prevent a portion that is not an entry frame from being extracted as an entry frame.

なお、非抽出領域として、白色の線分がテンプレート画像に追加されてもよい。例えば図29に示すように、記入欄142の二重線部分144の内側に、白色の線分152(便宜的に破線で示されている)がY方向に平行に追加されている。その線分152は、二重線部分144の内側において、X方向に平行な各線分と交差するように、つまり、各線を分断するように、テンプレート画像に追加されている。このような線分152がテンプレート画像に追加された場合も、二重線部分144においては矩形部分としての記入枠が抽出されないので、記入枠ではない部分が記入枠として抽出されることが防止される。   A white line segment may be added to the template image as a non-extraction region. For example, as shown in FIG. 29, a white line segment 152 (shown by a broken line for convenience) is added in parallel to the Y direction inside the double line portion 144 of the entry field 142. The line segment 152 is added to the template image so as to intersect with each line segment parallel to the X direction inside the double line portion 144, that is, to divide each line. Even when such a line segment 152 is added to the template image, the double-line portion 144 does not extract the entry frame as a rectangular portion, so that a portion that is not the entry frame is prevented from being extracted as the entry frame. The

(変形例7)
変形例7について説明する。図30には、変形例7に係る記入欄154が示されている。記入欄154は、表形式の記入欄である。また、記入欄154は、ハッチングが形成されている領域156を有する。線分の抽出アルゴリズムとして、上述したヒストグラム法が用いられる場合、領域156内のハッチングの程度によっては、領域156内から、X方向に平行な線分やY方向に平行な線分が抽出される場合がある。そのような線分は、不要な線分である。そこで、変形例6と同様に、画像編集部26は、ユーザの指示に従って、不要な線分が抽出される領域に対して非抽出領域を形成する。例えば、画像編集部26は、その非抽出領域を白色で塗り潰す。
(Modification 7)
Modification 7 will be described. FIG. 30 shows an entry field 154 according to the modified example 7. The entry column 154 is a tabular entry column. The entry column 154 has a region 156 where hatching is formed. When the above-described histogram method is used as the line segment extraction algorithm, a line segment parallel to the X direction or a line segment parallel to the Y direction is extracted from the area 156 depending on the degree of hatching in the area 156. There is a case. Such a line segment is an unnecessary line segment. Therefore, as in the sixth modification, the image editing unit 26 forms a non-extraction region for a region from which unnecessary line segments are extracted in accordance with a user instruction. For example, the image editing unit 26 fills the non-extraction area with white.

図31には、非抽出領域が白色で塗り潰された記入欄154が示されている。ハッチングが形成されている領域156が、ユーザによって非抽出領域として指定された場合、画像編集部26は、矢印158で示すように、その領域156を白色で塗り潰す。こうすることで、領域156からは線分が抽出されないので、その線分によって構成される矩形部分が記入枠として抽出されることが防止される。   FIG. 31 shows an entry field 154 in which the non-extraction area is filled with white. When the hatched area 156 is designated as a non-extraction area by the user, the image editing unit 26 fills the area 156 with white as indicated by an arrow 158. By doing so, since no line segment is extracted from the region 156, it is possible to prevent a rectangular portion constituted by the line segment from being extracted as an entry frame.

なお、ハッチング以外にも、記入欄以外の図形や画像や文字が、記入欄に形成されている場合、その図形や画像や文字が形成された部分から、X方向に平行な線分やY方向に平行な線分が抽出される場合がある。この場合、ハッチングの対処方法と同様に、抽出されるべきではない線分が抽出される部分を白色で塗り潰すことで、抽出されるべきではない線分が抽出されることが防止される。   In addition to hatching, when a figure, image, or character other than the entry field is formed in the entry field, a line segment parallel to the X direction or the Y direction from the part where the figure, image, or character is formed. May be extracted in parallel. In this case, as in the hatching handling method, a portion where a line segment that should not be extracted is painted in white to prevent a line segment that should not be extracted from being extracted.

(変形例8)
変形例8について説明する。図32には、変形例8に係る用紙(テンプレート)が示されている。この用紙160(テンプレート)には、氏名が記入されるべき記入欄162が形成されている(例えば印刷されている)。また、用紙160に折り目164,166が形成されている。折り目164,166が形成された状態で、用紙160がスキャナ12によってスキャンされた場合、そのスキャンによって生成されたテンプレート画像には、折り目164,166を表す部分が表示される。
(Modification 8)
Modification 8 will be described. FIG. 32 shows a sheet (template) according to Modification 8. On this sheet 160 (template), an entry field 162 in which a name is to be entered is formed (for example, printed). In addition, fold lines 164 and 166 are formed on the sheet 160. When the sheet 160 is scanned by the scanner 12 with the fold lines 164 and 166 formed, portions representing the fold lines 164 and 166 are displayed in the template image generated by the scan.

図33には、用紙160を表すテンプレート画像168が示されている。テンプレート画像168には、記入欄162を表す記入欄画像170が表されていると共に、折り目164,166を表す線分172,174が表示されている。線分172は、記入欄画像170をX方向に横切っている。   In FIG. 33, a template image 168 representing the sheet 160 is shown. In the template image 168, an entry field image 170 representing the entry field 162 is displayed, and line segments 172 and 174 representing the creases 164 and 166 are displayed. A line segment 172 crosses the entry field image 170 in the X direction.

テンプレート画像168に対して抽出部22による抽出処理が適用された場合、線分172,174も抽出され、その線分172,174によって構成される矩形部分が記入枠として抽出される場合がある。例えば、記入欄162は1つの記入欄であるが、線分172が記入欄画像170をX方向に横切っているので、記入欄画像170から2つの記入枠が抽出されることになる。図34には、その抽出結果が示されている。記入欄画像170が線分172によって分断されているため、記入欄画像170から記入枠176,178が抽出されている。   When the extraction process by the extraction unit 22 is applied to the template image 168, the line segments 172 and 174 are also extracted, and a rectangular portion constituted by the line segments 172 and 174 may be extracted as an entry frame. For example, although the entry field 162 is one entry field, since the line segment 172 crosses the entry field image 170 in the X direction, two entry frames are extracted from the entry field image 170. FIG. 34 shows the extraction result. Since the entry field image 170 is divided by the line segment 172, entry frames 176 and 178 are extracted from the entry field image 170.

上記のように、用紙に折り目が形成されている場合、記入枠ではない部分が記入枠として抽出される場合がある。その抽出を防止するために、変形例8においても、変形例6,7と同様に、画像編集部26は、ユーザの指示に従って、折り目に対応する線分172,174に対して非抽出領域を形成する。つまり、画像編集部26は、線分172,174を白色で塗り潰す。図35には、線分172が白色に塗り潰された状態が示されている。例えば、矢印180で示すように、線分172において、記入欄画像170内に描画されている部分がユーザによって指定され、その部分が、白色に塗り潰されている。こうすることで、その白色に塗り潰された部分からは線分が抽出されないので、記入欄画像170は、線分172によって分断されず、記入欄画像170から1つの矩形部分が記入枠として抽出される。なお、線分172,174の全部が白色に塗り潰されてもよい。   As described above, when a crease is formed on a sheet, a portion that is not an entry frame may be extracted as an entry frame. In order to prevent the extraction, also in the modified example 8, as in the modified examples 6 and 7, the image editing unit 26 sets non-extracted regions for the line segments 172 and 174 corresponding to the folds according to the user's instruction. Form. That is, the image editing unit 26 fills the line segments 172 and 174 with white. FIG. 35 shows a state where the line segment 172 is painted white. For example, as indicated by an arrow 180, in the line segment 172, a part drawn in the entry field image 170 is designated by the user, and the part is painted white. By doing so, no line segment is extracted from the white-filled portion. Therefore, the entry field image 170 is not divided by the line segment 172, and one rectangular part is extracted from the entry field image 170 as an entry frame. The All of the line segments 172 and 174 may be painted white.

(変形例9)
変形例9について説明する。図36には、変形例9に係る記入欄186が示されている。この記入欄186は、全体として実線からなる矩形部分を有し、更に、その矩形部分の内部にX方向に平行な破線を有する。上記の実施形態と同様に、この記入欄186に対して抽出部22による抽出処理が適用された場合、破線は枠線として抽出されないので、その破線で区切られた2つの記入欄に対応する2つの記入枠は抽出されずに、全体として1つの矩形部分が記入枠として抽出される。
(Modification 9)
Modification 9 will be described. FIG. 36 shows an entry field 186 according to the ninth modification. This entry field 186 has a rectangular portion consisting of a solid line as a whole, and further has a broken line parallel to the X direction inside the rectangular portion. Similarly to the above-described embodiment, when the extraction process by the extraction unit 22 is applied to the entry field 186, the broken line is not extracted as a frame line. Therefore, 2 corresponding to the two entry fields separated by the broken line. One rectangle is extracted as an entry frame as a whole without extracting one entry frame.

2つの記入枠を抽出するために、上記の実施形態では、破線の両端部がユーザによって指定され、その両端部を結ぶ実線がテンプレート画像に追加される。変形例9では、記入欄186の外側に2つの点がユーザによって指定されてもよい。図36に示す例では、破線をその前後方向に延長したそれぞれの位置に、点188,190がユーザによって指定されている。画像編集部26は、図37に示すように、点188,190を結ぶ線分192をテンプレート画像に追加する。線分192は、破線上に描画される。点188,190は記入欄186の外側の位置に指定されているため、線分192は、記入欄186を構成する線分に交差する。その線分192が追加されたテンプレート画像に対して、再抽出部28による抽出処理が適用されると、記入欄186を構成する線分に交差する線分192によって記入欄186はY方向に分断され、その結果、Y方向に並ぶ2つの矩形部分がそれぞれ記入枠として抽出される。   In order to extract the two entry frames, in the above embodiment, both ends of the broken line are designated by the user, and a solid line connecting the both ends is added to the template image. In Modification 9, two points may be designated by the user outside the entry field 186. In the example shown in FIG. 36, points 188 and 190 are designated by the user at respective positions obtained by extending the broken line in the front-rear direction. As shown in FIG. 37, the image editing unit 26 adds a line segment 192 connecting the points 188 and 190 to the template image. The line segment 192 is drawn on the broken line. Since the points 188 and 190 are specified at positions outside the entry field 186, the line segment 192 intersects with the line segment constituting the entry field 186. When the extraction process by the re-extraction unit 28 is applied to the template image to which the line segment 192 is added, the entry field 186 is divided in the Y direction by the line segment 192 that intersects the line segment constituting the entry field 186. As a result, two rectangular portions arranged in the Y direction are extracted as entry frames, respectively.

以上のように、記入欄を構成する線分に交差する線分がテンプレート画像に追加された場合も、上述した実施形態と同様に、抽出されるべき記入枠が抽出される。   As described above, even when a line segment that intersects the line segment constituting the entry field is added to the template image, the entry frame to be extracted is extracted as in the above-described embodiment.

なお、変形例9では、テンプレート画像に線分が追加されているが、記入欄を構成する線分に交差する矩形がテンプレート画像に追加されてもよい。   In Modification 9, a line segment is added to the template image. However, a rectangle that intersects the line segment that forms the entry field may be added to the template image.

(変形例10)
変形例10について説明する。変形例10では、表示制御部24は、抽出部22による抽出結果を枠表示画面に表示させると共に、テンプレート画像を背景画像として枠表示画面に表示させる。以下、図38を参照して、変形例10について詳しく説明する。
(Modification 10)
Modification 10 will be described. In the modification 10, the display control unit 24 displays the extraction result by the extraction unit 22 on the frame display screen, and displays the template image as a background image on the frame display screen. Hereinafter, the modified example 10 will be described in detail with reference to FIG.

図38には、変形例10に係る枠表示画面が示されている。例えば、図2に示されている帳票34を対照として、抽出部22による抽出処理が実行され、その抽出結果が枠表示画面56に表示されている。図6を参照して説明したように、帳票34における実線部分によって構成される各記入枠を表す記入枠画像62,64,66が、枠表示画面56に表示されている。   FIG. 38 shows a frame display screen according to Modification Example 10. For example, the extraction process by the extraction unit 22 is executed with the form 34 shown in FIG. 2 as a control, and the extraction result is displayed on the frame display screen 56. As described with reference to FIG. 6, the entry frame images 62, 64, 66 representing the entry frames constituted by the solid line portions in the form 34 are displayed on the frame display screen 56.

表示制御部24は、抽出部22による抽出結果と共に、テンプレート画像を背景画像として枠表示画面56に表示させる。具体的には、表示制御部24は、図5に示されている記入欄オブジェクト52,54を、記入枠画像62,64,66の背景画像として枠表示画面56に表示させる。図38に示す例では、記入欄オブジェクト52中の破線画像194が、記入枠画像62が表す記入枠の内側に表示されている。同様に、記入欄オブジェクト54中の破線画像196が、記入枠画像64が表す記入枠の内側に表示され、記入欄オブジェクト54中の破線画像198が、記入枠画像66が表す記入枠の内側に表示されている。   The display control unit 24 displays the template image on the frame display screen 56 as a background image together with the extraction result by the extraction unit 22. Specifically, the display control unit 24 displays the entry field objects 52 and 54 shown in FIG. 5 on the frame display screen 56 as background images of the entry frame images 62, 64 and 66. In the example shown in FIG. 38, the broken line image 194 in the entry field object 52 is displayed inside the entry frame represented by the entry frame image 62. Similarly, the broken line image 196 in the entry field object 54 is displayed inside the entry frame represented by the entry frame image 64, and the broken line image 198 in the entry field object 54 is located inside the entry frame represented by the entry frame image 66. It is displayed.

以上のように、変形例10によれば、記入枠の抽出結果と共にテンプレート画像が表示されるので、ユーザは、記入枠として抽出されていない部分を目視で確認することができる。   As described above, according to the modified example 10, the template image is displayed together with the extraction result of the entry frame, so that the user can visually confirm the portion that is not extracted as the entry frame.

表示制御部24は、テンプレート画像内の少なくとも一部の画像を、背景画像として枠表示画面56に表示させてもよい。例えば、表示制御部24は、記入枠として抽出されなかった部分の画像を、背景画像として枠表示画面56に表示させる。帳票34を構成する破線は枠線として認識されず、その破線は記入枠として検出されていないため、図38に示す例では、各破線を表す破線画像194,196,198が背景画像として表示される。このように、記入枠として抽出されなかった部分の画像を表示することで、ユーザは、その部分を目視で確認することができる。   The display control unit 24 may display at least a part of the image in the template image on the frame display screen 56 as a background image. For example, the display control unit 24 causes the frame display screen 56 to display the image of the portion that has not been extracted as the entry frame as the background image. Since the broken lines constituting the form 34 are not recognized as frame lines, and the broken lines are not detected as entry frames, the broken line images 194, 196, and 198 representing the broken lines are displayed as background images in the example shown in FIG. The Thus, by displaying the image of the part that was not extracted as the entry frame, the user can visually confirm the part.

また、表示制御部24は、記入枠として抽出されなかった部分の画像と、記入枠として抽出された部分の画像とを区別して(識別可能な状態で)枠表示画面56に表示させてもよい。例えば、表示制御部24は、記入枠として抽出されなかった部分の画像をハイライト表示によって枠表示画面56に表示させ、記入枠として抽出された部分の画像を非ハイライト表示によって枠表示画面56に表示させる。図38に示す例では、破線画像194,196,198がハイライト表示される。こうすることで、上記の区別を行わない場合と比べて、ユーザにとって、記入枠として抽出されなかった部分の認識が容易となる。もちろん、表示制御部24は、記入枠として抽出された部分の画像をハイライト表示によって枠表示画面56に表示させ、記入枠として抽出されなかった部分の画像を非ハイライト表示によって枠表示画面56に表示させてもよい。   In addition, the display control unit 24 may distinguish between the image of the part not extracted as the entry frame and the image of the part extracted as the entry frame (in an identifiable state) and display them on the frame display screen 56. . For example, the display control unit 24 causes the frame display screen 56 to display an image of a portion that has not been extracted as an entry frame by highlight display, and displays the image of the portion that has been extracted as an entry frame by non-highlight display. To display. In the example shown in FIG. 38, broken line images 194, 196, and 198 are highlighted. This makes it easier for the user to recognize a portion that has not been extracted as an entry frame, compared to the case where the above-described distinction is not made. Of course, the display control unit 24 displays the image of the portion extracted as the entry frame on the frame display screen 56 by highlight display, and displays the image of the portion not extracted as the entry frame by non-highlight display. May be displayed.

なお、上記の実施形態及び変形例では、文字が記入されるべき記入欄に対応する記入枠が抽出されるが、別の例として、画像や図形が形成されるべき欄に対応する枠や、指紋が押捺されるべき欄に対応する枠や、押印されるべき欄(印影が形成されるべき欄)に対応する枠等が、抽出されてもよい。つまり、文字以外にも、画像、図形、指紋、印影等も、記入欄に記入されるべき情報の一例に該当してもよい。例えば、画像認識処理や図形認識処理によって、欄に形成された画像や図形が認識され、指紋認識処理によって、欄に形成された指紋が認識される。また、画像認識処理や文字認識処理によって、欄に形成された印影が認識される。これらの認識処理のために、上記の枠の座標情報を含む定義情報が作成される。   In the above-described embodiment and modification, an entry frame corresponding to an entry field in which characters are to be entered is extracted, but as another example, a frame corresponding to a field in which an image or a figure is to be formed, A frame corresponding to a field where a fingerprint is to be imprinted, a frame corresponding to a field where a fingerprint is to be impressed (a field where an imprint is to be formed), and the like may be extracted. That is, in addition to characters, images, graphics, fingerprints, seals, and the like may also correspond to examples of information to be entered in the entry field. For example, an image or a graphic formed in a column is recognized by image recognition processing or graphic recognition processing, and a fingerprint formed in the column is recognized by fingerprint recognition processing. In addition, the imprint formed in the column is recognized by image recognition processing and character recognition processing. For these recognition processes, definition information including the coordinate information of the frame is created.

上記の情報処理装置10は、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、情報処理装置10は、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、情報処理装置10の各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、情報処理装置10の各部は、例えばプロセッサや電子回路やASIC(Application Specific Integrated Circuit)等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、情報処理装置10の各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。   The information processing apparatus 10 is realized by cooperation of hardware and software as an example. Specifically, the information processing apparatus 10 includes one or more processors such as a CPU (not shown). The function of each unit of the information processing apparatus 10 is realized by the one or more processors reading and executing a program stored in a storage device (not shown). The program is stored in the storage device via a recording medium such as a CD or DVD, or via a communication path such as a network. As another example, each unit of the information processing apparatus 10 may be realized by hardware resources such as a processor, an electronic circuit, and an ASIC (Application Specific Integrated Circuit). In the realization, a device such as a memory may be used. As another example, each unit of the information processing apparatus 10 may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10 情報処理装置、12 スキャナ、20 画像処理部、22 抽出部、24 表示制御部、26 画像編集部、28 再抽出部、30 定義情報作成部。   DESCRIPTION OF SYMBOLS 10 Information processing apparatus, 12 Scanner, 20 Image processing part, 22 Extraction part, 24 Display control part, 26 Image editing part, 28 Re-extraction part, 30 Definition information creation part

Claims (8)

情報が記入されるべき記入欄が形成されている用紙の画像から前記記入欄に対応する記入枠としての矩形部分を抽出する抽出手段と、
前記抽出手段による抽出結果を表示手段に表示させる表示制御手段と、
前記抽出結果の表示の後、ユーザの指示に従って、前記記入枠としての矩形部分を抽出するための編集を前記画像に対して行う画像編集手段と、
前記編集が反映された前記画像から前記記入枠としての矩形部分を再抽出する再抽出手段と、
前記記入欄に記入された情報を抽出するために用いられる定義情報を出力する出力手段であって、前記再抽出手段によって抽出された前記記入枠と、前記記入欄に記入されるべき情報の属性との対応付けを示す定義情報を出力する出力手段と、
を有する情報処理装置。
An extracting means for extracting a rectangular portion as an entry frame corresponding to the entry field from an image of a sheet on which an entry field to be filled with information is formed;
Display control means for displaying the extraction result by the extraction means on the display means;
After displaying the extraction result, in accordance with a user instruction, image editing means for editing the image to extract a rectangular portion as the entry frame;
Re-extracting means for re-extracting a rectangular portion as the entry frame from the image reflecting the editing;
Output means for outputting definition information used for extracting information entered in the entry field, the entry frame extracted by the re-extraction means, and attributes of information to be entered in the entry field Output means for outputting definition information indicating the correspondence with
An information processing apparatus.
前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像に対して線分からなる図形を形成し、
前記再抽出手段は、前記図形が形成されている前記画像から前記記入枠としての矩形部分を再抽出する、
ことを特徴とする請求項1に記載の情報処理装置。
The image editing means forms a figure composed of line segments on the image as the editing in accordance with a user instruction,
The re-extraction means re-extracts a rectangular portion as the entry frame from the image on which the graphic is formed.
The information processing apparatus according to claim 1.
前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像に対して矩形部分からなる図形を形成し、
前記再抽出手段は、前記図形が形成されている前記画像から前記記入枠としての矩形部分を再抽出する、
ことを特徴とする請求項1に記載の情報処理装置。
The image editing means forms a figure composed of a rectangular portion with respect to the image as the editing in accordance with a user instruction,
The re-extraction means re-extracts a rectangular portion as the entry frame from the image on which the graphic is formed.
The information processing apparatus according to claim 1.
前記画像編集手段は、ユーザによって前記画像上に形成されている図形を補正することで、前記画像に対して矩形部分を形成する、
ことを特徴とする請求項3に記載の情報処理装置。
The image editing unit corrects a figure formed on the image by a user to form a rectangular portion with respect to the image;
The information processing apparatus according to claim 3.
前記画像編集手段は、前記画像に表された前記記入欄を構成する線分と接する前記図形を形成する、
ことを特徴とする請求項2から請求項4のいずれか一項に記載の情報処理装置。
The image editing means forms the figure in contact with a line segment constituting the entry field represented in the image;
The information processing apparatus according to claim 2, wherein the information processing apparatus is an information processing apparatus.
前記画像編集手段は、ユーザの指示に従って、前記編集として、前記画像上に非抽出領域を形成し、
前記再抽出手段は、前記画像内の前記非抽出領域以外の領域から前記記入枠としての矩形部分を再抽出する、
ことを特徴とする請求項1に記載の情報処理装置。
The image editing means forms a non-extraction region on the image as the editing in accordance with a user instruction,
The re-extraction means re-extracts a rectangular portion as the entry frame from an area other than the non-extraction area in the image.
The information processing apparatus according to claim 1.
前記表示制御手段は、前記抽出結果と共に、前記画像を背景画像として前記表示手段に表示させる、
ことを特徴とする請求項1から請求項6のいずれか一項に記載の情報処理装置。
The display control means causes the display means to display the image as a background image together with the extraction result.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
コンピュータを、
情報が記入されるべき記入欄が形成されている用紙の画像から前記記入欄に対応する記入枠としての矩形部分を抽出する抽出手段、
前記抽出手段による抽出結果を表示手段に表示させる表示制御手段、
前記抽出結果の表示の後、ユーザの指示に従って、前記記入枠としての矩形部分を抽出するための編集を前記画像に対して行う画像編集手段、
前記編集が反映された前記画像から前記記入枠としての矩形部分を再抽出する再抽出手段、
前記記入欄に記入された情報を抽出するために用いられる定義情報を出力する出力手段であって、前記再抽出手段によって抽出された前記記入枠と、前記記入欄に記入されるべき情報の属性との対応付けを示す定義情報を出力する出力手段、
として機能させるプログラム。
Computer
An extraction means for extracting a rectangular portion as an entry frame corresponding to the entry field from an image of a sheet on which an entry field to be filled with information is formed;
Display control means for displaying the extraction result by the extraction means on the display means;
An image editing means for performing editing on the image to extract a rectangular portion as the entry frame in accordance with a user instruction after the extraction result is displayed;
Re-extracting means for re-extracting a rectangular portion as the entry frame from the image in which the editing is reflected;
Output means for outputting definition information used for extracting information entered in the entry field, the entry frame extracted by the re-extraction means, and attributes of information to be entered in the entry field Output means for outputting definition information indicating correspondence with
Program to function as.
JP2018047061A 2018-03-14 2018-03-14 Information processing equipment and programs Active JP7035656B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018047061A JP7035656B2 (en) 2018-03-14 2018-03-14 Information processing equipment and programs
JP2022030979A JP2022066321A (en) 2018-03-14 2022-03-01 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047061A JP7035656B2 (en) 2018-03-14 2018-03-14 Information processing equipment and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022030979A Division JP2022066321A (en) 2018-03-14 2022-03-01 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2019159932A true JP2019159932A (en) 2019-09-19
JP7035656B2 JP7035656B2 (en) 2022-03-15

Family

ID=67993506

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018047061A Active JP7035656B2 (en) 2018-03-14 2018-03-14 Information processing equipment and programs
JP2022030979A Pending JP2022066321A (en) 2018-03-14 2022-03-01 Information processing device and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022030979A Pending JP2022066321A (en) 2018-03-14 2022-03-01 Information processing device and program

Country Status (1)

Country Link
JP (2) JP7035656B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117128A1 (en) * 2019-12-10 2021-06-17 ネットスマイル株式会社 Form image processing system
US20220198183A1 (en) * 2020-12-17 2022-06-23 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
JP7385324B1 (en) 2023-05-16 2023-11-22 株式会社SoVa Information processing system, information processing program, information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339419A (en) * 1995-06-09 1996-12-24 Oki Electric Ind Co Ltd Method and device for generating format information
JPH09245099A (en) * 1996-03-05 1997-09-19 Toshiba Corp Slip preparation device
JP2005056010A (en) * 2003-08-08 2005-03-03 Hitachi Ltd Device, method and program for defining business form
US20120063684A1 (en) * 2010-09-09 2012-03-15 Fuji Xerox Co., Ltd. Systems and methods for interactive form filling

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119485A (en) * 1992-10-05 1994-04-28 Toshiba Corp Ocr verify system
JP6007774B2 (en) * 2012-12-14 2016-10-12 富士ゼロックス株式会社 Character recognition data processing apparatus, character recognition data processing system, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339419A (en) * 1995-06-09 1996-12-24 Oki Electric Ind Co Ltd Method and device for generating format information
JPH09245099A (en) * 1996-03-05 1997-09-19 Toshiba Corp Slip preparation device
JP2005056010A (en) * 2003-08-08 2005-03-03 Hitachi Ltd Device, method and program for defining business form
US20120063684A1 (en) * 2010-09-09 2012-03-15 Fuji Xerox Co., Ltd. Systems and methods for interactive form filling

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. G. CASEY ET AL.: ""Intelligent Forms Processing"", IBM SYSTEMS JOURNAL, vol. 29, no. 3, JPN6022003796, 31 December 1990 (1990-12-31), US, pages 435 - 450, XP000265375, ISSN: 0004695195 *
小山 俊哉、外4名: ""帳票データ入力システム FormDataEntry"", 富士ゼロックステクニカルレポート, JPN6022003793, 17 March 2016 (2016-03-17), JP, pages 82 - 90, ISSN: 0004695194 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117128A1 (en) * 2019-12-10 2021-06-17 ネットスマイル株式会社 Form image processing system
US20220198183A1 (en) * 2020-12-17 2022-06-23 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium
JP7385324B1 (en) 2023-05-16 2023-11-22 株式会社SoVa Information processing system, information processing program, information processing method

Also Published As

Publication number Publication date
JP7035656B2 (en) 2022-03-15
JP2022066321A (en) 2022-04-28

Similar Documents

Publication Publication Date Title
JP4572669B2 (en) Layout rule generation system, layout system, layout rule generation method, and layout rule generation program
JP3996579B2 (en) Form processing system for identifying active areas of machine-readable forms
JP2022066321A (en) Information processing device and program
EP2264995B1 (en) Image processing apparatus, image processing method, and computer program
JP2012203458A (en) Image processor and program
JP2011141677A (en) Apparatus and method for digitizing documents
JP2011013897A (en) Image processing device, image processing method and program
WO2013058397A1 (en) Digital comic editing device and method therefor
JP2010009509A (en) Image processor, image processing method, program thereof, and storage medium
CN107133615B (en) Information processing apparatus, information processing method, and computer program
JP2009193356A (en) Image processing apparatus, image processing method, program, and storage medium
WO2001003416A1 (en) Border eliminating device, border eliminating method, and authoring device
JP2002203207A (en) Character recognizing method and program, and recording medium
JP2015167001A (en) Information processing program, information processing device, information processing system, information processing method, image processor and image processing system
JP5020698B2 (en) Image processing apparatus, image processing method, and image processing program
CN115147858A (en) Method, device, equipment and medium for generating image data of handwritten form
JPS58208865A (en) Document producing device
JP2009223363A (en) Document processor and document processing program
JP6676121B2 (en) Data input device and data input program
JP2000029198A (en) Color proof device, image processor and recording medium
JP5528410B2 (en) Viewer device, server device, display control method, electronic comic editing method and program
JP2016139360A (en) Computer program and control device
JP6682827B2 (en) Information processing apparatus and information processing program
JP2006293970A (en) Image processor, image processing method and image processing program
JP2020099031A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7035656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150