JP7240164B2 - Image processing device, image management method, program - Google Patents

Image processing device, image management method, program Download PDF

Info

Publication number
JP7240164B2
JP7240164B2 JP2018235854A JP2018235854A JP7240164B2 JP 7240164 B2 JP7240164 B2 JP 7240164B2 JP 2018235854 A JP2018235854 A JP 2018235854A JP 2018235854 A JP2018235854 A JP 2018235854A JP 7240164 B2 JP7240164 B2 JP 7240164B2
Authority
JP
Japan
Prior art keywords
image
information
frame
frame image
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018235854A
Other languages
Japanese (ja)
Other versions
JP2020098433A (en
Inventor
聡 後藤
桂子 山原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Forms Co Ltd
Original Assignee
Toppan Forms Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Forms Co Ltd filed Critical Toppan Forms Co Ltd
Priority to JP2018235854A priority Critical patent/JP7240164B2/en
Publication of JP2020098433A publication Critical patent/JP2020098433A/en
Application granted granted Critical
Publication of JP7240164B2 publication Critical patent/JP7240164B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像管理方法、プログラムに関する。 The present invention relates to an image processing device, an image management method, and a program.

携帯電話やスマートフォンなどの端末装置によって運転免許証などの各種証明書を撮影して得られた画像データと、当該画像データを文字認識することで得られる文字情報とを用いることにより、各種申し込み手続が電子的に行われるようになってきている。端末装置のカメラで撮影して文字認識するものとしては、例えば、特許文献1に記載された携帯端末装置がある。 Various application procedures by using image data obtained by photographing various certificates such as driver's licenses with terminal devices such as mobile phones and smartphones, and character information obtained by character recognition of the image data are increasingly being done electronically. For example, there is a mobile terminal device described in Japanese Patent Application Laid-Open No. 2002-200313 as a device that performs character recognition by photographing with a camera of a terminal device.

特許文献1に開示される技術では、例えば、読み取り対象の文書を連続して撮影する間に得られる複数の文書画像について文字認識を行い、文書画像に含まれる文字や値などの文字情報を検出する。さらに、特許文献1に開示される技術では、検出した文字情報の中から予め定められている項目名を示す文字情報を検出し、また、当該項目名に対応して記録されている、例えば、個人ごとに異なる氏名や住所などの文字情報を読み出して取得している。 In the technique disclosed in Patent Document 1, for example, character recognition is performed on a plurality of document images obtained while a document to be read is continuously photographed, and character information such as characters and values contained in the document images is detected. do. Furthermore, in the technique disclosed in Patent Document 1, character information indicating a predetermined item name is detected from among the detected character information, and recorded corresponding to the item name, for example, Character information such as names and addresses that differ for each individual is read and acquired.

特許第6364051号公報Japanese Patent No. 6364051

ところで、運転免許証などよりも大きな帳票の場合、文字を認識するために必要となる解像度の画像を得るためには、スマートフォンなどのカメラでは帳票の全体を一度に撮影することができない場合がある。このような帳票についても、特許文献1に開示される技術を利用すれば、帳票を複数の領域に区切って連続して撮影していくことで、帳票に記録されている全ての文字情報を取得することが可能となる。ただし、このように、領域毎に区切ってフレーム画像として撮影した場合、得られた複数のフレーム画像によって1枚の帳票の復元を行なう。
しかしながら、撮影した複数のフレーム画像の各々が帳票のどの位置に対応するのかが判らないため、帳票全体を復元することが困難である。
By the way, in the case of a form larger than a driver's license, it may not be possible to capture the entire form at once with a camera such as a smartphone in order to obtain an image with the resolution required for character recognition. . For such a form, if the technology disclosed in Japanese Patent Laid-Open No. 2002-200010 is used, all the character information recorded in the form can be acquired by dividing the form into a plurality of areas and continuously photographing the form. It becomes possible to However, when frame images are captured by dividing each area in this way, one sheet of form is restored using a plurality of obtained frame images.
However, it is difficult to restore the entire form because it is not known to which position on the form each of the multiple captured frame images corresponds.

本発明は、このような事情に鑑みてなされたものであり、その目的は、撮影した複数のフレーム画像の各々が、帳票のどの位置を撮影したかを検出し、帳票全体の画像の復元を容易にする画像処理装置、画像管理方法、プログラムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and its object is to detect the position of each of a plurality of photographed frame images on a form and restore the image of the entire form. An object of the present invention is to provide an image processing device, an image management method, and a program that facilitate the processing.

上述した課題を解決するために、本願発明の画像処理装置は、一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得部と、前記フレーム画像における文字画像の文字認識を行なう文字認識部と、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理部とを備え、前記画像処理部は、前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねることを特徴とす
また、本願発明の画像処理装置は、一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得部と、前記フレーム画像における文字画像の文字認識を行なう文字認識部と、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理部とを備え、前記画像処理部は、前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出することを特徴とする。
In order to solve the above-described problems, the image processing apparatus of the present invention includes a frame image acquisition unit that acquires frame images obtained by partially continuously photographing one form, and character recognition of character images in the frame images. and an image processing unit for superimposing the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition. When the frame image is superimposed on the template image, if the character information overlaps with the frame image superimposed one before, the image processing unit recognizes the character information in the overlapping portion. It is characterized by superimposing the frame image on the top .
Further, the image processing apparatus of the present invention comprises: a frame image obtaining unit for obtaining frame images obtained by partially continuously photographing one form; a character recognition unit for performing character recognition of character images in the frame images; an image processing unit that superimposes the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition; and detecting an area where the character information is not recognized as an unnecessary area when the frame image is superimposed on the template image.

本発明の画像管理方法は、フレーム画像取得部が、一つの帳票を部分的に連続して撮像したフレーム画像を取得するフレーム画像取得過程と、文字認識部が、前記フレーム画像における文字画像の文字認識を行なう文字認識過程と、画像処理部が、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理過程とを含み、前記画像処理過程は、前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねることを含むことを特徴とする。
また、本発明の画像管理方法は、フレーム画像取得部が、一つの帳票を部分的に連続して撮像したフレーム画像を取得するフレーム画像取得過程と、文字認識部が、前記フレーム画像における文字画像の文字認識を行なう文字認識過程と、画像処理部が、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理過程とを含み、前記画像処理過程は、前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出することを含むことを特徴とする。
The image management method of the present invention includes a frame image acquisition process in which a frame image acquisition unit acquires frame images obtained by partially continuously imaging one form, and a character recognition unit in which characters of character images in the frame images are acquired. A character recognition process for performing recognition, and an image processing unit converts the frame image into the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition. and an image processing step for superimposing, wherein when the frame image is superimposed on the template image, if the character information overlaps with the frame image superimposed one before, the overlapping portion is removed. and superimposing the frame image in which the character information is recognized in the above .
Further, the image management method of the present invention includes a frame image acquisition process in which a frame image acquisition unit acquires frame images obtained by partially continuously capturing one form, and a character recognition unit acquires a character image in the frame image. and an image processing unit converts the frame image into the template based on the characteristic information of the template image of the form and the characteristic information of the frame image from which the character information is obtained by the character recognition. and an image processing step for superimposing the frame image on the image, wherein the image processing step includes detecting an area where the character information is not recognized as an unnecessary area when the frame image is superimposed on the template image. do.

本発明のプログラムは、コンピュータを、一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得手段、前記フレーム画像における文字画像の文字認識を行なう文字認識手段、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理手段として機能させるためのプログラムであり、前記画像処理手段では、前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねることを含む。
また、本発明のプログラムは、コンピュータを、一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得手段、前記フレーム画像における文字画像の文字認識を行なう文字認識手段、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理手段として機能させるためのプログラムであり、前記画像処理手段では、前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出することを含む。
The program of the present invention comprises: frame image obtaining means for obtaining frame images obtained by partially continuously photographing one form; character recognition means for performing character recognition on character images in the frame images; and template of the form. a program for functioning as image processing means for superimposing the frame image on the template image based on the feature information of the image and the feature information of the frame image from which the character information is obtained by the character recognition; In the means, when the frame image is superimposed on the template image, if the character information overlaps with the frame image superimposed one before, the frame image in which the character information is recognized in the overlapped portion is displayed. Including layering on top.
Further, the program of the present invention comprises: frame image obtaining means for obtaining frame images obtained by partially continuously photographing one form; character recognition means for performing character recognition of character images in the frame images; a program for functioning as image processing means for superimposing the frame image on the template image based on the feature information of the template image of and the feature information of the frame image from which the character information is obtained by the character recognition; The image processing means detects an area where the character information is not recognized as an unnecessary area when the frame image is superimposed on the template image.

この発明によれば、撮影した複数のフレーム画像の各々が、帳票のどの位置を撮影したかを検出し、帳票全体の画像の復元を容易にする画像処理装置、画像管理方法、プログラムを提供することができる。 According to the present invention, there is provided an image processing apparatus, an image management method, and a program that detect which position of a form was photographed by each of a plurality of photographed frame images, and facilitate restoration of the image of the entire form. be able to.

第1実施形態の帳票データ管理システムの構成を示す概略ブロック図である。1 is a schematic block diagram showing the configuration of a form data management system according to a first embodiment; FIG. 同実施形態における帳票のテンプレートの一例を示す図である。It is a figure which shows an example of the template of the form in the same embodiment. 同実施形態における帳票の一例を示す図である。It is a figure which shows an example of the form in the same embodiment. 同実施形態において撮影されたフレーム画像の一例(その1)である。It is an example (part 1) of a frame image captured in the same embodiment. 同実施形態において撮影されたフレーム画像の一例(その2)である。FIG. 10 is an example (part 2) of a frame image captured in the same embodiment; FIG. 同実施形態における帳票定義テーブルを示す図である。It is a figure which shows the form definition table in the same embodiment. 同実施形態における帳票情報テーブルを示す図(その1)である。FIG. 4 is a diagram (part 1) showing a form information table in the same embodiment; 同実施形態における重畳状態テーブルを示す図である。It is a figure which shows the superimposition state table in the same embodiment. 同実施形態における帳票情報集計テーブルを示す図である。It is a figure which shows the form information total table in the same embodiment. 同実施形態における端末装置による帳票の撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the imaging|photography process of the form by the terminal device in the same embodiment. 同実施形態における帳票情報テーブルを示す図(その2)である。FIG. 11 is a diagram (part 2) showing a form information table in the same embodiment; 同実施形態において撮影されたフレーム画像の一例(その3)である。3 is an example (part 3) of a frame image captured in the same embodiment; 同実施形態における帳票情報テーブルを示す図(その3)である。FIG. 13 is a diagram (part 3) showing a form information table in the same embodiment; 同実施形態における端末装置による保存対象の帳票情報テーブルの選択処理流れを示すフローチャートである。10 is a flow chart showing a processing flow for selecting a form information table to be saved by the terminal device according to the same embodiment. 同実施形態における端末装置によるテンプレート画像にフレーム画像を重ねて重畳画像を生成する処理の流れを示すフローチャートである。7 is a flow chart showing the flow of processing for superimposing a frame image on a template image to generate a superimposed image by the terminal device according to the same embodiment. 同実施形態におけるマッチング処理部による処理の一例を示す図である。It is a figure which shows an example of the process by the matching process part in the same embodiment. 同実施形態における重畳画像の構成を示す図である。It is a figure which shows the structure of the superimposition image in the same embodiment. 同実施形態の他の構成例において撮影されたフレーム画像の一例である。It is an example of the frame image image|photographed in the other structural example of the same embodiment. 同実施形態の他の構成例における帳票情報テーブルを示す図である。FIG. 11 is a diagram showing a form information table in another configuration example of the same embodiment; 同実施形態の他の構成例において2個のフレーム画像が重ねられた状態を示す図である。FIG. 10 is a diagram showing a state in which two frame images are superimposed in another configuration example of the same embodiment; 同実施形態の他の構成例における重畳状態テーブルを示す図である。It is a figure which shows the superimposition state table in the other structural example of the same embodiment. 第2実施形態における帳票情報テーブルを示す図である。FIG. 11 is a diagram showing a form information table in the second embodiment; FIG. 同実施形態におけるフレーム画像の不要領域を示す図(その1)である。FIG. 10 is a diagram (part 1) showing an unnecessary area of a frame image in the same embodiment; 同実施形態におけるフレーム画像の不要領域を示す図(その2)である。FIG. 10 is a diagram (part 2) showing an unnecessary area of a frame image in the same embodiment; 同実施形態におけるフレーム画像の位置関係を示す図である。FIG. 4 is a diagram showing the positional relationship of frame images in the same embodiment;

(第1実施形態)
以下、本発明の第1実施形態による端末装置1を備える帳票データ管理システムSについて図面を参照して説明する。図1は、帳票データ管理システムSの構成を示す概略ブロック図である。帳票データ管理システムSは、端末装置1、帳票データ管理装置3、及び端末装置1と帳票データ管理装置3とを接続する通信ネットワーク4を備える。
(First embodiment)
A form data management system S including the terminal device 1 according to the first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of a form data management system S. As shown in FIG. The form data management system S includes a terminal device 1 , a form data management device 3 , and a communication network 4 connecting the terminal device 1 and the form data management device 3 .

端末装置1は、例えば、カメラを内蔵したスマートフォン、携帯電話、携帯情報端末、タブレットPC(Personal Computer)などの装置である。端末装置1は、帳票データ管理装置3、または他のサーバ装置から通信ネットワーク4を通じてダウンロードした所定のアプリケーションプログラム(以下、APと示す)を実行し、例えば、通信装置として機能したり、以下に説明する帳票撮影用の装置として機能したりする。
端末装置1は、操作部10、撮影部11、表示部12、フレーム画像取得部13、記憶部14、文字認識部15、選択部16、認識データ管理部17、通信部18、及び画像処理部20を備える。
The terminal device 1 is, for example, a device such as a smartphone with a built-in camera, a mobile phone, a personal digital assistant, or a tablet PC (Personal Computer). The terminal device 1 executes a predetermined application program (hereinafter referred to as AP) downloaded from the form data management device 3 or another server device through the communication network 4, and functions, for example, as a communication device, or as described below. It also functions as a device for photographing documents.
The terminal device 1 includes an operation unit 10, an imaging unit 11, a display unit 12, a frame image acquisition unit 13, a storage unit 14, a character recognition unit 15, a selection unit 16, a recognition data management unit 17, a communication unit 18, and an image processing unit. 20.

第1実施形態において、端末装置1の撮影の対象となる帳票には、例えば、図2に示すようなタイトル(健康診断個人票)、項目名(例えば、事業所名、所在地、氏名など)、及び罫線からなるテンプレートが予め印刷されている。この図2に示すテンプレートに文字や数字の情報が記録されると、例えば、図3に示すような帳票となる。 In the first embodiment, the form to be photographed by the terminal device 1 includes, for example, a title (personal medical examination form) as shown in FIG. and ruled lines are printed in advance. When the information of characters and numbers is recorded in the template shown in FIG. 2, for example, a form shown in FIG. 3 is obtained.

撮影部11は、例えば、CCD(Charge Coupled Device)カメラであり、操作部10から撮影開始の指示情報が供給された場合、1秒間に10~30フレームのフレームレートでの撮影を連続して行い、フレームレートの周期ごとにフレーム画像のデータを取得する。また、撮影部11は、操作部10から撮影終了の指示情報が供給された場合に撮影を終了する。例えば、図4及び図5は、図3に示す帳票を上から順に連続して撮影することにより得られたフレーム画像61,62の例である。 The imaging unit 11 is, for example, a CCD (Charge Coupled Device) camera, and when instruction information to start imaging is supplied from the operation unit 10, it continuously performs imaging at a frame rate of 10 to 30 frames per second. , frame image data is obtained for each frame rate cycle. Further, the photographing unit 11 finishes photographing when instruction information for finishing photographing is supplied from the operation unit 10 . For example, FIGS. 4 and 5 are examples of frame images 61 and 62 obtained by continuously photographing the form shown in FIG. 3 from top to bottom.

表示部12は、例えば、タッチパッドのような入力装置が画面上に配置されたタッチパネルなどであり、撮影部11が撮影したフレーム画像、または、記憶部14が記憶する画像のデータを画面に表示する。
通信部18は、端末装置1の外部の機器、例えば、帳票データ管理装置3と通信ネットワーク4を通じて通信を行う。
The display unit 12 is, for example, a touch panel in which an input device such as a touch pad is arranged on the screen, and displays frame images captured by the imaging unit 11 or image data stored in the storage unit 14 on the screen. do.
The communication unit 18 communicates with a device external to the terminal device 1 , such as the form data management device 3 , through the communication network 4 .

記憶部14は、フレーム画像記憶部141、アプリケーション記憶部142、テンプレート画像記憶部143、テンプレート特徴情報記憶部146、帳票定義情報記憶部144、帳票情報記憶部145、及び重畳画像記憶部147を備える。 The storage unit 14 includes a frame image storage unit 141, an application storage unit 142, a template image storage unit 143, a template characteristic information storage unit 146, a form definition information storage unit 144, a form information storage unit 145, and a superimposed image storage unit 147. .

フレーム画像記憶部141は、フレーム画像取得部13が撮影部11から取得したフレーム画像のデータを、各々のフレーム画像に対応付けられているフレーム識別情報と共に記憶する。アプリケーション記憶部142は、帳票データ管理装置3、または他のサーバ装置から通信ネットワーク4を通じてダウンロードした所定のAPを記憶する。 The frame image storage unit 141 stores frame image data acquired by the frame image acquisition unit 13 from the imaging unit 11 together with frame identification information associated with each frame image. The application storage unit 142 stores a predetermined AP downloaded from the form data management device 3 or another server device through the communication network 4 .

テンプレート画像記憶部143は、予め図2に示す帳票のテンプレートの画像を外部のイメージスキャナー等を用いて、例えばフレーム画像と同程度の解像度で読み取ることにより得られるテンプレート画像のデータを記憶する。 The template image storage unit 143 stores template image data obtained by reading, for example, the template image of the form shown in FIG.

帳票定義情報記憶部144は、例えば、図6に示す帳票定義テーブル1441を予め記憶する。帳票定義テーブル1441は、「帳票識別情報」、「項目名」、「項目番号」、「定義情報」の項目を有する。「帳票識別情報」の項目には、帳票のテンプレートの種類、例えば、欄の形式や項目名の異なるテンプレートを一意に識別可能な情報であって、テンプレートの種類毎に予め付与された帳票識別情報が書き込まれる。「項目名」の項目には、帳票識別情報に対応する帳票に含まれる項目名の情報が書き込まれる。「項目番号」の項目には、項目名毎に予め付与された項目番号が書き込まれる。「定義情報」の項目には、項目名や、その項目名に対応して記録される情報(以下、項目記録情報という)が横書きなのか、縦書きなのかを示す情報や、項目名、及び項目記録情報の位置関係を示す情報が書き込まれる。ここで、項目名及び項目記録情報の位置関係を示す情報とは、例えば、図6に示すように、項目名及び項目記録情報が横一行、または縦一行に位置する情報や、項目名の位置に対して項目記録情報が上下左右のいずれかの行、または列に位置する情報などである。 The form definition information storage unit 144 stores, for example, a form definition table 1441 shown in FIG. 6 in advance. The form definition table 1441 has items of "form identification information", "item name", "item number", and "definition information". The item "form identification information" contains information that can uniquely identify the types of form templates, for example, templates with different column formats and item names. is written. Information on the item name included in the form corresponding to the form identification information is written in the item of "item name". An item number assigned in advance to each item name is written in the "item number" item. In the "definition information" item, the item name, information indicating whether the information recorded corresponding to the item name (hereinafter referred to as item record information) is written horizontally or vertically, the item name, and Information indicating the positional relationship of item record information is written. Here, the information indicating the positional relationship between the item name and the item record information is, for example, information in which the item name and the item record information are positioned in one horizontal line or one vertical line as shown in FIG. For example, the item record information is located in any row or column on the top, bottom, left, or right.

なお、帳票定義情報記憶部144は、予めユーザによって指定された帳票の種類のテンプレートに対応する帳票定義テーブル1441を記憶する。他の種類のテンプレート、すなわち帳票識別情報の異なるテンプレートが用いられる帳票の撮影を行う場合、帳票定義情報記憶部144に、当該他のテンプレートに対応する帳票定義テーブル1441を書き込む必要がある。 The form definition information storage unit 144 stores a form definition table 1441 corresponding to a form type template designated in advance by the user. When photographing a form using another type of template, ie, a template with different form identification information, it is necessary to write the form definition table 1441 corresponding to the other template in the form definition information storage unit 144 .

帳票情報記憶部145は、フレーム画像毎に生成される同一のデータ形式を有する帳票情報テーブルを記憶する。例えば、図7に示す帳票情報テーブル1451-1は、図4に示したフレーム画像61に対応して生成されるテーブルである。帳票情報テーブル1451は、「フレーム識別情報」、「項目番号」、「取得情報」の項目の各々の欄に、対応するフレーム画像における項目番号、取得情報としての項目記録情報それぞれが書き込まれる。なお、文字認識部15が、項目名は取得するが、当該項目名に対応する項目記録情報を取得していない項目名の項目番号に対応する「取得情報」の項目は空欄となる。 The form information storage unit 145 stores a form information table having the same data format generated for each frame image. For example, the form information table 1451-1 shown in FIG. 7 is a table generated corresponding to the frame image 61 shown in FIG. In the form information table 1451, the item number in the corresponding frame image and the item record information as the acquired information are written in the respective columns of the items of "frame identification information", "item number", and "acquired information". The item of "acquired information" corresponding to the item number of the item name for which the character recognition unit 15 acquires the item name but has not acquired the item record information corresponding to the item name is blank.

テンプレート特徴情報記憶部146は、テンプレート画像記憶部143が記憶するテンプレート画像に基づいて、画像処理部20が算出する特徴点や特徴量を含む特徴情報を記憶する。 The template feature information storage unit 146 stores feature information including feature points and feature amounts calculated by the image processing unit 20 based on the template image stored in the template image storage unit 143 .

重畳画像記憶部147は、重畳画像のデータと、図8に示す重畳状態テーブル1471を記憶する。ここで、重畳画像とは、例えば、テンプレート画像の大きさや、項目及び罫線の位置に合うように画像処理部20により画像変換が行われたフレーム画像がテンプレート画像に対して重ねられた画像である。この重畳状態テーブル1471は、図8に示すように、「フレーム識別情報」、「配置状態」の項目を有している。「フレーム識別情報」の項目には、重畳画像に重畳されているフレーム画像のフレーム識別情報が重ねられた順に書き込まれる。図8に示す例では、最初にフレーム識別情報「1」のフレーム画像がテンプレート画像に重ねられ、その後、フレーム識別情報「2」のフレーム画像、フレーム識別情報「3」のフレーム画像が重ねられたことを示している。 The superimposed image storage unit 147 stores superimposed image data and a superimposed state table 1471 shown in FIG. Here, the superimposed image is, for example, an image in which a frame image that has undergone image conversion by the image processing unit 20 so as to match the size of the template image and the positions of items and ruled lines is superimposed on the template image. . As shown in FIG. 8, the superimposition state table 1471 has items of "frame identification information" and "arrangement state". In the "frame identification information" item, the frame identification information of the frame images superimposed on the superimposed image is written in the order in which they are superimposed. In the example shown in FIG. 8, the frame image with the frame identification information "1" is first superimposed on the template image, and then the frame image with the frame identification information "2" and the frame image with the frame identification information "3" are superimposed. It is shown that.

「配置状態」の項目には、フレーム画像が重複領域を有して重ねた場合、前後のフレーム画像との関係で、どちらのフレーム画像が上または下のいずれの配置であるかを示す情報が書き込まれる。例えば、図8の例では、フレーム識別情報が「1」のフレーム画像が最初にテンプレート画像に重ねられており、前にフレーム画像が存在しないため、「配置状態」の項目の上欄には、存在しないことを示す「-」が書き込まれる。第1実施形態では、後から重ねるフレーム画像を上として重ねるため、次に重ねられたフレーム識別情報「2」のフレーム画像との関係では、フレーム識別情報「1」のフレーム画像は下の位置になる。そのため、フレーム識別情報「1」の「配置状態」の項目の下欄には、「下」が書き込まれ、フレーム識別情報「2」の「配置状態」の項目の上欄には、「上」が書き込まれる。なお、図8は、フレーム画像を3枚重ねた場合の例であり、重ねるフレーム画像の枚数に応じたレコード(行)が生成される。 In the "arrangement state" item, information indicating which frame image is arranged above or below in relation to the frame images before and after when frame images are overlapped with an overlapping area. written. For example, in the example of FIG. 8, the frame image whose frame identification information is "1" is first superimposed on the template image, and there is no preceding frame image. A "-" is written to indicate that it does not exist. In the first embodiment, since the frame image to be overlaid later is superimposed, the frame image with the frame identification information "1" is positioned at the bottom in relation to the frame image with the frame identification information "2" to be superimposed next. Become. Therefore, "bottom" is written in the lower column of the "arrangement state" item of the frame identification information "1", and "upper" is written into the upper column of the "arrangement state" item of the frame identification information "2". is written. Note that FIG. 8 shows an example in which three frame images are superimposed, and a record (row) is generated according to the number of superimposed frame images.

なお、記憶部14のうちフレーム画像記憶部141、帳票情報記憶部145、重畳画像記憶部147は、例えば、テンプレートの種類が同一である複数の帳票の撮影を行う場合、他の帳票と混在しないように、各帳票の撮影を開始する前に初期化しておく必要がある。また、帳票撮影用のAPが終了した際に記憶領域が解放されるのが望ましい。
また、記憶部14のうちテンプレート画像記憶部143、帳票定義情報記憶部144、テンプレート特徴情報記憶部146が記憶する情報は、帳票撮影用のAPが終了、あるいは端末装置1の電源がOFFされても記憶領域に保持しておいても良く、例えば、不揮発性の記憶領域(ファラッシュメモリなど)に予め構成される。なお、帳票撮影用のAPを起動するごとに、テンプレート画像や、帳票定義テーブル1441を登録し直す構成としてもよい。
Note that the frame image storage unit 141, the form information storage unit 145, and the superimposed image storage unit 147 of the storage unit 14 are not mixed with other forms when, for example, a plurality of forms having the same template type are photographed. Therefore, it is necessary to initialize before starting to shoot each form. Also, it is desirable that the storage area be released when the AP for photographing the form ends.
Further, the information stored in the template image storage unit 143, the form definition information storage unit 144, and the template feature information storage unit 146 in the storage unit 14 is stored when the AP for taking the form is terminated or the power of the terminal device 1 is turned off. may also be stored in a storage area, for example, preconfigured in a non-volatile storage area (flash memory, etc.). It should be noted that the template image and the form definition table 1441 may be re-registered each time the AP for photographing the form is activated.

以下に、説明する操作部10、フレーム画像取得部13、文字認識部15、選択部16、認識データ管理部17、及び画像処理部20は、例えば、帳票撮影用のAPが端末装置1の内部のCPUに実行されることにより構成される機能部である。
操作部10は、例えば、表示部12の画面上の備えられるタッチパッドに接続しており、ユーザが指を使って画面上に触れた場合、タッチパッドが出力する触れた画面上の位置を示す情報に応じた処理を行う。例えば、帳票撮影用のAPは、起動すると、表示部12の画面上に、撮影処理の開始を指示する撮影開始ボタン、撮影処理の終了を指示する撮影終了ボタンを表示する。
The operation unit 10, the frame image acquisition unit 13, the character recognition unit 15, the selection unit 16, the recognition data management unit 17, and the image processing unit 20, which will be described below, are configured such that, for example, an AP for photographing a form is installed inside the terminal device 1. is a functional unit configured by being executed by the CPU of
The operation unit 10 is connected to, for example, a touch pad provided on the screen of the display unit 12, and when the user touches the screen with a finger, the touch pad outputs the touched position on the screen. Take action according to the information. For example, when the document photographing AP is activated, it displays a photographing start button for instructing the start of photographing processing and a photographing end button for instructing the end of photographing processing on the screen of the display unit 12 .

操作部10は、タッチパッドが出力する位置情報が撮影開始ボタンの位置である場合、フレーム画像記憶部141、帳票情報記憶部145、重畳画像記憶部147の初期化を行う。操作部10は、当該初期化を行った後、撮影部11に対して帳票を連続して撮影処理の開始を示す撮影開始の指示情報を撮影部11に出力する。また、操作部10は、タッチパッドが出力する位置情報が撮影終了ボタンの位置である場合、撮影部11と文字認識部15と選択部16に対して撮影処理の終了を示す撮影終了の指示情報を出力する。 The operation unit 10 initializes the frame image storage unit 141, the form information storage unit 145, and the superimposed image storage unit 147 when the position information output by the touch pad is the position of the shooting start button. After performing the initialization, the operation unit 10 outputs to the image capturing unit 11 instruction information for starting image capturing, which instructs the image capturing unit 11 to start image capturing processing continuously. Further, when the position information output by the touch pad is the position of the shooting end button, the operation unit 10 outputs shooting end instruction information indicating the end of shooting processing to the shooting unit 11, the character recognition unit 15, and the selection unit 16. to output

フレーム画像取得部13は、撮影部11が生成して出力するフレーム画像を取得する。フレーム画像取得部13は、フレーム画像を取得すると新たなフレーム識別情報を生成し、取得したフレーム画像と生成したフレーム識別情報とを対応付けてフレーム画像記憶部141に書き込んで記憶させる。フレーム識別情報は、例えば、フレーム画像の時系列順がわかるように、フレーム画像取得部13が若い番号、例えば、「1」から順に値を増加させて生成する。 The frame image acquisition unit 13 acquires a frame image generated and output by the imaging unit 11 . When acquiring a frame image, the frame image acquisition unit 13 generates new frame identification information, associates the acquired frame image with the generated frame identification information, and writes and stores them in the frame image storage unit 141 . For example, the frame identification information is generated by the frame image acquisition unit 13 by incrementing the value from the smallest number, for example, "1", so that the chronological order of the frame images can be known.

文字認識部15は、OCR(Optical Character Recognition)処理により、フレーム画像から文字や数字の画像(文字画像)を、抽出して切り出し、パターン辞書、フォント辞書等を用いて文字認識を行ない、文字や数字を示す文字情報を取得する。ここで、文字認識することにより得られる情報は、例えば、文字や数字を示す文字情報であり、例えば、テキストデータでもよい。また、文字認識部15は、文字認識の際に、文字や数字の各々の外接矩形の座標を取得する。 The character recognition unit 15 extracts and cuts out images of characters and numbers (character images) from the frame image by OCR (Optical Character Recognition) processing, performs character recognition using a pattern dictionary, a font dictionary, etc., and performs character recognition. Get character information that indicates a number. Here, the information obtained by character recognition is, for example, character information indicating characters and numbers, and may be, for example, text data. Further, the character recognition unit 15 acquires the coordinates of the circumscribing rectangle of each character or number during character recognition.

また、文字認識部15は、文字情報と座標情報を出力する際、文字認識処理を行ったフレーム画像のフレーム識別情報を、出力する文字情報及び座標情報に対応付ける。文字認識部15は、文字認識処理を行った場合、フレーム画像に含まれる全ての文字情報と座標情報の組み合わせを一度に検出するが、フレーム画像から文字情報及び座標情報の組み合わせを取得できない場合、文字認識処理が不成功と判定し、当該フレーム画像に対応するフレーム識別情報を取得しない。そして、文字認識部15は、フレーム識別情報と、文字情報と、座標情報とを用い、帳票定義情報記憶部144における帳票定義テーブル1441を参照し、取得した文字情報から、特定の座標の範囲に含まれる文字情報を検出する。 Further, when outputting the character information and the coordinate information, the character recognition unit 15 associates the frame identification information of the frame image subjected to the character recognition processing with the character information and the coordinate information to be output. When performing character recognition processing, the character recognition unit 15 detects all combinations of character information and coordinate information contained in the frame image at once. Character recognition processing is determined to be unsuccessful, and frame identification information corresponding to the frame image is not acquired. Then, using the frame identification information, the character information, and the coordinate information, the character recognition unit 15 refers to the form definition table 1441 in the form definition information storage unit 144, and recognizes the range of the specific coordinates from the acquired character information. Detects textual information contained.

ここで、特定の座標の範囲とは、横書きであれば、一行に並んでいて、各文字の間隔が一定になっている文字列に含まれる各文字の座標情報によって特定される範囲である。文字認識部15は、検出した特定の座標の範囲に含まれている文字情報の中から項目名の文字、または文字列を特定する。文字認識部15は、特定した項目名の文字、または文字列を含む特定の座標の範囲に含まれる文字情報を、項目名の情報と、対応する項目記録情報とに分離して取得する。 In the case of horizontal writing, the specific coordinate range is a range specified by the coordinate information of each character included in a character string in which the characters are arranged in a line and the intervals between the characters are constant. The character recognition unit 15 identifies the character or character string of the item name from the character information included in the detected specific coordinate range. The character recognition unit 15 separates the character information included in the specified coordinate range including the character or character string of the specified item name into the item name information and the corresponding item record information and acquires them.

例えば、図3に示す帳票の場合、文字認識部15は、「氏名」の項目名について、「氏名」の項目名の情報と、「特許太郎」の項目記録情報を取得する。なお、文字認識部15は、項目名の情報と、対応する項目記録情報の両方を常に取得するわけではなく、項目名の情報のみを取得する場合もある。例えば、図4に示すフレーム画像61の場合、「年齢」の項目については、対応する項目記録情報がフレーム画像61に含まれていない。そのため、文字認識部15は、項目名の情報のみを取得する。例えば、項目記録情報が、撮影対象に含まれていない場合、最初から帳票に記載されていない場合、また、不鮮明で文字認識ができない場合などである。したがって、帳票情報テーブル1451が生成されても、項目記録情報が、記録されない場合もある。これに対し、文字認識部15は、項目名の情報がなければ、項目記録情報を分離できず、項目記録情報のみを取得することはない。 For example, in the case of the form shown in FIG. 3, the character recognition unit 15 acquires the information of the item name of "name" and the item record information of "Taro Tokkyo" for the item name of "name". Note that the character recognition unit 15 does not always acquire both the item name information and the corresponding item record information, and may acquire only the item name information. For example, in the case of the frame image 61 shown in FIG. 4, the frame image 61 does not include the item recording information corresponding to the item "age". Therefore, the character recognition unit 15 acquires only item name information. For example, when the item recording information is not included in the object to be photographed, when it is not written on the form from the beginning, or when it is unclear and the characters cannot be recognized. Therefore, even if the form information table 1451 is generated, the item record information may not be recorded. On the other hand, the character recognition unit 15 cannot separate the item record information without the item name information, and cannot acquire only the item record information.

文字認識部15は、取得した全ての項目名に対応する項目番号を帳票定義テーブル1441から読み出し、読み出した項目番号と取得した項目記録情報とを対応付ける。文字認識部15は、1つのフレーム画像における項目名の情報と項目記録情報の取得を終了した場合、帳票情報記憶部145に新たな帳票情報テーブル1451を生成し、生成した帳票情報テーブル1451に項目番号と、項目番号に対応する項目記録情報と、フレーム識別情報とを書き込んで記憶させる。なお、文字認識部15は、フレーム画像から文字情報及び座標情報が取得できない場合、当該フレーム画像に対応するフレーム識別情報を取得せず、帳票情報記憶部145に帳票情報テーブル1451は生成されない。 The character recognition unit 15 reads the item numbers corresponding to all the acquired item names from the form definition table 1441, and associates the read item numbers with the acquired item record information. When the character recognition unit 15 completes acquiring the item name information and the item recording information in one frame image, it creates a new form information table 1451 in the form information storage unit 145 and stores the item in the generated form information table 1451 . A number, item recording information corresponding to the item number, and frame identification information are written and stored. When character information and coordinate information cannot be obtained from a frame image, the character recognition unit 15 does not obtain frame identification information corresponding to the frame image, and the form information table 1451 is not generated in the form information storage unit 145.

選択部16は、操作部10から撮影終了の指示情報を受けると、帳票情報記憶部145が記憶する帳票情報テーブル1451の中から保存対象の帳票情報テーブル1451を選択する。この保存対象とする帳票情報テーブル1451をどのように選択するかは、任意に定められるが、ここでは、例えば、帳票情報テーブル1451間の重複ができるだけ少ない状態で、項目記録情報を漏れなく保存しておくように保存対象を選択するように定めるとする。この場合、例えば、選択部16は、以下のような処理を行う。 Upon receiving instruction information to end imaging from the operation unit 10 , the selection unit 16 selects a form information table 1451 to be saved from among the form information tables 1451 stored in the form information storage unit 145 . How to select the form information table 1451 to be saved can be determined arbitrarily. Suppose that it is decided to select the storage target so as to keep it. In this case, for example, the selection unit 16 performs the following processing.

選択部16は、項目記録情報が記録されていない帳票情報テーブル1451を帳票情報記憶部145から削除する。また、選択部16は、例えば、いずれか1つの帳票情報テーブル1451を選択し、選択した帳票情報テーブル1451に含まれている全ての項目記録情報が、他の帳票情報テーブル1451のいずれかに記録されている場合、読み出した帳票情報テーブル1451を重複情報として削除することを全ての帳票情報テーブル1451について行う。これらの削除処理を行うことで、帳票情報テーブル1451間の項目記録情報の重複を少なくしつつ、項目記録情報を漏れなく保存しておくことができる。 The selection unit 16 deletes from the form information storage unit 145 the form information table 1451 in which the item record information is not recorded. Further, the selection unit 16 selects, for example, any one of the form information tables 1451, and records all item record information included in the selected form information table 1451 in any of the other form information tables 1451. If so, all the form information tables 1451 are deleted as redundant information. By performing these deletion processes, duplication of item record information among the form information tables 1451 can be reduced, and item record information can be stored without omission.

選択部16は、最後に帳票情報記憶部145に残っている帳票情報テーブル1451を保存対象として選択する。選択部16は、保存対象の選択が終了すると、画像処理開始の指示情報を画像処理部20に出力する。 The selection unit 16 finally selects the form information table 1451 remaining in the form information storage unit 145 as a storage target. After completing the selection of the storage target, the selection unit 16 outputs instruction information for starting image processing to the image processing unit 20 .

画像処理部20は、テンプレート画像記憶部143が記憶するテンプレート画像の特徴を示す特徴情報を算出し、算出したテンプレート画像の特徴情報をテンプレート特徴情報記憶部146に書き込んで記憶させる。ここで、特徴情報とは、対象とする画像から得られる特徴点と特徴量である。また、特徴点とは、対象とする画像におけるコーナー(角)などの特徴的な個所を示す情報であり、特徴量とは、対象とする画像の特徴点にどのような特徴があるかを示す情報である。特徴情報を算出するアルゴリズムとしては、例えば、KAZE(画像特徴量の抽出アルゴリズムの一例)などが適用される。 The image processing unit 20 calculates feature information indicating the features of the template image stored in the template image storage unit 143, and writes the calculated feature information of the template image to the template feature information storage unit 146 for storage. Here, the feature information is feature points and feature amounts obtained from the target image. A feature point is information indicating a characteristic point such as a corner in an image of interest, and a feature amount indicates what kind of feature the feature point of the image of interest has. Information. As an algorithm for calculating feature information, for example, KAZE (an example of an image feature extraction algorithm) is applied.

また、画像処理部20は、帳票情報記憶部145からいずれか1つの帳票情報テーブル1451を選択して読み出し、読み出した帳票情報テーブル1451の「フレーム識別情報」の項目に示されたフレーム識別情報に対応するフレーム画像をフレーム画像記憶部141から読み出す。画像処理部20は、読み出したフレーム画像の特徴情報を算出し、算出したフレーム画像の特徴情報とフレーム識別情報とフレーム画像とをマッチング処理する。画像処理部20は、帳票情報記憶部145において、処理対象の帳票情報テーブル1451がなくなると、認識データ管理部17に送信処理を開始する指示情報を出力する。 In addition, the image processing unit 20 selects and reads out one of the form information tables 1451 from the form information storage unit 145, and sets the frame identification information indicated in the “frame identification information” item of the read form information table 1451. A corresponding frame image is read from the frame image storage unit 141 . The image processing unit 20 calculates feature information of the read frame image, and performs matching processing on the calculated feature information of the frame image, the frame identification information, and the frame image. When the form information storage unit 145 runs out of the form information table 1451 to be processed, the image processing unit 20 outputs instruction information to start transmission processing to the recognition data management unit 17 .

また、画像処理部20は、フレーム画像の特徴情報と、テンプレート特徴情報記憶部146が記憶するテンプレート画像の特徴情報とに基づいて形状などが類似する箇所をペアとして検出するマッチング(例えば、特徴量マッチング)処理を行う。
そして、画像処理部20は、マッチング結果により、帳テンプレート画像の大きさや、項目及び罫線の位置に合うようにフレーム画像を変換する処理を行い、変換したフレーム画像とフレーム識別情報を出力する。ここで、変換する処理は、例えば、以下のようにマッチング結果から射影変換(ホモグラフィー)行列を算出し、算出した射影変換行列に基づいてフレーム画像を変換する透視変換を行う。
In addition, the image processing unit 20 performs matching (for example, feature value matching).
Based on the matching result, the image processing unit 20 converts the frame image so that it matches the size of the book template image and the positions of the items and ruled lines, and outputs the converted frame image and frame identification information. Here, the transforming process, for example, calculates a homography matrix from the matching result as follows, and performs perspective transformation for transforming the frame image based on the calculated homography matrix.

本実施形態において、フレーム画像の射影変換行列は、マッチング処理によりペアにされた箇所の座標情報に基づいて算出される行列であり、透視変換を行うためのパラメータに相当する行列である。そのため、透視変換は、撮影の際に歪んだり拡大または縮小されていたりするフレーム画像の座標変換を行ない、正面からみたときに見えるテンプレート画像の座標に対応させる。したがって、透視変換後のフレーム画像の座標系と、テンプレート画像の座標系とは一致する。 In this embodiment, the projective transformation matrix of the frame image is a matrix calculated based on the coordinate information of the points paired by the matching process, and is a matrix corresponding to the parameters for perspective transformation. Therefore, in the perspective transformation, coordinate transformation is performed on a frame image that has been distorted, enlarged, or reduced at the time of photographing, so that it corresponds to the coordinates of the template image that can be seen from the front. Therefore, the coordinate system of the frame image after perspective transformation and the coordinate system of the template image match.

また、画像処理部20は、テンプレート画像記憶部143からテンプレート画像を読み出し、このテンプレート画像を重畳画像のデータの初期画像データとして重畳画像記憶部147に書き込み、重畳状態テーブル1471を生成する。また、画像処理部20は、フレーム画像を透視変換した後、この透視変換されたフレーム画像と、重畳画像記憶部147から読み出した重畳画像との座標を一致させ、重畳画像の前面に重ねて新たな重畳画像を生成し、生成した重畳画像を重畳画像記憶部147に上書きする。 The image processing unit 20 also reads the template image from the template image storage unit 143 , writes this template image to the superimposed image storage unit 147 as initial image data of the data of the superimposed image, and generates a superimposed state table 1471 . In addition, after perspectively transforming the frame image, the image processing unit 20 matches the coordinates of the perspectively transformed frame image with the superimposed image read out from the superimposed image storage unit 147, and superimposes a new coordinate on the front of the superimposed image. A superimposed image is generated, and the superimposed image storage unit 147 is overwritten with the generated superimposed image.

また、画像処理部20は、重畳画像記憶部147が記憶する重畳状態テーブル1471に対し、重ねたフレーム画像に対応するフレーム識別情報を「フレーム識別情報」の項目に書き込み、「配置状態」の項目に、新たに追加したフレーム画像と、1つ前のフレーム画像との位置関係に対応させ「-」、「上」及び「下」のいずれかの情報を書き込む。 In addition, the image processing unit 20 writes the frame identification information corresponding to the superimposed frame image to the item “frame identification information” in the superimposed state table 1471 stored in the superimposed image storage unit 147, and writes the frame identification information to the item “arrangement state”. , writes any information of "-", "above" and "below" corresponding to the positional relationship between the newly added frame image and the previous frame image.

認識データ管理部17は、画像処理部20から送信処理を開始する指示情報を受けた場合、帳票定義情報記憶部144が記憶する帳票定義テーブル1441の「帳票識別情報」の項目に示されている帳票識別情報と、重畳画像記憶部147が記憶する重畳画像及び重畳状態テーブル1471を読み出す。また、認識データ管理部17は、帳票情報記憶部145が記憶する全ての帳票情報テーブル1451を読み出す。認識データ管理部17は、読み出した帳票情報テーブル1451の「フレーム識別情報」の項目に示されているフレーム識別情報に対応するフレーム画像をフレーム画像記憶部141から読み出す。 When the recognition data management unit 17 receives instruction information for starting transmission processing from the image processing unit 20, the recognition data management unit 17 recognizes the information indicated in the item “form identification information” of the form definition table 1441 stored in the form definition information storage unit 144. The form identification information and the superimposed image and superimposed state table 1471 stored in the superimposed image storage unit 147 are read. Further, the recognition data management unit 17 reads out all the form information tables 1451 stored in the form information storage unit 145 . The recognition data management unit 17 reads from the frame image storage unit 141 the frame image corresponding to the frame identification information indicated in the item “frame identification information” of the read form information table 1451 .

また、認識データ管理部17は、読み出した全ての情報に対して端末装置1に予め付与されているユーザ識別情報を対応付けて通信部18を通じて帳票データ管理装置3に送信する。ここで、ユーザ識別情報とは、ユーザを個別に識別する情報であり、例えば、端末装置1の電話番号、端末装置1の個体識別番号などでもよいし、端末装置1を用いて帳票データ管理装置3にログインしている場合には、ログインする際のユーザID(IDentification)でもよい。 In addition, the recognition data management unit 17 associates all the read information with the user identification information assigned to the terminal device 1 in advance, and transmits the information to the form data management device 3 through the communication unit 18 . Here, the user identification information is information that individually identifies a user. 3, the user ID (IDentification) at the time of logging in may be used.

帳票データ管理装置3は、例えば、Webサーバ装置として通信ネットワーク4に接続されており、記録処理部31と記憶部32を備える。記録処理部31は、通信ネットワーク4を通じて端末装置1の認識データ管理部17が送信する情報を受信し、受信した情報を記憶部32に書き込む。 The form data management device 3 is connected to the communication network 4 as, for example, a web server device, and includes a recording processing section 31 and a storage section 32 . The recording processing unit 31 receives information transmitted by the recognition data management unit 17 of the terminal device 1 through the communication network 4 and writes the received information into the storage unit 32 .

記憶部32は、図9に示す帳票情報集計テーブル321を記憶する。帳票情報集計テーブル321は、「ユーザ識別情報」、「帳票識別情報」、「重畳画像情報」、「重畳画像構成情報(フレーム識別情報)」、「変換前フレーム画像情報」、「項目番号」、「取得情報」、「表示状態」の項目を有する。 The storage unit 32 stores a form information total table 321 shown in FIG. The form information total table 321 includes "user identification information", "form identification information", "superimposed image information", "superimposed image configuration information (frame identification information)", "pre-conversion frame image information", "item number", It has items of "acquired information" and "display state".

「ユーザ識別情報」、「帳票識別情報」「重畳画像情報」の項目には、それぞれ認識データ管理部17から受信するユーザ識別情報、帳票識別情報、重畳画像のデータが記録処理部31によって書き込まれる。「重畳画像構成情報(フレーム識別情報)」の項目には、認識データ管理部17から受信する重畳状態テーブル1471の「フレーム識別情報」の項目のフレーム識別情報が、当該項目に記録されている順にしたがって記録処理部31によって書き込まれる。「変換前フレーム画像情報」の項目には、「重畳画像構成情報(フレーム識別情報)」に記録されているフレーム識別情報に対応する透視変化前のフレーム画像のデータが記録処理部31によって書き込まれる。 The user identification information, the form identification information, and the superimposed image data received from the recognition data management unit 17 are written in the items of "user identification information", "form identification information", and "superimposed image information" by the recording processing unit 31. . In the item of "superimposed image configuration information (frame identification information)", the frame identification information of the item of "frame identification information" of the superimposed state table 1471 received from the recognition data management unit 17 is displayed in the order recorded in the item. Therefore, it is written by the recording processing unit 31 . In the item of "frame image information before conversion", the recording processing unit 31 writes the data of the frame image before perspective change corresponding to the frame identification information recorded in the "superimposed image configuration information (frame identification information)". .

「項目番号」及び「取得情報」の項目には、「重畳画像構成情報(フレーム識別情報)」に記録されているフレーム識別情報に対応する帳票情報テーブル1451の「項目番号」の項目と「取得情報」の項目の情報が記録処理部31によって書き込まれる。「表示状態」の項目には、「取得情報」の項目に記録されている項目記録情報の中で重畳画像に表示されている項目記録情報を「○」で示し、表示されていない項目記録情報を「×」示す表示状態の情報が書き込まれる。これにより、例えば、ユーザが、後からどの項目記録情報が保存対象になっているかを、重複画像を参照しつつ確認することが可能となる。 The “item number” and “acquisition information” items include the “item number” item and the “acquisition information” item of the form information table 1451 corresponding to the frame identification information recorded in the “superimposed image configuration information (frame identification information)”. Information” item is written by the recording processing unit 31 . In the "display status" item, the item record information displayed in the superimposed image among the item record information recorded in the "acquired information" item is indicated by "○", and the item record information not displayed is indicated by "○". is written. As a result, for example, the user can later confirm which item record information is to be saved while referring to the duplicate image.

(端末装置による画像管理処理)
次に、図10から図17を参照しつつ、帳票を撮影して得られるフレーム画像、及びフレーム画像から得られる文字情報をテンプレート画像に関連付けて帳票データ管理装置3の記憶部32に記憶させる画像管理処理について説明する。
(Image management processing by terminal device)
Next, referring to FIGS. 10 to 17, a frame image obtained by photographing a form and an image for storing text information obtained from the frame image in the storage unit 32 of the form data management device 3 in association with the template image. Management processing will be described.

端末装置1のアプリケーション記憶部142は、予めダウンロードされた帳票撮影用のAPを記憶している。また、テンプレート画像記憶部143は、予め図2に示すテンプレートの画像のデータを記憶しており、帳票定義情報記憶部144は、これから撮影する帳票のテンプレートの種類に対応する帳票定義テーブル1441を予め記憶している。ユーザによる帳票撮影用のAPの起動指示を受けて端末装置1は、アプリケーション記憶部142に記憶されている帳票撮影用のAPを起動する。 The application storage unit 142 of the terminal device 1 stores a pre-downloaded AP for photographing a form. The template image storage unit 143 stores the data of the template image shown in FIG. I remember. In response to the user's instruction to activate the AP for photographing a form, the terminal device 1 activates the AP for photographing a form stored in the application storage unit 142 .

起動した帳票撮影用のAPは、撮影部11と表示部12を起動し、表示部12の画面に、撮影開始ボタン、撮影終了ボタンを表示する。表示部12は、画面に撮影部11の撮像素子に結像されている画像を表示するプレビュー表示を開始する。 The activated AP for photographing a form activates the photographing unit 11 and the display unit 12 and displays a photographing start button and a photographing end button on the screen of the display unit 12 . The display unit 12 starts preview display for displaying an image formed on the imaging device of the imaging unit 11 on the screen.

図10は、画像管理処理のうち端末装置1による帳票の撮影処理の流れを示すフローチャートである。ユーザは、表示部12のプレビュー表示を参照しながら、例えば、撮影部11のレンズを図3に示す帳票の用紙の先頭の領域に向けて、撮影開始ボタンを選択する(ステップSa1)。 FIG. 10 is a flow chart showing the flow of the document photographing process by the terminal device 1 in the image management process. While referring to the preview display on the display unit 12, the user points the lens of the photographing unit 11 toward the top area of the form shown in FIG. 3, and selects the photographing start button (step Sa1).

操作部10は、撮影開始ボタンが選択されると、フレーム画像記憶部141、帳票情報記憶部145、重畳画像記憶部147の初期化を行い、撮影部11に対して撮影開始の指示情報を出力する。撮影部11は、操作部10から撮影開始の指示情報を受けると、1秒間に10~30フレームのフレームレートでの撮影を連続して行う処理を開始し、撮影ごとに生成するフレーム画像をフレーム画像取得部13に出力する。 When the shooting start button is selected, the operation unit 10 initializes the frame image storage unit 141, the form information storage unit 145, and the superimposed image storage unit 147, and outputs shooting start instruction information to the shooting unit 11. do. Upon receiving instruction information to start shooting from the operation unit 10, the shooting unit 11 starts a process of continuously shooting at a frame rate of 10 to 30 frames per second, and generates frame images for each shooting. Output to the image acquisition unit 13 .

ユーザは、端末装置1において、表示部12のプレビュー表示を参照しながら、帳票の一部を撮影対象として、帳票の先頭から末端まで端末装置1を移動させていく。これにより、ユーザは、シャッターボタンを押すなどの操作を行わない。そして、撮影部11は、例えば、毎秒10~30フレームで、帳票の先頭から末端にわたって、帳票の一部を撮影したフレーム画像を撮影する。この場合、ユーザは、シャッターボタンを押下するなど特別な操作を行う必要がなく、動画を撮影している感覚で撮影を行う。 While referring to the preview display on the display unit 12 of the terminal device 1, the user moves the terminal device 1 from the beginning to the end of the form, with a part of the form as the shooting target. Accordingly, the user does not perform an operation such as pressing the shutter button. Then, the photographing unit 11 photographs a frame image of a part of the form from the beginning to the end of the form at, for example, 10 to 30 frames per second. In this case, the user does not need to perform a special operation such as pressing the shutter button, and shoots as if shooting a moving image.

フレーム画像取得部13は、撮影部11が出力するフレーム画像を取得すると、新たなフレーム識別情報を生成し、取得したフレーム画像に生成したフレーム識別情報を対応付けてフレーム画像記憶部141に書き込んで記憶させる(ステップSa2)。ここで、フレーム画像61に対して、フレーム識別情報として「1」を生成して対応付ける。 When acquiring the frame image output by the photographing unit 11, the frame image acquisition unit 13 generates new frame identification information, associates the generated frame identification information with the acquired frame image, and writes the generated frame identification information to the frame image storage unit 141. store (step Sa2). Here, "1" is generated as frame identification information for the frame image 61 and associated with it.

文字認識部15は、フレーム画像記憶部141に新たなフレーム画像が書き込まれた場合、書き込まれたフレーム画像の文字認識処理を行い、フレーム画像から文字情報と、当該文字情報に対応する座標情報を検出する(ステップSa3)。 When a new frame image is written in the frame image storage unit 141, the character recognition unit 15 performs character recognition processing on the written frame image, and extracts character information and coordinate information corresponding to the character information from the frame image. Detect (step Sa3).

文字認識部15は、1つのフレーム画像から1つ以上の文字情報と座標情報の組み合わせを検出したか否かを判定し、OCR処理が成功したか否かを判定する(ステップSa4)。文字認識部15は、1つのフレーム画像から1つ以上の文字情報と座標情報の組み合わせを検出していない場合、OCR処理が不成功と判定し(ステップSa4、No)、処理をステップSa2に進め、フレーム画像取得部13が次のフレーム画像の取得を行う。 The character recognition unit 15 determines whether or not a combination of one or more character information and coordinate information has been detected from one frame image, and determines whether or not the OCR processing has succeeded (step Sa4). If the character recognition unit 15 does not detect one or more combinations of character information and coordinate information from one frame image, the character recognition unit 15 determines that the OCR process is unsuccessful (step Sa4, No), and advances the process to step Sa2. , the frame image acquiring unit 13 acquires the next frame image.

一方、文字認識部15は、1つのフレーム画像から1つ以上の文字情報と座標情報の組み合わせを検出する場合、OCR処理が成功と判定し(ステップSa4、Yes)、検出した全ての文字情報と座標情報の組み合わせに対してフレーム画像のフレーム識別情報を対応付ける。 On the other hand, when the character recognition unit 15 detects a combination of one or more character information and coordinate information from one frame image, it determines that the OCR processing has succeeded (step Sa4, Yes), and all the detected character information and Frame identification information of a frame image is associated with a combination of coordinate information.

文字認識部15は、フレーム識別情報に対応する全ての文字情報及び座標情報と、帳票定義情報記憶部144の帳票定義テーブル1441とに対応し、文字情報の中から項目名と、項目記録情報とを検出して取得する。文字認識部15は、帳票定義テーブル1441を参照し、取得した項目記録情報に対して項目番号を対応付ける(ステップSa5)。 The character recognition unit 15 corresponds to all the character information and coordinate information corresponding to the frame identification information and the form definition table 1441 of the form definition information storage unit 144, and recognizes item names and item record information from the character information. is detected and obtained. The character recognition unit 15 refers to the form definition table 1441 and associates the acquired item record information with the item number (step Sa5).

文字認識部15は、帳票情報記憶部145に新たな帳票情報テーブル1451を生成し、生成した帳票情報テーブル1451の「フレーム識別情報」の項目にフレーム識別情報を書き込む。文字認識部15は、「項目番号」の項目に取得した項目番号を書き込み、項目番号に対応する項目記録情報を「取得情報」の項目に書き込んで記憶させる(ステップSa6)。例えば、図4に示すフレーム画像61の場合、文字認識部15は、図7に示す帳票情報テーブル1451-1を生成する。ここで、項目番号「007」は、「年齢」の項目であり、図4に示すように「年齢」の項目名に対応する項目記録情報はフレーム画像61に含まれないため、帳票情報テーブル1451-1において項目番号のみが書き込まれる。 The character recognition unit 15 generates a new form information table 1451 in the form information storage unit 145, and writes the frame identification information to the “frame identification information” item of the generated form information table 1451. FIG. The character recognition unit 15 writes the acquired item number in the item of "item number" and writes the item recording information corresponding to the item number in the item of "acquired information" for storage (step Sa6). For example, in the case of the frame image 61 shown in FIG. 4, the character recognition section 15 generates a form information table 1451-1 shown in FIG. Here, the item number "007" is the item "age", and since the item record information corresponding to the item name "age" is not included in the frame image 61 as shown in FIG. At -1 only the item number is written.

文字認識部15は、操作部10から撮影終了ボタンが選択された(撮影終了の指示情報を受けた)か否かを判定する(ステップSa7)。文字認識部15は、撮影終了の指示情報を受けたと判定した場合(ステップSa7、Yes)、処理を終了する。一方、文字認識部15は、撮影終了の指示情報を受けていないと判定した場合(ステップSa7、No)、処理をステップSa2に進め、フレーム画像取得部13が次のフレーム画像の取得を行う。 The character recognition unit 15 determines whether or not the shooting end button has been selected from the operation unit 10 (step Sa7). When the character recognizing unit 15 determines that it has received instruction information to end shooting (step Sa7, Yes), it ends the process. On the other hand, when the character recognition unit 15 determines that the instruction information to end shooting has not been received (step Sa7, No), the process proceeds to step Sa2, and the frame image acquisition unit 13 acquires the next frame image.

例えば、次に、図5に示すフレーム画像62がフレーム画像取得部13によって取得されると、図11に示す帳票情報テーブル1451-2が帳票情報記憶部145に生成される。また、図12に示すフレーム画像63がフレーム画像取得部13によって取得されると、図13に示す帳票情報テーブル1451-3が帳票情報記憶部145に生成される。 For example, next, when the frame image 62 shown in FIG. 5 is acquired by the frame image acquisition unit 13, the form information table 1451-2 shown in FIG. 12 is obtained by the frame image obtaining unit 13, a form information table 1451-3 shown in FIG. 13 is generated in the form information storage unit 145. FIG.

図14は、画像管理処理のうち端末装置1による保存対象の帳票情報テーブルの選択処理の流れを示すフローチャートである。選択部16は、操作部10から撮影終了の指示情報を受けると、帳票情報記憶部145を参照し、項目記録情報が存在しない帳票情報テーブル1451を全て削除する(ステップSb1)。 FIG. 14 is a flowchart showing a flow of processing for selecting a form information table to be stored by the terminal device 1 in the image management processing. When receiving instruction information to end shooting from the operation unit 10, the selection unit 16 refers to the form information storage unit 145 and deletes all the form information tables 1451 that do not contain item record information (step Sb1).

次に、選択部16は、帳票情報記憶部145から未処理の、すなわち未だ処理対象としていない帳票情報テーブル1451の中で順番の最後の帳票情報テーブル1451を読み出す(ステップSb2)。 Next, the selection unit 16 reads out the last form information table 1451 among the unprocessed form information tables 1451, that is, not yet to be processed, from the form information storage unit 145 (step Sb2).

選択部16は、読み出した帳票情報テーブル1451の「取得情報」の項目に記録されている項目記録情報の各々が、帳票情報記憶部145の他の帳票情報テーブル1451のいずれかに記録された保存対象か否かを判定する(ステップSb3)。 The selection unit 16 stores each of the item record information recorded in the item of “acquired information” of the read-out form information table 1451 as stored in any of the other form information tables 1451 of the form information storage unit 145 . It is determined whether or not it is an object (step Sb3).

選択部16は、当該帳票情報テーブル1451の「取得情報」の項目に記録されている項目記録情報の各々が、帳票情報記憶部145に記憶されている他の帳票情報テーブル1451のいずれかに記録されている場合、保存対象ではないと判定し(ステップSb3、No)、読み出した帳票情報テーブル1451を帳票情報記憶部145から削除する。 The selection unit 16 records each of the item record information recorded in the “acquired information” item of the form information table 1451 in one of the other form information tables 1451 stored in the form information storage unit 145 . If so, it is determined that it is not to be saved (step Sb3, No), and the read form information table 1451 is deleted from the form information storage unit 145. FIG.

一方、選択部16は、当該帳票情報テーブル1451の「取得情報」の項目に記録されている項目記録情報の各々が、帳票情報記憶部145に記憶されている他の帳票情報テーブル1451のいずれにも記録されていない場合、保存対象であると判定する(ステップSb3、Yes)。当該帳票情報テーブル1451を削除すると失われる項目記録情報が存在するためである。選択部16は、未処理の帳票情報テーブル1451が帳票情報記憶部145に存在するか否かを判定する(ステップSb5)。 On the other hand, the selection unit 16 selects which of the other form information tables 1451 stored in the form information storage unit 145 each of the item record information recorded in the item “acquired information” of the form information table 1451 is. is not recorded, it is determined to be a storage target (step Sb3, Yes). This is because there is item record information that is lost when the form information table 1451 is deleted. The selection unit 16 determines whether or not the unprocessed form information table 1451 exists in the form information storage unit 145 (step Sb5).

選択部16は、未処理の帳票情報テーブル1451が帳票情報記憶部145に存在すると判定した場合(ステップSb5、Yes)、処理をステップSb2に進める。一方、選択部16は、未処理の帳票情報テーブル1451が帳票情報記憶部145に存在しないと判定した場合(ステップSb5、No)、画像処理開始の指示情報を画像処理部20に出力して(ステップSb6)、処理を終了する。 If the selection unit 16 determines that the unprocessed form information table 1451 exists in the form information storage unit 145 (step Sb5, Yes), the process proceeds to step Sb2. On the other hand, when the selection unit 16 determines that the unprocessed form information table 1451 does not exist in the form information storage unit 145 (step Sb5, No), the selection unit 16 outputs instruction information for starting image processing to the image processing unit 20 ( Step Sb6), the process ends.

また、選択部16は、図14に示すステップSb2の処理において、未処理の帳票情報テーブル1451の中で最後に帳票情報記憶部145に書き込まれた帳票情報テーブル1451を読み出しているが、例えば、最初に帳票情報記憶部145に書き込まれた帳票情報テーブル1451を読み出してもよい。 In addition, in the process of step Sb2 shown in FIG. 14, the selection unit 16 reads out the form information table 1451 last written in the form information storage unit 145 among the unprocessed form information tables 1451. For example, The form information table 1451 written in the form information storage unit 145 first may be read.

図15は、画像管理処理のうち端末装置1によるテンプレート画像にフレーム画像を重ねて重畳画像を生成する処理の流れを示すフローチャートである。 FIG. 15 is a flow chart showing the flow of processing for superimposing a frame image on a template image by the terminal device 1 to generate a superimposed image in the image management processing.

画像処理部20は、選択部16から画像処理開始の指示情報を受けると、テンプレート画像記憶部143が記憶するテンプレート画像の特徴情報を算出し、算出した特徴情報をテンプレート特徴情報記憶部146に書き込んで記憶させる。画像処理部20は、画像処理開始の指示情報が供給された場合、テンプレート画像記憶部143からテンプレート画像を読み出し、読み出したテンプレート画像を重畳画像のデータの初期画像データとして重畳画像記憶部147に書き込む。また、画像処理部20は、重畳画像記憶部147に重畳状態テーブル1471を生成する(ステップSc1)。 Upon receiving instruction information for starting image processing from the selection unit 16 , the image processing unit 20 calculates feature information of the template image stored in the template image storage unit 143 and writes the calculated feature information to the template feature information storage unit 146 . memorize with When the image processing start instruction information is supplied, the image processing unit 20 reads the template image from the template image storage unit 143 and writes the read template image to the superimposed image storage unit 147 as the initial image data of the data of the superimposed image. . Also, the image processing unit 20 generates a superimposed state table 1471 in the superimposed image storage unit 147 (step Sc1).

また、画像処理部20は、帳票情報記憶部145の中から未処理の帳票情報テーブル1451を検出し、検出した未処理の帳票情報テーブル1451の中で最初に帳票情報記憶部145に書き込まれた帳票情報テーブル1451を読み出す(ステップSc2)。すなわち、画像処理部20は、検出した未処理の帳票情報テーブル1451を帳票情報記憶部145に書き込まれた順番に並べた場合、この順番に帳票情報テーブル1451を読み出す。 In addition, the image processing unit 20 detects an unprocessed form information table 1451 from the form information storage unit 145, and selects the first written form information table 1451 in the detected unprocessed form information table 1451 to the form information storage unit 145. The form information table 1451 is read (step Sc2). That is, when the image processing unit 20 arranges the detected unprocessed form information tables 1451 in the order written in the form information storage unit 145, the image processing unit 20 reads out the form information tables 1451 in this order.

画像処理部20は、読み出した帳票情報テーブル1451の「フレーム識別情報」の項目のフレーム識別情報に対応するフレーム画像をフレーム画像記憶部141から読み出す(ステップSc3)。画像処理部20は、読み出したフレーム画像の特徴情報を算出する(ステップSc4)。 The image processing unit 20 reads from the frame image storage unit 141 the frame image corresponding to the frame identification information in the item "frame identification information" of the read form information table 1451 (step Sc3). The image processing unit 20 calculates feature information of the read frame image (step Sc4).

画像処理部20は、算出したフレーム画像の特徴情報と、テンプレート特徴情報記憶部146のテンプレート画像の特徴情報とを比較し、例えば、図16に示すように、形状などが類似する箇所をペアとして検出するマッチング処理を行う(ステップSc5)。すなわち、画像処理部20は、例えば、フレーム画像61の符号700の「健」の文字の座標と、テンプレート画像50の符号600の「健」の文字の座標をペアとして検出する。また、画像処理部20は、フレーム画像61の符号701のコーナー(角)の座標と、テンプレート画像50の符号601のコーナー(角)の座標をペアとして検出する。 The image processing unit 20 compares the calculated feature information of the frame image with the feature information of the template image in the template feature information storage unit 146. For example, as shown in FIG. A matching process for detection is performed (step Sc5). That is, the image processing unit 20 detects, for example, the coordinates of the character "ken" indicated by reference numeral 700 in the frame image 61 and the coordinates of the character "ken" indicated by reference numeral 600 in the template image 50 as a pair. The image processing unit 20 also detects the coordinates of the corner 701 of the frame image 61 and the coordinates of the corner 601 of the template image 50 as a pair.

画像処理部20は、マッチング結果に対応して射影変換行列を算出し、算出した射影変換行列によりフレーム画像を透視変換する(ステップSc6)。 The image processing unit 20 calculates a projective transformation matrix corresponding to the matching result, and perspectively transforms the frame image using the calculated projective transformation matrix (step Sc6).

画像処理部20は、フレーム画像を透視変換した後、重畳画像記憶部147から重畳画像を読み出す。画像処理部20は、読み出した重畳画像と座標が一致するように、フレーム画像を重畳画像の前面に重ねて新たな重畳画像を生成し、生成した重畳画像を重畳画像記憶部147に上書きする。画像処理部20は、重畳画像記憶部147が記憶する重畳状態テーブル1471に対して重ねたフレーム画像に対応するフレーム識別情報を「フレーム識別情報」の項目に書き込み、「配置状態」の項目を更新する(ステップSc7)。 After perspectively transforming the frame image, the image processing unit 20 reads out the superimposed image from the superimposed image storage unit 147 . The image processing unit 20 generates a new superimposed image by superimposing the frame image in front of the superimposed image so that the coordinates of the read superimposed image match, and overwrites the superimposed image storage unit 147 with the generated superimposed image. The image processing unit 20 writes the frame identification information corresponding to the frame image superimposed on the superimposed state table 1471 stored in the superimposed image storage unit 147 in the “frame identification information” item, and updates the “arrangement state” item. (Step Sc7).

フレーム画像61の場合、テンプレート画像50には、1つのフレーム画像61のみ重なっておらず、前にフレーム画像が存在しない。このため、画像処理部20は、フレーム画像61に対応するフレーム識別情報「1」の「配置状態」の項目の上と下の両方の欄に「-」を書き込む。また、フレーム画像61の次のフレーム画像62の場合、画像処理部20は、フレーム画像61に対応するフレーム識別情報「1」の「配置状態」の項目の下の欄に「下」を書き込み、フレーム画像62に対応するフレーム識別情報「2」の「配置状態」の項目の上の欄に「上」を書き込み、下の欄に「-」を書き込む。 In the case of the frame image 61, only one frame image 61 does not overlap with the template image 50, and there is no preceding frame image. Therefore, the image processing unit 20 writes “-” in both the upper and lower columns of the “arrangement state” item of the frame identification information “1” corresponding to the frame image 61 . In the case of the frame image 62 next to the frame image 61, the image processing unit 20 writes "bottom" in the column under the item "arrangement state" of the frame identification information "1" corresponding to the frame image 61, "Up" is written in the upper column of the "arrangement state" item of the frame identification information "2" corresponding to the frame image 62, and "-" is written in the lower column.

画像処理部20は、ステップSc7の処理を終了した後、帳票情報記憶部145に未処理の帳票情報テーブル1451が存在するか否かを判定する(ステップSc8)。画像処理部20は、帳票情報記憶部145に未処理の帳票情報テーブル1451が存在すると判定した場合(ステップSc8、Yes)、ステップSc2からの処理を行う。
一方、画像処理部20は、帳票情報記憶部145に未処理の帳票情報テーブル1451が存在しないと判定した場合(ステップSc8、No)、認識データ管理部17に対して送信処理を開始する指示情報を出力する。
After completing the process of step Sc7, the image processing unit 20 determines whether or not an unprocessed form information table 1451 exists in the form information storage unit 145 (step Sc8). When the image processing unit 20 determines that the unprocessed form information table 1451 exists in the form information storage unit 145 (step Sc8, Yes), the process from step Sc2 is performed.
On the other hand, when the image processing unit 20 determines that the unprocessed form information table 1451 does not exist in the form information storage unit 145 (Step Sc8, No), the image processing unit 20 sends the recognition data management unit 17 instruction information to start transmission processing. to output

例えば、フレーム画像61,62,63が撮影された場合、画像処理部20が、送信処理を開始する指示情報を出力する際に、重畳画像記憶部147には、図17に示す重畳画像40が生成されている。重畳画像40において、最後面に存在するのが、テンプレート画像50であり、フレーム画像61-r,62-r,63-rが、それぞれ透視変換されたフレーム画像61,62,63である。 For example, when the frame images 61, 62, and 63 are captured, the superimposed image storage unit 147 stores the superimposed image 40 shown in FIG. generated. In the superimposed image 40, the template image 50 exists in the rearmost plane, and the frame images 61-r, 62-r, and 63-r are the perspective-transformed frame images 61, 62, and 63, respectively.

最初にフレーム画像61-rがテンプレート画像50に重ねられ、その後、フレーム画像62-r、フレーム画像63-rの順で重ねられている。上述したように、第1実施形態では、後から重ねられるフレーム画像が、上に位置するように重ねられるため、フレーム画像61-rと、フレーム画像62-rの一部は見えない状態になっている。また、重畳画像記憶部147には、最終的に、図8に示す重畳状態テーブル1471が生成される。 First, the frame image 61-r is overlaid on the template image 50, then the frame image 62-r and the frame image 63-r are overlaid in this order. As described above, in the first embodiment, the frame image to be superimposed later is superimposed so that the frame image 61-r and part of the frame image 62-r are not visible. ing. Also, a superimposed state table 1471 shown in FIG. 8 is finally generated in the superimposed image storage unit 147 .

例えば、フレーム画像61,62,63が撮影された場合、認識データ管理部17は、画像処理部20から送信処理を開始する指示情報を受けると、帳票定義情報記憶部144が記憶する帳票定義テーブル1441の「帳票識別情報」の項目に示されている帳票識別情報「0001」を読み出す。また、認識データ管理部17は、重畳画像記憶部147が記憶する重畳画像40及び重畳状態テーブル1471を読み出す。また、認識データ管理部17は、帳票情報記憶部145が記憶する帳票情報テーブル1451-1,1451-2,1451-3を読み出す。認識データ管理部17は、読み出した帳票情報テーブル1451-1,1451-2,1451-3の「フレーム識別情報」の項目に示されているフレーム識別情報「1」,「2」,「3」に対応するフレーム画像61,62,63をフレーム画像記憶部141から読み出す。また、認識データ管理部17は、読み出した全ての情報に対して端末装置1に予め付与されているユーザ識別情報を対応付けて通信部18を通じて帳票データ管理装置3に送信して(ステップSc9)、処理を終了する。 For example, when the frame images 61, 62, and 63 are captured, the recognition data management unit 17, upon receiving instruction information for starting transmission processing from the image processing unit 20, stores the form definition table stored in the form definition information storage unit 144. The form identification information "0001" shown in the item 1441 "form identification information" is read. The recognition data management unit 17 also reads out the superimposed image 40 and the superimposed state table 1471 stored in the superimposed image storage unit 147 . The recognition data management unit 17 also reads out the form information tables 1451-1, 1451-2 and 1451-3 stored in the form information storage unit 145. FIG. The recognition data management unit 17 retrieves the frame identification information "1", "2", "3" indicated in the "frame identification information" item of the read form information tables 1451-1, 1451-2 and 1451-3. frame images 61 , 62 , 63 corresponding to . Further, the recognition data management unit 17 associates all the read information with the user identification information assigned in advance to the terminal device 1, and transmits the information to the form data management device 3 through the communication unit 18 (step Sc9). , terminate the process.

帳票データ管理装置3の記録処理部31は、通信ネットワーク4を通じて端末装置1の認識データ管理部17が送信する情報を受信すると、受信した情報を帳票情報集計テーブル321の各項目に書き込んで記憶させる。 When the recording processing unit 31 of the form data management device 3 receives the information transmitted by the recognition data management unit 17 of the terminal device 1 through the communication network 4, it writes the received information into each item of the form information total table 321 and stores it. .

記録処理部31は、帳票情報集計テーブル321の「表示状態」の項目に情報を書き込む際、認識データ管理部17から受信する重畳状態テーブル1471の「配置状態」の情報を参照する。記録処理部31は、前後のフレーム画像との間で、項目番号が一致する項目記録情報については、「配置状態」の情報が「上」になっているフレーム画像の表示状態を「○」として記録し、「下」になっているフレーム画像に対応する表示状態を「×」として記録する。 The recording processing unit 31 refers to the “arrangement state” information of the superimposition state table 1471 received from the recognition data management unit 17 when writing information in the “display state” item of the form information total table 321 . The recording processing unit 31 sets the display state of the frame image whose item number is the same as that of the frame image before and after the frame image whose item number is the same as the display state of the frame image whose “arrangement state” information is “top”. The display state corresponding to the frame image that is "lower" is recorded as "x".

例えば、図4に示すフレーム画像61からは、図7の帳票情報テーブル1451-1に示すように、項目番号「001」の事業所名から「007」の「年齢」までの項目名の情報が取得されている。また、図5に示すフレーム画像62からは、図11の帳票情報テーブル1451-2に示すように、項目番号「005」の「性別」から項目番号「012」の「他覚症状」までの項目記録情報が取得されている。したがって、フレーム画像61とフレーム画像62では、項目番号「005」の「性別」と、「006」の「健診年月日」と、「007」の「年齢」の項目が重複している。 For example, from the frame image 61 shown in FIG. 4, as shown in the form information table 1451-1 in FIG. has been obtained. Also, from the frame image 62 shown in FIG. 5, as shown in the form information table 1451-2 in FIG. Record information is obtained. Therefore, in the frame image 61 and the frame image 62, the item number "005" "sex", the item number "006" "medical checkup date", and the item number "007" "age" are duplicated.

図17の重畳画像40に示すように、フレーム画像61-rの前面に、フレーム画像62-rが重ねられているため、図8に示すように、重畳状態テーブル1471の「配置状態」の項目において、フレーム画像61-rに対応するフレーム識別情報「1」の下の欄は「下」になっており、フレーム画像62-rに対応するフレーム識別情報「2」の上の欄は「上」になっている。したがって、記録処理部31は、図9に示すように、帳票情報集計テーブル321の「表示状態」の項目において、フレーム識別情報「1」に対応する項目番号「005」,「006」,「007」については「×」を書き込み、フレーム識別情報「2」に対応する項目番号「005」,「006」,「007」については「○」を書き込む。 As shown in the superimposed image 40 in FIG. 17, the frame image 62-r is superimposed on the front surface of the frame image 61-r. Therefore, as shown in FIG. , the column below the frame identification information "1" corresponding to the frame image 61-r is "lower", and the column above the frame identification information "2" corresponding to the frame image 62-r is "upper". "It has become. Therefore, as shown in FIG. 9, the recording processing unit 31 sets the item numbers "005", "006", and "007" corresponding to the frame identification information "1" in the "display state" item of the form information total table 321. , and writes "o" for the item numbers "005", "006", and "007" corresponding to the frame identification information "2".

なお、上記の第1実施形態では、画像処理部20は、図15に示すステップSc2の処理において、未処理の帳票情報テーブル1451の中で最初に帳票情報記憶部145に書き込まれた帳票情報テーブル1451を読み出しているが、例えば、最後に帳票情報記憶部145に書き込まれた帳票情報テーブル1451を読み出してもよい。図15に示すように、最初に帳票情報記憶部145に書き込まれた帳票情報テーブル1451から順に処理を行うと、図17に示すように、例えば、時系列に並べた場合に古いフレーム画像61-rの前面に新しいフレーム画像62-rが重ねられる。逆に、最後に帳票情報記憶部145に書き込まれた帳票情報テーブル1451から順に処理を行うと、例えば、時系列に並べた場合に新しいフレーム画像63-rの前面に古いフレーム画像62-rが重ねられる。また、画像処理部20は、未処理の帳票情報テーブル1451の中からランダムに帳票情報テーブル1451を読み出してもよい。 In the above-described first embodiment, the image processing unit 20, in the process of step Sc2 shown in FIG. 1451 is read, for example, the form information table 1451 last written in the form information storage unit 145 may be read. As shown in FIG. 15, when the form information table 1451 first written in the form information storage unit 145 is processed in order, as shown in FIG. A new frame image 62-r is superimposed in front of r. Conversely, if the form information table 1451 lastly written in the form information storage unit 145 is processed in order, for example, when arranged in chronological order, the old frame image 62-r is placed in front of the new frame image 63-r. be superimposed. Further, the image processing unit 20 may randomly read out the form information table 1451 from the unprocessed form information table 1451 .

また、上記の第1実施形態では、端末装置1を帳票の先頭から末端に向かって動かして撮影するとしているが、端末装置1を帳票の末端から先頭に向かって動かしても、帳票の任意の領域をランダムに撮影してもよい。 Further, in the above-described first embodiment, the terminal device 1 is moved from the top to the end of the form to take an image. Random areas may be photographed.

また、上記の第1実施形態では、図10に示す処理の終了後に、図14に示す処理が行われ、図14に示す処理の終了後に、図15に示す処理が行われる構成になっている。帳票の任意の領域をランダムに撮影する場合、このような順番で行う必要があるが、帳票を先頭から順に末端方向に向かって撮影した場合、逆に、帳票を末端から順に先頭方向に向かって撮影した場合、得られるフレーム画像は時系列となり、フレーム画像間の項目記録情報の重複は、一定の範囲のフレーム画像の中で確認すればよい。したがって、フレーム画像が時系列に得られた場合、図10に示す処理が一定時間行われた後に、図14に示す処理を開始し、更に、図14に示す処理が一定時間行われた後に、図15に示す処理を開始して図10、図14、及び図15に示す処理を並列に行ってもよい。 Further, in the first embodiment described above, the processing shown in FIG. 14 is performed after the processing shown in FIG. 10 is completed, and the processing shown in FIG. 15 is performed after the processing shown in FIG. 14 is completed. . When shooting arbitrary areas of a form at random, it is necessary to do so in this order. When photographed, the obtained frame images are in chronological order, and duplication of item record information between frame images can be confirmed within a certain range of frame images. Therefore, when frame images are obtained in time series, the process shown in FIG. 14 is started after the process shown in FIG. The processing shown in FIG. 15 may be started and the processing shown in FIGS. 10, 14, and 15 may be performed in parallel.

また、上記の第1実施形態では、認識データ管理部17は、読み出した全ての帳票情報テーブル1451の「フレーム識別情報」の項目に示されているフレーム識別情報に対応するフレーム画像をフレーム画像記憶部141から読み出しているが、重畳状態テーブル1471の「フレーム識別情報」に示されているフレーム識別情報に対応するフレーム画像をフレーム画像記憶部141から読み出してもよい。 In the above-described first embodiment, the recognition data management unit 17 stores the frame images corresponding to the frame identification information indicated in the "frame identification information" item of all the read form information tables 1451. Although the frame image is read from the unit 141 , the frame image corresponding to the frame identification information indicated in the “frame identification information” of the superimposed state table 1471 may be read from the frame image storage unit 141 .

上記の第1実施形態の構成では、端末装置1において、フレーム画像取得部13は、任意に連続して定められる帳票の一部の領域を撮影対象として撮影部11が連続して撮影するごとに得られるフレーム画像を取得する。文字認識部15は、フレーム画像ごとに文字認識処理を行う。画像処理部20は、予め与えられる帳票のテンプレートの画像の特徴を示す特徴情報と、文字認識処理により文字情報が検出されたフレーム画像ごと特徴情報とに対応し、フレーム画像を変換し、変換したフレーム画像をテンプレート画像に重ねる。これにより、帳票の一部を撮影したフレーム画像のうち文字情報の取得ができたフレーム画像と、テンプレート画像とを関係付けられるため、ユーザは、当該フレーム画像が、帳票のどの位置に対応しているかを容易に把握できる。また、テンプレート画像を基準としてフレーム画像を重ねていくため、フレーム画像が傾いて撮影されても、傾きを補正できるため、縦の罫線及び横の罫線が、それぞれ垂直及び水平の方向になり精度の良い重畳画像が得られる。また、撮影漏れがある場合も容易に見つけることが可能となる。 In the configuration of the first embodiment described above, in the terminal device 1, the frame image acquisition unit 13 sets the arbitrarily continuously determined partial area of the form as the shooting target, and each time the shooting unit 11 successively shoots the Get the resulting frame image. The character recognition unit 15 performs character recognition processing for each frame image. The image processing unit 20 converts the frame image corresponding to the feature information indicating the feature of the image of the form template given in advance and the feature information for each frame image in which the character information is detected by the character recognition process, and converts the frame image. Overlay the frame image on the template image. As a result, the template image can be associated with the frame image from which the character information has been obtained among the frame images obtained by photographing a part of the form. You can easily find out if there is In addition, since the frame images are superimposed based on the template image, even if the frame image is shot tilted, the tilt can be corrected. A good superimposed image is obtained. In addition, even if there is an omission of photographing, it can be easily found.

(第1実施形態の他の構成例)
上記の第1実施形態では、画像処理部20は、図15に示すステップSc7の処理においてフレーム画像を重ねる際、既にテンプレート画像50に重ねられているフレーム画像の前面に重ねていく処理を行っていた。このステップSc7の処理を行う際に、画像処理部20は、帳票情報テーブル1451の「項目番号」及び「取得情報」の項目の記録状態に基づいて、フレーム画像を重ねる順を変更してもよい。例えば、図18に示すフレーム画像62aは、「性別」の項目記録情報と、「健診年月日」の項目記録情報が不鮮明である。そのため、文字認識部15は、これらの項目では、項目記録情報を取得できず、項目名の「性別」と「健診年月日」の文字情報のみを取得する。
第1実施形態において説明した画像処理部20の処理をフレーム画像62aに適用した場合、フレーム画像62aを透視変換した画像(以下、フレーム画像62a-r)をフレーム画像61-rの前面に重ねるため、フレーム画像61に表示されている「性別」/「男」、「健診年月日」/「平成29年6月10日」の情報が重畳画像40で見えなくなる。
(Another configuration example of the first embodiment)
In the first embodiment described above, the image processing unit 20 superimposes the frame image on top of the frame image already superimposed on the template image 50 when superimposing the frame image in the process of step Sc7 shown in FIG. rice field. When performing the process of step Sc7, the image processing unit 20 may change the order in which the frame images are superimposed based on the recording status of the items "item number" and "acquired information" in the form information table 1451. . For example, in the frame image 62a shown in FIG. 18, the item record information of "gender" and the item record information of "medical examination date" are unclear. Therefore, the character recognition unit 15 cannot acquire the item record information for these items, and acquires only the character information of the item names "sex" and "medical examination date".
When the processing of the image processing unit 20 described in the first embodiment is applied to the frame image 62a, an image obtained by perspectively transforming the frame image 62a (hereinafter referred to as a frame image 62a-r) is superimposed on the frame image 61-r. , the information of “sex”/“male” and “date of medical checkup”/“June 10, 2017” displayed in the frame image 61 disappears in the superimposed image 40 .

図19は、フレーム画像62aに対応して帳票情報記憶部145に生成される帳票情報テーブル1451a-2を示した図である。画像処理部20は、図7に示す帳票情報テーブル1451-1と、帳票情報テーブル1451a-2の共通の項目番号である「005」から「007」に対応する「取得情報」の項目を参照する。項目番号「005」,「006」については、帳票情報テーブル1451-1には、項目記録情報として、「男」、「平成29年6月10日」が記録されるのに対し、帳票情報テーブル1451a-2には、項目記録情報が記録されない。 FIG. 19 shows a form information table 1451a-2 generated in the form information storage unit 145 corresponding to the frame image 62a. The image processing unit 20 refers to the items of "acquired information" corresponding to the common item numbers "005" to "007" of the form information table 1451-1 and the form information table 1451a-2 shown in FIG. . For the item numbers "005" and "006", "Male" and "June 10, 2017" are recorded as item record information in the form information table 1451-1. Item record information is not recorded in 1451a-2.

このような場合、画像処理部20は、フレーム画像62a-rをフレーム画像61-rの前面に重ねると、項目番号「005」,「006」に対応する項目記録情報が隠れると判定し、図20に示すようにフレーム画像61-rの背面にフレーム画像62a-rを重ねる。また、画像処理部20は、図21に示すように、重畳状態テーブル1471のフレーム識別情報「1」の「配置状態」の項目の下の欄に「上」を書き込み、フレーム識別情報「2」の「配置状態」の項目の上の欄に「下」を書き込む。 In such a case, the image processing unit 20 determines that the item record information corresponding to the item numbers “005” and “006” is hidden when the frame images 62a-r are superimposed on the frame images 61-r. 20, the frame images 62a-r are superimposed on the back of the frame image 61-r. In addition, as shown in FIG. 21, the image processing unit 20 writes "above" in the column below the item "arrangement state" of the frame identification information "1" in the superimposition state table 1471, and sets the frame identification information "2". Write "bottom" in the upper column of the "placement state" item.

上記の第1実施形態の他の構成例において、画像処理部20は、テンプレート画像にフレーム画像を重ねる際、1つ前に重ねられたフレーム画像と文字情報が重複する場合、両方のフレーム画像の含む文字情報に基づき、いずれのフレーム画像を上にして重ねるかを選択する。これにより、テンプレート画像にフレーム画像が重ねられて生成される重畳画像において、文字情報が他のフレーム画像に隠されず、多くの文字情報が表示できる。 In another configuration example of the first embodiment described above, when a frame image is superimposed on a template image, if the character information overlaps with the frame image superimposed one before, the image processing unit 20 replaces both frame images. Which frame image should be superimposed is selected based on the included character information. As a result, in a superimposed image generated by superimposing a frame image on a template image, character information is not hidden by other frame images, and a large amount of character information can be displayed.

(第2実施形態)
本発明の第2実施形態は、第1の実施形態と構成は同様であるが、動作が異なる。以下、文字認識部15及び画像処理部20の第1の実施形態と異なる動作のみを説明する。
文字認識部15は、第1実施形態の処理とともに、以下のような処理を行う。すなわち、文字認識部15は、帳票情報記憶部145に対して、第1実施形態の帳票情報テーブル1451のデータ形式に替えて、図22に示すように「座標情報」の項目が追加されたデータ形式のテーブルを生成する。この、図22に示す帳票情報テーブル1451b-1は、フレーム画像61に基づいて、文字認識部15が帳票情報記憶部145に生成したテーブルである。なお、第2実施形態において、帳票情報記憶部145が記憶するいずれか1つのテーブルを示す場合、符号の枝番号を付けずに帳票情報テーブル1451bとして示す。この図22における「座標情報」に書き込まれる4個の座標情報は、当該レコードの項目番号に対応する項目名と項目記録情報の文字情報を囲む領域を示す座標情報である。文字認識部15は、文字情報ごとの座標情報に基づいて、4個の座標情報を算出して、帳票情報テーブル1451bに書き込む。
(Second embodiment)
The second embodiment of the present invention is similar in configuration to the first embodiment, but differs in operation. Only the operations of the character recognition unit 15 and the image processing unit 20 that differ from those of the first embodiment will be described below.
The character recognition unit 15 performs the following processes in addition to the processes of the first embodiment. That is, the character recognition unit 15 stores data in the form information storage unit 145 in which the item "coordinate information" is added as shown in FIG. 22 instead of the data format of the form information table 1451 of the first embodiment. Generate a format table. This form information table 1451b-1 shown in FIG. In the second embodiment, any one table stored in the form information storage unit 145 is indicated as a form information table 1451b without a branch number. The four pieces of coordinate information written in the "coordinate information" in FIG. 22 are coordinate information indicating the area surrounding the item name corresponding to the item number of the record and the character information of the item record information. The character recognition unit 15 calculates four pieces of coordinate information based on the coordinate information for each piece of character information, and writes them to the form information table 1451b.

上記の第1実施形態の他の構成例に示した例において、図7に示す帳票情報テーブル1451-1と、図19に示す帳票情報テーブル1451a-2に共通の項目番号である「007」の場合、帳票情報テーブル1451-1の「取得情報」の項目には、情報が存在せず、帳票情報テーブル1451a-2の「取得情報」の項目に「40歳」という項目記録情報が存在していた。図4に示すフレーム画像61では、「年齢」の項目名に対応する項目記録情報を記録する欄が、斜めに切れており、フレーム画像61-rを上にして重ねても、フレーム画像62a-rに表示された「40歳」が見えていた。これに対し、フレーム画像61の「年齢」の項目名に対応する項目記録情報が不鮮明に記録されているだけで、項目記録情報を記録する領域がフレーム画像61に存在している場合、フレーム画像61-rを上にして重ねると、フレーム画像62a-rに表示された「40歳」が隠れる。 In the example shown in the other configuration example of the first embodiment, the item number "007" common to the form information table 1451-1 shown in FIG. 7 and the form information table 1451a-2 shown in FIG. In this case, there is no information in the "acquired information" item of the form information table 1451-1, and the item record information "40 years old" exists in the "acquired information" item of the form information table 1451a-2. rice field. In the frame image 61 shown in FIG. 4, the column for recording the item record information corresponding to the item name "Age" is obliquely cut. "40 years old" displayed on r was visible. On the other hand, if the item record information corresponding to the item name "Age" of the frame image 61 is recorded only indistinctly and the frame image 61 has an area for recording the item record information, the frame image When the frames 61-r are superimposed, the "40 years old" displayed in the frame images 62a-r are hidden.

そこで、第2実施形態において、画像処理部20は、第1実施形態の処理とともに、以下のような処理を行う。画像処理部20は、フレーム画像61-rをテンプレート画像50に重ねた後、帳票情報テーブル1451b-1の「取得情報」の項目を参照し、「取得情報」の項目に項目記録情報が記録されていない行を検出する。帳票情報テーブル1451b-1の場合、項目番号「007」を検出する。 Therefore, in the second embodiment, the image processing unit 20 performs the following processing together with the processing of the first embodiment. After superimposing the frame image 61-r on the template image 50, the image processing unit 20 refers to the “acquired information” item of the form information table 1451b-1, and records the item recording information in the “acquired information” item. Detect lines that are not In the case of the form information table 1451b-1, the item number "007" is detected.

画像処理部20は、検出した項目番号「007」に対応する「座標情報」の項目の4個の座標情報(xg1、yg1),(xg2、yg2),(xg3、yg3),(xg4、yg4)を読み出す。画像処理部20は、フレーム画像61に対応する射影変換行列と、帳票情報テーブル1451b-1の「座標情報」とにより、図23に示すようにフレーム画像61-rの不要領域150を算出し、算出した不要領域150をテンプレート画像50に重ねたフレーム画像61-rから除去する。フレーム画像62aの場合、画像処理部20は、図24に示すように、フレーム画像62a-rにおける不要領域1501と不要領域1502を算出し、フレーム画像62-rから不要領域1501,1502を除去する。 The image processing unit 20 extracts four pieces of coordinate information (xg1, yg1), (xg2, yg2), (xg3, yg3), (xg4, yg4) of the item of "coordinate information" corresponding to the detected item number "007". ). The image processing unit 20 calculates the unnecessary area 150 of the frame image 61-r as shown in FIG. The calculated unnecessary area 150 is removed from the frame image 61-r superimposed on the template image 50. FIG. In the case of the frame image 62a, the image processing unit 20 calculates unnecessary regions 1501 and 1502 in the frame images 62a-r, and removes the unnecessary regions 1501 and 1502 from the frame images 62-r, as shown in FIG. .

なお、画像処理部20は、不要領域150,1501、1502を算出する際、罫線の位置で除去できるように不要領域150,1501、1502を算出してもよい。例えば、画像処理部20は、フレーム画像61の場合、項目記録情報が存在しない項目である「年齢」の横方向の罫線の座標情報を検出し、検出した座標情報を用いて横方向の罫線に沿った不要領域150を算出する。フレーム画像62aの場合、画像処理部20は、項目記録情報が存在しない項目である「性別」、「健診年月日」、「視聴」の横方向の罫線の座標情報を検出し、この座標情報を用いて横方向の罫線に沿った不要領域1501,1502を算出する。不要領域150,1501,1502が除去された後のフレーム画像61b-rと、フレーム画像62b-rとの位置関係は、図25に示す位置関係となり、重複部分がなくなり、重ね合わせの際に必要な情報が隠れるという問題を解消できる。 When calculating the unnecessary areas 150, 1501, and 1502, the image processing unit 20 may calculate the unnecessary areas 150, 1501, and 1502 so that the unnecessary areas 150, 1501, and 1502 can be removed at the ruled line positions. For example, in the case of the frame image 61, the image processing unit 20 detects the coordinate information of the horizontal ruled line of "age", which is an item for which item recording information does not exist, and uses the detected coordinate information to detect the horizontal ruled line. An unnecessary area 150 along the line is calculated. In the case of the frame image 62a, the image processing unit 20 detects the coordinate information of the horizontal ruled lines of the items "sex", "medical examination date", and "viewing", which are items for which item recording information does not exist, and Using the information, unnecessary areas 1501 and 1502 along the horizontal ruled lines are calculated. The positional relationship between the frame image 61b-r after the unnecessary regions 150, 1501, 1502 have been removed and the frame image 62b-r is the positional relationship shown in FIG. It can solve the problem of hidden information.

なお、上記のように不要領域150,1501,1502を除去せずに、不要領域150,1501,1502以外の領域、すなわち項目記録情報が存在する領域を罫線ごとに切り分けて、切り分けた領域をテンプレート画像50の該当箇所に重ねてもよい。また、テンプレート画像50には、項目名は示されているため、帳票情報テーブル1451に記録されている項目記録情報を文字情報とし、テンプレート画像50の解像度に合う文字の大きさにして、テンプレート画像50の対応するように配置してもよい。 Instead of removing the unnecessary areas 150, 1501, and 1502 as described above, the areas other than the unnecessary areas 150, 1501, and 1502, i.e., the areas where the item recording information exists, are cut by ruled lines, and the cut areas are used as templates. It may be superimposed on the relevant portion of the image 50 . Since the item name is shown in the template image 50, the item record information recorded in the form information table 1451 is used as character information, and the character size is adjusted to match the resolution of the template image 50. 50 may be arranged correspondingly.

また、上記第1及び第2実施形態では、予め外部のイメージスキャナー等で読み取ったテンプレートの画像をテンプレート画像記憶部143に記憶させている。これに対して、撮影部11によってテンプレートの静止画を撮影して得られるテンプレート画像をテンプレート画像記憶部143に記憶させてもよい。
また、上記第1及び第2実施形態において、画像処理部20が誤ったマッチング結果に基づいて透視変換を行うと、変換後の画像が読めないものになる可能性がある。例えば、マッチング結果の距離の値は、値の大きさが小さいほど確度が高くなるが、このマッチング結果の距離の値や、対応すると判定された特徴点の数に閾値を設ける等の処理を加えて、マッチングの精度を高めてもよい。また、画像処理部20による透視変換の結果で得られるフレーム画像のサイズが大きすぎる場合、変換が失敗したとして除外してもよい。
Further, in the first and second embodiments, the template image storage unit 143 is stored in advance with an image of the template read by an external image scanner or the like. On the other hand, a template image obtained by photographing a still image of the template by the photographing unit 11 may be stored in the template image storage unit 143 .
Further, in the first and second embodiments, if the image processing unit 20 performs perspective transformation based on an erroneous matching result, the transformed image may become unreadable. For example, the smaller the value of the distance value of the matching result, the higher the accuracy. may be used to improve matching accuracy. Also, if the size of the frame image obtained as a result of the perspective transformation by the image processing unit 20 is too large, it may be excluded as the transformation has failed.

また、上記第1及び第2実施形態の構成において、帳票の撮影の際に、別の帳票や任意の物体が写り込んでしまうと、画像処理部20による処理において、別の帳票や任意の物体を特徴として算出する場合がある。そのため、画像処理部20が、フレーム画像記憶部141からフレーム画像を読み出した際、フレーム画像の外周を示す線を検出し、外周部分をトリミングしてからフレーム画像の特徴情報を算出してもよい。 In addition, in the configurations of the first and second embodiments described above, if another form or an arbitrary object is caught in the image when the form is photographed, the other form or the arbitrary object is not captured in the processing by the image processing unit 20. may be calculated as a feature. Therefore, when the image processing unit 20 reads out the frame image from the frame image storage unit 141, the line indicating the outer circumference of the frame image may be detected, and the characteristic information of the frame image may be calculated after trimming the outer circumference. .

また、第1及び第2実施形態では、端末装置1が、画像処理部20と重畳画像記憶部147を備えて、重畳画像を生成する画像処理を行う1台の「画像処理装置」として機能しているが、画像処理部20と重畳画像記憶部147を分離して、外部の装置(例えば、画像処理サーバ装置など)が、画像処理部20と重畳画像記憶部147を備えるようにしてもよい。この場合、端末装置1が、フレーム画像記憶部141が記憶する情報と、帳票テンプレート画像記憶部413が記憶する情報と、帳票情報記憶部145が記憶する情報とを、外部の装置に出力する。外部の装置の画像処理部20は、端末装置1が出力する情報に基づいて、重畳画像を生成し、最終的に得られた重畳画像を端末装置1に出力するといった構成になる。かかる場合、端末装置1と当該外部の装置が一体となって重畳画像を生成する「画像処理装置」となる。 In addition, in the first and second embodiments, the terminal device 1 includes the image processing unit 20 and the superimposed image storage unit 147, and functions as one "image processing device" that performs image processing for generating a superimposed image. However, the image processing unit 20 and the superimposed image storage unit 147 may be separated, and an external device (for example, an image processing server device, etc.) may include the image processing unit 20 and the superimposed image storage unit 147. . In this case, the terminal device 1 outputs the information stored by the frame image storage unit 141, the information stored by the form template image storage unit 413, and the information stored by the form information storage unit 145 to an external device. The image processing unit 20 of the external device generates a superimposed image based on the information output by the terminal device 1 and outputs the finally obtained superimposed image to the terminal device 1 . In such a case, the terminal device 1 and the external device are integrated to form an "image processing device" that generates a superimposed image.

また、第1及び第2実施形態において、重畳状態テーブル1471において、どのフレーム画像が上になっているかを示す「配置状態」の情報を記憶しているが、例えば、常に時系列で後になるフレーム画像を上に重ねる、または下に重ねるといった決まった処理を行うのであれば、重畳状態テーブル1471を備えなくてもよい。この場合、記録処理部31は、重畳状態テーブル1471を参照できないことになるため、図9に示す帳票情報集計テーブル32の「表示状態」の項目を設けなくてもよい。 In addition, in the first and second embodiments, the superimposition state table 1471 stores the information of the “arrangement state” indicating which frame image is on top. The superimposition state table 1471 may not be provided if predetermined processing such as superimposing an image or superimposing an image on the bottom is performed. In this case, since the recording processing unit 31 cannot refer to the superimposition state table 1471, it is not necessary to provide the "display state" item of the form information total table 32 shown in FIG.

上述した実施形態における端末装置1をコンピュータで実現してもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するでもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものでもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものでもよい。 The terminal device 1 in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" refers to a volatile memory inside a computer system that acts as a server or client when sending a program via a network such as the Internet or a communication line such as a telephone line. It may also include those holding programs. Further, the above program may implement a part of the functions described above, or may implement the functions described above in combination with a program already recorded in a computer system, such as FPGA (Field Programmable Gate Array). It may be implemented using a programmable logic device.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られず、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to these embodiments, and designs and the like are included within the scope of the present invention.

1…端末装置 3…帳票データ管理装置 4…通信ネットワーク 10…操作部 11…撮影部 12…表示部 13…フレーム画像取得部 14…記憶部 15…文字認識部 17…認識データ管理部 18…通信部 20…画像処理部 31…記録処理部 32…記憶部 DESCRIPTION OF SYMBOLS 1... Terminal device 3... Form data management apparatus 4... Communication network 10... Operation part 11... Photographing part 12... Display part 13... Frame image acquisition part 14... Storage part 15... Character recognition part 17... Recognition data management part 18... Communication Section 20... Image processing section 31... Recording processing section 32... Storage section

Claims (6)

一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得部と、
前記フレーム画像における文字画像の文字認識を行なう文字認識部と、
前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理部と
を備え
前記画像処理部は、
前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねる
ことを特徴とする画像処理装置。
a frame image obtaining unit that obtains frame images obtained by partially continuously photographing one form;
a character recognition unit that performs character recognition of the character image in the frame image;
an image processing unit that superimposes the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image whose character information is obtained by the character recognition ,
The image processing unit
When the frame image is superimposed on the template image, if the character information overlaps with the previously superimposed frame image, the frame image in which the character information is recognized in the overlapped portion is placed upward. overlap
An image processing apparatus characterized by:
一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得部と、
前記フレーム画像における文字画像の文字認識を行なう文字認識部と、
前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理部と
を備え
前記画像処理部は、
前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出する
ことを特徴とする画像処理装置。
a frame image obtaining unit that obtains frame images obtained by partially continuously photographing one form;
a character recognition unit that performs character recognition of the character image in the frame image;
an image processing unit that superimposes the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image whose character information is obtained by the character recognition ,
The image processing unit
When the frame image is superimposed on the template image, an area where the character information is not recognized is detected as an unnecessary area.
An image processing apparatus characterized by:
フレーム画像取得部が、一つの帳票を部分的に連続して撮像したフレーム画像を取得するフレーム画像取得過程と、
文字認識部が、前記フレーム画像における文字画像の文字認識を行なう文字認識過程と、
画像処理部が、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理過程と
を含み、
前記画像処理過程は、
前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねることを含む
ことを特徴とする画像管理方法。
a frame image acquisition process in which the frame image acquisition unit acquires frame images obtained by partially continuously imaging one form;
a character recognition process in which the character recognition unit performs character recognition of the character image in the frame image;
an image processing process in which an image processing unit superimposes the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition. fruit,
The image processing process includes:
When the frame image is superimposed on the template image, if the character information overlaps with the previously superimposed frame image, the frame image in which the character information is recognized in the overlapped portion is placed upward. including overlapping
An image management method characterized by:
フレーム画像取得部が、一つの帳票を部分的に連続して撮像したフレーム画像を取得するフレーム画像取得過程と、
文字認識部が、前記フレーム画像における文字画像の文字認識を行なう文字認識過程と、
画像処理部が、前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理過程と
を含み、
前記画像処理過程は、
前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出することを含む
ことを特徴とする画像管理方法。
a frame image acquisition process in which the frame image acquisition unit acquires frame images obtained by partially continuously imaging one form;
a character recognition process in which the character recognition unit performs character recognition of the character image in the frame image;
an image processing process in which an image processing unit superimposes the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition. fruit,
The image processing process includes:
detecting an area where the character information is not recognized as an unnecessary area when the frame image is superimposed on the template image.
An image management method characterized by:
コンピュータを、
一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得手段、
前記フレーム画像における文字画像の文字認識を行なう文字認識手段、
前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理手段
として機能させるためのプログラムであり、
前記画像処理手段では、
前記テンプレート画像に前記フレーム画像を重ねる際、1つ前に重ねられている前記フレーム画像と前記文字情報が重複する場合、重複する部分において前記文字情報が認識されている前記フレーム画像を上にして重ねることを含む
プログラム。
the computer,
frame image acquisition means for acquiring frame images obtained by partially continuously photographing one form;
character recognition means for performing character recognition of the character image in the frame image;
a program for functioning as image processing means for superimposing the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition; ,
In the image processing means,
When the frame image is superimposed on the template image, if the character information overlaps with the previously superimposed frame image, the frame image in which the character information is recognized in the overlapped portion is placed upward. including overlapping
program.
コンピュータを、
一つの帳票を部分的に連続して撮影したフレーム画像を取得するフレーム画像取得手段、
前記フレーム画像における文字画像の文字認識を行なう文字認識手段、
前記帳票のテンプレート画像の特徴情報と、前記文字認識により文字情報が得られた前記フレーム画像の特徴情報とにより、前記フレーム画像を前記テンプレート画像に重畳させる画像処理手段
として機能させるためのプログラムであり
前記画像処理手段では、
前記テンプレート画像に前記フレーム画像を重ねる際、前記文字情報が認識されていない領域を不要領域として検出することを含む
プログラム。
the computer,
frame image acquisition means for acquiring frame images obtained by partially continuously photographing one form;
character recognition means for performing character recognition of the character image in the frame image;
a program for functioning as image processing means for superimposing the frame image on the template image based on the feature information of the template image of the form and the feature information of the frame image from which the character information is obtained by the character recognition; ,
In the image processing means,
detecting an area where the character information is not recognized as an unnecessary area when the frame image is superimposed on the template image.
program.
JP2018235854A 2018-12-17 2018-12-17 Image processing device, image management method, program Active JP7240164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235854A JP7240164B2 (en) 2018-12-17 2018-12-17 Image processing device, image management method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235854A JP7240164B2 (en) 2018-12-17 2018-12-17 Image processing device, image management method, program

Publications (2)

Publication Number Publication Date
JP2020098433A JP2020098433A (en) 2020-06-25
JP7240164B2 true JP7240164B2 (en) 2023-03-15

Family

ID=71106515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235854A Active JP7240164B2 (en) 2018-12-17 2018-12-17 Image processing device, image management method, program

Country Status (1)

Country Link
JP (1) JP7240164B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278514A (en) 1999-01-18 2000-10-06 Fujitsu Ltd Device and method for connecting document image and recording medium recording document image connection program
JP2001292304A (en) 2000-04-10 2001-10-19 Fuji Xerox Co Ltd Image reading apparatus, image read method and image expression method
JP2016538783A (en) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド System and method for generating a composite image of a long document using mobile video data

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865457A (en) * 1994-08-24 1996-03-08 Hitachi Ltd Image input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278514A (en) 1999-01-18 2000-10-06 Fujitsu Ltd Device and method for connecting document image and recording medium recording document image connection program
JP2001292304A (en) 2000-04-10 2001-10-19 Fuji Xerox Co Ltd Image reading apparatus, image read method and image expression method
JP2016538783A (en) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド System and method for generating a composite image of a long document using mobile video data

Also Published As

Publication number Publication date
JP2020098433A (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US9641812B2 (en) Dispensing verification device
JP4918171B1 (en) Image processing apparatus and document reading system having the same
JP2010182271A (en) Personal identification device, personal identification method, and personal identification program
JP2016186773A (en) Processing image acquisition method and accounting processing system with the same
CN105323463A (en) Photographing system, photographing method
EP0978991A3 (en) Appliance and method for capturing images
KR101517829B1 (en) Book scanning system using smart device
JP5184123B2 (en) Image processing apparatus, image data communication system, and image processing program
JP7240164B2 (en) Image processing device, image management method, program
JP7240163B2 (en) Image processing device, image management method, program
JP2000023921A (en) Eyeground image synthesizing method, eyeground image synthesizing device and recording medium
JP2003331217A (en) Character input device, character input method and character input program
JP7292052B2 (en) Image processing device, guide image generation method and program
US20180220077A1 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP2006180403A (en) Information processing apparatus
JP6399371B1 (en) Information processing apparatus, information processing apparatus control method, and program
JP2020048025A (en) Imaging apparatus, operation program and operation method of imaging apparatus
JP6558145B2 (en) Information processing terminal, information processing system, processing method thereof, and program
JP2017199288A (en) Image processing device, image processing method and program
JPH0991407A (en) Panorama image synthesis system and panorama image synthesis method
JP6875061B2 (en) A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.
JP2006318352A (en) Image processing device
JP2015102915A (en) Information processing apparatus, control method, and computer program
JP6312488B2 (en) Image processing apparatus, image processing method, and program
US20150334305A1 (en) Displaying method and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7240164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350