JP2019117520A - Character recognition device, method and program - Google Patents

Character recognition device, method and program Download PDF

Info

Publication number
JP2019117520A
JP2019117520A JP2017251102A JP2017251102A JP2019117520A JP 2019117520 A JP2019117520 A JP 2019117520A JP 2017251102 A JP2017251102 A JP 2017251102A JP 2017251102 A JP2017251102 A JP 2017251102A JP 2019117520 A JP2019117520 A JP 2019117520A
Authority
JP
Japan
Prior art keywords
text data
item
reading
character
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017251102A
Other languages
Japanese (ja)
Other versions
JP6374079B1 (en
Inventor
択 渡久地
Taku Toguchi
択 渡久地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ai Inside
AI Inside Inc
Original Assignee
Ai Inside
AI Inside Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ai Inside, AI Inside Inc filed Critical Ai Inside
Priority to JP2017251102A priority Critical patent/JP6374079B1/en
Application granted granted Critical
Publication of JP6374079B1 publication Critical patent/JP6374079B1/en
Publication of JP2019117520A publication Critical patent/JP2019117520A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a character recognition device, a method and a program capable of performing highly accurate text data generation for each reading item of a document containing various handwritten characters.SOLUTION: There is provided a character recognition device 200 comprising a control part 230 including a reading range setting part 231 performing setting of a reading range in sample image data by a user operation, a reading item determination part 232 calculating a coordinate position of the reading range in the sample image data to determine a reading item, an attribute information adding part 233 adding predetermined attribute information by a user operation, and a text data generation part 234 generating text data from character information displayed on the reading item determined by the reading item determination part 232 based on the attribute information added by the attribute information adding part 233.SELECTED DRAWING: Figure 2

Description

本開示は、画像データから文字情報を読み取る文字認識装置、方法およびプログラムに関する。   The present disclosure relates to a character recognition apparatus, method, and program for reading character information from image data.

手書きで文字が記入された書類をイメージスキャナなどで読み取り、OCR(Optical Character Recognition)処理を行うことにより、入力情報を所定の文字コードに変換したデジタルデータを生成する技術が普及している。   2. Description of the Related Art A technology for generating digital data in which input information is converted into a predetermined character code by using an image scanner or the like to read a document in which characters are written by handwriting and performing an OCR (Optical Character Recognition) process has become widespread.

例えば、特許文献1によれば、機械学習により文字認識を行う文字識別システムが開示されている。文字認識システムは、見本文字画像の入力を受け付ける文字画像入力受付部と、見本文字画像に基づいて文字部品を抽出する文字部品抽出と、文字部品に基づいて擬似文字モデルを生成する擬似文字モデル生成部と、擬似文字モデルに基づいて文字識別パターンを生成して識別辞書を生成する識別辞書生成と、により構成されるシステムが提案されている。   For example, according to Patent Document 1, a character identification system for performing character recognition by machine learning is disclosed. The character recognition system includes a character image input reception unit that receives an input of a sample character image, character part extraction that extracts character parts based on the sample character image, and pseudo character model generation that generates a pseudo character model based on the character parts There has been proposed a system configured of a part and an identification dictionary generation that generates a character identification pattern based on a pseudo character model and generates an identification dictionary.

また、近年、BPO(Business Process Outsourcing)と呼ばれる、自社の業務プロセスの一部を外部企業に業務委託するサービスが提供されており、例えば、BPOサービスにおいては、手書きの申込書や口座振替依頼書などをテキスト化する処理を外部企業に委託するような形態がある。当該形態においては、自社において、申込書などをイメージスキャナなどで読み取って画像データに変換し、変換した画像データをインターネット等のネットワークを介して外部企業に送信している。   Also, in recent years, a service called Business Process Outsourcing (BPO) has been provided that outsources part of the company's business process to an external company. For example, in the BPO service, handwritten application forms and account transfer request documents There is a form such as entrusting an external company the process of converting text into text. In this mode, an application form is read by an image scanner or the like and converted into image data, and the converted image data is transmitted to an external company via a network such as the Internet.

特開2015−069256号公報Unexamined-Japanese-Patent No. 2015-069256

しかしながら、このようなBPOサービスでは、画像データのままで外部企業に発注されるので、外部企業側で読取項目を設定することができない。例えば、手書きのデータに対してOCR処理を行う場合、数字の「1」と、小文字アルファベットの「l」(エル)のように、識別が困難な場合があるが、このような手書き文字が記入される項目は、例えば電話番号のように、その記入欄に記入される文字が数字しかあり得ない場合もあり、入力項目ごとに文字の種類が限定できたほうが、識別精度が上がる場合もある。   However, in such a BPO service, since the image data is ordered from the external company as it is, the external company can not set the reading item. For example, when performing OCR processing on handwritten data, identification may be difficult, such as the number “1” and the small letter “l” (el), but such handwritten characters are entered For example, in the case of telephone numbers, there may be cases where only letters can be entered in the entry fields, such as telephone numbers, and identification accuracy may be improved if the type of letters can be limited for each input item. .

さらに、記入された文字が氏名等の場合、通常、誤りは許されないものであり、このような場合は人間が手入力したほうが誤りを防止できるので効率が良い場合もある。そのため、記入欄ごとに、文字の種類を限定してOCRによる文字認識を行ったり、人間による手入力と、OCRによる文字認識とを選択可能にしたりしたいという要望がある。   Furthermore, when the written-in character is a name, etc., an error is usually not permitted. In such a case, it may be more efficient because human errors can be prevented if manually input. Therefore, there is a demand for performing character recognition by OCR by limiting the type of character for each entry column, or enabling manual input by human and character recognition by OCR.

そこで、本開示では、様々な手書き文字が含まれている書類の画像データの見本画像データから、読取項目を決定し、読取項目ごとに文字種類や文字数、OCRによる文字認識を行うか否か等の属性情報を付加することで、読取項目ごとに精度の高いテキストデータ生成を行うことができる文字認識装置、方法およびプログラムについて説明する。   Therefore, in the present disclosure, a reading item is determined from sample image data of image data of a document including various handwritten characters, and whether or not character recognition by the character type and the number of characters, OCR is performed for each reading item, etc. A character recognition device, method and program capable of generating text data with high accuracy for each read item by adding attribute information of

本開示の一態様における文字認識装置は、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識装置であって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、書類の読取範囲を設定する読取範囲設定部と、見本画像データにおける読取範囲の座標位置から、書類の読取項目を決定する読取項目決定部と、読取項目に対し、ユーザの操作により、所定の属性情報を付加する属性情報付加部と、画像データから、読取項目及び属性情報に基づき、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成部と、を備える。   The character recognition device according to one aspect of the present disclosure is a character recognition device that reads character information from image data obtained by scanning a document as an image, and is operated by the user from sample image data obtained by scanning a sample of the document as an image. The read range setting unit for setting the read range of the document, the read item determination unit for determining the read item of the document from the coordinate position of the read range in the sample image data, and predetermined attributes by the user operation for the read item. An attribute information addition unit for adding information, and a text data generation unit for generating, from the image data, text information displayed on the read item of the image data as text data based on the read item and the attribute information.

本開示の一態様における文字認識方法は、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識方法であって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により読取範囲設定部が行う、書類の読取範囲を設定する読取範囲設定ステップと、見本画像データにおける読取範囲の座標位置から、読取項目決定部が行う、書類の読取項目を決定する読取項目決定ステップと、読取項目に対し、ユーザの操作により属性情報付加部が行う、所定の属性情報を付加する属性情報付加ステップと、画像データから、読取項目及び属性情報に基づきテキストデータ生成部が行う、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、を備える。   A character recognition method according to an aspect of the present disclosure is a character recognition method for reading character information from image data obtained by scanning a document as an image, and is read from sample image data obtained by scanning a sample of the document as an image by user operation. A reading range setting step of setting a reading range of the document performed by the range setting unit; a reading item determination step of determining a reading item of the document performed by the reading item determination unit from the coordinate position of the reading range in the sample image data; An attribute information addition step of adding predetermined attribute information performed by the attribute information addition unit to the read item by the operation of the user, and an image data of the image data performed by the text data generation unit based on the read item and the attribute information A text data generation step of generating the text information displayed in the read item as text data; .

また、本開示の一態様における文字認識プログラムは、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識プログラムであって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、書類の読取範囲を設定する読取範囲設定ステップと、見本画像データにおける読取範囲の座標位置から、書類の読取項目を決定する読取項目決定ステップと、読取項目に対し、ユーザの操作により、所定の属性情報を付加する属性情報付加ステップと、画像データから、読取項目及び属性情報に基づき、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、を電子計算機に実行させる。   A character recognition program according to one aspect of the present disclosure is a character recognition program that reads character information from image data obtained by scanning a document as an image, and is operated by the user from sample image data obtained by scanning a sample of the document as an image. The reading range setting step of setting the reading range of the document, the reading item determining step of determining the reading item of the document from the coordinate position of the reading range in the sample image data, and the reading item An attribute information adding step for adding attribute information of the above, and a text data generation step for generating text information displayed in the read item of the image data as text data based on the read item and the attribute information from the image data Run on a computer.

本開示によれば、様々な手書き文字が含まれている書類の画像データについて、読取項目ごとに精度の高いテキストデータ生成を行うことができる。   According to the present disclosure, it is possible to perform highly accurate text data generation for each read item for image data of a document including various handwritten characters.

本開示の一実施形態に係る文字認識システムを示すブロック図である。1 is a block diagram illustrating a character recognition system according to an embodiment of the present disclosure. 図1に示す文字認識装置の構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of a structure of the character recognition apparatus shown in FIG. 図1に示す文字認識システムによる文字認識方法を示すフローチャートである。It is a flowchart which shows the character recognition method by the character recognition system shown in FIG. スキャンされる書類の例である口座振替依頼書を示す模式図である。FIG. 6 is a schematic diagram showing a bank transfer request document that is an example of a document to be scanned. スキャンされる書類の見本の例である口座振替依頼書(見本)を示す模式図である。It is a schematic diagram which shows the account transfer request document (sample) which is an example of the sample of the document scanned. 読取範囲設定の例を示す模式図である。It is a schematic diagram which shows the example of reading range setting. 図6のフリガナ読取範囲及び金融機関コード読取範囲に付加された属性情報の例を示す模式図である。It is a schematic diagram which shows the example of the attribute information added to the reading range of a reading place of FIG. 6, and a financial institution code reading range. 金融機関テーブルの例を示す図である。It is a figure which shows the example of a financial institution table. 生成されたテキストデータの例を示す図である。It is a figure which shows the example of the produced | generated text data. 本開示の一実施形態に係る文字認識装置の構成の一例を示す機能ブロック図である。It is a functional block diagram showing an example of composition of a character recognition device concerning one embodiment of this indication. 図10に示す文字認識装置を備えた文字認識システムによる文字認識方法を示すフローチャートである。It is a flowchart which shows the character recognition method by the character recognition system provided with the character recognition apparatus shown in FIG. 図6の氏名読取範囲及び金融機関コード読取範囲に付加された属性情報の例を示す模式図である。It is a schematic diagram which shows the example of the attribute information added to the name reading range of FIG. 6, and a financial institution code reading range.

本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。   Embodiments of the present disclosure will be described with reference to the drawings. Note that the embodiments described below do not unduly limit the content of the present disclosure described in the claims. In addition, not all of the components shown in the embodiment are necessarily essential components of the present disclosure.

(実施形態1)
<構成>
図1は、本開示の実施形態1に係る文字認識システム1のブロック図である。この文字認識システム1は、例えば、手書きの申込書や口座振替依頼書等の書類を画像としてスキャンした画像データから、文字情報を読み取るシステムであり、顧客から申込書や口座振替依頼書を受領する企業(発注側企業)が、BPOサービスを提供する外部企業(受注側企業)に業務委託するために使用される。
(Embodiment 1)
<Configuration>
FIG. 1 is a block diagram of a character recognition system 1 according to a first embodiment of the present disclosure. The character recognition system 1 is a system that reads character information from image data obtained by scanning a document such as a handwritten application form or a bank transfer request as an image, for example, and receives an application form or a bank transfer request from a customer Used by a company (a client company) to outsource to an external company (a client company) that provides BPO services.

文字認識システム1は、画像データ変換装置100と、文字認識装置200と、ネットワークNWと、を有している。画像データ変換装置100と、文字認識装置200とは、ネットワークNWを介して接続される。ネットワークNWは、インターネット、LAN(Local Area Network)やWAN(Wide Area Network)等により構成される。また、このネットワークNWは有線通信でも無線通信でも良く、LTE(Long Term Evolution)等の4Gと呼ばれる通信方式や、5Gによる通信方式も含まれる。   The character recognition system 1 includes an image data conversion device 100, a character recognition device 200, and a network NW. The image data conversion apparatus 100 and the character recognition apparatus 200 are connected via the network NW. The network NW is configured by the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), and the like. The network NW may be wired communication or wireless communication, and includes a communication method called 4G such as LTE (Long Term Evolution) and a communication method by 5G.

画像データ変換装置100は、発注側企業に設置されており、複数の項目から構成される申込書や口座振替依頼書などの書類がスキャンされ、画像データに変換され、変換された画像データを記憶する。この画像データ変換装置100は、スキャナ装置110と、サーバ装置120と、ユーザ端末130とを備え、例えば、USB(登録商標)やLANにより相互に通信可能に接続されている。   The image data conversion apparatus 100 is installed at the ordering company, and documents such as application forms and fund transfer request documents composed of a plurality of items are scanned and converted into image data, and the converted image data is stored. Do. The image data conversion device 100 includes a scanner device 110, a server device 120, and a user terminal 130, and is communicably connected to one another by, for example, USB (registered trademark) or LAN.

スキャナ装置110は、申込書や口座振替依頼書などの書類をスキャンして画像データに変換し、これらの書類の見本となる書類をスキャンして見本画像データに変換する装置である。なお、この実施形態1ではスキャナ装置としたが、紙媒体による書類を電子データ化できる装置であれば良く、例えば、カメラ等でも良い。   The scanner device 110 is a device that scans documents such as application forms and account transfer request documents into image data, and scans documents that become samples of these documents into sample image data. Although the scanner device is used in the first embodiment, any device that can convert a paper medium into electronic data may be used. For example, a camera may be used.

サーバ装置120は、発注側企業の業務管理を行うサーバである。また、サーバ装置120は、スキャナ装置110で変換した画像データ及び見本画像データを記憶する画像データDB121と、文字認識装置200で見本画像データから決定した読取項目を記憶する読取項目DB122とを備えている。画像データDB121及び読取項目DB122は、文字認識装置200からアクセスされて参照、更新が可能なデータベースである。   The server apparatus 120 is a server that manages the business of the ordering company. Further, the server device 120 includes an image data DB 121 storing image data converted by the scanner device 110 and sample image data, and a read item DB 122 storing a read item determined by the character recognition device 200 from the sample image data. There is. The image data DB 121 and the read item DB 122 are databases that can be accessed from the character recognition device 200 and can be referenced and updated.

ユーザ端末130は、発注側企業に設置される端末であり、ユーザの操作により、見本画像データから読取範囲を設定する端末である。このユーザ端末130は、見本画像データを表示する表示部を備え、操作部を操作することで読取範囲を設定できるようになっており、表示部はディスプレイ等から構成され、操作部はキーボードやマウス等から構成される。   The user terminal 130 is a terminal installed in the company on the ordering side, and is a terminal for setting a reading range from the sample image data by the operation of the user. The user terminal 130 includes a display unit for displaying sample image data, and can set a reading range by operating the operation unit. The display unit includes a display or the like, and the operation unit is a keyboard or a mouse. Etc.

図2は、図1に示す文字認識装置の構成の一例を示す機能ブロック図である。この文字認識装置200は、受注側企業に設置されており、ユーザ端末130が操作されることにより設定された読取範囲に基づき、見本画像データ上の読取項目を決定し、画像データの読取項目に表示されている文字情報をテキストデータとして生成する。文字認識装置200は、通信部210と、記憶部220と制御部230とを備える。   FIG. 2 is a functional block diagram showing an example of the configuration of the character recognition device shown in FIG. The character recognition device 200 is installed in the company on the order receiving side, determines the read item on the sample image data based on the read range set by operating the user terminal 130, and sets the read item of the image data as the read item. Generates the displayed text information as text data. The character recognition device 200 includes a communication unit 210, a storage unit 220, and a control unit 230.

通信部210は、画像データ変換装置100と通信を行うための通信インターフェースであり、TCP/IP(Transmission Control Protocol/Internet Protocol)等の通信規約により通信が行われる。   The communication unit 210 is a communication interface for communicating with the image data conversion apparatus 100, and communication is performed according to a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).

記憶部220は、各種制御処理や制御部230内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。また、記憶部220は、見本画像データから決定した読取項目や、生成したテキストデータを一時的に記憶し、過去に手書き情報を読み取った結果も学習情報として記憶している。   The storage unit 220 stores programs for executing various control processing and each function in the control unit 230, input data, and the like, and includes a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. Ru. The storage unit 220 also temporarily stores the read item determined from the sample image data and the generated text data, and also stores the result of reading the handwritten information in the past as learning information.

制御部230は、記憶部220に記憶されているプログラムを実行することにより、文字認識装置200の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部230の機能として、読取範囲設定部231、読取項目決定部232、属性情報付加部233、テキストデータ生成部234を備えている。この読取範囲設定部231、読取項目決定部232、属性情報付加部233、テキストデータ生成部234は、記憶部220に記憶されているプログラムにより起動されて実行される。   The control unit 230 controls the overall operation of the character recognition apparatus 200 by executing a program stored in the storage unit 220, and is controlled by a central processing unit (CPU), a graphics processing unit (GPU) or the like. Configured As functions of the control unit 230, a read range setting unit 231, a read item determination unit 232, an attribute information addition unit 233, and a text data generation unit 234 are provided. The read range setting unit 231, the read item determination unit 232, the attribute information addition unit 233, and the text data generation unit 234 are activated and executed by a program stored in the storage unit 220.

読取範囲設定部231は、ユーザ端末130が操作されることにより通信部210を介してサーバ装置120をアクセスし、画像データDB121に記憶されている見本画像データを読み出し、ユーザ端末130の表示部に表示する。   The reading range setting unit 231 accesses the server apparatus 120 via the communication unit 210 by operating the user terminal 130, reads sample image data stored in the image data DB 121, and displays the image data on the display unit of the user terminal 130. indicate.

また、読取範囲設定部231は、ユーザ端末130の操作部が操作されることにより、見本画像データにおける読取範囲の設定を行う。この読取範囲の設定は、見本画像データが表示されている表示部で、操作部(例えば、マウス)が操作されて、いわゆるドラッグ&ドロップによる範囲設定により行われる。   Further, the reading range setting unit 231 sets the reading range in the sample image data by operating the operation unit of the user terminal 130. The setting of the reading range is performed by so-called drag and drop range setting when the operation unit (for example, a mouse) is operated on the display unit on which the sample image data is displayed.

読取項目決定部232は、読取範囲設定部231により行われた読取範囲から、見本画像データにおける読取範囲の座標位置、例えばドラッグ&ドロップによる範囲の四隅の座標位置を算出し、その内側を読取項目と決定する。この読取項目は、サーバ装置120にアクセスされて読取項目DB122に記憶される。   The read item determination unit 232 calculates the coordinate position of the read range in the sample image data, for example, the coordinate positions of the four corners of the range by dragging and dropping from the read range performed by the read range setting unit 231, and reads the inside of the read item Decide. The read item is accessed by the server device 120 and stored in the read item DB 122.

属性情報付加部233は、読取項目決定部232により決定された読取項目に対して、ユーザの操作により、例えば項目名(氏名、電話番号、等)、生成条件(所定のテーブルから選択、OCRで読み取る、等)、文字種類条件(漢字+ひらがな+カタカナ、数字のみ、アルファベットのみ、等)等の属性情報を付加する。この属性情報は、サーバ装置120にアクセスされ、読取項目ごとに読取項目DB122に記憶される。   The attribute information addition unit 233 selects, for example, an item name (name, telephone number, etc.), a generation condition (select from a predetermined table, or the like) for the read item determined by the read item determination unit 232 by user operation. Attribute information such as character type conditions (Kanji + Hiragana + Katakana, only numbers, only alphabets, etc.) is added. The attribute information is accessed by the server device 120 and stored in the read item DB 122 for each read item.

テキストデータ生成部234は、OCR機能を備え、画像データDB121に記憶されている画像データを読み出し、属性情報付加部233にて付加した属性情報に基づき、読取項目決定部232により決定された読取項目に表示されている文字情報をOCRで読み取ってテキストデータを生成する。   The text data generation unit 234 has an OCR function, reads out the image data stored in the image data DB 121, and based on the attribute information added by the attribute information addition unit 233, the read item determined by the read item determination unit 232 The character information displayed in is read by OCR to generate text data.

<処理の流れ>
以下、図3を参照しながら、文字認識システム1が実行する文字認識方法の一例を説明する。図3は、図1に示す文字認識システム1による文字認識方法を示すフローチャートである。
<Flow of processing>
Hereinafter, an example of the character recognition method performed by the character recognition system 1 will be described with reference to FIG. FIG. 3 is a flowchart showing a character recognition method by the character recognition system 1 shown in FIG.

ステップS101の処理として、画像データ変換装置100では、スキャナ装置110を使用して、申込書や口座振替依頼書などの書類の見本となる見本書類がスキャンされて見本画像データに変換され、変換された画像データが画像データDB121に記憶される。   As the process of step S101, the image data conversion apparatus 100 uses the scanner device 110 to scan a sample document serving as a sample of a document such as an application form or a bank transfer request document, convert it into sample image data, and convert it. The image data is stored in the image data DB 121.

図4は、ステップS101にてスキャンされる見本書類の元になる、書類の例である口座振替依頼書を示す模式図である。この口座振替依頼書は、公共料金の引き落とし等のために、金融機関に対して口座振替を依頼するための申込書であり、フリガナ記入欄A1、氏名記入欄A2、金融機関名記入欄A3、支店名記入欄A4、金融機関コード記入欄A5、支店コード記入欄A6、預金種目記入欄A7、口座番号記入欄A8が設けられている。   FIG. 4 is a schematic diagram showing an account transfer request document, which is an example of a document, which is the source of the sample document scanned in step S101. The account transfer request form is an application form for requesting a financial transfer from a financial institution for the purpose of debiting public utility charges, etc., and it includes a reading field A1, a name entry field A2, a financial institution name entry field A3, A branch name entry column A4, a financial institution code entry column A5, a branch code entry column A6, a deposit item entry column A7, and an account number entry column A8 are provided.

発注側企業の顧客は、図4に示すように、これらの記入欄に自己の氏名等を記入して発注側企業に口座振替を依頼する。発注側企業では、記入済の口座振替依頼書を受領すると、スキャナ装置110を使用してスキャンを行い、画像データを画像データDB121に記憶させる。   As shown in FIG. 4, the client of the ordering company enters his / her name etc. in these fields and requests the ordering company to transfer money. The ordering company receives the completed account transfer request form, performs scanning using the scanner device 110, and stores the image data in the image data DB 121.

図5は、ステップS101にてスキャンされる見本書類の例である口座振替依頼書(見本)を示す模式図である。この口座振替依頼書(見本)は、図4に示す口座振替依頼書と同様の見本であり、口座振替依頼書と同様に、フリガナ記入欄A11、氏名記入欄A12、金融機関名記入欄A13、支店名記入欄A14、金融機関コード記入欄A15、支店コード記入欄A16、預金種目記入欄A17、口座番号記入欄A18が設けられている。この見本は、口座振替依頼書の文字をOCRで読み取る際の読取項目を決定するために使用される。   FIG. 5 is a schematic view showing a bank transfer request document (sample) which is an example of a sample document scanned in step S101. This account transfer request document (sample) is a sample similar to the account transfer request document shown in FIG. 4 and, like the account transfer request document, a kurigana entry field A11, a name entry field A12, a financial institution name entry field A13, A branch name entry field A14, a financial institution code entry field A15, a branch code entry field A16, a deposit item entry field A17, and an account number entry field A18 are provided. This sample is used to determine what to read when reading the letters of the account transfer request by OCR.

発注側企業では、口座振替依頼書をテキスト化する処理を受注側企業に委託する際、見本としてこの口座振替依頼書(見本)を、スキャナ装置110を使用してスキャンを行い、見本画像データを画像データDB121に記憶させる。   When consigning the process of converting the bank transfer request into a text to the order receiving company, the ordering company scans this bank transfer request (sample) as a sample using the scanner device 110 and generates sample image data. It is stored in the image data DB 121.

ステップS102の処理として、ユーザ端末130の操作部が操作されることにより、文字認識装置200では、読取範囲設定部231によって通信部210を介してサーバ装置120がアクセスされ、画像データDB121に記憶されている見本画像データが読み出され、ユーザ端末130の表示部に表示される。ユーザの操作により、ユーザ端末130の操作部が操作され、見本画像データにおける読取範囲の設定が行われる。   In the character recognition device 200, the server device 120 is accessed by the reading range setting unit 231 via the communication unit 210 by operating the operation unit of the user terminal 130 as the process of step S102, and is stored in the image data DB 121. The sample image data being read out is read out and displayed on the display unit of the user terminal 130. The operation unit of the user terminal 130 is operated by the operation of the user, and the setting of the reading range in the sample image data is performed.

図6は、ステップS102における読取範囲設定の例を示す模式図である。図6に示すように、表示部には、図5に示す口座振替依頼書(見本)の見本画像データが表示されている。口座振替依頼書(見本)と同様に、フリガナ記入欄A21、氏名記入欄A22、金融機関名記入欄A23、支店名記入欄A24、金融機関コード記入欄A25、支店コード記入欄A26、預金種目記入欄A27、口座番号記入欄A28が表示されている。   FIG. 6 is a schematic view showing an example of reading range setting in step S102. As shown in FIG. 6, the display unit displays sample image data of the bank transfer request document (sample) shown in FIG. In the same way as for the fund transfer request (sample), entry fields A21, names A22, financial institutions name A23, branch names A24, financial institution codes A25, branch codes A26, deposit items A26 A field A27 and an account number entry field A28 are displayed.

この状態で、ユーザ端末130の操作部を操作してドラッグ&ドロップを行い、図6に破線で示すように範囲設定を行う。例えば、フリガナ読取範囲S1、氏名読取範囲S2、金融機関名読取範囲S3、支店名読取範囲S4、金融機関コード読取範囲S5、支店コード読取範囲S6、口座番号読取範囲S7を読取範囲のとして設定する。   In this state, drag and drop is performed by operating the operation unit of the user terminal 130, and range setting is performed as indicated by a broken line in FIG. For example, the reading range S1 for reading, name reading range S2, financial institution name reading range S3, branch name reading range S4, financial institution code reading range S5, branch code reading range S6, and account number reading range S7 are set as the reading range. .

ステップS103の処理として、文字認識装置200では、読取項目決定部232によって、見本画像データにおける読取範囲の四隅の座標位置が算出され、その内側が読取項目と決定される。例えば、図6に示す見本画像データの左上の点P1の座標を(0,0)とし、読取範囲の四隅の点について、点P1からの相対座標をドット単位で算出する。これにより決定された読取範囲は、通信部210を介してサーバ装置120がアクセスされ、読取項目DB122に記憶される。   As the process of step S103, in the character recognition device 200, the coordinate position of the four corners of the reading range in the sample image data is calculated by the reading item determination unit 232, and the inside is determined as the reading item. For example, with the coordinates of the upper left point P1 of the sample image data shown in FIG. 6 as (0, 0), relative coordinates from the point P1 are calculated in dot units for the four corners of the reading range. The read range determined by this is accessed by the server device 120 via the communication unit 210 and stored in the read item DB 122.

ステップS104の処理として、文字認識装置200では、属性情報付加部233によって、ステップS103にて決定された読取項目に対して、ユーザの操作により、項目名、生成条件、文字種類条件等の属性情報が付加される。付加された属性情報は、通信部210を介してサーバ装置120がアクセスされ、読取項目DB122に記憶される。   As the process of step S104, in the character recognition device 200, attribute information such as an item name, a generation condition, and a character type condition by the user operation on the read item determined by the attribute information addition unit 233 in step S103. Is added. The added attribute information is accessed by the server device 120 via the communication unit 210 and stored in the read item DB 122.

図7は、ステップS104における、図6のフリガナ読取範囲S1及び金融機関コード読取範囲S5に付加された属性情報の例を示す模式図である。例えば、図6に示すフリガナ読取範囲S1について、図7に示すフリガナ属性情報T1のように、項目名欄T11、生成条件欄T12、文字種類欄T13に対して、それぞれ「フリガナ」、「OCR読込」、「カタカナ」と入力される。また、金融機関コード読取範囲S5について、金融機関コード属性情報T2のように、項目名欄T21、生成条件欄T22、文字種類欄T23に対して、それぞれ「金融機関コード」、「テーブル選択」、「数字4桁」と入力される。   FIG. 7 is a schematic view showing an example of attribute information added to the kana reading range S1 and the financial institution code reading range S5 in FIG. 6 in step S104. For example, with respect to the kana reading range S1 shown in FIG. 6, as in kichigana attribute information T1 shown in FIG. 7, for the item name column T11, the generation condition column T12 and the character type column T13, respectively, "," "Katakana" is input. Also, for the financial institution code reading range S5, as in the financial institution code attribute information T2, “Financial institution code” and “table selection” for the item name column T21, generation condition column T22, and character type column T23, respectively. "4 digits" is entered.

項目名欄T11,T21は、項目名がそのまま入力される。生成条件欄T12,T22は、例えば、「OCR読込」、「テーブル選択」のいずれかを選択可能であり、「OCR読込」は、OCRで読み取ってテキスト化することを示しており、「テーブル選択」は、図8に示す金融機関テーブルから選択することを示している。文字種類欄T13,T23は、例えば、「カタカナ」、「数字4桁」等を選択可能であり、「カタカナ」は、フリガナ読取範囲S1にはカタカナしか記入されないので、読み取る文字の種類もカタカナのみで良く、「数字4桁」は、金融機関コード読取範囲S5には数字しか記入されず、桁数も4桁と決められているので、読み取る文字の種類も4桁の数字のみで良いことを示している。なお、例えば、金融機関コード読取範囲S5、支店コード読取範囲S6、口座番号読取範囲S7のように1桁ごとにマスが設けられている場合(マス有り数字)と、電話番号等の記入欄のようにマスが設けられていない場合(マス無し数字)とのように区別しても良い。   In the item name fields T11 and T21, item names are input as they are. The generation condition fields T12 and T22 can select, for example, either “OCR read” or “table selection”, and “OCR read” indicates that OCR is read by an OCR and is converted into text, “table selection “Indicates that the financial institution table shown in FIG. 8 is selected. The character type column T13, T23 can select, for example, "Katakana", "Numeral 4 digit", etc. Since "Katakana" is only filled with Katakana in the reading range S1, the type of the character to be read is also Katakana only. Because "number four digits" is only entered in the financial institution code reading range S5 and the number of digits is also determined to be four digits, the type of characters to be read may be only four digits. It shows. In addition, for example, in the case where a grid is provided for each digit as in financial institution code reading range S5, branch code reading range S6, and account number reading range S7 (numeral with numbers), It may be distinguished as in the case where no mass is provided (number without numbers).

図8は、金融機関テーブルの例を示す図である。この金融機関テーブルは、例えばサーバ装置120に記憶されている。図6の金融機関コード読取範囲S5、金融機関名読取範囲S3には、この金融機関テーブルに格納されている金融機関コード及び金融機関名しか入力されない。そのため、金融機関コード読取範囲S5の読取は、この金融機関テーブルの金融機関コードから選択すれば良い。   FIG. 8 is a diagram showing an example of a financial institution table. The financial institution table is stored, for example, in the server device 120. Only the financial institution code and the financial institution name stored in the financial institution table are input to the financial institution code reading range S5 and the financial institution name reading range S3 in FIG. Therefore, the reading of the financial institution code reading range S5 may be selected from the financial institution code of this financial institution table.

また、金融機関名読取範囲S3の生成条件は、「OCR読込」、「テーブル選択」のいずれでも良く、例えば、通常は「OCR読込」にしてOCRで読み取ってテキスト化を行い、手書き文字が判読できないような場合にのみ、金融機関コード読取範囲S5から読み取った金融機関コードに対応する、金融機関テーブルの金融機関名を取得するようにしても良い。   The condition for reading financial institution name reading range S3 may be either “OCR read” or “table selection”. For example, “OCR read” is usually made and read by OCR and text conversion is performed, and handwritten characters are read If it can not be done, the financial institution name of the financial institution table corresponding to the financial institution code read from the financial institution code reading range S5 may be acquired.

さらに、支店名読取範囲S4、支店コード読取範囲S6についても同様であり、支店コードテーブルをサーバ装置120に記憶させ、金融機関名読取範囲S3、金融機関コード読取範囲S5のように処理しても良い。   Further, the same applies to the branch name reading range S4 and the branch code reading range S6, and the branch code table is stored in the server apparatus 120 and processed as in the financial institution name reading range S3 and the financial institution code reading range S5. good.

ステップS105の処理として、画像データ変換装置100では、スキャナ装置110を使用して、図4に示す申込書や口座振替依頼書などの書類がスキャンされて画像データに変換され、変換された見本画像データが画像データDB121に記憶される。この状態で、発注側企業は、画像データDB121内の画像データ及び見本画像データを示して受注側企業に委託する。   As the process of step S105, the image data conversion apparatus 100 uses the scanner device 110 to scan a document such as the application form and the account transfer request form shown in FIG. 4 and convert it into image data and convert it into a sample image. Data is stored in the image data DB 121. In this state, the ordering company indicates the image data and the sample image data in the image data DB 121 and consigns it to the accepting company.

ステップS106の処理として、文字認識装置200では、テキストデータ生成部234によって、ステップS105にて付加したフリガナ属性情報T1、金融機関コード属性情報T2、・・・・に基づき、フリガナ読取範囲S1〜口座番号読取範囲S7に表示されている文字情報をOCRで読み取り、テキストデータを生成する。   As the process of step S106, in the character recognition device 200, the text data generation unit 234 reads the kana reading range S1-account based on the kana attribute information T1, the financial institution code attribute information T2, ... added in step S105. The character information displayed in the number reading range S7 is read by OCR to generate text data.

図9は、ステップS106において生成されたテキストデータの例を示す図である。例えば、図4に示すフリガナ記入欄A1、氏名記入欄A2、金融機関名記入欄A3、支店名記入欄A4、金融機関コード記入欄A5、支店コード記入欄A6、口座番号記入欄A8に記載されていた「トッキョ タロウ」、「特許 太郎」、「0001」、「みずほ」、「021」、「丸の内」、「1111111」がそれぞれ読み取られ、テキストデータとして生成される。   FIG. 9 is a diagram showing an example of text data generated in step S106. For example, as shown in FIG. 4, it is described in a hurigana entry field A1, a name entry field A2, a financial institution name entry field A3, a branch name entry field A4, a financial institution code entry field A5, a branch code entry field A6 and an account number entry field A8. The “TOKYO Taro”, “patent Taro”, “0001”, “Mizuho”, “021”, “Marunouchi”, and “1111111” that have been read are respectively read and generated as text data.

ステップS107の処理として、文字認識装置200では、ステップS106にて生成されたテキストデータが、発注側企業への納品として、通信部210を介してサーバ装置120に送信される。   As the process of step S107, in the character recognition device 200, the text data generated in step S106 is transmitted to the server apparatus 120 via the communication unit 210 as delivery to the ordering company.

以上のように、本実施形態に係る文字認識システムは、見本画像データ上でドラッグ&ドロップにより読取範囲を設定すると、見本画像データにおける読取範囲の座標位置が算出されて読取項目が決定される。この読取項目に従ってテキストデータの生成が行われる。これにより、受注側企業で、OCRによる文字認識を行う読取項目を決定することが可能になる。   As described above, in the character recognition system according to the present embodiment, when the reading range is set on the sample image data by dragging and dropping, the coordinate position of the reading range in the sample image data is calculated and the reading item is determined. Text data is generated according to this read item. As a result, it becomes possible for the order-receiving company to determine the read item to be subjected to the character recognition by the OCR.

また、読取項目ごとに、文字種類や文字数、OCRで読み取るかまたはテーブルから選択するか等の属性情報を付加することができるので、不必要な文字の認識を排除することができるので、読取項目ごとに精度の高いテキストデータ生成を行うことが可能になる。   In addition, since attribute information such as the character type, the number of characters, and whether to read by OCR or to select from a table can be added to each read item, unnecessary character recognition can be eliminated. It becomes possible to perform highly accurate text data generation for each.

(実施形態2)
<構成>
図10は、本開示の実施形態2に係る文字認識装置の構成の一例を示す機能ブロック図である。この文字認識装置200は、実施形態1と同様の構成に対して、制御部230の機能としてテキストデータ入力部235及びテキストデータ判定部236が追加されている。
Second Embodiment
<Configuration>
FIG. 10 is a functional block diagram showing an example of the configuration of the character recognition device according to the second embodiment of the present disclosure. In the character recognition device 200, a text data input unit 235 and a text data determination unit 236 are added as functions of the control unit 230 to the same configuration as that of the first embodiment.

テキストデータ入力部235は、画像データDB121に記憶されている画像データを読み出して表示部に表示し、ユーザ端末130の操作部の操作により、テキストデータを入力させる。これは、口座振替依頼書などをテキスト化する処理において、誤りが許されないような場合、人間が手入力したほうが誤りを防止できるので入力情報の正確性を担保するためである。また、ダブルチェックを行うために、OCRによる読取を行い、さらにユーザによるテキストデータの手入力を行うことも可能である。このような場合に、ユーザによるテキストデータの手入力を可能にするための機能である。   The text data input unit 235 reads out the image data stored in the image data DB 121 and displays it on the display unit, and inputs text data by the operation of the operation unit of the user terminal 130. This is to ensure the accuracy of the input information, since it is possible to prevent an error by human input if errors are not permitted in the process of converting the account transfer request into a text. Moreover, in order to perform double check, it is also possible to perform reading by OCR and also to manually input text data by the user. In such a case, it is a function for enabling manual input of text data by the user.

テキストデータ判定部236は、前述のように、OCRによる読取を行い、さらにユーザによるテキストデータの手入力を行う場合に、ダブルチェックを行う。これは、口座振替依頼書などをテキスト化する処理において、誤りが許されないような場合、ダブルチェックを行うことで誤りを防止し、入力情報の正確性をさらに担保するためである。そして、OCRによる読取内容と、ユーザによるテキストデータの手入力の内容とが不一致の場合、当該入力欄が、例えば赤色に表示される等の注意喚起をする。その他の構成については、実施形態1と同様である。   As described above, the text data determination unit 236 performs double-checking when reading by OCR and performing manual input of text data by the user. This is to prevent errors by double checking if errors are not permitted in the process of converting the account transfer request and the like into text, and further secure the accuracy of the input information. Then, when the read content by the OCR and the content of the manual input of the text data by the user do not match, the user is warned that the input field is displayed in red, for example. The other configuration is the same as that of the first embodiment.

<処理の流れ>
以下、図11を参照しながら、文字認識システム1が実行する文字認識方法の一例について、実施形態1と異なる処理について説明する。図11は、図10に示す文字認識装置200を備えた文字認識システム1による文字認識方法を示すフローチャートである。図3に示すステップS103までは、実施形態1と同様であるため、後続のステップS104について説明する。
<Flow of processing>
Hereinafter, processing different from that of the first embodiment will be described as an example of the character recognition method performed by the character recognition system 1 with reference to FIG. FIG. 11 is a flow chart showing a character recognition method by the character recognition system 1 provided with the character recognition device 200 shown in FIG. The steps up to step S103 shown in FIG. 3 are the same as in the first embodiment, so the following step S104 will be described.

ステップS104の処理として、読取項目に対して属性情報が付加され、読取項目DB122に記憶される点においては、実施形態1と同様であるが、付加される属性情報が実施形態1と異なる。   The process of step S104 is similar to that of the first embodiment in that attribute information is added to the read item and stored in the read item DB 122, but the added attribute information is different from that of the first embodiment.

図12は、ステップS104における、図6の氏名読取範囲S2及び金融機関コード読取範囲S5に付加された属性情報の例を示す模式図である。例えば、図6に示す氏名読取範囲S1について、図12に示すフリガナ属性情報T3のように、実施形態1と同様の項目名欄T31、生成条件欄T32、文字種類欄T33に加えて、生成有無条件欄T34に対して、それぞれ「氏名」、「‐」、「漢字+ひらがな+カタカナ」、「OCR+エントリー」と入力される。また、金融機関コード読取範囲S5について、金融機関コード属性情報T4のように、項目名欄T41、生成条件欄T42、文字種類欄T43、生成有無条件欄T44に対して、それぞれ「金融機関コード」、「テーブル選択」、「数字4桁」、「OCR」と入力される。   FIG. 12 is a schematic view showing an example of attribute information added to the name reading range S2 and the financial institution code reading range S5 of FIG. 6 in step S104. For example, in the name reading range S1 shown in FIG. 6, like the kana attribute information T3 shown in FIG. 12, in addition to the item name column T31, the generation condition column T32 and the character type column T33 similar to the first embodiment In the condition column T34, "name", "-", "kanji + hiragana + katakana", and "OCR + entry" are input. Also, for the financial institution code reading range S5, as in the financial institution code attribute information T4, "Financial institution code" for the item name column T41, the generation condition column T42, the character type column T43, and the generation presence / absence condition column T44. , "Table selection", "4 digits", "OCR" are input.

生成有無条件欄T34,T44は、例えば、「エントリー」、「OCR+エントリー」、「OCR」のいずれかを選択可能であり、「エントリー」は、OCRによる読取を行わずにユーザによるテキストデータの手入力を行うことを示しており、「OCR+エントリー」は、OCRによる読取を行い、さらにユーザによるテキストデータの手入力を行い、双方の入力内容でダブルチェックを行い、「OCR」は、OCRによる読取を行うことを示している。   For example, one of “entry”, “OCR + entry”, and “OCR” can be selected in the generation presence / absence condition fields T34 and T44. The “entry” is a text data hand by the user without reading by OCR. "OCR + entry" indicates reading by OCR, and then, the user manually inputs text data, double-checks both input contents, and "OCR" reads by OCR Indicates to do.

ステップS105の処理として、書類がスキャンされるのは実施形態1と同様である。   As in the process of step S105, the document is scanned as in the first embodiment.

ステップS106の処理として、文字認識装置200では、テキストデータ生成部234によって、ステップS104にて付加したフリガナ属性情報T1、金融機関コード属性情報T2、・・・・に基づき、フリガナ読取範囲S1〜口座番号読取範囲S7に表示されている文字情報をOCRで読み取り、テキストデータを生成する。このとき、属性情報の生成有無条件が「エントリー」の場合は、テキストデータの生成は行われない。   As the process of step S106, in the character recognition device 200, the text data generation unit 234 reads the kana reading range S1-account based on the kana attribute information T1, the financial institution code attribute information T2, ... added in step S104. The character information displayed in the number reading range S7 is read by OCR to generate text data. At this time, when the condition of generation of the attribute information is "entry", generation of text data is not performed.

ステップS108の処理として、文字認識装置200では、テキストデータ入力部235によって、画像データDB121に記憶されている画像データが読み出されて表示部に表示される。属性情報の生成有無条件欄に「エントリー」、「OCR+エントリー」を付加した項目の入力欄がユーザ端末130の表示部に表示され、操作部の操作により、テキストデータが入力される。   As the process of step S108, in the character recognition device 200, the text data input unit 235 reads out the image data stored in the image data DB 121 and displays it on the display unit. An input column of an item in which “entry” and “OCR + entry” are added to the attribute information generation presence / absence condition column is displayed on the display unit of the user terminal 130, and text data is input by the operation of the operation unit.

ステップS109の処理として、文字認識装置200では、テキストデータ判定部236によって、属性情報の生成有無条件欄に「OCR+エントリー」を付加した項目について、OCRによる読取内容と、ユーザによるテキストデータの手入力の内容とでダブルチェックが行われる。そして、双方の入力内容が一致した場合は注意喚起を行わず、双方の入力内容が不一致の場合は、ユーザ端末130の表示部の入力欄が赤色に表示され、注意喚起がされる。これ以降の処理の流れについては、実施形態1と同様である。   As the process of step S109, in the character recognition device 200, the text data determination unit 236 adds the OCR read content by the user and the manual input of the text data by the user for the item in which "OCR + entry" is added to the generation information presence / absence condition column. Double check is performed with the contents of. And when both the input contents correspond, alerting is not performed, when the both input contents do not match, the input column of the display part of the user terminal 130 is displayed in red, and alerting is carried out. The flow of processing after this is the same as that of the first embodiment.

本実施形態によれば、上記実施形態1の効果に加え、読取項目ごとに、ユーザによるテキストデータの手入力を行うか、OCRによる読取とユーザによるテキストデータの手入力との双方を行ってダブルチェックを行うか、またはOCRによる読取を行うかの属性情報を付加することを可能にし、テキストデータの手入力を可能にしたので、人間が手入力したほうが誤りを防止できる場合に、読取項目ごとに精度の高いテキストデータ生成を行うことが可能になる。   According to the present embodiment, in addition to the effects of the first embodiment, the user manually inputs text data by the user for each reading item, or performs both reading by OCR and manual input of text data by the user. Since it has become possible to add attribute information on whether to perform a check or to perform reading by OCR and to enable manual input of text data, it is possible to prevent an error by manual input by each person, it is possible to read each item It is possible to generate text data with high accuracy.

なお、その他の実施形態として、文字認識装置に直接スキャナ装置を接続し、ネットワークを経由せずにスタンドアローンで文字認識装置を構成することも可能である。これは、外部への情報漏洩を防止するために、文字認識装置をネットワークに接続せずに構成したい場合に有効である。   As another embodiment, it is also possible to connect the scanner device directly to the character recognition device and configure the character recognition device in a stand-alone manner without going through a network. This is effective when it is desired to configure the character recognition device without connecting it to the network in order to prevent information leakage to the outside.

以上、開示に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することができる。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれるものである。   Although the embodiments according to the disclosure have been described above, they can be implemented in other various forms, and can be implemented with various omissions, substitutions, and modifications. Those embodiments and modifications, and omissions, substitutions and changes are included in the technical scope of the claims and the equivalents thereof.

1 文字認識システム、100 画像データ変換装置、110 スキャナ装置、120 サーバ装置、121 画像データDB、122 読取項目DB、200 文字認識装置、210 通信部、220 記憶部、230 制御部、231 読取範囲設定部、232 読取項目決定部、233 属性情報付加部、234 テキストデータ生成部、235 テキストデータ入力部、236 テキストデータ判定部、NW ネットワーク 1 character recognition system, 100 image data conversion device, 110 scanner device, 120 server device, 121 image data DB, 122 reading item DB, 200 character recognition device, 210 communication unit, 220 storage unit, 230 control unit, 231 reading range setting Part 232 Reading item determination part 233 Attribute information addition part 234 Text data generation part 235 Text data input part 236 Text data judgment part NW network

本開示の一態様における文字認識装置は、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識装置であって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、書類の読取範囲を設定する読取範囲設定部と、見本画像データにおける読取範囲の座標位置から、書類の読取項目を決定する読取項目決定部と、読取項目に対し、ユーザの操作により、読取項目ごとに、文字情報からテキストデータを生成するか、文字情報からテキストデータを生成せずにユーザに入力させるか、または文字情報からテキストデータを生成してユーザによる入力も行うか、を示す生成有無条件を含む所定の属性情報を付加する属性情報付加部と、画像データから、読取項目及び属性情報に基づき、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成部と、読取項目の生成有無条件が、文字情報からテキストデータを生成してユーザによる入力も行う場合、文字情報から生成されたテキストデータと、ユーザによる入力内容とが一致するか否か判定し、一致しない場合に注意喚起を行うテキストデータ判定部と、を備える。 The character recognition device according to one aspect of the present disclosure is a character recognition device that reads character information from image data obtained by scanning a document as an image, and is operated by the user from sample image data obtained by scanning a sample of the document as an image. The reading range setting unit that sets the reading range of the document, the reading item determination unit that determines the reading item of the document from the coordinate position of the reading range in the sample image data, and the reading item To indicate whether the text data is generated from the character information, the user is allowed to input without generating the text data from the character information, or the text data is generated from the character information to be also input by the user and attribute information adding unit for adding a predetermined attribute information including, from the image data, on the basis of the read items and attribute information, the image data If the text data generator for generating character information of the read items are displayed as text data, generating whether conditions read item is performed also input by the user by generating text data from the text information, generates the character information It is determined whether or not the input text data matches the input data from the user, and a text data determination unit that issues a warning when they do not match .

本開示の一態様における文字認識方法は、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識方法であって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により読取範囲設定部が行う、書類の読取範囲を設定する読取範囲設定ステップと、見本画像データにおける読取範囲の座標位置から、読取項目決定部が行う、書類の読取項目を決定する読取項目決定ステップと、読取項目に対し、ユーザの操作により属性情報付加部が行う、読取項目ごとに、文字情報からテキストデータを生成するか、文字情報からテキストデータを生成せずにユーザに入力させるか、または文字情報からテキストデータを生成してユーザによる入力も行うか、を示す生成有無条件を含む所定の属性情報を付加する属性情報付加ステップと、画像データから、読取項目及び属性情報に基づきテキストデータ生成部が行う、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、読取項目の生成有無条件が、文字情報からテキストデータを生成してユーザによる入力も行う場合、テキストデータ判定部が行う、文字情報から生成されたテキストデータと、ユーザによる入力内容とが一致するか否か判定し、一致しない場合に注意喚起を行うテキストデータ判定ステップと、を備える。 A character recognition method according to an aspect of the present disclosure is a character recognition method for reading character information from image data obtained by scanning a document as an image, and is read from sample image data obtained by scanning a sample of the document as an image by user operation. A reading range setting step of setting a reading range of the document performed by the range setting unit; a reading item determination step of determining a reading item of the document performed by the reading item determination unit from the coordinate position of the reading range in the sample image data; For the read item, the attribute information addition unit performs by the operation of the user, generates text data from character information for each read item, or allows the user to input without generating text data from character information, or character information It is added a predetermined attribute information including the generated existence condition indicating also either perform input by the user by generating text data from And attribute information adding step, the image data, and text data generating step of generating text data generating unit is performed based on the read item and attribute information, a character information displayed in the read items of image data as text data, read item Whether the text data generated by the text data determination unit matches the text data generated by the text information with the input content by the user or not, if the text generation determination condition generates text data from the text information and the user also inputs And a text data determination step of giving a notice if it does not match .

また、本開示の一態様における文字認識プログラムは、書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識プログラムであって、書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、書類の読取範囲を設定する読取範囲設定ステップと、見本画像データにおける読取範囲の座標位置から、書類の読取項目を決定する読取項目決定ステップと、読取項目に対し、ユーザの操作により、読取項目ごとに、文字情報からテキストデータを生成するか、文字情報からテキストデータを生成せずにユーザに入力させるか、または文字情報からテキストデータを生成してユーザによる入力も行うか、を示す生成有無条件を含む所定の属性情報を付加する属性情報付加ステップと、画像データから、読取項目及び属性情報に基づき、画像データの読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、読取項目の生成有無条件が、文字情報からテキストデータを生成してユーザによる入力も行う場合、文字情報から生成されたテキストデータと、ユーザによる入力内容とが一致するか否か判定し、一致しない場合に注意喚起を行うテキストデータ判定ステップと、を電子計算機に実行させる。
A character recognition program according to one aspect of the present disclosure is a character recognition program that reads character information from image data obtained by scanning a document as an image, and is operated by the user from sample image data obtained by scanning a sample of the document as an image. Accordingly, the reading range setting step sets the reading range of the document, from the coordinate position of the read range in the sample image data, a reading item determining step of determining the read item of the document, to read item by operation of the user, reading For each item, it indicates whether to generate text data from character information, let the user input without generating text data from character information, or generate text data from character information and also input by the user an attribute information addition step of adding a predetermined attribute information including the existence condition, the image data, read Based on the item and attribute information, and the text data generation step of generating character information displayed in the read items of image data as text data, generating existence conditions of reading items, the user generates the text data from the character information When the input is also performed, it is determined whether or not the text data generated from the character information and the input content by the user match, and the computer is made to execute a text data determination step to call attention when they do not match .

Claims (9)

書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識装置であって、
前記書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、前記書類の読取範囲を設定する読取範囲設定部と、
前記見本画像データにおける前記読取範囲の座標位置から、前記書類の読取項目を決定する読取項目決定部と、
前記読取項目に対し、ユーザの操作により、所定の属性情報を付加する属性情報付加部と、
前記画像データから、前記読取項目及び前記属性情報に基づき、前記画像データの前記読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成部と、を備える、
文字認識装置。
A character recognition apparatus for reading character information from image data obtained by scanning a document as an image,
A reading range setting unit configured to set a reading range of the document by a user operation from sample image data obtained by scanning the sample of the document as an image;
A reading item determination unit that determines a reading item of the document from the coordinate position of the reading range in the sample image data;
An attribute information adding unit that adds predetermined attribute information to the read item by a user operation;
And a text data generation unit that generates, from the image data, text information displayed in the read item of the image data as text data, based on the read item and the attribute information.
Character recognition device.
前記属性情報は、前記読取項目ごとに、前記文字情報から前記テキストデータを生成するか、前記文字情報から前記テキストデータを生成せずに前記ユーザに入力させるか、または前記文字情報から前記テキストデータを生成して前記ユーザによる入力も行うか、を示す生成有無条件を含み、
前記テキストデータ生成部は、前記読取項目の前記生成有無条件が、前記文字情報から前記テキストデータを生成する場合、または前記文字情報から前記テキストデータを生成して前記ユーザによる入力も行う場合、前記テキストデータを生成する、請求項1に記載の文字認識装置。
The attribute information generates the text data from the character information for each reading item, or allows the user to input the text data without generating the text data from the character information, or the text data from the character information Including a generation presence / absence condition indicating whether to generate the input by the user and
The text data generation unit generates the text data from the character information or the generation condition of the reading item generates the text data from the character information and also inputs the user by the user. The character recognition device according to claim 1, which generates text data.
前記読取項目の前記生成有無条件が、前記文字情報から前記テキストデータを生成して前記ユーザによる入力も行う場合、前記文字情報から生成された前記テキストデータと、前記ユーザによる入力内容とが一致するか否か判定し、一致しない場合に注意喚起を行うテキストデータ判定部を備える、請求項2に記載の文字認識装置。   When the generation presence / absence condition of the reading item generates the text data from the character information and also inputs by the user, the text data generated from the character information matches the input content by the user The character recognition device according to claim 2, further comprising a text data determination unit that determines whether or not there is a match and warns when there is no match. 前記属性情報は、前記文字情報を所定のテーブルに登録されている登録情報から選択するか、または前記文字情報をOCRで読み取るか、を示す生成条件を含み、
前記テキストデータ生成部は、前記生成条件に基づいて前記テキストデータを生成する、請求項1から請求項3のいずれか1項に記載の文字認識装置。
The attribute information includes a generation condition indicating whether the character information is selected from registration information registered in a predetermined table, or whether the character information is read by OCR.
The character recognition device according to any one of claims 1 to 3, wherein the text data generation unit generates the text data based on the generation condition.
一の前記読取項目と他の前記読取項目とが関連付けされていて、前記一の読取項目の前記生成条件が前記文字情報をOCRで読み取り、前記他の読取項目の前記生成条件が前記登録情報から選択する場合であって、前記一の読取項目の前記文字情報が読み取れない場合、前記テキストデータ生成部は、前記他の読取項目において選択された前記登録情報から前記一の読取項目の前記文字情報を決定する、請求項4に記載の文字認識装置。   The one read item and the other read item are associated, and the generation condition of the one read item reads the character information by OCR, and the generation condition of the other read item is read from the registration information In the case of selection, when the character information of the one read item can not be read, the text data generation unit determines the character information of the one read item from the registration information selected in the other read item. The character recognition device according to claim 4, which determines 前記属性情報は、前記文字情報の文字種類を指定する文字種類条件を含み、
前記テキストデータ生成部は、前記文字種類条件に基づいて前記テキストデータを生成する、請求項1から請求項5のいずれか1項に記載の文字認識装置。
The attribute information includes a character type condition specifying a character type of the character information,
The character recognition device according to any one of claims 1 to 5, wherein the text data generation unit generates the text data based on the character type condition.
前記属性情報は、前記文字情報の文字数を指定する文字数条件を含み、
前記テキストデータ生成部は、前記文字数条件に基づいて前記テキストデータを生成する、請求項1から請求項6のいずれか1項に記載の文字認識装置。
The attribute information includes a condition for specifying the number of characters of the character information, and
The character recognition device according to any one of claims 1 to 6, wherein the text data generation unit generates the text data based on the character number condition.
書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識方法であって、
前記書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により読取範囲設定部が行う、前記書類の読取範囲を設定する読取範囲設定ステップと、
前記見本画像データにおける前記読取範囲の座標位置から、読取項目決定部が行う、前記書類の読取項目を決定する読取項目決定ステップと、
前記読取項目に対し、ユーザの操作により属性情報付加部が行う、所定の属性情報を付加する属性情報付加ステップと、
前記画像データから、前記読取項目及び前記属性情報に基づきテキストデータ生成部が行う、前記画像データの前記読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、を備える、
文字認識方法。
A character recognition method for reading character information from image data obtained by scanning a document as an image.
A reading range setting step for setting a reading range of the document, performed by a reading range setting unit by a user operation from sample image data obtained by scanning a sample of the document as an image;
A reading item determination step of determining a reading item of the document, performed by a reading item determination unit from the coordinate position of the reading range in the sample image data;
An attribute information addition step of adding predetermined attribute information, which is performed by an attribute information addition unit by a user operation on the read item;
And a text data generation step of generating text information displayed in the read item of the image data as text data, performed by the text data generation unit based on the read item and the attribute information from the image data.
Character recognition method.
書類を画像としてスキャンした画像データから、文字情報を読み取る文字認識プログラムであって、
前記書類の見本を画像としてスキャンした見本画像データから、ユーザの操作により、前記書類の読取範囲を設定する読取範囲設定ステップと、
前記見本画像データにおける前記読取範囲の座標位置から、前記書類の読取項目を決定する読取項目決定ステップと、
前記読取項目に対し、ユーザの操作により、所定の属性情報を付加する属性情報付加ステップと、
前記画像データから、前記読取項目及び前記属性情報に基づき、前記画像データの前記読取項目に表示されている文字情報をテキストデータとして生成するテキストデータ生成ステップと、を電子計算機に実行させる、
文字認識プログラム。

A character recognition program for reading character information from image data obtained by scanning a document as an image,
A reading range setting step of setting a reading range of the document by a user operation from sample image data obtained by scanning the sample of the document as an image;
A reading item determination step of determining a reading item of the document from the coordinate position of the reading range in the sample image data;
An attribute information addition step of adding predetermined attribute information to the read item by a user operation;
Causing a computer to execute a text data generation step of generating, as text data, character information displayed in the read item of the image data based on the read item and the attribute information from the image data.
Character recognition program.

JP2017251102A 2017-12-27 2017-12-27 Character recognition apparatus, method and program Active JP6374079B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017251102A JP6374079B1 (en) 2017-12-27 2017-12-27 Character recognition apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017251102A JP6374079B1 (en) 2017-12-27 2017-12-27 Character recognition apparatus, method and program

Publications (2)

Publication Number Publication Date
JP6374079B1 JP6374079B1 (en) 2018-08-15
JP2019117520A true JP2019117520A (en) 2019-07-18

Family

ID=63165877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017251102A Active JP6374079B1 (en) 2017-12-27 2017-12-27 Character recognition apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6374079B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7054662B2 (en) * 2018-09-06 2022-04-14 富士通フロンテック株式会社 Image recognition device, image recognition method, and image recognition program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166228A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Method for generating format information of document for optical character reader
JP2015069256A (en) * 2013-09-27 2015-04-13 株式会社日立製作所 Character identification system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166228A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Method for generating format information of document for optical character reader
JP2015069256A (en) * 2013-09-27 2015-04-13 株式会社日立製作所 Character identification system

Also Published As

Publication number Publication date
JP6374079B1 (en) 2018-08-15

Similar Documents

Publication Publication Date Title
US11170248B2 (en) Video capture in data capture scenario
US10354000B2 (en) Feedback validation of electronically generated forms
US9299041B2 (en) Obtaining data from unstructured data for a structured data collection
US9870352B2 (en) Creating a dashboard for tracking a workflow process involving handwritten forms
JP7225548B2 (en) Image processing device, image processing method and image processing program
US10902193B2 (en) Automated generation of web forms using fillable electronic documents
CN108305050B (en) Method, device, equipment and medium for extracting report information and service demand information
US20200034940A1 (en) Contract generation and templating
US9652445B2 (en) Methods and systems for creating tasks of digitizing electronic document
US11727701B2 (en) Techniques to determine document recognition errors
JP5830581B1 (en) Input support server, input support method, and input support program
CN115618826A (en) Form filling method and device, electronic equipment and medium
US20210312174A1 (en) Method and apparatus for processing image, device and storage medium
JP6374079B1 (en) Character recognition apparatus, method and program
US11250091B2 (en) System and method for extracting information and retrieving contact information using the same
JP6462930B1 (en) Character recognition apparatus, method and program
CN112069230B (en) Data analysis method, device, equipment and storage medium
CN113888295A (en) Travel reimbursement method, travel reimbursement device, storage medium and electronic equipment
JP5827263B2 (en) Information update system, information update method, and program
JP2012150526A (en) Request information processor
CN116681047A (en) Mail processing method, mail processing device, storage medium and computer equipment
JP2013062681A (en) Input support system
JP7486112B2 (en) Accounting support device, accounting support program, and accounting support method
JP6693045B2 (en) Personal information display program, personal information display method, and display control device
CN117372023A (en) Customized transaction method, apparatus, electronic device, medium and program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171227

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180718

R150 Certificate of patent or registration of utility model

Ref document number: 6374079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250