WO2022254560A1 - 光学文字認識により生成されるテキストデータを用いたデータマッチング - Google Patents

光学文字認識により生成されるテキストデータを用いたデータマッチング Download PDF

Info

Publication number
WO2022254560A1
WO2022254560A1 PCT/JP2021/020762 JP2021020762W WO2022254560A1 WO 2022254560 A1 WO2022254560 A1 WO 2022254560A1 JP 2021020762 W JP2021020762 W JP 2021020762W WO 2022254560 A1 WO2022254560 A1 WO 2022254560A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
image
data set
matching
data
Prior art date
Application number
PCT/JP2021/020762
Other languages
English (en)
French (fr)
Inventor
ファーハン カーン
セルヒオ バルブエナ
佳奈 西田
Original Assignee
株式会社KPMG Ignition Tokyo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社KPMG Ignition Tokyo filed Critical 株式会社KPMG Ignition Tokyo
Priority to PCT/JP2021/020762 priority Critical patent/WO2022254560A1/ja
Publication of WO2022254560A1 publication Critical patent/WO2022254560A1/ja

Links

Images

Definitions

  • the disclosure of this specification relates to data matching using text data obtained by optical character recognition.
  • a more specific disclosure of this specification relates to matching text data obtained by performing optical character recognition on a voucher image with accounting record data.
  • a verification of evidence is performed to confirm the appropriateness of the accounting treatment of the company to be audited.
  • document reconciliation is performed by an auditor visually reconciling an accounting record with a document related to the accounting record (for example, a statement of delivery or an invoice).
  • the number of accounting records that record transactions and the number of evidences that serve as the basis for each transaction increases as the scale of transactions of the audited company increases. In this way, document matching is a time-consuming task, and technology is expected to improve efficiency.
  • Patent Document 1 discloses that accounting records created in a unique format for each company are converted into a common format and stored in a database, and the accounting records stored in this database are collated. An enabling system is described. According to Patent Document 1, the use of this system eliminates the need for an auditor to inquire of a business partner of an audit target company to obtain a voucher.
  • the purpose of the invention disclosed in this specification is to solve or alleviate at least some of the problems in conventional document matching.
  • One of the more specific objectives of the invention disclosed herein is to improve the efficiency of document matching, which has hitherto been done visually by auditors.
  • Some embodiments disclosed herein comprise one or more processors that perform optical character recognition on a first edited image resulting from performing a first editing process on the image. a function of generating a first text data set by performing a function of calculating a first matching score by matching the first text data set with a reference data set; and a function of performing a second editing process on the image performing optical character recognition on the second edited image to generate a second text data set; and matching the second text data set with the reference data set to generate a second matching score. and a function of calculating .
  • one or more processors based on the first matching score and the second matching score, converts the first text data set or the second text data set to A further function of selecting one as the matching text data set can be performed.
  • one of the first editing process and the second editing process is a ruled line removal process for removing ruled lines from an image, and text including strokes in the ruled line removed image.
  • a text area detection process for detecting the area
  • the other of the first editing process and the second editing process including a table recognition process for recognizing a table included in the image.
  • the first editing process includes editing processes that conflict with the editing processes included in the second editing process.
  • the first edited image is generated by subjecting the image to a third editing process in addition to the first editing process
  • the second edited image is the image is generated by performing the third editing process in addition to the second editing process.
  • the first text data set is a first temporary text data set generated by performing optical character recognition on the first edited image, based on the reference data set. is generated by performing the first correction process with
  • the one or more processors further perform the function of displaying matching results generated based on the matching data set.
  • the matching result indicates whether the first recognized text element contained in the matched text data set matches the first reference text element contained in the reference data set. Contains match flags.
  • the matching result associates the first recognized text element with the first reference text element.
  • one or more processors include a correction input for correcting the first recognized text element if the first recognized text element does not match the first reference text element. It also performs a function that accepts a .
  • matching results include views of images.
  • the view of the image may include a first stroke corresponding to the first recognized text element and a first boundary defining a first text region in which the first stroke is included.
  • calculating a first matching score and calculating said second matching score if the matching text data set contains a second recognized text element that is the same as the first recognized text element. selects the first recognized text element as the first reference text element to which the same data type as that assigned to the first recognized text element among a plurality of reference text elements included in the reference data set is assigned. This is done by comparing with
  • the data type of the first recognized text element of the matching text data set is determined based on tags attached to each of the plurality of data elements.
  • the data type of the first recognized text element of the conforming text data set is data located near the first stroke corresponding to the first recognized text element in the image. Defined based on type strokes.
  • a system comprises one or more processors, and causes the one or more processors to perform optical character recognition on an image to extract first text contained in the image. Combining first text data corresponding to a first stroke contained in a region and second text data corresponding to a second stroke contained in a second text region contained in the image to generate combined text data. and the ability to match the combined text data with reference text elements contained in the reference data set.
  • combined text data is generated when the distance between the first text region and the second text region is less than or equal to the reference distance.
  • combined text data is generated when both the first text data and the second text data are included in the reference data set.
  • combined text data is generated when no line feed code is detected at the end of the first text data.
  • the text data set further includes third text data corresponding to a third stroke included in a third text region included in the image.
  • the one or more processors may further perform the function of combining the third text data and the second text data to generate other combined text data.
  • an image includes a third stroke, and both the first text area and the second text area are set to include the third stroke.
  • one or more processors display a composite image overlaid with borders defining a combined text region combining the first text region and the second text region. can perform functions that
  • the reference data set is accounting record data that records transactions, and the image is a documented document showing the content of the transaction.
  • the accounting record data comprises a first accounting record data set and a second accounting record data set
  • the evidence image comprises the first accounting record data set and the second accounting record data set.
  • Each is associated with a recording data set.
  • the function to select is the first matching score and the second matching score of the image calculated for each of the plurality of transactions included in the accounting record data. identify the transaction that gives the maximum score as the transaction corresponding to the image, and select the text data set corresponding to the matching score that gave the maximum score as the matching text data set corresponding to the transaction. including the ability to
  • a program instructs one or more processors to perform optical character recognition on a first edited image obtained by performing a first editing process on an image to generate a first text generating a data set; calculating a first matching score by matching the first text data set with a reference data set associated with the image; and performing a second editing process on the image.
  • a method is a method performed by one or more computer processors executing computer readable instructions to perform a first editing operation on an image, performing optical character recognition on a first resulting edited image to generate a first text data set; calculating a matching score; performing optical character recognition on a second edited image resulting from performing a second editing process on said image to generate a second text data set; and said second text data set. and calculating a second matching score by matching with the reference data set.
  • the efficiency of document matching can be improved.
  • FIG. 4 is an explanatory diagram showing an overview of matching processing in some embodiments disclosed herein;
  • FIG. 4 is an explanatory diagram outlining a matching process applied to audit support applications in some embodiments disclosed herein;
  • FIG. 4 is a data structure diagram showing an example of a data structure of a matching score calculated for each transaction of a reference data set;
  • FIG. 10 is a data structure diagram showing an example of the data structure of a matching score calculated for each transaction of the reference data set;
  • 1 is a block diagram illustrating an audit support system to which some embodiments disclosed herein are applied;
  • FIG. FIG. 4 is a flow diagram illustrating a matching process flow performed according to some embodiments disclosed herein;
  • FIG. 5 is a flowchart showing a more detailed flow of processing in the correction processing in FIG.
  • FIG. 4 shows an example of a voucher image used in the audit support system of FIG. 3;
  • FIG. 4 shows an example of a matching result list in which matching results generated in the audit support system of FIG. 3 are expressed in a list format;
  • FIG. 4 shows an example of a matching result view displayed on the display in the audit support system of FIG. 3;
  • FIG. 4 is an explanatory diagram outlining a matching process applied to audit support applications in some embodiments disclosed herein;
  • 4 shows an example of an annotated evidence image used in the audit support system in some embodiments disclosed herein.
  • 4 shows an example data structure of a text data element used in the audit support system in some embodiments disclosed herein.
  • FIG. 2 is a block diagram that schematically illustrates another embodiment of an audit support system to which some embodiments disclosed herein are applied;
  • FIG. 13 shows an example of a voucher image used in the audit support system of FIG. 12;
  • FIG. 10 is a diagram illustrating an example of combining two text areas;
  • FIG. 10 is a diagram illustrating an example of combining multiple text areas;
  • FIG. 10 is a diagram illustrating yet another example of combining two text regions;
  • FIG. 11 is a diagram illustrating yet another example of combining two text regions;
  • FIG. 11 is a diagram illustrating still another example of combining multiple text areas;
  • FIG. 11 is a diagram illustrating yet another example of combining two text regions;
  • FIG. 10 is a diagram illustrating an example of a method for setting two text areas;
  • the invention disclosed in this specification performs matching processing between a text data set obtained by performing OCR on the image V1 and the reference data set L1, thereby matching information contained in the image V1 with the reference data set L1.
  • An example of the reference data set L1 is accounting record data
  • an example of the image V1 is an image of a voucher that serves as a basis for transactions recorded in the reference data set.
  • a procedure called document verification is performed to confirm the consistency between the accounting record data and the contents of the document that is the basis of the transaction record included in the accounting record data.
  • the auditors visually check the consistency between accounting record data and transaction details described in vouchers.
  • the text data set obtained by performing OCR on the voucher image V1 is matched with the reference data set L1, which is the accounting record data, and the matching result is sent to the auditor.
  • the auditor can refer to the matching result and more efficiently confirm the consistency between the transaction record data and the content of the voucher.
  • one reference data set L1 may contain a large number of transaction records, and a plurality of images of vouchers underlying each of the transaction records. can be associated with one reference data set L1.
  • the reference data set L1 contains three records identified by transaction IDs, each of which is associated with a voucher image V1-V3, respectively.
  • the reference data set L1 containing the accounting records of this enormous number of transactions and Checking the consistency with the contents of the related vouchers is a time-consuming task.
  • OCR recognition of the image V1 is required. Improvement of accuracy is required. If OCR is performed on the original (unprocessed) image, sufficient recognition accuracy cannot always be obtained, so instead of performing OCR on the original image as it is, editing processing ( Attempts have been made to perform OCR on an edited image that has undergone preprocessing (also called preprocessing). For example, when the strokes included in the image are vertically inverted, the recognition accuracy is improved by performing OCR on the image after correcting the image by rotating the image by 180°.
  • the vouchers used in accounting processing include various documents such as invoices, delivery notes, order forms, receipts, and quotations, so the layout is also different. Even documents of the same type have different layouts depending on the entity that created the document. For example, an invoice issued by Company A has a different layout than an invoice issued by Company B.
  • OCR OCR is performed on images of a plurality of documents having various layouts, it is difficult to find a general-purpose editing process that is effective in improving the recognition accuracy of any image. It is also difficult to define the editing process individually according to the type of document due to the variety of documents.
  • multiple types of editing processes are performed on an image to generate multiple edited images.
  • OCR is performed on each of the plurality of edited images to generate a plurality of text data sets, and each of the plurality of text data sets is matched with the reference data set to obtain each text data.
  • the auditor can more efficiently check the consistency between the contents of the image V1 and the reference data set L1 based on the matching result between the text data set of the image V1 having high recognition accuracy and the reference data set L1. It can be carried out.
  • the above method is also useful for checking the consistency between the images V1 to V3 having various layouts and the reference data set L1.
  • FIGS. 1a and 1b A further overview of some embodiments disclosed herein will be provided based on FIGS. 1a and 1b.
  • the text data set obtained by OCRing the image V1 and the reference data set L1 are matched to match the content of the image V1 and the associated data of the image V1. It supports the efficiency of checking the consistency with the data included in the reference data set L1.
  • accounting record data as the reference data set L1 and using the image of the voucher that is the basis of the transaction recorded in the reference data set L1 as the image V1
  • Some embodiments can streamline document matching in audit procedures.
  • a first edited image E1 is generated by performing a first editing process on image V1, and a first edited image E1 is generated on image S2.
  • a second edited image E2 is generated by performing the second editing process.
  • a first text data set T1 is generated by performing OCR on the first edited image E1
  • a second text data set T2 is generated by performing OCR on the second edited image E2.
  • the first editing process is different from the second editing process.
  • the OCR performed on the first edited image E1 and the OCR performed on the second edited image E2 may be the same process, eg, performed by the same OCR engine.
  • a first matching score indicating the reliability of the first text data set T1 is calculated.
  • a second matching score indicating the reliability of the second text data set is calculated. If the reference data set L1 includes multiple data units (eg, records each representing an accounting record of an individual transaction), a first matching score and a second matching score are calculated for each data unit.
  • the first matching score and the second matching score calculated in this way are compared, and the text data set having the higher score out of the first text data set T1 and the second text data set T2 is compared with the reference data set L1.
  • the result of matching with the data units included in the image V1
  • the content of the image V1 and the reference data set L1 are matched. Consistency can be checked efficiently.
  • the user can collectively upload the reference data set L1 and the voucher images V1 to V3 to the system (for example, the audit support system 1 described later). At that time, it is not necessary to specify which of the three transaction data included in the reference data set L1 corresponds to which voucher image.
  • the audit support system 1 can calculate a matching score for each data unit included in the reference data set L1 (for example, for each individual transaction) for each uploaded documented document image according to the above process.
  • the matching score calculated in units of data of the reference data set L1 for each evidenced document image is stored in the audit support system 1, for example, in the data structure shown in FIG. 2a.
  • FIG. 2a shows an example of the data structure of matching scores calculated for each data unit included in the reference data set L1.
  • the audit support system 1 performs so-called round-robin matching of the transaction and the documented document image, and performs matching for each pair of the transaction and the documented document image.
  • the score it is possible to identify a pair having a correspondence relationship with a high matching score.
  • the second matching score of the voucher image V1 is "0.9", which is the maximum.
  • the voucher image corresponding to the transaction can be determined to be voucher image V1.
  • the second matching score is higher. It can be determined to be a two-text data set.
  • the voucher image corresponding to the transaction with the transaction ID "2" is determined to be the voucher image V2
  • the voucher image corresponding to the transaction with the transaction ID "3" is determined to be the voucher image V3.
  • not only the first editing process and the second editing process but also three or more types of different editing processes are performed on the original image, and the editing processes are performed.
  • OCR may be performed on each of the three or more edited images to generate three or more text data sets, and each of the three or more text data sets may be matched with the reference data set.
  • the audit support system 1 includes a user device 10, an audit support device 20 that supports efficiency of matching of vouchers using a text data set obtained by performing OCR on the voucher, Prepare.
  • the user device 10 and the audit support device 20 can transmit and receive data to and from each other via the network 40 .
  • the audit support system 1 may include devices other than the user device 10 and the audit support device 20 .
  • the audit support system 1 may have a cloud environment for distributed processing to be executed by the user device 10 or the audit support device 20 .
  • the audit support system 1 is an example of a system to which the invention disclosed in this specification can be applied. As already mentioned, some embodiments of the invention disclosed in this specification can be applied to document matching. It can be widely applied to applications that match other data.
  • the audit support device 20 comprises a processor 21 , a memory 22 , a user interface 23 , a communication interface 24 and a storage 25 .
  • the processor 21 is an arithmetic device that loads an operating system and various other programs from the storage 25 or other storage into the memory 22 and executes instructions included in the loaded programs.
  • the processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic units other than these, or a combination thereof.
  • the processor 21 may be realized by integrated circuits such as ASIC, PLD, FPGA, and MCU.
  • the memory 22 is used to store instructions executed by the processor 21 and various other data.
  • the memory 22 is a main storage device (main memory) that the processor 21 can access at high speed.
  • the memory 22 is, for example, a RAM such as a DRAM or an SRAM.
  • the user interface 23 includes an input interface that receives user input and an output interface that outputs various information under the control of the processor 21 .
  • the input interface includes, for example, a microphone that converts sound into electrical signals.
  • the input interface is a keyboard, a pointing device such as a mouse, a touch panel, or any other information input device capable of inputting a user's input.
  • the output interface is, for example, a liquid crystal display, a display panel, or any other information output device capable of outputting the computation results of the processor 21 .
  • the communication interface 24 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof.
  • the audit support device 20 can transmit and receive data to and from other information devices including the user device 10 via the communication interface 24 .
  • the storage 25 is an external storage device accessed by the processor 21 .
  • the storage 25 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data.
  • the user device 10 is a personal computer (PC), tablet terminal, smart phone, or various other information processing devices.
  • the user device 10 is a desktop PC, laptop PC, smart phone, or other information processing device.
  • the user device 10 can include a processor, memory, user interface, communication interface, and storage (none of which are shown).
  • the user of the user device 10 is assumed to be an auditor or his assistant.
  • the auditor can use the result of matching between the documented evidence image generated by the audit support device 20 and the accounting record data via the user device 10, and can efficiently check the documented document using this matching result. can be done.
  • the audit support device 20 executes commands included in the program stored in the storage 25 and, if necessary, other commands to obtain a data acquisition unit 21a, a character recognition unit 21b, a correction processing unit 21c, a matching unit 21d, an output unit 21e, and an input reception unit 21f.
  • the storage 25 can store a voucher image 25a, accounting record data 25b, a matching result list 25d, an annotated image 25e, and other data.
  • the storage 25 can also include a matching score area 25c that stores the matching score calculated by the matching unit 21d.
  • the data acquisition unit 21a acquires images of vouchers and accounting record data to be used for matching vouchers from the user terminal 10 or other devices or media.
  • Voucher images and accounting record data can be obtained from audited companies and their business partners.
  • the evidence may include purchase orders, statements of delivery, invoices, receipts, quotations, and various other documents describing transaction details and transaction terms.
  • Accounting record data is a data set that constitutes a ledger that records the transactions of a company.
  • the ledger is, for example, an accounting ledger.
  • Accounting books may include journals, cash books, accounts receivable ledgers, accounts payable ledgers, and other types of books used in accounting practices.
  • the data acquisition unit 21a can store the acquired image of the voucher in the storage 25 as the voucher image 25a.
  • the voucher image 25a may be stored in the storage 25 in association with the voucher ID that identifies the voucher image 25a.
  • the voucher image 25a is an unstructured document having no structure definition and may be saved in PDF format.
  • the voucher images 25a can include as many images of vouchers as necessary for matching vouchers.
  • FIG. 6 shows a voucher image 25a1 as an example of the voucher image 25a.
  • the voucher image 25a1 is an image of an invoice, and more specifically, an image of an invoice requesting a total of 2,250,900 yen from "X Corporation" to "Alpha Corporation” as the sales price of the product "PD0321-1101". is.
  • the voucher image 25a1 will be taken as an example.
  • the description regarding the evidenced image 25a1 can be similarly applied to other evidenced images recorded as the evidenced image 25a.
  • the accounting record data 25b is a data set containing various data representing accounting records to be matched with the voucher corresponding to the voucher image 25a1 in the voucher matching.
  • the accounting record data 25b is, for example, a data set including data constituting a ledger of transactions.
  • Accounting record data 25b is an example of reference data set L1 shown in FIGS. 1a and 1b.
  • the accounting record data 25b includes text data each indicating the content of the transaction (for example, customer, product name, price). Text data indicating these transaction details may have a data format divided into a plurality of fields.
  • the accounting record data 25b may be saved in a data format that can be used by spreadsheet software, such as CSV format. One record of the accounting record data 25b may correspond to one transaction.
  • Each record of the accounting record data 25b may be divided into a plurality of fields, and text data indicating transaction details can be stored in each of the plurality of fields.
  • a record of the accounting record data 25b corresponds to one transaction among many transactions conducted by the company.
  • the data acquisition unit 21a acquires the accounting record data 25b and a plurality of voucher images. You don't need to get the information that associates what an image corresponds to. In other words, the user does not need to investigate or designate associations between multiple transaction data and multiple voucher images included in the accounting record data 25b, so the audit support system 1 improves the efficiency of matching vouchers.
  • the audit support device 20 can associate each record of the accounting record data 25b with a voucher image that serves as the basis for the corresponding transaction.
  • one of a plurality of records included in the accounting record data 25b may be associated with the voucher image 25a1.
  • the audit support device 20 associates and stores the voucher ID of the voucher image 25a1 with the record corresponding to the transaction to which the voucher image 25a1 corresponds among the plurality of records included in the accounting record data 25b.
  • a record may be associated with the voucher image 25a1. This association information may be one of the outputs that the audit support device 20 provides to the user.
  • the voucher ID of the voucher image 25a1 may be associated with two or more of the multiple records included in the accounting record data 25b. Since a voucher may indicate the details of two or more transactions, in such a case one voucher ID is associated with two or more records of the accounting record data 25b. For example, two products (e.g., product A and product B) may be billed on one invoice, and in such cases, one document (invoice) may be used to separate the transaction details for the two products. It is shown.
  • the delivery note or invoice includes the details of separate transactions, namely, the hardware transaction and the software transaction that constitute the information processing system. In such a case, one voucher ID is associated with two or more records in the accounting record data 25b.
  • FIG. 2b shows an example of the data structure of the matching score calculated for each data unit (record) included in the accounting record data 25b.
  • the data acquisition unit 21a first acquires four transaction data identified by transaction IDs "4" to "7" and three voucher images V4 to V6.
  • the number of transaction data (4: transaction IDs 4 to 7) included in the acquired accounting record data does not match the number of voucher images V4 to V6, one transaction for two or more transactions Determine that the voucher image should be associated.
  • the audit support device 20 determines the correspondence relationship between the transaction identified by each transaction ID and the voucher image in the same manner as the method described with reference to FIG. 2a.
  • the matching score with the evidenced image V4 is higher than the matching score with other evidenced images for both the transaction ID "4" and the transaction ID "7". ' and transaction ID '7'. If the number of transaction data matches the number of voucher images, this result is denied, and each transaction ID and voucher image are associated one-to-one. However, if the number of transactions (the number of records) included in the acquired accounting record data does not match the number of acquired voucher images, it is permissible to associate one voucher image with two or more transactions. Therefore, in the example of FIG. 2B, the audit support device 20 can associate one voucher image V4 with two transactions identified by transaction IDs "4" and "7" included in the accounting record data. .
  • the accounting record data 25b is a data set representing transaction records of "Corporation X”. Therefore, the voucher image 25a is a document showing the details of transactions between the company X and its business partners. It is assumed that Alpha Co., Ltd. described in the voucher image 25a1 shown in FIG.
  • the text data included in the accounting record data 25b is a reference (correct data) for calculating the reliability of the text data set obtained by performing OCR on the voucher image 25a, as long as there is no error or falsification in the accounting record. Therefore, in this specification, each of the text data included in the accounting record data 25b is sometimes referred to as a "reference text element". Also, a set of reference text elements included in one record of the accounting record data 25b may be called a "reference text set". That is, a reference text element is a component of a reference text set.
  • Various data recorded as accounting records in accounting operations can be reference text elements. For example, each of the data stored as "sales date”, “sales amount”, and “sold to" included in the reference data set L1 shown in FIG. 1b is an example of a reference text element.
  • the character recognition unit 21b can perform a plurality of types of editing processing on the voucher image 25a1 to generate a plurality of edited images, and can perform optical character recognition (OCR) on each of the plurality of edited images.
  • OCR optical character recognition
  • three or more types of different editing processes can be performed on the evidenced image 25a1.
  • An embodiment will be described in which two types of editing processes different from each other, that is, a first editing process and a second editing process are performed.
  • the second editing process is an editing process for the same image as the first editing process, but different from the first editing process.
  • the character recognition unit 21b performs a first editing process on the voucher image 25a1 to generate a first edited image, and performs a second editing process different from the first editing process on the voucher image 25a1 to generate a second edited image.
  • An edited image can be generated.
  • the editing process performed on the voucher image 25a1 by the character recognition unit 21b may include various processes for improving the accuracy of OCR recognition of the voucher image 25a1.
  • the description regarding the two types of editing processes can also be applied to the third and subsequent types of editing processes.
  • Editing processing for improving OCR recognition accuracy may include rotation processing that rotates an image by 90°, 180°, or 270°.
  • the evidenced document image 25a1 is upside down, it is expected that the accuracy of OCR recognition will be improved by rotating the evidenced document image 25a1 by 180°.
  • the voucher may be read in a posture rotated clockwise or counterclockwise by 90 degrees from the correct posture.
  • rotating the documented document image 25a1 which has been read in a posture rotated from the correct posture, by 90° clockwise or counterclockwise in this way, it is expected that the accuracy of OCR recognition will be similarly improved. .
  • ruled line deletion processing for deleting ruled lines from an image.
  • the voucher image 25a1 includes a table below the characters "summary”.
  • the character recognition unit 21b can perform, for example, ruled line deletion processing for deleting at least a part of the vertical and horizontal ruled lines of the table included in the voucher image 25a1.
  • the editing process for improving recognition accuracy by OCR may include table detection processing for detecting tables included in the image and cells within the tables. Detecting a table or cell may improve the recognition accuracy of a block of text entered in the table or cell.
  • the character recognition unit 21b can perform, for example, a table detection process for detecting a table and its cells located below the "summary" of the voucher image 25a1.
  • text region detection processing for detecting text regions including strokes (Characters) in an image can be performed in editing processing for improving recognition accuracy by OCR. Recognition accuracy may be improved by detecting a plurality of strokes contained in an image as a text region in units of cohesion.
  • Text region detection processing may include layout analysis on the image.
  • the character recognition unit 21b can, for example, enclose an area including "Alpha Co., Ltd.” included in the voucher image 25a1 with a rectangular bounding box so that the inside of the bounding box becomes one text area.
  • the character recognition section 21b can set a plurality of text areas in the voucher image 25a1.
  • edit processing applicable to the voucher image 25a1 may include conversion to binary image, grayscaling, color change, and other known processing. Editing processes applicable to the invention disclosed herein are not limited to those specified herein.
  • the first editing process performed on the evidenced image 25a1 is different from the second editing process performed on the evidenced image 25a1.
  • the first editing process may include one or more of the various editing processes described above or otherwise.
  • the second editing process may include one or more of the various editing processes described above or otherwise.
  • the first editing process and the second editing process may include common editing processes. When the first editing process and the second editing process include common editing processes, at least one of the first editing process and the second editing process includes editing processes different from the other in addition to the common editing process.
  • the first editing process includes ruled line deletion processing and text area detection processing for an image from which ruled lines have been deleted
  • the second editing process includes table detection processing and text area detection processing
  • text area detection processing is included in both the first editing process and the second editing process, but since the first editing process includes a ruled line deletion process that is not included in the second editing process, the first editing process is an editing process different from the second editing process.
  • table detection becomes impossible when ruled lines are deleted
  • ruled line deletion processing and table detection processing are examples of editing processing that conflict with each other. In this manner, by including one or the other of the two mutually contradictory editing processes in the first editing process and the second editing process, it is possible to improve the character detection accuracy by enriching the processing modes.
  • Table detection does not necessarily perform equally well for different table layouts.
  • the table detection function may be able to detect some tabular forms with high accuracy, but may not be able to detect other tabular forms with high accuracy. If a documented document image containing a table with a layout that cannot be detected with high accuracy is subjected to the second editing process including the table detection function, the OCR recognition accuracy will not be sufficiently improved, so the matching score may be calculated low. have a nature. If only a text data set with such a low matching score is obtained, there is a risk that it will be impossible to detect the correct correspondence relationship between the voucher image and the transaction that should have been originally obtained.
  • the rotation process is considered to contribute to the improvement of recognition accuracy regardless of the presence or absence of strokes, layout, and tables included in the evidence image 25a1.
  • processing that generally contributes to improving the recognition accuracy regardless of the content of the evidenced document image 25a1 may be referred to as general-purpose editing processing.
  • Rotation processing in units of 90 degrees which is performed when the evidenced document image 25a1 is vertically inverted or tilted horizontally by 90 degrees, is an example of general-purpose editing processing.
  • the character recognition unit 21b performs the first edited image generated by performing the first editing process on the voucher image 25a1 as described above, and the second edited image generated by performing the second editing process on the voucher image 25a1. OCR can be performed on each of the edited images. In the following, the OCR for the first edited image will be described for simplicity of explanation, but the description of the processing for the first edited image can also be applied to the processing for the second edited image.
  • the character recognition unit 21b identifies a text area in the first edited image, and performs character recognition on each text area, so that each text area Converts the included strokes to text data. At least one of the first edited image and the second edited image with the text area set may be stored in the storage 25 as the annotated image 25e.
  • the annotated image 25e can be used in outputting a matching result, which will be described later.
  • the set of text identified from the strokes contained in each of the text regions of the first edited image generated from the evidence image 25a1 is referred to as the first text data set and the strokes contained in each text region. is called a "recognized text element" of the first text data set.
  • the set of text identified from the strokes contained in each of the text regions of the second edited image generated from the evidence image 25a1 is referred to as a second text data set, and the identified text contained in each text region. is referred to as the "recognized text element" of the second text data set.
  • Character recognition in each text area of the first edited image may be performed according to a conventional method. For example, strokes included in a text region are normalized, and then features are extracted for the normalized strokes. Then, the characteristic amount of the extracted stroke is matched with a standard pattern such as a character or a number, and the standard pattern having the highest degree of matching with the characteristic amount of the stroke is output as the recognition result of the stroke. For example, in the example of FIG. 6, each cell in the table is set as a text area, and the text obtained by recognizing "PD0321-1101", “5,002", etc. described in the cell is recognized. Output as a text element.
  • the character recognition unit 21b may perform character recognition on all of the plurality of text regions included in the documented evidence image 25a1. Character recognition may be performed only on the included text regions. Along with the recognition result for each text region, the recognition confidence of that recognition result may be output. As described above, character recognition in each text region may be misrecognised.
  • the reliability output together with the recognition result is represented by, for example, a numerical value between 0 and 1, and the numerical value can indicate how reliable the output recognized text element is. For example, it may mean that the closer the reliability value is to "1", the higher the reliability of the recognition result (the less likely it is to be wrong).
  • the character recognition unit 21b performs OCR on the first edited image to generate the first text data set, and performs OCR on the second edited image to generate the second text data set.
  • a dataset can be generated.
  • OCR on the first edited image and the second edited image can be performed using commonly available OCR engines.
  • As an OCR engine for example, Tesseract provided as free software can be used. Tesseract can output the confidence mentioned above for each recognized text.
  • the correction processing unit 21c can correct the recognized text elements according to the reliability of the recognized text elements of the first text data set and the second text data set.
  • the correction processing unit 21c extracts the text to be corrected from among the recognized text elements contained in the first text data set and the second text data set according to the correction data extraction standard, and extracts the recognized text elements extracted according to this standard. can be corrected.
  • the corrected data extraction criteria may be that the number of characters in the recognized text element is greater than 2 and the confidence is less than 0.9.
  • the reason why the lower limit of the number of characters is set in the correction data extraction criteria is that recognition text elements with a short number of characters are often Japanese particles or English prepositions. This is because the need for comparison with the reference text element of data 25b is small.
  • the reference text element of the accounting record data 25b is part of the accounting record, it is assumed to be data related to transactions such as dates, quantities, product names, and texts of two characters or less are part of the accounting record. Therefore, recognition text elements of two characters or less can be considered characters that do not correspond to accounting records.
  • the correction data extraction criteria can be appropriately changed based on the data format of the accounting records included in the accounting record data 25b and other factors.
  • the correction processing unit 21c can perform correction processing for increasing the reliability of recognized text elements that meet the correction data extraction criteria. For example, by preparing a product master DB, a list of business partners, and a list of accounting terminology as dictionaries, the well-known SymsSpell algorithm can be used to correct erroneously recognized text elements into correct text. For example, in the voucher image 25a1 shown in FIG. 6, if "Alpha Co., Ltd.” is misrecognized as "Alpho Co., Ltd.” can be extracted as a correction candidate to replace the erroneously recognized "Alpho Co., Ltd.”. When the recognized text element to be corrected is replaced with text contained in the dictionary, the text after the replacement becomes the corrected recognized text element. The reliability of the recognized text element corrected by the method of replacing with the text registered in the dictionary in this way may be changed to "1".
  • the correction processing unit 21c may collectively correct typical misrecognitions included in recognized text elements using regular expressions.
  • Typical misrecognitions contained in recognized text elements include, for example: Horizontal ruled lines in tables may be mistakenly recognized as repeating "-" (minus sign). In this case, a word that does not correctly contain "-" may be erroneously recognized as a word containing "-". For example, a character that is correctly "memo" may be erroneously recognized as "----memo-”.
  • meaningless strings of alphabets and numbers for example, "2K29RM3S96GO020R2OCSKN" may appear as recognition results.
  • the vertical ruled line of the table may be erroneously recognized as the symbol "
  • regular expressions can be used to remove erroneously inserted characters or symbols to improve the reliability of the recognized text elements.
  • the correction unit 21c extracts words similar to the recognized text elements from the accounting record data 25b by fuzzy search for the recognized text elements that satisfy the correction data extraction criteria (that is, there is a high possibility of misrecognition), and extracts the words from the accounting record data 25b. Words extracted from data 25b can replace recognized text elements that satisfy the corrected data extraction criteria. Using the example where "Alpha Co., Ltd.” was misidentified as “Alpho Co., Ltd.” again, "Alpha Co., Ltd.” There is a high possibility that it is included in the accounting record data 25b.
  • the fuzzy search may be performed by selecting text within a predetermined Levenshtein distance from the search key (that is, the misrecognized recognized text element) from the text included in the accounting record data 25b. . That is, this predetermined Levenshtein distance functions as a threshold for fuzzy search.
  • the fuzzy search threshold can be changed at any time according to the nature of the text held in the accounting record data 25b.
  • the function of the correcting unit 21c may be omitted.
  • the matching unit 21d converts the reference text set of each record included in the accounting record data 25b into the first text data set (correction processing performed by the correction unit 21c) generated by the character recognition unit 21b based on the voucher image 25a1.
  • the first text data set after correction processing can be compared to calculate a first matching score representing the degree of matching or matching between the reference text set and the first text data set.
  • the matching unit 21d can store the calculated first matching score in the matching score area 25c.
  • the matching unit 21d can similarly calculate a second matching score for the second text data set and store the calculated second matching score in the matching score area 25c.
  • the matching unit 21d can execute calculation and storage of the above-described first matching score and second matching score for each voucher image acquired by the data acquisition unit.
  • the matching unit 21d stores the first matching score and the second matching score thus calculated in the matching score area 25c.
  • the tables shown in FIGS. 2a and 2b are examples of the first matching score and the second matching score calculated by the matching unit 21d and stored in the matching score area 25c.
  • the matching unit 21d performs OCR on the documented evidence image 25a1 for each of the reference text elements included in each record included in the accounting record data 25b to match the recognized text elements included in the first text data set. , and the smallest of the calculated values can be adopted as the individual Levenshtein distance value for each reference text element.
  • the accounting record data 25b is the sales book of Company X, and the sales book includes the product name, sales destination, sales quantity, and sales amount sold by Company X as standard text elements.
  • the matching unit 21d matches each of the reference text elements included in each record included in the accounting record data 25b, that is, each of the sales destination, product name, sales quantity, and sales amount, and the first text Calculate the Levenshtein distance between each of the recognized text elements contained in the dataset. Assume that the name of the product sold is recorded as "PD0321-1101" in record A in the accounting record data 25b.
  • the Levenshtein distance is also calculated between the recognized text elements other than the recognized text elements representing the product names included in the first text data set.
  • the recognition text elements other than the recognition text element representing the product name are text corresponding to small numbers and dates that have nothing to do with the product name.
  • the Levenshtein distance between the elements is greater than the Levenshtein distance between the recognized text elements corresponding to the product name. In this way, the Levenshtein distance between the reference text element representing the product name and the recognized text element corresponding to the product name is taken as the individual Levenshtein distance of the reference text element representing the product name.
  • the total sum of the individual Levenshtein distances calculated for each of the reference text elements of the record for each of the reference text elements of the record, or the reference text of the record is normalized to a value in the range of 0 to 1, and the value obtained by subtracting this normalized value from 1 is used as the reference data set and evidence image of the record It may be a first matching score representing a degree of matching with a first text data set generated based on the first edited image of 25a1.
  • each reference text element among the recognized text elements forming the first text data set A separate Levenshtein distance is calculated with its corresponding element, and based on this separate Levenshtein distance, a first image generated based on the reference data set for each record and the first edited image of the evidence image 25a1
  • a first matching score can be calculated that represents the degree of matching with the text data set.
  • the second matching score which represents the degree of matching between the reference data set of each record included in the accounting record data 25b and the second text data set generated based on the second edited image of the voucher image 25a1, is also It can be calculated in the same way as the 1 matching score.
  • the method of calculating the first matching score and the second matching score is not limited to the above method.
  • the first matching score an arbitrary value can be used. The same applies to the second matching score.
  • the matching unit 21d selects either the first text data set or the second text data set as the matching text data set based on the first matching score and the second matching score calculated as described above. Specifically, the matching unit 21d selects the first text data set as the matching text data set if the first matching score is greater than the second matching score, and on the other hand, the second matching score is greater than the first matching score. If so, the second text data set can be selected as the matching text data set. More specifically, the matching unit 21d can refer to the matching score area 25c to identify the voucher image that gives the maximum matching score for a certain record (transaction) included in the accounting record data 25b.
  • the matching unit 21d also specifies which of the first matching score and the second matching score calculated for the documented evidence image specified for a certain record gives the maximum matching score.
  • the matching unit 21d can register the voucher ID of the voucher image that gives the maximum matching score for a certain record in the matching result list in association with the transaction ID of the record (transaction). This provides a correspondence between the transaction and the voucher image.
  • the matching unit 21d selects a text data set corresponding to the matching score specified as giving the maximum matching score among a plurality of matching scores calculated for the voucher image associated with a certain transaction. Select as conforming text dataset.
  • the matching unit 21d first compares the first matching score and the second matching score calculated for each combination of the record and the evidenced image, and specifies the larger one as the matching score between the record and the evidenced image. You may In this manner, the matching unit 21d selects the first text data set and the second text data set, whichever has a higher degree of matching with the reference text set (and thus has a higher reliability) as the matching text data set. be able to.
  • the output unit 21e generates a matching result based on the text data set selected as the matching data set from among the first text data set and the second text data set. For example, the output unit 21e matches each recognized text element included in the text data set selected as the matching data set with the corresponding reference text element included in the accounting record data 25b. It can be determined whether The matching result indicates whether or not each recognized text element matches the corresponding reference text element included in the accounting record data 25b for each of the recognized text elements included in the text data set selected as the matching data set. It can contain a flag indicating whether
  • FIG. 8 shows an example of a matching result view 30 showing matching results displayed on the display.
  • the matching results view 30 includes a first view 30a representing the annotated evidenced image 25a1 and each of the reference text elements corresponding to the recognized text elements included in the matching text data set. and a second view 30b displayed with.
  • the voucher image 25a1 is annotated with a bounding box defining the text areas A0 to A10 set when performing OCR on the edited image of the voucher image 25a1.
  • Some of the recognized text elements obtained by recognizing the strokes included in the text areas A0 to A10 are displayed in the recognized text display areas 32a to 32d of the second view 30b.
  • a bounding box surrounding the text areas A0-A10 is an example of an annotation added to the evidenced image 25a1.
  • information extracted with respect to the evidenced image 25a1 in various processes for the evidenced image 25a1 can be added as an annotation. For example, the data type of the text area enclosed by the bounding box may be displayed near the bounding box.
  • the voucher image 25a1 includes a stroke in a language other than the auditor's native language
  • a translation of the stroke may be displayed near the text area containing the stroke.
  • the first view 30a can be displayed in part of the matching result view 30 by reading the annotated image corresponding to the documented evidence image 25a1 among the annotated images 25e stored in the storage 25.
  • the second view 30b includes four reference text display areas 31a-31d for displaying reference text elements.
  • the reference text display area 31a displays the reference text element stored in the field for storing the invoice number in the record corresponding to the voucher image 25a1 of the accounting record data 25b.
  • the reference text element "A1101" is displayed in the reference text display area 31a.
  • the reference text display areas 31b to 31d the reference text stored in the fields for storing the delivery date, product name, and business partner in the record corresponding to the voucher image 25a1 of the accounting record data 25b is displayed.
  • Each element is displayed.
  • the second view 30b may include a display area for displaying reference text elements other than the superordinate.
  • recognition text display areas 32a to 32d for displaying recognition text elements included in the matching text data set of the voucher image 25a1 are located directly below the reference text display areas 31a to 31d, respectively. are placed.
  • the recognized text display area 32a displays a recognized text element "A1101" generated by OCR recognition of the strokes included in the text area A1 in the voucher image 25a1. Since the stroke contained in the text area A1 was correctly recognized as "A1101" by OCR, the recognized text element displayed in the recognized text display area 32a is the reference text element displayed in the reference text display area 31a. is consistent with
  • the recognized text display area 32a On the right side of the reference text display area 31a and the recognized text display area 32a is displayed whether or not the reference text element displayed in the reference text display area 31a matches the recognized text element displayed in the recognized text display area 32a. is displayed.
  • the recognized text element displayed in the recognized text display area 32a matches the reference text element displayed in the reference text display area 31a. are displayed to indicate that The match flag 33d also indicates that the recognized text element displayed in the recognized text display area 32d matches the reference text element displayed in the reference text display area 31d.
  • the recognized text display area 32b On the right side of the reference text display area 31b and the recognized text display area 32b is displayed whether or not the reference text element displayed in the reference text display area 31b matches the recognized text element displayed in the recognized text display area 32b. is displayed.
  • the recognized text element displayed in the recognized text display area 32b does not match the reference text element displayed in the reference text display area 31b. It is displayed to indicate that there is In the illustrated example, since the text representing the delivery date stored in the field for storing the delivery date of the accounting record data 25b is "January 1, 2020", this "2020 "January 1st" is displayed.
  • the recognized text display area 32b the recognized text element "Jan. is displayed.
  • the stroke included in the text area A3 in the documented evidence image 25a1 is misrecognized, so the recognized text element "January 7, 2020" displayed in the recognized text display area 32b is , does not match the reference text element “January 1, 2020” displayed in the reference text display area 31b.
  • a user who matches vouchers by looking at the matching result view 30 can first see the match flag 33b to know that there is an item that does not match between the accounting record data 25b and the voucher image 25a1.
  • By looking at the reference text display area 31b and the recognized text display area 32b arranged near (to the left of) the match flag 33b it is possible to confirm how they do not match.
  • the user can confirm that the delivery date is correctly described as "January 1, 2020" in the voucher image 25a1 by looking at the item corresponding to the delivery date in the view 30a. By performing such confirmation, the user can see that erroneous recognition has occurred when generating the recognized text element corresponding to the delivery date, and that the erroneously recognized text is displayed in the recognized text display area 32b. can be confirmed.
  • the input reception unit 21f can receive from the user a correction input for the text incorrectly displayed in the recognized text display area 32b. The user corrects the text displayed in the recognized text display area 32 to the correct value "January 1, 2020" using the input interface (for example, keyboard or mouse) of the user device 10, and then A confirmation button 34b can be selected.
  • the delivery date described in the voucher image 25a1 and the delivery date displayed in the reference text display area 31b must match. You may perform selection operation with respect to the confirmation button 34b according to having confirmed. Since the audit support system 1 is a system for supporting the efficiency of document matching, it is not necessarily required to correct errors in recognized text elements.
  • the match flag 33c also indicates a non-match determination result. This is because the reference text element "PD321-1001" displayed in the reference text display area 31c does not match the recognized text element "DD321-1001" displayed in the recognized text display area 32b.
  • the user confirms the item corresponding to the product name in the first view 30a in the same manner as the match flag 33b, and confirms that the product name is correctly described as "PD321-1001" in the voucher image 25a1. can be confirmed.
  • the user can determine whether the inconsistency is caused by misrecognition of the OCR. It is only necessary to confirm whether the error is caused by the presence of an error in the voucher or accounting record data 25b corresponding to the image 25a1. This makes it possible to reduce the work load of document verification.
  • the matching result view 30 displays not only the second view 30b containing the matching flags 33a to 33d, but also the first view 30a containing the annotated documented evidence image 25a1.
  • the matching result view 30 displays not only the second view 30b containing the matching flags 33a to 33d, but also the first view 30a containing the annotated documented evidence image 25a1.
  • any one of 33a to 33 indicates a mismatch, it is possible to confirm the content of the mismatched data item in the documented evidence image 25a1 without accessing another file.
  • bounding boxes indicating text areas A0 to A10 set when performing OCR are added as annotations to the documented evidence image 25a1 included in the first view 30a. Therefore, even if there is a data item that does not match, the user does not need to see the entire voucher image 25a1, and only needs to check the region marked with the bounding box.
  • the output unit 21e may highlight a bounding box pointing to a data item corresponding to a match flag indicating a mismatch among the match flags 33a-33d.
  • the bounding box surrounding the text area A3 corresponding to the delivery date corresponding to the match flag 33b indicating mismatch and the bounding box surrounding the text area A4 corresponding to the product name corresponding to the match flag 33c are emphasized. may be displayed. Bounding box highlighting may be done by changing the color and thickness of the bounding box. The specific aspects of bounding box highlighting are not limited to those explicitly set forth herein.
  • the edited images generated by two different types of editing processes are used.
  • the matching text data set the one with the higher matching score when matched with the reference text set of the related record in the accounting record data 25b is selected as the matching text data set, and this matching text data set is A set is used for match/mismatch determination.
  • the text data set with the higher recognition accuracy is used for matching with the reference text element included in the reference text set. It is possible to reduce the frequency of mismatch determination due to OCR recognition errors. As a result, it is possible to reduce the number of data items to be confirmed by the user in document matching, so that the efficiency of document matching can be further improved.
  • step S1 images of a plurality of vouchers to be used for matching vouchers and accounting record data are acquired. Images of a plurality of vouchers and accounting record data used for matching vouchers are, for example, acquired collectively or as needed from the company to be audited and its business partners.
  • the process performed on the voucher image 25a1 will be described as an example.
  • step S2 in which common editing processing is performed
  • steps S3a and S3b in which individual editing processing is performed after execution of common editing processing S2.
  • the common editing process is, for example, a process that is considered to contribute to the improvement of OCR recognition accuracy regardless of the type or layout of the image. good. For example, when the evidenced document image 25a1 is vertically inverted, the process of rotating the evidenced document image 25a1 by 180° is performed in step S2.
  • the documented evidence image 25a1 subjected to the common editing process is subjected to the first editing process in step S3a and the second editing process in step S3b.
  • the second editing process is a different type of editing process than the first editing process. Examples of individual editing processing include description ruled line deletion processing, table detection processing, text area detection processing, conversion processing to a binary image, grayscale processing, color change processing, and other image editing processing. A combination is mentioned.
  • the editing process in step S2 and the editing process in step S3a can be combined as a first editing process, and the editing process in step S2 and the editing process in step S3b can be combined as a second editing process.
  • a first edited image is generated by performing the first editing process on the voucher image 25a1
  • a second edited image is generated by performing the second editing process on the voucher image 25a1.
  • the order of step S2 and steps S3a and S3b may be interchanged.
  • step S4a OCR is performed on the first edited image to generate a first text data set.
  • step S4b OCR is performed on the second edited image to generate a second text data set.
  • step S4a text regions are set in the first edited image generated in step S3a, each containing a stroke, and character recognition is performed for each text region.
  • the first text data set consists of text (recognized text elements) obtained by character recognition of strokes contained in each of the text regions of the first edited image.
  • step S4b text regions are set in the second edited image generated in step S3b, each containing a stroke, and character recognition is performed for each text region.
  • the second text data set consists of text (recognized text elements) obtained by character recognition of the strokes contained in each of the text regions of the second edited image.
  • the results of character recognition performed in each text area in steps S4a and 4b may be accompanied by recognition confidence of the recognition results.
  • the editing processing in steps S2, S3a, and S3b and the OCR in steps S4a and S4b may be performed by, for example, the character recognition section 21b.
  • step S5a at least some of the recognized text elements included in the first text data set generated in step S4a are subjected to correction processing to improve their reliability
  • step S5b At least some of the recognized text elements contained in the second text data set generated in step S4b are corrected to improve their reliability.
  • the correction process may be executed according to the flow shown in FIG. 5, for example.
  • FIG. 5 is a flowchart showing an example of the flow of correction processing performed on the first text data set or the second text data set. Since the correction process for the first text data set and the correction process for the second text data set can be performed in the same way, the following description assumes that the correction process is performed on the recognized text elements contained in the first text data set. be.
  • step S11 among the plurality of recognized text elements contained in the first text data set, those requiring correction processing are extracted according to correction data extraction criteria. be done.
  • the corrected data extraction criteria may be that the number of characters in the recognized text element is greater than 2 and the confidence is less than 0.9.
  • step S12 a first correction process is performed with reference to the accounting record data 25b.
  • the first correction process may be a fuzzy search process of extracting words similar to the recognized text element from the accounting record data 25b by fuzzy search and replacing the recognized text element with the word extracted from the accounting record data 25b.
  • step S13 correction processing is performed without using the accounting record data 25b.
  • the correction process in step S13 may be omitted.
  • the correction processing performed in step S13 may be correction processing using, for example, the SymsSpell algorithm and a dictionary. Besides the above, the correction process can be any process that can improve the reliability of recognized text elements.
  • the correction processing in steps S5a and S5b may be performed by, for example, the correction processing section 21c. Steps S5a and S5b can be omitted as appropriate. For example, if the reliability of the recognized text elements included in the first text data set and the second text data set generated in steps S4a and S4b is sufficiently high, the correction process may be omitted. Correction processing can also be omitted for other reasons.
  • step S6 comparing the reference text set of each record included in the accounting record data 25b with the first text data set generated in step S4a and the second text data set generated in step S4b, respectively. Then, a first matching score indicating the degree of matching between the reference text set and the first text data set and a second matching score indicating the degree of matching between the reference text set and the second text data set are calculated. In step S6, the first matching score and the second matching score are compared to determine which of the first matching score and the second matching score is greater, and select the greater matching score. This selected matching score is called a selected matching score.
  • step S2 to step S6 are performed for each of the plurality of evidenced images acquired in step S1.
  • a first matching score and a second matching score are calculated for each record of the accounting record data 25b for each of the plurality of evidenced images, and for each evidenced image, The greater of the first matching score and the second matching score is selected as the selected matching score.
  • the selected matching scores specified for each of the plurality of evidenced images are compared for each record included in the accounting record data, and the evidenced image that gives the maximum selected matching score is specified as the evidenced image corresponding to the record. be done.
  • a voucher image determined to correspond to a certain record of the accounting record data 25b from among the plurality of voucher images in this way is called a "selected voucher image".
  • the data set corresponding to the selected matching score is specified as the matching text data set.
  • the matching process in step S6 may be performed by the matching unit 21d described above, for example.
  • step S7 a matching result is generated based on the text data set selected as the matching data set from among the first text data set and the second text data set.
  • a matching result for example, a matching result view 30 including a first view 30a and a second view 30b shown in FIG. 8 is generated.
  • the processing related to the generation and output of matching results in step S7 may be performed by, for example, the output unit 21e.
  • matching with the reference text set is performed.
  • a matching result is generated between the recognized text elements contained in the matching text data set with a high score and the reference text elements contained in the reference text set contained in the accounting record data 25b, and a view 30 of this matching result is displayed on the user device 10. be done.
  • the user of the user device 10 can efficiently check evidences using the matching result view 30 .
  • FIG. 7 shows a display example of a list of matching results obtained by performing the matching process on a plurality of documented evidence images.
  • each entry corresponds to a record (transaction) of accounting record data.
  • the evidenced image associated with each entry by "link to image” is the evidenced image determined to be related to the record corresponding to the entry by the matching unit 21d (that is, the selected evidenced image).
  • the record recorded in row #1 corresponds to the matching result displayed in FIG.
  • FIG. 8 only the invoice number, delivery date, product name, and customer name are recognized text elements included in the text data set obtained by performing OCR on the edited image of the voucher image 25a1, and accounting record data.
  • 25b the results of matching with the reference text elements of the record determined to be related to the documented evidence image 25a1 are shown.
  • a matching result may be generated and displayed as part of the second view 30b. For example, by scrolling down the second view 30b shown in FIG. 8, matching results corresponding to data items not shown in the example of FIG. 8, such as the unit price, may be displayed.
  • Records #2 to #4 in the matching result list 25d shown in FIG. 7 are associated with evidenced images different from the evidenced image 25a1. As shown in the figure, records #2 to #4 are similar to record #1 in that they are recognized text elements included in the text data set obtained by performing OCR on the edited image of each voucher image. , the result of matching with the reference text element of the record related to each voucher image contained in the accounting record data 25b. In records #2 and #3, all data items are determined to match. In record #4, it is determined that the data item of delivery date does not match, and that the other data items match.
  • Fig. 9 shows a modified example of Fig. 1b.
  • the evidenced image V1 is associated only with the accounting record data L11, but as shown in FIG. 9, the evidenced image V1 is included in the accounting record data L12 ( records) may also be associated with it.
  • the voucher image V1 may be associated with three or more types of accounting record data. Also, the voucher images V2 and V3 may be associated with two or more types of accounting data.
  • FIG. 10 schematically shows a documented evidence image 125a1 used in the audit support system 1 according to another embodiment of the present invention
  • FIG. 11 shows the first text data set and the second text data generated by the character recognition unit 21b.
  • An example of the data structure of the recognition text elements that make up the set is shown.
  • the evidenced image 125a1 is also subjected to the first editing process and the second editing process.
  • the description of the second edited image will be omitted.
  • the description for the first edited image can also be applied to the second edited image.
  • the number "500” indicating the invoice number included in the text area A11 is replaced by the number "500” indicating the quantity included in another text area A12. 500” coincidentally.
  • the character recognition unit 21b recognizes "500” in the text area A11 and "500” in the text area A12.
  • the data "500” indicating the invoice number and "500” indicating the quantity contained in the accounting record data 25b are obtained by character recognition in the text area A11. It cannot be determined whether to compare with "500” or "500” obtained by character recognition in text area A12.
  • the character recognition unit 21b identifies text regions in the first edited image, and performs character recognition for each text region. Give a unique data type to each. For example, when the character recognition unit 21b recognizes the text "500” from the strokes included in the text area A11, it gives the text "500” a data type specific to the text area A11, Similarly, when the text "500” is recognized from the strokes included in the text area A12, the text "500” is given a data type specific to this text area A12. This allows the two texts of "500" recognized in the first edited image of voucher image 125a1 to be distinguished from each other.
  • data T11 having a structure in which "invoice number” is added as a data type T11b unique to the text area A11 is added to the stroke included in the text area A11.
  • the data type T11b can be set as the data type T11b.
  • text obtained by recognizing strokes included in a text area including other strokes (especially characters) displayed near the text area A11 can be set as the data type 11b. In the example shown in FIG.
  • data T12 having a structure in which "quantity” is added as a data type T12b unique to the text area A12 is added to the strokes included in the text area A11. It can be a corresponding recognition text element.
  • the data type T12b the metadata (tag) set in the text area A12, or the recognition result of the characters included in the text area A14 set near the text area A12 can be set as the data type 12b.
  • an item name is set for each of multiple fields included in the record. Since the accounting record data 25b is created by, for example, spreadsheet software, item names can be easily set for each field.
  • item names can be easily set for each field.
  • "500" is stored in the data item "bill number” and "500” is stored in the data item "quantity”.
  • the data item in the accounting record data 25b can be the data type of the reference text element.
  • the matching unit 21d recognizes each of the reference text elements included in each record included in the accounting record data 25b as being included in the first text data set obtained by performing OCR on the first edited image of the voucher image 125a1. Calculating the Levenshtein distance between a recognized text element having a data type matching its own data item among text elements, and making this Levenshtein distance an individual Levenshtein distance for the reference text element can be done.
  • the addition of the data type to the recognized text element may be performed only when at least two of the recognized text elements obtained by performing OCR on the edited image of the voucher image match. It may be done with or without duplication. If the recognized text element is given a data type that can be associated with the data item of the accounting record data 25b, the calculation load for calculating the Levenshtein distance performed by the matching unit 21d can be reduced.
  • FIG. 12 is a schematic block diagram for explaining the functions executed by the audit support system 1 according to another embodiment of the present invention, and FIG. indicates
  • the processor 21 of the audit support device 20 included in the audit support system 1 shown in FIG. 12 can function as a coupling unit 21g.
  • the voucher image 225a1 shows an invoice addressed to "Alpha Securities Co., Ltd.” from X Corporation.
  • a text area is set by a method such as layout analysis, and character recognition is performed on the basis of this text area.
  • the evidenced image 225a shown in FIG. 13 shows a bounding box defining the text area for OCR.
  • text areas A1 to A9 and B11 and B12 are set in the voucher image 225a.
  • the text area B11 contains "Alpha Corporation” which is part of "Alpha Securities Co., Ltd.” which is the addressee of the invoice, and the text area B12 contains "Securities” which is the remainder of the addressee. is If OCR is performed with this text area set, "Alpha Co., Ltd.” and “Securities” are recognized as separate recognition text elements. For this reason, even if "Alpha Securities Co., Ltd.” is stored as a reference text element in the record related to the voucher image 225a1 of the accounting record data 25b, "Alpha Securities Co., Ltd.” and “Alpha Co., Ltd.” and "Securities” The Levenshtein distance with each becomes a large value.
  • the connecting portion 21g includes text data generated by character recognition of "Alpha Co., Ltd.” included in the text area B11 and text data generated by character recognition of "Securities”. combined text data to form one combined text data.
  • the text data set (first text data set or second text data set) obtained by performing OCR on the voucher image 225a has, as its recognition text elements, the text of "Alpha Co., Ltd.” and the text of "Securities” instead of the text Or, it may be configured to include the text of "Alpha, Inc.” and the text of "Securities," plus combined text data (ie, "Alpha Securities, Inc.”).
  • the combined text data which is one of the recognized text elements, is matched with the reference text element contained in the record related to the evidence image 225a of the accounting record data 25b.
  • the combined text data correctly identifies the trading partner as "Alpha Securities, Inc.”, it is possible to prevent erroneous discrepancies that would occur if the combination were not performed.
  • the combining unit 21g may combine the text areas B11 and B12 to set one combined text area B1 when setting the text areas for OCR. In this case, by collectively recognizing the strokes included in the combined text area B1, it is possible to collectively perform character recognition of "Alpha Securities Co., Ltd.”.
  • the combining unit 21g may generate combined text data by combining "Alpha Co., Ltd.” and "Securities", which are individually recognized in the text areas B11 and B12.
  • FIG. 12 and 13 A variant of the embodiment shown in FIGS. 12 and 13 will be described with reference to FIGS. 14a to 19.
  • FIG. 14a A variant of the embodiment shown in FIGS. 12 and 13 will be described with reference to FIGS. 14a to 19.
  • the distance d1 between the text areas B11 and B12 is used to determine whether to generate combined text data. Specifically, when the distance d1 between the text area B11 and the text area B12 is smaller than a predetermined value, the connecting portion 21g connects "Alpha Inc.” included in the text area B11 and "Alpha Inc.” included in the text area B12. "securities" to generate combined text data. When two text regions are closer than a predetermined distance, the text contained in them can be merged.
  • FIG. 14b shows another embodiment.
  • the joining unit 21g recognizes the four text areas B21 to B24 as mutually joinable text areas.
  • Symbol R1 shows an example of the result of OCR performed without combining the text regions B21-B24.
  • a code R2 performs OCR on a combined text region B2a where the text regions B21 and B22 are combined by the combining unit 21g, and a combined text region B2b where the text regions B23 and 24 are combined.
  • the symbol R3 indicates the result obtained when OCR is performed on the combined text area combining all the four text areas B21 to B24. If the customer name included in a record with the accounting record data 25b includes "stock diagonal 45° planning", the record is matched with the OCR result R1 obtained by individually performing OCR on the text areas B21 to B24. However, it does not match the text data indicated by the OCR result R1 in the record. On the other hand, when the combined text areas B2a and B2b are generated by the combiner 21g and the OCR result R2 obtained by performing OCR on the combined text areas B2a and B2b is matched with the record, the OCR result R2 is the text area B2a.
  • OCR result R2 is determined to match with "45° stock diagonal planning" stored as the client name in the record. .
  • the OCR result R3 contains the text data of "stock diagonal 45° plan”. It is determined that R2 matches (or includes the name of the client in the record) "planning for 45° stock" stored as the client name in the record.
  • the combining unit 21g determines that both "Alpha Co., Ltd.” included in the text area B11 and "Securities" included in the text area B12 are the records related to the voucher image 225a1 in the accounting record data 25b. If they are stored in the same single field, there is a high possibility that "Alpha Securities Co., Ltd.”, which is a combination of the texts contained in both, is the business partner of Co., Ltd. X.
  • both "Alpha Co., Ltd.” included in the text area B11 and "Securities” included in the text area B12 are stored in the same single field of the record related to the voucher image 225a1 in the accounting record data 25b.
  • By combining the two to generate combined text data it is possible to prevent erroneous non-coincidence determination that occurs when the combination is not performed.
  • the joining unit 21g detects whether or not a linefeed code is attached to the end of the preceding text region B11. If no line feed code is detected, the text contained in the text area B11 is considered to be in the middle of one word or sentence spanning the next line and is not intended to be separated at the end of the text area B11. Therefore, when a line feed code is attached to the end of the preceding text area B11, the joining unit 21g treats the text area B11 and the text area B12 existing on the next line as separate text areas, Do not generate combined text data.
  • the joining part 21g combines the text contained in the text area B11 with the text contained in the text area B12 at the beginning of the line next to the text area B11. can be combined to generate combined text.
  • a bounding box may be displayed on the screen that defines the text area containing the combined text. For example, even if the bounding box defining the text area B1 in FIGS. 13, 14a, 15 and 16a and the bounding boxes respectively defining the text areas B2a, B2b and B2 shown in FIG. 14b are displayed on the screen. good.
  • the bounding box defining such joined joined text regions may become unnecessarily large.
  • the binding boxes defining the binding text regions may be displayed separately.
  • the bounding box corresponding to the text area B11 and the bounding box corresponding to the text area B12 may be displayed separately.
  • both bounding boxes should be displayed with the same line type (solid line, dashed line, etc.) and/or may be displayed in the same color to express uniformity.
  • FIG. 16b shows an example in which three text areas B11, B12, B13 are combined.
  • a bounding box enclosing two of the three text regions B11 and B12, another bounding box enclosing the remaining text region B13, may be displayed.
  • Text1, Text2, and Text3 constitute combined text, but with a first bounding box surrounding Text2 and Text3 located close to each other, and Text1 located away from Text2 and Text3.
  • a second enclosing bounding box defines a combined text region containing the combined text of Text1, Text2, and Text3 combined.
  • the text area C11 contains "Tomatoes”
  • the text area C12 contains “2 Units”
  • the text area C13 contains "Bananas”.
  • C11-C13 are recognized as three different text regions.
  • "Milk 1 Unit” is included in the text area C3.
  • "2 Units” included in the text area C12 indicates the number of both "Tomatoes" and "Bananas".
  • the combining unit 21g analyzes the logical structure of the text areas C11 to C13, combines "Tomatoes” included in the text area C11 and “2 Units” included in the text area C12, and "Bananas” contained in C13 and “2 Units” contained in text area C12 can be combined.
  • the combining unit 21g combines the text areas C11 and C12 to set one combined text area C1 when setting the text areas for OCR, and also sets the text area C1.
  • Another combined text region C2 can be set by combining C13 and text region C12. In this case, the strokes included in the combined text region C1 can be collectively recognized, and the strokes included in the combined text region C2 can be collectively recognized.
  • the combining unit 21g combines "Tomatoes” and “2 Units” among “Tomatoes”, “2 Units", and “Bananas” which are individually recognized in the text areas C11 to C13 to form a first Combined text data may be generated, and second combined text data may be generated by combining "Bananas" and "2 Units".
  • Fig. 18 shows a modification of the embodiment of Fig. 17.
  • the character recognition section 21b sets the text area, it is set so that "2 Units" is included in both the text area C1 and the text area C2.
  • the logical structure of the characters included in the voucher image is analyzed, and the text is displayed so that "2 Units" is combined with both "Tomatoes" and "Bananas". Areas C1 and C2 are set.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), Compact Disc Read Only Memory (CD-ROM), CD -R, CD-R/W, semiconductor memory (e.g. Mask ROM, Programmable ROM (PROM), Erasable PROM (EPROM), Flash ROM, Random Access Memory (RAM)).
  • various data that can be stored in the storage 15 may be stored in a storage or database server that is physically separate from the storage 15 inside or outside the on-premises environment 5 . That is, in this specification, the data described as being stored in the storage 15 may be stored in a single storage, or distributed and stored in a plurality of storages.
  • the term "storage" may refer to either a single storage or a collection of multiple storages, as long as the context permits.
  • OCR is performed on the edited image generated from the evidenced image, although for simplicity of explanation it is not important whether the edited image is generated or not. , is sometimes described as simply performing OCR on a documented image. Even if it is explained that OCR is performed on the evidenced image, such an explanation should be construed as including the manner in which OCR is performed on the edited image after performing editing processing on the evidenced image. can be done.
  • the combined aspect can be a further embodiment of the present invention.
  • Notations such as “first”, “second”, “third” in this specification etc. are attached to identify the constituent elements, and do not necessarily limit the number, order, or content thereof is not. Also, numbers for identifying components are used for each context, and numbers used in one context do not necessarily indicate the same configuration in other contexts. Also, it does not preclude a component identified by a certain number from having the function of a component identified by another number.

Landscapes

  • Character Input (AREA)

Abstract

一又は複数のプロセッサは、画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する機能と、前記第1テキストデータセットと基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する機能と、前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する機能と、前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する機能と、を実行する。

Description

光学文字認識により生成されるテキストデータを用いたデータマッチング
 本明細書の開示は、光学文字認識により得られるテキストデータを用いたデータマッチングに関する。本明細書のより具体的な開示は、証憑画像に対して光学文字認識を行うことにより得られるテキストデータと会計記録データとのマッチングに関する。
 監査手続では、監査対象の会社の会計処理の適切さを確かめるために証憑突合(Vouching)が行われる。多くの場合、証憑突合は、会計記録とその会計記録に関連する証憑(例えば、納品書や請求書)とを監査人が目視で突合することにより実施されている。取引を記録する会計記録及び各取引の根拠となる証憑の数は、監査対象企業の取引規模が大きくなるほど増加する。このように、証憑突合は手間のかかる作業であるため、技術による効率性の改善が期待される。
 特開2020-181542号公報(特許文献1)には、企業ごとに独自のフォーマットで作成されている会計記録を共通フォーマットに変換してデータベースに格納し、このデータベースに格納された会計記録を照合可能とするシステムが記載されている。特許文献1によれば、当該システムの利用により、監査人が監査対象企業の取引先に証憑を取得する問い合わせをする必要がなくなるとされている。
特開2020-181542号公報
 証憑や会計記録へのアクセスが容易となっても、証憑と会計記録との証憑突合自体に手間がかかる。よって、会計記録や証憑へのアクセス性の改善による監査業務効率化以外に、証憑の写しやその画像データと会計記録との突合についても効率化が求められる。
 本明細書に開示される発明の目的は、従来の証憑突合における問題の少なくとも一部を解決又な緩和することである。本明細書に開示される発明のより具体的な目的の一つは、これまで監査人によって目視で行われている証憑突合の効率を改善することである。
 本明細書に開示される発明の前記以外の目的は、本明細書全体を参照することにより明らかになる。本明細書に開示される発明は、前記の課題に代えて又は前記の課題に加えて、本明細書の記載から把握される課題を解決するものであってもよい。
 本明細書に開示されるいくつかの実施形態は、一又は複数のプロセッサを備え、この一又は複数のプロセッサに、画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する機能と、前記第1テキストデータセットと基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する機能と、前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する機能と、前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する機能と、を実行させる。
 本明細書に開示されるいくつかの実施形態において、一又は複数のプロセッサは、前記第1マッチングスコア及び前記第2マッチングスコアに基づいて、前記第1テキストデータセット又は前記第2テキストデータセットのいずれかを適合テキストデータセットとして選択する機能をさらに実行することができる。
 本明細書に開示されるいくつかの実施形態において、第1編集処理及び第2編集処理の一方は、画像から罫線を削除する罫線削除処理と、罫線削除処理済みの画像内の字画を含むテキスト領域を検出するテキスト領域検出処理と、を含み、第1編集処理及び第2編集処理の他方は、画像に含まれる表を認識する表認識処理を含む。
 本明細書に開示されるいくつかの実施形態において、第1編集処理は、第2編集処理が含む編集処理と相反する編集処理を含む。
 本明細書に開示されるいくつかの実施形態において、第1編集済画像は、画像に第1編集処理に加えて第3編集処理を行うことで生成され、記第2編集済画像は、画像に第2編集処理に加えて第3編集処理を行うことで生成される。
 本明細書に開示されるいくつかの実施形態において、第1テキストデータセットは、第1編集済画像に光学文字認識を行って生成された第1仮テキストデータセットに、前記基準データセットに基づいて第1補正処理を行うことにより生成される。
 本明細書に開示されるいくつかの実施形態において、一又は複数のプロセッサは、前記適合データセットに基づいて生成されるマッチング結果を表示させる機能をさらに実行する。本明細書に開示されるいくつかの実施形態において、マッチング結果は、適合テキストデータセットに含まれる第1認識テキスト要素が基準データセットに含まれる第1基準テキスト要素と一致するか否かを示す一致フラグを含む。
 本明細書に開示されるいくつかの実施形態において、マッチング結果においては、第1認識テキスト要素と第1基準テキスト要素とが対応付けられている。
 本明細書に開示されるいくつかの実施形態において、一又は複数のプロセッサは、第1認識テキスト要素が第1基準テキスト要素と一致しない場合に、第1認識テキスト要素を訂正するための訂正入力を受け付ける機能をさらに実行する。
 本明細書に開示されるいくつかの実施形態において、マッチング結果は、画像のビューを含む。画像のビューは、第1認識テキスト要素に対応する第1字画と、第1字画が含まれる第1テキスト領域を画定する第1境界線と、を含んでもよい。
 本明細書に開示されるいくつかの実施形態において、適合テキストデータセットが第1認識テキスト要素と同一の第2認識テキスト要素を含む場合、第1マッチングスコアの算出及び前記第2マッチングスコアの算出は、第1認識テキスト要素を基準データセットに含まれる複数の基準テキスト要素のうち第1認識テキスト要素に割り当てられている第1データ種別と同一のデータ種別が割り当てられている第1基準テキスト要素と比較することで行われる。
 本明細書に開示されるいくつかの実施形態において、適合テキストデータセットの第1認識テキスト要素のデータ種別は、前記複数のデータ要素の各々に付されているタグに基づいて決定される。
 本明細書に開示されるいくつかの実施形態において、適合テキストデータセットの第1認識テキスト要素のデータ種別は、画像において第1認識テキスト要素に対応する第1字画の近傍に配置されているデータ種別字画に基づいて定められる。
 本明細書に開示されるいくつかの実施形態によるシステムは、一又は複数のプロセッサを備え、この一又は複数のプロセッサに、画像に光学文字認識を行うことで、前記画像に含まれる第1テキスト領域に含まれる第1字画に対応する第1テキストデータと、前記画像に含まれる第2テキスト領域に含まれる第2字画に対応する第2テキストデータと、を結合して結合テキストデータを生成する機能と、結合テキストデータと基準データセットに含まれる基準テキスト要素とのマッチングを行う機能と、を備える。
 本明細書に開示されるいくつかの実施形態において、結合テキストデータは、第1テキスト領域と第2テキスト領域との間の距離が基準距離以下の場合に生成される。
 本明細書に開示されるいくつかの実施形態において、結合テキストデータは、第1テキストデータ及び第2テキストデータがいずれも基準データセットに含まれる場合に生成される。
 本明細書に開示されるいくつかの実施形態において、結合テキストデータは、第1テキストデータの末尾に改行コードが検出されない場合に生成される。
 本明細書に開示されるいくつかの実施形態において、テキストデータセットは、画像に含まれる第3テキスト領域に含まれる第3字画に対応する第3テキストデータをさらに含む。一又は複数のプロセッサは、第3テキストデータと第2テキストデータとを結合して他の結合テキストデータを生成する機能をさらに実行することができる。
 本明細書に開示されるいくつかの実施形態において、画像に第3字画が含まれ、第1テキスト領域及び前記第2テキスト領域は、いずれも前記第3字画を含むように設定される。
 本明細書に開示されるいくつかの実施形態において、一又は複数のプロセッサは、第1テキスト領域と第2テキスト領域とを結合させた結合テキスト領域を画定する境界線を重ねた合成画像を表示する機能を実行することができる。
 本明細書に開示されるいくつかの実施形態において、基準データセットは、取引を記録した会計記録データであり、画像は、取引の内容を示す証憑書類を示す証憑画像である。
 本明細書に開示されるいくつかの実施形態において、会計記録データは、第1会計記録データセットと第2会計記録データセットとを含み、証憑画像は、第1会計記録データセット及び第2会計記録データセットにそれぞれ対応付けられる。
 本明細書に開示されるいくつかの実施形態において、選択する機能は、前記会計記録データに含まれる前記複数の取引のそれぞれについて算出された前記画像の前記第1マッチングスコア及び前記第2マッチングスコアのうち最大のスコアを与える取引を前記画像に対応する取引として特定し、かつ、当該最大のスコアを与えた方のマッチングスコアに対応するテキストデータセットを当該取引に対応する適合テキストデータセットとして選択する機能を含む。
 本明細書に開示されるいくつかの実施形態によるプログラムは、一又は複数のプロセッサに、画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する機能と、前記第1テキストデータセットと前記画像に関連する基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する機能と、前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する機能と、前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する機能と、を実行させる。
 本明細書に開示されるいくつかの実施形態による方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される方法であって、画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する工程と、前記第1テキストデータセットと前記画像に関連する基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する工程と、前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する工程と、前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する工程と、を備える。
 本明細書に開示されるいくつかの実施形態によれば、証憑突合の効率を改善することができる。
本明細書に開示される幾つかの実施形態におけるマッチング処理の概略を示す説明図である。 本明細書に開示される幾つかの実施形態における監査支援用途に適用されるマッチング処理の概略を示す説明図である。 基準データセットの取引ごとに算出されたマッチングスコアのデータ構造の一例を示すデータ構造図である。 基準データセットの取引ごとに算出されたマッチングスコアのデータ構造の一例を示すデータ構造図である。 本明細書に開示される幾つかの実施形態が適用される監査支援システムを示すブロック図である。 本明細書に開示される幾つかの実施形態に従って実行されるマッチング処理の流れを示すフロー図である。 図4における補正処理におけるより詳細な処理の流れを示すフロー図である。 図3の監査支援システムにおいて用いられる証憑画像の例を示す。 図3の監査支援システムにおいて生成されるマッチング結果をリスト形式で表したマッチング結果リストの例を示す。 図3の監査支援システムにおいてディスプレイに表示されるマッチング結果のビューの例を示す。 本明細書に開示される幾つかの実施形態における監査支援用途に適用されるマッチング処理の概略を示す説明図である。 本明細書に開示される幾つかの実施形態における監査支援システムにおいて用いられる注釈付き証憑画像の例を示す。 本明細書に開示される幾つかの実施形態における監査支援システムにおいて用いられるテキストデータ要素のデータ構造の例を示す。 本明細書に開示される幾つかの実施形態が適用される監査支援システムの別の実施形態を概略的に示すブロック図である。 図12の監査支援システムにおいて用いられる証憑画像の例を示す。 2つのテキスト領域の結合の一例について説明する図である。 複数のテキスト領域の結合の例について説明する図である。 2つのテキスト領域の結合のさらに別の例について説明する図である。 2つのテキスト領域の結合のさらに別の例について説明する図である。 複数のテキスト領域の結合のさらに別の例について説明する図である。 2つのテキスト領域の結合のさらに別の例について説明する図である。 2つのテキスト領域の設定方法の例について説明する図である。
 以下、適宜図面を参照し、本明細書に開示される発明が適用されるシステムの実施形態について説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、重複した説明は適宜省略する。以下で説明される本発明の実施形態は特許請求の範囲にかかる発明を限定するものではない。以下の実施形態で説明されている諸要素が発明の解決手段に必須であるとは限らない。
 まず、図1a及び図1bを参照して、本明細書に開示される発明の実施形態の概略を説明する。本明細書に開示される発明は、画像V1にOCRを行って得られるテキストデータセットと基準データセットL1とのマッチング処理を行うことにより、画像V1に含まれている情報と基準データセットL1に含まれるデータとの整合性の確認作業の効率化を支援する。基準データセットL1の例は、会計記録データであり、画像V1の例は、基準データセットに記録されている取引の根拠となる証憑(Voucher)の画像である。監査手続においては、会計記録データとその会計記録データに含まれる取引記録の根拠となる証憑に記載されている内容との整合性を確認するために、証憑突合と呼ばれる手続が行われる。従来は、会計記録データと証憑に記載されている取引の内容の整合性の確認は、監査人が目視で行っている。本明細書に開示されている実施形態により、証憑の画像V1にOCRを行って得られるテキストデータセットと会計記録データである基準データセットL1とのマッチングを行って、そのマッチング結果を監査人に提供することにより、監査人は、そのマッチング結果を参照して、取引記録データと証憑の内容との整合性の確認をより効率的に行うことができる。
 図1bに示されているように、一つの基準データセットL1(会計記録データ)には、多数の取引レコードが含まれていても良く、この取引レコードの各々の根拠となる複数の証憑の画像が一つの基準データセットL1と関連付けられ得る。図1bの例では、基準データセットL1に取引IDで識別される3つのレコードが含まれており、そのレコードの各々が証憑画像V1~V3にそれぞれ関連付けられている。記載の簡潔さのために、レコードが3つのみ記載されているが、企業における取引の数は膨大であり、この膨大な数の取引の会計記録を含む基準データセットL1とその各々の取引に関連する証憑の内容との整合性の確認は手間のかかる作業である。
 監査人が会計記録データと証憑の画像V1にOCRを行って得られるテキストデータセットとをマッチングして得られるマッチング結果に基づいて証憑突合を効率的に行うためには、画像V1に対するOCRの認識精度の向上が求められる。元の(未加工の)画像にOCRを行うと必ずしも十分な認識精度が得られないため、元の画像にそのままOCRを行うのではなく、元の画像に認識精度を向上させるための編集処理(前処理(Preprocessing)ともいう)を行ってから、その編集処理が行われた編集済画像にOCRを行うことが試みられている。例えば、画像に含まれる字画が上下反転している場合に、その画像を180°回転させる補正をした後の画像に対してOCRを行うことで認識精度が向上する。
 しかしながら、画像に含まれる字画のレイアウト、表の有無、表の構成などの認識精度に影響を与える要素は、画像ごとに異なっているため、このような様々な画像について認識精度の向上のために汎用的な編集処理を見いだすことは困難である。例えば、一部の画像に対しては、表を構成する罫線の削除により認識精度が向上するが、他の画像に対しては罫線の削除は認識精度の向上のために有効ではないこともある。
 特に、会計処理で用いられる証憑には、請求書、納品書、注文書、領収書、見積書といった多様な書類が含まれるため、そのレイアウトも区々である。また、同じ種類の書類であっても、その書類の作成主体によってレイアウトは異なる。例えば、A社が発行する請求書は、B社が発行する請求書と異なるレイアウトを有する。このように様々なレイアウトを有する複数の書類の画像にOCRを行うことが想定される場合、いずれの画像の認識精度の向上にも有効な汎用的な編集処理を見いだすことは困難であるし、書類の種類に応じて個別に編集処理を定めることも書類の多様性から困難である。
 そこで、本明細書に開示される幾つかの実施形態においては、画像に複数種類の編集処理を行って複数の編集済画像を生成する。そして、この複数の編集済画像の各々に対してOCRを行って複数のテキストデータセットを生成し、この複数のテキストデータセットの各々と基準データセットとのマッチングをそれぞれ行うことで、各テキストデータセットの信頼度(マッチングスコア)を算出する。このため、複数のテキストデータセットの中から高いマッチングスコアを獲得したテキストデータセットをマッチング結果として採用することで、より高い認識精度を有するテキストデータセットを得ることができる。そして、監査人は、高い認識精度を有する画像V1のテキストデータセットと基準データセットL1とのマッチング結果に基づいて、画像V1の内容と基準データセットL1との整合性の確認をより効率的に行うことができる。以上の手法は、様々なレイアウトを有する画像V1~V3と基準データセットL1との整合性の確認するためにも有用である。
 図1a及び図1bに基づいて、本明細書に開示されるいくつかの実施形態の概略をさらに説明する。これらの図に記載されている実施形態では、画像V1にOCRを行って得られるテキストデータセットと基準データセットL1とのマッチング処理を行うことにより、画像V1の内容と、この画像V1に関連付けられている基準データセットL1に含まれるデータとの整合性の確認作業の効率化を支援する。上記のとおり、基準データセットL1として会計記録データを用い、画像V1として基準データセットL1に記録されている取引の根拠となる証憑(Voucher)の画像を用いることにより、本明細書に開示されるいくつかの実施形態は、監査手続における証憑突合を効率化することができる。
 図1aに示されているように、本明細書に開示される幾つかの実施形態においては、画像V1に第1編集処理を行うことにより第1編集済画像E1が生成され、画像S2に第2編集処理を行うことにより第2編集済画像E2が生成される。そして、第1編集済画像E1にOCRを行うことにより第1テキストデータセットT1が生成され、第2編集済画像E2にOCRを行うことにより第2テキストデータセットT2が生成される。第1編集処理は、第2編集処理とは異なる処理である。第1編集済画像E1に行われるOCRと第2編集済画像E2に行われるOCRとは同じ処理であってもよく、例えば同じOCRエンジンにより実行されてもよい。
 次に、第1テキストデータセットT1と基準データセットL1とのマッチングを行うことにより、第1テキストデータセットT1の信頼度を示す第1マッチングスコアが算出される。同様に、第2テキストデータセットT2と基準データセットL1とのマッチングを行うことにより、第2テキストデータセットの信頼度を示す第2マッチングスコアが算出される。基準データセットL1が複数のデータ単位(例えば、各々が個別の取引の会計記録を示すレコード)を含む場合、データ単位ごとに第1マッチングスコアと第2マッチングスコアとが算出される。
 このようにして算出された第1マッチングスコアと第2マッチングスコアとを比較し、第1テキストデータセットT1及び第2テキストデータセットT2のうち高いスコアを有する方のテキストデータセットと基準データセットL1に含まれるデータ単位とのマッチング結果を利用することにより、高い認識精度を有する画像V1のテキストデータセットと基準データセットL1とのマッチング結果に基づいて、画像V1の内容と基準データセットL1との整合性を効率良く確認することができる。このように、事前に第1編集処理及び第2編集処理の認識精度に対する影響が分からなくとも、第1編集処理及び第2編集処理のうち認識精度の改善への寄与が相対的に大きい編集処理がなされた編集済画像に基づいて生成されたテキストデータセットを利用することができる。
 図1bの例では、ユーザは、基準データセットL1と証憑画像V1~V3とをまとめてシステム(例えば、後述する監査支援システム1)にアップロードすることができる。その際に、基準データセットL1に含まれる3つの取引データのどれがどの証憑画像に対応するかを指定する必要はない。監査支援システム1は、上記のプロセスに従って、アップロードされた証憑画像の各々について基準データセットL1に含まれるデータ単位ことに(例えば、個々の取引ごとに)マッチングスコアを算出することができる。このようにして証憑画像の各々について基準データセットL1のデータ単位で算出されたマッチングスコアは、監査支援システム1において、例えば図2aに示されるデータ構造で記憶される。図2aは、基準データセットL1に含まれるデータ単位ごとに算出されたマッチングスコアのデータ構造の一例を示す。監査支援システム1は、基準データセットL1に含まれるどの取引がどの証憑画像に対応するかを判定するため、取引と証憑画像とをいわゆる総当たりでマッチングし、取引と証憑画像のペアごとにマッチングスコアを算出することで、マッチングスコアの高い対応関係を有するペアを特定することができる。図2aの例では、取引ID「1」の取引に注目すると、証憑画像V1の第2マッチングスコアが「0.9」で最大であることから、監査支援システム1は、取引ID「1」の取引に対応する証憑画像は証憑画像V1であると決定することができる。また、証憑画像V1の第1マッチングスコアと第2マッチングスコアとを比較すると第2マッチングスコアの方が大きいため、証憑画像V1の2つのテキストデータセットのうち突合において使用すべきテキストデータセットは第2テキストデータセットであると決定することができる。同様の判断ロジックで、取引ID「2」の取引に対応する証憑画像は、証憑画像V2であると決定され、取引ID「3」の取引に対応する証憑画像は、証憑画像V3であると決定される。
 本明細書に開示される幾つかの実施形態においては、元の画像に対して第1編集処理及び第2編集処理だけでなく、3種類以上の互いに異なる編集処理を行い、その編集処理が行われた3以上の編集済画像の各々に対してOCRを行って3以上のテキストデータセットを生成し、この3以上のテキストデータセットの各々と基準データセットとのマッチングを行ってもよい。元の画像に対して行う画像処理の種類を増やすことにより、より優れた認識精度を有するテキストデータセットを利用することができるようになる。
 次に、図3から図8を参照して、本明細書において開示される幾つかの実施形態が適用可能な監査支援システム1について説明する。図3に示されているように、監査支援システム1は、ユーザ装置10と、証憑にOCRを行って得られるテキストデータセットを利用して証憑突合の効率化を支援する監査支援装置20と、を備える。ユーザ装置10及び監査支援装置20は、ネットワーク40を介して互いとデータを送受信することができる。監査支援システム1は、ユーザ装置10及び監査支援装置20以外の装置を備えてもよい。例えば、監査支援システム1は、ユーザ装置10又は監査支援装置20によって実行されるべき処理を分散して処理するためのクラウド環境を備えていてもよい。
 監査支援システム1は、本明細書に開示される発明を適用可能なシステムの例である。本明細書に開示される発明のいくつかの実施形態は、証憑突合に適用できることは既に述べた通りであるが、証憑突合以外に画像にOCRを行って得られるテキストデータを当該画像に関連付けられた他のデータとマッチングする用途に広く適用することができる。
 監査支援装置20は、プロセッサ21、メモリ22、ユーザインタフェース23、通信インタフェース24、及びストレージ25を備えている。
 プロセッサ21は、ストレージ25又はそれ以外のストレージからオペレーティングシステムやそれ以外の様々なプログラムをメモリ22にロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。プロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。プロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。
 メモリ22は、プロセッサ21が実行する命令及びそれ以外の各種データを格納するために用いられる。メモリ22は、プロセッサ21が高速にアクセス可能な主記憶装置(メインメモリ)である。メモリ22は、例えば、DRAMやSRAM等のRAMによって構成される。
 ユーザインタフェース23は、ユーザの入力を受け付ける入力インタフェースと、プロセッサ21の制御により様々な情報を出力する出力インタフェースと、を備える。入力インタフェースは、例えば、音を電気信号に変換するマイクロフォンを含む。入力インタフェースは、キーボード、マウス等のポインティングデバイス、タッチパネル、又は前記以外のユーザの入力を入力可能な任意の情報入力装置である。出力インタフェースは、例えば、液晶ディスプレイ、表示パネル、又は前記以外のプロセッサ21の演算結果を出力可能な任意の情報出力装置である。
 通信インタフェース24は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。監査支援装置20は、通信インタフェース24を介して、ユーザ装置10を含む他の情報機器とデータを送受信することができる。
 ストレージ25は、プロセッサ21によりアクセスされる外部記憶装置である。ストレージ25は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。
 ユーザ装置10は、パーソナルコンピュータ(PC)、タブレット端末、スマートフォン、またはこれら以外の各種情報処理装置である。ユーザ装置10は、デスクトップPC、ラップトップPC、スマートフォン、又はこれら以外の情報処理装置である。ユーザ装置10は、不図示のプロセッサ、メモリ、ユーザインタフェース、通信インタフェース、及びストレージ(いずれも不図示)を備えることができる。ユーザ装置10のユーザとしては、監査人又はその補助者が想定されている。監査人は、ユーザ装置10を介して、監査支援装置20により生成される証憑画像と会計記録データとのマッチング結果を利用することができ、このマッチング結果を利用して証憑突合を効率良く行うことができる。
 続いて、監査支援装置20の機能及び監査支援装置20に記憶されるデータについて説明する。監査支援装置20は、ストレージ25に格納されているプログラムに含まれる命令及び必要に応じてそれ以外の命令を実行することにより、データ取得部21a、文字認識部21b、補正処理部21c、マッチング部21d、出力部21e、入力受付部21fとして機能する。
 ストレージ25には、証憑画像25a、会計記録データ25b、マッチング結果リスト25d、注釈付き画像25e、及びこれら以外のデータが記憶され得る。また、ストレージ25は、マッチング部21dにより算出されるマッチングスコアを格納するマッチングスコア領域25cを含むことができる。
 データ取得部21aは、ユーザ端末10又はそれ以外の装置又は媒体から証憑突合に使用する証憑の画像及び会計記録データを取得する。証憑の画像及び会計記録データは、監査対象の企業及び当該企業の取引先から取得することができる。証憑には、注文書、納品書、請求書、領収書、見積書、及びこれら以外の取引内容や取引条件が記載された様々な書類が含まれ得る。会計記録データは、企業の取引を記録した台帳(ledger)を構成するデータセットである。台帳は、例えば、会計帳簿である。会計帳簿には、仕訳帳、金銭出納帳、売掛金元帳、買掛金元帳、及びこれら以外の会計実務で用いられる各種の帳簿が含まれ得る。
 データ取得部21aは、取得した証憑の画像を証憑画像25aとしてストレージ25に保存することができる。証憑画像25aは、証憑画像25aを識別する証憑IDと対応付けてストレージ25に保存されてもよい。証憑画像25aは、構造の定義を有していない非構造化文書(Unstructured Document)であり、PDF形式で保存されてもよい。証憑画像25aは、証憑突合のために必要な数の証憑の画像を含むことができる。図6に証憑画像25aの一例である証憑画像25a1を示す。証憑画像25a1は、請求書の画像であり、具体的には、「X株式会社」から「株式会社Alpha」へ「PD0321-1101」という商品の販売代金として合計2250900円を請求する請求書の画像である。以下では、証憑画像25aに含まれる画像に関する説明を行う場合には、証憑画像25a1を例に取って説明を行う。証憑画像25a1に関する説明は、証憑画像25aとして記録されている他の証憑画像にも同様に当てはまり得る。
 会計記録データ25bは、証憑突合において証憑画像25a1に対応する証憑と付き合わされる会計記録を表す様々なデータを含むデータセットである。会計記録データ25bは、例えば、取引の台帳を構成するデータを含むデータセットである。会計記録データ25bは、図1a及び図1bに示されている基準データセットL1の一例である。会計記録データ25bは、各々が取引の内容(例えば、取引先、商品名、価格)を示すテキストデータを含む。これらの取引内容を示すテキストデータは、複数のフィールドに分けたデータ形式を有していてもよい。会計記録データ25bは、表計算ソフトが使用可能なデータ形式、例えばCSV形式で保存されてもよい。会計記録データ25bの一つのレコードが一つの取引に対応していてもよい。会計記録データ25bの各レコードは、複数のフィールドに分割されていてもよく、この複数のフィールドの各々に取引の内容を示すテキストデータが格納され得る。会計記録データ25bのレコードは、企業が行う多数の取引の中の一つの取引に対応する。データ取得部21aは、会計記録データ25bと複数の証憑画像とを取得するが、その際に会計記録データ25bに含まれる複数の取引データのうちどの取引データが複数の証憑画像のうちのどの証憑画像に対応するかを関連付ける情報を取得する必要はない。言い換えると、ユーザは、会計記録データ25bに含まれる複数の取引データと複数の証憑画像との関連付けの調査や指定を行う必要がないので、監査支援システム1により証憑突合の効率性が向上する。監査支援装置20は、会計記録データ25bの各レコードについて、当該レコードを、対応する取引の根拠となる証憑画像に関連付けることができる。例えば、会計記録データ25bに含まれる複数のレコードのうちの一つが、証憑画像25a1と関連付けられてもよい。監査支援装置20は、会計記録データ25bに含まれる複数のレコードのうち証憑画像25a1が対応する取引と対応するレコードに証憑画像25a1の証憑IDを対応付けて記憶することで、会計記録データ25bのレコードと証憑画像25a1とを関連付けてもよい。この関連付け情報は、監査支援装置20がユーザに提供する出力の一つであってもよい。
 証憑画像25a1の証憑IDは、会計記録データ25bに含まれる複数のレコードのうちの2以上のレコードと関連付けられてもよい。証憑は、2以上の取引の内容を示すことがあるので、かかる場合には、一つの証憑IDが会計記録データ25bの2つ以上のレコードと関連付けられる。例えば、2つの商品(例えば、商品Aと商品B)の請求を1通の請求書で行う場合があり、かかる場合には、1通の証憑(請求書)によって2つの商品に関する別個の取引内容が示されている。また、開発を請け負った情報処理システムを納品する場合の納品書や請求書には、当該情報処理システムを構成するハードウェアの取引及びソフトウェアの取引という別個の取引の内容が含まれる。このような場合に、会計記録データ25bの2つ以上のレコードに1つの証憑IDが関連付けられる。1つの証憑IDと会計記録データ25bの2つ以上のレコードとの関連付けについて、図2bを参照して具体的に説明する。図2bは、会計記録データ25bに含まれるデータ単位(レコード)ごとに算出されたマッチングスコアのデータ構造の一例を示している。監査支援装置20では、まずデータ取得部21aによって、取引ID「4」~「7」で識別される4つの取引データと3つの証憑画像V4~V6が取得される。監査支援装置20では、取得した会計記録データに含まれる取引データの数(4つ:取引ID4~7)と証憑画像V4~V6の数とが一致しないことから、2つ以上の取引に一つの証憑画像が対応づけられるべきであると判定する。次に監査支援装置20は、図2aに基づいて説明した手法と同様にして各取引IDで識別される取引と証憑画像との対応関係を決定する。図2bの場合、取引ID「4」及び取引ID「7」の両方について、証憑画像V4とのマッチングスコアが他の証憑画像とのマッチングスコアよりも大きいため、証憑画像V4は、取引ID「4」および取引ID「7」の両方に対応すると決定される。仮に取引データの数と証憑画像の数とが一致していたならば、この結果は否定され、各取引IDと証憑画像とは1対1に対応付けられる。しかしながら、取得した会計記録データに含まれる取引の数(レコード数)と取得した証憑画像の数とが一致しない場合には、1つの証憑画像と2つ以上の取引との関連付けは許容される。よって、図2bの例では、監査支援装置20は、会計記録データに含まれるの取引ID「4」および取引ID「7」で識別される2つの取引に1つの証憑画像V4を対応付けることができる。
 以下の説明において、会計記録データ25bは、「株式会社X」の取引記録を表すデータセットであることが想定される。よって、証憑画像25aは、株式会社Xとその取引先との取引内容を示す書類である。図6に示されている証憑画像25a1に記載されている(株)Alphaは、株式会社Xの取引先であることが想定されている。
 会計記録データ25bに含まれるテキストデータは、会計記録に誤りや改ざんがない限り、証憑画像25aに対してOCRを行うことで得られるテキストデータセットの信頼度を算出する際の基準(正解データ)となるため、本明細書において会計記録データ25bに含まれるテキストデータの各々を「基準テキスト要素」と呼ぶことがある。また、会計記録データ25bの一つのレコードに含まれている基準テキスト要素の組を「基準テキストセット」と呼ぶことがある。つまり、基準テキスト要素は、基準テキストセットの構成要素である。会計業務において会計記録として記録される様々なデータが基準テキスト要素となり得る。例えば、図1bに示されている基準データセットL1に含まれる「販売日」、「販売額」、及び「販売先」として格納されているデータの各々が基準テキスト要素の例である。
 文字認識部21bは、証憑画像25a1に複数種類の編集処理を行って複数の編集済画像を生成し、その複数の編集済画像の各々に対して光学文字認識(OCR)を行うことができる。図1aを参照して説明したように、証憑画像25a1に対しては3種類以上の互いに異なる編集処理を行うことができるが、以下では、説明の簡潔さのために、証憑画像25a1に対して2種類の互いに異なる編集処理、つまり、第1編集処理及び第2編集処理が行われる実施形態について説明する。第2編集処理は、第1編集処理と同じ画像に対する編集処理であるが第1編集処理とは異なる編集処理である。文字認識部21bは、証憑画像25a1に対して第1編集処理を行うことにより第1編集済画像を生成し、証憑画像25a1に対し第1編集処理と異なる第2編集処理を行うことにより第2編集済画像を生成することができる。文字認識部21bが証憑画像25a1に対して行う編集処理には、証憑画像25a1に対するOCRの認識精度を向上させるための様々な処理が含まれ得る。証憑画像25a1に対して3種類以上の編集処理が行われる場合には、2種類の編集処理に関する説明を、3種類目以降の編集処理にも適用することができる。
 OCRによる認識精度を向上させるための編集処理の具体例について説明する。OCRによる認識精度を向上させるための編集処理には、画像を90°、180°、又は270°だけ回転させる回転処理が含まれ得る。証憑画像25a1が上下反転している場合には、証憑画像25a1を180°回転させる回転処理を行うことによりOCRによる認識精度の向上が期待される。証憑をスキャナで取り込む際に、証憑が正しい姿勢から90°だけ時計回り又は反時計回りに回転した姿勢で読み込まれることがある。このように正しい姿勢から回転した姿勢で読み込まれた証憑画像25a1に対して90°だけ時計回り又は反時計回りに回転させる回転処理を行うことにより、同様にOCRによる認識精度の向上が期待される。
 OCRによる認識精度を向上させるための編集処理の別の例として、画像から罫線を削除する罫線削除処理がある。証憑画像25a1から罫線を削除することにより、OCRを行う際に罫線をテキストの一部と誤認することが防止できるので、罫線削除処理がなされた画像に対してOCRを行うと未加工の画像にOCRを行う場合よりも認識精度が向上することがある。証憑画像25a1は、「摘要」という文字の下方に表を含んでいる。文字認識部21bは、例えば、証憑画像25a1に含まれる表の縦方向の罫線及び横方向の罫線の少なくとも一部を削除する罫線削除処理を行うことができる。
 また、OCRによる認識精度を向上させるための編集処理には、画像に含まれる表及びその表内のセルを検出する表検出処理が含まれ得る。表やセルを検出することにより、表内又はセル内に記入されているひとまとまりのテキストの認識精度が向上することがある。文字認識部21bは、例えば、証憑画像25a1の「摘要」の下方にある表及びそのセルを検出する表検出処理を行うことができる。
 また、OCRによる認識精度を向上させるための編集処理には、画像内の字画(Characters)を含むテキスト領域を検出するテキスト領域検出処理を行うことができる。画像内に含まれる複数の字画をまとまりのある単位ごとにテキスト領域として検出することで、認識精度が向上することがある。テキスト領域検出処理には、画像に対するレイアウト解析が含まれ得る。文字認識部21bは、例えば、証憑画像25a1に含まれる「(株)Alpha」を含む領域を矩形の境界ボックスで囲むことにより、その境界ボックスの内側を一つのテキスト領域とすることができる。文字認識部21bは、証憑画像25a1に複数のテキスト領域を設定することができる。
 上述した編集処理はあくまで例示であり、本明細書に開示される発明に適用可能な編集処理は上記の処理には限られない。例えば、証憑画像25a1に適用可能な編集処理として、バイナリ画像への変換、グレースケール化、色の変更、及びこれら以外の公知の処理が含まれ得る。本明細書に開示される発明に適用可能な編集処理は、本明細書において明記されたものには限定されない。
 上記の通り、証憑画像25a1に対して行われる第1編集処理は、証憑画像25a1に対して行われる第2編集処理と異なっている。第1編集処理は、上記の又は上記以外の様々な編集処理のうちの一又は複数を含むことができる。同様に、第2編集処理は、上記の又は上記以外の様々な編集処理のうちの一又は複数を含むことができる。第1編集処理と第2編集処理とは、共通する編集処理を含んでいても良い。第1編集処理と第2編集処理とが共通する編集処理を含む場合には、第1編集処理及び第2編集処理の少なくとも一方は、その共通する編集処理以外に他方と異なる編集処理を含む。例えば、第1編集処理が罫線削除処理と、罫線削除処理済みの画像に対するテキスト領域検出処理と、を含み第2編集処理が表検出処理とテキスト領域検出処理を含む場合には、テキスト領域検出処理は、第1編集処理及び第2編集処理のいずれにも含まれているが、第1編集処理には第2編集処理に含まれていない罫線削除処理が含まれているので、第1編集処理と第2編集処理とは異なる編集処理となる。また、罫線を消してしまうと表検出は不可能となることから、罫線削除処理と表検出処理とは相反する編集処理の例である。このように、第1編集処理と第2編集処理とに互いに相反する2つの編集処理の一方、他方をそれぞれ含ませることで、処理態様の豊富化による文字検出精度の向上を図ることができる。表検出機能は、様々な表レイアウトに対して同等のパフォーマンスを発揮するとは限らない。表検出機能は、一部の表形式を高精度で検出することができる一方で、別の表形式を高精度で検出できないことがある。高精度で検出できないレイアウトの表を含む証憑画像に対しては、表検出機能を含む第2編集処理を行うと、OCRによる認識精度が十分に向上せず、したがってマッチングスコアが低く算出される可能性がある。この低いマッチングスコアを有するテキストデータセットしか得られないと、本来得られるべき証憑画像と取引との正しい対応関係を検出することができなくなる虞がある。この場合でも、表の罫線を削除してテキストとして検出する第1編集処理を行うことによりOCRによる認識精度を向上させることができ、したがってより高いマッチングスコアを有するテキストデータセットを得ることができる可能性がある。このように、互いに相反する2つの編集処理(上記の例では、罫線削除処理と表検出処理)を証憑画像に対して行い、その編集処理済の画像の各々にOCRを行うことで、より高いマッチングスコアを有するテキストデータセットを生成することができ、その結果、会計記録データ25bに含まれる取引と証憑画像との対応付けの精度を高めることができる。
 証憑画像25a1への編集処理のうち、回転処理は、証憑画像25a1に含まれる字画、レイアウト、表の有無とは無関係に認識精度の向上に寄与すると考えられる。本明細書においては、証憑画像25a1の内容(例えば、字画、レイアウト、表の有無)によらず汎用的に認識精度の向上に寄与する処理を、汎用編集処理と呼ぶことがある。証憑画像25a1が上下反転している場合や左右に90°倒れている場合に行われる90°単位での回転処理が汎用編集処理の例である。
 文字認識部21bは、上記のように証憑画像25a1に対して第1編集処理を行って生成された第1編集済画像及び証憑画像25a1に対して第2編集処理を行って生成された第2編集済画像の各々に対してOCRを行うことができる。以下では、説明の簡略化のために第1編集済画像に対するOCRについて説明するが、第1編集済画像に対する処理の説明は、第2編集済画像に対する処理にも適用することができる。第1編集済画像に対してOCRを行う場合には、文字認識部21bは、第1編集済画像においてテキスト領域を識別し、このテキスト領域ごとに文字認識を行うことで、テキスト領域の各々に含まれる字画をテキストデータに変換する。テキスト領域が設定された第1編集済画像及び第2編集済画像の少なくとも一方は、注釈付き画像25eとしてストレージ25に記憶されてもよい。注釈付き画像25eは、後述するマッチング結果の出力において利用され得る。
 本明細書においては、証憑画像25a1から生成された第1編集済画像のテキスト領域の各々に含まれる字画から識別されたテキストの組を第1テキストデータセットといい、各テキスト領域に含まれる字画を文字識別して得られたテキストを第1テキストデータセットの「認識テキスト要素」という。同様に、証憑画像25a1から生成された第2編集済画像のテキスト領域の各々に含まれる字画から識別されたテキストの組を第2テキストデータセットといい、各テキスト領域に含まれる識別されたテキストを第2テキストデータセットの「認識テキスト要素」という。
 第1編集済画像の各テキスト領域における文字認識は、常法に従って行われてもよい。例えば、テキスト領域に含まれる字画が正規化され、次に正規化された字画について特徴量が抽出される。そして、抽出された字画の特徴量が文字や数字等の標準パターンとマッチングされ、字画の特徴量と一致度が最も高い標準パターンがその字画の認識結果として出力される。例えば、図6の例においては、表内の各セルがテキスト領域として設定され、セル内に記載されている「PD0321-1101」、「5,002」等を認識することで得られるテキストが認識テキスト要素として出力される。表中の「商品名」の欄に含まれるセルに関しては、誤認識がなければ、表示されている「PD0321-1101」が認識テキスト要素として出力される。他方、先頭の「P」が「D」と誤認識されると、正しい「PD0321-1101」ではなく「DD0321-1101」が認識テキスト要素として出力される。文字認識部21bは、証憑画像25a1に含まれる複数のテキスト領域の全てについて文字認識を行ってもよいし、複数のテキスト領域のうち基準テキスト要素との比較に用いられることが想定される字画が含まれるテキスト領域についてのみ文字認識を行ってもよい。各テキスト領域の認識結果とともに、その認識結果の認識の信頼性(confidence)が出力されてもよい。上記のとおり、各テキスト領域における文字認識には誤認識の可能性がある。認識結果とともに出力される信頼性は、例えば、0~1の間の数値で表され、その数値によって出力された認識テキスト要素がどの程度信頼できるかを表すことができる。例えば、信頼性の数値が「1」に近いほど認識結果の信頼性が高い(誤っている可能性が低い)ことを意味してもよい。
 以上のようにして、文字認識部21bは、第1編集済画像に対してOCRを行うことにより第1テキストデータセットを生成し、第2編集済画像に対してOCRを行うことにより第2テキストデータセットを生成することができる。第1編集済画像及び第2編集済画像に対するOCRは、一般に利用可能なOCRエンジンを利用して行うことができる。OCRエンジンとして、例えば、フリーソフトウェアとして提供されているTesseractを用いることができる。Tesseractは、認識したテキストごとに、上述した信頼性(confidence)を出力することができる。
 補正処理部21cは、第1テキストデータセット及び第2テキストデータセットの認識テキスト要素の信頼性に応じて認識テキスト要素を補正することができる。補正処理部21cは、第1テキストデータセット及び第2テキストデータセットに含まれる認識テキスト要素の中から、補正対象とするテキストを補正データ抽出基準に従って抽出し、この基準によって抽出された認識テキスト要素に対して補正処理を行うことができる。補正データ抽出基準は、認識テキスト要素の文字数が2より大きく、信頼性が0.9より小さいという基準であってもよい。補正データ抽出基準に文字数の下限を設けるのは、文字数が短い認識テキスト要素については、日本語の助詞や英語の前置詞などであることが多く、後述する会計記録データ25bとのマッチングにおいて、会計記録データ25bの基準テキスト要素と比較する必要が小さいためである。会計記録データ25bの基準テキスト要素は、会計記録の一部であるから、日付、数量、商品名といった取引に関連のあるデータであることが想定され、2文字以下のテキストが会計記録の一部となっていることは少ないため、2文字以下の認識テキスト要素は、会計記録に対応していない文字と考えることができる。補正データ抽出基準は、会計記録データ25bに含まれる会計記録のデータフォーマットやそれ以外の要素に基づいて適宜変更され得る。
 補正処理部21cは、補正データ抽出基準を満たす認識テキスト要素に対して、その信頼性を高めるための補正処理を行うことができる。例えば、商品マスタDB、取引先一覧、会計の専門用語のリストを辞書として準備することにより、公知のSymsSpellアルゴリズムを用い、誤認識された認識テキスト要素を正しいテキストに修正することができる。例えば、図6に示されている証憑画像25a1において、「(株)Alpha」が「(株)Alpho」と誤認識された場合、SymsSpellアルゴリズムを用いることにより取引先DBから「(株)Alpha」を、誤認識された「(株)Alpho」を置換する補正候補として抽出することができる。補正対象の認識テキスト要素を辞書に含まれているテキストで置換した場合には、その置換後のテキストが補正された認識テキスト要素となる。このように辞書に登録されているテキストで置換する方法で補正された認識テキスト要素の信頼性は、「1」に変更されてもよい。
 補正処理部21cは、正規表現を使用して、認識テキスト要素に含まれる典型的な誤認識をまとめて補正してもよい。認識テキスト要素に含まれる典型的な誤認識には、例えば、以下のようなものがある。表の横方向の罫線が「-」(マイナス記号)の繰り返しと誤認識されることがある。この場合、正しくは「-」を含まない語が「-」を含む語として誤認識されることがある。例えば、正しくは「メモ」である文字が「----メモ-」と誤認識されることがある。日本語の文字を含む画像に対してOCRを行うと、意味をなさないアルファベットと数字の羅列(例えば、「2K29RM3S96GO020R2OCSKN」)が認識結果として現れることがある。また、画像が表を含む場合、表の縦の罫線が「|」の記号と誤認識されることがある。これらの場合、正規表現を用いて誤って挿入されている文字や記号を削除することで、認識テキスト要素の信頼性を向上させることができる。
 日本語の画像に対してOCRを行うと、元の画像にはない同じ文字の繰り返しが認識結果として出力されることがある。例えば、画像では「コ」が1度だけ記載されているにもかかわらず、「ココココ」のように画像中の文字が繰り返し認識されるという誤認識が起こることがある。「,」(カンマ)が誤って「.」と認識されることがある。「,」が二重に認識され、その結果、認識結果が「,,」となってしまうことがある。これらに対しては、正規表現を用いて、誤認識されている文字を正しい文字に置換したり、重複しているテキストを削除する補正処理を行うことで、認識テキスト要素の信頼性を向上させることができる。
 補正部21cは、補正データ抽出基準を満たした(つまり、誤認識の可能性が高い)認識テキスト要素について、認識テキスト要素と類似する語を会計記録データ25bから曖昧検索により抽出し、この会計記録データ25bから抽出された語で補正データ抽出基準を満たした認識テキスト要素を置換することができる。再び「(株)Alpha」が「(株)Alpho」と誤認識された例を用いると、「(株)Alpha」は「株式会社X」の取引先であるから正しい「(株)Alpha」が会計記録データ25bに含まれている可能性が高い。そこで、会計記録データ25bに対して誤認識された「(株)Alpho」と類似する語を曖昧検索により抽出し、曖昧検索により抽出された「(株)Alpha」で誤認識された「(株)Alpho」を置換することにより誤認識を補正することができる。曖昧検索は、会計記録データ25bに含まれるテキストの中から、検索キー(つまり、誤認識されている認識テキスト要素)と所定のレーベンシュタイン距離以内にあるテキストを選択することで行われてもよい。つまり、この所定のレーベンシュタイン距離は、曖昧検索のしきい値として機能する。曖昧検索のしきい値は、会計記録データ25bに保持されているテキストの性質等に応じて随時変更され得る。
 補正部21cによる補正処理を行わなくともマッチング部21dによるマッチングを行うことができる場合には、補正部21cの機能は省略されてもよい。
 マッチング部21dは、会計記録データ25bに含まれる各レコードの基準テキストセットを、文字認識部21bにより証憑画像25a1に基づいて生成された第1テキストデータセット(補正部21cにより補正処理が行われた場合には補正処理後の第1テキストデータセット)と比較することで、当該基準テキストセットと第1テキストデータセットとのマッチングまたは一致の度合いを表す第1マッチングスコアを算出することができる。マッチング部21dは、算出された第1マッチングスコアをマッチングスコア領域25cに格納することができる。マッチング部21dは第2テキストデータセットについても同様に第2マッチングスコアを算出し、算出した第2マッチングスコアをマッチングスコア領域25cに格納することができる。マッチング部21dは、データ取得部が取得した証憑画像のそれぞれについて上記の第1マッチングスコア及び第2マッチングスコアの算出および格納を実行することができる。マッチング部21dは、このようにして算出された第1マッチングスコア及び第2マッチングスコアをマッチングスコア領域25cに格納する。図2a及び図2bに示されているテーブルは、マッチング部21dによって算出されマッチングスコア領域25cに格納されている第1マッチングスコア及び第2マッチングスコアの例である。
 マッチング部21dは、例えば、会計記録データ25bに含まれる各レコードに含まれる基準テキスト要素の各々について、証憑画像25a1に対してOCRを行って得られた第1テキストデータセットに含まれる認識テキスト要素の各々との間でのレーベンシュタイン距離を算出し、その算出した値のうち最も小さな値を各基準テキスト要素についての個別のレーベンシュタイン距離の値として採用することができる。具体的には、会計記録データ25bがX株式会社の売上帳であり、当該売上帳には、X株式会社が販売した商品名、販売先、販売数量、及び販売金額が基準テキスト要素として含まれている場合には、マッチング部21dは、会計記録データ25bに含まれる各レコードに含まれる基準テキスト要素の各々、すなわち、販売先、商品名、販売数量、及び販売金額の各々と、第1テキストデータセットに含まれる認識テキスト要素の各々との間でのレーベンシュタイン距離を算出する。会計記録データ25bのあるレコードAにおいて、販売した商品名が、「PD0321-1101」と記録されているとする。この「PD0321-1101」と、証憑画像25a1に基づいて生成された第1テキストデータセットに含まれる各認識テキスト要素とを比較すると、証憑画像25a1に含まれている「PD0321-1101」の文字が正しく認識されて認識テキスト要素として出力された場合には、会計記録データ25bのレコードAに商品名を表す基準テキスト要素として含まれている「PD0321-1101」と、第1テキストデータセットに認識テキスト要素として含まれている「PD0321-1101」とは一致し、そのレーベンシュタイン距離は「0」(一致)となる。証憑画像25a1に含まれている「PD0321-1101」の文字が誤って「DD0321-1101」と認識された場合には、基準テキスト要素として含まれている「PD0321-1101」と第1テキストデータセットに認識テキスト要素として含まれている「DD0321-1101」とのレーベンシュタイン距離は、「1」よりも1文字の相違を反映した大きな値となる。基準テキスト要素として含まれている「PD0321-1101」については、第1テキストデータセットに含まれる上記の商品名を表す認識テキスト要素以外の認識テキスト要素との間でもレーベンシュタイン距離の算出が行われるが、商品名を表す認識テキスト要素以外の認識テキスト要素は、商品名とは関係の小さな数字や日付に対応するテキストであるため、商品名を表す基準テキスト要素と商品名以外に対応する認識テキスト要素との間のレーベンシュタイン距離は、商品名に対応する認識テキスト要素との間のレーベンシュタイン距離よりも大きくなる。このようにして、商品名を表す基準テキスト要素と商品名に対応する認識テキスト要素との間のレーベンシュタイン距離が、当該商品名を表す基準テキスト要素の個別のレーベンシュタイン距離として採用される。このレーベンシュタイン距離の算出を、会計記録データ25bに含まれる各レコードに含まれる基準テキスト要素の各々について行うことで、会計記録データ25bに含まれる各レコードに含まれる基準テキスト要素の各々について、個別のレーベンシュタイン距離が算出される。会計記録データ25bに含まれるあるレコードについては、当該レコードの基準テキスト要素の各々について算出される個別のレーベンシュタイン距離を当該レコードの基準テキスト要素の各々について合算した合計、または、当該レコードの基準テキスト要素の各々について算出される個別のレーベンシュタイン距離の平均値を0~1の範囲の値に正規化し、1からこの正規化された値を引いた値を、当該レコードの基準データセットと証憑画像25a1の第1編集済画像に基づいて生成された第1テキストデータセットとのマッチングの度合いを表す第1マッチングスコアとすることができる。
 以上のように、一つの例においては、会計記録データ25bに含まれる各レコードの基準データセットを構成する基準テキスト要素の各々について、第1テキストデータセットを構成する認識テキスト要素のうち各基準テキスト要素に対応するものとの個別のレーベンシュタイン距離を算出し、この個別のレーベンシュタイン距離に基づいて、各レコードの基準データセットと証憑画像25a1の第1編集済画像に基づいて生成された第1テキストデータセットとのマッチングの度合いを表す第1マッチングスコアを算出することができる。会計記録データ25bに含まれる各レコードの基準データセットと、証憑画像25a1の第2編集済画像に基づいて生成された第2テキストデータセットとのマッチングの度合いを表す第2マッチングスコアについても、第1マッチングスコアと同様の方法で算出され得る。
 第1マッチングスコア及び第2マッチングスコアの算出方法は、上記の方法には限られない。第1マッチングスコアとして、会計記録データ25bに含まれる各レコードの基準データセットと、証憑画像25a1の第1編集済画像に基づいて生成された第1テキストデータセットとのマッチングの度合いを表す任意の値を用いることができる。第2マッチングスコアについても同様である。
 マッチング部21dは、上記のようにして算出された第1マッチングスコア及び第2マッチングスコアに基づいて、第1テキストデータセット又は第2テキストデータセットのいずれかを適合テキストデータセットとして選択する。具体的には、マッチング部21dは、第1マッチングスコアが第2マッチングスコアよりも大きい場合には、第1テキストデータセットを適合テキストデータセットとして選択し、他方、第2マッチングスコアが第1マッチングスコアよりも大きい場合には、第2テキストデータセットを適合テキストデータセットとして選択することができる。より具体的には、マッチング部21dは、マッチングスコア領域25cを参照し、会計記録データ25bに含まれるあるレコード(取引)について最大のマッチングスコアを与える証憑画像を特定することができる。また、マッチング部21dは、あるレコードについて特定された証憑画像に関して算出されている第1マッチングスコア及び第2マッチングスコアのどちらがその最大のマッチングスコアを与えるかを特定する。マッチング部21dは、あるレコードについて最大のマッチングスコアを与える証憑画像の証憑IDを、当該レコード(取引)の取引IDに対応付けてマッチング結果リストに登録することができる。これにより、取引と証憑画像との対応付けが得られる。さらに、マッチング部21dは、ある取引と対応付けられた証憑画像について算出されている複数のマッチングスコアのうち、最大のマッチングスコアを与えるものとして特定された方のマッチングスコアに対応するテキストデータセットを適合テキストデータセットとして選択する。あるいはまた、マッチング部21dはレコードと証憑画像との組み合わせごとに算出されている第1マッチングスコアと第2マッチングスコアとをまず比較し、大きい方を当該レコードと当該証憑画像とのマッチングスコアとして特定してもよい。このようにして、マッチング部21dは、第1テキストデータセットと第2テキストデータセットのうち、基準テキストセットとの一致度が高い(よって、信頼性が高い)方を適合テキストデータセットとして選択することができる。
 出力部21eは、第1テキストデータセット及び第2テキストデータセットのうち適合データセットとして選択された方のテキストデータセットに基づいてマッチング結果を生成する。例えば、出力部21eは、適合データセットとして選択されたテキストデータセットに含まれる認識テキスト要素の各々について、各認識テキスト要素が会計記録データ25bに含まれる基準テキスト要素のうち対応するものと一致するか否かを判定することができる。マッチング結果には、適合データセットとして選択されたテキストデータセットに含まれる認識テキスト要素の各々について、各認識テキスト要素が会計記録データ25bに含まれる基準テキスト要素のうち対応するものと一致するか否かを示すフラグを含むことができる。
 マッチング結果は、ユーザ装置10に送信され、ユーザ装置10においてディスプレイに表示される。図8に、ディスプレイに表示されたマッチング結果を示すマッチング結果ビュー30の一例を示す。図8に示されているように、マッチング結果ビュー30は、注釈が付けられた証憑画像25a1を表す第1ビュー30aと、基準テキスト要素の各々が適合テキストデータセットに含まれる認識テキスト要素と対応付けて表示される第2ビュー30bと、を含む。
 第1ビュー30aには、証憑画像25a1に、証憑画像25a1の編集済画像に対してOCRを行う際に設定されたテキスト領域A0~A10を画定する境界ボックスが注釈として付加されている。このテキスト領域A0~A10に含まれる字画を文字認識することで得られた認識テキスト要素の一部が第2ビュー30bの認識テキスト表示領域32a~32dに表示されている。テキスト領域A0~A10を囲む境界ボックスは、証憑画像25a1に付加される注釈の例である。境界ボックス以外にも、証憑画像25a1に対する各種処理において証憑画像25a1に関して抽出された情報を注釈として付加することができる。例えば、境界ボックスの近傍に、その境界ボックスに囲まれているテキスト領域のデータ種別を表示してもよい。例えば、証憑画像25a1が監査人の母語以外の言語による字画を含む場合、その字画を含むテキスト領域の近傍に、当該字画の訳語を表示してもよい。第1ビュー30aは、ストレージ25に保存されている注釈付き画像25eのうち証憑画像25a1に対応する注釈付き画像を読み出すことにより、マッチング結果ビュー30の一部に表示され得る。
 第2ビュー30bは、基準テキスト要素を表示するための4つの基準テキスト表示領域31a~31dを含んでいる。例えば、基準テキスト表示領域31aには、会計記録データ25bの証憑画像25a1に対応するレコードにおいて、請求書番号を格納するためのフィールドに格納されている基準テキスト要素が表示される。会計記録データ25bにおいては、請求書番号を格納するためのフィールドに請求書番号として「A1101」が格納されているので、基準テキスト表示領域31aには、基準テキスト要素「A1101」が表示されている。同様に、基準テキスト表示領域31b~31dの各々には、会計記録データ25bの証憑画像25a1に対応するレコードにおいて、納品日、商品名、取引先を格納するためのフィールドに格納されている基準テキスト要素がそれぞれ表示されている。第2ビュー30bには、上位以外の基準テキスト要素を表示するための表示領域が含まれてもよい。
 第2ビュー30bにおいて、基準テキスト表示領域31a~31dの各々の直下には、証憑画像25a1の適合テキストデータセットに含まれている認識テキスト要素を表示するための認識テキスト表示領域32a~32dがそれぞれ配置されている。認識テキスト表示領域32aには、証憑画像25a1においてテキスト領域A1として示されている領域に含まれている字画をOCRで認識することにより生成された認識テキスト要素「A1101」が表示されている。テキスト領域A1に含まれている字画は、OCRによって正しく「A1101」と認識されたため、認識テキスト表示領域32aに表示されている認識テキスト要素は、基準テキスト表示領域31aに表示されている基準テキスト要素と一致している。
 基準テキスト表示領域31a及び認識テキスト表示領域32aの右側には、基準テキスト表示領域31aに表示されている基準テキスト要素と認識テキスト表示領域32aに表示されている認識テキスト要素とが一致するか否かを示す一致フラグ33aが表示されている。図示の例においては、認識テキスト表示領域32aに表示されている認識テキスト要素が基準テキスト表示領域31aに表示されている基準テキスト要素と一致しているため、一致フラグ33aは、両者が一致していることを示すように表示されている。一致フラグ33dも認識テキスト表示領域32dに表示されている認識テキスト要素が基準テキスト表示領域31dに表示されている基準テキスト要素と一致していることを示している。
 基準テキスト表示領域31b及び認識テキスト表示領域32bの右側には、基準テキスト表示領域31bに表示されている基準テキスト要素と認識テキスト表示領域32bに表示されている認識テキスト要素とが一致するか否かを示す一致フラグ33bが表示されている。図示の例においては、認識テキスト表示領域32bに表示されている認識テキスト要素が、基準テキスト表示領域31bに表示されている基準テキスト要素と一致していないため、一致フラグ33bは、両者が不一致であることを示すように表示されている。図示の例においては、会計記録データ25bの納品日を格納するフィールドに格納された納品日を表すテキストが「2020年1月1日」であるため、基準テキスト表示領域31bには、この「2020年1月1日」が表示されている。他方、認識テキスト表示領域32bには、証憑画像25a1においてテキスト領域A3として示されている領域に含まれている字画をOCRで認識することにより生成された認識テキスト要素「2020年1月7日」が表示されている。このように、証憑画像25a1においてテキスト領域A3に含まれている字画については誤認識が発生しているため、認識テキスト表示領域32bに表示されている認識テキスト要素「2020年1月7日」は、基準テキスト表示領域31bに表示されている基準テキスト要素「2020年1月1日」と一致していない。このマッチング結果のビュー30を見て証憑突合を行うユーザは、まず一致フラグ33bを見ることにより、会計記録データ25bと証憑画像25a1との間に一致しない項目があることを把握することができる。そして、一致フラグ33bの近傍(左側)に配置されている基準テキスト表示領域31b及び認識テキスト表示領域32bを見ることにより、両者がどのように不一致なのかを確認することができる。ユーザはさらに、ビュー30aの納品日に対応する項目を見ることで、証憑画像25a1においては納品日が正しく「2020年1月1日」と記されていることを確認することができる。このような確認を行うことにより、ユーザは、納品日に対応する認識テキスト要素の生成時に誤認識が発生しており、認識テキスト表示領域32bには誤認識されたテキストが表示されていることを確認することができる。入力受付部21fは、認識テキスト表示領域32bにおいて誤って表示されているテキストの訂正入力をユーザから受け付けることができる。ユーザは、ユーザ装置10の入力インタフェース(例えば、キーボードやマウス)を用いて、認識テキスト表示領域32に表示されているテキストを正しい値である「2020年1月1日」に修正し、その後に確認ボタン34bを選択することができる。または、認識テキスト表示領域32に表示されているテキストを修正せずに、証憑画像25a1に記載されている納品日と、基準テキスト表示領域31bに表示されている納品日とが一致していることを確認したことに応じて、確認ボタン34bに対して選択操作を行ってもよい。監査支援システム1は、証憑突合の効率化を支援するためのシステムなので、必ずしも認識テキスト要素の誤りの修正までは必要とされない。
 図示の例においては、一致フラグ33cも不一致の判定結果を示している。基準テキスト表示領域31cに表示されている基準テキスト要素である「PD321-1001」が認識テキスト表示領域32bに表示されている認識テキスト要素「DD321-1001」とが一致していないためである。ユーザは、一致フラグ33bに関する説明と同様に、第1ビュー30aの商品名に対応する項目を確認することで、証憑画像25a1においては商品名が正しく「PD321-1001」と記されていることを確認することができる。
 以上のように、マッチング結果を示すビュー30においては、認識テキスト要素が対応する基準テキスト要素と一致していない項目が、一致フラグ33aによって視覚的に特定可能なように表示される。したがって、ユーザは、証憑画像25a1と会計記録データ25bに含まれるデータとを項目ごとに全て確認する必要がなく、一致フラグ33aによって不一致であることが示されているデータ項目について証憑画像25a1と会計記録データ25bとの間でのデータの整合性を確認することで証憑突合を行うことができるので、証憑突合を効率良く行うことができる。つまり、証憑画像25a1に編集処理及びOCRを行うことによって生成されたテキストデータセットと会計記録データ25bのうち証憑画像25a1に対応するレコードとのマッチングが行われ、そのマッチングにより証憑画像25a1と会計記録データ25bとの間で対応するデータが一致している項目については整合性の確認が自動的に完了している。よって、ユーザは、一致フラグ33aによって証憑画像25a1と会計記録データ25bとの間で不整合があることが示された項目についてのみ、その不整合がOCRの誤認識に起因するものなのか、証憑画像25a1に対応する証憑や会計記録データ25bに誤りが存在することに起因するものなのかを確かめればよい。これにより証憑突合の作業負荷を軽減することができる。
 さらに、マッチング結果のビュー30には、一致フラグ33a~33dを含む第2ビュー30bだけでなく、注釈が付された証憑画像25a1を含む第1ビュー30aも表示されるので、ユーザは、一致フラグ33a~33のいずれかが不一致を示す場合に、その不一致とされたデータ項目の証憑画像25a1における記載内容を、別ファイルにアクセスすることなく確認することができる。これにより、証憑突合作業のさらなる効率化が図られている。また、第1ビュー30aに含まれる証憑画像25a1には、OCRを行う際に設定されたテキスト領域A0~A10を示す境界ボックスが注釈として付加されている。よって、ユーザは、不一致のデータ項目があった場合でも、証憑画像25a1の全体を見る必要がなく境界ボックスが付された領域のみを確認すればよい。
 一態様において、出力部21eは、一致フラグ33a~33dのうち不一致を示している一致フラグに対応するデータ項目を指し示している境界ボックスを強調表示してもよい。図示の例においては、不一致を示している一致フラグ33bに対応する納品日に対応するテキスト領域A3を囲む境界ボックス及び一致フラグ33cに対応する商品名に対応するテキスト領域A4を囲む境界ボックスを強調表示してもよい。境界ボックスの強調表示は、境界ボックスの色や太さを変更することにより行ってもよい。境界ボックスの強調表示の具体的な態様は、本明細書に明示されたものには限定されない。
 OCRにより生成されたテキストデータセットと会計記録データ25bに含まれる基準テキスト要素とが一致するか否かを判断する際には、2種類の異なる編集処理により編集された編集済画像に基づいて生成された第1テキストデータセット及び第2テキストデータセットのうち、会計記録データ25bにおける関連レコードの基準テキストセットとマッチングした際のマッチングスコアが高い方を適合テキストデータセットとして選択し、この適合テキストデータセットが一致・不一致の判定に用いられている。このように、証憑画像25a1に対する2系統の編集処理を経て生成されたテキストデータセットのうち認識精度の高い方が、基準テキストセットに含まれる基準テキスト要素との一致判定に用いられているので、OCRの誤認識により不一致と判定される頻度を下げることができる。これにより、証憑突合においてユーザが確認すべきデータ項目の数を減らすことができるので、証憑突合の効率をさらに向上させることができる。
 続いて、図4を参照して、監査支援システム1において実行される証憑突合を効率化するためのマッチング処理の流れについて説明する。まず、ステップS1において、証憑突合に使用する複数の証憑の画像、及び、会計記録データが取得される。証憑突合に使用する複数の証憑の画像及び会計記録データは、例えば、監査対象企業及びその取引先から一括して又は随時取得される。図4に示されている例では、証憑画像25a1に対して行われる処理を例に説明する。
 次に、取得された証憑画像に対して、OCRの認識精度を向上させるための前処理として、2種類以上の編集処理が行われる。図示のように、この編集処理工程は、共通編集処理を行うステップS2と、共通編集処理S2の実行後に個別編集処理を行う工程S3a、S3bとの二段階に分けることができる。共通編集処理は、例えば、画像の種類やレイアウトによらず、OCRの認識精度の向上に寄与すると考えられる処理であり、具体的には、画像を90°単位で回転させる回転処理であってもよい。例えば、証憑画像25a1が上下反転している場合には、工程S2において、証憑画像25a1を180°回転させる処理が行われる。次に、共通編集処理が行われた証憑画像25a1に対して、工程S3aにおいて第1編集処理が行われ、工程S3bにおいて第2編集処理が行われる。記述のとおり、第2編集処理は、第1編集処理と異なる種類の編集処理である。個別編集処理の例として、記述の罫線削除処理、表検出処理、テキスト領域検出処理、バイナリ画像への変換処理、グレースケール化処理、色の変更処理、これら以外の画像の編集処理、及びこれらの組み合わせが挙げられる。工程S2における編集処理と工程S3aにおける編集処理とを合わせて第1編集処理とすることができ、工程S2における編集処理と工程S3bにおける編集処理とを合わせて第2編集処理とすることができる。証憑画像25a1に対して第1編集処理を行うことで第1編集済画像が生成され、証憑画像25a1に対して第2編集処理を行うことで第2編集済画像が生成される。工程S2と、工程S3a、S3bとの順序は入れ替わっても良い。
 次に、工程S4aにおいて、第1編集済画像に対してOCRが行われ、第1テキストデータセットが生成される。また、工程S4bにおいて、第2編集済画像に対してOCRが行われ、第2テキストデータセットが生成される。工程S4aにおいては、工程S3aにおいて生成された第1編集済画像において各々が字画を含むようにテキスト領域が設定され、このテキスト領域ごとに文字認識が行われる。よって、第1テキストデータセットは、第1編集済画像のテキスト領域の各々に含まれる字画を文字識別して得られたテキスト(認識テキスト要素)により構成される。工程S4bにおいては、工程S3bにおいて生成された第2編集済画像において各々が字画を含むようにテキスト領域が設定され、このテキスト領域ごとに文字認識が行われる。よって、第2テキストデータセットは、第2編集済画像のテキスト領域の各々に含まれる字画を文字識別して得られたテキスト(認識テキスト要素)により構成される。工程S4a及び工程4bにおいて各テキスト領域において行われる文字認識の結果には、その認識結果の認識の信頼性(confidence)が付加されていてもよい。ステップS2、S3a、S3bにおける編集処理及びステップS4a、S4bにおけるOCRは、例えば、上記の文字認識部21bにより行われてもよい。
 次に、工程S5aにおいて、工程S4aで生成された第1テキストデータセットに含まれる認識テキスト要素の少なくとも一部に対して、その信頼性を向上させるための補正処理が行われ、工程S5bにおいて、工程S4bで生成された第2テキストデータセットに含まれる認識テキスト要素の少なくとも一部に対して、その信頼性を向上させるための補正処理が行われる。補正処理は、例えば、図5に示すフローに従って実行されてもよい。図5は、第1テキストデータセット又は第2テキストデータセットに対して行われる補正処理の流れの一例を示すフロー図である。第1テキストデータセットに対する補正処理と第2テキストデータセットに対する補正処理は同様に行われ得るため、以下の説明では、第1テキストデータセットに含まれる認識テキスト要素に補正処理を行うことが想定される。
 図5に示されているように、補正処理を行う場合には、ステップS11において、第1テキストデータセットに含まれる複数の認識テキスト要素のうち補正処理が必要なものが補正データ抽出基準に従って抽出される。補正データ抽出基準は、認識テキスト要素の文字数が2より大きく、信頼性が0.9より小さいという基準であってもよい。次に、ステップS12において、会計記録データ25bを参照して第1補正処理が行われる。第1補正処理は、認識テキスト要素と類似する語を会計記録データ25bから曖昧検索により抽出し、この会計記録データ25bから抽出された語で認識テキスト要素を置換する曖昧検索処理であってもよい。次に、ステップS13において、会計記録データ25bを用いない補正処理が行われる。ステップS13における補正処理は省略されてもよい。ステップS13において行われる補正処理は、例えば、SymsSpellアルゴリズム及び辞書を用いた補正処理であってもよい。上記以外に、補正処理としては、認識テキスト要素の信頼性を向上させることができる任意の処理を用いることができる。ステップS5a、S5bにおける補正処理は、例えば、上記の補正処理部21cにより行われてもよい。工程S5a、S5bは、適宜省略することができる。例えば、工程S4a、S4bにおいて生成される第1テキストデータセット及び第2テキストデータセットに含まれる認識テキスト要素の信頼性が十分に高い場合には補正処理を省略してもよい。その他の理由で補正処理を省略することもできる。
 次に、工程S6において、会計記録データ25bに含まれる各レコードの基準テキストセットを、工程S4aにおいて生成された第1テキストデータセット及び工程S4bにおいて生成された第2テキストデータセットとそれぞれ比較することで、当該基準テキストセットと第1テキストデータセットとのマッチングの度合いを表す第1マッチングスコア及び当該基準テキストセットと第2テキストデータセットとのマッチングの度合いを示す第2マッチングスコアが算出される。工程S6では、第1マッチングスコアと第2マッチングスコアとが比較され、第1マッチングスコアと第2マッチングスコアのうちのいずれが大きいかが判定され、大きい方のマッチングスコアを選択する。この選択されたマッチングスコアを選択マッチングスコアと呼ぶ。
 以上の工程S2から工程S6における処理が、工程S1で取得された複数の証憑画像のそれぞれについて行われる。これにより、図2aや図2bに示されているように、複数の証憑画像の各々について、会計記録データ25bのレコードごとに、第1マッチングスコア及び第2マッチングスコアが算出され、各証憑画像について第1マッチングスコア及び第2マッチングスコアのうち大きい方が選択マッチングスコアとして選択される。このように、会計記録データに含まれる各レコードについて複数の証憑画像の各々について特定された選択マッチングスコアを比較し、最大の選択マッチングスコアを与える証憑画像が、当該レコードに対応する証憑画像として特定される。このようにして複数の証憑画像の中から、会計記録データ25bのあるレコードに対応すると判定された証憑画像を「選択証憑画像」と呼ぶ。工程S6においては、選択証憑画像について生成されている第1テキストデータセット及び第2テキストデータセットのうち、選択マッチングスコアと対応している方のデータセットを適合テキストデータセットとして特定される。ステップS6におけるマッチング処理は、例えば、上記のマッチング部21dにより行われてもよい。
 次に、ステップS7において、第1テキストデータセット及び第2テキストデータセットのうち適合データセットとして選択された方のテキストデータセットに基づいてマッチング結果が生成される。マッチング結果として、例えば、図8に示される第1ビュー30a及び第2ビュー30bを含むマッチング結果のビュー30が生成される。ステップS7におけるマッチング結果の生成及び出力に関する処理は、例えば、上記の出力部21eにより行われてもよい。
 以上のようにして、証憑画像25a1に2種類の編集処理を行って生成された2種類の編集済画像にOCRを行って得られた2種類のテキストデータセットのうち、基準テキストセットとのマッチングスコアが高い適合テキストデータセットに含まれる認識テキスト要素と会計記録データ25bに含まれる基準テキストセットに含まれる基準テキスト要素とのマッチング結果が生成され、このマッチング結果のビュー30がユーザ装置10において表示される。ユーザ装置10のユーザは、このマッチング結果のビュー30を利用して効率良く証憑突合を行うことができる。
 監査対象企業の取引規模に応じて、証憑画像25aとして含まれる証憑画像のファイル数は多くなる。大量の証憑画像に上記のマッチング処理を適用することにより、取引と証憑画像との対応付けが自動化されるので証憑突合作業の効率化のメリットを大きくすることができる。図7に、複数の証憑画像に対して上記のマッチング処理を行ったマッチング結果のリスト形式での表示例を示す。図7の表において、各エントリは会計記録データのレコード(取引)に対応する。各エントリにおいて「画像へのリンク」で対応付けられている証憑画像は、マッチング部21dによって当該エントリに対応するレコードに関連すると判定された証憑画像(つまり、選択証憑画像)である。図7の表において、#1の行に記録されているレコードが、図8に表示されているマッチング結果に対応する。図8のビューでは、請求書番号、納品日、商品名、顧客名についてのみ、証憑画像25a1の編集済画像にOCRを行って得られたテキストデータセットに含まれる認識テキスト要素と、会計記録データ25bに含まれる証憑画像25a1に関連すると判定されたレコードの基準テキスト要素とのマッチング結果が示されているが、他の認識テキスト要素(例えば、単価、金額、税額)についても基準テキスト要素とのマッチング結果を生成し、このマッチング結果が第2ビュー30bの一部として表示されてもよい。例えば、図8に示されている第2ビュー30bを下方にスクロールすることで、単価等の図8の例に示されていないデータ項目に対応するマッチング結果を表示できるようにしてもよい。
 図7に示されているマッチング結果リスト25dの#2~#4のレコードには、証憑画像25a1とは別の証憑画像が関連付けられている。図示されているように、#2~#4のレコードについても、#1のレコードと同様に、各証憑画像の編集済画像にOCRを行って得られたテキストデータセットに含まれる認識テキスト要素と、会計記録データ25bに含まれる各証憑画像に関連するレコードの基準テキスト要素とのマッチング結果が示されている。#2及び#3のレコードにおいては、全てのデータ項目について一致と判定されている。#4のレコードにおいては、納品日のデータ項目について不一致と判定され、それ以外のデータ項目について一致と判定されている。
 図9に図1bの変形例を示す。図1bにおいては、証憑画像V1が会計記録データL11にのみ関連付けられていたが、図9に示されているように、証憑画像V1は、会計記録データL11に加えて会計記録データL12(に含まれるレコード)にも関連付けられてもよい。証憑画像V1は、3種類以上の会計記録データに関連付けられていてもよい。また、証憑画像V2、V3も2種類以上の会計データに関連付けられていてもよい。
 次に、図10及び図11を参照して別の実施形態による監査支援システム1を説明する。図10は、本発明の別の実施形態における監査支援システム1において用いられる証憑画像125a1を模式的に示し、図11は、文字認識部21bによって生成される第1テキストデータセット及び第2テキストデータセットを構成する認識テキスト要素のデータ構造の例を示す。証憑画像25a1と同様に、証憑画像125a1に対しても第1編集処理及び第2編集処理が行われるが、説明の簡潔さのために、証憑画像125a1から生成された第1編集済画像に関する処理について説明し、第2編集済画像に関する説明は省略する。第2編集済画像に対しても、第1編集済画像に対する説明が適用され得る。
 図10に示されているように、証憑画像125a1においては、テキスト領域A11に含まれている請求書番号を示す数字「500」が、別のテキスト領域A12に含まれている数量を示す数字「500」と偶然に一致している。会計記録データ25bの証憑画像125a1に関連するレコードに基準テキスト要素として「500」という数字が含まれている場合、文字認識部21bにおいてテキスト領域A11の「500」とテキスト領域A12の「500」が両方とも正しく「500」と文字認識されると、会計記録データ25bに含まれている請求書番号を示すデータ「500」及び数量を示す「500」を、テキスト領域A11における文字認識により得られた「500」及びテキスト領域A12における文字認識により得られた「500」のいずれと比較すべきかを決定することができない。
 そこで、文字認識部21bは、第1編集済画像においてテキスト領域を識別し、このテキスト領域ごとに文字認識を行う際に、各テキスト領域に含まれる字画に基づいて認識されたテキストデータにテキスト領域ごとに固有のデータ種別を付与する。例えば、文字認識部21bは、テキスト領域A11に含まれている字画から「500」のテキストを認識した際にこの「500」のテキストに対してこのテキスト領域A11に固有のデータ種別を付与し、同様に、テキスト領域A12に含まれている字画から「500」のテキストを認識した際にこの「500」のテキストに対してこのテキスト領域A12に固有のデータ種別を付与する。これにより、証憑画像125a1の第1編集済画像において認識される「500」という2つのテキストを互いから区別することができる。例えば、テキスト領域A11から認識される「500」のテキストT11aに対して、テキスト領域A11に固有のデータ種別T11bとして「請求書番号」を付加した構造を有するデータT11をテキスト領域A11に含まれる字画に対応する認識テキスト要素とすることができる。データ種別T11bは、証憑画像125a1においてテキスト領域A11に含まれている字画にメタデータ(タグ)としてデータ種別が設定されている場合には、そのメタデータをデータ種別T11bとして設定することができる。別の例においては、テキスト領域A11の近傍に表示されている別の字画(特に文字)を含むテキスト領域に含まれる字画を認識して得られるテキストをデータ種別11bとして設定することができる。図10に示されている例では、テキスト領域A11の左隣に文字がひとまとまりとなっている字画があるため、この文字のひとまとまりの字画を含むテキスト領域A13を設定し、このテキスト領域A13に含まれている字画の認識結果をデータ種別11bとして設定することができる。図10に示されている例では、誤認識がなければテキスト領域A13に含まれている「請求書番号」がデータ種別11bとして設定される。
 テキスト領域A12から認識される「500」のテキストT12aに対しても同様に、テキスト領域A12に固有のデータ種別T12bとして「数量」を付加した構造を有するデータT12をテキスト領域A11に含まれる字画に対応する認識テキスト要素とすることができる。データ種別T12bは、テキスト領域A12に設定されているメタデータ(タグ)、又は、テキスト領域A12の近傍に設定されたテキスト領域A14に含まれる文字の認識結果をデータ種別12bとして設定することができる。
 会計記録データ25bにおいては、レコードに含まれる複数のフィールドの各々に項目名が設定されている。会計記録データ25bは、例えば、表計算ソフトで作成されるため、フィールドごとに項目名を容易に設定することができる。会計記録データ25bの証憑画像125a1に関連するレコードにおいては、例えば、データ項目「請求書番号」に「500」が格納され、データ項目「数量」に「500」が格納されている。会計記録データ25bにおけるデータ項目を、基準テキスト要素のデータ種別とすることができる。
 マッチング部21dは、会計記録データ25bに含まれる各レコードに含まれる基準テキスト要素の各々について、証憑画像125a1の第1編集済画像にOCRを行って得られた第1テキストデータセットに含まれる認識テキスト要素のうち、自らのデータ項目と一致するデータ種別を有する認識テキスト要素との間でのレーベンシュタイン距離を算出し、このレーベンシュタイン距離を当該基準テキスト要素についての個別のレーベンシュタイン距離とすることができる。
 認識テキスト要素に対するデータ種別の付加は、証憑画像の編集済画像にOCRを行って得られる認識テキスト要素のうちの少なくとも2つが一致している場合にのみ行われてもよいし、認識テキスト要素の重複の有無によらずに行われてもよい。認識テキスト要素に会計記録データ25bのデータ項目と関連付けが可能なデータ種別が付されていれば、マッチング部21dにおいて行われるレーベンシュタイン距離の算出のための計算負荷を軽減することができる。
 次に、図12及び図13を参照して別の実施形態による監査支援システム1を説明する。図12は、本発明の別の実施形態における監査支援システム1で実行される機能を説明するための模式的なブロック図であり、図13は、図12の監査支援システムにおいて用いられる証憑画像225a1を示す。
 図12に示されている監査支援システム1に含まれる監査支援装置20のプロセッサ21は、結合部21gとして機能することができる。図13に示されているように、証憑画像225a1は、X株式会社から「株式会社Alphaセキュリティーズ」に宛てた請求書を示している。証憑画像225a1に対してOCRを行う場合には、レイアウト解析などの手法により、テキスト領域が設定され、このテキスト領域を単位として文字認識が行われる。図13に示されている証憑画像225aには、OCRを行う際のテキスト領域を画定する境界ボックスが示されている。図13の例では、証憑画像225aにテキスト領域A1~A9及びB11、B12が設定されている。
 テキスト領域B11には、請求書の宛先である「株式会社Alphaセキュリティーズ」の一部である「株式会社Alpha」が含まれており、テキスト領域B12には当該宛先の残部である「セキュリティーズ」が含まれている。このテキスト領域の設定のままでOCRを行うと、「株式会社Alpha」と「セキュリティーズ」とは別個の認識テキスト要素として認識される。このため、会計記録データ25bの証憑画像225a1に関連するレコードに「株式会社Alphaセキュリティーズ」が基準テキスト要素として格納されていても、「株式会社Alphaセキュリティーズ」と「株式会社Alpha」及び「セキュリティーズ」の各々とのレーベンシュタイン距離は大きな値となる。このため、会計記録データ25b及び証憑画像225aのいずれもが誤りなく記載され、さらに誤認識なくOCRが行われても、証憑画像225aにOCRを行って得られる認識テキスト要素と会計記録データ25bの証憑画像225aに関連するレコードの基準テキスト要素とのマッチング処理において、「取引先」の項目が不一致となってしまう。
 図12に示されている実施形態において、結合部21gは、テキスト領域B11に含まれる「株式会社Alpha」を文字認識することで生成されるテキストデータと「セキュリティーズ」を文字認識することで生成されるテキストデータとを結合して、一つの結合テキストデータとする。証憑画像225aにOCRを行って得られるテキストデータセット(第1テキストデータセット又は第2テキストデータセット)は、その認識テキスト要素として、「株式会社Alpha」のテキスト及び「セキュリティーズ」のテキストに代えて、又は、「株式会社Alpha」のテキスト及び「セキュリティーズ」のテキストに加えて結合テキストデータ(つまり、「株式会社Alphaセキュリティーズ」)を含むように構成される。これにより、マッチング結果を出力する際には、認識テキスト要素の一つである結合テキストデータと、会計記録データ25bの証憑画像225aに関連するレコードに含まれている基準テキスト要素とのマッチングが行われる。結合テキストデータは、取引先を正しく「株式会社Alphaセキュリティーズ」と特定しているので、結合を行わない場合に起こる誤った不一致判定を防止できる。
 図13に示されているように、結合部21gは、OCRを行う際のテキスト領域の設定時にテキスト領域B11とテキスト領域B12とを結合して一つの結合テキスト領域B1を設定してもよい。この場合、結合テキスト領域B1に含まれる字画をまとめて文字認識することで、「株式会社Alphaセキュリティーズ」をまとめて文字認識することができる。結合部21gは、テキスト領域B11及びテキスト領域B12の各々において個別に文字認識された「株式会社Alpha」と「セキュリティーズ」とを結合することで結合テキストデータを生成してもよい。
 図14aから図19を参照して、図12及び図13に示されている実施形態の変形例を説明する。
 図14aの実施形態においては、テキスト領域B11とテキスト領域B12との距離d1を用いて、結合テキストデータを生成するか否かが判断される。具体的には、結合部21gは、テキスト領域B11とテキスト領域B12との間の距離d1が所定値よりも小さい場合に、テキスト領域B11に含まれる「株式会社Alpha」とテキスト領域B12に含まれる「セキュリティーズ」とを結合して結合テキストデータを生成する。2つのテキスト領域が所定距離よりも近接しているときに、両者に含まれるテキストを結合することができる。
 図14bは、別の実施形態を示す。図14bの例において「(株)斜め45°」「企画」「企画部」「御中」を含むテキスト領域B21~B24は互いに所定距離内に配置されているとする。このため、結合部21gは、4つのテキスト領域B21~B24を互いに結合可能なテキスト領域として認識する。符号R1は、テキスト領域B21~B24を結合せずに実行されたOCRの結果の例を示す。符号R2は、結合部21gによってテキスト領域B21とテキスト領域B22とが結合された結合テキスト領域B2a、及び、テキスト領域B23とテキスト領域24とが結合された結合テキスト領域B2bに対してそれぞれOCRを実行した場合に得られる結果を示し、符号R3は、4つのテキスト領域B21~B24を全て結合した結合テキスト領域に対してOCRを実行した場合に得られる結果を示している。会計記録データ25bのあるレコードに含まれる取引先名称に「株斜め45°企画」が含まれている場合、テキスト領域B21~B24に個別にOCRを行ったOCR結果R1と当該レコードとをマッチングしても、当該レコード内にOCR結果R1が示すテキストデータとは不一致となる。これに対して、結合部21gによって結合テキスト領域B2a、B2bを生成し、この結合テキスト領域B2a、B2bにOCRを行ったOCR結果R2と当該レコードとをマッチングすると、OCR結果R2は、テキスト領域B2aから生成された「株斜め45°企画」のテキストデータを含んでいるため、OCR結果R2は、当該レコード内の取引先名称として格納されている「株斜め45°企画」と一致すると判定される。結合部21gによって生成された結合テキスト領域B2にOCRを行ったOCR結果R3と当該レコードとをマッチングすると、OCR結果R3は、「株斜め45°企画」のテキストデータを含んでいるため、OCR結果R2は、当該レコード内の取引先名称として格納されている「株斜め45°企画」と一致する(または、レコード内の取引先名称を包含している)と判定される。
 図15の実施形態においては、会計記録データ25bを参照して、結合テキストデータを生成するか否かが判断される。具体的には、結合部21gは、テキスト領域B11に含まれる「株式会社Alpha」とテキスト領域B12に含まれる「セキュリティーズ」のいずれもが、会計記録データ25bのうち証憑画像225a1に関連するレコードの同じ1つのフィールドに格納されている場合には、両者に含まれるテキストを結合した「株式会社Alphaセキュリティーズ」が株式会社Xの取引先である可能性が高い。そこで、テキスト領域B11に含まれる「株式会社Alpha」とテキスト領域B12に含まれる「セキュリティーズ」のいずれもが会計記録データ25bのうち証憑画像225a1に関連するレコードの同じ1つのフィールドに格納されている場合に両者を結合して結合テキストデータを生成することで、結合を行わない場合に起こる誤った不一致判定を防止できる。
 図16の実施形態においては、先行するテキスト領域B11の末尾に改行が存在するか否かによって結合テキストデータを生成するか否かが判断される。具体的には、結合部21gは、先行するテキスト領域B11の末尾に改行コードが付されているか否かを検出する。改行コードが検出されない場合には、テキスト領域B11に含まれるテキストは次行にまたがる一つの語又は文章の途中でありテキスト領域B11の末尾で区切られることは意図されていないと考えられる。そこで、結合部21gは、先行するテキスト領域B11の末尾に改行コードが付されている場合には、テキスト領域B11と、その次の行に存在するテキスト領域B12とを別個のテキスト領域として扱い、結合テキストデータの生成を行わない。逆に、先行するテキスト領域B11の末尾に改行コードが付されていない場合には、テキスト領域B11に含まれる語または文章は、分断されることなくテキスト領域B12の先頭まで続いていると考えられる。よって、結合部21gは、先行するテキスト領域B11の末尾に改行コードが付されていない場合に、テキスト領域B11に含まれるテキストと、テキスト領域B11の次の行の先頭にあるテキスト領域B12に含まれるテキストとを結合して結合テキストを生成することができる。
 結合テキストを生成して取引のレコードと比較する場合、結合テキストを包含するテキスト領域を画定する境界ボックスを画面に表示してもよい。例えば、図13、図14a、図15、図16aにおけるテキスト領域B1を画定する境界ボックス及び図14bに示されているテキスト領域B2a、B2b、B2をそれぞれ画定する境界ボックスが画面に表示されてもよい。
 図16aに示されている例のように、改行前後のテキスト領域を互いに結合すると、そのように結合された結合テキスト領域を画定する境界ボックスは不必要に大きくなることがある。そこで、結合テキスト領域を画定する結合ボックスは、分割して表示されてもよい。図16aに示されている例では、テキスト領域B11に対応する境界ボックス及びテキスト領域B12に対応する境界ボックスを分割して表示してもよい。テキスト領域B11に対応する境界ボックスとテキスト領域B12に対応する境界ボックスとを分割して表示する場合には、両者の関連性を示すために、双方の境界ボックスを同じ線種(実線、破線、など)及び/又は同じ色で表示して統一感を表現してもよい。
 3つ以上のテキスト領域を結合することもできる。図16bには、テキスト領域B11、B12、B13の3つのテキスト領域が結合される例を示す。図示されているように、3つのテキスト領域を結合する場合、この3つのテキスト領域のうちの2つのテキスト領域B11及びB12を囲む境界ボックスと、残りのテキスト領域B13を囲む別の境界ボックスと、を表示してもよい。図16bの例において、Text1、Text2、及びText3は結合テキストを構成するが、互いに近くに配置されているText2及びText3を囲む第1の境界ボックスと、Text2及びText3から離れた位置にあるText1を囲む第2の境界ボックスで、Text1、Text2、及びText3が結合された結合テキストを含む結合テキスト領域が画定されている。
 図17の実施形態においては、テキスト領域C11に「Tomatoes」が含まれ、テキスト領域C12に「2 Units」が含まれ、テキスト領域C13に「Bananas」が含まれている。通常のレイアウト解析では、C11~C13は、3つの異なるテキスト領域として認識される。また、テキスト領域C3に「Milk 1Unit」が含まれている。図17の実施形態では、テキスト領域C12に含まれている「2 Units」が「Tomatoes」と「Bananas」の双方の個数を示していると考えられる。そこで、結合部21gは、テキスト領域C11~C13の論理的な構造を解析し、テキスト領域C11に含まれる「Tomatoes」とテキスト領域C12に含まれる「2 Units」とを結合し、また、テキスト領域C13に含まれる「Bananas」とテキスト領域C12に含まれる「2 Units」とを結合することができる。
 図17に示されているように、結合部21gは、OCRを行う際のテキスト領域の設定時にテキスト領域C11とテキスト領域C12とを結合して一つの結合テキスト領域C1を設定するとともに、テキスト領域C13とテキスト領域C12とを結合して別の結合テキスト領域C2を設定することができる。この場合、結合テキスト領域C1に含まれる字画をまとめて文字認識することができ、また、結合テキスト領域C2に含まれる字画をまとめて文字認識することができる。結合部21gは、テキスト領域C11~C13の各々において個別に文字認識された「Tomatoes」、「2 Units」、「Bananas」のうち、「Tomatoes」と「2 Units」とを結合して第1の結合テキストデータを生成するとともに、「Bananas」と「2 Units」とを結合して第2の結合テキストデータを生成してもよい。
 図18に図17の実施形態の変形例を示す。図18に示されている実施形態では、文字認識部21bがテキスト領域を設定する際に、「2 Units」がテキスト領域C1とテキスト領域C2のいずれにも含まれるように設定される。図18の実施形態によれば、テキスト領域の設定時に証憑画像に含まれる文字の論理的な構造を解析して、「2 Units」が「Tomatoes」及び「Bananas」の両方と結合するようにテキスト領域C1、C2が設定される。
 本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書中で説明されるデータ、テーブル、又はデータベースが単一の記憶装置(ストレージやメモリ)に格納される旨説明されたとしても、そのようなデータ、テーブル、又はデータベースは、単一の装置に備えられた複数の記憶装置または複数の装置に分散して配置された複数の記憶装置に分散して格納され得る。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
 プロセッサ11で実行されるプログラムは、図示されているストレージ以外にも様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)に格納され得る。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例には、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。
 監査支援システム1において、データの格納場所には特段の制限はない。例えば、ストレージ15に記憶され得る各種データは、オンプレミス環境5内又はオンプレミス環境5外のストレージ15とは物理的に別体のストレージやデータベースサーバに格納されてもよい。つまり、本明細書において、ストレージ15に記憶されると説明されているデータは、単一のストレージに記憶されてもよいし、複数のストレージに分散して記憶されてもよい。また、本明細書及び特許請求の範囲において、単に「ストレージ」という場合には、文脈上許される限り、単一のストレージと複数のストレージの集合のいずれを指し示すこともある。
 本明細書で説明された実施形態において、OCRは、証憑画像から生成された編集済画像に対して行われるが、説明の簡潔さのために編集済画像の生成の有無が重要でない場合には、単に証憑画像にOCRを行うと説明されることもある。証憑画像にOCRを行うと説明される場合でも、そのような説明は、証憑画像に対して編集処理を行った後の編集済画像に対してOCRが行われる態様を包含する説明と解釈することができる。
 本明細書に開示されている複数の実施形態を組み合わせることにより、その組み合わされた態様を、本発明のさらに別の実施形態とすることができる。
 本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
 本明細書において単数形で表される構成要素は、矛盾を生じさせない限り、複数形を含むものとする。
 1 監査支援システム
 10 ユーザ装置
 20 監査支援装置

Claims (25)

  1.  一又は複数のプロセッサを備え、前記一又は複数のプロセッサに、
     画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する機能と、
     前記第1テキストデータセットと基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する機能と、
     前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する機能と、
     前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する機能と、
     を実行させるシステム。
  2.  前記一又は複数のプロセッサに、
     前記第1マッチングスコア及び前記第2マッチングスコアに基づいて、前記第1テキストデータセット又は前記第2テキストデータセットのいずれかを適合テキストデータセットとして選択する機能をさらに実行させる、
     請求項1に記載のシステム。
  3.  前記第1編集処理及び前記第2編集処理の一方は、前記画像から罫線を削除する罫線削除処理と、罫線削除処理済みの画像内の字画を含むテキスト領域を検出するテキスト領域検出処理と、を含み、
     前記第1編集処理及び前記第2編集処理の他方は、前記画像に含まれる表を認識する表認識処理を含む、
     請求項1又は2に記載のシステム。
  4.  前記第1編集処理は、前記第2編集処理が含む編集処理と相反する編集処理を含む、
     請求項1から3のいずれか1項に記載のシステム。
  5.  前記第1編集済画像は、前記画像に前記第1編集処理に加えて第3編集処理(S2)を行うことで生成され、
     前記第2編集済画像は、前記画像に前記第2編集処理に加えて前記第3編集処理を行うことで生成される、
     請求項1から4のいずれか1項に記載のプログラム。
  6.  前記第1テキストデータセットは、前記第1編集済画像に光学文字認識を行って生成された第1仮テキストデータセットに、前記基準データセットに基づいて第1補正処理を行うことにより生成される、
     請求項1から5のいずれか1項に記載のシステム。
  7.  前記一又は複数のプロセッサに、前記適合データセットに基づいて生成されるマッチング結果を表示させる機能をさらに実行させ、
     前記マッチング結果は、前記適合テキストデータセットに含まれる第1認識テキスト要素が前記基準データセットに含まれる第1基準テキスト要素と一致するか否かを示す一致フラグを含む、
     請求項1から6のいずれか1項に記載のシステム。
  8.  前記マッチング結果においては、前記第1認識テキスト要素と前記第1基準テキスト要素とが対応付けられている、
     請求項7に記載のシステム。
  9.  前記一又は複数のプロセッサに、前記第1認識テキスト要素が前記第1基準テキスト要素と一致しない場合に、前記第1認識テキスト要素を訂正するための訂正入力を受け付ける機能をさらに実行させる、
     請求項7又は8に記載のシステム。
  10.  前記マッチング結果は、前記画像のビューを含み、
     前記画像のビューは、前記第1認識テキスト要素に対応する第1字画と、前記第1字画が含まれる第1テキスト領域を画定する第1境界線と、を含む、
     請求項7から9のいずれか1項に記載のシステム。
  11.  前記適合テキストデータセットが前記第1認識テキスト要素と同一の第2認識テキスト要素を含む場合、前記第1マッチングスコアの算出及び前記第2マッチングスコアの算出は、前記第1認識テキスト要素を前記基準データセットに含まれる複数の基準テキスト要素のうち前記第1認識テキスト要素に割り当てられている第1データ種別と同一のデータ種別が割り当てられている前記第1基準テキスト要素と比較することで行われる、
     請求項7から10のいずれか1項に記載のシステム。
  12.  前記適合テキストデータセットの前記第1認識テキスト要素の前記データ種別は、前記複数のデータ要素の各々に付されているタグに基づいて決定される、
     請求項11に記載のシステム。
  13.  前記適合テキストデータセットの前記第1認識テキスト要素の前記データ種別は、前記画像において前記第1認識テキスト要素に対応する第1字画の近傍に配置されているデータ種別字画に基づいて定められる、
     請求項11に記載のシステム。
  14.  一又は複数のプロセッサを備え、前記一又は複数のプロセッサに、
     画像に光学文字認識を行うことで、前記画像に含まれる第1テキスト領域に含まれる第1字画に対応する第1テキストデータと、前記画像に含まれる第2テキスト領域に含まれる第2字画に対応する第2テキストデータと、を結合して結合テキストデータを生成する機能と、
     前記結合テキストデータと前記基準データセットに含まれる基準テキスト要素とのマッチングを行う機能と、
     を備えるシステム。
  15.  前記結合テキストデータは、前記第1テキスト領域と前記第2テキスト領域との間の距離が基準距離以下の場合に生成される、
     請求項14に記載のシステム。
  16.  前記結合テキストデータは、前記第1テキストデータ及び前記第2テキストデータがいずれも前記基準データセットに含まれる場合に生成される、
     請求項14又は15に記載のシステム。
  17.  前記結合テキストデータは、前記第1テキストデータの末尾に改行コードが検出されない場合に生成される、
     請求項14から16のいずれか1項に記載のシステム。
  18.  前記テキストデータセットは、前記画像に含まれる第3テキスト領域に含まれる第3字画に対応する第3テキストデータをさらに含み、
     前記一又は複数のプロセッサに、前記第3テキストデータと前記第2テキストデータとを結合して他の結合テキストデータを生成する機能をさらに実行させる、
     請求項14から17のいずれか1項に記載のシステム。
  19.  前記画像に第3字画が含まれ、
     前記第1テキスト領域及び前記第2テキスト領域は、いずれも前記第3字画を含むように設定される、
     請求項14から18のいずれか1項に記載のシステム。
  20.  前記一又は複数のプロセッサに、前記第1テキスト領域と前記第2テキスト領域とを結合させた結合テキスト領域を画定する境界線を重ねた合成画像を表示する機能を実行させる、
     請求項14から19のいずれか1項に記載のシステム。
  21.  前記基準データセットは、複数の取引を記録した会計記録データであり、
     前記画像は、前記取引の内容を示す証憑書類を示す証憑画像である、
     請求項1から20のいずれか1項に記載のシステム。
  22.  前記会計記録データは、第1会計記録データセットと第2会計記録データセットとを含み、
     前記証憑画像は、前記第1会計記録データセット及び前記第2会計記録データセットにそれぞれ対応付けられる、
     請求項21に記載のシステム。
  23.  前記選択する機能は、前記会計記録データに含まれる前記複数の取引のそれぞれについて算出された前記画像の前記第1マッチングスコア及び前記第2マッチングスコアのうち最大のスコアを与える取引を前記画像に対応する取引として特定し、かつ、当該最大のスコアを与えた方のマッチングスコアに対応するテキストデータセットを当該取引に対応する適合テキストデータセットとして選択する機能を含む、
     請求項21に記載のシステム。
  24.  一又は複数のプロセッサに、
     画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する機能と、
     前記第1テキストデータセットと前記画像に関連する基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する機能と、
     前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する機能と、
     前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する機能と、
     を実行させるプログラム。
  25.  一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される方法であって、
     画像に第1編集処理を行って得られる第1編集済画像に光学文字認識を行うことで第1テキストデータセットを生成する工程と、
     前記第1テキストデータセットと前記画像に関連する基準データセットとのマッチングを行うことにより第1マッチングスコアを算出する工程と、
     前記画像に第2編集処理を行って得られる第2編集済画像に光学文字認識を行うことで第2テキストデータセットを生成する工程と、
     前記第2テキストデータセットと前記基準データセットとのマッチングを行うことにより第2マッチングスコアを算出する工程と、
     を備える方法。
PCT/JP2021/020762 2021-05-31 2021-05-31 光学文字認識により生成されるテキストデータを用いたデータマッチング WO2022254560A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020762 WO2022254560A1 (ja) 2021-05-31 2021-05-31 光学文字認識により生成されるテキストデータを用いたデータマッチング

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020762 WO2022254560A1 (ja) 2021-05-31 2021-05-31 光学文字認識により生成されるテキストデータを用いたデータマッチング

Publications (1)

Publication Number Publication Date
WO2022254560A1 true WO2022254560A1 (ja) 2022-12-08

Family

ID=84324001

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020762 WO2022254560A1 (ja) 2021-05-31 2021-05-31 光学文字認識により生成されるテキストデータを用いたデータマッチング

Country Status (1)

Country Link
WO (1) WO2022254560A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114619A (ja) * 1993-10-20 1995-05-02 Hitachi Ltd 文書認識装置
JPH07262322A (ja) * 1994-03-22 1995-10-13 N T T Data Tsushin Kk 文字認識方法及び文字認識装置
JP2003187188A (ja) * 2001-12-13 2003-07-04 Canon Inc 文字認識結果の後処理方法、後処理装置、および記録媒体
JP2003208567A (ja) * 2002-01-10 2003-07-25 Ricoh Co Ltd 画像処理装置、画像処理方法、及び同方法に用いるプログラム
JP2010072826A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
JP2015146075A (ja) * 2014-01-31 2015-08-13 株式会社日本デジタル研究所 会計データ入力支援システム、方法およびプログラム
JP2017016549A (ja) * 2015-07-06 2017-01-19 株式会社日立システムズ 文字認識装置、文字認識方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114619A (ja) * 1993-10-20 1995-05-02 Hitachi Ltd 文書認識装置
JPH07262322A (ja) * 1994-03-22 1995-10-13 N T T Data Tsushin Kk 文字認識方法及び文字認識装置
JP2003187188A (ja) * 2001-12-13 2003-07-04 Canon Inc 文字認識結果の後処理方法、後処理装置、および記録媒体
JP2003208567A (ja) * 2002-01-10 2003-07-25 Ricoh Co Ltd 画像処理装置、画像処理方法、及び同方法に用いるプログラム
JP2010072826A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
JP2015146075A (ja) * 2014-01-31 2015-08-13 株式会社日本デジタル研究所 会計データ入力支援システム、方法およびプログラム
JP2017016549A (ja) * 2015-07-06 2017-01-19 株式会社日立システムズ 文字認識装置、文字認識方法、及びプログラム

Similar Documents

Publication Publication Date Title
US11232300B2 (en) System and method for automatic detection and verification of optical character recognition data
USRE47037E1 (en) Efficient work flow system and method for processing taxpayer source documents
CN101952802B (zh) 供作者和出版者验证参考文献的方法和系统
Déjean et al. A system for converting PDF documents into structured XML format
US20020103834A1 (en) Method and apparatus for analyzing documents in electronic form
US10019535B1 (en) Template-free extraction of data from documents
US11182544B2 (en) User interface for contextual document recognition
US9454545B2 (en) Automated field position linking of indexed data to digital images
US20210366055A1 (en) Systems and methods for generating accurate transaction data and manipulation
US20150117747A1 (en) Check data lift for error detection
US11880435B2 (en) Determination of intermediate representations of discovered document structures
US11675807B1 (en) Database interface system
CN112926299B (zh) 一种文本比对方法、合同审阅方法、审核系统
WO2022254560A1 (ja) 光学文字認識により生成されるテキストデータを用いたデータマッチング
US11475686B2 (en) Extracting data from tables detected in electronic documents
JP6250307B2 (ja) 画像情報処理装置及び画像情報処理方法
US20170032469A1 (en) Transaction slip search method, information processing apparatus, and computer product
JP2006133933A (ja) コンピュータ処理方法
US20230409823A1 (en) System and Method for Reviewing and Evaluating Discrepancies Between Two or More Documents
JP7405287B1 (ja) 情報処理装置、コンピュータプログラム及び情報処理方法
Vossmeyer et al. Digitization and Data Frames for Card Index Records
JP2001312694A (ja) 多種類の帳票認識方法および装置
DOGUC An intelligent system for document-based banking processes
CN115730074A (zh) 文件分类方法、装置、计算机设备和存储介质
Slavin et al. Search for Falsifications in Copies of Business Documents

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21944068

Country of ref document: EP

Kind code of ref document: A1