WO2009122696A1 - 文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2009122696A1
WO2009122696A1 PCT/JP2009/001412 JP2009001412W WO2009122696A1 WO 2009122696 A1 WO2009122696 A1 WO 2009122696A1 JP 2009001412 W JP2009001412 W JP 2009001412W WO 2009122696 A1 WO2009122696 A1 WO 2009122696A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
data
recognized
area
recognizable
Prior art date
Application number
PCT/JP2009/001412
Other languages
English (en)
French (fr)
Inventor
松田博明
Original Assignee
Matsuda Hiroaki
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsuda Hiroaki filed Critical Matsuda Hiroaki
Publication of WO2009122696A1 publication Critical patent/WO2009122696A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns

Definitions

  • the present invention relates to a character recognition device for optically recognizing characters written on a manuscript and outputting them as character data.
  • character data output using such a character recognition device often involves manually re-entering misrecognized characters, and there is a desire to output information such as the number and position of misrecognized characters. there were.
  • the recognized character and the unrecognizable area are displayed so as to be identifiable.
  • the recognized character includes a character that is recognized correctly and a character that is erroneously recognized. May be included.
  • unrecognized characters may be included in the areas that could not be recognized. Of these, what is subsequently input is the misrecognized characters included in the recognized characters and the characters included in the unrecognized area, but distinguishes these characters that are incompletely recognized. There was a problem that it was difficult.
  • the present invention has been made paying attention to such problems, and an object of the present invention is to provide a character recognition device that can reliably output characters having a defect in character recognition.
  • a character recognition device provides: Characters included in the image data (original image 201 (FIG. 2)) are optically recognized, and recognized character data (OCR result 206) that can identify the recognized characters and areas corresponding to the characters is generated.
  • Recognition character data generation means CPU of the administrator terminal 3 that performs processing for generating the OCR result 206 in the OCR processing S104; Of the entire area of the image data, an area recognized as a character by the recognized character data generation means (a double circle mark area) and an area not recognized as a character (the Hatena mark area) are used.
  • Recognizable composite data generating means for generating recognizable composite data (OCR reversible divided image 207) that can be identified by a person (CPU of administrator terminal 3 that performs processing for generating OCR reversible divided image 207 in diminishing process S105)
  • Recognizability composite data display means for displaying the recognizability composite data generated by the recognizability composite data generation means and the image data (the original image 201 and the OCR reversible divided image 207 are transmitted in the reduction processing S105).
  • misrecognized character data (division result 209) consisting of designation of a region in which the character is unrecognized (misrecognized character) (a region of a zett mark) out of the region not recognized as the character is combined with the recognition enable / disable combination.
  • Misrecognized character data receiving means (CPU of the administrator terminal 3 that performs the process of accepting the dimming result 209 in the dimming process S105) that accepts the image data displayed in association with the image data displayed on the data display means; Of the entire area of the image data, the erroneously recognized character among the area recognized as the character by the recognized character data generation unit, the area not recognized as the character, and the area recognized as the character Of the area corresponding to the misrecognized character (misrecognized character) included in the misrecognized data received by the data receiving means and the area not recognized as the character by the recognized character data generating means, the misrecognition
  • the recognition result composite data (input image 210) that allows the user to identify the area in which the character included in the misrecognized character data received by the character data receiving means is unrecognized (misrecognized character).
  • a recognition result composite data generation means (a CPU of the administrator terminal 3 that performs the generation process of the input image 210 as part of the input process S106); Comprising It is characterized by that. According to this feature, it recognizes characters that were not recognized correctly, that is, characters that were recognized incorrectly and regions that were not recognized as characters that were not recognized as characters. It can be identified from the result synthesis data. As a result, it is possible to reliably output a character having a defect in character recognition.
  • a character recognition device is the character recognition device according to claim 1,
  • the character recognition device (manager terminal 3)
  • a template storage for storing the type of image data (information (for example, file name) that can identify the template image 202 (FIG. 4)) and a predetermined section (template divided image 204) for each type as a template.
  • Means storage unit for storing the template image 202 and the template divided image 204;
  • Type specifying means for specifying the type of the image data (CPU of the administrator terminal 3 that performs processing for receiving information (for example, a file name) that can specify the template image 202 (FIG.
  • the template stored in the template storage unit is specified in association with the type of the image data specified by the type specifying unit, and the image is placed in a predetermined section for each specified template.
  • Divided image data generating means for generating divided image data obtained by dividing the data (divided image 205 of the original image) as the image data (CPU of the administrator terminal 3 performing the dividing process S103); With The recognizable / non-recognizable composite data generation unit (the CPU of the administrator terminal 3 that performs the process of generating the OCR reversible divided image 207 in the reduction process S105) is included in the divided image data generated by the divided image data generation unit.
  • the recognition result composite data generation means (the CPU of the administrator terminal 3 that performs the process of generating the input image 210 in the input process S106) uses the recognition result composite data (input image 210) for each of the divided image data. Generate, It is characterized by that. According to this feature, in the character recognition device, the recognition enable / disable combined data and the recognition result combined data divided into predetermined sections according to the type of the image data are generated. Therefore, the user can output only individual sections. This makes it easier for the user to find a character that is incomplete in character recognition.
  • a character recognition device is the character recognition device according to claim 1 or 2
  • the recognition result composite data generation means (the CPU of the administrator terminal 3 that performs the process of generating the input image 210 in the input process S106) generates the recognized character data out of the entire area of the image data (original image 201).
  • the error recognition character data receiving means (the reduction result 209 in the reduction process S105) is displayed.
  • the misrecognized text received by the misrecognized character data receiving means in the area not recognized as the character Characters in data includes only a region which is unrecognized (region of Gazette mark), to generate the recognition result synthetic data (input image 210), It is characterized by that.
  • the user can only recognize characters that are inadequate in character recognition, that is, only regions corresponding to characters that are misrecognized in regions recognized as characters, and regions that are not recognized as characters.
  • the recognition result composite data including only the unrecognized region can be output. As a result, the user can more easily find a character having a defect in character recognition.
  • a character recognition device is the character recognition device according to any one of claims 1 to 3,
  • the recognition result composite data generation means (the CPU of the administrator terminal 3 that performs the process of generating the input image 210 in the input process S106) generates the recognized character data out of the entire area of the image data (original image 201).
  • the misrecognized character data receiving means (the CPU of the administrator terminal 3 that performs the process of receiving the reduction result 209 in the reduction process S105) and the erroneously recognized character data (the reduction result 209).
  • the recognition result synthetic data (input image 210) in which different colors (for example, green and yellow) are assigned to the area corresponding to the unrecognized character (the area of the zett mark) among the areas that are not recognized. Generate It is characterized by that. According to this feature, the user can easily identify a character having a deficient character recognition from the recognition result synthesis data by color. As a result, the user can more easily find a character having a defect in character recognition.
  • a character recognition device is the character recognition device according to any one of claims 1 to 4,
  • the recognizable / non-recognizable composite data generating means (the CPU of the administrator terminal 3 that performs the process of generating the OCR reversible divided image 207 in the reduction process S105) is configured to recognize the recognized character in the entire area of the image data (original image 201).
  • the user can detect one type of character recognition defect in each region in the recognizable / non-recognizable combined data, that is, in a region not recognized as a character.
  • a character recognition device is the character recognition device according to any one of claims 1 to 5,
  • the recognizable / non-recognizable composite data generation means (CPU of the administrator terminal 3 that performs the process of generating the OCR reversible divided image 207 in the reduction process S105) generates the recognized character data generation means (the OCR result 206 in the OCR process S104).
  • the user In an area (double circle mark area) that is recognized as a character by the CPU of the administrator terminal 3 that performs processing, the user (administrator) moves the character (by embedding typeface font data). Generating the recognizable / non-recognized composite data in which only the part to be traced can be identified; It is characterized by that.
  • the user can easily identify an erroneously recognized character among the recognized characters included in the recognizable / non-recognizable composite data by the shape of the character. This makes it easy for the user to identify and further indicate the characters that are incomplete in the character recognition among the recognizable / non-recognizable combined data, thereby reducing the cost for comprehensive character recognition.
  • a character recognition device is the character recognition device according to any one of claims 1 to 6,
  • the character recognition device (manager terminal 3) Provided with instruction input means (input unit including a keyboard) capable of inputting three types of different instructions (enter key, X key, return key) from the user,
  • the erroneously recognized character data receiving means (the CPU of the administrator terminal 3 that performs the process of receiving the reduction result 209 in the reduction process S105) is recognized as a character included in the recognizable / non-recognizable composite data (OCR reversible divided image 207). 1 area (enter key) indicating that one character can be recognized in association with each area recognized as a character by the instruction input means.
  • One of the two instructions (X key for the double circle mark character) indicating that one character has not been recognized is accepted, and the region that has not been recognized as the character included in the recognizable / non-recognizable composite data (the Hatena mark 2) (2) indicating that one character cannot be recognized (X key in the Hatena mark area)
  • the number of unacceptable characters is accepted, and then an instruction (return key) 3 indicating that the instruction input for the area has been completed is accepted, so that erroneous recognition in an area recognized as a character included in the recognizable / non-recognized composite data Identifying the region of the character that has been made and the number of unrecognized character regions in the region that was not recognized as the character; It is characterized by that.
  • the user recognizes the misrecognized character and its region in the region recognized as a character, and unrecognized in the region not recognized as a character.
  • the number of characters can be easily indicated only by inputting an instruction from the instruction input means. Thereby, the cost for comprehensive character recognition can be reduced.
  • a character recognition program provides: Computer (administrator terminal 3) Characters included in the image data (original image 201 (FIG. 2)) are optically recognized, and recognized character data (OCR result 206) that can identify the recognized characters and areas corresponding to the characters is generated.
  • Recognition character data generation means CPU of the administrator terminal 3 that performs processing for generating the OCR result 206 in the OCR processing S104; Of the entire area of the image data, an area recognized as a character by the recognized character data generation means (a double circle mark area) and an area not recognized as a character (the Hatena mark area) are used.
  • Recognizable composite data generating means for generating recognizable composite data (OCR reversible divided image 207) that can be identified by a person (CPU of administrator terminal 3 that performs processing for generating OCR reversible divided image 207 in diminishing process S105)
  • Recognizability composite data display means for displaying the recognizability composite data generated by the recognizability composite data generation means and the image data (the original image 201 and the OCR reversible divided image 207 are transmitted in the reduction processing S105).
  • misrecognized character data (division result 209) consisting of designation of a region in which the character is unrecognized (misrecognized character) (a region of a zett mark) out of the region not recognized as the character is combined with the recognition enable / disable combination.
  • Misrecognized character data receiving means (CPU of the administrator terminal 3 that performs the process of accepting the dimming result 209 in the dimming process S105) that accepts the image data displayed in association with the image data displayed on the data display means; Of the entire area of the image data, the erroneously recognized character among the area recognized as the character by the recognized character data generation unit, the area not recognized as the character, and the area recognized as the character Of the area corresponding to the misrecognized character (misrecognized character) included in the misrecognized data received by the data receiving means and the area not recognized as the character by the recognized character data generating means, the misrecognition
  • the recognition result composite data (input image 210) that allows the user to identify the area in which the character included in the misrecognized character data received by the character data receiving means is unrecognized (misrecognized character).
  • a recognition result composite data generation means (a CPU of the administrator terminal 3 that performs the generation process of the input image 210 as part of the input process S106); Make it work, It is characterized by that. According to this feature, it recognizes characters that were not recognized correctly, that is, characters that were recognized incorrectly and regions that were not recognized as characters that were not recognized as characters. It can be identified from the result synthesis data. As a result, it is possible to reliably output a character having a defect in character recognition.
  • a computer-readable recording medium that records the character recognition program according to claim 9 of the present invention,
  • Computer (administrator terminal 3) Characters included in the image data (original image 201 (FIG. 2)) are optically recognized, and recognized character data (OCR result 206) that can identify the recognized characters and areas corresponding to the characters is generated.
  • Recognition character data generation means (CPU of the administrator terminal 3 that performs processing for generating the OCR result 206 in the OCR processing S104); Of the entire area of the image data, an area recognized as a character by the recognized character data generation means (a double circle mark area) and an area not recognized as a character (the Hatena mark area) are used.
  • Recognizable composite data generating means for generating recognizable composite data (OCR reversible divided image 207) that can be identified by a person (CPU of administrator terminal 3 that performs processing for generating OCR reversible divided image 207 in diminishing process S105)
  • Recognizability composite data display means for displaying the recognizability composite data generated by the recognizability composite data generation means and the image data (the original image 201 and the OCR reversible divided image 207 are transmitted in the reduction processing S105).
  • misrecognized character data (division result 209) consisting of designation of a region in which the character is unrecognized (misrecognized character) (a region of a zett mark) out of the region not recognized as the character is combined with the recognition enable / disable combination.
  • Misrecognized character data receiving means (CPU of the administrator terminal 3 that performs the process of accepting the dimming result 209 in the dimming process S105) that accepts the image data displayed in association with the image data displayed on the data display means; Of the entire area of the image data, the erroneously recognized character among the area recognized as the character by the recognized character data generation unit, the area not recognized as the character, and the area recognized as the character Of the area corresponding to the misrecognized character (misrecognized character) included in the misrecognized data received by the data receiving means and the area not recognized as the character by the recognized character data generating means, the misrecognition
  • the recognition result composite data (input image 210) that allows the user to identify the area in which the character included in the misrecognized character data received by the character data receiving means is unrecognized (misrecognized character).
  • a recognition result composite data generation means (a CPU of the administrator terminal 3 that performs the generation process of the input image 210 as part of the input process S106); Recorded a program to make it function, It is characterized by that. According to this feature, it recognizes characters that were not recognized correctly, that is, characters that were recognized incorrectly and regions that were not recognized as characters that were not recognized as characters. It can be identified from the result synthesis data. As a result, it is possible to reliably output a character having a defect in character recognition.
  • FIG. 1 It is a system diagram which shows the whole image of the data input system containing the character recognition apparatus in the Example of this invention. It is a figure which shows an example of the original image in the Example of this invention. It is a flowchart which shows the whole process in the Example of this invention. It is a figure which shows an example of the template image in the Example of this invention.
  • (A) is a figure which shows an example of the template division
  • (B) is a figure which shows an example of the divided image of the original image in the Example of this invention.
  • (C) is a figure which shows an example of the OCR reversible division image in the Example of this invention. It is a figure which shows an example of the reduction screen in the Example of this invention. It is a figure which shows an example of the input screen in the Example of this invention. It is a figure which shows an example of the verification screen in the Example of this invention.
  • FIG. 1 is a system diagram showing an overview of a data input system including a character recognition device in an embodiment of the present invention.
  • the data input system includes a data input server 1, worker terminals 2a and 2b connected to the data input server 1 and the Internet 5, and an administrator terminal 3 serving as a character recognition device of the present invention. And the scanner 4 connected to the administrator terminal 3.
  • the data input service provided by this data input system is that the administrator receives a data input request (order) from the orderer, the worker inputs character data based on the order contents, and the administrator orders the character data. It is to deliver to the person.
  • the data input system may be operated by a company to provide a data input service to other companies for a fee, or may be operated by a company to process data input within the company. That is, the operating organization of the data input system is a company or a data input department in the company.
  • the administrator uses the administrator terminal 3 and the scanner 4 shown in FIG. 1, and the worker uses the worker terminals 2a and 2b shown in FIG.
  • the orderer of the present embodiment places an order with the operating organization by registering the order data (for example, FIG. 2) converted into image data, which is a target of data input, into the data input server 1 by itself.
  • the orderer orders data input by causing the manager of the operating organization to register the ordering data.
  • the orderer places an order in a state that has not yet been converted into image data (for example, a paper form), and the administrator of the operating organization selects the paper that has been ordered.
  • the medium is optically read using the scanner 4 and converted into image data, and the ordering data is registered in the data input server 1.
  • the worker of the present embodiment looks at the characters output as an image in the ordering data registered in the data input server 1, and uses the character data corresponding to these characters on the worker terminals 2a and 2b. Input processing (to be described later) for inputting (keying) from an input unit (keyboard, mouse, etc.) is performed. In this input process, the worker earns income according to the number of keystrokes required for input, in other words, data input costs in accordance with the number of keystrokes of the worker.
  • verification work a check after the input by the administrator (called verification work) is indispensable.
  • this verification operation requires a cost corresponding to the number of characters to be checked
  • the check operation is an operation that involves keystrokes.
  • the total cost for data input is in accordance with the number of keystrokes by the operator or administrator, and the cost can be reduced by reducing the number of keystrokes by the operator or administrator.
  • the administrator of the present embodiment accesses the data input server 1 by using the administrator terminal 3 to manage all processes of data input from acceptance of ordering to delivery of character data. Specifically, a reduction process, which will be described later, for reducing the cost according to the number of keystrokes of an operator or administrator for data input, or the above-described verification process is performed.
  • the data input server 1 includes a storage unit for storing various data, a communication unit for transmitting and receiving various data via the Internet 5, a CPU (Central Processing Unit) for executing various processing programs, and execution of various processing programs RAM (Random Access Memory), a readable / writable volatile memory that temporarily stores data required for storage, and ROM (Read Only, a non-volatile memory that stores data required for execution of various processing programs It is a normal server computer equipped with (Memory).
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only, a non-volatile memory that stores data required for execution of various processing programs It is a normal server computer equipped with (Memory).
  • the storage unit of the data input server 1 stores various image data, various ledger data, and various business support programs as shown in FIG.
  • Various image data includes a template image 202 (FIG. 4) obtained by converting only the format of a form or the like to be input into data into an image data, and this template image for each description area, for example, for each description item in a form such as an address.
  • the divided template divided image (FIG. 5A), the original image 201 (FIG. 2) which is the order data converted into image data to be the data input target, the original image with reference to the template image and the template divided image A divided image 205 (FIG.
  • the various ledger data includes the order destination management ledger data for storing the orderer's name and address, the order data management ledger for storing the creator and file name of the above-mentioned various image data, and the worker's Data entry person management ledger for memorizing names, addresses, etc., deposit / withdrawal management ledger for memorizing deposit / withdrawal records related to ordering, and data entry work for memorizing worker's work contents and work date / time The person work management ledger.
  • the business support program is a program for performing various processes.
  • the various processes are the order processing, order processing, and image data that accepts the orderer's name and address from the administrator terminal 3 and registers them in the order destination management ledger data, or accepts the order data and registers it in the order data management ledger.
  • OCR processing for the image division processing for generating a divided image of the original image obtained by dividing the original image for each description area with reference to the template image and the template divided image, and management from the administrator terminal 3 that transmitted the OCR reversible divided image
  • the operator receives data from the operator terminal 2a, 2b that has received data relating to the recognition error included in the result of the OCR input by the operator, and the worker terminals 2a and 2b that have transmitted only the portions that are erroneously recognized by the OCR and require manual input.
  • An input process for receiving the input character data and an input from the worker terminals 2a and 2b that transmitted the character data input by the worker.
  • a verification process for receiving data related to an operator input error input from the administrator terminal 3 by the administrator terminal 3 and a delivery data including character data recognized by the OCR process and character data input by the operator are managed.
  • a program executed in the administrator terminal 3 for OCR processing, division processing, reduction processing, and input processing is the present invention.
  • the worker terminal 2a includes a storage unit, a communication unit, a CPU, a RAM, a ROM, an input unit such as a keyboard and a mouse, and a display unit such as a display, and performs input processing by accessing the predetermined data input server 1.
  • This is a computer dedicated to data input. This is used when the operator performs the aforementioned input processing.
  • the worker terminal 2b is a normal computer having an interface to which an external storage device 6 such as a storage unit, a communication unit, a CPU, a RAM, a ROM, an input unit, a display unit, and a USB (Universal Serial Bus) memory can be connected. is there.
  • the external storage device 6 stores a program for accessing the predetermined data input server 1 and performing input processing. While the external storage device 6 is mounted and a program stored therein is being executed, the worker terminal 2b is a computer dedicated to data input like the worker terminal 2a. This is used when the operator performs the aforementioned input processing.
  • the administrator terminal 3 which is a character recognition device of the present invention is a normal computer including a storage unit, a communication unit, a CPU, a RAM, a ROM, an input unit, and a display unit. This is used when the administrator performs the above-described reduction processing or verification processing. Further, the above-described input processing can be performed. In other words, the manager is also an operator.
  • the storage unit of the administrator terminal 3 which is the character recognition apparatus of the present invention stores the same business support program stored in the data input server 1 described above.
  • These business support programs may be stored in advance in the storage unit of the administrator terminal 3, or may be received from the data input server 1 and temporarily stored therein.
  • the business support program is executed by the CPU of the administrator terminal 3.
  • the business support program is executed by the CPU of the administrator terminal 3, and the various ledger data and the various image data referred to by the business support program are transmitted between the data input server 1 and the administrator terminal 3.
  • the various ledger data and the various image data described above may be stored in the storage unit of the administrator terminal 3. In the case of such a configuration, not only the data input system but all of the processes related to character recognition and data input can be performed only by the administrator terminal 3 which is the character recognition device of the present invention.
  • the data input process includes eight processes: an order process S101, an order process S102, a division process S103, an OCR process S104, a reduction process S105, an input process S106, a verify process S107, and a final check process S108.
  • the processes of S101 to S108 are sequentially executed, so that the ordering of the data input between the orderer and the administrator and the delivery of the character data input by the worker to the orderer are performed. It has become.
  • the orderer who has converted the data entry target form into image data uses the image data (original image 201, FIG. 2) as the ordering data, and the order data management ledger of the data input server 1 is used.
  • the order data management ledger of the data input server 1 is used.
  • an order is placed with respect to an administrator who belongs to the operating organization of the data input server 1.
  • an orderer who has not been converted to image data makes an order to the operating organization by causing the administrator to convert the image data into an image data and registering it in the order data management ledger of the data input server 1.
  • the order data original image 201, FIG. 2 has not been ordered.
  • the orderer who has converted the data input target form into image data in the ordering process S101 the image data ( The original image 201, FIG. 2) is registered in the order data management ledger (FIG. 1) of the manager terminal 3 as the order data, and an order is placed with respect to the manager belonging to the operating organization of the manager terminal 3.
  • an orderer who has not been converted to image data makes an order to the operating organization by causing the administrator to convert it to image data and registering it in the order data management ledger of the administrator terminal 3.
  • the order data (original image 201, FIG. 2) has not been ordered.
  • the orderer needs to register the company name, address, person in charge name, contact information to the person in charge in the order management book (FIG. 1) when placing an order.
  • the time of registration may be before ordering or at the time of initial ordering.
  • At least order data converted into image data (original image 201, FIG. 2) and registration data of the order destination management ledger (FIG. 1) may be associated with each other. .
  • the association may be made based on the identification information in the order destination management ledger (FIG. 1).
  • the orderer's desired fee is registered in the order data management ledger as ordering data.
  • the data items necessary for ordering may be determined appropriately by the operating organization.
  • the manager specifies the order data whose status is not received among the order data registered in the order data management ledger (FIG. 1).
  • the administrator confirms the image data (original image 201, FIG. 2) of the ordering data and the desired charge and determines that the order can be accepted
  • the administrator updates the ordering data state to the order, and the image data ( The subsequent processing is performed on the original image 201 and FIG.
  • the administrator performs an operation for specifying the template image 202 (FIG. 4) corresponding to the original image 201 (FIG. 2) in the administrator terminal 3.
  • the original image 201 (FIG. 2) and a list of template images may be displayed and the corresponding template image 202 (FIG. 4) may be instructed.
  • the template image 202 may be specified automatically, for example, according to the characteristics of the original image 201 without depending on an instruction operation by the administrator.
  • the template image 202 may be specified on the condition that a specific pattern (such as a character or a barcode) exists at a specific position in the original image 201.
  • the administrator terminal 3 transmits information (for example, a file name) that can identify the template image 202 (FIG. 4) to the data input server 1.
  • the data input server 1 based on information (for example, a file name) that can specify the template image 202 (FIG. 4), the template divided image 204 (FIG. 5 (a)) associated with the template image 202 (FIG. 4). )) Is specified.
  • the template divided image 204 (FIG. 5A) is information that can specify the location of the original image 201 (FIG. 2) (for example, the vertical direction from the upper left end point of the original image 201 (FIG. 2)) And the distance in the horizontal direction). Then, the identified template divided image 204 (FIG. 5A) is transmitted to the administrator terminal 3.
  • the administrator terminal 3 stores information (for example, file name) that can identify the template image 202 (FIG. 4) and the template image 202 (FIG. 4). Based on the identifiable information (for example, file name), the template divided image 204 (FIG. 5A) associated with the template image 202 (FIG. 4) is specified.
  • information for example, file name
  • the template divided image 204 FIG. 5A
  • the administrator terminal 3 sets a description area in the original image 201 (FIG. 2) based on the template divided image 204 (FIG. 5A) (original image area setting state 203 (FIG. 3)) and sets The described description area is extracted as a divided image 205 (FIG. 5B) of the original image.
  • the original image 201 (FIG. 2) is divided into divided images 205 (FIG. 5B) of the original image.
  • the divided image 205 of the original image is stored in association with the original image 201.
  • the divided image 205 of the original image is associated with the original image 201.
  • the administrator terminal 3 transmits the divided image 205 of the original image to the data input server 1 for storage.
  • the original image 201 (FIG. 2) is also divided into a plurality of description areas. Is done.
  • the administrator terminal 3 that has received the designation of the template image 202 (FIG. 4) from the administrator through the dividing process S103 generates the template divided image 205 (FIG. 5B).
  • the administrator terminal 3 transmits the template divided image 205 (FIG. 5B) to the data input server 1 for storage.
  • the administrator terminal 3 performs OCR on the template divided image 205 (FIG. 5B).
  • the result of the OCR is a recognized character and an area corresponding to the character (for example, coordinates of four corners in the image data).
  • the area other than the area corresponding to the recognized character is treated as an area that cannot be recognized if there is a character.
  • the recognized characters may include characters that have been correctly recognized (recognized characters) and characters that have been recognized incorrectly (erroneously recognized characters).
  • a region an unrecognized region that could not be recognized as having a character may include a character (an erroneously unrecognized character) that was not erroneously recognized.
  • the administrator terminal 3 adds the character data 206 (FIG. 3) as the OCR result to the divided image 205 (FIG. 5B) of the original image, in other words, the typeface corresponding to the recognized character. Is overlaid on the area in the divided image 205 (FIG. 5B) of the original image corresponding to the recognized character, thereby converting the OCR reversible divided image 207 (FIG. 5C) of the original image. Generate. At this time, the OCR reversible divided image 207 is stored in association with the divided image 205 of the original image. As a result, the OCR reversible divided image 207 is finally associated with the original image 201.
  • the administrator terminal 3 transmits the OCR reversible divided image 207 (FIG. 5C) to the data input server 1 for storage. .
  • the recognized character is the font data of the typeface
  • a mark double circle
  • indicating that it is a recognized character is additionally written to make the recognized character easier to visually recognize.
  • the mark (double circle) indicating that it is a recognized character and the mark (Hatena) indicating that it is an unrecognized area are written together, it is easy to visually recognize the recognized character and the unrecognized area.
  • the present invention is not limited to this, and may be configured to give different colors (for example, black and blue) to the recognized character and the unrecognized area.
  • the administrator terminal 3 displays the original OCR reversible divided image 207 (FIG. 5C).
  • the reduction screen shown in FIG. 6 is displayed.
  • the reduction screen (FIG. 6) includes a divided image 205 (FIG. 5B) of the original image, an OCR reversible divided image 207 of the original image (FIG. 5C), a reduction result input by the administrator, It is composed of
  • the administrator terminal 3 displays the divided image 205 (FIG. 5B) of the original image and the OCR reversible divided image 207 (FIG. c)) is received from the data input server 1 and displayed.
  • an arrow (outlined) indicating a currently focused position is displayed.
  • the diminishing screen (FIG. 6) is displayed, that is, in the initial state, the arrow (outlined) is displayed at a position indicating the first character that is the leftmost character at the top.
  • the arrow (outlined) is displayed at a position indicating the center of the region.
  • the administrator performs one of four types of operations on the input unit (keyboard) while looking at the reduced screen (FIG. 6) of the administrator terminal 3.
  • the first type of operation is a “space key” that indicates that the recognized character has been correctly recognized.
  • the administrator inputs a “space key” while an arrow (outlined) indicates a recognized character
  • a mark (re) indicating that the recognized character is correct is displayed at the place indicated by the arrow (outlined).
  • a mark (circle) indicating that the recognized character is correct is additionally displayed in the reduction result. Thereafter, the arrow (outlined) moves to either the recognized character on the right or the unrecognized area.
  • the first type of operation is an operation for instructing that the unrecognized area does not include characters, that is, that it has not been correctly recognized.
  • the administrator inputs a “space key” while the arrow (outlined) indicates an unrecognized area
  • a mark (re) indicating that the unrecognized area is correct is displayed at the location indicated by the arrow (outlined). In addition, nothing is additionally displayed in the reduction result. This is because there were no characters.
  • the arrow (outlined) moves to either the recognized character on the right or the unrecognized area.
  • the second type of operation is an “X-key” that indicates that the recognized character was not recognized correctly.
  • the recognition character is displayed at the place indicated by the arrow (outlined) in the OCR reversible divided image 207 (FIG. 5C) of the original image on the reduction screen (FIG. 6).
  • a mark (X) is displayed indicating that is incorrect.
  • a mark (cross) indicating that the recognized character is wrong is additionally displayed in the diminishing result.
  • the arrow (outlined) moves to either the recognized character on the right or the unrecognized area.
  • the third type of operation is an “X-key” that indicates that characters are included in the unrecognized area, that is, that erroneously unrecognized characters are included.
  • the administrator inputs “X-Key”
  • the OCR reversible divided image 207 (FIG. 5C) of the original image on the reduction screen (FIG. 6) is erroneously displayed at the location indicated by the arrow (outlined).
  • a mark (zette) indicating that the recognized character is included is displayed.
  • a mark (zette) indicating that an unrecognized character is included in the reduction result is additionally displayed.
  • the second type operation and the third type operation are the same as the operation content. That is, at least three types of instruction operations are sufficient.
  • the administrator terminal 3 by distinguishing whether the operation of the key is for a character with a “double circle mark” or an area with a “Hatena mark”. It is possible to determine whether the operation should be given an “X mark” or an operation that should be given a “Zt mark”. For example, the determination at the administrator terminal 3 may be simplified by setting the third type of operation as pressing the “ZET key”, that is, by preparing four types of instruction operations.
  • the arrow (outlined) is not moved.
  • the administrator presses the “X key” that indicates that there are as many erroneously unrecognized characters as the number of erroneously unrecognized characters included in the unrecognized area.
  • the arrow (outlined) points to this unrecognized area, the administrator presses the “X key” three times. Then, marks (zets) indicating that erroneously unrecognized characters are included are displayed in the unrecognized area by the number of times of pressing (here, 3).
  • the fourth type of operation is an “Enter key” that indicates that the reduction is over.
  • the administrator inputs “enter key”
  • the result of reduction of the section (one line) that is the target of reduction is fixed.
  • the number of characters included in the reduction result is also determined.
  • the arrow (outlined) will be either the recognized character next to the right or the unrecognized area. It only moves. However, if there is no recognized character or unrecognized area on the right side, the reduction result is determined.
  • the recognition was made erroneous by putting a mark (re) on the recognition character to indicate that the recognition was correct. This is indicated by marking the recognition character with a mark (cross), but the present invention is not limited to this, and by changing the color of the recognition character (le) that the recognition was correct, The recognition error may be indicated by changing the recognition character (X) to a different color.
  • these keys may be any keys. For example, when a key that is not used for normal data input such as a function key is used, the input operation itself becomes unfamiliar, but the input operation itself is performed while paying attention to the meaning of the operation.
  • the administrator who has confirmed the reduction result of all the sections (rows) stores the reduction result in the administrator terminal 3 by clicking the “Finish” button.
  • This reduction result is stored together with the specific information (for example, file name) of the OCR reversible divided image 207 that is the target of the reduction process.
  • the administrator terminal 3 transmits the diminishing result to the data input server 1 to be stored.
  • the administrator terminal 3 storing the reduction result generates an input image 210 (upper part of FIG. 7).
  • the reduction result is stored in association with the specific information (for example, file name) of the OCR reversible divided image 207 stored together with the reduction result.
  • the reduction result is finally associated with the original image 201.
  • an area corresponding to a recognized character (cross mark) identified as having been recognized incorrectly and an erroneously unrecognized area including an erroneously unrecognized character (zett mark) are converted into the original image.
  • the divided image 205 (FIG. 5B) is extracted to generate the input image 210 (upper part of FIG. 7).
  • the administrator terminal 3 transmits the input image 210 (upper part of FIG. 7) to the data input server 1 to be stored.
  • the input field has a plurality of sections in the divided image 205 (FIG. 5B) of the original image, for example, when there are two lines (two sections) as shown in FIG. 5B.
  • the input image 210 (upper part of FIG. 7) may be arranged in two rows (two sections).
  • each character is a recognized character (cross mark) that has been identified as having been erroneously recognized or a false unrecognized character (zet mark) included in the erroneously unrecognized area in the reduction processing S105.
  • a similar mark may be attached.
  • you may attach different colors (for example, green and yellow) instead of a mark.
  • the worker terminal 2a, the worker terminal 2b, and the administrator terminal 3 display the input image 210 (upper part of FIG. 7).
  • the input screen shown in FIG. 7 is displayed.
  • the input screen (FIG. 7) includes an input image 210 (upper part of FIG. 7) and an input result input by the operator.
  • the worker terminal 2 a, the worker terminal 2 b, and the administrator terminal 3 display the input image 210 (upper part of FIG. 7) as the data input server 1. Receive from and display.
  • the worker terminal 2a, worker terminal 2b, and manager terminal 3 that have received the input result store the input result.
  • the input result is stored in association with the specific information (for example, file name) of the input image 211 received together with the input result.
  • the input result is finally associated with the original image 201.
  • the worker terminal 2a, the worker terminal 2b, and the administrator terminal 3 transmit the input result to the data input server 1 for storage.
  • the worker terminal 2a, the worker terminal 2b, and the administrator terminal 3 display the input image 210 (upper part of FIG. 8) and the input result.
  • the verify screen shown in FIG. 8 is displayed.
  • the verification screen (FIG. 8) includes an input image 210 (upper part of FIG. 8), an input result (middle part of FIG. 8) input by the operator, and a verification result (lower part of FIG. 8).
  • the worker terminal 2 a, the worker terminal 2 b, and the administrator terminal 3 include an input image 210 (upper part of FIG. 8) and an operator
  • the input result (the middle part of FIG. 8) is received from the data input server 1 and displayed.
  • the worker or the administrator can check which of the two types of operations is performed on the input unit (keyboard) while looking at the verify screen (FIG. 8) of the worker terminal 2a, the worker terminal 2b, or the administrator terminal 3. Do something.
  • the first type of operation is a “space key” that instructs the input image 210 (upper part of FIG. 8) that the input result (middle part of FIG. 8) input by the operator is correct by one character.
  • a mark (circle) indicating that one character is correct is additionally displayed in the verification result (lower row in FIG. 8).
  • the second type of operation is an “X-key” that instructs the input image 210 (upper part of FIG. 8) that the input result (middle part of FIG. 8) input by the operator is incorrect by one character.
  • X-key instructs the input image 210 (upper part of FIG. 8) that the input result (middle part of FIG. 8) input by the operator is incorrect by one character.
  • a mark (cross) indicating that one character is incorrect is additionally displayed in the verification result (lower row in FIG. 8).
  • the worker or administrator who has finished the verification stores the verification result in any of the worker terminal 2a, the worker terminal 2b, and the administrator terminal 3 by clicking the “Finish” button.
  • This verification result is stored together with specific information (for example, a file name) of the input result subjected to the verification process.
  • the administrator terminal 3 transmits the verification result to the data input server 1 to be stored.
  • the worker or the administrator instructs the input process S106 to the worker who has input the data to be verified, or the input process itself. S106 may be performed. Further, the input process S106 may not be performed. Which of these is to be selected, and whether the verification process S107 is further performed after the execution of the input process S106, is appropriately determined by the operator or the manager according to the period of the ordering contents from the orderer and the desired fee. Just judge.
  • the administrator collects the character data recognized by the OCR process S104 and the character data input by the operator to create data in a predetermined format, for example, CSV (Comma Separated Values) format. Is uploaded to the data input server 1 and stored in the data input server 1 as delivery data 213.
  • CSV Common Separated Values
  • the administrator When delivering from the operating organization of the thin client network system to the orderer, the administrator appropriately retrieves the delivery data 213 from the data input server 1.
  • characters that are inadequate in character recognition that is, characters that have been misrecognized among the recognized characters (characters marked with a cross in the reduction processing S105), and characters Can be identified from the recognition result composite data from a region in which characters included in the region not recognized as unrecognized (a region marked with zette in the reduction processing S105).
  • OCR processing S104 characters that are inadequate in character recognition
  • characters marked with a cross in the reduction processing S105 characters that have been misrecognized among the recognized characters
  • characters can be identified from the recognition result composite data from a region in which characters included in the region not recognized as unrecognized (a region marked with zette in the reduction processing S105).
  • the character recognition device (administrator terminal 3) has the template divided image 204 (see FIG. 5 (FIG. 5)) that is predetermined according to the type of image data (original image 201 (FIG. 2)).
  • An OCR reversible divided image 207 divided by a)) and an input image 210 are generated.
  • the user (administrator) has received the error recognition character data receiving means (processing for receiving the reduction result 209 in the reduction processing S105) or the input data reception means (processing for receiving the input result 211 in the input processing S106). Only individual sections are displayed, and only these individual sections can be output. As a result, the user can more easily find characters in the original image 201 that are inadequate in character recognition.
  • the user can recognize only the characters that are deficient in the character recognition (OCR processing S104), that is, the characters that are misrecognized in the area recognized as characters (the reduction processing S105). Only for the area corresponding to the character marked with a cross in (), and only for the unrecognized area (the area marked with Z in the diminishing process S105) that is not recognized as a character.
  • Data input image 210 (upper part of FIG. 7)
  • the user can color characters that are incomplete in character recognition (OCR processing S104) from the input data (input image 210 (upper part of FIG. 7)). Can be easily identified. This makes it easier for the user (administrator) to find characters that are incompletely recognized in the input data.
  • the user (manager) in the misrecognized character data receiving means allows the user (administrator) to recognize the recognizable / non-recognized composite data (OCR reversible divided image 207 (FIG. 6)).
  • OCR reversible divided image 207 FIG. 6
  • there is one type of character recognition deficiency that is, an unrecognized character (a character to be marked with a zette), or a character in the Hatena mark region that was not recognized as a character.
  • the user (manager) in the misrecognized character data receiving means allows the user (administrator) to recognize the recognizable / non-recognized composite data (OCR reversible divided image 207 (FIG. 6)).
  • the erroneously recognized characters can be easily identified by the shape of the characters (printed font data). This makes it easy for the user to identify and further indicate the characters that are incomplete in the character recognition in the recognizable / non-recognizable data, thereby reducing the cost for comprehensive character recognition.
  • the user (administrator) in the erroneously recognized character data receiving means allows the user (administrator) in the double circle mark area recognized as a character.
  • the instruction input means indicates the misrecognized character and its area (cross mark area), and the number of unrecognized characters (set mark area) in the Hatena mark area not recognized as a character. Keys, X-keys, and return keys can be used for easy instruction. Thereby, the cost for comprehensive character recognition can be reduced.
  • the order process S101 and the order process S102 may not be performed when the data input system is operated for the operating organization itself, in other words, not for the client company but for the company itself. good.
  • the division process S103 may not be performed when the form is a simple form with a small description area or when a template image is not prepared in advance. If the division process S103 is not performed, the OCR process S104, the reduction process S105, the input process S106, the verify process S107, the final check process S108, etc. may be performed on the original image 201 (FIG. 2) in the subsequent processes. good.
  • the verification process S107 may be omitted when the period and fee requested by the orderer are not sufficient, or when the period and fee are sufficient, the process of multiple persons is performed several times to improve the quality of the delivery data. You may try to raise it.
  • the fact that the verify process is performed a plurality of times indicates that the input process S106 may also be performed a plurality of times on condition that a defect has been confirmed in the verify process. That is, if the verify process is performed a plurality of times, both the period and the fee are consumed.
  • the ordering process S101 is performed by registering ordering data
  • the ordering process S102 is performed by the administrator's confirmation of the ordering data.
  • the ordering process is performed mainly by human judgment.
  • a plurality of administrators Fig. 1
  • a plurality of companies intend to receive orders for the ordering data. Become.
  • an order may be placed by auction.
  • the ordering process S101 is regarded as an auction exhibition process
  • the order receiving process S102 is regarded as a bid process for an auction by an administrator, and a successful bid process for an auction by an orderer, and functions corresponding to these processes are implemented. good.
  • the data input server 1 is comprised as one server computer, this invention is not limited to this, From the viewpoint of a scalability improvement, it comprises with several server computers. Also good.
  • load balancing hardware (so-called load balancer) is installed between the data input server group and the Internet 5, and the load balancing hardware transmits / receives data transmitted / received from / to the Internet 5. What is necessary is just to perform load distribution to each data input server by appropriately distributing to the data input server and distributing.
  • the data input server 1 is comprised as one server computer, this invention is not limited to this, A plurality of server computers with the same function are used from a viewpoint of an availability improvement. It is also possible to prepare and duplicate hardware. In such a case, when preparing the data input server 1 ′ having the same configuration as the data input server 1 or configuring the load input hardware and the data input server group as described above, Two of these may be prepared as appropriate and duplexed. One is normal system hardware that is normally used, and the other is standby hardware that is substituted when an abnormality occurs in the normal system. In this state, the availability can be further improved by further providing failure recovery hardware that automatically detects the abnormality and switches the hardware from the normal system to the standby system.
  • the data input server 1 is comprised as one server computer provided with the function which manages data, and a function other than that, this invention is not limited to this.
  • a plurality of server computers having different roles may be configured. For example, you may divide
  • a clustering technique for operating a plurality of database servers as if they are one database may be applied. This is a so-called database cluster configuration. With such a configuration, scalability and availability can be improved at the same time.
  • LVS Linux Virtual Server

Abstract

 元画像201とOCR結果206から認識文字を活字体フォントデータに置換したOCR可逆化分割画像207を生成して表示し、管理者から誤認識文字と誤未認識文字を含む領域を特定可能な目減り結果209の入力を受け付ける管理者端末3を提供する。管理者端末3によれば、文字認識に不備があった文字、すなわち認識された文字のうち誤認識された文字と、文字として認識されなかった領域に含まれる文字が未認識である領域と、を認識結果合成データの中から識別できる。これにより、文字認識に不備があった文字に確実に出力できる。

Description

文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、原稿に書かれている文字を光学的に認識して、文字データとして出力するための文字認識装置に関する。
 従来、原稿に書かれている文字を光学的に認識して文字データとして出力するための文字認識装置には、誤認識を低減したいという要望があった。
 また、このような文字認識装置を用いて出力した文字データは、その後、誤認識した文字を人手により入力しなおす場合が多く、誤認識した文字の数や位置などの情報を出力したいという要望があった。
 そこで、認識できた文字と認識できなかった文字とを識別可能に表示するものが提案されている(例えば、特許文献1参照)。
特開2005-18678号公報、請求項1
 しかしながら、特許文献1にあっては、認識できた文字と認識できなかった領域とを識別可能に表示しているが、認識できた文字には、認識が正しかった文字と誤認識した文字とが含まれうる。また、認識できなかった領域には、未認識である文字が含まれうる。このうち、その後の入力対象となるのは、認識できた文字に含まれる誤認識した文字と、認識できなかった領域に含まれる文字であるが、これらの文字認識に不備があった文字を見分けることが難しいという問題があった。
 本発明は、このような問題点に着目してなされたもので、文字認識に不備があった文字に確実に出力できる文字認識装置を提供することを目的とする。
 上記課題を解決するために、本発明の請求項1に記載の文字認識装置は、
 画像データ(元画像201(図2))に含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データ(OCR結果206)を生成する認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域(二重丸マークの領域)と、文字として認識されなかった領域(はてなマークの領域)とを、利用者が識別可能な認識可否合成データ(OCR可逆化分割画像207)を生成する認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)と、
 前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段(目減り処理S105において元画像201とOCR可逆化分割画像207を送信する処理を行う管理者端末3のCPU)と、
 前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字(誤認識文字)の領域の指定(バツマークの領域)と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識(誤未認識文字)である領域の指定(ゼットマークの領域)と、からなる誤認識文字データ(目減り結果209)を、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU))と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字(誤認識文字)に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識(誤未認識文字)である領域と、を、前記利用者が識別可能な認識結果合成データ(入力用画像210)を生成する認識結果合成データ生成手段(入力処理S106の一部として入力用画像210の生成処理を行う管理者端末3のCPU)と、
 を備える、
 ことを特徴としている。
 この特徴によれば、文字認識に不備があった文字、すなわち認識された文字のうち誤認識された文字と、文字として認識されなかった領域に含まれる文字が未認識である領域と、を認識結果合成データの中から識別できる。これにより、文字認識に不備があった文字に確実に出力できる。
 本発明の請求項2に記載の文字認識装置は、請求項1に記載の文字認識装置であって、
 前記文字認識装置(管理者端末3)は、
 前記画像データの種類(テンプレート画像202(図4)を特定可能な情報(例えばファイル名))と、該種類ごとに予め定められた区画(テンプレート分割画像204)を雛型として記憶する雛型記憶手段(テンプレート画像202、テンプレート分割画像204を記憶する記憶部)と、
 前記画像データの種類を特定する種類特定手段(テンプレート画像202(図4)を特定可能な情報(例えばファイル名)を管理者から受け付ける処理を行う管理者端末3のCPU)と、
 前記種類特定手段にて特定した前記画像データの種類に対応付けて、前記雛型記憶手段に記憶された雛型を特定し、該特定された雛型毎に予め定められた区画に、前記画像データを分割した分割画像データ(元画像の分割画像205)を前記画像データとして生成する分割画像データ生成手段(分割処理S103を行う管理者端末3のCPU)と、
 を備え、
 前記認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)は、前記分割画像データ生成手段にて生成された前記分割画像データに含まれる文字を光学的に認識して、前記認識可否合成データ(OCR可逆化分割画像207)を生成し、
 前記認識結果合成データ生成手段(入力処理S106において入力用画像210を生成する処理を行う管理者端末3のCPU)は、前記分割画像データ毎に、前記認識結果合成データ(入力用画像210)を生成する、
 ことを特徴としている。
 この特徴によれば、前記文字認識装置では、前記画像データの種類に応じて予め定められた区画に分割された前記認識可否合成データと、前記認識結果合成データとが生成される。そのため前記利用者は、個々の区画のみを出力させることができる。これにより、文字認識に不備があった文字を利用者が一層見つけやすくできる。
 本発明の請求項3に記載の文字認識装置は、請求項1または2のいずれかに記載の文字認識装置であって、
 前記認識結果合成データ生成手段(入力処理S106において入力用画像210を生成する処理を行う管理者端末3のCPU)は、前記画像データ(元画像201)の全領域のうち、前記認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)にて前記文字として認識された領域のうち、前記誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU)にて受け付けた誤認識文字データ(目減り結果209)に含まれる誤認識した文字に該当する領域(バツマークの領域)と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識である領域(ゼットマークの領域)のみを含む、前記認識結果合成データ(入力用画像210)を生成する、
 ことを特徴としている。
 この特徴によれば、前記利用者は、文字認識に不備があった文字のみ、すなわち文字として認識された領域においては誤認識された文字に該当する領域のみ、また、文字として認識されなかった領域においては未認識である領域のみ、が含まれた認識結果合成データを出力させることができる。これにより、前記利用者は、文字認識に不備があった文字を一層見つけやすくできる。
 本発明の請求項4に記載の文字認識装置は、請求項1~3のいずれかに記載の文字認識装置であって、
 前記認識結果合成データ生成手段(入力処理S106において入力用画像210を生成する処理を行う管理者端末3のCPU)は、前記画像データ(元画像201)の全領域のうち、前記認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)にて文字として認識された領域(二重丸マークの領域)と、文字として認識されなかった領域(はてなマークの領域)と、前記誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU)にて受け付けた誤認識文字データ(目減り結果209)に含まれる、前記文字として認識された領域のうち誤認識した文字に該当する領域(バツマークの領域)と、前記文字として認識されなかった領域のうち未認識である文字に該当する領域(ゼットマークの領域)と、に対して互いに異なる色(たとえば、緑と黄)を付与した前記認識結果合成データ(入力用画像210)を生成する、
 ことを特徴としている。
 この特徴によれば、前記利用者は、文字認識に不備があった文字を、認識結果合成データの中から色により容易に識別できる。これにより、前記利用者は、文字認識に不備があった文字を一層見つけやすくできる。
 本発明の請求項5に記載の文字認識装置は、請求項1~4のいずれかに記載の文字認識装置であって、
 前記認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)は、前記画像データ(元画像201)の全領域のうち、前記認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)にて文字として認識された領域(二重丸マークの領域)と、文字として認識されなかった領域(はてなマークの領域)と、に対して互いに異なる色(たとえば、黒と青)を付与した前記認識可否合成データ(OCR可逆化分割画像207)を生成する、
 ことを特徴としている。
 この特徴によれば、前記誤認識文字データ受付手段において前記利用者は、前記認識可否合成データ中の個々の領域においてはそれぞれ1種類の文字認識の不備、すなわち、文字として認識されなかった領域においては未認識の文字、また、文字として認識された領域においては誤認識された文字、をそれぞれ見分ければ良いが、それぞれの領域には異なる色が付与されており、どの領域に対して作業しているのか、どの不備を見分けようとしているのか、という点において、前記利用者が間違いづらくなっている。これにより、前記認識可否合成データのうち、文字認識に不備があった文字を利用者が見分けやすく、さらには指示しやすくできるので、総合的な文字認識にかかるコストを低減できる。
 本発明の請求項6に記載の文字認識装置は、請求項1~5のいずれかに記載の文字認識装置であって、
 前記認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)は、前記認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)にて文字として認識された領域(二重丸マークの領域)においては、前記利用者(管理者)が、(活字体フォントデータの埋め込みにより)該文字をかたどる部分のみを識別可能にした前記認識可否合成データを生成する、
 ことを特徴としている。
 この特徴によれば、前記誤認識文字データ受付手段において前記利用者は、認識可否合成データに含まれる認識された文字のうち、誤認識された文字をその文字の形により容易に識別できる。これにより、前記認識可否合成データのうち、文字認識に不備があった文字を利用者が見分けやすく、さらには指示しやすくできるので、総合的な文字認識にかかるコストを低減できる。
 本発明の請求項7に記載の文字認識装置は、請求項1~6のいずれかに記載の文字認識装置であって、
 前記文字認識装置(管理者端末3)は、
 前記利用者から3種類の異なる指示入力(エンターキー、エックスキー、リターンキー)が可能な指示入力手段(キーボードを含む入力部)を備え、
 前記誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU)は、前記認識可否合成データ(OCR可逆化分割画像207)に含まれる、文字として認識された領域(二重丸マークの領域)においては、前記指示入力手段により、文字として認識した個々の領域に対応付けて、1文字が認識できている旨を示す1の指示(エンターキー)か、1文字が認識できていない旨を示す2の指示(二重丸マークの文字に対するエックスキー)のいずれかを受け付け、また、前記認識可否合成データに含まれる文字として認識されなかった領域(はてなマークの領域)においては、1文字が認識できていない旨を示す2の指示(はてなマークの領域におけるエックスキー)を認識できていない文字の数だけ受け付け、次に、該領域の指示入力が終了した旨を示す3の指示(リターンキー)を受け付けることで、前記認識可否合成データに含まれる文字として認識された領域における誤認識された文字の領域と、前記文字として認識されなかった領域における未認識とされた文字の領域の数とを特定する、
 ことを特徴としている。
 この特徴によれば、前記誤認識文字データ受付手段において前記利用者は、文字として認識された領域においては誤認識された文字とその領域を、また、文字として認識されなかった領域においては未認識の文字の数を、それぞれ前記指示入力手段より指示入力を行うのみで容易に指示できる。これにより、総合的な文字認識にかかるコストを低減できる。
 本発明の請求項8に記載の文字認識プログラムは、
 コンピュータ(管理者端末3)を、
 画像データ(元画像201(図2))に含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データ(OCR結果206)を生成する認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域(二重丸マークの領域)と、文字として認識されなかった領域(はてなマークの領域)とを、利用者が識別可能な認識可否合成データ(OCR可逆化分割画像207)を生成する認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)と、
 前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段(目減り処理S105において元画像201とOCR可逆化分割画像207を送信する処理を行う管理者端末3のCPU)と、
 前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字(誤認識文字)の領域の指定(バツマークの領域)と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識(誤未認識文字)である領域の指定(ゼットマークの領域)と、からなる誤認識文字データ(目減り結果209)を、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU))と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字(誤認識文字)に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識(誤未認識文字)である領域と、を、前記利用者が識別可能な認識結果合成データ(入力用画像210)を生成する認識結果合成データ生成手段(入力処理S106の一部として入力用画像210の生成処理を行う管理者端末3のCPU)と、
 して機能させる、
 ことを特徴としている。
 この特徴によれば、文字認識に不備があった文字、すなわち認識された文字のうち誤認識された文字と、文字として認識されなかった領域に含まれる文字が未認識である領域と、を認識結果合成データの中から識別できる。これにより、文字認識に不備があった文字に確実に出力できる。
 本発明の請求項9に記載の文字認識プログラムを記録したコンピュータ読み取り可能な記録媒は、
 コンピュータ(管理者端末3)を、
 画像データ(元画像201(図2))に含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データ(OCR結果206)を生成する認識文字データ生成手段(OCR処理S104においてOCR結果206を生成する処理を行う管理者端末3のCPU)と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域(二重丸マークの領域)と、文字として認識されなかった領域(はてなマークの領域)とを、利用者が識別可能な認識可否合成データ(OCR可逆化分割画像207)を生成する認識可否合成データ生成手段(目減り処理S105においてOCR可逆化分割画像207を生成する処理を行う管理者端末3のCPU)と、
 前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段(目減り処理S105において元画像201とOCR可逆化分割画像207を送信する処理を行う管理者端末3のCPU)と、
 前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字(誤認識文字)の領域の指定(バツマークの領域)と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識(誤未認識文字)である領域の指定(ゼットマークの領域)と、からなる誤認識文字データ(目減り結果209)を、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理を行う管理者端末3のCPU))と、
 前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字(誤認識文字)に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識(誤未認識文字)である領域と、を、前記利用者が識別可能な認識結果合成データ(入力用画像210)を生成する認識結果合成データ生成手段(入力処理S106の一部として入力用画像210の生成処理を行う管理者端末3のCPU)と、
 して機能させるためのプログラムを記録した、
 ことを特徴としている。
 この特徴によれば、文字認識に不備があった文字、すなわち認識された文字のうち誤認識された文字と、文字として認識されなかった領域に含まれる文字が未認識である領域と、を認識結果合成データの中から識別できる。これにより、文字認識に不備があった文字に確実に出力できる。
本発明の実施例における文字認識装置を含むデータ入力システムの全体像を示すシステム図である。 本発明の実施例における元画像の一例を示す図である。 本発明の実施例における処理の全体を示すフローチャートである。 本発明の実施例におけるテンプレート画像の一例を示す図である。 (a)は本発明の実施例におけるテンプレート分割画像の一例を示す図である。(b)は本発明の実施例における元画像の分割画像の一例を示す図である。(c)は本発明の実施例におけるOCR可逆化分割画像の一例を示す図である。 本発明の実施例における目減り画面の一例を示す図である。 本発明の実施例における入力画面の一例を示す図である。 本発明の実施例におけるベリファイ画面の一例を示す図である。
符号の説明
1    データ入力サーバ
2a   専用型文字認識装置
2b   兼用型文字認識装置
3    管理者用文字認識装置
4    スキャナ
5    インターネット
201  元画像
202  テンプレート画像
203  元画像の領域設定状況
204  テンプレート分割画像
205  元画像の分割画像
206  OCR結果
207  OCR可逆化分割画像
209  目減り結果
210  入力用画像
211  入力結果
212  ベリファイ結果
213  納品用データ
 本発明の実施例を以下に説明する。
[実施例]
 本発明の実施例を図面に基づいて説明すると、まず図1は、本発明の実施例における文字認識装置を含むデータ入力システムの全体像を示すシステム図である。
 本実施例のデータ入力システムは、データ入力サーバ1と、データ入力サーバ1とインターネット5を介して接続された、作業者端末2a、2b、及び、本発明の文字認識装置となる管理者端末3と、管理者端末3に接続されたスキャナ4から主に構成されている。
 まず、データ入力システムの概要と、データ入力システムの利用者について説明していく。
 このデータ入力システムが提供するデータ入力サービスは、管理者が発注者からデータ入力の依頼(発注)を受けて、作業者が発注内容に基づいて文字データを入力し、管理者が文字データを発注者に納品する、というものである。
 また、データ入力システムは、企業がデータ入力サービスを他社に有料で提供するために運営しても良いし、企業が自社内のデータ入力を処理するために運営しても良い。つまり、データ入力システムの運営組織は、企業または企業内のデータ入力部門となる。
 データ入力サーバ1の利用者は、本発明における発注者と、作業者と、本発明における利用者となる管理者と、の3種類となる。管理者は、図1に示す管理者端末3とスキャナ4を利用し、作業者は、図1に示す作業者端末2a、2bを利用する。
 本実施例の発注者は、データ入力の対象となる画像データ化された発注データ(例えば、図2)を自らデータ入力サーバ1に登録することで運営組織に発注する。または、発注者は、発注データを運営組織の管理者に登録させることでデータ入力を発注する。発注データを運営組織の管理者に登録させる場合には、発注者は、いまだ画像データ化されていない状態(例えば、紙の帳票)で発注を行い、運営組織の管理者は、発注された紙媒体をスキャナ4を用いて光学的に読み取って画像データ化を行って、発注データをデータ入力サーバ1に登録する。
 本実施例の作業者は、データ入力サーバ1に登録されている発注データ内に画像として出力されている文字を目で見て、これら文字に該当する文字データを、作業者端末2a、2bの入力部(キーボード、マウスなど)から入力(打鍵)する後述する入力処理を行う。この入力処理において、作業者は入力にかかる打鍵数に応じて収入を得る、言い換えると、データ入力には作業者の打鍵数に応じたコストがかかる。
 また、作業者のデータ入力にはミスが避けられず、管理者による入力後のチェック(ベリファイ作業を呼ばれる)は欠かせない。このベリファイ作業には、チェック対象の文字数に応じたコストがかかるが、チェック作業は打鍵をともなう作業である。
 すなわち、データ入力にかかる総合的なコストは、作業者または管理者の打鍵数に応じたものであり、作業者または管理者の打鍵数を低減させることでコストを低減することができる。
 本実施例の管理者は、管理者端末3を用いてデータ入力サーバ1にアクセスすることで、発注の受け付けから文字データの納品までのデータ入力の全工程を管理する。具体的には、データ入力にかかる作業者または管理者の打鍵数に応じたコストを低減させるための後述する目減り処理や、前述のベリファイ処理を行う。
 次に、データ入力システムを構成するデータ入力サーバ1、作業者端末2a、2b、管理者端末3について説明していく。
 データ入力サーバ1は、各種データを記憶する記憶部、インターネット5を介して各種データの送受信を行うための通信部、各種処理プログラムを実行するためのCPU(Central Processing Unit)、各種処理プログラムの実行に必要なデータを一時的に記憶しておく読み書き可能な揮発性メモリであるRAM(Random Access Memory)、各種処理プログラムの実行に必要なデータを記憶しておく不揮発性メモリであるROM(Read Only Memory)を備えた通常のサーバコンピュータである。
 データ入力サーバ1の記憶部には、図1に示すように、各種画像データと、各種台帳データと、各種業務支援プログラムと、が記憶されている。
 各種画像データは、データ入力の対象となる帳票等の書式のみを画像データ化したテンプレート画像202(図4)と、このテンプレート画像を記載領域ごと、例えば、住所などの帳票内の記載項目ごとに分割したテンプレート分割画像(図5(a))と、データ入力の対象となる画像データ化された発注データである元画像201(図2)と、テンプレート画像及びテンプレート分割画像を参照して元画像を記載領域ごとに分割した元画像の分割画像205(図5(b))と、画像データに画像として出力されている文字を光学的に認識して文字データを出力するOCR(光学的な文字認識、Optical Character Recognition)の出力結果を元画像に合成したOCR可逆化画像と、OCRの出力結果を元画像の分割画像に合成したOCR可逆化分割画像(図5(c))と、からなる。
 各種台帳データは、発注者の氏名や住所などを記憶させるための注文先管理台帳データと、前述の各種画像データの作成者やファイル名などを記憶させるための受注データ管理台帳と、作業者の氏名や住所などを記憶させるためのデータ入力者管理台帳と、受発注にかかる入出金記録を記憶させるための入出金管理台帳と、作業者の作業内容や作業日時を記憶させるためのデータ入力作業者作業管理台帳と、からなる。
 業務支援プログラムは、各種処理を行うためのプログラムである。各種処理は、管理者端末3から発注者の氏名や住所などを受け付けて注文先管理台帳データに登録したり、発注データを受け付けて受注データ管理台帳に登録する受注処理、発注処理と、画像データに対するOCR処理と、テンプレート画像及びテンプレート分割画像を参照して元画像を記載領域ごとに分割した元画像の分割画像を生成する分割処理と、OCR可逆化分割画像を送信した管理者端末3から管理者が入力したOCRの結果に含まれる認識の誤りに関するデータを受信する目減り処理と、OCRによる認識が誤っており人手による入力が必要な部分のみを送信した作業者端末2a、2bから作業者が入力した文字データを受信する入力処理と、作業者が入力した文字データを送信した作業者端末2a、2bから作業者が入力したか、もしくは、管理者端末3から管理者が入力した作業者の入力の誤りに関するデータを受信するベリファイ処理と、OCR処理により認識した文字データと作業者が入力した文字データからなる納品用データを管理者端末3から受け付けて発注が完了した旨を記憶する最終チェック処理と、からなる。
 特に、OCR処理、分割処理、目減り処理、入力処理、のための業務支援プログラムのうち、OCR処理、分割処理、目減り処理、入力処理のために管理者端末3において実行されるプログラムが、本発明の文字認識プログラムを構成する。
 作業者端末2aは、記憶部、通信部、CPU、RAM、ROM、キーボードやマウスなどの入力部、ディスプレイなどの表示部を備え、予め定められたデータ入力サーバ1にアクセスして入力処理を実施するように作られた、データ入力専用のコンピュータである。作業者が前述の入力処理を行うときに利用する。
 作業者端末2bは、記憶部、通信部、CPU、RAM、ROM、入力部、表示部、USB(Universal Serial Bus)メモリなどの外付け記憶装置6を接続可能なインタフェースを備えた通常のコンピュータである。外付け記憶装置6には、予め定められたデータ入力サーバ1にアクセスして入力処理を実施するためのプログラムが記憶されている。この外付け記憶装置6を装着して内部に記憶しているプログラムを実行している間、作業者端末2bは、作業者端末2aと同様にデータ入力専用のコンピュータとなる。作業者が前述の入力処理を行うときに利用する。
 本発明の文字認識装置である管理者端末3は、記憶部、通信部、CPU、RAM、ROM、入力部、表示部を備えた通常のコンピュータである。管理者が前述の目減り処理やベリファイ処理を行うときに利用する。また、前述の入力処理を行うこともできる。すなわち管理者は作業者でもある。
 本発明の文字認識装置である、管理者端末3の記憶部には、図1に示すように、前述のデータ入力サーバ1に記憶されている業務支援プログラムと同じものが記憶されている。これら業務支援プログラムは、管理者端末3の記憶部に予め記憶しておいても良いし、データ入力サーバ1から受信して一時的にこれらに記憶しても良い。どちらの場合にも、管理者端末3のCPUで業務支援プログラムが実行されるようになっている。
 尚、業務支援プログラムは、管理者端末3のCPUで実行され、これら業務支援プログラムで参照される前述した各種台帳データや前述した各種画像データは、データ入力サーバ1と管理者端末3との間で送受信され、データ入力サーバ1の記憶部に記憶される構成としているが、本発明はこれに限定されるものではない。例えば、前述した各種台帳データおよび前述した各種画像データは、管理者端末3の記憶部に記憶される構成としても良い。このような構成の場合には、データ入力システムではなく、本発明の文字認識装置である管理者端末3のみで、文字認識やデータ入力にかかる処理をすべて実施できる。
 次に、本実施例のデータ入力システムにおけるデータ入力処理の流れを、図3に基づいて説明していく。
 データ入力処理は、図3に示すように、発注処理S101、受注処理S102、分割処理S103、OCR処理S104、目減り処理S105、入力処理S106、ベリファイ処理S107、最終チェック処理S108という8つの処理からなる。原則的には、S101~S108の処理を順次実行することにより、発注者と管理者の間でのデータ入力の受発注や、作業者が入力した文字データの発注者への納品までを行うようになっている。
 まず、発注処理S101において、データ入力の対象となる帳票などを画像データ化していた発注者は、この画像データ(元画像201、図2)を発注データとして、データ入力サーバ1の受注データ管理台帳(図1)に登録させることでデータ入力サーバ1の運営組織に所属する管理者に対して発注を行う。一方、画像データ化していない発注者は、管理者に画像データ化させるとともに、データ入力サーバ1の受注データ管理台帳に登録させることで、運営組織に対して発注を行う。この段階では発注データ(元画像201、図2)の状態は未受注となっている。
 また、各種台帳データおよび各種画像データが管理者端末3に記憶されている場合には、発注処理S101において、データ入力の対象となる帳票などを画像データ化していた発注者は、この画像データ(元画像201、図2)を発注データとして、管理者端末3の受注データ管理台帳(図1)に登録させることで管理者端末3の運営組織に所属する管理者に対して発注を行う。一方、画像データ化していない発注者は、管理者に画像データ化させるとともに、管理者端末3の受注データ管理台帳に登録させることで、運営組織に対して発注を行う。この段階では発注データ(元画像201、図2)の状態は未受注となっている。
 尚、発注処理S101においては、発注者は発注に際して、企業名、住所、担当者名、担当者への連絡先などが注文先管理台帳(図1)に登録してある必要がある。登録の時期は、発注の前でも良いし最初の発注時でも良い。
 受注データ管理台帳(図1)への登録内容としては、少なくとも画像データ化された発注データ(元画像201、図2)と注文先管理台帳(図1)の登録データとを対応付けられれば良い。例えば、注文先管理台帳(図1)における識別情報により対応付ければ良い。また、画像データ以外の発注に必要なデータも、例えば、発注者の希望料金なども発注データとして受注データ管理台帳に登録するようになっている。これら発注に必要なデータの項目は運営組織が適宜に定めれば良い。
 次に、受注処理S102において、管理者は、受注データ管理台帳(図1)に登録されている発注データのうち、状態が未受注である発注データを特定する。管理者は、発注データの画像データ(元画像201、図2)や希望料金を確認して受注可能と判断した場合に、発注データの状態を受注に更新して、この発注データの画像データ(元画像201、図2)を対象に以降の処理を行う。
 次に、分割処理S103において、管理者は、管理者端末3において、元画像201(図2)に対応するテンプレート画像202(図4)を特定する操作を行う。例えば、元画像201(図2)とテンプレート画像の一覧を表示させて、対応するテンプレート画像202(図4)の指示操作を行えば良い。
 尚、テンプレート画像202の特定は、管理者の指示操作によらず、例えば、元画像201の特徴により自動的に行っても良い。例えば、元画像201の特定の位置に特定のパターン(文字やバーコードなど)が存在することを条件に、テンプレート画像202を特定すれば良い
 そして、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、テンプレート画像202(図4)を特定可能な情報(例えばファイル名)をデータ入力サーバ1に送信し、データ入力サーバ1は、テンプレート画像202(図4)を特定可能な情報(例えばファイル名)に基づいて、このテンプレート画像202(図4)に対応付けられたテンプレート分割画像204(図5(a))を特定する。テンプレート分割画像204(図5(a))は、元画像201(図2)のどの場所に相当するかを特定可能な情報(例えば、元画像201(図2)の左上の端点からの縦方向の距離と、横方向の距離の組み合わせ)とともに記憶されている。そして、特定されたテンプレート分割画像204(図5(a))が、管理者端末3に送信される。
 また、各種画像データが管理者端末3に記憶されている場合には、管理者端末3は、テンプレート画像202(図4)を特定可能な情報(例えばファイル名)テンプレート画像202(図4)を特定可能な情報(例えばファイル名)に基づいて、このテンプレート画像202(図4)に対応付けられたテンプレート分割画像204(図5(a))を特定する。
 管理者端末3は、テンプレート分割画像204(図5(a))に基づいて、元画像201(図2)に記載領域を設定して(元画像の領域設定状況203(図3))、設定した記載領域を元画像の分割画像205(図5(b))として抽出する。言い換えると、元画像201(図2)を元画像の分割画像205(図5(b))に分割する。このとき、元画像の分割画像205は、元画像201に対応付けて記憶される。これにより元画像の分割画像205は元画像201と対応付けられる。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、元画像の分割画像205をデータ入力サーバ1に送信して記憶させる。
 ここでテンプレート画像202(図4)に対して、複数のテンプレート分割画像204(図5(a))が対応付けられている場合には、元画像201(図2)も複数の記載領域に分割される。
 つまり、分割処理S103により、管理者からのテンプレート画像202(図4)の指定を受け付けた管理者端末3は、テンプレート分割画像205(図5(b))を生成する。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、テンプレート分割画像205(図5(b))をデータ入力サーバ1に送信して記憶させる。
 次に、OCR処理S104において、管理者端末3は、テンプレート分割画像205(図5(b))に対してOCRを行う。OCRの結果は、文字データ206(図3)に示すように、認識できた文字と、その文字に対応する領域(例えば、画像データにおける4隅の座標)である。認識できた文字に対応する領域以外は、文字があると認識できなかった領域として扱われる。
 この認識できた文字の中には、正しく認識できた文字(認識文字)と、誤って認識された文字(誤認識文字)とが含まれうる。一方、文字があると認識できなかった領域(未認識領域)には、誤って認識されなかった文字(誤未認識文字)が含まれうる。
 例えば、図3の元画像のOCR結果206に示すように、「ゼロ」を「小文字アルファベットのオー」と認識していることから「小文字アルファベットのオー」は誤認識文字である。一方、「千代」が含まれる領域は文字があると認識できなかった領域であり、「千代」は誤未認識文字である。
 次に、目減り処理S105において、管理者端末3は、元画像の分割画像205(図5(b))に、OCR結果である文字データ206(図3)、言い換えると認識文字に対応する活字体のフォントデータを、この認識文字に対応する元画像の分割画像205(図5(b))中の領域に重ね合わせることで、元画像のOCR可逆化分割画像207(図5(c))を生成する。このとき、OCR可逆化分割画像207は、元画像の分割画像205に対応付けて記憶される。これにより、OCR可逆化分割画像207は最終的に元画像201と対応付けられる。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、OCR可逆化分割画像207(図5(c))をデータ入力サーバ1に送信して記憶させる。
 図5(c)に示すように、元画像のOCR可逆化分割画像207において、認識文字は活字体のフォントデータとなっているため、画像データのままである未認識領域に含まれる誤未認識文字に比べると視認しやすくなっているが、本実施例においては、さらに、認識文字である旨を示すマーク(二重丸)を併記することで、一層認識文字を視認しやすくしている。
 一方、未認識領域には、未認識領域である旨を示すマーク(はてな)を併記することで、認識できなかった箇所である旨を視認しやすくしている。
 尚、認識文字である旨を示すマーク(二重丸)と、未認識領域である旨を示すマーク(はてな)を併記することにより、認識文字と未認識領域を視認しやすくしているが、本発明はこれに限定されるものではなく、認識文字と、未認識領域にそれぞれ異なる色(たとえば、黒と青)を付与する構成としても良い。
 次に、管理者端末3は、元画像のOCR可逆化分割画像207(図5(c))を表示する。図6に示す目減り画面が表示される。
 目減り画面(図6)は、元画像の分割画像205(図5(b))と、元画像のOCR可逆化分割画像207(図5(c))と、管理者が入力した目減り結果と、から構成されている。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、元画像の分割画像205(図5(b))とOCR可逆化分割画像207(図5(c))をデータ入力サーバ1から受信して表示する。
 このとき、元画像の分割画像205(図5(b))中に、入力欄が複数区画あった場合には、例えば、図6に示すように2行(2区画)あった場合には、目減り結果も2行(2か所)表示されるようになっている。
 尚、元画像の分割画像205(図5(b))に関わらず、目減り結果は1行(1区画)にまとめても良い。
 そして、元画像のOCR可逆化分割画像207(図5(c))には、現在着目している箇所を示す矢印(白抜き)が表示されている。目減り画面(図6)が表示された時点、すなわち初期状態においては、矢印(白抜き)は、一番上の一番左に位置する文字となる先頭文字を示す位置に表示されている。一方、一番上の一番左に位置するのが未認識領域の場合には、矢印(白抜き)は、その領域の中心を示す位置に表示される。
 管理者は、管理者端末3の目減り画面(図6)を見ながら、入力部(キーボード)に対して、4種類の操作のいずれかを行う。
 1種類目の操作は、認識文字が正しく認識できた旨を指示する「スペースキー」である。矢印(白抜き)が認識文字を指示しているときに、管理者が「スペースキー」を入力すると、目減り画面(図6)の元画像のOCR可逆化分割画像207(図5(c))には、矢印(白抜き)が指し示していた場所に認識文字が正しかった旨を示すマーク(レ)が表示される。また、目減り結果にも認識文字が正しかった旨を示すマーク(丸)が追加表示される。その後、矢印(白抜き)は右隣の認識文字か未認識領域のいずれかに移動する。
 一方、矢印(白抜き)が未認識領域を指し示していた場合には、一種類目の操作は、未認識領域に文字が含まれていない、すなわち正しく未認識だった旨を指示する操作となる。矢印(白抜き)が未認識領域を指示しているときに、管理者が「スペースキー」を入力すると、目減り画面(図6)の元画像のOCR可逆化分割画像207(図5(c))には、矢印(白抜き)が指し示していた場所に未認識領域が正しかった旨を示すマーク(レ)が表示される。また、目減り結果には何も追加表示されない。文字がなかったためである。その後、矢印(白抜き)は右隣の認識文字か未認識領域のいずれかに移動する。
 2種類目の操作は、認識文字が正しく認識できなかった旨を指示する「エックスキー」である。管理者が「エックスキー」を入力すると、目減り画面(図6)の元画像のOCR可逆化分割画像207(図5(c))には、矢印(白抜き)が指し示していた場所に認識文字が誤っていた旨を示すマーク(バツ)が表示される。また、目減り結果にも認識文字が誤っていた旨を示すマーク(バツ)が追加表示される。その後、矢印(白抜き)は右隣の認識文字か未認識領域のいずれかに移動する。
 3種類目の操作は、未認識領域に文字が含まれている旨、すなわち誤未認識文字が含まれている旨を指示する「エックスキー」である。管理者が「エックスキー」を入力すると、目減り画面(図6)の元画像のOCR可逆化分割画像207(図5(c))には、矢印(白抜き)が指し示していた場所に誤未認識文字が含まれている旨を示すマーク(ゼット)が表示される。また、目減り結果にも誤未認識文字が含まれている旨を示すマーク(ゼット)が追加表示される。
 尚、指示操作の対象となるキーが同じため、2種類目の操作と3種類目の操作は、操作内容としては同一である。すなわち少なくとも3種類の指示操作があれば良いようになっている。ただし、管理者端末3においては、そのキーが操作された状況が、「二重丸マーク」がついた文字を対象としているか、「はてなマーク」がついた領域を対象としているかを区別することにより、「エックスマーク」をつけるべき操作であるか、「ゼットマーク」をつけるべき操作であるかを判定できるようになっている。例えば、3種類目の操作を「ゼットキー」の押下とすることで、すなわち4種類の指示操作を用意することで、管理者端末3における判定を簡略化しても良い。
 ここで未認識領域に含まれる誤未認識文字が何文字かは不定であるため、矢印(白抜き)の移動は行われない。管理者は、未認識領域に含まれる誤未認識文字の数だけ誤未認識文字が含まれている旨を指示する「エックスキー」を押下することとなる。図6に示す例では、「レセプト整理番号」の記入欄に存在する未認識領域(「?」の領域)が2つあるが、そのうち最初の未認識領域には3つの誤未認識文字が含まれており、矢印(白抜き)がこの未認識領域を指し示しているときに、管理者は3回「エックスキー」を押下する。すると、押下した数(ここでは3)だけ、誤未認識文字が含まれている旨を示すマーク(ゼット)が未認識領域に表示される。
 未認識領域に含まれる誤未認識文字の数だけ「エックスキー」を押下した管理者は、「エックスキー」以外の操作を行うことで、矢印(白抜き)は右隣の認識文字か未認識領域のいずれかに移動させることができる。
 4種類目の操作は、目減りが終了した旨を指示する「エンターキー」である。管理者が「エンターキー」を入力すると、目減りの対象となっている区画(1行)の目減り結果が確定する。このときに、目減り結果に含まれている文字数を数えることで、目減りの対象となっている区画(1行)に含まれている文字数も確定する。
 前述したように、矢印(白抜き)が未認識領域を指し示しているときに「エンターキー」を押下した場合には、矢印(白抜き)は右隣の認識文字か未認識領域のいずれかに移動するのみである。ただし、右隣に認識文字か未認識領域のいずれもなかった場合には、目減り結果が確定する。
 尚、目減り画面(図6)の元画像のOCR可逆化分割画像207(図5(c))において、認識が正しかった旨を認識文字にマーク(レ)をつけることで、認識が誤っていた旨を認識文字にマーク(バツ)をつけることで、それぞれ示しているが、本発明はこれに限定されるものではなく、認識が正しかった旨を認識文字(レ)の色を変えることで、認識が誤っていた旨を認識文字(バツ)をさらに異なる色に変えることで示すようにしても良い。
 また、これらキーはどのようなキーであっても良い。例えば、ファンクションキーなどの通常のデータ入力に使わないキーを使うと、入力操作自体は慣れないものとなる一方で、入力操作自体をその操作の意味を留意しながら行うようになる。
 すべての区画(行)の目減り結果を確定した管理者は、「終了」ボタンをクリックすることで、管理者端末3に目減り結果を記憶させる。この目減り結果は、目減り処理の対象となったOCR可逆化分割画像207の特定情報(例えば、ファイル名)とともに記憶される。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、目減り結果をデータ入力サーバ1に送信して記憶させる。
 目減り結果を記憶した管理者端末3は、入力用画像210(図7上部)を生成する。このとき、目減り結果とともに記憶されるOCR可逆化分割画像207の特定情報(例えば、ファイル名)に対応付けて目減り結果は記憶される。これにより、目減り結果は最終的に元画像201と対応付けられる。
 具体的には、目減り結果において、認識が誤っていた旨が特定された認識文字(バツマーク)に対応する領域と、誤未認識文字(ゼットマーク)が含まれる誤未認識領域とを、元画像の分割画像205(図5(b))から抽出することで、入力用画像210(図7上部)を生成する。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、入力用画像210(図7上部)をデータ入力サーバ1に送信して記憶させる。
 これは、認識が誤っていた旨が特定された認識文字(バツマーク)と、誤未認識領域に含まれる誤未認識文字(ゼットマーク)のみを入力処理S106の対象とすればよいためである。
 この入力用画像210(図7上部)にあっては、入力処理S106の対象とする文字数が減少する場合が多いことから、元画像の分割画像205(図5(b))中に入力欄が複数区画あった場合にも、これら元々の区画によらず、少ない区画(本実施例では1つ)に集約させるようにしている。このようにして、1区画あたりの文字数が少ない場合にも、文字を入力する頻度に対して画面をスクロールさせる頻度が高まるのを抑えているのである。
 尚、元画像の分割画像205(図5(b))中に、入力欄が複数区画あった場合には、例えば、図5(b)に示すように2行(2区画)あった場合には、入力用画像210(図7上部)も2行(2区画)になるようにしてもよい。
 また、各々の文字が、目減り処理S105において、認識が誤っていた旨が特定された認識文字(バツマーク)か、誤未認識領域に含まれる誤未認識文字(ゼットマーク)かを特定可能なように、同様のマークを付けても良い。また、マークでなく異なる色(たとえば、緑と黄)を付けても良い。
 次に、入力処理S106において、作業者端末2a、作業者端末2b、管理者端末3は、入力用画像210(図7上部)を表示する。図7に示す入力画面が表示される。
 入力画面(図7)は、入力用画像210(図7上部)と、作業者が入力した入力結果と、から構成されている。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、作業者端末2a、作業者端末2b、管理者端末3は、入力用画像210(図7上部)をデータ入力サーバ1から受信して表示する。
 入力結果を受け付けた作業者端末2a、作業者端末2b、管理者端末3は、入力結果を記憶する。このとき、入力結果とともに受け付ける入力用画像211の特定情報(例えば、ファイル名)に対応付けて入力結果は記憶される。これにより、入力結果は最終的に元画像201と対応付けられる。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、作業者端末2a、作業者端末2b、管理者端末3は、入力結果をデータ入力サーバ1に送信して記憶させる。
 次に、ベリファイ処理S107において、作業者端末2a、作業者端末2b、管理者端末3は、入力用画像210(図8上部)と入力結果を表示する。図8に示すベリファイ画面が表示される。
 ベリファイ画面(図8)は、入力用画像210(図8上部)と、作業者が入力した入力結果(図8中部)と、ベリファイ結果(図8下段)と、から構成されている。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、作業者端末2a、作業者端末2b、管理者端末3は、入力用画像210(図8上部)と、作業者が入力した入力結果(図8中部)と、をデータ入力サーバ1から受信して表示する。
 作業者または管理者は、作業者端末2a、作業者端末2b、管理者端末3のいずれかのベリファイ画面(図8)を見ながら、入力部(キーボード)に対して、2種類の操作のいずれかを行う。
 1種類目の操作は、入力用画像210(図8上部)に対して、作業者が入力した入力結果(図8中部)が1文字分正しかった旨を指示する「スペースキー」である。管理者が「スペースキー」を入力すると、ベリファイ結果(図8下段)に1文字分が正しかった旨を示すマーク(丸)が追加表示される。
 2種類目の操作は、入力用画像210(図8上部)に対して、作業者が入力した入力結果(図8中部)が1文字分誤っていた旨を指示する「エックスキー」である。管理者が「エックスキー」を入力すると、ベリファイ結果(図8下段)に1文字分が誤っていた旨を示すマーク(バツ)が追加表示される。
 ベリファイを終了した作業者または管理者は、「終了」ボタンをクリックすることで、作業者端末2a、作業者端末2b、管理者端末3のいずれかにベリファイ結果を記憶させる。このベリファイ結果は、ベリファイ処理の対象となった入力結果の特定情報(例えば、ファイル名)とともに記憶される。
 ここで、各種画像データがデータ入力サーバ1に記憶されている場合には、管理者端末3は、ベリファイ結果をデータ入力サーバ1に送信して記憶させる。
 この後、ベリファイ結果において誤っている文字があった場合には、作業者または管理者は、ベリファイの対象となったデータを入力した作業者に対して入力処理S106を指示したり、自ら入力処理S106を行ったりしても良い。また、入力処理S106を行わなくても良い。これらのいずれを選択するかは、さらには、入力処理S106の実施後さらにベリファイ処理S107を行うかは、作業者または管理者が発注者からの発注内容である期間や希望料金に応じて適宜に判断すれば良い。
 最後に、最終チェック処理S108において、管理者が、発注に対するデータ入力が完了した旨を示す操作を管理者端末3から行うと、データ入力サーバ1は、発注データの状態を終了に更新する。
 このとき、管理者は、OCR処理S104により認識した文字データと、作業者が入力した文字データと、をまとめて、所定の形式、例えば、CSV(Comma Separated Values)形式のデータを作成し、これをデータ入力サーバ1にアップロードすることで、納品用データ213としてデータ入力サーバ1に記憶させる。
 シンクライアントネットワークシステムの運営組織から発注者への納品に際しては、管理者がデータ入力サーバ1から納品用データ213を適宜取り出すようになっている。
 以上、本実施例によれば、文字認識(OCR処理S104)に不備があった文字、すなわち認識された文字のうち誤認識された文字(目減り処理S105においてバツでマークされた文字)と、文字として認識されなかった領域に含まれる文字が未認識である領域(目減り処理S105においてゼットでマークされた領域)と、を認識結果合成データの中から識別できる。これにより、文字認識に不備があった文字に確実に出力できる。
 また、本実施例によれば、文字認識装置(管理者端末3)では、画像データ(元画像201(図2))の種類に応じて予め定められた区画にテンプレート分割画像204(図5(a))により分割されたOCR可逆化分割画像207と、入力用画像210とが生成される。そのため前記利用者(管理者)は、誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理)や前記入力データ受付手段(入力処理S106において入力結果211を受け付ける処理)において、受信した個々の区画のみが表示されており、これら個々の区画のみを出力させることができる。これにより、元画像201のうち、文字認識に不備があった文字を利用者が一層見つけやすくできる。
 また、本実施例によれば、利用者(管理者)は、文字認識(OCR処理S104)に不備があった文字のみ、すなわち文字として認識された領域においては誤認識された文字(目減り処理S105においてバツでマークされた文字)に該当する領域のみ、また、文字として認識されなかった領域においては未認識である領域(目減り処理S105においてゼットでマークされた領域)のみ、が含まれた入力用データ(入力用画像210(図7上部))を出力させることができる。これにより、利用者(管理者)は、入力用データのうち文字認識に不備があった文字を一層見つけやすくできる。
 また、本実施例によれば、利用者(管理者)は、文字認識(OCR処理S104)に不備があった文字を、入力用データ(入力用画像210(図7上部))の中から色により容易に識別できる。これにより、利用者(管理者)は、入力用データのうち文字認識に不備があった文字を一層見つけやすくできる。
 また、本実施例によれば、誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理)において利用者(管理者)は、認識可否合成データ(OCR可逆化分割画像207(図6中部))中の個々の領域においてはそれぞれ1種類の文字認識の不備、すなわち、文字として認識されなかったはてなマークの領域においては未認識の文字(ゼットでマークすべき文字)、また、文字として認識された二重丸マークの領域においては誤認識された文字(バツでマークすべき文字)、をそれぞれ見分ければ良いが、それぞれの領域には異なる色が付与されており、どの領域に対して作業しているのか、どの不備を見分けようとしているのか、という点において、利用者が間違いづらくなっている。これにより、認識可否合成データのうち、文字認識に不備があった文字を利用者が見分けやすく、さらには指示しやすくできるので、総合的な文字認識にかかるコストを低減できる。
 また、本実施例によれば、誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理)において利用者(管理者)は、認識可否合成データ(OCR可逆化分割画像207(図6中部))に含まれる認識された文字のうち、誤認識された文字をその文字の形(活字フォントデータ)により容易に識別できる。これにより、認識可否合成データのうち、文字認識に不備があった文字を利用者が見分けやすく、さらには指示しやすくできるので、総合的な文字認識にかかるコストを低減できる。
 また、本実施例によれば、前記誤認識文字データ受付手段(目減り処理S105において目減り結果209を受け付ける処理)において利用者(管理者)は、文字として認識された二重丸マークの領域においては誤認識された文字とその領域(バツマークの領域)を、また、文字として認識されなかったはてなマークの領域においては未認識の文字の数(ゼットマークの領域)を、それぞれ前記指示入力手段(エンターキー、エックスキー、リターンキー)より指示入力を行うのみで容易に指示できる。これにより、総合的な文字認識にかかるコストを低減できる。
 以上、本発明の実施例を図面により説明してきたが、具体的な構成はこれら実施例に限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
 例えば、前記実施例では、図3に示すようにデータ入力処理において、S101~S108の処理のすべてを順次実施する構成としているが、本発明はこれに限定されるものではなく、少なくともOCR処理S104と、目減り処理S105と、入力処理S106と、が実施されていれば本発明の適用対象となる。その他の処理は発注者の要望や、データ入力の対象となる画像データ化された発注データの種類に応じて適宜に組み合わせても良い。
 例えば、発注処理S101、受注処理S102は、データ入力システムが運営組織自身のために、言い換えると、顧客企業のためにではなく、自社のために運営されている場合には行わないようにしても良い。
 また、分割処理S103は、記載領域が少ない単純な帳票である場合や、テンプレート画像が予め用意されてない場合には行わないようにしても良い。分割処理S103を行わない場合には、以降の処理において、元画像201(図2)を対象にしてOCR処理S104、目減り処理S105、入力処理S106、ベリファイ処理S107、最終チェック処理S108等を行えば良い。
 また、ベリファイ処理S107は、発注者が要望した期間や料金が十分でない場合には省略しても良いし、期間や料金が十分ある場合には複数人による処理を数回行って納品データの品質を高めようとしても良い。ベリファイ処理が複数回行われるということは、ベリファイ処理において不具合が確認されたことを条件に、入力処理S106も複数回行われる場合があることを示している。すなわちベリファイ処理が複数回行われると期間も料金も余分に消費されることとなる。
 また、前記実施例では、発注処理S101を発注データの登録と、受注処理S102を発注データに対する管理者の確認により、言い換えると主として人間による判断により受発注を行うものとしているが、本発明はこれに限定されるものではなく、データ入力システムにおける管理者(図1)が複数いて、それぞれが異なる企業に所属している場合には、発注データに対して複数の企業が受注しようとすることになる。このような場合には、オークションにより受発注を行っても良い。その場合、発注処理S101はオークションへの出品処理、受注処理S102は管理者によるオークションへの入札処理、および、発注者によるオークションへの落札処理とみなして、これら処理に対応する機能を実装すれば良い。
 また、前記実施例では、データ入力サーバ1を1台のサーバコンピュータとして構成しているが、本発明はこれに限定されるものではなく、スケーラビリティ向上の観点から複数台のサーバコンピュータで構成しても良い。このような場合には、データ入力サーバ群とインターネット5の間に負荷分散用のハードウェア(いわゆるロードバランサ)を設置し、負荷分散用のハードウェアがインターネット5から送受信されてくるデータを、各データ入力サーバに対して適宜分散して配信することで、各データ入力サーバに対する負荷分散を行うようにすれば良い。
 また、前記実施例では、データ入力サーバ1を1台のサーバコンピュータとして構成しているが、本発明はこれに限定されるものではなく、可用性向上の観点から同じ機能をもつサーバコンピュータを複数台用意して、ハードウェアの二重化を行っても良い。このような場合には、データ入力サーバ1と同様の構成をもつデータ入力サーバ1´を用意したり、前述のように負荷分散用のハードウェアと、データ入力サーバ群を構成する場合には、これらも適宜2台ずつ用意して二重化を行えば良い。1台は通常利用する通常系のハードウェアで、もう1台は通常系に異常が出たときに代替する待機系のハードウェアとなる。この状態で、異常を検知して自動的に通常系から待機系にハードウェアを切り替える障害復旧用のハードウェアをさらに備えることにより、いっそう可用性が向上できる。
 また、前記実施例では、データ入力サーバ1を、データを管理する機能と、それ以外の機能を備えた1台のサーバコンピュータとして構成しているが、本発明はこれに限定されるものではなく、異なる役割を備えた複数のサーバコンピュータとして構成しても良い。例えば、データを管理する機能を備えたサーバ(いわゆるデータベースサーバ)と、それ以外の機能を備えたサーバとに分割しても良い。
 特にデータベースサーバにおいて、スケーラビリティを向上させるためには、複数のデータベースサーバが1台のデータベースであるかのように動作させるためのクラスタリング技術を適用しても良い。これはいわゆるデータベースクラスタと呼ばれる構成である。このような構成により、スケーラビリティと可用性を同時に高めることができる。
 また、複数台のサーバコンピュータをクラスタとして構成する技術があり、このような技術を導入した場合も、スケーラビリティと可用性を同時に高めることができる。たとえば、LVS(Linux Virtual Server)と呼ばれる技術がある。

Claims (9)

  1.  画像データに含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データを生成する認識文字データ生成手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域と、文字として認識されなかった領域とを、利用者が識別可能な認識可否合成データを生成する認識可否合成データ生成手段と、
     前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段と、
     前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字の領域の指定と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識である領域の指定と、からなる誤認識文字データを、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識である領域と、を、前記利用者が識別可能な認識結果合成データを生成する認識結果合成データ生成手段と、
     を備える、
     ことを特徴とする文字認識装置。
  2.  前記文字認識装置は、
     前記画像データの種類と、該種類ごとに予め定められた区画を雛型として記憶する雛型記憶手段と、
     前記画像データの種類を特定する種類特定手段と、
     前記種類特定手段にて特定した前記画像データの種類に対応付けて、前記雛型記憶手段に記憶された雛型を特定し、該特定された雛型毎に予め定められた区画に、前記画像データを分割した分割画像データを前記画像データとして生成する分割画像データ生成手段と、
     を備え、
     前記認識可否合成データ生成手段は、前記分割画像データ生成手段にて生成された前記分割画像データに含まれる文字を光学的に認識して、前記認識可否合成データを生成し、 前記認識結果合成データ生成手段は、前記分割画像データ毎に、前記認識結果合成データを生成する、
     ことを特徴とする請求項1に記載の文字認識装置。
  3.  前記認識結果合成データ生成手段は、前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる誤認識した文字に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識である領域のみを含む、前記認識結果合成データを生成する、
     ことを特徴とする請求項1または2に記載の文字認識装置。
  4.  前記認識結果合成データ生成手段は、前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域と、文字として認識されなかった領域と、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる、前記文字として認識された領域のうち誤認識した文字に該当する領域と、前記文字として認識されなかった領域のうち未認識である文字に該当する領域と、に対して互いに異なる色を付与した前記認識結果合成データを生成する、
     ことを特徴とする請求項1~3のいずれかに記載の文字認識装置。
  5.  前記認識可否合成データ生成手段は、前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域と、文字として認識されなかった領域と、に対して互いに異なる色を付与した前記認識可否合成データを生成する、
     ことを特徴とする請求項1~4のいずれかに記載の文字認識装置。
  6.  前記認識可否合成データ生成手段は、前記認識文字データ生成手段にて文字として認識された領域においては、前記利用者が、該文字をかたどる部分のみを識別可能にした前記認識可否合成データを生成する、
     ことを特徴とする請求項1~5のいずれかに記載の文字認識装置。
  7.  前記文字認識装置は、
     前記利用者から3種類の異なる指示入力が可能な指示入力手段を備え、
     前記誤認識文字データ受付手段は、前記指示入力手段により、前記認識可否合成データに含まれる文字として認識された領域においては、文字として認識した個々の領域に対応付けて、1文字が認識できている旨を示す1の指示か、1文字が認識できていない旨を示す2の指示のいずれかを受け付け、また、前記認識可否合成データに含まれる文字として認識されなかった領域においては、1文字が認識できていない旨を示す2の指示を認識できていない文字の数だけ受け付け、次に、該領域の指示入力が終了した旨を示す3の指示を受け付けることで、前記認識可否合成データに含まれる文字として認識された領域における誤認識された文字の領域と、前記文字として認識されなかった領域における未認識とされた文字の領域の数とを特定する、
     ことを特徴とする請求項1~6のいずれかに記載の文字認識装置。
  8.  コンピュータを、
     画像データに含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データを生成する認識文字データ生成手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域と、文字として認識されなかった領域とを、利用者が識別可能な認識可否合成データを生成する認識可否合成データ生成手段と、
     前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段と、
     前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字の領域の指定と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識である領域の指定と、からなる誤認識文字データを、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識である領域と、を、前記利用者が識別可能な認識結果合成データを生成する認識結果合成データ生成手段と、
     して機能させることを特徴とする文字認識プログラム。
  9.  コンピュータを、
     画像データに含まれる文字を光学的に認識して、認識された文字と該文字に該当する領域とを特定可能な認識文字データを生成する認識文字データ生成手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて文字として認識された領域と、文字として認識されなかった領域とを、利用者が識別可能な認識可否合成データを生成する認識可否合成データ生成手段と、
     前記認識可否合成データ生成手段にて生成した前記認識可否合成データと、前記画像データと、を表示する認識可否合成データ表示手段と、
     前記利用者から、前記認識可否合成データに含まれる前記文字として認識された領域のうち誤認識した文字の領域の指定と、前記認識可否合成データに含まれる前記文字として認識されなかった領域のうち文字が未認識である領域の指定と、からなる誤認識文字データを、前記認識可否合成データ表示手段に表示している前記画像データに対応付けて受け付ける誤認識文字データ受付手段と、
     前記画像データの全領域のうち、前記認識文字データ生成手段にて前記文字として認識された領域と、前記文字として認識されなかった領域と、前記文字として認識された領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識データに含まれる誤認識した文字に該当する領域と、前記認識文字データ生成手段にて前記文字として認識されなかった領域のうち、前記誤認識文字データ受付手段にて受け付けた誤認識文字データに含まれる文字が未認識である領域と、を、前記利用者が識別可能な認識結果合成データを生成する認識結果合成データ生成手段と、
     して機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2009/001412 2008-04-04 2009-03-27 文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体 WO2009122696A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-098762 2008-04-04
JP2008098762A JP2009251918A (ja) 2008-04-04 2008-04-04 文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2009122696A1 true WO2009122696A1 (ja) 2009-10-08

Family

ID=41135104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/001412 WO2009122696A1 (ja) 2008-04-04 2009-03-27 文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP2009251918A (ja)
WO (1) WO2009122696A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011052700A1 (ja) 2009-11-02 2011-05-05 日本電気株式会社 通信装置、通信システム、通信装置制御方法および通信装置制御プログラム
US20120054112A1 (en) * 2010-08-30 2012-03-01 Ricoh Company, Ltd. Techniques for creating microtasks for content privacy preservation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239901A (ja) * 1994-02-28 1995-09-12 Oki Electric Ind Co Ltd 光学式読み取り装置における文字修正方法
JPH09114916A (ja) * 1995-10-23 1997-05-02 Oki Electric Ind Co Ltd 光学式文字読取装置
JP2005018678A (ja) * 2003-06-30 2005-01-20 Casio Comput Co Ltd 帳票データ入力処理装置、帳票データ入力処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239901A (ja) * 1994-02-28 1995-09-12 Oki Electric Ind Co Ltd 光学式読み取り装置における文字修正方法
JPH09114916A (ja) * 1995-10-23 1997-05-02 Oki Electric Ind Co Ltd 光学式文字読取装置
JP2005018678A (ja) * 2003-06-30 2005-01-20 Casio Comput Co Ltd 帳票データ入力処理装置、帳票データ入力処理方法及びプログラム

Also Published As

Publication number Publication date
JP2009251918A (ja) 2009-10-29

Similar Documents

Publication Publication Date Title
US20160275368A1 (en) Management system, list production device, method, computer readable recording medium, data structure, and printed label
JP2005050343A (ja) ワークフローを自動化する方法およびシステム
JP6874729B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6087452B1 (ja) 紙文書管理システム
CN104754160B (zh) 图像处理装置
US9483220B2 (en) Image processing system, management system, image processing apparatus and method of proofreading document
CN102591596A (zh) 信息处理装置以及信息处理方法
CN103677690A (zh) 印刷系统、服务器、信息设备以及控制方法
JP6926032B2 (ja) 製造管理システム及び方法
WO2009122696A1 (ja) 文字認識装置、文字認識プログラム、及び、文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2009122695A1 (ja) シンクライアントネットワークシステム
JP2008020974A (ja) 文書管理システムおよびその方法
CN111400692A (zh) 手绘图文的电子输出系统及方法
US9430174B2 (en) Print production system, print production method, non-transitory storage medium storing print production program, and printing management server
WO2009104397A1 (ja) データ入力システム
JP2017111500A (ja) 文字認識装置及びプログラム
JP6848263B2 (ja) 帳票処理装置、帳票出力方法及びプログラム
JP2020038736A (ja) 情報識別プログラム、情報識別方法、及び画像読取装置
US7110600B1 (en) Document identifying device and method
JP4216855B2 (ja) データ表示装置、データ表示方法およびデータ表示プログラム
JP2011197844A (ja) 差分検知システム
JP2017045324A (ja) データ入力システム、データ入力方法、及び、プログラム
JP7099571B2 (ja) 帳票処理装置、帳票出力方法及びプログラム
JP2012190357A (ja) 画像処理装置、画像処理方法、およびプログラム
JP4110790B2 (ja) 伝票処理システムおよびそのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09726972

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09726972

Country of ref document: EP

Kind code of ref document: A1