WO2022202047A1 - 情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム Download PDF

Info

Publication number
WO2022202047A1
WO2022202047A1 PCT/JP2022/007090 JP2022007090W WO2022202047A1 WO 2022202047 A1 WO2022202047 A1 WO 2022202047A1 JP 2022007090 W JP2022007090 W JP 2022007090W WO 2022202047 A1 WO2022202047 A1 WO 2022202047A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target characters
face
information processing
characters
Prior art date
Application number
PCT/JP2022/007090
Other languages
English (en)
French (fr)
Inventor
博幸 富森
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023508815A priority Critical patent/JPWO2022202047A5/ja
Publication of WO2022202047A1 publication Critical patent/WO2022202047A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Definitions

  • the present invention relates to an information processing device that identifies target characters on the surface of a banknote.
  • Patent Document 1 relates to an object verification device, an object verification program, and an object verification method for verifying the authenticity of an object.
  • the object verification device is an object verification device that verifies the authenticity of an object, and includes an image acquisition unit that acquires an image of the object and a verification area specification that specifies a verification area in the object whose authenticity should be verified.
  • a described portion detection unit that detects a plurality of described portions in the verification region in the image; and a verification that verifies the authenticity of the object by comparing the plurality of described portions in the image with each other. It has a configuration with a part.
  • Patent Document 2 relates to a recognition processing device and program.
  • the recognition processing device includes means for recognizing, from the image of the document, a feature indicating the classification of the document among documents of the same type, and recognition corresponding to the classification indicated by the recognized feature for the recognition target element in the image. recognition means for applying the processing to recognize the recognition target element.
  • One aspect of the present invention has been made in view of the above problems, and an example of its purpose is to provide a technology that can accurately identify characters written on the face of a banknote.
  • An information processing apparatus includes an acquisition unit that acquires an image of a face of a banknote, and a clip that cuts out one or more target characters from the image, including an image around the one or more target characters. and an identification means for performing identification processing on one or more target characters by inputting an image extracted by the extraction means to the learned model.
  • An information processing apparatus includes an image obtained by cutting out one or more target characters from an image of a banknote together with an image around the one or more target characters; and a teacher data acquisition means for acquiring teacher data including a plurality of pairs of correct labels for the target characters of the above, and cutting out one or more target characters from the image of the face of the card together with images around the one or more target characters.
  • learning means for learning, using training data, a model that receives as input the image obtained by and outputs the identification result of the one or more target characters.
  • An information processing method acquires an image of a face of a banknote, cuts out one or more target characters from the image, including an image around the one or more target characters, and extracts a trained model. By inputting the clipped image to , identification processing is executed for one or a plurality of target characters.
  • An information processing method includes an image obtained by cutting out one or more target characters from an image of a banknote together with an image around the one or more target characters; An image obtained by obtaining training data containing multiple sets of correct labels for target characters, and cutting out one or more target characters from the image of the card face together with images surrounding the one or more target characters. is input, and a model that outputs identification results for the one or more target characters is trained using teacher data.
  • a method for manufacturing a trained model according to an aspect of the present invention includes an image obtained by cutting out one or more target characters from an image of a banknote together with an image around the one or more target characters; Acquisition of training data containing multiple pairs of correct labels for one or more target characters, and cutting out one or more target characters from the image of the face of the card together with images around the one or more target characters.
  • a model that receives the obtained image as an input and outputs a classification result for the one or more target characters is trained using teacher data.
  • a computer program according to an aspect of the present invention is a computer program for causing a computer to execute an information processing method.
  • An image around the one or more target characters is cut out, and the cut out image is input to the learned model, thereby executing identification processing for the one or more target characters.
  • a computer program is a computer program for causing a computer to execute an information processing method.
  • Acquiring teacher data including multiple sets of an image obtained by clipping together with an image around the target character and a correct label for the one or more target characters, and extracting one or more target characters from the image of the face of the card.
  • an image obtained by clipping together with an image around the one or more target characters is input, and a model for outputting identification results regarding the one or more target characters is learned using teacher data.
  • FIG. 1 is a block diagram showing a functional configuration of an information processing device according to illustrative Embodiment 1 of the present invention
  • FIG. FIG. 3 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 1 of the present invention
  • FIG. 8 is a block diagram showing the functional configuration of an information processing apparatus according to exemplary Embodiment 2 of the present invention
  • FIG. 7 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 2 of the present invention
  • FIG. 11 is a block diagram showing the functional configuration of an information processing device according to exemplary Embodiment 3 of the present invention
  • It is a figure which shows an example of a face of a banknote.
  • FIG. 3 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 1 of the present invention
  • FIG. 8 is a block diagram showing the functional configuration of an information processing apparatus according to exemplary Embodiment 2 of the present invention
  • FIG. 7 is a flow diagram showing the flow of an information processing
  • FIG. 11 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 3 of the present invention
  • FIG. 12 is a block diagram showing the functional configuration of an information processing system according to illustrative Embodiment 4 of the present invention
  • FIG. 12 is a flow chart for explaining a processing procedure of a reading device according to exemplary Embodiment 4 of the present invention
  • FIG. FIG. 12 is a flow chart for explaining a processing procedure of a server according to exemplary Embodiment 4 of the present invention
  • FIG. It is a figure which shows the structural example of a computer.
  • FIG. 1 is a block diagram showing the functional configuration of the information processing device 10. As shown in FIG. Information processing apparatus 10 includes acquisition unit 11 , extraction unit 12 , and identification unit 13 .
  • the acquisition unit 11 acquires the image of the face of the bill.
  • the acquiring unit 11 acquires, for example, an image of the face of a banknote captured by a camera, an image of the face of a banknote read by a scanner, and the like.
  • specific examples of the face of a ticket include, but are not limited to, personal identification documents such as a driver's license, my number card, passport, and health insurance card.
  • a face in a broad sense refers to an object that has a given format and includes at least one character in that format. Examples of the material of the surface on which characters are printed or arranged include paper, resin, or a combination thereof, but are not limited to these.
  • the size of the face of the card may be, for example, larger than a card such as A4, and is not limited to the card size as described above.
  • the cutout unit 12 cuts out one or more target characters from the image of the face of the card acquired by the acquisition unit 11, including images around the one or more target characters.
  • the peripheral image is a ruled line around one or more target characters, at least one other character, or the like.
  • the ruled line in this presenting embodiment refers to a linear object in general that exists around the target character. More specifically, in this present embodiment, the ruled line is, for example, any of the upper, lower, left, and right lines of a square frame such as the "name” column and the "type” column of a driver's license, or a plurality of lines. It is a concept that includes, and is not limited to a square frame such as the "name” column or "type” column of a driver's license, but if there is a line only above the target character, This concept also includes the case where there is a line.
  • the identification unit 13 inputs the image cut out by the cutout unit 12 to the model that has been trained, and executes identification processing for one or more target characters.
  • the learned model is, for example, a model generated by causing a neural network (hereinafter abbreviated as NN) to perform deep learning.
  • NN neural network
  • examples of neural networks include CNNs (Convolutional Neural Networks) and RNNs (Recurrent Neural Networks).
  • the model is not limited to these configurations, and may be other machine learning such as SVM (Support Vector Machine), or a combination of these other machine learning and neural networks. There may be.
  • SVM Serial Vector Machine
  • the extracting unit 12 extracts one or more target characters from the image of the face of the banknote, and an image around the one or more target characters. Since the character is cut out including the object character, the character can be identified more accurately than when the identification process is executed only with the target character.
  • FIG. 2 is a flow diagram showing the flow of the information processing method.
  • the acquiring unit 11 acquires an image of the face of the banknote (S1).
  • the extraction unit 12 extracts one or more target characters from the image acquired by the acquisition unit 11, including images around the one or more target characters (S2). Then, the identification unit 13 inputs the image extracted by the extraction unit 12 to the learned model, thereby performing identification processing for one or more target characters (S3).
  • one or more target characters are cut out from the image of the face of the banknote, including images around the one or more target characters. Characters can be identified more accurately than performing the identification process on characters only.
  • FIG. 3 is a block diagram showing the functional configuration of the information processing device 20 according to exemplary embodiment 2.
  • the information processing device 20 includes a teacher data acquisition unit 21 , a teacher data storage unit 22 and a learning unit 23 . Note that, in this exemplary embodiment, a case where a model to be learned includes an NN will be described.
  • the training data acquisition unit 21 obtains an image obtained by cutting out one or more target characters from the image of the face of the card together with an image surrounding the one or more target characters, and correct answers regarding the one or more target characters.
  • Teacher data including a plurality of pairs of labels (correct data) are acquired from the teacher data storage unit 22 .
  • the teacher data storage unit 22 stores a plurality of previously created teacher data.
  • the training data refers to, for example, a set of one or more target characters and surrounding images extracted from the image of the authentic face of the banknote, and a correct label (correct data) for the one or more target characters. .
  • the model learns the correspondence relationship between one or more target characters and surrounding images extracted from the image of the authentic face of the banknote and the correct label. For example, if there are 1000 types of target characters to identify, prepare 1000 output nodes, output "1" (a value close to “1") to the output node corresponding to the target character, and output The model is trained to output "0" (a value close to "0") to the node. By learning the model in this way, when one or more target characters to be identified and surrounding images are input to the model, the highest value is output to the target output node.
  • the model outputs accuracy information that indicates the accuracy of the identification process.
  • the model outputs accuracy information according to the value of each output node.
  • the model outputs the value of the target output node as accuracy information.
  • the learning unit 23 uses the teacher data acquired by the teacher data acquisition unit 21 to learn the model.
  • the NN one or more target characters cut out from the image of the face of the banknote and surrounding images are input to the input layer. Then, the difference (error) between the value output to the output node and the value of the corresponding correct label is back-propagated, and the weighting is changed so that the error is reduced, using the so-called BP (Back Propagation) method.
  • BP Back Propagation
  • the learning unit 23 cuts out one or more target characters from the image of the face of the banknote together with images around the one or more target characters.
  • a model is trained using a set of an image obtained by this method and a correct label (correct data) for one or more target characters, so it is possible to create a model that can accurately identify characters. becomes.
  • FIG. 4 is a flow diagram showing the flow of the information processing method.
  • the information processing method shown in FIG. 4 can be regarded as a model learning method using the information processing device 20 or as a model manufacturing method using the information processing device 20 .
  • the training data acquisition unit 21 obtains an image obtained by cutting out one or more target characters from the image of the face of the banknote together with images surrounding the one or more target characters, and the one or more target characters. (S11).
  • the learning unit 23 causes the model to learn using the teacher data acquired by the teacher data acquisition unit 21 (S12). Then, it is determined whether or not the learning of the model has ended (S13). For example, when the model is learned using all the teacher data stored in the teacher data storage unit 22, it is determined that model learning is completed.
  • step S13, No If model learning has not ended (S13, No), return to step S11 and repeat the subsequent processes. Also, if the learning of the model is completed (S13, Yes), the learning unit 23 outputs the learned model (S14).
  • FIG. 5 is a block diagram showing the functional configuration of an information processing device 10a according to the third exemplary embodiment of the invention.
  • the information processing device 10a includes an acquisition unit 11, a clipping unit 12, an identification unit 13a, and a determination unit 14.
  • FIG. 6 is a diagram showing an example of the surface of the ticket.
  • a driver's license will be described as an example of the face of the card, but it may be a personal identification document such as a My Number card, a passport, a health insurance card, etc., and is not limited to these.
  • a face in a broad sense refers to an object that has a given format and includes at least one character in that format. Examples of the material of the surface on which characters are printed or arranged include paper, resin, or a combination thereof, but are not limited to these.
  • a driver's license has a name column, date of birth column, address column, issue date column, type column, etc., and the positions of these columns are predetermined. Therefore, the clipping unit 12 can specify the column of each item from the positional relationship within the entire image acquired by the acquiring unit 11 .
  • the extraction unit 12 when extracting a name, the extraction unit 12 identifies the name column based on the coordinates in the entire image of the driver's license, and extracts images of all character strings written in the name column.
  • the method of extracting each character from the image of the extracted character string does not limit the present embodiment, as an example, a conventionally known character extraction algorithm can be used.
  • the cutout unit 12 cuts out including images around one or more target characters.
  • the extracting unit 12 extracts an image including ruled lines around one or more target characters included in the name.
  • the extraction unit 12 extracts at least one of ruled lines arranged above the one or more target characters and ruled lines arranged below the one or more target characters. Note that the image may be cut out including the left and right ruled lines of one or more target characters included in the name.
  • mark in the name column in FIG. 6 is merely an abstract expression of kanji, hiragana, katakana, alphabet, etc. representing a person's name, and does not limit this exemplary embodiment.
  • the cutout unit 12 may cut out including at least one character other than the one or more target characters. For example, since the combination of these two characters is fixed for "Showa” and “Nissei” in the date of birth column, the extracting unit 12 extracts the character “Akira” as shown in FIG. , including the characters of "wa”. Similarly, as shown in FIG. 6, the extracting unit 12 also extracts the characters of "raw” when extracting the characters of " ⁇ ".
  • the identification unit 13a includes a name model 131, an address model 132, and a type model 133.
  • the name model 131 is a model created using the information processing apparatus according to the second exemplary embodiment shown in FIG. It is what I let you do.
  • the address model 132 is a model created using the information processing apparatus according to the second exemplary embodiment shown in FIG. It is what I let you do.
  • the type model 133 is a model created using the information processing apparatus according to the second exemplary embodiment shown in FIG. This is what the model has learned.
  • the identification unit 13a includes only three types of models, a name model 131, an address model 132, and a type model 133, but includes models that have learned images of other items. It may be
  • the identification unit 13a identifies which item the image cut out by the cutout unit 12 corresponds to, and identifies from among a plurality of models (name model 131, address model 132, type model 133). Select the model that corresponds to the item. Then, the identification unit 13a uses the selected model to perform identification processing for one or more characters included in the specified item.
  • the determination unit 14 refers to the result of the identification process to determine the authenticity of the face of the bill.
  • the result of the identification processing includes one or more identified characters, and the determination unit 14 determines the authenticity of the face of the banknote by determining the format of the one or more identified characters.
  • the discriminating unit 14 discriminates that the face of the banknote is genuine when the format satisfies predetermined requirements. As an example, the authenticity of the face of the bill is determined by checking the character string format of each item shown below.
  • the result of the identification process includes one or more characters after identification, and the discrimination unit 14
  • the authenticity of the face of the banknote is determined by determining the consistency of the characters after identification. As consistency, the discriminating unit 14 discriminates that the face of the banknote is genuine when a description on the face of the banknote does not conflict with another description (satisfies a predetermined condition). As an example, the determination unit 14 may be configured to determine the authenticity of the face of the bill by checking the consistency of the character strings of each item shown below.
  • the result of the identification processing includes one or more identified characters, and the determination unit 14 determines whether the one or more identified characters are determined in advance.
  • the authenticity of the face of a banknote may be determined by comparing it with a group of characters. For example, in the type column, types such as "large”, “small”, “medium”, and “moped” are described, and these types are predetermined.
  • the discriminating unit 14 discriminates the characters described in the type column after being identified by the identifying unit 13a from these character groups (characters including characters such as “large size”, “small size”, “medium size”, and “moped”). group), and the authenticity of the face of the denomination can be determined by whether or not it matches.
  • the determination unit 14 also refers to the accuracy information to determine the authenticity of the face of the banknote. As described above, by creating a model so that accuracy information is output when an image cut out by the cutout unit 12 is input to the trained model, the identification unit 13a can output the accuracy information. can be output. If the accuracy information output from the identification unit 13a is lower than a predetermined value, the determination unit 14 determines that the one or more identified characters are forged. This is based on the fact that misrecognition increases when the characters on the face of the card are created with different fonts. The discriminating unit 14 discriminates the authenticity of all the one or more identified characters that have undergone the discriminating process by the discriminating unit 13a. determined to have been
  • FIG. 7 is a flow diagram showing the flow of the information processing method according to exemplary embodiment 3 of the present invention.
  • the acquiring unit 11 acquires an image of the face of the banknote (S21).
  • the extracting unit 12 extracts one or more target characters from the image of the face of the banknote acquired by the acquiring unit 11, including images around the one or more target characters (S22).
  • the identification unit 13a identifies items included in the face of the bill based on the position in the image of the face of the bill (S23), and selects a model corresponding to the identified item (S24). Then, using the selected model, the identification unit 13a executes identification processing for one or more characters included in the specified item (S25).
  • the determination unit 14 refers to the result of the identification processing by the identification unit 13a to determine the authenticity of the face of the bill (S26).
  • the clipping unit 12 clips an image including ruled lines around one or more target characters. If the face of the bill is forged, the distance between the target character and the ruled line is slightly different, or the target character is slightly slanted with respect to the ruled line. Therefore, the identification unit 13a inputs the image cut out by the cutout unit 12 to the learned model, and executes identification processing for one or more target characters, thereby identifying forgery of the face of the banknote. It becomes possible to
  • the extraction unit 12 extracts including at least one character other than the one or more target characters. If the face of the bill is forged, the distance between the target character and other characters is slightly different, or the target character is slightly slanted with respect to the other characters. Therefore, the identification unit 13a inputs the image cut out by the cutout unit 12 to the learned model, and executes identification processing for one or more target characters, thereby identifying forgery of the face of the banknote. It becomes possible to
  • the identification unit 13a identifies which item the image cut out by the cutout unit 12 corresponds to, and selects the item from a plurality of models (name model 131, address model 132, type model 133). Select the model that corresponds to the item you identified. Therefore, it is possible to make the model learn different types of fonts depending on the item, and it is possible to more accurately identify the forgery of the face of the bill.
  • the discrimination unit 14 discriminates the authenticity of the face of the bill based on the character strings of each item identified by the identification unit 13a. Therefore, it is possible to determine the authenticity of the face of the bill according to the content of the character string of each item after identification.
  • the discrimination unit 14 discriminates the authenticity of the face of the banknote by determining the format of one or more identified characters. Therefore, it is possible to easily identify the forgery of the face of a bill accompanied by formal deficiencies.
  • the discrimination unit 14 discriminates the authenticity of the face of the banknote by determining the consistency of one or more identified characters. Therefore, it is possible to easily identify the forgery of the face of a banknote accompanied by a lack of matching.
  • the determination unit 14 determines the authenticity of the face of the banknote by comparing one or more identified characters with a predetermined character group. Therefore, in the case of an item in which a specific group of characters is described, such as the type column of a driver's license, if other character groups are described, it can be determined that the face of the ticket is forged.
  • the determining unit 14 determines that the one or more identified characters are forged. Therefore, when the characters on the face of the bill are created with different fonts, it can be determined that the face of the bill is forged.
  • FIG. 8 is a block diagram showing the functional configuration of the information processing system 1 according to exemplary embodiment 4.
  • the information processing system 1 includes a reader 30 and a server 40 which are connected via a communication network 50 .
  • the reading device 30 includes an imaging section 31 and a communication section 32 .
  • the imaging unit 31 corresponds to a camera, scanner, or the like provided in a smart phone, and captures an image of the surface of a bill.
  • the communication unit 32 communicates with a server 40 installed in a bank or the like via a communication network 50 that is a wide area communication network such as the Internet.
  • the communication unit 32 transmits the image of the face of the card captured by the imaging unit 31 to the server 40 via the communication network 50 .
  • the server 40 includes a communication unit 41 and an information processing device 10a.
  • the communication unit 41 communicates with the reading device 30 via a communication network 50 that is a wide area communication network such as the Internet.
  • the communication unit 41 receives the image of the face of the banknote from the reading device 30 via the communication network 50 .
  • the acquisition unit 11 of the information processing device 10a acquires the image of the face of the banknote received by the communication unit 41. Subsequent processing is similar to that described in the third exemplary embodiment. Therefore, detailed description will not be repeated.
  • the communication unit 41 receives the discrimination result of the image of the face of the banknote by the information processing device 10 a and transmits it to the reading device 30 via the communication network 50 .
  • FIG. 9 is a flow chart for explaining the processing procedure of the reading device 30 according to exemplary embodiment 4 of the present invention.
  • the image capturing unit 31 captures an image of the surface of the banknote (S31).
  • the communication unit 32 transmits the image of the face of the card captured by the imaging unit 31 to the server 40 via the communication network 50 (S32).
  • FIG. 10 is a flowchart for explaining the processing procedure of the server 40 according to exemplary embodiment 4 of the present invention.
  • the communication unit 41 receives the image of the face of the banknote from the reader 30 via the communication network 50 (S41).
  • the information processing device 10a determines the authenticity of the face of the bill (S42). Then, the communication unit 41 receives the judgment result of the image of the face of the bill by the information processing device 10a, and transmits it to the reading device 30 via the communication network 50 (S43).
  • the reading device 30 captures an image of the face of the banknote and transmits it to the server 40 , and the server 40 determines whether the face of the banknote is true or false and transmits the determination result to the reading device 30 . Therefore, it is not necessary for the reading device 30 side to determine the authenticity of the face of the bill.
  • the cutout unit 12 cuts out one or more target characters from the image of the face of the banknote, including images around the one or more target characters, it is possible to perform identification processing using only the target characters. , can accurately identify characters.
  • Some or all of the functions of the information processing apparatuses 10, 10a, and 20 may be realized by hardware such as integrated circuits (IC chips), or may be realized by software.
  • the information processing apparatuses 10, 10a, and 20 are implemented by computers that execute program instructions, which are software that implements each function, for example.
  • An example of such a computer (hereinafter referred to as computer 60) is shown in FIG.
  • a computer 60 includes at least one processor 61 and at least one memory 62 and is connected via an internal bus 63 .
  • the memory 62 stores a program P for operating the computer 60 as the information processing apparatuses 10 , 10 a and 20 .
  • the processor 61 reads the program P from the memory 62 and executes it, thereby realizing each function of the information processing apparatuses 10, 10a, and 20.
  • processor 61 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , microcontrollers, GPGPUs (General-Purpose computing on Graphics Processing Units), or combinations thereof.
  • memory 62 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer 60 may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer 60 may further include a communication interface for transmitting and receiving data to and from other devices.
  • the computer 60 may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium 70 that is readable by the computer 60 .
  • a recording medium 70 for example, a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), a tape, a disk, a card, a semiconductor memory, or a programmable logic circuit can be used.
  • the computer 60 can acquire the program P via such a recording medium 70.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • the computer 60 can also acquire the program P via such transmission media.
  • (Appendix 1) Acquisition means for acquiring an image of the face of the card; an extracting means for extracting one or more target characters from the image, including an image around the one or more target characters; an information processing apparatus comprising: identification means for executing identification processing for the one or more target characters by inputting an image extracted by the extraction means to a learned model.
  • Appendix 2 The information processing apparatus according to appendix 1, wherein the peripheral image is a ruled line around the one or more target characters.
  • Appendix 4 The information processing apparatus according to appendix 1, wherein the surrounding image is at least one character other than the one or more target characters.
  • the model includes a plurality of models each learned corresponding to each of the plurality of items included in the face of the bill,
  • the identification means is Identifying items included in the face of the bill based on the position in the image of the face of the bill, selecting a model corresponding to the identified item from among the plurality of models; 5.
  • the information processing device according to any one of appendices 1 to 4, wherein the selected model is used to perform identification processing for one or more characters included in the specified item.
  • the information processing device further includes: 6.
  • Appendix 7 the result of the identification process includes one or more identified characters; 7.
  • the information processing apparatus according to appendix 6, wherein the determining means determines the authenticity of the face of the bill by determining the format of the one or more identified characters.
  • Appendix 8 the result of the identification process includes one or more identified characters; 8.
  • the result of the identification process includes one or more identified characters;
  • the information processing apparatus according to any one of attachments 6 to 8, wherein the determining means determines the authenticity of the face of the bill by comparing the one or more identified characters with a predetermined character group. .
  • the result of the identification process includes accuracy information of the identification process, 10.
  • the information processing apparatus according to any one of appendices 6 to 9, wherein the determining means refers to the accuracy information to determine the authenticity of the face of the bill.
  • Appendix 11 Includes a plurality of sets of images obtained by cutting out one or more target characters from the image of the face of the card together with images surrounding the one or more target characters, and correct labels for the one or more target characters.
  • a teacher data acquisition unit that acquires teacher data;
  • the information processing apparatus according to any one of appendices 1 to 10, further comprising a learning unit that learns the model using the teacher data.
  • Appendix 12 12. The information processing apparatus according to any one of Appendices 1 to 11, wherein the face of the card is a personal identification document, and is any one of a driver's license, a My Number card, a passport, and a health insurance card.
  • (Appendix 13) Includes a plurality of sets of images obtained by cutting out one or more target characters from the image of the face of the card together with images surrounding the one or more target characters, and correct labels for the one or more target characters.
  • a teacher data acquisition unit that acquires teacher data;
  • a model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters.
  • a learning unit that learns using the teacher data.
  • (Appendix 14) Get an image of the face of the card, extracting one or more target characters from the image, including an image around the one or more target characters; An information processing method, wherein identification processing is performed on the one or more target characters by inputting the clipped image to a learned model.
  • (Appendix 15) Includes a plurality of sets of images obtained by cutting out one or more target characters from the image of the face of the card together with images surrounding the one or more target characters, and correct labels for the one or more target characters. get teacher data, A model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters. is learned using the teacher data.
  • Appendix 16 Includes a plurality of sets of images obtained by cutting out one or more target characters from the image of the face of the card together with images surrounding the one or more target characters, and correct labels for the one or more target characters. get teacher data, A model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters. is learned using the teaching data.
  • Appendix 17 A computer program for causing a computer to execute an information processing method, The information processing method acquires an image of the face of the denomination, extracting one or more target characters from the image, including an image around the one or more target characters; A computer program for executing identification processing for the one or more target characters by inputting the clipped image to a trained model.
  • the information processing method includes an image obtained by cutting out one or more target characters from an image of the face of a banknote together with an image surrounding the one or more target characters, and a correct label for the one or more target characters.
  • Acquire teacher data containing multiple pairs of A model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters. is learned using the teacher data.
  • the computer-readable recording medium recording a program that causes a computer to function as an information processing device, Acquisition means for acquiring the image of the face of the denomination, Extraction means for extracting one or more target characters from the image, including an image around the one or more target characters; identification means for executing identification processing for the one or more target characters by inputting the images cut out by the cutout means to the learned model;
  • the computer-readable recording medium recording a program that causes a computer to function as an information processing device, An image obtained by using the computer to cut out one or more target characters from the image of the face of the banknote together with an image surrounding the one or more target characters, and a correct label for the one or more target characters.
  • teacher data acquisition means for acquiring teacher data including a plurality of pairs; A model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters.
  • learning means for learning using the teacher data A recording medium that records a program that functions as
  • Appendix 21 at least one processor, the processor for acquiring an image of the face of a banknote; a process of extracting one or more target characters from the image, including an image surrounding the one or more target characters; and an information processing apparatus for executing a process of identifying the one or more target characters by inputting the image cut out by the cutout means to the trained model.
  • the information processing apparatus may further include a memory, and the memory stores a program for causing the processor to execute the acquiring process, the extracting process, and the executing process. may have been Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
  • At least one processor is provided, and the processor is an image obtained by cutting out one or more target characters from the image of the face of the card together with an image around the one or more target characters, and the one or more A process of acquiring training data including a plurality of sets of correct labels for target characters; A model that takes as input an image obtained by extracting one or more target characters from an image of the face of a banknote together with images surrounding the one or more target characters, and outputs identification results for the one or more target characters. is learned using the teacher data.
  • the information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the acquiring process and the learning process. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Character Input (AREA)

Abstract

券面に記載された文字を正確に識別することができる情報処理装置を実現する。取得部(11)は、券面の画像を取得する。切出部(12)は、画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す。識別部(13)は、学習済のモデルに対して、切出部(12)によって切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する。

Description

情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム
 本発明は、券面の対象文字を識別する情報処理装置に関する。
 従来、運転免許証、マイナンバーカード等の本人確認書類が偽造されたものか否かを判別する方法として、人の目やOCR(Optical Character Recognition)等の技術を用いて、記載内容を確認する方法が知られている。これに関連する技術として、下記の特許文献1および特許文献2に開示された発明がある。
 特許文献1は、対象物の真贋を検証する対象物検証装置、対象物検証プログラム、及び対象物検証方法に関する。対象物検証装置は、対象物の真贋を検証する対象物検証装置であって、対象物の画像を取得する画像取得部と、対象物中の真贋を検証すべき検証領域を特定する検証領域特定部と、前記画像中の前記検証領域における複数の有記載部分を検出する有記載部分検出部と、前記画像における前記複数の有記載部分を互いに比較することで、対象物の真贋を検証する検証部とを備えた構成を有している。
 特許文献2は、認識処理装置及びプログラムに関する。認識処理装置は、文書の画像から、同種の文書中でのその文書の分類を示す特徴を認識する手段と、画像中の認識対象要素に対して、認識された特徴が示す分類に対応する認識処理を適用して、認識対象要素の認識を行う認識手段と、を含む。
日本国特開2013-188935号公報 日本国特開2020-042466号公報
 特許文献1~2に記載の発明においては、券面に記載された文字を正確に識別するという観点で課題がある。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、券面に記載された文字を正確に識別することができる技術を提供することである。
 本発明の一態様に係る情報処理装置は、券面の画像を取得する取得手段と、画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す切出手段と、学習済のモデルに対して、切出手段によって切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する識別手段とを備える。
 本発明の一態様に係る情報処理装置は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得手段と、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、教師データを用いて学習させる学習手段とを備える。
 本発明の一態様に係る情報処理方法は、券面の画像を取得し、画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、学習済のモデルに対して、切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する。
 本発明の一態様に係る情報処理方法は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、教師データを用いて学習させる。
 本発明の一態様に係る学習済モデルの製造方法は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、教師データを用いて学習させる。
 本発明の一態様に係るコンピュータプログラムは、コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、情報処理方法は、券面の画像を取得し、画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、学習済のモデルに対して、切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する。
 本発明の一態様に係るコンピュータプログラムは、コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、情報処理方法は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、教師データを用いて学習させる。
 本発明の一態様によれば、券面に記載された文字を正確に識別することができる。
本発明の例示的実施形態1に係る情報処理装置の機能的構成を示すブロック図である。 本発明の例示的実施形態1に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態2に係る情報処理装置の機能的構成を示すブロック図である。 本発明の例示的実施形態2に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態3に係る情報処理装置の機能的構成を示すブロック図である。 券面の一例を示す図である。 本発明の例示的実施形態3に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態4に係る情報処理システムの機能的構成を示すブロック図である。 本発明の例示的実施形態4に係る読取装置の処理手順を説明するためのフローチャートである。 本発明の例示的実施形態4に係るサーバの処理手順を説明するためのフローチャートである。 コンピュータの構成例を示す図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (情報処理装置の構成)
 本例示的実施形態に係る情報処理装置10の構成について、図1を参照して説明する。図1は、情報処理装置10の機能的構成を示すブロック図である。情報処理装置10は、取得部11と、切出部12と、識別部13とを含む。
 取得部11は、券面の画像を取得する。取得部11は、例えば、カメラによって撮像された券面の画像、スキャナによって読み取られた券面の画像等を取得する。なお、本例示的実施形態において、券面の具体例として、運転免許証、マイナンバーカード、パスポート、健康保険証等の本人確認書類を挙げることができるがこれらに限定されるものではない。本例示的実施形態において、券面とは、広義の意味で、所定の様式を有し、当該様式中に少なくとも1つの文字を含む対象物のことを指す。文字が印字又は配置された面の素材は、一例として、紙、樹脂、またはこれらの組み合わせが挙げられるが、これらに限定されるものではない。
 なお、券面の大きさは、例えば、A4版等のカードよりも大きいものであってもよく、上述のようなカードサイズに限られるものではない。
 切出部12は、取得部11によって取得された券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す。後述のように、周辺の画像は、1又は複数の対象文字の周辺の罫線、他の少なくとも1つの文字等である。
 ここで、本提示的実施形態において罫線とは、対象文字の周辺に存在する線状のオブジェクト一般のことを指す。より具体的に言えば、本提示的実施形態において罫線とは、例えば、運転免許証の「氏名」欄、「種類」欄等の四角い枠の上下左右の線の何れか、または複数の線を含む概念であり、運転免許証の「氏名」欄、「種類」欄等のような四角で閉じられた枠だけに限られず、対象文字の上だけに線がある場合、対象文字の下だけに線がある場合等も含む概念である。
 識別部13は、学習済のモデルに対して、切出部12によって切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する。後述のように、学習済のモデルは、一例として、ニューラルネットワーク(以下、NNと略す。)にディープラーニング(深層学習)を行わせて生成されたモデルである。ここで、ニューラルネットワークとしては、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)等を挙げることができる。なお、当該モデルは、これらの構成に限定されるものではなく、SVM(Support Vector Machine)等の他の機械学習であってもよいし、これら他の機械学習とニューラルネットワークとを組み合わせたものであってもよい。なお、本例示的実施形態では、単に「モデル」との表現を用いることが多いが、当該モデルは、推論モデル、推定モデル、識別モデルなどとも表現され得るものである。
 (情報処理装置10の効果)
 以上のように、本例示的実施形態に係る情報処理装置10においては、切出部12が、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出すので、対象文字のみで識別処理を実行するよりも、文字を正確に識別することができる。
 (情報処理方法の流れ)
 本例示的実施形態に係る情報処理方法の流れについて、図2を参照して説明する。図2は、情報処理方法の流れを示すフロー図である。まず、取得部11は、券面の画像を取得する(S1)。
 次に、切出部12は、取得部11によって取得された画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す(S2)。そして、識別部13は、学習済のモデルに対して、切出部12によって切出された画像を入力することにより、1又は複数の対象文字に関する識別処理を実行する(S3)。
 (情報処理方法の効果)
 以上のように、本例示的実施形態に係る情報処理方法においては、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出すので、対象文字のみで識別処理を実行するよりも、文字を正確に識別することができる。
 〔例示的実施形態2〕
 (情報処理装置の構成)
 図3は、例示的実施形態2に係る情報処理装置20の機能的構成を示すブロック図である。情報処理装置20は、教師データ取得部21と、教師データ記憶部22と、学習部23とを含む。なお、本例示的実施形態においては、学習対象のモデルがNNを含む場合について説明する。
 教師データ取得部21は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベル(正解データ)との組を複数含む教師データを教師データ記憶部22から取得する。
 教師データ記憶部22は、予め作成された複数の教師データを記憶している。ここで、教師データは、一例として、真正の券面の画像から切り出された1又は複数の対象文字および周辺の画像と、当該1又は複数の対象文字に関する正解ラベル(正解データ)との組を指す。
 モデルには、真正の券面の画像から切り出された1又は複数の対象文字および周辺の画像と、正解ラベルとの対応関係を学習させる。例えば、識別する対象文字の種類が1000個であれば、1000個の出力ノードを用意し、対象文字に対応する出力ノードに“1”(“1”に近い値)を出力し、他の出力ノードには“0”(“0”に近い値)を出力するようにモデルに学習させる。このようにモデルを学習させることで、モデルに識別対象の1又は複数の対象文字および周辺の画像が入力されたときに、対象となる出力ノードに最も高い値が出力されるようになる。
 また、当該モデルは、識別処理の確度を示す確度情報を出力する。一例として、当該モデルは、各出力ノードの値に応じた確度情報を出力する。一例として、当該モデルは、上記対象となる出力ノードの値を、確度情報として出力する。
 学習部23は、教師データ取得部21によって取得された教師データを用いて、モデルを学習させる。上述のように、NNを用いる場合には、入力レイヤに、券面の画像から切り出された1又は複数の対象文字および周辺の画像を入力する。そして、出力ノードに出力される値と、対応する正解ラベルの値との差(誤差)を逆伝播して、誤差が小さくなるように重み付けを変更する、いわゆる、BP(Back Propagation)法を用いてモデルの学習が行われる。
 以上のように、本例示的実施形態に係る情報処理装置20においては、学習部23が、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベル(正解データ)との組を用いてモデルを学習させるので、文字を正確に識別することができるモデルを作成することが可能となる。
 (情報処理方法の流れ)
 本例示的実施形態に係る情報処理方法の流れについて、図4を参照して説明する。図4は、情報処理方法の流れを示すフロー図である。図4に示す情報処理方法は、情報処理装置20を用いたモデルの学習方法と捉えることもできるし、情報処理装置20を用いたモデルの製造方法と捉えることもできる。
 まず、教師データ取得部21は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する(S11)。
 次に、学習部23は、教師データ取得部21によって取得された教師データを用いて、モデルを学習させる(S12)。そして、モデルの学習が終了したか否かが判定される(S13)。例えば、教師データ記憶部22に記憶される全ての教師データを用いてモデルを学習させたときに、モデルの学習が終了したと判定される。
 モデルの学習が終了していなければ(S13,No)、ステップS11に戻って以降の処理を繰り返す。また、モデルの学習が終了していれば(S13,Yes)、学習部23は、学習済のモデルを出力する(S14)。
 以上のように、本例示的実施形態に係る情報処理方法においては、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を用いて学習させるので、文字を正確に識別することができるモデルを作成することが可能となる。
 〔例示的実施形態3〕
 本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理装置の構成例)
 図5は、本発明の第3の例示的実施形態に係る情報処理装置10aの機能的構成を示すブロック図である。情報処理装置10aは、取得部11と、切出部12と、識別部13aと、判別部14とを含む。
 図6は、券面の一例を示す図である。券面の一例として運転免許証の場合について説明するが、マイナンバーカード、パスポート、健康保険証等の本人確認書類でもよく、これらに限定されるものではない。本例示的実施形態において、券面とは、広義の意味で、所定の様式を有し、当該様式中に少なくとも1つの文字を含む対象物のことを指す。文字が印字又は配置された面の素材は、一例として、紙、樹脂、またはこれらの組み合わせが挙げられるが、これらに限定されるものではない。
 図6に示すように、運転免許証には、氏名欄、生年月日欄、住所欄、交付年月日欄、種類欄などがあるが、これらの欄の位置は予め決められている。したがって、切出し部12は、取得部11によって取得された全体画像内の位置関係から各項目の欄を特定することができる。
 切出部12は、例えば、氏名を抽出する場合、運転免許証の全体画像における座標に基づいて氏名欄を特定し、氏名欄の中に記載されている全ての文字列の画像を抽出する。抽出した文字列の画像から1文字ずつ抽出する方法は本実施形態を限定するものではないが、一例として、従来知られている文字抽出アルゴリズムを用いることができる。
 切出部12は、抽出した文字を切出すときに、1又は複数の対象文字の周辺の画像を含めて切出す。図6に示す氏名欄の場合、切出部12は、氏名に含まれる1又は複数の対象文字の周辺の罫線を含めて画像を切出す。具体的には、切出部12は、1又は複数の対象文字の上側に配置された罫線および1又は複数の対象文字の下側に配置された罫線の少なくとも何れか一方を切出す。なお、氏名に含まれる1又は複数の対象文字の左右の罫線を含めて画像を切出すようにしてもよい。
 なお、図6において氏名欄における「△」のマークは、人名を表す漢字、ひらがな、カタカナ、及びアルファベットなどを抽象的に表現したものに過ぎず、本例示的実施形態を限定するものではない。
 また、切出部12は、抽出した文字を切出すときに、1又は複数の対象文字以外の少なくとも1つの文字を含めて切出すようにしてもよい。例えば、生年月日欄の「昭和」や「日生」は、これら2つの文字の組み合わせが決まっているため、切出部12は、図6に示すように、「昭」の文字を切出すときに、「和」の文字も含めて切出す。同様に、切出部12は、図6に示すように、「日」の文字を切出すときに、「生」の文字も含めて切出す。
 識別部13aは、氏名用モデル131と、住所用モデル132と、種類用モデル133とを含む。氏名用モデル131は、図3に示す第2の例示的実施形態に係る情報処理装置を用いて作成したモデルであり、氏名欄に記載された文字に基づいて作成された教師データをモデルに学習させたものである。
 住所用モデル132は、図3に示す第2の例示的実施形態に係る情報処理装置を用いて作成したモデルであり、住所欄に記載された文字に基づいて作成された教師データをモデルに学習させたものである。
 同様に、種類用モデル133は、図3に示す第2の例示的実施形態に係る情報処理装置を用いて作成したモデルであり、種類欄に記載された文字に基づいて作成された教師データをモデルに学習させたものである。
 図5において、識別部13aには、氏名用モデル131、住所用モデル132および種類用モデル133の3種類のモデルのみを記載しているが、それ以外の項目の画像を学習させたモデルが含まれていてもよい。
 識別部13aは、切出部12によって切出された画像がどの項目に対応するかを特定し、複数のモデル(氏名用モデル131、住所用モデル132、種類用モデル133)の中から特定した項目に対応するモデルを選択する。そして、識別部13aは、選択したモデルを用いて、特定した項目に含まれる1又は複数の文字に関する識別処理を実行する。
 判別部14は、識別処理の結果を参照して、券面の真偽を判別する。また、識別処理の結果には、1又は複数の識別後の文字が含まれ、判別部14は、1又は複数の識別後の文字の形式を判定することにより、券面の真偽を判別する。判別部14は、形式が予め定められた所定の要件を満たす場合に券面が真正であると判別する。一例として、以下に示す各項目の文字列の形式をチェックすることによって、券面の真偽を判定する。
 (1)氏名欄に“[”があった場合、その後ろに“]”があるか否か
 (2)生年月日欄、交付年月日欄等の日付が有効な日付か否か
 (3)交付年月日欄の交付番号が5桁の数字になっているか否か
 また、識別処理の結果には、1又は複数の識別後の文字が含まれ、判別部14は、1又は複数の識別後の文字の整合性を判定することにより、券面の真偽を判別する。判別部14は、整合性として、券面中のある記載が別の記載との関係で矛盾しない(予め定められた所定の条件を満たす)場合に券面が真正であると判別する。一例として、判別部14は、以下に示す各項目の文字列の整合性をチェックすることによって、券面の真偽を判定する構成としてもよい。
 (1)旧姓表記がある場合、交付日が所定の日付以降か否か
 (2)西暦表記がある場合、交付年月日が所定の日付以降になっているか否か
 (3)有効期限が生年月日の翌月になっているか否か
 また、識別処理の結果には、1又は複数の識別後の文字が含まれ、判別部14は、1又は複数の識別後の文字を、予め定められた文字群と比較することによって、券面の真偽を判別する構成としてもよい。例えば、種類欄には、「大型」、「小型」、「中型」、「原付」等の種類が記載されており、これらの種類は予め決まっている。したがって、判別部14は、識別部13aによって識別された後の種類欄に記載の文字を、これらの文字群(「大型」、「小型」、「中型」、「原付」等の文字を含む文字群)と比較し、一致するか否かで券面の真偽を判別することができる。
 また、判別部14は、確度情報を参照して、券面の真偽を判別する。上述のように、学習済のモデルに対して、切出部12によって切出された画像を入力したときに、確度情報が出力されるようにモデルを作成することにより、識別部13aが確度情報を出力することができる。判別部14は、識別部13aから出力される確度情報が所定値よりも低ければ、その1又は複数の識別後の文字が偽造されたものであると判定する。これは、券面の文字が種類の異なるフォントで作成された場合に、誤認識が多くなることを利用している。判別部14は、識別部13aによって識別処理が行われた全ての1又は複数の識別後の文字について真偽の判定を行い、確度情報が所定値よりも低いと判定されればその券面は偽造されたものと判定する。
 図7は、本発明の例示的実施形態3に係る情報処理方法の流れを示すフロー図である。まず、取得部11は、券面の画像を取得する(S21)。そして、切出部12は、取得部11によって取得された券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す(S22)。
 次に、識別部13aは、券面の画像内の位置に基づき券面に含まれる項目を特定し(S23)、特定した項目に対応するモデルを選択する(S24)。そして、識別部13aは、選択したモデルを用いて、特定した項目に含まれる1又は複数の文字に関する識別処理を実行する(S25)。
 最後に、判別部14は、識別部13aによる識別処理の結果を参照して、券面の真偽を判別する(S26)。
 以上のように、本例示的実施形態に係る情報処理装置においては、切出部12が、1又は複数の対象文字の周辺の罫線を含めて画像を切出す。券面が偽造されている場合、対象文字と罫線との間の距離が微妙に異なっていたり、対象文字が罫線に対して微妙に傾いたりしている。したがって、識別部13aが、学習済のモデルに対して、切出部12によって切出された画像を入力して、1又は複数の対象文字に関する識別処理を実行することにより、券面の偽造を識別することが可能となる。
 また、切出部12が、1又は複数の対象文字以外の少なくとも1つの文字を含めて切出す。券面が偽造されている場合、対象文字とそれ以外の文字との間の距離が微妙に異なっていたり、対象文字がそれ以外の文字に対して微妙に傾いたりしている。したがって、識別部13aが、学習済のモデルに対して、切出部12によって切出された画像を入力して、1又は複数の対象文字に関する識別処理を実行することにより、券面の偽造を識別することが可能となる。
 また、識別部13aが、切出部12によって切出された画像がどの項目に対応するかを特定し、複数のモデル(氏名用モデル131、住所用モデル132、種類用モデル133)の中から特定した項目に対応するモデルを選択する。したがって、項目によって異なる種類のフォントをモデルに学習させたりすることができ、券面の偽造をより正確に識別することが可能となる。
 また、判別部14は、識別部13aによって識別された後の各項目の文字列に基づいて、券面の真偽を判別する。したがって、識別された後の各項目の文字列の内容に応じて、券面の真偽を判別することが可能となる。
 また、判別部14は、1又は複数の識別後の文字の形式を判定することにより、券面の真偽を判別する。したがって、形式的な不備を伴う券面の偽造を容易に判別することが可能となる。
 また、判別部14は、1又は複数の識別後の文字の整合性を判定することにより、券面の真偽を判別する。したがって、整合性の不備を伴う券面の偽造を容易に判別することが可能となる。
 また、判別部14は、1又は複数の識別後の文字を、予め定められた文字群と比較することによって、券面の真偽を判別する。したがって、運転免許証の種類欄のように特定の文字群が記載されている項目の場合に、それ以外の文字群が記載されていれば、券面が偽造されていると判別することができる。
 また、判別部14は、識別部13aから出力される確度情報が所定値よりも低ければ、その1又は複数の識別後の文字が偽造されたものであると判定する。したがって、券面の文字が種類の異なるフォントで作成された場合等に、券面が偽造されていると判別することができる。
 〔例示的実施形態4〕
 本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態3において説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理システムの構成)
 図8は、例示的実施形態4に係る情報処理システム1の機能的構成を示すブロック図である。情報処理システム1は、読取装置30と、サーバ40とを含み、それらが通信ネットワーク50を介して接続されている。読取装置30は、撮像部31と、通信部32とを含む。撮像部31は、スマートフォンに設けられているカメラ、スキャナ等に相当し、券面の画像を撮像する。
 通信部32は、インターネット等の広域通信網である通信ネットワーク50を介して、銀行等に設置されるサーバ40との間で通信を行う。通信部32は、撮像部31によって撮像された券面の画像を通信ネットワーク50を介してサーバ40に送信する。
 サーバ40は、通信部41と、情報処理装置10aとを含む。通信部41は、インターネット等の広域通信網である通信ネットワーク50を介して、読取装置30との間で通信を行う。通信部41は、通信ネットワーク50を介して読取装置30から券面の画像を受信する。
 情報処理装置10aの取得部11は、通信部41によって受信された券面の画像を取得する。それ以降の処理は、例示的実施形態3において説明したものと同様である。したがって、詳細な説明は繰り返さない。
 通信部41は、情報処理装置10aによる券面の画像の判別結果を受け、通信ネットワーク50を介して読取装置30に送信する。
 図9は、本発明の例示的実施形態4に係る読取装置30の処理手順を説明するためのフローチャートである。まず、撮像部31は、券面の画像を撮像する(S31)。そして、通信部32は、撮像部31によって撮像された券面の画像を通信ネットワーク50を介してサーバ40に送信する(S32)。
 図10は、本発明の例示的実施形態4に係るサーバ40の処理手順を説明するためのフローチャートである。まず、通信部41は、通信ネットワーク50を介して読取装置30から券面の画像を受信する(S41)。
 情報処理装置10aは、券面の真偽を判別する(S42)。そして、通信部41は、情報処理装置10aによる券面の画像の判別結果を受け、通信ネットワーク50を介して読取装置30に送信する(S43)。
 以上のように、読取装置30が券面の画像を撮像してサーバ40に送信し、サーバ40が券面の真偽を判別して判別結果を読取装置30に送信する。したがって、読取装置30側で券面の真偽を判別する必要がなくなる。
 また、切出部12が、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出すので、対象文字のみで識別処理を実行するよりも、文字を正確に識別することができる。
 〔ソフトウェアによる実現例〕
 情報処理装置10,10a,20の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、情報処理装置10,10a,20は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータ60と記載する)を図11に示す。コンピュータ60は、少なくとも1つのプロセッサ61と、少なくとも1つのメモリ62とを備え、内部バス63を介して接続されている。メモリ62には、コンピュータ60を情報処理装置10,10a,20として動作させるためのプログラムPが記録されている。コンピュータ60において、プロセッサ61は、プログラムPをメモリ62から読み取って実行することにより、情報処理装置10,10a,20の各機能が実現される。
 プロセッサ61としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、GPGPU(General-Purpose computing on Graphics Processing Units)、又は、これらの組み合わせなどを用いることができる。メモリ62としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータ60は、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータ60は、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータ60は、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータ60が読み取り可能な、一時的でない有形の記録媒体70に記録することができる。このような記録媒体70としては、例えば、CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータ60は、このような記録媒体70を介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータ60は、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した例示的実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した例示的実施形態に開示された技術的手段を適宜組み合わせて得られる例示的実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した例示的実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 券面の画像を取得する取得手段と、
 前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す切出手段と、
 学習済のモデルに対して、前記切出手段によって切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する識別手段とを備える、情報処理装置。
 (付記2)
 前記周辺の画像は、前記1又は複数の対象文字の周辺の罫線である、付記1に記載の情報処理装置。
 (付記3)
 前記周辺の画像は、前記1又は複数の対象文字の上側に配置された罫線および前記1又は複数の対象文字の下側に配置された罫線の少なくとも何れか一方である、付記2に記載の情報処理装置。
 (付記4)
 前記周辺の画像は、前記1又は複数の対象文字以外の少なくとも1つの文字である、付記1に記載の情報処理装置。
 (付記5)
 前記モデルは、前記券面に含まれ複数の項目の各々に対応して各々が学習された複数のモデルを含み、
 前記識別手段は、
  前記券面の画像内の位置に基づき当該券面に含まれる項目を特定し、
  前記複数のモデルの中から前記特定した項目に対応するモデルを選択し、
  選択したモデルを用いて、前記特定した項目に含まれる1又は複数の文字に関する識別処理を実行する、付記1~4のいずれかに記載の情報処理装置。
 (付記6)
 前記情報処理装置はさらに、
 前記識別処理の結果を参照して、前記券面の真偽を判別する判別手段を備える、付記1~5のいずれかに記載の情報処理装置。
 (付記7)
 前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
 前記判別手段は、前記1又は複数の識別後の文字の形式を判定することにより、前記券面の真偽を判別する、付記6に記載の情報処理装置。
 (付記8)
 前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
 前記判別手段は、前記1又は複数の識別後の文字の整合性を判定することにより、前記券面の真偽を判別する、付記6または7に記載の情報処理装置。
 (付記9)
 前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
 前記判別手段は、前記1又は複数の識別後の文字を、予め定められた文字群と比較することによって、前記券面の真偽を判別する、付記6~8のいずれかに記載の情報処理装置。
 (付記10)
 前記識別処理の結果には、当該識別処理の確度情報が含まれ、
 前記判別手段は、前記確度情報を参照して、前記券面の真偽を判別する、付記6~9のいずれかに記載の情報処理装置。
 (付記11)
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得部と、
 前記教師データを用いて、前記モデルを学習させる学習部とをさらに備える、付記1~10のいずれかに記載の情報処理装置。
 (付記12)
 前記券面は、本人確認書類であり、運転免許証、マイナンバーカード、パスポートおよび健康保険証のいずれかである、付記1~11のいずれかに記載の情報処理装置。
 (付記13)
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得部と、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる学習部とを備える、情報処理装置。
 (付記14)
 券面の画像を取得し、
 前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、
 学習済のモデルに対して、前記切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する、情報処理方法。
 (付記15)
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、情報処理方法。
 (付記16)
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、学習済モデルの製造方法。
 (付記17)
 コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、
 前記情報処理方法は、券面の画像を取得し、
 前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、
 学習済のモデルに対して、前記切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する、コンピュータプログラム。
 (付記18)
 コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、
 前記情報処理方法は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、コンピュータプログラム。
 (付記19)
 コンピュータを情報処理装置として機能させるプログラムを記録した、前記コンピュータで読み取り可能な記録媒体であって、
 前記コンピュータを、券面の画像を取得する取得手段、
 前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す切出手段、
 学習済のモデルに対して、前記切出手段によって切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する識別手段、
として機能させるプログラムを記録した記録媒体。
 (付記20)
 コンピュータを情報処理装置として機能させるプログラムを記録した、前記コンピュータで読み取り可能な記録媒体であって、
 前記コンピュータを、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得手段、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる学習手段、
として機能させるプログラムを記録した記録媒体。
 (付記21)
 少なくとも1つのプロセッサを備え、前記プロセッサは、券面の画像を取得する処理と、
 前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す処理と、
 学習済のモデルに対して、前記切出手段によって切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する処理とを実行する情報処理装置。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記取得する処理と、前記切出す処理と、前記実行する処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 (付記22)
 少なくとも1つのプロセッサを備え、前記プロセッサは、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する処理と、
 券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる処理とを実行する情報処理装置。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記取得する処理と、前記学習させる処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 1 情報処理システム
 10,10a,20 情報処理装置
 11 取得部
 12 切出部
 13,13a 識別部
 14 判別部
 21 教師データ取得部
 22 教師データ記憶部
 23 学習部
 30 読取装置
 31 撮像部
 32,41 通信部
 40 サーバ
 50 通信ネットワーク
 60 コンピュータ
 61 プロセッサ
 62 メモリ
 63 内部バス
 70 記録媒体
 131 氏名用モデル
 132 住所用モデル
 133 種類用モデル
 P プログラム

Claims (18)

  1.  券面の画像を取得する取得手段と、
     前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出す切出手段と、
     学習済のモデルに対して、前記切出手段によって切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する識別手段とを備える、情報処理装置。
  2.  前記周辺の画像は、前記1又は複数の対象文字の周辺の罫線である、請求項1に記載の情報処理装置。
  3.  前記周辺の画像は、前記1又は複数の対象文字の上側に配置された罫線および前記1又は複数の対象文字の下側に配置された罫線の少なくとも何れか一方である、請求項2に記載の情報処理装置。
  4.  前記周辺の画像は、前記1又は複数の対象文字以外の少なくとも1つの文字である、請求項1に記載の情報処理装置。
  5.  前記モデルは、前記券面に含まれ複数の項目の各々に対応して各々が学習された複数のモデルを含み、
     前記識別手段は、
      前記券面の画像内の位置に基づき当該券面に含まれる項目を特定し、
      前記複数のモデルの中から前記特定した項目に対応するモデルを選択し、
      選択したモデルを用いて、前記特定した項目に含まれる1又は複数の文字に関する識別処理を実行する、請求項1~4のいずれか1項に記載の情報処理装置。
  6.  前記情報処理装置はさらに、
     前記識別処理の結果を参照して、前記券面の真偽を判別する判別手段を備える、請求項1~5のいずれか1項に記載の情報処理装置。
  7.  前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
     前記判別手段は、前記1又は複数の識別後の文字の形式を判定することにより、前記券面の真偽を判別する、請求項6に記載の情報処理装置。
  8.  前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
     前記判別手段は、前記1又は複数の識別後の文字の整合性を判定することにより、前記券面の真偽を判別する、請求項6または7に記載の情報処理装置。
  9.  前記識別処理の結果には、1又は複数の識別後の文字が含まれ、
     前記判別手段は、前記1又は複数の識別後の文字を、予め定められた文字群と比較することによって、前記券面の真偽を判別する、請求項6~8のいずれか1項に記載の情報処理装置。
  10.  前記識別処理の結果には、当該識別処理の確度情報が含まれ、
     前記判別手段は、前記確度情報を参照して、前記券面の真偽を判別する、請求項6~9のいずれか1項に記載の情報処理装置。
  11.  券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得手段と、
     前記教師データを用いて、前記モデルを学習させる学習手段とをさらに備える、請求項1~10のいずれか1項に記載の情報処理装置。
  12.  前記券面は、本人確認書類であり、運転免許証、マイナンバーカード、パスポートおよび健康保険証のいずれかである、請求項1~11のいずれか1項に記載の情報処理装置。
  13.  券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得する教師データ取得手段と、
     券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる学習手段とを備える、情報処理装置。
  14.  券面の画像を取得し、
     前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、
     学習済のモデルに対して、前記切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する、情報処理方法。
  15.  券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
     券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、情報処理方法。
  16.  券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
     券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、学習済モデルの製造方法。
  17.  コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、
     前記情報処理方法は、券面の画像を取得し、
     前記画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像を含めて切出し、
     学習済のモデルに対して、前記切出された画像を入力することにより、前記1又は複数の対象文字に関する識別処理を実行する、コンピュータプログラム。
  18.  コンピュータに情報処理方法を実行させるためのコンピュータプログラムであって、
     前記情報処理方法は、券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像と、当該1又は複数の対象文字に関する正解ラベルとの組を複数含む教師データを取得し、
     券面の画像から、1又は複数の対象文字を、当該1又は複数の対象文字の周辺の画像と共に切り出すことによって得られた画像を入力とし、当該1又は複数の対象文字に関する識別結果を出力するモデルを、前記教師データを用いて学習させる、コンピュータプログラム。
PCT/JP2022/007090 2021-03-25 2022-02-22 情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム WO2022202047A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023508815A JPWO2022202047A5 (ja) 2022-02-22 情報処理装置および情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-052124 2021-03-25
JP2021052124 2021-03-25

Publications (1)

Publication Number Publication Date
WO2022202047A1 true WO2022202047A1 (ja) 2022-09-29

Family

ID=83397068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007090 WO2022202047A1 (ja) 2021-03-25 2022-02-22 情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム

Country Status (1)

Country Link
WO (1) WO2022202047A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003504A (ja) * 2017-06-16 2019-01-10 株式会社 みずほ銀行 証明書検証装置、証明書検証方法及び証明書検証プログラム
JP2019003421A (ja) * 2017-06-15 2019-01-10 テンソル・コンサルティング株式会社 本人確認書類の真偽判定システム、方法およびプログラム
JP2020113240A (ja) * 2019-01-09 2020-07-27 大日本印刷株式会社 ファイル生成装置、ファイル生成方法、ファイル生成装置用プログラム、および、ファイル生成システム
JP2020144437A (ja) * 2019-03-04 2020-09-10 株式会社ダブルスタンダード 偽造判定システム、偽造判定方法及び偽造判定プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003421A (ja) * 2017-06-15 2019-01-10 テンソル・コンサルティング株式会社 本人確認書類の真偽判定システム、方法およびプログラム
JP2019003504A (ja) * 2017-06-16 2019-01-10 株式会社 みずほ銀行 証明書検証装置、証明書検証方法及び証明書検証プログラム
JP2020113240A (ja) * 2019-01-09 2020-07-27 大日本印刷株式会社 ファイル生成装置、ファイル生成方法、ファイル生成装置用プログラム、および、ファイル生成システム
JP2020144437A (ja) * 2019-03-04 2020-09-10 株式会社ダブルスタンダード 偽造判定システム、偽造判定方法及び偽造判定プログラム

Also Published As

Publication number Publication date
JPWO2022202047A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
CA3034730C (en) Dual stage neural network pipeline systems and methods
CA3154393A1 (en) System and methods for authentication of documents
Azmi et al. Biometric signature verification system based on freeman chain code and k-nearest neighbor
US11023708B2 (en) Within document face verification
Sigari et al. Offline handwritten signature identification and verification using multi-resolution gabor wavelet
Ahmed et al. Forgery detection based on intrinsic document contents
JP5674615B2 (ja) 文字認識装置及び文字認識方法
CN102831391B (zh) 一种电子护照的签名记录、识别方法及系统
Soelistio et al. A review of signature recognition using machine learning
CN111275070A (zh) 一种基于局部特征匹配的签名验证方法及设备
Fairhurst et al. Perceptual analysis of handwritten signatures for biometric authentication
WO2022202047A1 (ja) 情報処理装置、情報処理方法、学習済モデルの製造方法およびコンピュータプログラム
Das et al. Thai automatic signature verification system employing textural features
Ahmad et al. Analysis of the effects and relationship of perceived handwritten signature's size, graphical complexity, and legibility with dynamic parameters for forged and genuine samples
Sadak et al. Dynamic and static feature fusion for increased accuracy in signature verification
Ng et al. An intelligent banknote recognition system by using machine learning with assistive technology for visually impaired people
CN112434727A (zh) 身份证明文件认证方法和系统
Kodirov et al. Music with harmony: chord separation and recognition in printed music score images
Patil et al. A Review-Signature Verification System Using Deep Learning: A Challenging Problem
Alginahi et al. An arabic script recognition system
US20240054803A1 (en) Framework for identifying documents
Nguyen et al. On the problem of classifying vietnamese online handwritten characters
JP6865797B2 (ja) 真贋判定方法、情報処理装置、及びプログラム
Jain et al. HANDWRITTEN SIGNATURES FORGERY DETECTION
KR102181243B1 (ko) 사용자의 서명의 검증에 이용되는 검증 모델을 생성하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774847

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023508815

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22774847

Country of ref document: EP

Kind code of ref document: A1