WO2023153324A1 - 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体 - Google Patents

証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体 Download PDF

Info

Publication number
WO2023153324A1
WO2023153324A1 PCT/JP2023/003528 JP2023003528W WO2023153324A1 WO 2023153324 A1 WO2023153324 A1 WO 2023153324A1 JP 2023003528 W JP2023003528 W JP 2023003528W WO 2023153324 A1 WO2023153324 A1 WO 2023153324A1
Authority
WO
WIPO (PCT)
Prior art keywords
target image
trail
data
condition
image
Prior art date
Application number
PCT/JP2023/003528
Other languages
English (en)
French (fr)
Inventor
英祐 川上
泰成 辻
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2023153324A1 publication Critical patent/WO2023153324A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/20Combination of acquisition, preprocessing or recognition functions

Definitions

  • the present invention relates to a trail management device, a trail management system, a trail management method, and a recording medium.
  • the personal identification/authentication system described in Patent Document 1 uses biometric information generated based on a face image captured by an imaging unit at the time of user registration and a face image included in an image of a personal identification document.
  • a face score value is calculated from the biometric information generated based on this.
  • the personal identification/authentication system registers biometric information generated based on the face image captured by the imaging unit as registered biometric information when the face score value is equal to or greater than the first predetermined value.
  • Patent Document 2 discloses a face authentication device for preventing deterioration of convenience at the beginning of operation.
  • This face authentication device includes a face image acquiring section, a matching section, a time measuring section, and a threshold changing section.
  • the face image acquisition unit acquires a face image to be authenticated.
  • the matching unit performs face authentication on a face image to be authenticated based on a threshold value.
  • the time measurement unit measures the elapsed time from the start of operation of the face authentication device.
  • the threshold changing unit restricts changing the threshold to a value larger than a value determined depending on the measured elapsed time.
  • the personal identification/authentication system described in Patent Document 1 performs personal identification processing using a first predetermined value when registering a user.
  • the identity confirmation/authentication system registers, as registered biometric information, biometric information generated based on the face image captured by the imaging unit, among the biometric information used in the identity confirmation process at the time of registration.
  • Patent Document 1 Information including a face image captured by the imaging unit described in Patent Document 1 may be stored as a trail of identity verification processing at the time of registration.
  • the image quality of the face image captured by the imaging unit may be poor due to reasons such as being slightly out of focus.
  • a face image with poor image quality may cause problems such as being unable to perform sufficient verification when it becomes necessary to verify using a trail after registration.
  • the present invention has been made in view of the circumstances described above, and its object is to provide a trail management device or the like that enables management of trails with good image quality.
  • the trail management device includes: a data acquisition means for acquiring target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; and trail generation means for generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition.
  • the trail management system comprises: the above trace management device; and a terminal device that generates the target image data by photographing the person and the document, and transmits the target image data to the trail management device.
  • a trail management method comprises: the computer obtaining target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition;
  • the program according to the fourth aspect of the present invention is to the computer, obtaining target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; for generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition; It's a program.
  • FIG. 1 is a diagram showing an example of the configuration of a trail management system according to Embodiment 1 of the present invention
  • FIG. 4 is a diagram showing an example of a target image P1
  • FIG. It is a figure which shows an example of the physical structure of the terminal device which concerns on Embodiment 1 of this invention.
  • 2 is a diagram showing an example of a physical configuration of a trace management device according to Embodiment 1 of the present invention
  • FIG. 4 is a flowchart showing an example of first terminal processing according to Embodiment 1 of the present invention
  • 4 is a flowchart showing an example of first server processing according to Embodiment 1 of the present invention
  • FIG. 9 is a diagram showing an example of the configuration of a trace management system according to Embodiment 2 of the present invention
  • FIG. 10 is a diagram illustrating an example of a functional configuration of a trail generation unit according to the second embodiment
  • FIG. 11 is a flowchart showing an example of second terminal processing according to Embodiment 2 of the present invention
  • FIG. FIG. 4 is a diagram showing an example of a preview image PP
  • FIG. 10 is a flowchart showing an example of second server processing according to Embodiment 2 of the present invention
  • FIG. FIG. 12 is a diagram illustrating an example of the configuration of trail data according to Modification 2;
  • FIG. 11 is a diagram showing an example of the configuration of a trail management system according to Embodiment 3 of the present invention
  • FIG. 13 is a diagram illustrating an example of a functional configuration of a trail generation unit according to Embodiment 3; It is a figure which shows an example of candidate data.
  • FIG. 12 is a flowchart showing an example of third server processing according to Embodiment 3 of the present invention
  • FIG. FIG. 16 is a flowchart illustrating an example of fourth server processing according to modification 3
  • FIG. FIG. 13 is a diagram showing an example of the configuration of a trail management system according to Embodiment 4 of the present invention
  • FIG. 12 is a diagram illustrating an example of a functional configuration of a trail generation unit according to Embodiment 4;
  • FIG. 10 is a diagram showing another example of candidate data
  • FIG. 21 is a flowchart showing an example of fifth server processing according to Embodiment 4 of the present invention
  • FIG. FIG. 13 is a diagram showing an example of the configuration of a trail management system according to Embodiment 5 of the present invention
  • FIG. 16 is a flow chart showing an example of sixth server processing according to Embodiment 5 of the present invention.
  • a trail management system 100 is a system for managing a trail of identity verification, and as shown in FIG. .
  • the trail management device is a device for managing a trail of personal identification.
  • the terminal device 101 and the server device 102 are connected via a network N, and can transmit and receive data to and from each other via the network N.
  • Network N is a communication network configured by wire, wireless, or a combination thereof.
  • the terminal device 101 is a terminal used by the person who is the subject of confirmation.
  • the terminal device 101 functionally generates target image data including the target image P1 by photographing the person and the identity verification document.
  • the terminal device 101 transmits the generated target image data to the server device 102 .
  • the identity verification document is an example of a document, and is a document for verifying the identity of the person.
  • Examples of personal identification documents include a driver's license and my number card.
  • the My Number Card is a card with a unique My Number for each resident.
  • Personal identification documents include personal images, characters, etc.
  • a person's image is an image of the person, for example, a face image of the person.
  • Characters include not only hiragana, katakana, kanji, alphabets, etc., but also numbers, symbols, etc.
  • the characters written on the personal identification document represent the person's name, address, date of birth, ID (identifier), expiration date of the personal identification document, and the like.
  • the ID of the identity verification document is, for example, a number unique to the person indicated on the identity verification document.
  • FIG. 2 shows an example of the target image P1.
  • the target image P1 is an image to be processed for personal identification.
  • the target image P1 includes the person himself and his identity verification document.
  • the target image data including the target image P1 is typically obtained by photographing the person and the identity verification document at the same time, such as by photographing the person holding the identity verification document by hand as shown in FIG. .
  • the target image P1 may include both the image of the person and the image of the identity verification document, and the shooting method for obtaining the target image data including the target image P1 is not limited to this.
  • the identity verification document may be placed on a desk in front of the person, or may be photographed together with the person.
  • the target image P1 includes a first area AR1, a second area AR2, and a third area AR3, as shown in the figure.
  • the first area AR1 is an area showing the person (for example, the person's face) in the target image P1.
  • the third area AR3 is included in the area indicating the personal identification document in the target image P1.
  • the second area AR2 is an area showing the person's image (for example, the person's face image) included in the identity verification document in the target image P1.
  • the third area AR3 is an area of the target image P1 that indicates characters included in the personal identification document.
  • the server device 102 is a device that manages a trace of personal identification, and includes a data acquisition unit 103 and a trace generation unit 104 as shown in FIG.
  • the data acquisition unit 103 acquires the target image data from the terminal device 101 via the network N.
  • the trail generation unit 104 generates trail data based on the target image P1 when the first area AR1 and the second area AR2 satisfy the first condition and the definition of the target image P1 satisfies the second condition. .
  • the first condition is a condition for determining that the image in the first area AR1 and the image in the second area AR2 are of the same person.
  • the first condition is defined by the relationship between the degree of matching between the first area AR1 and the second area AR2 and the first reference value.
  • the matching degree is a value indicating the degree of matching between the first area AR1 and the second area AR2.
  • the first condition is, for example, that the degree of matching is greater than or equal to the first reference value.
  • the first condition is, for example, that the degree of matching is equal to or less than a first reference value.
  • Such a degree of matching can be obtained by conventional methods, such as histogram comparison and feature point matching.
  • whether or not the first area AR1 and the second area AR2 satisfy the first condition may be determined using a learning model that has been learned by machine learning.
  • the trail generation unit 104 inputs target image data to the person determination model, and outputs a determination result as to whether or not the images in the first area AR1 and the second area AR2 are the same person.
  • This person determination model is a learned machine learning model that has been trained to determine whether or not the first area AR1 and second area AR2 images are the same person.
  • the judgment result should be indicated by an appropriate value, alphabet, symbol, etc.
  • the determination result is "1" when the images in the first area AR1 and the second area AR2 are the same person, and the determination result when the images in the first area AR1 and the second area AR2 are not the same person is " 0”.
  • the input data to the person determination model during learning is data containing two person images (preferably two face images).
  • a second condition is a condition for adopting the target image P1 as a trail.
  • the second condition is defined by the relationship between the sharpness of the target image P1 and the second reference value.
  • the sharpness is a value indicating the degree of sharpness of the target image P1. If the sharpness of the target image P1 is greater, the second condition is, for example, that the sharpness is greater than or equal to the second reference value. If the sharpness of the target image P1 becomes smaller, the second condition is, for example, that the sharpness is equal to or less than the second reference value.
  • the sharpness is obtained by image processing such as edge extraction (also called “edge detection”) such as calculating changes in brightness.
  • image processing such as edge extraction (also called “edge detection”) such as calculating changes in brightness.
  • the trail generation unit 104 obtains the sharpness of the target image P1 using image processing.
  • the sharpness may be obtained using a learning model that has been learned by machine learning.
  • the trail generation unit 104 obtains the sharpness of the target image P1 by inputting the target image data into the sharpness determination model that has been learned by machine learning for obtaining the sharpness of the target image P1.
  • Input data to the sharpness determination model during learning is, for example, target image data.
  • the trail data is data representing a trail, and includes an image based on the target image P1.
  • the image based on the target image P1 may be the target image P1 itself illustrated in FIG. 2, or may be an image obtained by processing the target image P1.
  • the target image P1 is desirably processed to leave part or all of the first area AR1, the second area AR2, and the third area AR3 as they are, such as trimming to remove the peripheral area.
  • a trace management system 100 is physically composed of a terminal device 101 and a server device 102 connected via a network N.
  • Each of the terminal device 101 and the server device 102 is composed of a physically different single device.
  • terminal device 101 and the server device 102 may be configured physically as a single device. Connected. Also, one or both of the terminal device 101 and the server device 102 may be physically composed of a plurality of devices connected via the network N. FIG.
  • the terminal device 101 is physically a tablet PC (Personal Computer), a smart phone, a general-purpose computer, or the like.
  • the terminal device 101 physically includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, a network interface 1050, an input interface 1060, an output interface 1070 and a camera 1080, as shown in FIG.
  • a bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the network interface 1050, the input interface 1060, the output interface 1070 and the camera 1080 to mutually transmit and receive data.
  • the method of connecting processors 1020 and the like to each other is not limited to bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main memory implemented by RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by a HDD (Hard Disk Drive), SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • ROM Read Only Memory
  • the storage device 1040 of the terminal device 101 stores program modules for realizing the functions of the terminal device 101 .
  • the processor 1020 loads each of these program modules into the memory 1030 and executes them, thereby implementing the functions corresponding to the program modules.
  • the network interface 1050 is an interface for connecting the terminal device 101 to the network N.
  • the input interface 1060 is an interface for the user to input information, and is composed of one or more of a touch panel, keyboard, mouse, etc., for example.
  • the output interface 1070 is an interface for presenting information to the user, and is, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, or the like.
  • the camera 1080 photographs a subject and generates image information indicating the image.
  • the server device 102 is physically, for example, a tablet PC (Personal Computer), a smart phone, a general-purpose computer, or the like.
  • the server device 102 may be physically configured similarly to the terminal device 101, as shown in FIG. That is, the server device 102 may physically include a bus 1010, a processor 1020, a memory 1030, a storage device 1040, a network interface 1050, an input interface 1060 and an output interface 1070, for example.
  • the storage device 1040 of the server device 102 stores program modules for realizing the functions of the server device 102 .
  • the processor 1020 loads each of these program modules into the memory 1030 and executes them, thereby implementing the functions corresponding to the program modules.
  • the trail management system 100 executes trail management processing.
  • the trail management process is a process for managing an identity verification trail, and includes first terminal processing executed by the terminal device 101 and first server processing executed by the server device 102 .
  • FIG. 5 is a flowchart showing an example of first terminal processing according to the present embodiment.
  • the first terminal process is started, for example, when the terminal device 101 receives a start instruction based on an input by the person or a start instruction from a functional unit (not shown) that executes processing before the first terminal process. .
  • the terminal device 101 establishes communication with the server device 102 via the network N in response to receiving the start instruction from the principal.
  • the terminal device 101 generates target image data including the target image P1 by photographing the person and the identity verification document (step S101).
  • the terminal device 101 transmits the target image data generated in step S101 to the server device 102 (step S102), and ends the first terminal processing.
  • FIG. 6 is a flowchart showing an example of first server processing according to this embodiment.
  • the server device 102 starts a first server process.
  • the data acquisition unit 103 acquires the target image data transmitted in step S102 from the terminal device 101 via the network N (step S201).
  • the trail generation unit 104 determines whether the first condition and the second condition are satisfied for the target image P1 included in the target image data acquired in step S210 (step S202).
  • the trail generation unit 104 determines that the first condition and the second condition are not satisfied. If it is determined that the first condition and the second condition are not satisfied (step S202; No), the trail generation unit 104 notifies the terminal device 101 of the error via the network N (step S203), and performs the first server processing. exit.
  • the error notification transmitted in step S203 is a notification indicating that at least one of the first condition and the second condition is not satisfied, and is acquired by the terminal device 101.
  • the terminal device 101 displays a predetermined message such as "An appropriate image was not captured” or "Identity verification failed" on the display unit. to display.
  • the trail generation unit 104 When it is determined that the first condition and the second condition are satisfied (step S202; Yes), the trail generation unit 104 generates trail data (step S204) and ends the first server process. Since the trail data is generated based on the target image P1 having the sharpness that satisfies the second condition, it is possible to generate the trail data including a sharp image.
  • the server device 102 as a trail management device comprises a data acquisition unit 103 and a trail generation unit 104 .
  • the data acquisition unit 103 acquires target image data including the target image P1.
  • the target image P1 includes a first area AR1 showing the person himself, and a second area AR2 showing the person image included in the person verification document as a document.
  • the trail generation unit 104 generates trail data based on the target image P1 when the first area AR1 and the second area AR2 satisfy the first condition and the definition of the target image P1 satisfies the second condition. .
  • the trail management system 100 includes a server device 102 as a trail management device and a terminal device 101 .
  • the terminal device 101 generates target image data by photographing the person and the identity verification document as a document, and transmits the target image data to the server device 102 .
  • the trail generation unit 104 may obtain the sharpness of the target image P1 based on the third area AR3.
  • the trail generation unit 104 may obtain the sharpness of the target image P1 by performing image processing on the third area AR3.
  • a sharpness determination model that has been learned by machine learning may be used to determine the sharpness.
  • the trail generation unit 104 may obtain the sharpness of the target image P1 by inputting the target image data into the sharpness determination model trained by machine learning for obtaining the sharpness of the third area AR3.
  • Input data to the sharpness determination model during learning is, for example, target image data.
  • the trail generation unit 104 obtains the sharpness of the target image P1 based on the third area AR3.
  • an image of characters has a greater change in brightness with respect to the background than an image such as a photograph.
  • the definition of the target image P1 can be obtained appropriately by obtaining the definition of the target image P1 based on the third area AR3 indicating the characters included in the identity verification document. Also, trail data including clear images can be generated more reliably. Therefore, according to this modification, it is possible to manage a trail of better image quality.
  • the terminal device 201 Functionally, the terminal device 201 generates target image data by photographing the person and the identity verification document, and transmits the target image data to the server device 202, similarly to the first embodiment.
  • the terminal device 201 includes an imaging unit 205 , an input reception unit 206 , a terminal communication unit 207 and a display unit 208 .
  • the photographing unit 205 photographs the person and the identity verification document. Thereby, the imaging unit 205 generates target image data including the target image P1.
  • the input reception unit 206 receives input from the person himself/herself.
  • Terminal communication unit 207 transmits and receives data to and from server device 102 via network N.
  • FIG. The display unit 208 displays various information such as images and characters.
  • the server device 202 is a device (trace management device) for managing an identity verification trail as in the first embodiment, and includes a data acquisition unit 103 similar to the first embodiment and a trail generation unit according to the first embodiment. and a trail generator 204 that replaces 104 .
  • the server device 202 further includes a trail data storage unit 209 and a confirmation required data storage unit 210 .
  • the trail generation unit 204 generates a Generate trail data based on
  • the trail generation unit 204 includes a first determination unit 211, a second determination unit 212, a storage control unit 213, and a notification unit 214, as shown in FIG.
  • the first determination unit 211 determines whether or not the first area AR1 and the second area AR2 of the target image P1 included in the target image data acquired by the data acquisition unit 103 satisfy the first condition.
  • the second determination unit 212 determines whether the definition of the target image P1 determined to satisfy the first condition satisfies the second condition. judge.
  • the storage control unit 213 generates trail data or confirmation-required data depending on whether it is determined that the second condition is satisfied. Then, when trail data is generated, the storage control unit 213 stores the trail data in the trail data storage unit 209, and when confirmation-required data is generated, it stores the confirmation-required data in the confirmation-required data storage unit 210.
  • the trail data is, as described in the first embodiment, data indicating the trail.
  • the confirmation-required data is data indicating the target image P1 that requires visual confirmation.
  • the trail data and the confirmation-required data are common in that they include an image based on the target image P1 that has been determined by the second determination unit 212 .
  • the image based on the target image P1 may be the target image P1 itself, as described in the first embodiment, or may be an image obtained by subjecting the target image P1 to processing such as trimming.
  • the storage units 209 and 210 that store trail data and confirmation-required data are different. That is, the trail data and the confirmation-required data are stored in storage areas belonging to different categories in the storage device 1040, such as different folders.
  • trail data and confirmation-required data may include information for distinguishing between them.
  • the trail data and the confirmation-required data may be stored in a common storage unit (that is, a storage area belonging to a common classification in the storage device 1040).
  • the notification unit 214 transmits the notification to the terminal device 201 via the network N.
  • the trail data storage unit 209 is a storage unit that stores trail data.
  • the confirmation-required data storage unit 210 is a storage unit in which confirmation-required data is stored.
  • the trail management system 200, the terminal device 201, and the server device 202 may be physically configured similarly to the trail management system 100, the terminal device 101, and the server device 102 according to the first embodiment.
  • the trail management system 200 executes trail management processing for managing identity verification trails.
  • the trail management processing according to the present embodiment includes second terminal processing and second server processing that replace the first terminal processing and first server processing according to the first embodiment.
  • a second terminal process is executed by the terminal device 201 .
  • a second server process is executed by the server device 202 .
  • FIG. 9 is a flowchart showing an example of second terminal processing according to the present embodiment.
  • the second terminal process is started, for example, when a start instruction similar to that for the first terminal process is received.
  • the terminal device 201 establishes communication with the server device 202 via the network N in response to receiving the start instruction from the principal.
  • the photographing unit 205 causes the display unit 208 to display the preview image PP together with the guides G1 and G2 (step S103).
  • the preview image PP is an image for confirming an image captured by the subject before the target image P1 is captured by the capturing unit 205 .
  • FIG. 10 shows an example of the preview image PP. As shown in the figure, the preview image PP is displayed together with the guides G1 and G2.
  • the guide G1 is a guide that indicates the range of the facial image that should be positioned in the preview image PP in order to photograph the facial image of the person in a desired size.
  • the guide G2 is a guide that indicates the range of the image of the personal identification document to be positioned in the preview image PP in order to photograph the personal identification document in a desired size.
  • the photographing unit 205 determines whether or not the target image P1 including the image of the person's face and the personal identification document having a predetermined size is photographed (step S104).
  • the imaging unit 205 determines that the target image P1 including the image of the person's face and the identity verification document having a predetermined size is not captured. judge. When it is determined that the target image P1 including the image of the person's face and the identity verification document having the predetermined size is not captured (step S104; No), the imaging unit 205 continues the processing of step S103. .
  • the person While referring to the preview image PP, the person adjusts the position of his/her face with respect to the photographing unit 205 (camera 1080) so that his/her own face image approximately matches the guide G1.
  • the person in question adjusts the position of the identity verification document with respect to the photographing unit 205 (camera 1080) so that the image of the identity verification document approximately matches the guide G2.
  • the photographing unit 205 determines that the target image P1 including the image of the person's face and the identity verification document of a predetermined size is It is determined that the image is taken.
  • step S104 When it is determined that the person's face and the identity verification document will be photographed in a predetermined size (step S104; Yes), the photographing unit 205 executes step S101 as in the first embodiment. As a result, target image data including the image of the person's face and the person's identity verification document having a predetermined size is generated.
  • the terminal communication unit 207 executes step S102 as in the first embodiment, and ends the terminal processing.
  • FIG. 11 is a flowchart showing an example of second server processing according to this embodiment.
  • the server device 202 starts the second server processing when communication is established with the terminal device 201 via the network N.
  • FIG. 11 is a flowchart showing an example of second server processing according to this embodiment.
  • the server device 202 starts the second server processing when communication is established with the terminal device 201 via the network N.
  • the data acquisition unit 103 executes step S201 as in the first embodiment.
  • the first determination unit 211 determines whether or not the first area AR1 and the second area AR2 of the target image P1 included in the target image data acquired in step S201 satisfy the first condition (step S205). ).
  • step S205 When it is determined that the first condition is satisfied (step S205; Yes), the second determination unit 212 determines that the target image P1, which is determined to satisfy the first condition in step S205, has sharpness that satisfies the second condition. It is determined whether or not (step S206).
  • step S206 If it is determined that the second condition is satisfied (step S206; Yes), the memory control unit 213 executes step S204 as in the first embodiment.
  • the storage control unit 213 stores the trail data generated in step S204 in the trail data storage unit 209 (step S207).
  • the notification unit 214 notifies the terminal device 101 of the success of the identity verification via the network N (step S208), and ends the second server processing.
  • the notification of success transmitted in step S208 is a notification indicating that the first condition and the second condition are satisfied, and is acquired by the terminal communication unit 207.
  • the terminal communication unit 207 causes the display unit 208 to display a predetermined message, for example, "Personal identification has been successful.”
  • step S206 If it is determined that the second condition is not satisfied (step S206; No), the storage control unit 213 generates confirmation data (step S209).
  • the storage control unit 213 causes the confirmation required data storage unit 210 to store the confirmation required data generated in step S207 (step S210).
  • the notification unit 214 notifies the terminal device 201 of the error via the network N (step S203), and ends the second server processing.
  • the error notification transmitted in step S203 is a notification indicating that the second condition is not satisfied, and is acquired by the terminal communication unit 207.
  • the terminal communication unit 207 displays a predetermined message such as "An appropriate image was not captured” or "Identity verification failed". 208 to display.
  • step S205 If it is determined that the first condition is not satisfied (step S205; No), the notification unit 214 notifies the terminal device 201 of the error via the network N (step S211), and ends the second server processing.
  • the error notification transmitted in step S211 is a notification indicating that the first condition is not satisfied, and is acquired by the terminal communication unit 207.
  • the terminal communication unit 207 causes the display unit 208 to display a predetermined message in response to the acquisition of the error notification.
  • the message displayed in response to the error notification transmitted in step S211 may be the same as or different from the message displayed in response to the error notification transmitted in step S203.
  • the trail data includes an image based on the target image P1 has been described.
  • the trail data may include information other than the image based on the target image P1.
  • FIG. 12 is a diagram showing an example of the configuration of trail data according to Modification 2.
  • the trail data illustrated in the figure is data in which an image based on the target image P1, a trail ID, time, and character information are associated with each other.
  • a trail ID is information for identifying an associated image, and is appropriately assigned, for example, when trail data is generated.
  • the time is the time when the trail data containing the associated image was generated. Note that when the trail data is stored in the storage unit, the time may be the time when the trail data is stored in the storage unit.
  • the character information is information indicating characters recognized from the image of the third area AR3, and is generated by the trail generation unit 104.
  • the trail generation unit 104 (storage control unit 213) recognizes the character indicated in the third area AR3, generates character information including the recognized character, and converts the generated character Generate trail data containing information.
  • the trail data includes character information based on the image of the third area AR3, that is, information indicating characters recognized from the image of the third area AR3.
  • the users of the server devices 102 and 202 can easily refer to the characters written on the personal identification document without viewing the trail data. Therefore, it becomes possible to facilitate trail management.
  • the user of the server devices 102 and 202 can compare the character information shown in the image of the personal identification document included in the trail data with the character information included in the trail data, if necessary.
  • the second reference value applied to the second condition is not limited to one, and is selected from a plurality of candidate values. It may be selected as appropriate.
  • a candidate value selected in descending order from a plurality of candidate values is adopted as the second reference value.
  • points different from the second embodiment will be mainly described, and overlapping points will be omitted as appropriate for the sake of simplicity.
  • the server device 302 is a device (trace management device) for managing the identity verification trail, as in the second embodiment.
  • the server device 302 includes a data acquisition unit 103 similar to that of the first embodiment, a trail data storage unit 209 and confirmation-required data storage unit 210 similar to those of the second embodiment, and a trail generation unit that replaces the trail generation unit 204 according to the second embodiment. and a section 304 .
  • the trail generation unit 304 generates a Generate trail data based on
  • the trail generation unit 304 includes a first determination unit 211, a storage control unit 213, and a notification unit 214 similar to those in the second embodiment, and a second determination unit 212 according to the second embodiment. and a second determination unit 312 that alternates.
  • the trail generator 304 further includes a candidate holder 315 .
  • the candidate holding unit 315 holds candidate data 316 .
  • Candidate data 316 includes a plurality of candidate values.
  • the candidate value is a candidate for the second reference value applied to the second condition.
  • the candidate values are set in advance by user input or the like.
  • the candidate data 316 includes three candidate values C1, C2, and C3, as shown in FIG. C1, C2 and C3 have a relationship of C1>C2>C3 with respect to the magnitude of each value.
  • the number of candidate values included in the candidate data 316 is not limited to three, and may be any number.
  • the second determination unit 312 repeatedly executes the second determination process by using candidate values selected in descending order of the candidate values from among the plurality of candidate values as the second reference value.
  • the "second determination process” is a process of determining whether or not the definition of the target image P1 satisfies the second condition, and the same applies to the following.
  • the second determination unit 312 repeatedly executes the second determination process until (A) or (B) below.
  • (A) Using any of the candidate values as the second reference value, determine that the sharpness of the target image P1 satisfies the second condition.
  • (B) Execute the second determination process for all the candidate values.
  • the second determination unit 312 may be the same as the second determination unit 212 according to the second embodiment.
  • the trail management system 300 and the server device 302 may be physically configured similarly to the trail management system 100 and the server device 102 according to the first embodiment.
  • the trail management system 300 executes trail management processing for managing identity verification trails.
  • the trail management processing according to the present embodiment includes second terminal processing similar to that of the second embodiment, and third server processing that replaces the second server processing according to the second embodiment.
  • a third server process is executed by the server device 302 .
  • FIG. 16 is a flowchart showing an example of third server processing according to this embodiment.
  • the server device 302 starts a third server process.
  • the second determination unit 312 sets "1" to a counter i that is updated according to the number of repetitions of the second determination process.
  • Steps S201 and S205 similar to those in the second embodiment are executed.
  • step S205 If it is determined that the first condition is not satisfied (step S205; No), the notification unit 214 executes step S211 as in the second embodiment, and terminates the third server process.
  • the second determination unit 312 selects Ci among the candidate values included in the candidate data 316 as the second reference value (step S212).
  • step S212 when step S212 is executed for the first time, i is the initial value "1", so the second determination unit 312 selects C1 as the second reference value.
  • the second determination unit 312 uses the second reference value selected in step S212 to execute step S206 as in the second embodiment.
  • step S206 If it is determined that the second condition is satisfied (step S206; Yes), the storage control unit 213 executes steps S204 and S207-S208 as in the second embodiment, and ends the third server process.
  • the second determination unit 312 determines whether or not the second determination process (step S206) has been executed for all candidate values (step S213 ).
  • the second determination unit 312 determines that the second determination process (step S206) has not been performed for all candidate values. do.
  • step S206 When it is determined that the second determination process (step S206) has not been executed for all candidate values (step S213; No), the second determination unit 312 adds 1 to i (step S214).
  • the second determination unit 312 selects the candidate value Ci corresponding to i added in step S214 as the second reference value (step S212).
  • the second determination unit 312 selects C2 as the second reference value. For example, when i is 3, the second determination unit 312 selects C3 as the second reference value.
  • the second determination unit 312 uses the second reference value selected in step S212 to perform step S206 again as in the second embodiment.
  • step S206 If it is determined that the second condition is satisfied (step S206; Yes), the storage control unit 213 executes steps S204 and S207-S208 as in the second embodiment, and ends the third server process.
  • step S206 when it is determined that the second condition is not satisfied (step S206; No), the second determination unit 312 executes step S213.
  • step S206 When it is determined that the second determination process (step S206) has not been performed for all candidate values (step S213; No), the second determination unit 312 adds 1 to i (step S214).
  • step S206 when it is determined that the second condition is not satisfied (step S206; No), steps S213 to S214 and S212 are performed until the second determination process (step S206) is executed for all the candidate values C1 to C3. and S206 are repeated. On the other hand, if it is determined that any one of the candidate values C1 to C3 satisfies the second condition (step S206; Yes), steps S204 and S207 to S208 are executed, and the third server process ends. .
  • step S213 If it is determined that the second determination process has been performed for all candidate values (step S213; Yes), the storage control unit 213 performs steps S209 to S210 and S203, and ends the third server process.
  • the second condition is defined by the relationship between the sharpness of the target image P1 and the second reference value.
  • the trail generator 304 holds candidate data 316 including multiple candidate values that are candidates for the second reference value.
  • the trail generation unit 304 repeatedly determines whether or not the sharpness of the target image P1 satisfies the second condition by using the candidate values selected in descending order from the plurality of candidate values as the second reference value. do.
  • the second reference value used in the second determination process immediately before trail data is generated serves as an index representing the sharpness of the target image P1.
  • the second reference value can be referred to, thereby facilitating the sharpness of the target image P1. can be known to Therefore, it is possible to improve convenience in trail management.
  • a plurality of target image data may be used.
  • the terminal devices 101 and 201 repeatedly execute the first or second terminal processing at predetermined time intervals (for example, once to several tens of times per second) to continuously process target image data. can be generated and transmitted to the server device 102 , 202 .
  • the server devices 102 and 202 perform the first or second server processing on each of the target image data that is sequentially acquired until a predetermined time elapses, or until a predetermined maximum number of times the second determination processing is executed. Repeat until you reach
  • FIG. 17 is a flowchart showing an example of fourth server processing according to this modification.
  • the fourth server process is a server process for repeatedly executing the second server process according to the second embodiment until a predetermined maximum number M of executions of the second determination process is reached.
  • the second determination unit 312 determines whether or not the second determination process has been performed M times (step S215).
  • M is a predetermined maximum number of times of execution.
  • step S215 If it is determined that the second determination process has not been executed M times (step S215; No), the data acquisition unit 103 executes step S201 again.
  • step S215; Yes the storage control unit 213 executes steps S209 to S210 and S203, and ends the fourth server process. Except for these, the fourth server process may be the same as the second server process.
  • this modified example there are a plurality of target image data. Therefore, it is possible to determine whether or not a plurality of pieces of target image data satisfy the first condition and the second condition. This makes it easier to obtain the target image P1 that satisfies the second condition than in the case of determining whether or not one target image data satisfies the first condition and the second condition. Therefore, it becomes possible to manage a good image quality trail.
  • the third server process according to the third embodiment is repeatedly executed for each of a plurality of pieces of target image data, as in the third modified example, until the predetermined maximum number of executions of the second determination process is reached.
  • a modified example will be described.
  • points different from the third embodiment will be mainly described, and overlapping points will be omitted as appropriate to simplify the description.
  • the server device 402 is a device (trace management device) for managing the identity verification trail, as in the third embodiment.
  • the server device 402 includes a data acquisition unit 103 similar to that of the first embodiment, a trail data storage unit 209 and confirmation-required data storage unit 210 similar to those of the second embodiment, and a trail generation unit that replaces the trail generation unit 304 according to the third embodiment. and a section 404 .
  • the trail generation unit 404 generates a Generate trail data based on
  • the trail generation unit 404 includes a first determination unit 211, a storage control unit 213, and a notification unit 214 similar to those in the second embodiment, a second determination unit 312 according to the third embodiment, and a It includes a second determination unit 412 that replaces the candidate holding unit 315 and a candidate holding unit 415 .
  • a candidate holding unit 415 holds candidate data 416 including a plurality of candidate values similar to the third embodiment.
  • the candidate data 416 is data in which the maximum number of execution times M1, M2, and M3 of the second determination process are associated with three candidate values C1, C2, and C3, respectively. is.
  • the maximum number of executions M1 is associated with the candidate value C1
  • the maximum number of executions M2 is associated with the candidate value C2
  • the maximum number of executions M2 is associated with the candidate value C2.
  • C1, C2 and C3 have a relationship of C1>C2>C3 with respect to the magnitude of each value.
  • M1, M2 and M3 have a relationship of M1 ⁇ M2 ⁇ M3 with respect to the magnitude of each value. That is, in the candidate data 416, the smaller the candidate value, the larger the maximum number of executions.
  • setting the maximum number of executions of the second determination process corresponds to setting a time limit for repeatedly executing the fourth server process. That is, the larger the maximum number of executions, the longer the time limit.
  • the number of candidate values included in the candidate data 416 is not limited to three, and may be any number.
  • the second determination unit 412 when the first determination unit 211 determines that the first condition is satisfied, the second determination unit 412 performs the second determination process on the target image P1 determined to satisfy the first condition. to run.
  • the second determination unit 412 repeatedly executes the second determination process until (A) and (B) as in the third embodiment or (C) below. (C) The second determination process for the maximum number of times of execution associated with the candidate value is repeated
  • the second determination unit 412 may be the same as the second determination unit 312 according to the third embodiment.
  • the trail management system 400 and server device 402 may be physically configured similarly to the trail management system 100 and server device 102 according to the first embodiment.
  • the trail management system 400 executes trail management processing for managing identity verification trails.
  • the trail management processing according to the present embodiment includes second terminal processing similar to that of the second embodiment, and fifth server processing that replaces the third server processing according to the third embodiment.
  • a fifth server process is executed by the server device 402 .
  • FIG. 21 is a flowchart showing an example of the fifth server processing according to this embodiment.
  • the server device 402 starts the fifth server process when communication with the terminal device 201 is established via the network N.
  • the second determination unit 412 sets "1" to a counter i that is updated according to the number of repetitions of the second determination process.
  • Steps S201 and S205 similar to those in the second embodiment are executed.
  • step S205 When it is determined that the first condition is not satisfied (step S205; No), the notification unit 214 executes step S211 as in the second embodiment, and ends the fifth server process.
  • step S205 If it is determined that the first condition is satisfied (step S205; Yes), the second determination unit 312 executes step S212 as in the third embodiment, using the second reference value selected in step S212. Step S206, which is the same as in form 2, is executed.
  • step S206 If it is determined that the second condition is satisfied (step S206; Yes), the storage control unit 213 executes steps S204 and S207-S208 as in the second embodiment, and ends the fifth server process.
  • step S206 When it is determined that the second condition is not satisfied (step S206; No), the second determination unit 312 executes step S215 as in the third modification.
  • step S215 If it is determined that the second determination process has not been executed M times (step S215; No), the data acquisition unit 103 executes step S201 again.
  • step S215; Yes the second determination unit 312 performs step S213 as in the third embodiment.
  • step S206 If it is determined that the second determination process (step S206) has not been performed for all candidate values (step S213; No), the second determination unit 312 performs step S214, and then performs step S212. . If it is determined that the second determination process has been performed for all candidate values (step S213; Yes), the storage control unit 213 performs steps S209 to S210 and S203, and ends the fifth server process.
  • the target image P1 included in the confirmation required data in step S209 in this embodiment may be the target image P1 included in the target image data most recently acquired by the data acquisition unit 103, for example.
  • the target image P1 to be included in the confirmation required data in step S209 is the target image P1 having the highest definition among the target images P1 included in the plurality of target image data acquired by the data acquisition unit 103. good too. This makes it possible to include the target image P1 with even a little higher definition in the data to be confirmed, thereby facilitating visual confirmation.
  • the candidate data 416 is data in which the maximum number of execution times of the process (second determination process) for determining whether the definition of the target image P1 satisfies the second condition is associated with each of a plurality of candidate values.
  • the smaller the candidate value the larger the maximum number of executions.
  • Modification 4 As an example of changing the maximum number of executions according to the second reference value, an example has been described in which a larger maximum number of executions is associated with a smaller candidate value. However, a smaller maximum execution count may be associated with a smaller candidate value.
  • the smaller the second reference value the easier it is to obtain the target image P1 with a sharpness that satisfies the second condition.
  • the smaller the candidate value the smaller the maximum number of executions, thereby shortening the overall time required to obtain the trail data. Therefore, it becomes possible to easily obtain a good image quality trail.
  • Modification 5 In the fourth embodiment and the fourth modified example, the example in which the maximum number of times of execution differs according to the second reference value has been described. However, when using different values of the second criteria, a common maximum number of executions may be applied to all of the second criteria. This corresponds to setting M1, M2, and M3 to equal values in the fourth embodiment.
  • the second determination process is executed using a gradually smaller second reference value, so it is possible to generate even slightly clearer trail data based on the target image P1. Therefore, it becomes possible to manage a good image quality trail.
  • a second determination process using C1 as the second reference value, a second determination process using C2 as the second reference value, and a second determination process using C3 as the second reference value are mutually Non-overlapping target image groups will be used.
  • the data acquisition unit 103 may hold target image data acquired from the terminal device 201 . Then, in the fourth embodiment, in the second determination process (processing after step S205) using a certain candidate value as the second reference value, the second determination process (step S205) using the previous candidate value as the second reference value A part or all of the target image group used in the subsequent processing) may be used.
  • part or all of the target image group used in the second determination process using the previous candidate value C1 as the second reference value is may be used.
  • part or all of the target image group used in the second determination process using the previous candidate value C2 as the second reference value is used. good too.
  • the target image P1 common to the second determination processing (processing after step S205) using a different candidate value as the second reference value is used. Therefore, the time required to acquire the target image data from the terminal device 201 can be shortened in the entire second determination process (process after step S205) that is repeatedly executed. Therefore, it is possible to improve the temporal efficiency of managing a good quality trail.
  • Embodiments 3 and 4 the example in which the candidate value for the second reference value is set in advance has been described.
  • a clear image can be captured by the image capturing unit 205 included in the terminal device 201
  • the second determination process is executed using a relatively small second reference value
  • the target image becomes less clear than originally obtained.
  • Trail data based on P1 may be generated. Therefore, it is desirable to determine the sharpness of the target image P1 using the second reference value according to the performance of the camera included in the terminal device 201 .
  • a trail management system 500 according to the fifth embodiment of the present invention comprises, as shown in FIG.
  • the server device 502 is a device (trace management device) for managing the identity verification trail, as in the third embodiment.
  • the server device 502 includes a preparation unit 517 in addition to the functional configurations 103, 304, 209, and 210 of the server device 302 according to the third embodiment.
  • the preparation unit 517 acquires a plurality of reference data and determines a plurality of candidate values based on the sharpness of each image included in the acquired plurality of reference data.
  • Reference data is data that includes reference images.
  • each piece of reference data is data that includes the target image P1 as a reference image.
  • the reference image may include at least an image of characters.
  • the preparation unit 517 acquires a plurality of reference data and obtains the sharpness of each image included in the acquired plurality of reference data. Then, the preparation unit 517 obtains a reference value based on the sharpness of the image included in the reference data.
  • the reference value is, for example, the average value of sharpness of images included in the reference data.
  • a preparation unit 517 determines each of the plurality of candidate values based on the reference value.
  • the trail management system 500 and the server device 502 may be physically configured similarly to the trail management system 100 and the server device 102 according to the first embodiment.
  • the trail management system 500 executes trail management processing for managing identity verification trails.
  • the trail management processing according to the present embodiment includes second terminal processing similar to that of the second embodiment, and sixth server processing that replaces the third server processing according to the third embodiment.
  • a sixth server process is executed by the server device 502 .
  • FIG. 23 is a flowchart showing an example of sixth server processing according to the present embodiment.
  • the server device 502 starts the sixth server process when communication is established with the terminal device 201 via the network N.
  • FIG. 23 is a flowchart showing an example of sixth server processing according to the present embodiment.
  • steps S216 to S220 are executed before step S201, which is executed first in the fifth server process. Except for these, the sixth server process may be the same as the fifth server process.
  • the preparation unit 517 acquires a plurality of reference data including the target image P1 from the terminal device 201 via the network N (step S216).
  • the preparation unit 517 obtains the sharpness of each of the target images P1 included in the reference data acquired in step S216 (step S217).
  • step S217 the preparation unit 517 obtains the sharpness of each target image P1 included in the reference data by the same method as the method of obtaining the sharpness of the target image P1 in the second determination process (step S206). good.
  • the preparation unit 517 obtains a reference value based on the multiple degrees of definition obtained in step S217 (step S218).
  • step S218, the preparation unit 517 obtains the average value of the plurality of sharpnesses obtained in step S217, and uses the average value as a reference value.
  • the reference value is not limited to the average value of a plurality of sharpness levels, and may be a value obtained based on the sharpness level of the image included in the reference data.
  • the reference value may be, for example, a maximum value or a minimum value of a plurality of sharpness levels, or a value obtained by subjecting a plurality of sharpness levels to appropriate statistical processing.
  • the preparation unit 517 determines a plurality of candidate values based on the reference values obtained in step S218 (step S219).
  • step S219 the preparation unit 517 determines a plurality of candidate values using the reference value as the lower limit. For example, the preparation unit 517 sets the reference value to C3, which is the smallest candidate value among C1, C2, and C3.
  • the preparation unit 517 sets C1 and C2, which are other candidate values, by a predetermined method. For example, when increasing by a predetermined value d, the preparation unit 517 sets C2 to a value obtained by adding d to the reference value, and sets C3 to a value obtained by adding d to C2.
  • the preparation unit 517 may determine at least some of the multiple candidate values based on the reference values obtained in step S218. If some of the multiple candidate values are determined based on the reference values, the remaining candidate values may be values based on user input, predetermined values, or the like.
  • the preparation unit 517 generates candidate data 316 including the plurality of candidate values determined in step S219, and causes the candidate storage unit 315 to retain the generated candidate data 316 (step S220). Subsequently, the processing after step S201 similar to the third server processing is executed.
  • the preparation unit 517 acquires a plurality of reference data including at least a character image, and based on the sharpness of each of the images included in the acquired plurality of reference data, selects a plurality of determine candidate values for Accordingly, the definition of the target image P1 can be determined using the second reference value according to the performance of the camera provided in the terminal device 201. FIG. Thus, it becomes possible to manage a better image quality trail.
  • the terminal devices 101 and 201 may include the data acquisition unit 103 and the trail generation units 104, 204, 304, and 404 included in the server devices 102, 202, 302, 402, and 502 as trail management devices. Also, the terminal devices 101 and 201 may be provided with the preparation unit 517 included in the server device 502 as a trace management device.
  • the terminal communication unit 207 may transmit the generated trail data to the server devices 102 and 202 via the network N.
  • the terminal devices 101 and 201 may include a trail data storage unit 209 and store trail data in the trail data storage unit 209 .
  • the terminal devices 101 and 201 may include a confirmation required data storage unit 210 and store confirmation required data in the confirmation required data storage unit 210 .
  • the candidate values of the candidate data 316 may be set according to instructions from the server device 302 based on user input.
  • a data acquisition means for acquiring target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; and trail generation means for generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition.
  • Trail management device. 2 The target image further includes a third area indicating characters included in the document, The trail generation means obtains the definition based on the third area.
  • the trail data includes information indicating characters recognized from the image of the third area.
  • the trail generation means determines whether or not the definition satisfies a second condition when it is determined that the first condition is satisfied.
  • the trail management device according to any one of . 5.
  • the second condition is defined by the relationship between the sharpness and the second reference value
  • the trail generating means holds candidate data including a plurality of candidate values that are candidates for the second reference value, and selects candidate values in descending order from the plurality of candidate values for the second reference value. Repeatedly determining whether or not the definition of the target image satisfies the second condition by using it as a reference value. to 4.
  • the trail management device according to any one of . 6.
  • the target image data is plural, and the candidate data is associated with each of the plurality of candidate values a maximum execution count of the process of determining whether the definition of the target image satisfies a second condition.
  • the above 5. is data. or 6.
  • the maximum number of executions increases as the candidate value decreases.
  • the trail generation means determines that the sharpness is equal to or greater than the second reference value using any one of the candidate values as a second reference value, or determines that the sharpness is equal to or greater than the second reference value, or 2. Repeat the process of determining whether the sharpness is equal to or greater than the second reference value until the determination process is repeated. or 8.
  • the target image included in the target image data is one or more
  • the trail generation means generates confirmation-required data based on either the one target image or the plurality of target images when the sharpness of all of the one or more target images does not satisfy a second condition. 1 above. to 9.
  • the trail management device according to any one of . 11. 1 above. to 10.
  • a trail management device according to any one of a terminal device for generating the target image data by photographing the person and the document, and transmitting the target image data to the trail management device. 12.
  • the computer obtaining target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition. . 13. to the computer, obtaining target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; for generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition; program. 14.
  • target image data including a target image including a first area indicating the person and a second area indicating the image of the person included in the document; for generating trail data based on the target image when the first region and the second region satisfy a first condition and the definition of the target image satisfies a second condition;
  • Trail management system 101, 201 Terminal devices 102, 202, 302, 402, 502 Server device 103
  • Trail data storage unit 210 confirmation required data storage unit 211 first determination units 212, 312, 412 second determination unit 213 storage control unit 214 notification units 315, 415 candidate holding units 316, 416 candidate data 517 preparation unit
  • P1 target image PP preview image AR1 first Area AR2 Second area AR3 Third areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

証跡管理装置(サーバ装置(102))は、本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得するデータ取得部(103)と、第1領域と第2領域とが第1条件を満たし、かつ、対象画像の鮮明度が第2条件を満たす場合に、対象画像に基づく証跡データを生成する証跡生成部(104)とを備える。

Description

証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体
 本発明は、証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体に関する。
 顔画像により本人確認を行うための種々の技術が提案されている。
 例えば、特許文献1に記載の本人確認・認証システムは、利用者の登録時に、撮像部により撮像された顔画像に基づいて生成された生体情報と、本人証明書類の画像に含まれる顔画像に基づいて生成された生体情報とから顔スコア値を算出する。本人確認・認証システムは、顔スコア値が第一の所定値以上であった場合に、撮像部により撮像された顔画像に基づいて生成された生体情報を登録生体情報として登録する。
 なお、特許文献2は、運用開始当初の利便性の低下を防止するための顔認証装置を開示する。この顔認証装置は、顔画像取得部と照合部と時間計測部と閾値変更部とを含む。顔画像取得部は、認証対象の顔画像を取得する。照合部は、認証対象の顔画像に対し閾値に基づいて顔認証を行う。時間計測部は、顔認証装置の運用開始からの経過時間を計測する。閾値変更部は、計測された経過時間に依存して定まる値より大きな値に上記閾値を変更することを制限する。
特開2021-125115号公報 特開2019-125003号公報
 特許文献1に記載の本人確認・認証システムは、利用者を登録する時に、第一の所定値を用いた本人確認処理を行う。本人確認・認証システムは、登録時の本人確認処理で用いられた生体情報のうち、撮像部により撮像された顔画像に基づいて生成された生体情報を登録生体情報として登録する。
 特許文献1に記載の撮像部により撮像された顔画像を含む情報が、登録時の本人確認処理についての証跡として保存されることがある。しかしながら、撮像部により撮像された顔画像は、ピントがややズレている等の理由で画質が悪いことがある。画質が悪い顔画像では、登録後に証跡を用いて検証する必要が生じた場合に十分な検証を行うことができない等の問題が生じるおそれがある。
 本発明は、上述の事情に鑑みてなされたものであり、その目的は、良好な画質の証跡を管理することを可能にする証跡管理装置等を提供することにある。
 上記目的を達成するため、本発明の第1の観点に係る証跡管理装置は、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得するデータ取得手段と、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成する証跡生成手段とを備える。
 上記目的を達成するため、本発明の第2の観点に係る証跡管理システムは、
 上記の証跡管理装置と、
 前記本人及び前記書類を撮影することによって前記対象画像データを生成し、当該対象画像データを前記証跡管理装置へ送信する端末装置とを備える。
 上記目的を達成するため、本発明の第3の観点に係る証跡管理方法は、
 コンピュータが、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを含む。
 上記目的を達成するため、本発明の第4の観点に係るプログラムは、
 コンピュータに、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを実行させるためのプログラムである。
 本発明によれば、良好な画質の証跡を管理することが可能になる。
本発明の実施形態1に係る証跡管理システムの構成の一例を示す図である。 対象画像P1の一例を示す図である。 本発明の実施形態1に係る端末装置の物理的な構成の一例を示す図である。 本発明の実施形態1に係る証跡管理装置の物理的な構成の一例を示す図である。 本発明の実施形態1に係る第1の端末処理の一例を示すフローチャートである。 本発明の実施形態1に係る第1のサーバ処理の一例を示すフローチャートである。 本発明の実施形態2に係る証跡管理システムの構成の一例を示す図である。 実施形態2に係る証跡生成部の機能的な構成の一例を示す図である。 本発明の実施形態2に係る第2の端末処理の一例を示すフローチャートである。 プレビュー画像PPの一例を示す図である。 本発明の実施形態2に係る第2のサーバ処理の一例を示すフローチャートである。 変形例2に係る証跡データの構成の一例を示す図である。 本発明の実施形態3に係る証跡管理システムの構成の一例を示す図である。 実施形態3に係る証跡生成部の機能的な構成の一例を示す図である。 候補データの一例を示す図である。 本発明の実施形態3に係る第3のサーバ処理の一例を示すフローチャートである。 変形例3に係る第4のサーバ処理の一例を示すフローチャートである。 本発明の実施形態4に係る証跡管理システムの構成の一例を示す図である。 実施形態4に係る証跡生成部の機能的な構成の一例を示す図である。 候補データの他の例を示す図である。 本発明の実施形態4に係る第5のサーバ処理の一例を示すフローチャートである。 本発明の実施形態5に係る証跡管理システムの構成の一例を示す図である。 本発明の実施形態5に係る第6のサーバ処理の一例を示すフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同様の符号を付し、適宜説明を省略する。
<<実施形態1>>
 本発明の実施形態1に係る証跡管理システム100は、本人確認の証跡を管理するためのシステムであり、図1に示すように、端末装置101と、証跡管理装置としてのサーバ装置102とを備える。証跡管理装置は、本人確認の証跡を管理するための装置である。
 端末装置101とサーバ装置102とは、ネットワークNを介して接続されており、ネットワークNを介して互いにデータを送受信することができる。ネットワークNは、有線、無線又はこれらを組み合わせて構成される通信ネットワークである。
 端末装置101は、確認の対象である本人が利用する端末である。端末装置101は、機能的に、本人及び本人確認書類を撮影することによって、対象画像P1を含む対象画像データを生成する。端末装置101は、当該生成した対象画像データをサーバ装置102へ送信する。
 本人確認書類は、書類の一例であって、本人を確認するための書類である。本人確認書類の例として、運転免許証、マイナンバーカードを挙げることができる。マイナンバーカードは、各住民に固有の番号であるマイナンバーが記されたカードである。
 本人確認書類は、本人画像、文字等を含む。
 本人画像は、本人の画像であって、例えば本人の顔画像である。
 文字は、平仮名、片仮名、漢字、アルファベット等だけでなく、数字、記号等も含むものとする。本人確認書類に記載された文字は、本人の氏名、住所、生年月日及びID(Identifier)、本人確認書類の有効期限等を表す。ここで、本人確認書類のIDは、例えば、本人確認書類に示される本人に固有の数字である。
 図2は、対象画像P1の一例を示す。対象画像P1は、本人確認のための処理対象となる画像である。対象画像P1は、本人及び本人確認書類を含む。対象画像P1を含む対象画像データは、典型的には、図2に示すように本人が本人確認書類を手で保持した状態を撮影する等、本人及び本人確認書類を同時に撮影することによって得られる。
 なお、対象画像P1は、本人の画像と本人確認書類の画像とをともに含めばよく、対象画像P1を含む対象画像データを得るための撮影方法はこれに限られない。例えば、本人確認書類は本人の前方の机などに置かれていてもよく、本人とともに撮影されてもよい。
 対象画像P1は、同図に示すように、第1領域AR1と、第2領域AR2と、第3領域AR3とを含む。
 第1領域AR1は、対象画像P1のうち、本人(例えば、本人の顔)を示す領域である。
 第2領域AR2とは第3領域AR3とは、対象画像P1のうち、本人確認書類を示す領域に含まれる。第2領域AR2は、対象画像P1のうち、本人確認書類に含まれる本人画像(例えば、本人の顔画像)を示す領域である。第3領域AR3は、対象画像P1のうち、本人確認書類に含まれる文字を示す領域である。
(サーバ装置102の機能的構成)
 サーバ装置102は、本人確認の証跡を管理する装置であって、図1に示すように、データ取得部103と、証跡生成部104とを備える。
 データ取得部103は、対象画像データを端末装置101からネットワークNを介して取得する。
 証跡生成部104は、第1領域AR1と第2領域AR2とが第1条件を満たし、かつ、対象画像P1の鮮明度が第2条件を満たす場合に、対象画像P1に基づく証跡データを生成する。
(第1条件)
 第1条件は、第1領域AR1と第2領域AR2と画像が同一人物であると判定するための条件である。
 例えば、第1条件は、第1領域AR1と第2領域AR2との一致度と第1基準値との関係により規定される。一致度は、第1領域AR1と第2領域AR2とが一致している程度を示す値である。
 第1領域AR1と第2領域AR2との一致している程度が高い程、一致度が大きな値となる場合、第1条件は例えば、一致度が第1基準値以上であることである。第1領域AR1と第2領域AR2との一致している程度が高い程、一致度が小さな値となる場合、第1条件は例えば、一致度が第1基準値以下であることである。
 このような一致度は、従来の手法で求められればよく、例えば、ヒストグラム比較、特徴点マッチングによって求められる。
 また例えば、第1領域AR1と第2領域AR2とが第1条件を満たすか否かは、機械学習によって学習済みの学習モデルを用いて判定されてもよい。この場合、証跡生成部104は、人物判定モデルに、対象画像データを入力することで、第1領域AR1と第2領域AR2と画像が同一人物であるか否かの判定結果を出力する。この人物判定モデルは、第1領域AR1と第2領域AR2と画像が同一人物であるか否かを判定するための学習を行った学習済みの機械学習モデルである。
 判定結果は、適宜の値、アルファベット、記号等で示されればよい。例えば、第1領域AR1と第2領域AR2と画像が同一人物である場合の判定結果は「1」であり、第1領域AR1と第2領域AR2と画像が同一人物でない場合の判定結果は「0」である。
 学習時の人物判定モデルへのインプットデータは、2つの人画像(好ましくは、2つの顔画像)を含むデータである。機械学習においては、インプットデータに含まれる人画像が同一人物であるか否かに関する正しい判定結果を含む教師データを用いた教師あり学習を行うとよい。
(第2条件)
 第2条件は、対象画像P1を証跡として採用するための条件である。例えば、第2条件は、対象画像P1の鮮明度と第2基準値との関係により規定される。
 鮮明度は、対象画像P1の鮮明さの程度を示す値である。対象画像P1が鮮明である程、鮮明度が大きな値となる場合、第2条件は例えば、鮮明度が第2基準値以上であることである。対象画像P1が鮮明である程、鮮明度が小さな値となる場合、第2条件は例えば、鮮明度が第2基準値以下であることである。
 鮮明度は、従来の手法で求められればよい。
 例えば、鮮明度は、輝度の変化を算出する等のエッジ抽出(「エッジ検出」とも言われる。)等の画像処理によって求められる。この場合、証跡生成部104は、画像処理を用いて対象画像P1の鮮明度を求める。
 また例えば、鮮明度は、機械学習によって学習済みの学習モデルを用いて求められてもよい。この場合、証跡生成部104は、対象画像P1の鮮明度を求めるための機械学習によって学習済みの鮮明度判定モデルに対象画像データを入力することで、対象画像P1の鮮明度を求める。学習時の鮮明度判定モデルへのインプットデータは、例えば、対象画像データである。機械学習においては、対象画像P1の鮮明度を含む教師データを用いた教師あり学習を行うとよい。
(証跡データ)
 証跡データは、証跡を示すデータであり、対象画像P1に基づく画像を含む。対象画像P1に基づく画像は、図2に例示する対象画像P1自体であってもよく、対象画像P1に対する処理が施された画像であってもよい。対象画像P1に対する処理は、周縁領域を除去するトリミング等、第1領域AR1と第2領域AR2と第3領域AR3との各領域の一部又は全部をそのまま残す処理が望ましい。
(証跡管理システム100の物理的構成)
 証跡管理システム100は、物理的に、ネットワークNを介して接続された端末装置101及びサーバ装置102から構成される。端末装置101とサーバ装置102との各々は、物理的に異なる単一の装置から構成される。
 なお、端末装置101とサーバ装置102とは物理的に単一の装置から構成されてもよく、この場合、端末装置101とサーバ装置102とはネットワークNの代わりに、後述する内部のバス1010により接続される。また、端末装置101とサーバ装置102との一方又は両方は、物理的に、ネットワークNを介して接続された複数の装置から構成されてもよい。
(端末装置101の物理的構成)
 端末装置101は、物理的には例えば、タブレットPC(Personal Computer)、スマートフォン、汎用のコンピュータ等である。
 詳細には例えば、端末装置101は物理的に、図3に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060、出力インタフェース1070及びカメラ1080を含む。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060、出力インタフェース1070及びカメラ1080が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。
 端末装置101のストレージデバイス1040は、端末装置101の機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
 ネットワークインタフェース1050は、端末装置101をネットワークNに接続するためのインタフェースである。
 入力インタフェース1060は、ユーザが情報を入力するためのインタフェースであり、例えば、タッチパネル、キーボード、マウス等の1つ又は複数から構成される。
 出力インタフェース1070は、ユーザに情報を提示するためのインタフェースであり、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル等である。
 カメラ1080は、被写体を撮影して、当該画像を示す画像情報を生成する。
(サーバ装置102の物理的構成)
 サーバ装置102は、物理的には例えば、タブレットPC(Personal Computer)、スマートフォン、汎用のコンピュータ等である。
 詳細には例えば、サーバ装置102は物理的に、図4に示すように、端末装置101と同様に構成されるとよい。すなわち、サーバ装置102は物理的に、例えば、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060及び出力インタフェース1070を含むとよい。
 サーバ装置102のストレージデバイス1040は、サーバ装置102の機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
(証跡管理システム100の動作)
 ここから、証跡管理システム100の動作について、図を参照して説明する。
 証跡管理システム100は、証跡管理処理を実行する。証跡管理処理は、本人確認の証跡を管理するための処理であり、端末装置101によって実行される第1の端末処理と、サーバ装置102によって実行される第1のサーバ処理とを含む。
(第1の端末処理)
 図5は、本実施の形態に係る第1の端末処理の一例を示すフローチャートである。第1の端末処理は、例えば、端末装置101が本人の入力に基づく開始指示又は第1の端末処理の前の処理を実行する機能部(図示せず)からの開始指示を受け付けると開始される。このとき、端末装置101は、本人からの開始指示を受け付けたことに応じて、サーバ装置102との間でネットワークNを介した通信を確立する。
 端末装置101は、本人及び本人確認書類を撮影することによって、対象画像P1を含む対象画像データを生成する(ステップS101)。
 端末装置101は、ステップS101にて生成された対象画像データをサーバ装置102へ送信し(ステップS102)、第1の端末処理を終了する。
(第1のサーバ処理)
 図6は、本実施の形態に係る第1のサーバ処理の一例を示すフローチャートである。サーバ装置102は、端末装置101との間でネットワークNを介した通信が確立すると、第1のサーバ処理を開始する。
 データ取得部103は、ステップS102にて送信された対象画像データを、ネットワークNを介して端末装置101から取得する(ステップS201)。
 証跡生成部104は、ステップS210にて取得された対象画像データに含まれる対象画像P1について、第1条件及び第2条件が満たされるか否かを判定する(ステップS202)。
 第1条件及び第2条件の少なくとも一方が満たされない場合、証跡生成部104は、第1条件及び第2条件が満たされないと判定する。第1条件及び第2条件が満たされないと判定した場合(ステップS202;No)、証跡生成部104は、ネットワークNを介して端末装置101へエラーを通知し(ステップS203)、第1のサーバ処理を終了する。
 ステップS203で送信されるエラーの通知は、第1条件及び第2条件の少なくとも一方が満たされないことを示す通知であり、端末装置101によって取得される。端末装置101は、エラーの通知を取得したことに応じて、例えば、「適切な画像が撮影されませんでした。」、「本人確認に失敗しました。」等の予め定められたメッセージを表示部に表示させる。
 第1条件及び第2条件が満たされると判定した場合(ステップS202;Yes)、証跡生成部104は、証跡データを生成し(ステップS204)、第1のサーバ処理を終了する。証跡データは、第2条件を満たす鮮明度の対象画像P1に基づいて生成されるので、鮮明な画像を含む証跡データを生成することができる。
 本実施形態によれば、証跡管理装置としてのサーバ装置102は、データ取得部103と、証跡生成部104とを備える。
 データ取得部103は、対象画像P1を含む対象画像データを取得する。対象画像P1は、本人を示す第1領域AR1と、書類としての本人確認書類に含まれる本人画像を示す第2領域AR2と、を含む。
 証跡生成部104は、第1領域AR1と第2領域AR2とが第1条件を満たし、かつ、対象画像P1の鮮明度が第2条件を満たす場合に、対象画像P1に基づく証跡データを生成する。
 従って、良好な画質の証跡を管理することが可能になる。
 本実施形態によれば、証跡管理システム100は、証跡管理装置としてのサーバ装置102と、端末装置101とを備える。
 端末装置101は、本人及び書類としての本人確認書類を撮影することによって対象画像データを生成し、当該対象画像データをサーバ装置102へ送信する。
 従って、良好な画質の証跡を管理することが可能になる。
(変形例1)
 証跡生成部104は、第3領域AR3に基づいて対象画像P1の鮮明度を求めるとよい。
 鮮明度を求めるためにエッジ抽出等の画像処理を用いる場合、証跡生成部104は、第3領域AR3に対して画像処理を行うことによって、対象画像P1の鮮明度を求めるとよい。
 鮮明度を求めるために、機械学習によって学習済みの鮮明度判定モデルが用いられてもよい。この場合、証跡生成部104は、第3領域AR3の鮮明度を求めるための機械学習によって学習済みの鮮明度判定モデルに対象画像データを入力することで、対象画像P1の鮮明度を求めるとよい。学習時の鮮明度判定モデルへのインプットデータは、例えば、対象画像データである。機械学習においては、第3領域AR3の鮮明度を含む教師データを用いた教師あり学習を行うとよい。
 本変形例によれば、証跡生成部104は、第3領域AR3に基づいて対象画像P1の鮮明度を求める。一般的に、文字の画像は、写真等の画像よりも、背景に対する明るさの変化が大きい。
 そのため、本人確認書類に含まれる文字を示す第3領域AR3に基づいて対象画像P1の鮮明度を求めることによって、対象画像P1の鮮明度を適切に求めることができる。また、鮮明な画像を含む証跡データをより確実に生成することができる。従って、本変形例によれば、より良好な画質の証跡を管理することが可能になる。
<<実施形態2>>
 実施形態2では、実施形態1に係る証跡管理システム100のより詳細な例を説明する。本実施形態では、実施形態1と異なる点について主に説明し、重複する点は説明を簡明にするため適宜省略する。
 本発明の実施形態2に係る証跡管理システム200は、図7に示すように、実施形態1に係る端末装置101及びサーバ装置102に代わる、端末装置201及びサーバ装置202を備える。
(端末装置201の機能的構成)
 端末装置201は、機能的には実施形態1と同様に、本人及び本人確認書類を撮影することによって対象画像データを生成し、対象画像データをサーバ装置202へ送信する。
 詳細には、端末装置201は、撮影部205と、入力受付部206と、端末通信部207と、表示部208とを備える。
 撮影部205は、本人及び本人確認書類を撮影する。これによって、撮影部205は、対象画像P1を含む対象画像データを生成する。
 入力受付部206は、本人の入力を受け付ける。端末通信部207は、サーバ装置102との間でネットワークNを介してデータを送受信する。表示部208は、画像、文字等の各種の情報を表示する。
(サーバ装置202の機能的構成)
 サーバ装置202は、実施形態1と同様に本人確認の証跡を管理するための装置(証跡管理装置)であって、実施形態1と同様のデータ取得部103と、実施形態1に係る証跡生成部104に代わる証跡生成部204とを備える。サーバ装置202は、さらに、証跡データ記憶部209と、要確認データ記憶部210とを備える。
 証跡生成部204は、実施形態1と同様に、第1領域AR1と第2領域AR2とが第1条件を満たし、かつ、対象画像P1の鮮明度が第2条件を満たす場合に、対象画像P1に基づく証跡データを生成する。
 詳細には、証跡生成部204は、図8に示すように、第1判定部211と、第2判定部212と、記憶制御部213と、通知部214とを含む。
 第1判定部211は、データ取得部103によって取得された対象画像データに含まれる対象画像P1について、第1領域AR1と第2領域AR2とが第1条件を満たすか否かを判定する。
 第2判定部212は、第1判定部211によって第1条件を満たすと判定された場合に、第1条件を満たすと判定された対象画像P1について、鮮明度が第2条件を満たすか否かを判定する。
 記憶制御部213は、第2条件を満たすと判定されたか否かに応じて、証跡データ又は要確認データを生成する。そして、記憶制御部213は、証跡データを生成した場合は当該証跡データを証跡データ記憶部209に記憶させ、要確認データを生成した場合は要確認データを要確認データ記憶部210に記憶させる。
 証跡データは、実施形態1で説明したように、証跡を示すデータである。要確認データは、目視による確認が必要な対象画像P1を示すデータである。
 証跡データと要確認データとは、第2判定部212での判定の対象となった対象画像P1に基づく画像を含む点で共通している。対象画像P1に基づく画像は、実施形態1で説明したように、対象画像P1自体であってもよく、対象画像P1に対するトリミング等の処理が施された画像であってもよい。
 証跡データと要確認データとは、記憶される記憶部209,210が異なる。すなわち、証跡データと要確認データとは、例えば異なるフォルダのように、ストレージデバイス1040において異なる分類に属する記憶領域に記憶される。
 なお、証跡データと要確認データとは、それぞれを区別するための情報を含んでもよい。この場合、証跡データと要確認データとは、共通の記憶部(すなわち、ストレージデバイス1040において共通の分類に属する記憶領域)に記憶されてもよい。
 通知部214は、ネットワークNを介して端末装置201へ通知を送信する。
 図7を再び参照する。
 証跡データ記憶部209は、証跡データが格納される記憶部である。要確認データ記憶部210は、要確認データが格納される記憶部である。
(証跡管理システム200,端末装置201,サーバ装置202の物理的構成)
 証跡管理システム200、端末装置201、サーバ装置202は、物理的には、実施形態1に係る証跡管理システム100、端末装置101、サーバ装置102と同様に構成されるとよい。
(証跡管理システム200の動作)
 ここから、証跡管理システム200の動作について、図を参照して説明する。
 証跡管理システム200は、実施形態1と同様に、本人確認の証跡を管理するための証跡管理処理を実行する。本実施形態に係る証跡管理処理は、実施形態1に係る第1の端末処理と第1のサーバ処理とに代わる第2の端末処理と第2のサーバ処理とを含む。第2の端末処理は、端末装置201によって実行される。第2のサーバ処理は、サーバ装置202によって実行される。
(第2の端末処理)
 図9は、本実施の形態に係る第2の端末処理の一例を示すフローチャートである。第2の端末処理は、例えば、第1の端末処理と同様の開始指示を受け付けると開始される。このとき、端末装置201は、本人からの開始指示を受け付けたことに応じて、サーバ装置202との間でネットワークNを介した通信を確立する。
 撮影部205は、プレビュー画像PPをガイドG1,G2とともに表示部208に表示させる(ステップS103)。
 プレビュー画像PPは、撮影部205によって対象画像P1が撮影する前に、本人が撮影される画像を確認するための画像である。図10は、プレビュー画像PPの一例を示す。同図に示すように、プレビュー画像PPはガイドG1,G2とともに表示される。
 ガイドG1は、本人の顔画像を望ましい大きさで撮影するために、プレビュー画像PPにおいて位置付けるべき顔画像の範囲を示すガイドである。ガイドG2は、本人確認書類を望ましい大きさで撮影するために、プレビュー画像PPにおいて位置付けるべき本人確認書類の画像の範囲を示すガイドである。
 撮影部205は、予め定められた大きさの本人の顔及び本人確認書類の画像を含む対象画像P1が撮影されるか否かを判定する(ステップS104)。
 本人の顔及び本人確認書類の少なくとも一方が予め定められた大きさでない場合、撮影部205は、予め定められた大きさの本人の顔及び本人確認書類の画像を含む対象画像P1が撮影されないと判定する。予め定められた大きさの本人の顔及び本人確認書類の画像を含む対象画像P1が撮影されないと判定した場合(ステップS104;No)、撮影部205は、ステップS103の処理を継続して実行する。
 本人は、プレビュー画像PPを参照しながら、自身の顔画像がガイドG1と概ね一致するように撮影部205(カメラ1080)に対して顔の位置を調整する。本人確認書類についても同様に、本人は、本人確認書類の画像がガイドG2と概ね一致するように、撮影部205(カメラ1080)に対して本人確認書類の位置を調整する。
 プレビュー画像PPにおいて顔画像及び本人確認書類の画像がそれぞれガイドG1,G2に概ね一致すると、撮影部205は、予め定められた大きさの本人の顔及び本人確認書類の画像を含む対象画像P1が撮影されると判定する。
 本人の顔及び本人確認書類が予め定められた大きさで撮影されると判定した場合(ステップS104;Yes)、撮影部205は、実施形態1と同様のステップS101を実行する。これにより、予め定められた大きさの本人の顔及び本人確認書類の画像を含む対象画像データが生成される。
 端末通信部207は、実施形態1と同様のステップS102を実行し、端末処理を終了する。
(第2のサーバ処理)
 図11は、本実施の形態に係る第2のサーバ処理の一例を示すフローチャートである。サーバ装置202は、実施形態1と同様に、端末装置201との間でネットワークNを介した通信が確立すると、第2のサーバ処理を開始する。
 データ取得部103は、実施形態1と同様のステップS201を実行する。
 第1判定部211は、ステップS201にて取得された対象画像データに含まれる対象画像P1について、第1領域AR1と第2領域AR2とが第1条件を満たすか否かを判定する(ステップS205)。
 第1条件を満たすと判定された場合(ステップS205;Yes)、第2判定部212は、ステップS205にて第1条件を満たすと判定された対象画像P1について、鮮明度が第2条件を満たすか否かを判定する(ステップS206)。
 第2条件を満たすと判定された場合(ステップS206;Yes)、記憶制御部213は、実施形態1と同様のステップS204を実行する。記憶制御部213は、ステップS204にて生成された証跡データを証跡データ記憶部209に記憶させる(ステップS207)。
 通知部214は、ネットワークNを介して端末装置101へ本人確認の成功を通知し(ステップS208)、第2のサーバ処理を終了する。
 ステップS208で送信される成功の通知は、第1条件及び第2条件が満たされたことを示す通知であり、端末通信部207によって取得される。端末通信部207は、成功の通知を取得したことに応じて、例えば、「本人確認に成功しました。」等の予め定められたメッセージを表示部208に表示させる。
 第2条件を満たさないと判定された場合(ステップS206;No)、記憶制御部213は、要確認データを生成する(ステップS209)。記憶制御部213は、ステップS207にて生成した要確認データを要確認データ記憶部210に記憶させる(ステップS210)。通知部214は、実施形態1と同様に、ネットワークNを介して端末装置201へエラーを通知し(ステップS203)、第2のサーバ処理を終了する。
 ステップS203で送信されるエラーの通知は、第2条件が満たされないことを示す通知であり、端末通信部207によって取得される。端末通信部207は、エラーの通知を取得したことに応じて、例えば、「適切な画像が撮影されませんでした。」、「本人確認に失敗しました。」等の予め定められたメッセージを表示部208に表示させる。
 第1条件を満たさないと判定された場合(ステップS205;No)、通知部214は、ネットワークNを介して端末装置201へエラーを通知し(ステップS211)、第2のサーバ処理を終了する。
 ステップS211で送信されるエラーの通知は、第1条件が満たされないことを示す通知であり、端末通信部207によって取得される。端末通信部207は、エラーの通知を取得したことに応じて、予め定められたメッセージを表示部208に表示させる。ステップS211で送信されるエラーの通知に応じて表示されるメッセージは、ステップS203で送信されるエラーの通知に応じて表示されるメッセージと同じであってもよく、異なっていてもよい。
(変形例2)
 実施形態1では証跡データが対象画像P1に基づく画像を含む例を説明した。証跡データは、対象画像P1に基づく画像以外の情報を含んでもよい。
 図12は、変形例2に係る証跡データの構成の一例を示す図である。同図に例示する証跡データは、対象画像P1に基づく画像と、証跡IDと、時刻と、文字情報とが関連付けられたデータである。
 証跡IDは、関連付けられた画像を識別するための情報であり、例えば証跡データを生成する際に適宜付与される。時刻は、関連付けられた画像を含む証跡データが生成された時刻である。なお、証跡データが記憶部に記憶される場合には、時刻は、証跡データが記憶部に記憶された時刻であってもよい。
 文字情報は、第3領域AR3の画像から認識される文字を示す情報であり、証跡生成部104によって生成される。証跡生成部104(記憶制御部213)は、証跡データ生成処理(ステップS204)において、第3領域AR3に示される文字を認識し、当該認識した文字を含む文字情報を生成し、当該生成した文字情報を含む証跡データを生成する。
 本変形例によれば、証跡データは、第3領域AR3の画像に基づく文字情報、すなわち第3領域AR3の画像から認識した文字を示す情報を含む。これにより、サーバ装置102,202のユーザは、証跡データを閲覧しなくても、本人確認書類に記載された文字を容易に参照することができる。従って、証跡の管理を容易にすることが可能になる。
 また、サーバ装置102,202のユーザは、必要に応じて、証跡データに含まれる本人確認書類の画像に示される文字情報と、証跡データに含まれる文字情報とを比較することができる。
 これにより、証跡データに含まれる本人確認書類の画像が、文字認識によって正確に読み取れる程度の良好な画質であるか否かを容易に判定することができる。例えば、文字情報の誤認識があった場合には、対象画像P1の鮮明度が第2条件を満たすか否かの判定処理を改善する等の対策を講じて、より良好な画質の証跡データを得ることができる。従って、良好な画質の証跡を管理することが可能になる。
<<実施形態3>>
 第2条件が対象画像P1の鮮明度と第2基準値との関係により規定される場合、第2条件に適用される第2基準値は、1つに限らず、複数の候補値の中から適宜選択されてもよい。本実施形態では、複数の候補値のうちの大きい候補値から順に選択した候補値を第2基準値として採用する例を説明する。本実施形態では、実施形態2と異なる点について主に説明し、重複する点は説明を簡明にするため適宜省略する。
 本発明の実施形態3に係る証跡管理システム300は、図13に示すように、実施形態2と同様の端末装置201と、実施形態2に係るサーバ装置202に代わるサーバ装置302を備える。
(サーバ装置302の機能的構成)
 サーバ装置302は、実施形態2と同様に本人確認の証跡を管理するための装置(証跡管理装置)である。サーバ装置302は、実施形態1と同様のデータ取得部103と、実施形態2と同様の証跡データ記憶部209及び要確認データ記憶部210と、実施形態2に係る証跡生成部204に代わる証跡生成部304とを備える。
 証跡生成部304は、実施形態1と同様に、第1領域AR1と第2領域AR2とが第1条件を満たし、かつ、対象画像P1の鮮明度が第2条件を満たす場合に、対象画像P1に基づく証跡データを生成する。
 詳細には、証跡生成部304は、図14に示すように、実施形態2と同様の第1判定部211、記憶制御部213及び通知部214と、実施形態2に係る第2判定部212に代わる第2判定部312とを含む。証跡生成部304は、さらに、候補保持部315を含む。
 候補保持部315は、候補データ316を保持する。候補データ316は、複数の候補値を含む。候補値は、第2条件に適用される第2基準値の候補である。本実施形態では、候補値は、ユーザの入力等により予め設定される。
 本実施形態に係る候補データ316は、図15に一例を示すように、C1,C2,C3という3つの候補値を含む。C1、C2及びC3は、各値の大きさについて、C1>C2>C3の関係にある。
 なお、候補データ316に含まれる候補値の数は、3つに限られず、複数であればよい。
 本実施形態に係る第2判定部312は、複数の候補値のうちの大きい候補値から順に選択した候補値を第2基準値として用いることによって、第2判定処理を繰り返し実行する。「第2判定処理」とは、対象画像P1の鮮明度が第2条件を満たすか否かを判定する処理であり、以下においても同様である。
 また、本実施形態に係る第2判定部312は、以下の(A)又は(B)まで、第2判定処理を繰り返し実行する。
 (A)候補値のいずれかを第2基準値として対象画像P1の鮮明度が第2条件を満たすと判定する
 (B)すべての候補値について第2判定処理を実行する
 これらを除いて、第2判定部312は、実施形態2に係る第2判定部212と同様でよい。
(証跡管理システム300,サーバ装置302の物理的構成)
 証跡管理システム300、サーバ装置302は、物理的には、実施形態1に係る証跡管理システム100、サーバ装置102と同様に構成されるとよい。
(証跡管理システム300の動作)
 ここから、証跡管理システム300の動作について、図を参照して説明する。
 証跡管理システム300は、実施形態1と同様に、本人確認の証跡を管理するための証跡管理処理を実行する。本実施形態に係る証跡管理処理は、実施形態2と同様の第2の端末処理と、実施形態2に係る第2のサーバ処理に代わる第3のサーバ処理とを含む。第3のサーバ処理は、サーバ装置302によって実行される。
(第3のサーバ処理)
 図16は、本実施の形態に係る第3のサーバ処理の一例を示すフローチャートである。サーバ装置302は、端末装置201との間でネットワークNを介した通信が確立すると、第3のサーバ処理を開始する。第3のサーバ処理では、第2判定部312は、初期設定として、第2判定処理の繰り返し回数に応じて更新されるカウンタiに「1」を設定する。
 実施形態2と同様のステップS201及びS205が実行される。
 第1条件を満たさないと判定された場合(ステップS205;No)、通知部214は、実施形態2と同様のステップS211を実行して、第3のサーバ処理を終了する。
 第1条件を満たすと判定された場合(ステップS205;Yes)、第2判定部312は、候補データ316に含まれる候補値のうちのCiを第2基準値として選択する(ステップS212)。
 例えば、ステップS212が初めて実行される場合、iは初期値「1」であるので、第2判定部312は、C1を第2基準値として選択する。
 第2判定部312は、ステップS212にて選択した第2基準値を用いて、実施形態2と同様のステップS206を実行する。
 第2条件を満たすと判定された場合(ステップS206;Yes)、記憶制御部213は、実施形態2と同様のステップS204及びS207~S208を実行して、第3のサーバ処理を終了する。
 第2条件を満たさないと判定された場合(ステップS206;No)、第2判定部312は、すべての候補値で第2判定処理(ステップS206)を実行したか否かを判定する(ステップS213)。
 本実施形態では、候補値は上述の通り、3つである。そのため、3つの候補値すべてについて、第2判定処理(ステップS206)が実行されるまで、第2判定部312は、すべての候補値で第2判定処理(ステップS206)を実行していないと判定する。
 すべての候補値で第2判定処理(ステップS206)を実行していないと判定された場合(ステップS213;No)、第2判定部312は、iに1を加算する(ステップS214)。
 第2判定部312は、ステップS214にて加算されたiに対応する候補値Ciを第2基準値として選択する(ステップS212)。
 例えば、iが2の場合、第2判定部312は、C2を第2基準値として選択する。例えば、iが3の場合、第2判定部312は、C3を第2基準値として選択する。
 第2判定部312は、ステップS212にて選択した第2基準値を用いて、実施形態2と同様のステップS206を再び実行する。
 第2条件を満たすと判定された場合(ステップS206;Yes)、記憶制御部213は、実施形態2と同様のステップS204及びS207~S208を実行して、第3のサーバ処理を終了する。
 また、第2条件を満たさないと判定された場合(ステップS206;No)、第2判定部312は、ステップS213を実行する。すべての候補値で第2判定処理(ステップS206)を実行していないと判定された場合(ステップS213;No)、第2判定部312は、iに1を加算する(ステップS214)。
 このように、第2条件を満たさないと判定されると(ステップS206;No)、すべての候補値C1~C3について第2判定処理(ステップS206)が実行されるまで、ステップS213~S214、S212及びS206が繰り返される。これに対して、候補値C1~C3のいずれかで第2条件を満たすと判定されると(ステップS206;Yes)、ステップS204及びS207~S208が実行されて、第3のサーバ処理が終了する。
 すべての候補値で第2判定処理を実行したと判定された場合(ステップS213;Yes)、記憶制御部213は、ステップS209~S210及びS203を実行して、第3のサーバ処理を終了する。
 本実施形態によれば、第2条件は、対象画像P1の鮮明度と第2基準値との関係により規定される。証跡生成部304は、第2基準値の候補である複数の候補値を含む候補データ316を保持している。証跡生成部304は、複数の候補値のうちの大きい候補値から順に選択した候補値を第2基準値として用いることによって、対象画像P1の鮮明度が第2条件を満たすか否かを繰り返し判定する。
 これにより、鮮明な対象画像P1ほど、より大きな第2基準値で第2判定処理を実行して、証跡データを生成することができる。そのため、証跡データを生成する直前の第2判定処理に用いた第2基準値は、対象画像P1の鮮明度を表す指標となる。例えば、証跡データを生成する直前の第2判定処理に用いた第2基準値を証跡データに含める等により、当該第2基準値を参照できるようにすることで、対象画像P1の鮮明度を容易に知ることができる。従って、証跡に管理における利便性を向上させることが可能になる。
(変形例3)
 対象画像データは複数であってもよい。例えば、端末装置101,201は、予め定められた時間間隔(例えば、1秒間に1回~数10回)で第1又は第2の端末処理を繰り返し実行することで、連続的に対象画像データを生成して、サーバ装置102,202に送信することができる。
 サーバ装置102,202は、順次取得する対象画像データの各々について、第1又は第2のサーバ処理を、予め定められた時間が経過するまで、又は、予め定められる第2判定処理の最大実行回数に達するまで、繰り返し実行するとよい。
 図17は、本変形例に係る第4のサーバ処理の一例を示すフローチャートである。第4のサーバ処理は、予め定められる第2判定処理の最大実行回数Mに達するまで、実施形態2に係る第2のサーバ処理を繰り返し実行する場合のサーバ処理である。
 同図に示すように、第2条件を満たさないと判定された場合(ステップS206;No)、第2判定部312は、第2判定処理がM回実行されたか否かを判定する(ステップS215)。ここで、Mは、予め定められた最大実行回数である。
 第2判定処理がM回実行されていないと判定された場合(ステップS215;No)、データ取得部103は、ステップS201を再び実行する。第2判定処理がM回実行されたと判定された場合(ステップS215;Yes)、記憶制御部213は、ステップS209~S210及びS203を実行して、第4のサーバ処理を終了する。これらを除いて、第4のサーバ処理は、第2のサーバ処理と同様でよい。
 本変形例によれば、対象画像データが複数である。そのため、複数の対象画像データについて第1条件及び第2条件を満たすか否かの判定を実行することができる。これにより、1つの対象画像データについて第1条件及び第2条件を満たすか否かの判定を実行する場合よりも、第2条件を満たす対象画像P1を得ることが容易になる。従って、良好な画質の証跡を管理することが可能になる。
<<実施形態4>>
 本実施形態では、変形例3のように複数の対象画像データの各々について、実施形態3に係る第3のサーバ処理を、予め定められる第2判定処理の最大実行回数に達するまで、繰り返し実行するように変更した例を説明する。本実施形態では、実施形態3と異なる点について主に説明し、重複する点は説明を簡明にするため適宜省略する。
 本発明の実施形態4に係る証跡管理システム400は、図18に示すように、実施形態2と同様の端末装置201と、実施形態3に係るサーバ装置302に代わるサーバ装置402を備える。
(サーバ装置402の機能的構成)
 サーバ装置402は、実施形態3と同様に本人確認の証跡を管理するための装置(証跡管理装置)である。サーバ装置402は、実施形態1と同様のデータ取得部103と、実施形態2と同様の証跡データ記憶部209及び要確認データ記憶部210と、実施形態3に係る証跡生成部304に代わる証跡生成部404とを備える。
 証跡生成部404は、実施形態1と同様に、第1領域AR1と第2領域AR2とが第1条件を満たし、かつ、対象画像P1の鮮明度が第2条件を満たす場合に、対象画像P1に基づく証跡データを生成する。
 詳細には、証跡生成部404は、図19に示すように、実施形態2と同様の第1判定部211、記憶制御部213及び通知部214と、実施形態3に係る第2判定部312及び候補保持部315に代わる第2判定部412及び候補保持部415とを含む。
 候補保持部415は、実施形態3と同様の複数の候補値を含む候補データ416を保持する。
 本実施形態に係る候補データ416は、図20に一例を示すように、第2判定処理の最大実行回数M1,M2,M3が3つの候補値C1,C2,C3のそれぞれに対応付けられたデータである。候補データ416では、最大実行回数M1が候補値C1に対応付けられ、最大実行回数M2が候補値C2に対応付けられ、最大実行回数M2が候補値C2に対応付けられている。
 C1、C2及びC3は、実施形態3と同様に、各値の大きさについて、C1>C2>C3の関係にある。M1、M2及びM3は、各値の大きさについて、M1<M2<M3の関係にある。すなわち、候補データ416において、最大実行回数は、候補値が小さいほど大きい。
 ここで、第2判定処理の最大実行回数を設定することは、第4のサーバ処理を繰り返し実行する制限時間を設けることに相当する。すなわち、最大実行回数が大きい程、制限時間が長いことに相当する。
 なお、候補データ416に含まれる候補値の数は、3つに限られず、複数であればよい。
 第2判定部412は、実施形態2と同様に、第1判定部211によって第1条件を満たすと判定された場合に、第1条件を満たすと判定された対象画像P1について、第2判定処理を実行する。
 本実施の形態に係る第2判定部412は、実施形態3と同様の(A)、(B)又は以下の(C)まで、第2判定処理を繰り返し実行する。
 (C)候補値に対応付けられた最大実行回数の第2判定処理が繰り返される
 これらを除いて、第2判定部412は、実施形態3に係る第2判定部312と同様でよい。
(証跡管理システム400,サーバ装置402の物理的構成)
 証跡管理システム400、サーバ装置402は、物理的には、実施形態1に係る証跡管理システム100、サーバ装置102と同様に構成されるとよい。
(証跡管理システム400の動作)
 ここから、証跡管理システム400の動作について、図を参照して説明する。
 証跡管理システム400は、実施形態1と同様に、本人確認の証跡を管理するための証跡管理処理を実行する。本実施形態に係る証跡管理処理は、実施形態2と同様の第2の端末処理と、実施形態3に係る第3のサーバ処理に代わる第5のサーバ処理とを含む。第5のサーバ処理は、サーバ装置402によって実行される。
(第5のサーバ処理)
 図21は、本実施の形態に係る第5のサーバ処理の一例を示すフローチャートである。サーバ装置402は、実施形態1と同様に、端末装置201との間でネットワークNを介した通信が確立すると、第5のサーバ処理を開始する。第5のサーバ処理では、第2判定部412は、初期設定として、第2判定処理の繰り返し回数に応じて更新されるカウンタiに「1」を設定する。
 実施形態2と同様のステップS201及びS205が実行される。
 第1条件を満たさないと判定された場合(ステップS205;No)、通知部214は、実施形態2と同様のステップS211を実行して、第5のサーバ処理を終了する。
 第1条件を満たすと判定された場合(ステップS205;Yes)、第2判定部312は、実施形態3と同様のステップS212を実行し、ステップS212にて選択した第2基準値を用いて実施形態2と同様のステップS206を実行する。
 第2条件を満たすと判定された場合(ステップS206;Yes)、記憶制御部213は、実施形態2と同様のステップS204及びS207~S208を実行して、第5のサーバ処理を終了する。
 第2条件を満たさないと判定された場合(ステップS206;No)、第2判定部312は、変形例3と同様のステップS215を実行する。
 第2判定処理がM回実行されていないと判定された場合(ステップS215;No)、データ取得部103は、ステップS201を再び実行する。第2判定処理がM回実行されたと判定された場合(ステップS215;Yes)、第2判定部312は、実施形態3と同様のステップS213を実行する。
 すべての候補値で第2判定処理(ステップS206)を実行していないと判定された場合(ステップS213;No)、第2判定部312は、ステップS214を実行し、続けてステップS212を実行する。すべての候補値で第2判定処理を実行したと判定された場合(ステップS213;Yes)、記憶制御部213は、ステップS209~S210及びS203を実行して、第5のサーバ処理を終了する。
 なお、本実施形態におけるステップS209にて要確認データに含める対象画像P1は、例えば、データ取得部103によって直近に取得された対象画像データに含まれる対象画像P1でよい。
 また例えば、ステップS209にて要確認データに含める対象画像P1は、データ取得部103によって取得された複数の対象画像データに含まれる対象画像P1のうち、最も鮮明度が高い対象画像P1であってもよい。これにより、少しでも鮮明度が高い対象画像P1を要確認データに含めることができ、目視での確認を容易にすることができる。
 本実施形態によれば、対象画像データは複数である。候補データ416は、対象画像P1の鮮明度が第2条件を満たすか否かを判定する処理(第2判定処理)の最大実行回数が複数の候補値の各々に対応付けられたデータである。候補データ416において、最大実行回数は、候補値が小さいほど大きい。これにより、少しでも鮮明な対象画像P1に基づく証跡データを生成することができる。従って、良好な画質の証跡を管理することが可能になる。
(変形例4)
 実施形態4では、第2基準値に応じて最大実行回数を変更する例として、候補値が小さいほど大きい最大実行回数が対応付けられる例を説明した。しかし、候補値が小さいほど小さい最大実行回数が対応付けられてもよい。
 一般的に、第2基準値が小さい程、第2条件を満たす鮮明度の対象画像P1を得ることが容易になることがある。このような場合、候補値が小さいほど小さい最大実行回数とすることで、証跡データを得るための全体的な時間を短くすることができる。従って、良好な画質の証跡を容易に得ることが可能になる。
(変形例5)
 実施形態4及び変形例4では、第2基準値に応じて最大実行回数が異なる例を説明した。しかし、異なる値の第2基準値を用いる場合に、第2基準値のすべてに共通の最大実行回数が適用されてもよい。これは、実施形態4において、M1、M2、M3を等しい値にすることに相当する。
 これによっても、次第に小さ第2基準値を用いて第2判定処理が実行されるので、少しでも鮮明な対象画像P1に基づく証跡データを生成することができる。従って、良好な画質の証跡を管理することが可能になる。
(変形例6)
 実施形態4では、各候補値を第2基準値とした第2判定処理(ステップS205以降の処理)において、順次取得される対象画像P1を用いる例を説明した。実施形態4では、各候補値を第2基準値とした第2判定処理(ステップS205以降の処理)において、互いに重複しない対象画像群を用いることになる。
 具体的には例えば、C1を第2基準値とした第2判定処理と、C2を第2基準値とした第2判定処理と、C3を第2基準値とした第2判定処理とで、互いに重複しない対象画像群を用いることになる。
 しかし、例えば、データ取得部103が、端末装置201から取得する対象画像データを保持してもよい。そして、実施形態4では、ある候補値を第2基準値とした第2判定処理(ステップS205以降の処理)において、それより前の候補値を第2基準値とした第2判定処理(ステップS205以降の処理)において用いた対象画像群の一部又は全部が用いられてもよい。
 具体的には例えば、C2を第2基準値とした第2判定処理において、前回の候補値であるC1を第2基準値とした第2判定処理において用いた対象画像群の一部又は全部が用いられてもよい。また例えば、C3を第2基準値とした第2判定処理において、前回の候補値であるC2を第2基準値とした第2判定処理において用いた対象画像群の一部又は全部が用いられてもよい。
 本変形例によれば、第2判定処理(ステップS205以降の処理)において、異なる候補値を第2基準値とした第2判定処理(ステップS205以降の処理)と共通の対象画像P1が用いられる。そのため、繰り返し実行される第2判定処理(ステップS205以降の処理)の全体で、端末装置201から対象画像データを取得するための時間を短くすることができる。従って、良好な画質の証跡を管理するための時間的な効率を向上させることが可能になる。
<<実施形態5>>
 実施形態3及び4では、第2基準値の候補値が予め設定される例を説明した。しかし、端末装置201が備える撮影部205によって鮮明な画像を撮影できるにも関わらず、比較的小さい第2基準値を用いて第2判定処理を実行すると、本来得られるよりも、不鮮明な対象画像P1に基づく証跡データが生成されるおそれがある。そのため、端末装置201が備えるカメラの性能に応じた第2基準値を用いて対象画像P1の鮮明度を判定することが望ましい。
 本実施形態では、端末装置201が備えるカメラの性能に応じた候補値を設定するように実施形態3を変更した例を説明する。
 本発明の実施形態5に係る証跡管理システム500は、図22に示すように、実施形態2と同様の端末装置201と、実施形態3に係るサーバ装置302に代わるサーバ装置502を備える。
(サーバ装置502の機能的構成)
 サーバ装置502は、実施形態3と同様に本人確認の証跡を管理するための装置(証跡管理装置)である。サーバ装置502は、実施形態3に係るサーバ装置302の機能的な構成103,304,209,210に加えて、準備部517を備える。
 準備部517は、複数の参照用データを取得し、当該取得された複数の参照用データに含まれる画像の各々の鮮明度に基づいて、複数の候補値を決定する。
 参照用データは、参照用画像を含むデータである。本実施形態では、参照用データの各々が、対象画像P1を参照用画像として含むデータである場合を例に説明する。なお、参照用画像は、文字の画像を少なくとも含めばよい。
 詳細には準備部517は、複数の参照用データを取得し、当該取得された複数の参照用データに含まれる画像の各々の鮮明度を求める。そして、準備部517は、参照用データに含まれる画像の鮮明度に基づいて参照値を求める。参照値は例えば、参照用データに含まれる画像の鮮明度の平均値である。準備部517は、参照値に基づいて複数の候補値の各々を決定する。
(証跡管理システム500,サーバ装置502の物理的構成)
 証跡管理システム500、サーバ装置502は、物理的には、実施形態1に係る証跡管理システム100、サーバ装置102と同様に構成されるとよい。
(証跡管理システム500の動作)
 ここから、証跡管理システム500の動作について、図を参照して説明する。
 証跡管理システム500は、実施形態1と同様に、本人確認の証跡を管理するための証跡管理処理を実行する。本実施形態に係る証跡管理処理は、実施形態2と同様の第2の端末処理と、実施形態3に係る第3のサーバ処理に代わる第6のサーバ処理とを含む。第6のサーバ処理は、サーバ装置502によって実行される。
(第6のサーバ処理)
 図23は、本実施の形態に係る第6のサーバ処理の一例を示すフローチャートである。サーバ装置502は、実施形態1と同様に、端末装置201との間でネットワークNを介した通信が確立すると、第6のサーバ処理を開始する。
 第6のサーバ処理では、同図に示すように、第5のサーバ処理において最初に実行されるステップS201の前に、ステップS216~S220が実行される。これらを除いて、第6のサーバ処理は、第5のサーバ処理と同様でよい。
 準備部517は、対象画像P1を含む複数の参照用データを、ネットワークNを介して端末装置201から取得する(ステップS216)。
 準備部517は、ステップS216にて取得された参照用データに含まれる対象画像P1の各々の鮮明度を求める(ステップS217)。
 ステップS217において、準備部517は、第2判定処理(ステップS206)にて対象画像P1の鮮明度を求める方法と同じ方法で、参照用データに含まれる対象画像P1の各々の鮮明度を求めるとよい。
 準備部517は、ステップS217で求められた複数の鮮明度に基づいて、参照値を求める(ステップS218)。
 ステップS218において、準備部517は、例えば、ステップS217で求められた複数の鮮明度の平均値を求め、当該平均値を参照値とする。
 なお、参照値は、複数の鮮明度の平均値に限らず、参照用データに含まれる画像の鮮明度に基づいて得られる値であればよい。参照値は、例えば、複数の鮮明度の最大値又は最小値、複数の鮮明度に適宜の統計処理を施した値であってもよい。
 準備部517は、ステップS218で求められた参照値に基づいて、複数の候補値を決定する(ステップS219)。
 ステップS219において、準備部517は、参照値を下限値として、複数の候補値を決定する。例えば、準備部517は、C1、C2及びC3のうち、最小の候補値であるC3に参照値を設定する。
 準備部517は、他の候補値であるC1、C2を、予め定められた方法で設定する。例えば、予め定められた値dずつ大きくする場合、準備部517は、C2には参照値にdを加えた値を設定し、C3にはC2にさらにdを加えた値を設定する。
 なお、準備部517は、ステップS218で求められた参照値に基づいて、複数の候補値の少なくとも一部を決定すればよい。複数の候補値の一部が参照値に基づいて決定される場合、残りの候補値は、ユーザの入力に基づく値、予め定められた値等であってもよい。
 準備部517は、ステップS219にて決定された複数の候補値を含む候補データ316を生成し、当該生成した候補データ316を候補保持部315に保持させる(ステップS220)。続けて、第3のサーバ処理と同様のステップS201以降の処理が実行される。
 なお、本実施形態では、参照値に基づいて候補値を決定する例を説明したが、第2基準値が1つの場合、参照値又は参照値に基づく値が第2基準値に適用されてもよい。
 本実施形態によれば、準備部517は、文字の画像を少なくとも含む複数の参照用データを取得し、当該取得された複数の参照用データに含まれる画像の各々の鮮明度に基づいて、複数の候補値を決定する。これにより、端末装置201が備えるカメラの性能に応じた第2基準値を用いて対象画像P1の鮮明度を判定することができる。従って、より良好な画質の証跡を管理することが可能になる。
(変形例7)
 実施形態及び変形例では、証跡管理装置がサーバ装置102,202,302,402,502である例を用いて説明した。
 しかし、端末装置101,201は、証跡管理装置として、サーバ装置102,202,302,402,502が備えるデータ取得部103と、証跡生成部104,204,304,404とを備えてもよい。また、端末装置101,201は、証跡管理装置として、サーバ装置502が備える準備部517を備えてもよい。
 この場合、例えば、端末通信部207は、生成された証跡データをネットワークNを介してサーバ装置102,202へ送信してもよい。また例えば、端末装置101,201は、証跡データ記憶部209を備え、証跡データを証跡データ記憶部209に記憶してもよい。さらに例えば、端末装置101,201は、要確認データ記憶部210を備え、要確認データを要確認データ記憶部210に記憶してもよい。
 また例えば、候補データ316の候補値は、ユーザの入力に基づくサーバ装置302からの指示に従って設定されるとよい。
 これによっても、各実施形態及び各変形例と同様の効果を奏する。
 以上、図面を参照して本発明の実施の形態及び変形例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、実施の形態の各々で実行される工程の実行順序は、その記載の順番に制限されない。実施の形態の各々では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の実施の形態及び変形例は、内容が相反しない範囲で組み合わせることができる。
 上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得するデータ取得手段と、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成する証跡生成手段とを備える
 証跡管理装置。
2.
 前記対象画像は、前記書類に含まれる文字を示す第3領域をさらに含み、
 前記証跡生成手段は、前記第3領域に基づいて前記鮮明度を求める
 上記1.に記載の証跡管理装置。
3.
 前記証跡データは、前記第3領域の画像から認識した文字を示す情報を含む
 上記2.に記載の証跡管理装置。
4.
 前記証跡生成手段は、前記第1条件を満たすと判定した場合に、前記鮮明度が第2条件を満たすか否かを判定する
 上記1.から3.のいずれか1つに記載の証跡管理装置。
5.
 前記第2条件は、前記鮮明度と第2基準値との関係によって規定されており、
 前記証跡生成手段は、前記第2基準値の候補である複数の候補値を含む候補データを保持しており、前記複数の候補値のうちの大きい候補値から順に選択した候補値を前記第2基準値として用いることによって、前記対象画像の鮮明度が第2条件を満たすか否かを繰り返し判定する
 上記1.から4.のいずれか1つに記載の証跡管理装置。
6.
 文字の画像を少なくとも含む複数の参照用データを取得し、当該取得された複数の参照用データに含まれる画像の各々の鮮明度に基づいて、前記複数の候補値を決定する準備手段をさらに備える
 上記5.に記載の証跡管理装置。
7.
 前記対象画像データは、複数であり
 前記候補データは、前記対象画像の鮮明度が第2条件を満たすか否かを判定する処理の最大実行回数が前記複数の候補値の各々に対応付けられたデータである
 上記5.又は6.に記載の証跡管理装置。
8.
 前記最大実行回数は、前記候補値が小さいほど大きい
 上記7.に記載の証跡管理装置。
9.
 前記証跡生成手段は、前記候補値のいずれかを第2基準値として前記鮮明度が前記第2基準値以上であると判定するか、又は、前記候補値に対応付けられた最大実行回数の第2判定処理が繰り返されるまで、前記鮮明度が前記第2基準値以上であるか否かを判定する処理を繰り返し実行する
 上記7.又は8.に記載の証跡管理装置。
10.
 前記対象画像データに含まれる対象画像は、1つ又は複数であり、
 証跡生成手段は、前記1つ又は複数の対象画像のすべての鮮明度が第2条件を満たさない場合に、当該1つの対象画像又は前記複数の対象画像のいずれかに基づく要確認データを生成する
 上記1.から9.のいずれか1つに記載の証跡管理装置。
11.
 上記1.から10.のいずれか1つに記載の証跡管理装置と、
 前記本人及び前記書類を撮影することによって前記対象画像データを生成し、当該対象画像データを前記証跡管理装置へ送信する端末装置とを備える
 証跡管理システム。
12.
 コンピュータが、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを含む
 証跡管理方法。
13.
 コンピュータに、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを実行させるためのプログラム。
14.
 コンピュータに、
 本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
 前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを実行させるためのプログラムが記録された記録媒体。
 この出願は、2022年2月8日に出願された日本出願特願2022-017944号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100,200,300,400,500  証跡管理システム
101,201  端末装置
102,202,302,402,502  サーバ装置
103  データ取得部
104,204,304,404  証跡生成部
205  撮影部
209  証跡データ記憶部
210  要確認データ記憶部
211  第1判定部
212,312,412  第2判定部
213  記憶制御部
214  通知部
315,415  候補保持部
316,416  候補データ
517  準備部
P1  対象画像
PP  プレビュー画像
AR1  第1領域
AR2  第2領域
AR3  第3領域
G1,G2  ガイド

Claims (10)

  1.  本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得するデータ取得手段と、
     前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成する証跡生成手段とを備える
     証跡管理装置。
  2.  前記対象画像は、前記書類に含まれる文字を示す第3領域をさらに含み、
     前記証跡生成手段は、前記第3領域に基づいて前記鮮明度を求める
     請求項1に記載の証跡管理装置。
  3.  前記証跡生成手段は、前記第1条件を満たすと判定した場合に、前記鮮明度が第2条件を満たすか否かを判定する
     請求項1又は2に記載の証跡管理装置。
  4.  前記第2条件は、前記鮮明度と第2基準値との関係によって規定されており、
     前記証跡生成手段は、前記第2基準値の候補である複数の候補値を含む候補データを保持しており、前記複数の候補値のうちの大きい候補値から順に選択した候補値を前記第2基準値として用いることによって、前記対象画像の鮮明度が第2条件を満たすか否かを繰り返し判定する
     請求項1から3のいずれか1項に記載の証跡管理装置。
  5.  文字の画像を少なくとも含む複数の参照用データを取得し、当該取得された複数の参照用データに含まれる画像の各々の鮮明度に基づいて、前記複数の候補値を決定する準備手段をさらに備える
     請求項4に記載の証跡管理装置。
  6.  前記対象画像データは、複数であり
     前記候補データは、前記対象画像の鮮明度が第2条件を満たすか否かを判定する処理の最大実行回数が前記複数の候補値の各々に対応付けられたデータである
     請求項4又は5に記載の証跡管理装置。
  7.  前記最大実行回数は、前記候補値が小さいほど大きい
     請求項6に記載の証跡管理装置。
  8.  請求項1から7のいずれか1項に記載の証跡管理装置と、
     前記本人及び前記書類を撮影することによって前記対象画像データを生成し、当該対象画像データを前記証跡管理装置へ送信する端末装置とを備える
     証跡管理システム。
  9.  コンピュータが、
     本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
     前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを含む
     証跡管理方法。
  10.  コンピュータに、
     本人を示す第1領域と、書類に含まれる本人画像を示す第2領域と、を含む対象画像を含む対象画像データを取得し、
     前記第1領域と前記第2領域とが第1条件を満たし、かつ、前記対象画像の鮮明度が第2条件を満たす場合に、前記対象画像に基づく証跡データを生成することを実行させるためのプログラムが記録された記録媒体。 
PCT/JP2023/003528 2022-02-08 2023-02-03 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体 WO2023153324A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-017944 2022-02-08
JP2022017944 2022-02-08

Publications (1)

Publication Number Publication Date
WO2023153324A1 true WO2023153324A1 (ja) 2023-08-17

Family

ID=87564261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003528 WO2023153324A1 (ja) 2022-02-08 2023-02-03 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023153324A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079393A (ja) * 2008-09-24 2010-04-08 Japan Tobacco Inc データ処理装置、そのコンピュータプログラムおよびデータ処理方法
JP2019519844A (ja) * 2016-05-24 2019-07-11 モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc 書類の画質評価
WO2020022034A1 (ja) * 2018-07-25 2020-01-30 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020077421A (ja) * 2018-11-07 2020-05-21 大日本印刷株式会社 携帯端末、本人確認サーバ、本人確認システム及びプログラム
JP2021099802A (ja) * 2019-12-20 2021-07-01 ライン プラス コーポレーションLINE Plus Corporation ユーザーを認証する方法およびシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079393A (ja) * 2008-09-24 2010-04-08 Japan Tobacco Inc データ処理装置、そのコンピュータプログラムおよびデータ処理方法
JP2019519844A (ja) * 2016-05-24 2019-07-11 モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc 書類の画質評価
WO2020022034A1 (ja) * 2018-07-25 2020-01-30 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020077421A (ja) * 2018-11-07 2020-05-21 大日本印刷株式会社 携帯端末、本人確認サーバ、本人確認システム及びプログラム
JP2021099802A (ja) * 2019-12-20 2021-07-01 ライン プラス コーポレーションLINE Plus Corporation ユーザーを認証する方法およびシステム

Similar Documents

Publication Publication Date Title
CN109409204B (zh) 防伪检测方法和装置、电子设备、存储介质
CN106850648B (zh) 身份验证方法、客户端和服务平台
CN109034069B (zh) 用于生成信息的方法和装置
CN109271915B (zh) 防伪检测方法和装置、电子设备、存储介质
CN111542833A (zh) 用于文档认证的分类筛选引擎
JP2013041416A (ja) 情報処理装置及び方法、プログラム、並びに情報処理システム
CN111985323B (zh) 基于深度卷积神经网络的人脸识别方法及系统
CN111126098B (zh) 证件图像采集方法、装置、设备及存储介质
JP2022180640A (ja) 生体データ照合システム
CN108399401B (zh) 用于检测人脸图像的方法和装置
WO2021191659A1 (en) Liveness detection using audio-visual inconsistencies
CN114612986A (zh) 检测方法、装置、电子设备及存储介质
CN112380979A (zh) 活体检测方法、装置、设备及计算机可读存储介质
WO2021068613A1 (zh) 面部识别方法、装置、设备及计算机可读存储介质
JP2020187763A (ja) 情報処理装置、容疑者情報生成方法及びプログラム
WO2020007191A1 (zh) 活体识别检测方法、装置、介质及电子设备
CN108154070A (zh) 人脸识别方法及装置
JP6372396B2 (ja) 情報伝達システム
JP2015045984A (ja) 情報処理装置、文字認識方法、及びプログラム
WO2023153324A1 (ja) 証跡管理装置、証跡管理システム、証跡管理方法及び記録媒体
CN109995761B (zh) 服务处理方法、装置、电子设备及存储介质
US10235408B1 (en) User enrollment and verification
US20220414193A1 (en) Systems and methods for secure adaptive illustrations
US20230005301A1 (en) Control apparatus, control method, and non-transitory computer readable medium
JP6926279B1 (ja) 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23752789

Country of ref document: EP

Kind code of ref document: A1