WO2021214857A1 - 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2021214857A1
WO2021214857A1 PCT/JP2020/017150 JP2020017150W WO2021214857A1 WO 2021214857 A1 WO2021214857 A1 WO 2021214857A1 JP 2020017150 W JP2020017150 W JP 2020017150W WO 2021214857 A1 WO2021214857 A1 WO 2021214857A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
image
registered
collation
face
Prior art date
Application number
PCT/JP2020/017150
Other languages
English (en)
French (fr)
Inventor
康志 浜田
秀治 古明地
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP20931908.6A priority Critical patent/EP4141784A4/en
Priority to PCT/JP2020/017150 priority patent/WO2021214857A1/ja
Priority to US17/619,719 priority patent/US20220358787A1/en
Priority to JP2022516505A priority patent/JP7388544B2/ja
Publication of WO2021214857A1 publication Critical patent/WO2021214857A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Definitions

  • the present invention relates to a collation device, a collation system, a collation method, and a non-temporary computer-readable medium in which a collation program is stored.
  • Patent Document 1 discloses a system for collating a large number of people registered in a database with a person shown in a collation source image.
  • the face image of a candidate person out of a large number of people registered in the database and the face image of the person shown in the collation source image are superimposed to generate a composite image for consistency check.
  • the function to display the composite image in the window is provided.
  • the face image of a candidate person among a large number of people registered in the database and the face image of the person shown in the collation source image are only displayed in an superimposed manner.
  • An object of the present invention is to provide a non-transitory computer-readable medium containing a system, a collation method, and a collation program.
  • the collation device is based on a plurality of designated first feature points in the face area of the inspection subject extracted from the captured image taken by the inspection subject, and image data of the person registered in the database. By collating the extracted plurality of designated first feature points in the face area of the person, the photographed image of the person to be inspected and the registered image of the person generated based on the image data.
  • the adjusting means for adjusting the positional relationship of the A display control means for displaying is provided.
  • the collation method according to the present disclosure is based on a plurality of designated first feature points in the face area of the inspection subject extracted from the captured image taken by the inspection subject and image data of the person registered in the database. By collating the extracted plurality of designated first feature points in the face area of the person, the photographed image of the person to be inspected and the registered image of the person generated based on the image data.
  • the adjustment step for adjusting the positional relationship of the It includes a display control step for displaying.
  • the non-temporary computer-readable medium according to the present disclosure is registered in the database together with a plurality of designated first feature points in the face area of the inspection subject extracted from the photographed image taken by the inspection subject.
  • the photographed image of the person to be inspected and the image generated based on the image data are collated with a plurality of designated first feature points in the face area of the person extracted from the image data of the person.
  • the adjustment process for adjusting the positional relationship between the registered image of the person and the photographed image of the person to be inspected and the mark indicating the visible second feature point identified from the registered image of the person are superimposed.
  • the display control process for displaying on the display device and the collation program for executing the display are stored.
  • the present disclosure allows a non-temporary storage of a collation device, a collation system, a collation method, and a collation program that can facilitate a visual determination as to whether or not a person to be inspected corresponds to a specific person.
  • Computer-readable medium can be provided.
  • FIG. It is a block diagram which shows the structural example of the collation apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the collation apparatus shown in FIG. It is a conceptual diagram for demonstrating the collation process by the collation apparatus shown in FIG. It is a figure which shows an example of a plurality of feature points P1.
  • FIG. It is a block diagram which shows the structural example of the photographing apparatus provided in the collation system shown in FIG. It is a block diagram which shows the configuration example of the face registration terminal provided in the collation system shown in FIG.
  • FIG. 1 is a block diagram showing a configuration example of the collation device 100 according to the first embodiment.
  • the collation device 100 is a visible feature point (mole) identified from a photographed image of the inspection target person TG and a registered image of a candidate person RF extracted from the database as having a high possibility of being the same person as the inspection target person TG. Etc.) and the mark MK indicating the above are superimposed and displayed on the display device.
  • the test subject TG corresponds to a specific person (candidate person RF in this example).
  • a specific description will be given.
  • the collating device 100 includes an adjusting unit 111 and a display control unit 112.
  • the collation device 100 is connected to a network 500 (not shown).
  • the network 500 may be wired or wireless.
  • a face information DB (DataBase) and a photographing device (not shown) are connected to the network 500 (neither is shown).
  • Image data of the face areas of a plurality of people is registered in the face information DB.
  • a person ID user ID
  • image data of the face area of the person are associated and registered for each person.
  • the person registered in the face information DB is, for example, a person with a criminal history or a person under investigation.
  • the image data of each person registered in the face information DB is two-dimensional data including the face area facing the front, and the captured image of the inspection target person TG taken by the photographing device is ,
  • the case of two-dimensional data including a face area facing the front will be described, but the present invention is not limited to this.
  • the image data of each person registered in the face information DB may be three-dimensional data including the three-dimensional shape of the face region and the developed image.
  • the photographed image of the inspection subject TG photographed by the photographing apparatus may be two-dimensional data including a face region facing an arbitrary direction.
  • the adjustment unit 111 is based on the captured image of the inspection target person TG taken by the photographing device and the image data of the person (candidate person) RF extracted from the face information DB as having a high possibility of being the same person as the inspection target person TG.
  • the positional relationship with the generated registered image of the candidate person RF is adjusted.
  • the image data of each person registered in the face information DB is two-dimensional data as described above
  • the image data of the candidate person RF extracted from the face information DB is the registered image of the candidate person RF. Can be done.
  • the case where the registered image of the candidate person RF is extracted by the user's selection will be described as an example, but it may be automatically performed by using the face recognition device.
  • the adjustment unit 111 first first has a plurality of designated feature points (first feature points) P1 in the face area of the inspection target person TG extracted from the captured image, and the face of the candidate person RF extracted from the registered image.
  • the plurality of designated feature points (first feature points) P1 in the region are collated with each other.
  • the feature point P1 is a part of a face region commonly used to specify the orientation of a person's face. Upper center point, right earlobe point, left earlobe point, etc.
  • the adjusting unit 111 has a plurality of feature points P1 in the face region of the inspection subject TG extracted from the captured image and a plurality of feature points P1 in the face region of the candidate person RF extracted from the registered image, respectively. Adjust the position of the registered image of the candidate person RF so that they match.
  • the position of the visible feature point P2 specified in the face area of the candidate person RF is also adjusted.
  • the visible feature point P2 is a portion peculiar to the candidate person RF formed in the face region of the candidate person RF, and is, for example, a mole, a wrinkle, a stain, a freckle, a dimple, a wart, a scratch, and a scratch. , Tattoos, etc.
  • the feature point P2 need not be included in the feature point P1 used for adjusting the positional relationship.
  • the feature portion P1 in the face area of each person used when adjusting the position by the adjusting unit 111 is not always easy for a human to visually confirm. Therefore, by targeting the feature portion P2, which is easy for humans to visually confirm, to be highlighted, which will be described later, it is easy to determine whether or not the inspection target person TG is a specific person.
  • the type and position of the feature point P2 may be registered in the face information DB 200 in association with the registered image (two-dimensional data) of the candidate person RF, but the present invention is not limited to this.
  • the type and position of the feature point P2 may be acquired at an arbitrary timing based on the registered image (two-dimensional data) of the candidate person RF.
  • the display control unit 112 superimposes the photographed image of the inspection target person TG and the mark MK indicating the visible feature point P2 identified from the registered image of the adjusted candidate person RF and displays it on the display device.
  • the mark MK only needs to be able to emphasize the feature point P2. For example, a dotted line surrounding the feature point P2 or a shape and pattern of the feature point P2 using an emphasized color such as red is used. Further, as the mark MK, a display format (emphasized content) corresponding to the type of the feature point P2 may be used. For example, a red mark MK may be used for the feature point P2 of the “mole”, and a blue mark MK may be used for the feature point P2 of the “wrinkle”. It becomes easier to visually confirm which of the plurality of feature points P2 is emphasized.
  • FIG. 2 is a flowchart showing the operation of the collation device 100.
  • FIG. 3 is a conceptual diagram for explaining the collation process of the collation device 100.
  • the adjusting unit 111 positions the photographed image of the inspection target person TG photographed by the photographing apparatus and the registered image of the candidate person RF generated from the image data of the candidate person RF extracted from the face information DB. Adjust the relationship (step S101).
  • the image data of each person registered in the face information DB is two-dimensional data as described above
  • the image data of the candidate person RF extracted from the face information DB is the registered image of the candidate person RF. Can be done.
  • the adjustment unit 111 first has a plurality of designated feature points P1 in the face area of the inspection subject TG extracted from the captured image, and a plurality of designated feature points P1 in the face area of the candidate person RF extracted from the registered image. Is collated with the feature point P1 of.
  • the adjusting unit 111 has a plurality of feature points P1 in the face region of the inspection subject TG extracted from the captured image and a plurality of feature points P1 in the face region of the candidate person RF extracted from the registered image, respectively. Adjust the position of the registered image of the candidate person RF so that they match.
  • FIG. 4 is a diagram showing an example of a plurality of feature points P1.
  • Earlobe point P1g is designated.
  • the adjusting unit 111 has the feature points P1a to P1g in the face region of the inspection subject TG extracted from the captured image and the feature points P1a to P1g in the face region of the candidate person RF extracted from the registered image. Adjust the position of the registered image of the candidate person RF so that they match each other.
  • the display control unit 112 superimposes the photographed image of the inspection target person TG and the mark MK indicating the visible feature point P2 identified from the registered image of the adjusted candidate person RF and displays it on the display device. (Step S102).
  • the collation device 100 captures the photographed image of the inspection target person TG and the visible feature point (mole or the like) P2 of the candidate person RF identified from the registered image of the candidate person RF.
  • the mark MK shown is superimposed and displayed on the display device. As a result, it becomes easy to visually determine whether or not the test subject TG corresponds to a specific person (candidate person RF in this example).
  • the face information DB is provided outside the collation device 100
  • the present invention is not limited to this.
  • the face information DB may be provided inside the collation device 100.
  • the collation device 100 includes a processor, a memory, and a storage device as a configuration (not shown). Further, the storage device stores a computer program in which the processing of the guidance method according to the present embodiment is implemented. Then, the processor reads the computer program from the storage device into the memory and executes the computer program. As a result, the processor realizes the respective functions of the adjusting unit 111 and the display control unit 112.
  • the adjustment unit 111 and the display control unit 112 may each be realized by dedicated hardware.
  • some or all of the components of each device may be realized by a general-purpose or dedicated circuitry, a processor, and a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component of each device may be realized by a combination of the above-mentioned circuit or the like and a program.
  • a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), or the like can be used.
  • each component of the collation device 100 when a part or all of each component of the collation device 100 is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged or distributed. It may be arranged.
  • the information processing device, the circuit, and the like may be realized as a form in which each of the client-server system, the cloud computing system, and the like is connected via a communication network.
  • the function of the collation device 100 may be provided in the SaaS (Software as a Service) format.
  • FIG. 5 is a block diagram showing a configuration example of the collation system 600 according to the second embodiment.
  • the collation system 600 is preferably used, for example, to identify a person with a criminal history or a person under investigation.
  • the collation system 600 includes a collation device 100a, which is a specific example of the collation device 100, a face information DB 200, a face registration terminal 300, a photographing device 400, and a network 500.
  • a collation device 100a which is a specific example of the collation device 100
  • a face information DB 200 which is a specific example of the collation device 100
  • a face registration terminal 300 which is a specific example of the collation device 100
  • a photographing device 400 includes a network 500.
  • Each of the collation device 100a, the face information DB 200, the face registration terminal 300, and the photographing device 400 is connected via the network 500.
  • FIG. 6 is a block diagram showing a configuration example of the photographing device 400.
  • the photographing device 400 includes a photographing unit 410, a storage unit 420, a communication unit 430, and a control unit 440.
  • the photographing unit 410 is, for example, a surveillance camera and photographs the face image of the person to be inspected TG.
  • the storage unit 420 is a storage device in which a program for realizing each function of the photographing device 400 is stored.
  • the communication unit 430 is a communication interface with the network 500.
  • the control unit 440 controls the hardware included in the photographing device 400. Specifically, the control unit 440 has a shooting control unit 441.
  • the photographing control unit 441 photographs the face image of the person to be inspected TG by using the photographing unit 410.
  • the face area of the inspection subject TG photographed by the photographing unit 410 does not have to face the front, and may face any direction. Then, the photographing control unit 441 transmits the photographed image of the inspection target person TG photographed by the photographing unit 410 to the collating device 100a via the network 500.
  • FIG. 7 is a block diagram showing a configuration example of the face registration terminal 300.
  • the face registration terminal 300 includes a photographing unit 310, a storage unit 320, a communication unit 330, and a control unit 340.
  • the shooting unit 310 shoots a facial image of any person including a person with a criminal history or a person under investigation.
  • the storage unit 320 is a storage device that stores a program for realizing each function of the face registration terminal 300.
  • the communication unit 330 is a communication interface with the network 500.
  • the control unit 340 controls the hardware of the face registration terminal 300. Specifically, the control unit 340 includes a shooting control unit 341 and a registration request unit 342.
  • the shooting control unit 341 uses the shooting unit 310 to shoot a face image of an arbitrary person.
  • the photographing control unit 341 photographs the face region of each person from a plurality of angles by using, for example, the photographing unit 310.
  • the configuration of the photographing unit and the method of acquiring the three-dimensional data are not limited to the above.
  • three-dimensional data including a three-dimensional shape of a person's face region and a developed face image may be acquired.
  • the registration request unit 342 transmits a face information registration request including three-dimensional image data to the face information DB 200 via the network 500. After that, the registration requesting unit 342 receives the registration result from the face information DB 200.
  • Image data including the face area of each person is registered in the face information DB 200.
  • a person ID user ID
  • image data of the person three-dimensional data in this example
  • the person registered in the face information DB 200 is, for example, a person with a criminal history or a person under investigation.
  • FIG. 8 is a flowchart showing the flow of the face information registration process in the face information DB 200.
  • the face information DB 200 acquires the image data included in the face information registration request from the face registration terminal 300 (step S201). After that, the face information DB 200 issues a person ID (user ID) and registers the person ID and the image data in association with each other (step S202).
  • a person ID user ID
  • FIG. 9 is a block diagram showing a configuration example of the collation device 100a.
  • the collation device 100a is, for example, a server device realized by a computer, and includes a control unit 110, a storage unit 120, a memory 130, a communication unit 140, and a display unit 150. ..
  • the storage unit 120 is a storage device in which a program for realizing each function of the collation device 100a is stored.
  • the memory 130 is a storage area for temporarily storing the processing contents of the control unit 110, and is, for example, a volatile storage device such as a RAM.
  • the communication unit 140 is a communication interface with the network 500.
  • the display unit 150 is a display device such as a monitor.
  • the control unit 110 is a control device that controls the operation of the collation device 100a, and is, for example, a processor such as a CPU.
  • the control unit 110 reads the program read from the storage unit 120 into the memory 130 and executes the program. As a result, the control unit 110 realizes the functions of the adjustment unit 111, the display control unit 112, the captured image acquisition unit 113, and the registered image acquisition unit 114.
  • the photographed image acquisition unit 113 acquires the photographed image of the inspection target person TG photographed by the photographing unit 410 of the photographing apparatus 400 via the network 500.
  • the photographed image of the inspection target person TG acquired by the photographed image acquisition unit 113 is two-dimensional data including a face region facing an arbitrary direction.
  • the registered image acquisition unit 114 acquires the image data of the candidate person RF extracted from the face information DB 200 as having a high possibility of being the same person as the inspection target person TG via the network 500.
  • the image data acquired by the registered image acquisition unit 114 is three-dimensional data including the three-dimensional shape of the face region of the candidate person RF and the developed image.
  • the case where the registered image of the candidate person RF is extracted by the user's selection will be described as an example, but it may be automatically performed by using the face recognition device.
  • the adjustment unit 111 is a candidate generated based on the photographed image of the inspection target person TG acquired by the photographed image acquisition unit 113 and the image data (three-dimensional data) of the candidate person RF acquired by the registered image acquisition unit 114. Adjust the positional relationship with the registered image of the person RF.
  • the adjustment unit 111 first designates a plurality of designated feature points P1 in the face area of the inspection target person TG extracted from the captured image and the face area of the candidate person RF extracted from the three-dimensional shape of the image data.
  • the plurality of feature points P1 are collated with each other.
  • the feature point P1 is a part of a face region commonly used to specify the orientation of a person's face. Upper center point, right earlobe point, left earlobe point, etc.
  • the adjusting unit 111 has a plurality of feature points P1 in the face region of the inspection subject TG extracted from the captured image and a plurality of feature points P1 in the face region of the candidate person RF extracted from the three-dimensional shape, respectively. Adjust the orientation (position) of the three-dimensional shape of the candidate person RF so that they match. As a result, a registered image (two-dimensional data) of the candidate person RF facing the same direction as the inspection target person TG shown in the photographed image is generated.
  • the position of the visible feature point P2 specified in the face area of the candidate person RF is also adjusted.
  • the visible feature point P2 is a portion peculiar to the candidate person RF formed in the face region of the candidate person RF, and is, for example, a mole, a wrinkle, a stain, a freckle, a dimple, a wart, a scratch, and a scratch. , Tattoos, etc.
  • the feature point P2 need not be included in the feature point P1 used for adjusting the positional relationship.
  • the feature portion P1 in the face area of each person used when adjusting the position by the adjusting unit 111 is not always easy for a human to visually confirm. Therefore, by targeting the feature portion P2, which is easy for humans to visually confirm, to be highlighted, which will be described later, it is easy to determine whether or not the inspection target person TG is a specific person.
  • the type and position of the feature point P2 may be registered in the face information DB 200 in association with the three-dimensional data of the candidate person RF, but the present invention is not limited to this.
  • the type and position of the feature point P2 may be acquired at an arbitrary timing based on the three-dimensional data of the candidate person RF.
  • the display control unit 112 superimposes a photographed image of the inspection target person TG and a mark MK indicating a visible feature point P2 identified from the registered image of the candidate person RF whose face direction has been adjusted, and displays the display unit 112. Display on 150.
  • the feature point P2 can be emphasized. For example, a dotted line surrounding the feature point P2 or a shape and pattern of the feature point P2 using an emphasized color such as red is used.
  • a display format (emphasized content) corresponding to the type of the feature point P2 may be used. For example, a red mark MK may be used for the feature point P2 of the “mole”, and a blue mark MK may be used for the feature point P2 of the “wrinkle”. It becomes easier to visually confirm which of the plurality of feature points P2 is emphasized.
  • FIG. 10 is a flowchart showing the operation of the collating device 100a.
  • FIG. 11 is a conceptual diagram for explaining the collation process of the collation device 100a.
  • the captured image acquisition unit 113 acquires the captured image of the inspection target person TG photographed by the photographing unit 410 of the photographing device 400 via the network 500 (step S301).
  • the photographed image of the inspection target person TG acquired by the photographed image acquisition unit 113 is two-dimensional data including a face region facing an arbitrary direction.
  • the registered image acquisition unit 114 acquires the image data of the candidate person RF extracted from the face information DB 200 as having a high possibility of being the same person as the inspection target person TG via the network 500 (step S302).
  • the image data acquired by the registered image acquisition unit 114 is three-dimensional data including the three-dimensional shape of the face region of the candidate person RF and the developed image.
  • the adjustment unit 111 of the candidate person RF generated based on the photographed image of the inspection target person TG acquired by the photographed image acquisition unit 113 and the image data of the candidate person RF acquired by the registered image acquisition unit 114.
  • the positional relationship between the registered image and the image is adjusted (step S303).
  • the adjustment unit 111 first designates a plurality of designated feature points P1 in the face area of the inspection target person TG extracted from the captured image and the face area of the candidate person RF extracted from the three-dimensional shape of the image data.
  • the plurality of feature points P1 are collated with each other.
  • the adjusting unit 111 has a plurality of feature points P1 in the face region of the inspection subject TG extracted from the captured image and a plurality of feature points P1 in the face region of the candidate person RF extracted from the three-dimensional shape, respectively. Adjust the orientation (position) of the three-dimensional shape of the candidate person RF so that they match. As a result, a registered image (two-dimensional data) of the candidate person RF facing the same direction as the inspection target person TG shown in the photographed image is generated.
  • FIG. 12 is a diagram showing an example of a plurality of feature points P1.
  • Earlobe point P1g is designated.
  • the adjusting unit 111 has the feature points P1a to P1g in the face region of the inspection subject TG extracted from the captured image and the feature points P1a to P1g in the face region of the candidate person RF extracted from the three-dimensional shape. Adjust the orientation of the three-dimensional shape of the candidate person RF so that they match each other.
  • the display control unit 112 superimposes the photographed image of the inspection target person TG and the mark MK indicating the visible feature point P2 identified from the registered image of the candidate person RF whose face direction is adjusted. It is displayed on the display unit 150 (step S304).
  • the collation device 100a and the collation system 600 have visible feature points (mole) of the candidate person RF identified from the photographed image of the inspection target person TG and the registered image of the candidate person RF. Etc.)
  • the mark MK indicating P2 is superimposed and displayed on the display device. As a result, it becomes easy to visually determine whether or not the test subject TG corresponds to a specific person (candidate person RF in this example).
  • the collation device 100a By registering the three-dimensional data of the face area of each person in the face information DB 200, the collation device 100a is not limited to the photographed image of the inspection target person TG facing the front, and the inspection facing any direction.
  • the collation process can be performed using the captured image of the target person TG.
  • the collation device 100a can perform collation processing by using a photographed image of the inspection target person TG photographed by a photographing device 400 such as a security camera that is not conscious of being photographed. Become.
  • the case where the face information DB 200 is provided outside the collation device 100a has been described as an example, but the present invention is not limited to this.
  • the face information DB 200 may be provided inside the collation device 100a.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks).
  • Examples of non-temporary computer-readable media include CD-ROM (Read Only Memory), CD-R, CD-R / W, DVD (Digital Versatile Disc), and semiconductor memory (for example, mask ROM, PROM (Programmable)).
  • ROM Read Only Memory
  • CD-R Compact Only Memory
  • CD-R Compact Disc
  • CD-R / W Compact Disc
  • DVD Digital Versatile Disc
  • semiconductor memory for example, mask ROM, PROM (Programmable)
  • ROM EPROM (ErasablePROM), flash ROM, RAM (RandomAccessMemory)).
  • the program may also be supplied to the computer by various types of temporary computer readable medium.
  • temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the face recognition device is, for example, from the face feature information (set of feature points) of the inspection target person TG extracted from the captured image of the photographing device 400 and the registered image of each person registered in the face information DB 200. Face recognition is performed by collating the extracted face feature information of each person.
  • the face recognition device has a predetermined value of matching degree between the face feature information of the inspection target person TG extracted from the captured image and the face feature information of a certain person extracted from the registered image of the face information DB 200. In the above case, it is determined that the person is likely to be the same person as the person to be inspected TG. A person who is determined to have a high possibility of being the same person as the person to be inspected TG is used in the collation device 100a as a candidate person RF.
  • the collation device has the photographed image of the inspection target person TG and the mark MK indicating the visible feature point P2 of the candidate person RF identified from the registered image of the candidate person RF.
  • the collating device (more specifically, the display control unit) may be configured so that the mark MK can be partially displayed by a wipe operation, or the transparency of the mark MK may be changed.
  • the collation device may display the registered image of the candidate person RF in addition to the photographed image of the inspection target person TG and the mark MK on the display device.
  • the collation device may be configured so that the registered images of the mark MK and the candidate person RF can be partially displayed by a wipe operation, or the transparency of the registered images of the mark MK and the candidate person RF can be changed. It may have been done.
  • the collation device (more specifically, the display control unit) according to the first and second embodiments is formed in a region (that is, a hidden region) of the face region of the inspection subject TG that is not displayed in the captured image.
  • the mark MK indicating the feature point P2 may be displayable.
  • the mark MK indicating the feature point P2 formed in the face region that is not displayed in the captured image is displayed in a display format different from that of the other mark MKs. Thereby, it can be used as a reference when further extracting the candidate person RF from the face information DB.
  • Appendix 1 A plurality of designated first feature points in the face area of the person to be inspected extracted from the photographed image of the person to be inspected, and the face area of the person extracted from the image data of the person registered in the database. Adjustment to adjust the positional relationship between the photographed image of the inspection target person and the registered image of the person generated based on the image data by collating the plurality of first feature points specified in Means and A display control means for superimposing the photographed image of the person to be inspected and a mark indicating a visible second feature point identified from the registered image of the person and displaying the image on the display device.
  • the adjusting means includes the plurality of designated first feature points in the face area of the person to be inspected extracted from the captured image, and the designated points in the face area of the person extracted from the three-dimensional data. It is configured to collate a plurality of first feature points and generate the registered image in which the orientation of the face of the person is adjusted based on the collation result.
  • the collation device according to Appendix 1.
  • the adjusting means includes the plurality of designated first feature points in the face area of the person to be inspected extracted from the captured image, and the designated points in the face area of the person extracted from the three-dimensional data. It is configured to generate the registered image in which the orientation of the face of the person is adjusted so that the plurality of first feature points coincide with each other.
  • the collation device according to Appendix 2.
  • the second feature point is different from the first feature point.
  • the collation device according to any one of Supplementary note 1 to 3.
  • the second feature is at least one of moles, wrinkles, blemishes, freckles, dimples, warts, scratches, and tattoos.
  • the collation device according to any one of Appendix 1 to 4.
  • the second feature point includes the contour of the facial region and the shape of the nose muscle.
  • the collation device according to any one of Supplementary note 1 to 5.
  • the display control means displays the mark in a display format according to the type of the second feature point.
  • the collation device according to any one of Supplementary note 1 to 6.
  • the display control means is configured to be able to partially display the mark by a wipe operation.
  • the collation device according to any one of Supplementary note 1 to 7.
  • the display control means is configured so that the transparency of the mark can be changed.
  • the collation device according to any one of Supplementary note 1 to 8.
  • the display control means is configured to be able to display the mark indicating the second feature point formed in a region of the face region of the inspection target person that is not displayed in the captured image.
  • the collation device according to any one of Supplementary note 1 to 9.
  • the display control means is configured to be capable of superimposing and displaying the photographed image of the person to be inspected and the registered image of the person in addition to the mark.
  • the collation device according to any one of Appendix 1 to 10.
  • the display control means is configured to be able to partially display the mark and the registered image of the person by a wipe operation.
  • the display control means is configured so that the transparency of each of the mark and the registered image of the person can be changed by a wipe operation.
  • the collation device according to Appendix 11.
  • the display device is further provided.
  • the collation device according to any one of Supplementary note 1 to 14.
  • Appendix 16 An imaging device that photographs the facial area of the person to be inspected, and The collation device described in Appendix 1 and A matching system with.
  • (Appendix 17) A plurality of designated first feature points in the face area of the person to be inspected extracted from the photographed image of the person to be inspected, and the face area of the person extracted from the image data of the person registered in the database. Adjustment to adjust the positional relationship between the photographed image of the inspection target person and the registered image of the person generated based on the image data by collating the plurality of first feature points specified in Steps and A display control step in which the photographed image of the person to be inspected and a mark indicating a visible second feature point identified from the registered image of the person are superimposed and displayed on the display device. A matching method with.
  • Appendix 19 A plurality of designated first feature points in the face area of the person to be inspected extracted from the photographed image of the person to be inspected, and the face area of the person extracted from the image data of the person registered in the database. Adjustment to adjust the positional relationship between the photographed image of the inspection target person and the registered image of the person generated based on the image data by collating the plurality of first feature points specified in Processing and A display control process in which the photographed image of the person to be inspected and a mark indicating a visible second feature point identified from the registered image of the person are superimposed and displayed on the display device.
  • Appendix 20 Three-dimensional data including the three-dimensional shape of the face region of the person and the developed image are registered in the database as the image data.
  • the plurality of designated first feature points in the face area of the person to be inspected extracted from the captured image and the designated points in the face area of the person extracted from the three-dimensional data. It is configured to collate a plurality of first feature points and generate the registered image in which the orientation of the face of the person is adjusted based on the collation result.
  • Collation device 100a Collation device 110 Control unit 111 Adjustment unit 112 Display control unit 113 Captured image acquisition unit 114 Registered image acquisition unit 120 Storage unit 130 Memory 140 Communication unit 150 Display unit 200 Face information DB 300 Face registration terminal 310 Imaging unit 320 Storage unit 330 Communication unit 340 Control unit 341 Imaging control unit 342 Registration request unit 400 Imaging device 410 Imaging unit 420 Storage unit 430 Communication unit 440 Control unit 441 Imaging control unit 500 Network 600 Verification system MK mark P1 feature point P2 feature point RF candidate person TG inspection target person

Abstract

一実施の形態によれば、表示装置(100)は、検査対象者が撮影された撮影画像から抽出された検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された人物の顔領域における指定された複数の第1特徴点と、を照合して、検査対象者の撮影画像と、画像データに基づいて生成される人物の登録画像と、の位置関係を調整する調整手段(111)と、検査対象者の撮影画像と、人物の登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御手段(112)と、を備える。

Description

照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体
 本発明は、照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体に関する。
 特許文献1には、データベースに登録された多数の人物と、照合元画像に写った人物と、の照合を行うシステムが開示されている。このシステムには、データベースに登録された多数の人物のうち候補となる人物の顔画像と、照合元画像に写った人物の顔画像と、を重畳して整合性チェック用の合成画像を生成し、その合成画像をウィンドウに表示させる機能が設けられている。
特開2001-273496号公報
 特許文献1に開示されたシステムでは、データベースに登録された多数の人物のうち候補となる人物の顔画像と、照合元画像に写った人物の顔画像と、が重畳して表示されるに過ぎず、データベースに登録された候補の人物と、照合元画像に写った人物と、が同一人物であるか否かを正確に判定するには不十分であった。即ち、特許文献1に開示されたシステムでは、検査対象者が特定の人物に該当するか否かの視覚的な判断が依然として困難である、という課題があった。
 本開示は、このような課題を解決するためになされたものであり、検査対象者が特定の人物に該当するか否かの視覚的な判断を容易にすることが可能な、照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体を提供することを目的とする。
 本開示にかかる照合装置は、検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整手段と、前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御手段と、を備える。
 本開示にかかる照合方法は、検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整ステップと、前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御ステップと、を備える。
 本開示にかかる非一時的なコンピュータ可読媒体は、検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整処理と、前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御処理と、を実行させる照合プログラムが格納されている。
 本開示により、検査対象者が特定の人物に該当するか否かの視覚的な判断を容易にすることが可能な、照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体を提供することができる。
実施の形態1にかかる照合装置の構成例を示すブロック図である。 図1に示す照合装置の動作を示すフローチャートである。 図1に示す照合装置による照合処理について説明するための概念図である。 複数の特徴点P1の一例を示す図である。 実施の形態2にかかる照合システムの構成例を示すブロック図である。 図5に示す照合システムに設けられた撮影装置の構成例を示すブロック図である。 図5に示す照合システムに設けられた顔登録端末の構成例を示すブロック図である。 図5に示す照合システムに設けられた顔情報DBにおける顔情報登録処理の流れを示すフローチャートである。 図5に示す照合システムに設けられた照合装置の構成例を示すブロック図である。 図9に示す照合装置の動作を示すフローチャートである。 図9に示す照合装置による照合処理について説明するための概念図である。 複数の特徴点P1の一例を示す図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<実施の形態1>
 図1は、実施の形態1にかかる照合装置100の構成例を示すブロック図である。
 照合装置100は、検査対象者TGの撮影画像と、検査対象者TGと同一人物の可能性が高いとしてデータベースから抽出された候補人物RFの登録画像、から特定される視認可能な特徴点(ほくろ等)を示すマークMKと、を重畳して表示装置に表示させる。それにより、検査対象者TGが特定の人物(本例では候補人物RF)に該当する否かの視覚的な判断が容易になる。以下、具体的に説明する。
 図1に示すように、照合装置100は、調整部111と、表示制御部112と、を備える。なお、照合装置100は、ネットワーク500(不図示)に接続されている。ネットワーク500は、有線であっても無線であってもよい。ネットワーク500には、図示しない顔情報DB(DataBase)及び撮影装置が接続されている(何れも不図示)。
 顔情報DBには、複数の人物の顔領域の画像データが登録されている。具体的には、顔情報DBには、人物ごとに、人物ID(ユーザID)及びその人物の顔領域の画像データが対応付けられて登録されている。顔情報DBに登録されている人物は、例えば、犯罪歴のある人物や、捜査中の人物などである。
 本実施の形態では、顔情報DBに登録された各人物の画像データが、正面を向いた顔領域を含む二次元データであり、かつ、撮影装置によって撮影された検査対象者TGの撮影画像が、正面を向いた顔領域を含む二次元データの場合を説明するが、これに限られない。詳しくは後述するが、顔情報DBに登録されている各人物の画像データは、顔領域の立体形状及び展開画像を含む三次元データであっても良い。その場合、撮影装置によって撮影された検査対象者TGの撮影画像は、任意の方向を向いた顔領域を含む二次元データであって良い。
 調整部111は、撮影装置によって撮影された検査対象者TGの撮影画像と、検査対象者TGと同一人物の可能性が高いとして顔情報DBから抽出された人物(候補人物)RFの画像データから生成される当該候補人物RFの登録画像と、の位置関係を調整する。なお、顔情報DBに登録されている各人物の画像データが上述のように二次元データである場合、顔情報DBから抽出された候補人物RFの画像データは、候補人物RFの登録画像ということができる。また、本実施の形態では、候補人物RFの登録画像の抽出が、ユーザの選択によって行われる場合を例に説明するが、顔認証装置を用いて自動的に行われても良い。
 例えば、調整部111は、まず、撮影画像から抽出された検査対象者TGの顔領域における指定された複数の特徴点(第1特徴点)P1と、登録画像から抽出された候補人物RFの顔領域における指定された複数の特徴点(第1特徴点)P1と、を照合する。
 なお、特徴点P1は、人物の顔の向きを特定するために共通に用いられる顔領域の部位であって、一例として、鼻根点、鼻尖点、口裂正中点、右目上中心点、左目上中心点、右耳朶点、左耳朶点などである。
 そして、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における複数の特徴点P1と、登録画像から抽出された候補人物RFの顔領域における複数の特徴点P1と、がそれぞれ一致するように候補人物RFの登録画像の位置を調整する。
 なお、登録画像に写る候補人物RFの位置の調整に伴って、当該候補人物RFの顔領域において特定される視認可能な特徴点P2の位置も調整される。ここで、視認可能な特徴点P2は、候補人物RFの顔領域に形成された当該候補人物RFに特有の部分であって、例えば、ほくろ、しわ、しみ、そばかす、えくぼ、いぼ、傷、及び、刺青などである。特徴点P2は、位置関係の調整に用いられる特徴点P1に含まれる必要はない。
 調整部111による位置調整の際に用いられる各人物の顔領域における特徴部分P1は、必ずしも人間にとって視覚的に確認しやすいものとは限られない。そこで、人間にとって視覚的に確認しやすい特徴部分P2を後述する強調表示の対象とすることにより、検査対象者TGが特定の人物であるか否かの判断をしやすくしている。
 また、特徴点P2の種類や位置は、候補人物RFの登録画像(二次元データ)と関連付けて顔情報DB200に登録されても良いが、これに限定されない。特徴点P2の種類や位置は、候補人物RFの登録画像(二次元データ)を基にして、任意のタイミングで取得されるものであっても良い。
 表示制御部112は、検査対象者TGの撮影画像と、調整後の候補人物RFの登録画像から特定される視認可能な特徴点P2を示すマークMKと、を重畳して表示装置に表示させる。
 なお、マークMKは、特徴点P2を強調できれば良く、例えば、特徴点P2を囲む点線状のものや、赤色などの強調色が用いられた特徴点P2の形状及び模様状のものが用いられる。さらに、マークMKは、特徴点P2の種類に応じた表示形式(強調内容)のものが用いられても良い。例えば、“ほくろ”の特徴点P2に対しては、赤色のマークMKが用いられ、“しわ”の特徴点P2に対しては、青色のマークMKが用いられても良い。複数のある特徴点P2のうち、何れの特徴点P2が強調されているのかを視覚的に確認することがさらに容易になる。
 図2は、照合装置100の動作を示すフローチャートである。
 図3は、照合装置100の照合処理について説明するための概念図である。
 まず、調整部111は、撮影装置によって撮影された検査対象者TGの撮影画像と、顔情報DBから抽出された候補人物RFの画像データから生成される当該候補人物RFの登録画像と、の位置関係を調整する(ステップS101)。なお、顔情報DBに登録されている各人物の画像データが上述のように二次元データである場合、顔情報DBから抽出された候補人物RFの画像データは、候補人物RFの登録画像ということができる。
 例えば、調整部111は、まず、撮影画像から抽出された検査対象者TGの顔領域における指定された複数の特徴点P1と、登録画像から抽出された候補人物RFの顔領域における指定された複数の特徴点P1と、を照合する。
 その後、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における複数の特徴点P1と、登録画像から抽出された候補人物RFの顔領域における複数の特徴点P1と、がそれぞれ一致するように候補人物RFの登録画像の位置を調整する。
 図4は、複数の特徴点P1の一例を示す図である。
 図4を参照すると、例えば、複数の特徴点P1として、鼻根点P1a、鼻尖点P1b、口裂正中点P1c、右目上中心点P1d、左目上中心点P1e、右耳朶点P1f、及び、左耳朶点P1gが指定されている。このとき、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における特徴点P1a~P1gと、登録画像から抽出された候補人物RFの顔領域における特徴点P1a~P1gと、がそれぞれ一致するように候補人物RFの登録画像の位置を調整する。
 その後、表示制御部112は、検査対象者TGの撮影画像と、調整後の候補人物RFの登録画像から特定される視認可能な特徴点P2を示すマークMKと、を重畳して表示装置に表示させる(ステップS102)。
 このように、本実施の形態にかかる照合装置100は、検査対象者TGの撮影画像と、候補人物RFの登録画像から特定される当該候補人物RFの視認可能な特徴点(ほくろ等)P2を示すマークMKと、を重畳して表示装置に表示させる。それにより、検査対象者TGが特定の人物(本例では候補人物RF)に該当する否かの視覚的な判断が容易になる。
 本実施の形態では、顔情報DBが照合装置100の外部に設けられた場合を例に説明したが、これに限られない。顔情報DBは、照合装置100の内部に設けられても良い。
 なお、照合装置100は、図示しない構成として、プロセッサ、メモリ及び記憶装置を備える。また、前記記憶装置には、本実施の形態にかかる案内方法の処理が実装されたコンピュータプログラムが記憶されている。そして、前記プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、前記コンピュータプログラムを実行する。それにより、前記プロセッサは、調整部111及び表示制御部112のそれぞれの機能を実現する。
 または、調整部111及び表示制御部112は、それぞれが専用のハードウェアによって実現されてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ、及び、これらの組み合せによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続された複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)等を用いることができる。
 また、照合装置100の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、照合装置100の機能がSaaS(Software as a Service)形式で提供されてもよい。
<実施の形態2>
 図5は、実施の形態2にかかる照合システム600の構成例を示すブロック図である。照合システム600は、例えば、犯罪歴のある人物や捜査中の人物の特定などに好適に用いられる。
 図5に示すように、照合システム600は、照合装置100の具体例である照合装置100aと、顔情報DB200と、顔登録端末300と、撮影装置400と、ネットワーク500と、を備える。照合装置100a、顔情報DB200、顔登録端末300、及び、撮影装置400のそれぞれは、ネットワーク500を介して接続されている。
(撮影装置400の詳細)
 図6は、撮影装置400の構成例を示すブロック図である。
 図6に示すように、撮影装置400は、撮影部410と、記憶部420と、通信部430と、制御部440と、を備える。
 撮影部410は、例えば監視カメラであって、検査対象者TGの顔画像を撮影する。記憶部420は、撮影装置400の各機能を実現するためのプログラムが格納される記憶装置である。通信部430は、ネットワーク500との通信インターフェースである。制御部440は、撮影装置400が有するハードウェアの制御を行う。具体的には、制御部440は、撮影制御部441を有する。
 撮影制御部441は、撮影部410を用いて検査対象者TGの顔画像を撮影する。なお、撮影部410によって撮影される検査対象者TGの顔領域は、正面を向いている必要は無く、任意の方向を向いていて良い。そして、撮影制御部441は、撮影部410によって撮影された検査対象者TGの撮影画像をネットワーク500を介して照合装置100aに送信する。
(顔登録端末300の詳細)
 図7は、顔登録端末300の構成例を示すブロック図である。
 図7に示すように、顔登録端末300は、撮影部310と、記憶部320と、通信部330と、制御部340と、を備える。
 撮影部310は、犯罪歴のある人物や捜査中の人物を含む任意の人物の顔画像を撮影する。記憶部320は、顔登録端末300の各機能を実現するためのプログラムが格納される記憶装置である。通信部330は、ネットワーク500との通信インターフェースである。制御部340は、顔登録端末300が有するハードウェアの制御を行う。具体的には、制御部340は、撮影制御部341と、登録要求部342と、を有する。
 撮影制御部341は、撮影部310を用いて任意の人物の顔画像を撮影する。ここで、撮影制御部341は、例えば、撮影部310を用いて各人物の顔領域を複数の角度から撮影する。それにより、各人物の顔領域の立体形状及び展開画像を含む三次元データの取得が可能となる。なお、撮影部の構成及び三次元データの取得方法は、上記に限定されない。例えば、ステレオカメラや深度センサを用いることによって、人物の顔領域の立体形状及び展開顔画像を含む三次元データの取得を行ってもよい。
 登録要求部342は、三次元の画像データを含む顔情報登録要求を、ネットワーク500を介して顔情報DB200に送信する。その後、登録要求部342は、登録の結果を、顔情報DB200から受信する。
(顔情報DB200の詳細)
 顔情報DB200には、各人物の顔領域を含む画像データが登録されている。具体的には、顔情報DB200には、人物ごとに、人物ID(ユーザID)及びその人物の画像データ(本例では三次元データ)が対応付けられて登録されている。顔情報DB200に登録されている人物は、例えば、犯罪歴のある人物や、捜査中の人物などである。
 図8は、顔情報DB200における顔情報登録処理の流れを示すフローチャートである。図8に示すように、まず、顔情報DB200は、顔登録端末300からの顔情報登録要求に含まれる画像データを取得する(ステップS201)。その後、顔情報DB200は、人物ID(ユーザID)を発行し、その人物IDと画像データとを対応付けて登録する(ステップS202)。
(照合装置100aの詳細)
 図9は、照合装置100aの構成例を示すブロック図である。
 図9に示すように、照合装置100aは、例えばコンピュータによって実現されるサーバ装置であって、制御部110と、記憶部120と、メモリ130と、通信部140と、表示部150と、を備える。
 記憶部120は、照合装置100aの各機能を実現するためのプログラムが格納される記憶装置である。メモリ130は、制御部110の処理内容を一時的に記憶する記憶領域であって、例えば、RAM等の揮発性記憶装置である。通信部140は、ネットワーク500との通信インターフェースである。表示部150は、モニタ等の表示装置である。制御部110は、照合装置100aの動作を制御する制御装置であって、例えば、CPU等のプロセッサである。制御部110は、記憶部120から読み出したプログラムをメモリ130に読み込ませて実行する。それにより、制御部110は、調整部111、表示制御部112、撮影画像取得部113、及び、登録画像取得部114のそれぞれの機能を実現する。
 撮影画像取得部113は、撮影装置400の撮影部410によって撮影された検査対象者TGの撮影画像を、ネットワーク500を介して取得する。なお、撮影画像取得部113によって取得された検査対象者TGの撮影画像は、任意の方向を向いた顔領域を含む二次元データである。
 登録画像取得部114は、検査対象者TGと同一人物の可能性が高いとして顔情報DB200から抽出された候補人物RFの画像データを、ネットワーク500を介して取得する。なお、登録画像取得部114によって取得された画像データは、候補人物RFの顔領域の立体形状及び展開画像を含む三次元データである。本実施の形態では、候補人物RFの登録画像の抽出が、ユーザの選択によって行われる場合を例に説明するが、顔認証装置を用いて自動的に行われても良い。
 調整部111は、撮影画像取得部113によって取得された検査対象者TGの撮影画像と、登録画像取得部114によって取得された候補人物RFの画像データ(三次元データ)に基づいて生成される候補人物RFの登録画像と、の位置関係を調整する。
 例えば、調整部111は、まず、撮影画像から抽出された検査対象者TGの顔領域における指定された複数の特徴点P1と、画像データの立体形状から抽出された候補人物RFの顔領域における指定された複数の特徴点P1と、を照合する。
 なお、特徴点P1は、人物の顔の向きを特定するために共通に用いられる顔領域の部位であって、一例として、鼻根点、鼻尖点、口裂正中点、右目上中心点、左目上中心点、右耳朶点、左耳朶点などである。
 そして、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における複数の特徴点P1と、立体形状から抽出された候補人物RFの顔領域における複数の特徴点P1と、がそれぞれ一致するように候補人物RFの立体形状の向き(位置)を調整する。それにより、撮影画像に写る検査対象者TGと同じ方向を向いた候補人物RFの登録画像(二次元データ)が生成される。
 なお、登録画像に写る候補人物RFの顔の向きの調整に伴って、当該候補人物RFの顔領域において特定される視認可能な特徴点P2の位置も調整される。ここで、視認可能な特徴点P2は、候補人物RFの顔領域に形成された当該候補人物RFに特有の部分であって、例えば、ほくろ、しわ、しみ、そばかす、えくぼ、いぼ、傷、及び、刺青などである。特徴点P2は、位置関係の調整に用いられる特徴点P1に含まれる必要はない。
 調整部111による位置調整の際に用いられる各人物の顔領域における特徴部分P1は、必ずしも人間にとって視覚的に確認しやすいものとは限られない。そこで、人間にとって視覚的に確認しやすい特徴部分P2を後述する強調表示の対象とすることにより、検査対象者TGが特定の人物であるか否かの判断をしやすくしている。
 また、特徴点P2の種類や位置は、候補人物RFの三次元データと関連付けて顔情報DB200に登録されても良いが、これに限定されない。特徴点P2の種類や位置は、候補人物RFの三次元データを基にして、任意のタイミングで取得されるものであっても良い。
 表示制御部112は、検査対象者TGの撮影画像と、顔の向きが調整された候補人物RFの登録画像から特定される視認可能な特徴点P2を示すマークMKと、を重畳して表示部150に表示させる。
 なお、マークMKは、特徴点P2を強調できれば良く、例えば、特徴点P2を囲む点線状のものや、赤色などの強調色が用いられた特徴点P2の形状及び模様状のものを用いる。また、マークMKは、特徴点P2の種類に応じた表示形式(強調内容)のものを用いてもよい。例えば、“ほくろ”の特徴点P2に対しては、赤色のマークMKが用いられ、“しわ”の特徴点P2に対しては、青色のマークMKが用いられても良い。複数のある特徴点P2のうち、何れの特徴点P2が強調されているのかを視覚的に確認することがさらに容易になる。
 図10は、照合装置100aの動作を示すフローチャートである。
 図11は、照合装置100aの照合処理について説明するための概念図である。
 まず、撮影画像取得部113は、撮影装置400の撮影部410によって撮影された検査対象者TGの撮影画像を、ネットワーク500を介して取得する(ステップS301)。なお、撮影画像取得部113によって取得された検査対象者TGの撮影画像は、任意の方向を向いた顔領域を含む二次元データである。
 その後、登録画像取得部114は、検査対象者TGと同一人物の可能性が高いとして顔情報DB200から抽出された候補人物RFの画像データを、ネットワーク500を介して取得する(ステップS302)。なお、登録画像取得部114によって取得された画像データは、候補人物RFの顔領域の立体形状及び展開画像を含む三次元データである。
 その後、調整部111は、撮影画像取得部113により取得された検査対象者TGの撮影画像と、登録画像取得部114により取得された候補人物RFの画像データに基づいて生成される候補人物RFの登録画像と、の位置関係を調整する(ステップS303)。
 例えば、調整部111は、まず、撮影画像から抽出された検査対象者TGの顔領域における指定された複数の特徴点P1と、画像データの立体形状から抽出された候補人物RFの顔領域における指定された複数の特徴点P1と、を照合する。
 その後、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における複数の特徴点P1と、立体形状から抽出された候補人物RFの顔領域における複数の特徴点P1と、がそれぞれ一致するように候補人物RFの立体形状の向き(位置)を調整する。それにより、撮影画像に写る検査対象者TGと同じ方向を向いた候補人物RFの登録画像(二次元データ)が生成される。
 図12は、複数の特徴点P1の一例を示す図である。
 図12を参照すると、例えば、複数の特徴点P1として、鼻根点P1a、鼻尖点P1b、口裂正中点P1c、右目上中心点P1d、左目上中心点P1e、右耳朶点P1f、及び、左耳朶点P1gが指定されている。このとき、調整部111は、撮影画像から抽出された検査対象者TGの顔領域における特徴点P1a~P1gと、立体形状から抽出された候補人物RFの顔領域における特徴点P1a~P1gと、がそれぞれ一致するように候補人物RFの立体形状の向きを調整する。
 その後、表示制御部112は、検査対象者TGの撮影画像と、顔の向きが調整された候補人物RFの登録画像から特定される視認可能な特徴点P2を示すマークMKと、を重畳して表示部150に表示させる(ステップS304)。
 このように、本実施の形態にかかる照合装置100a及び照合システム600は、検査対象者TGの撮影画像と、候補人物RFの登録画像から特定される当該候補人物RFの視認可能な特徴点(ほくろ等)P2を示すマークMKと、を重畳して表示装置に表示させる。それにより、検査対象者TGが特定の人物(本例では候補人物RF)に該当する否かの視覚的な判断が容易になる。
 なお、各人物の顔領域の三次元データを顔情報DB200に登録しておくことにより、照合装置100aは、正面を向いた検査対象者TGの撮影画像に限られず、任意の方向を向いた検査対象者TGの撮影画像を用いて、照合処理を行うことが可能となる。具体的には、照合装置100aは、防犯カメラ等、撮影されていることが意識されないような撮影装置400によって撮影された検査対象者TGの撮影画像を用いて、照合処理を行うことが可能となる。
 本実施の形態では、顔情報DB200が照合装置100aの外部に設けられた場合を例に説明したが、これに限られない。顔情報DB200は、照合装置100aの内部に設けられても良い。
 なお、本開示は、ハードウェアの処理として説明した任意の処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。また、非一時的なコンピュータ可読媒体の例は、CD-ROM(Read Only Memory)、CD-R、CD-R/W、DVD(Digital Versatile Disc)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 なお、本開示は上記実施形態1,2に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 上記実施の形態1,2では、顔情報DBからの候補人物RFの抽出が、ユーザの選択によって行われる場合を例に説明したが、これに限られず、顔認証装置を用いて自動的に行われてもよい。その場合、顔認証装置は、例えば、撮影装置400の撮影画像から抽出された検査対象者TGの顔特徴情報(特徴点の集合)と、顔情報DB200に登録されている各人物の登録画像から抽出された各人物の顔特徴情報と、を照合することで、顔認証を行う。具体的には、顔認証装置は、撮影画像から抽出された検査対象者TGの顔特徴情報と、顔情報DB200の登録画像から抽出されたある人物の顔特徴情報と、の一致度合いが所定値以上の場合、その人物が検査対象者TGと同一人物の可能性が高いと判断する。検査対象者TGと同一人物の可能性が高いと判断された人物は、候補人物RFとして、照合装置100aに用いられる。
 また、上記実施の形態1,2では、照合装置が、検査対象者TGの撮影画像と、候補人物RFの登録画像から特定される当該候補人物RFの視認可能な特徴点P2を示すマークMKと、を重畳して表示装置に表示させる場合を例に説明したが、これに限られない。照合装置(より詳細には表示制御部)は、ワイプ操作によってマークMKを部分的に表示可能に構成されていても良いし、マークMKの透明度を変更可能に構成されていても良い。ワイプ操作によってマークMKを部分的に表示可能にしたり、マークMKの透明度を変更可能にしたりすることで、特徴部P2についての視覚的な確認をさらに容易にすることができる。
 或いは、照合装置は、検査対象者TGの撮影画像、及び、マークMKに加えて、候補人物RFの登録画像をさらに重畳して表示装置に表示させても良い。この場合、照合装置は、ワイプ操作によってマークMK及び候補人物RFの登録画像を部分的に表示可能に構成されていても良いし、マークMK及び候補人物RFの登録画像の透明度を変更可能に構成されていても良い。ワイプ操作によってマークMK及び候補人物RFの登録画像を部分的に表示可能にしたり、マークMK及び候補人物RFの登録画像の透明度を変更可能にしたりすることで、検査対象者TGと候補人物RFとの間の視認可能な差異がより明確になる。
 さらに、上記実施の形態1,2にかかる照合装置(より詳細には表示制御部)は、検査対象者TGの顔領域のうち撮影画像に表示されない領域(即ち、隠れた領域)に形成された特徴点P2(ほくろ等)を示すマークMKを表示可能に構成されていても良い。この場合、撮影画像に表示されない顔領域に形成された特徴点P2を示すマークMKは、それ以外のマークMKとは異なる表示形式で表示されるようにする。それにより、顔情報DBからさらに候補人物RFを抽出する際の参考とすることができる。
 上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整手段と、
 前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御手段と、
 を備えた、照合装置。
(付記2)
 前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
 前記調整手段は、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
 付記1に記載の照合装置。
(付記3)
 前記調整手段は、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、がそれぞれ一致するように前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
 付記2に記載の照合装置。
(付記4)
 前記第2特徴点は、前記第1特徴点とは異なる、
 付記1~3の何れか一項に記載の照合装置。
(付記5)
 前記第2特徴点は、ほくろ、しわ、しみ、そばかす、えくぼ、いぼ、傷、及び、刺青の少なくとも何れかである、
 付記1~4の何れか一項に記載の照合装置。
(付記6)
 前記第2特徴点は、顔領域の輪郭、及び、鼻筋の形状を含む、
 付記1~5の何れか一項に記載の照合装置。
(付記7)
 前記表示制御手段は、前記第2特徴点の種類に応じた表示形式の前記マークを表示させる、
 付記1~6の何れか一項に記載の照合装置。
(付記8)
 前記表示制御手段は、ワイプ操作によって、前記マークを部分的に表示可能に構成されている、
 付記1~7の何れか一項に記載の照合装置。
(付記9)
 前記表示制御手段は、前記マークの透明度を変更可能に構成されている、
 付記1~8の何れか一項に記載の照合装置。
(付記10)
 前記表示制御手段は、前記検査対象者の顔領域のうち前記撮影画像に表示されない領域に形成された前記第2特徴点を示す前記マークを表示可能に構成されている、
 付記1~9の何れか一項に記載の照合装置。
(付記11)
 前記表示制御手段は、前記検査対象者の前記撮影画像、及び、前記マークに加えて、前記人物の前記登録画像を重畳表示可能に構成されている、
 付記1~10の何れか一項に記載の照合装置。
(付記12)
 前記表示制御手段は、ワイプ操作によって、前記マーク及び前記人物の前記登録画像を部分的に表示可能に構成されている、
 付記11に記載の照合装置。
(付記13)
 前記表示制御手段は、ワイプ操作によって、前記マーク及び前記人物の前記登録画像のそれぞれの透明度を変更可能に構成されている、
 付記11に記載の照合装置。
(付記14)
 前記データベースをさらに備えた、
 付記1~13の何れか一項に記載の照合装置。
(付記15)
 前記表示装置をさらに備えた、
 付記1~14の何れか一項に記載の照合装置。
(付記16)
 前記検査対象者の顔領域を撮影する撮影装置と、
 付記1に記載の照合装置と、
 を備えた、照合システム。
(付記17)
 検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整ステップと、
 前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御ステップと、
 を備えた、照合方法。
(付記18)
 前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
 前記調整ステップでは、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
 付記17に記載の照合方法。
(付記19)
 検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整処理と、
 前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御処理と、
 を実行させる照合プログラムが格納された非一時的なコンピュータ可読媒体。
(付記20)
 前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
 前記調整処理では、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
 付記19に記載の照合プログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 100 照合装置
 100a 照合装置
 110 制御部
 111 調整部
 112 表示制御部
 113 撮影画像取得部
 114 登録画像取得部
 120 記憶部
 130 メモリ
 140 通信部
 150 表示部
 200 顔情報DB
 300 顔登録端末
 310 撮影部
 320 記憶部
 330 通信部
 340 制御部
 341 撮影制御部
 342 登録要求部
 400 撮影装置
 410 撮影部
 420 記憶部
 430 通信部
 440 制御部
 441 撮影制御部
 500 ネットワーク
 600 照合システム
 MK マーク
 P1 特徴点
 P2 特徴点
 RF 候補人物
 TG 検査対象者

Claims (20)

  1.  検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整手段と、
     前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御手段と、
     を備えた、照合装置。
  2.  前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
     前記調整手段は、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
     請求項1に記載の照合装置。
  3.  前記調整手段は、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、がそれぞれ一致するように前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
     請求項2に記載の照合装置。
  4.  前記第2特徴点は、前記第1特徴点とは異なる、
     請求項1~3の何れか一項に記載の照合装置。
  5.  前記第2特徴点は、ほくろ、しわ、しみ、そばかす、えくぼ、いぼ、傷、及び、刺青の少なくとも何れかである、
     請求項1~4の何れか一項に記載の照合装置。
  6.  前記第2特徴点は、顔領域の輪郭、及び、鼻筋の形状を含む、
     請求項1~5の何れか一項に記載の照合装置。
  7.  前記表示制御手段は、前記第2特徴点の種類に応じた表示形式の前記マークを表示させる、
     請求項1~6の何れか一項に記載の照合装置。
  8.  前記表示制御手段は、ワイプ操作によって、前記マークを部分的に表示可能に構成されている、
     請求項1~7の何れか一項に記載の照合装置。
  9.  前記表示制御手段は、前記マークの透明度を変更可能に構成されている、
     請求項1~8の何れか一項に記載の照合装置。
  10.  前記表示制御手段は、前記検査対象者の顔領域のうち前記撮影画像に表示されない領域に形成された前記第2特徴点を示す前記マークを表示可能に構成されている、
     請求項1~9の何れか一項に記載の照合装置。
  11.  前記表示制御手段は、前記検査対象者の前記撮影画像、及び、前記マークに加えて、前記人物の前記登録画像を重畳表示可能に構成されている、
     請求項1~10の何れか一項に記載の照合装置。
  12.  前記表示制御手段は、ワイプ操作によって、前記マーク及び前記人物の前記登録画像を部分的に表示可能に構成されている、
     請求項11に記載の照合装置。
  13.  前記表示制御手段は、ワイプ操作によって、前記マーク及び前記人物の前記登録画像のそれぞれの透明度を変更可能に構成されている、
     請求項11に記載の照合装置。
  14.  前記データベースをさらに備えた、
     請求項1~13の何れか一項に記載の照合装置。
  15.  前記表示装置をさらに備えた、
     請求項1~14の何れか一項に記載の照合装置。
  16.  前記検査対象者の顔領域を撮影する撮影装置と、
     請求項1に記載の照合装置と、
     を備えた、照合システム。
  17.  検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整ステップと、
     前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御ステップと、
     を備えた、照合方法。
  18.  前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
     前記調整ステップでは、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
     請求項17に記載の照合方法。
  19.  検査対象者が撮影された撮影画像から抽出された前記検査対象者の顔領域における指定された複数の第1特徴点と、データベースに登録された人物の画像データから抽出された前記人物の顔領域における指定された複数の第1特徴点と、を照合して、前記検査対象者の前記撮影画像と、前記画像データに基づいて生成される前記人物の登録画像と、の位置関係を調整する調整処理と、
     前記検査対象者の前記撮影画像と、前記人物の前記登録画像から特定される視認可能な第2特徴点を示すマークと、を重畳して表示装置に表示させる表示制御処理と、
     を実行させる照合プログラムが格納された非一時的なコンピュータ可読媒体。
  20.  前記データベースには、前記人物の顔領域の立体形状及び展開画像を含む三次元データが前記画像データとして登録され、
     前記調整処理では、前記撮影画像から抽出された前記検査対象者の顔領域における指定された前記複数の第1特徴点と、前記三次元データから抽出される前記人物の顔領域における指定された前記複数の第1特徴点と、を照合したうえで、その照合結果に基づいて前記人物の顔の向きが調整された前記登録画像を生成するように構成されている、
     請求項19に記載の照合プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2020/017150 2020-04-21 2020-04-21 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体 WO2021214857A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20931908.6A EP4141784A4 (en) 2020-04-21 2020-04-21 MAPPING DEVICE, MAPPING SYSTEM, MAPPING METHOD, AND NON-TRANSITORY COMPUTER READABLE MEDIA STORING A MAPPING PROGRAM
PCT/JP2020/017150 WO2021214857A1 (ja) 2020-04-21 2020-04-21 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体
US17/619,719 US20220358787A1 (en) 2020-04-21 2020-04-21 Comparison apparatus, comparison system, comparison method, and non-transitory computer-readable medium storing comparison program
JP2022516505A JP7388544B2 (ja) 2020-04-21 2020-04-21 照合装置、照合方法、及び、照合プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/017150 WO2021214857A1 (ja) 2020-04-21 2020-04-21 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2021214857A1 true WO2021214857A1 (ja) 2021-10-28

Family

ID=78270918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017150 WO2021214857A1 (ja) 2020-04-21 2020-04-21 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体

Country Status (4)

Country Link
US (1) US20220358787A1 (ja)
EP (1) EP4141784A4 (ja)
JP (1) JP7388544B2 (ja)
WO (1) WO2021214857A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043132A1 (ja) * 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273496A (ja) 2000-03-28 2001-10-05 Medeikku Engineering:Kk 人物照合システム
JP2009176208A (ja) * 2008-01-28 2009-08-06 Nec Corp 顔認証装置、システム、方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5385759B2 (ja) * 2009-10-30 2014-01-08 キヤノン株式会社 画像処理装置及び画像処理方法
JPWO2011086803A1 (ja) * 2010-01-12 2013-05-16 日本電気株式会社 画像照合システム、画像照合方法、コンピュータプログラム
AU2013346387A1 (en) * 2012-11-14 2015-07-02 Golan Weiss Biometric methods and systems for enrollment and authentication
US9443307B2 (en) * 2013-09-13 2016-09-13 Intel Corporation Processing of images of a subject individual
JP2015179423A (ja) * 2014-03-19 2015-10-08 キヤノン株式会社 人物登録装置、人物認識装置及びプログラム
US9436892B2 (en) * 2014-05-02 2016-09-06 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Method and apparatus for facial detection using regional similarity distribution analysis
US20160070952A1 (en) * 2014-09-05 2016-03-10 Samsung Electronics Co., Ltd. Method and apparatus for facial recognition
WO2016149944A1 (zh) * 2015-03-26 2016-09-29 北京旷视科技有限公司 用于识别人脸的方法、系统和计算机程序产品
WO2017043132A1 (ja) 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
FR3085217B1 (fr) * 2018-08-23 2021-06-25 Idemia Identity & Security France Procede de determination de pose et d'identification d'une vue tridimensionnelle de visage

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273496A (ja) 2000-03-28 2001-10-05 Medeikku Engineering:Kk 人物照合システム
JP2009176208A (ja) * 2008-01-28 2009-08-06 Nec Corp 顔認証装置、システム、方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4141784A4

Also Published As

Publication number Publication date
EP4141784A1 (en) 2023-03-01
JP7388544B2 (ja) 2023-11-29
US20220358787A1 (en) 2022-11-10
JPWO2021214857A1 (ja) 2021-10-28
EP4141784A4 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
JP7420183B2 (ja) 認証システム
US11006864B2 (en) Face detection device, face detection system, and face detection method
CN110717446B (zh) 检测设备、检测方法和记录介质
CN106572298A (zh) 显示控制装置以及显示控制方法
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP2009245338A (ja) 顔画像照合装置
JP2017017431A (ja) 画像処理装置、情報処理方法及びプログラム
CN109690542A (zh) 使用面部识别的用户认证方法以及用于该方法的设备
WO2017187694A1 (ja) 注目領域画像生成装置
JP2014165565A (ja) テレビ会議装置およびシステムおよび方法
WO2021214857A1 (ja) 照合装置、照合システム、照合方法、及び、照合プログラムが格納された非一時的なコンピュータ可読媒体
WO2020065954A1 (ja) 認証装置、認証方法および記憶媒体
JP2009176208A (ja) 顔認証装置、システム、方法及びプログラム
US20240054819A1 (en) Authentication control device, authentication system, authentication control method and non-transitory computer readable medium
CN105993022A (zh) 利用脸部表情识别和认证的方法和系统
JP2020181305A (ja) 生体判別装置及び生体判別方法、並びに個人認証方法
JP6446676B1 (ja) 本人認証システム、方法およびプログラム
JP2008059108A (ja) 画像処理装置,画像処理方法、そのプログラムおよび人流監視システム
JP2001215109A (ja) 虹彩画像入力装置
TWI578263B (zh) Hospital visit guide device
US20230141541A1 (en) Authentication control apparatus, authentication system, authentication control method, and storage medium
CN108875472A (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
US20230106309A1 (en) Photographing control device, system, method, and non-transitory computer-readable medium storing program
JPWO2021214857A5 (ja) 照合装置、照合方法、及び、照合プログラム
WO2022215248A1 (ja) 当人認証支援、当人認証支援方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20931908

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022516505

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020931908

Country of ref document: EP

Effective date: 20221121