WO2023181110A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2023181110A1
WO2023181110A1 PCT/JP2022/013118 JP2022013118W WO2023181110A1 WO 2023181110 A1 WO2023181110 A1 WO 2023181110A1 JP 2022013118 W JP2022013118 W JP 2022013118W WO 2023181110 A1 WO2023181110 A1 WO 2023181110A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
authentication
image
information processing
unit
Prior art date
Application number
PCT/JP2022/013118
Other languages
English (en)
French (fr)
Inventor
祐太 駒村
Original Assignee
日本電気株式会社
Necプラットフォームズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, Necプラットフォームズ株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/013118 priority Critical patent/WO2023181110A1/ja
Publication of WO2023181110A1 publication Critical patent/WO2023181110A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Definitions

  • This disclosure relates to an information processing device, an information processing method, and a recording medium.
  • Patent Document 1 describes an authentication system that authenticates a target person using a facial image generated by capturing an image of the target person's face.
  • the purpose of this disclosure is to provide an information processing device, an information processing method, and a recording medium that can acquire biometric images suitable for biometric authentication.
  • an imaging unit that images a target and generates a captured image
  • a drive unit that changes an imaging angle of the imaging unit
  • An information processing device includes an estimation unit that estimates height information of a predetermined region.
  • the steps include: imaging a target using an imaging device to generate a captured image; changing an imaging angle of the imaging device; and changing the imaging angle between the captured image and the imaging angle.
  • An information processing method comprising: estimating height information of a predetermined part of the target based on the height information of the predetermined part of the target.
  • the steps include: imaging a target using an imaging device to generate a captured image; changing an imaging angle of the imaging device; and changing the imaging angle between the captured image and the imaging angle.
  • a recording medium is provided in which a program for executing the step of estimating height information of the predetermined part of the target based on the above-described method is recorded.
  • FIG. 1 is a block diagram showing an example of the overall configuration of an authentication system according to a first embodiment.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the authentication device according to the first embodiment.
  • FIG. 1 is a front view showing the appearance of the authentication device according to the first embodiment.
  • FIG. 2 is a perspective view illustrating the internal structure of the authentication device according to the first embodiment. It is a flowchart showing an outline of processing executed by the authentication system according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating an imaging angle and an imaging range of a camera in the authentication device according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a captured image according to the first embodiment.
  • FIG. 1 is a block diagram showing an example of the overall configuration of an authentication system according to a first embodiment.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the authentication device according to the first embodiment.
  • FIG. 1 is a front view showing the appearance of the authentication device according to
  • FIG. 2 is a schematic diagram illustrating an imaging angle and an imaging range of a camera in the authentication device according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a captured image according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating an imaging angle and an imaging range of a camera in the authentication device according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a captured image according to the first embodiment.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of an authentication device according to a second embodiment.
  • FIG. 7 is a schematic diagram illustrating an imaging angle and an imaging range of an authentication device according to a second embodiment.
  • FIG. 7 is a schematic diagram illustrating an imaging angle and an imaging range of an authentication device according to a second embodiment.
  • FIG. 3 is a block diagram illustrating an example of the hardware configuration of an authentication device according to a third embodiment.
  • FIG. 7 is a schematic diagram illustrating an imaging angle and an imaging range of an authentication device according to a third embodiment.
  • FIG. 7 is a schematic diagram illustrating an imaging angle and an imaging range of an authentication device according to a third embodiment. It is a flow chart showing an outline of processing performed by an authentication system concerning a 4th embodiment. It is a flow chart showing an outline of processing performed by an authentication system concerning a 5th embodiment. It is a flowchart showing an outline of processing executed by an authentication system according to a sixth embodiment.
  • FIG. 7 is a functional block diagram showing the overall configuration of an information processing device according to a seventh embodiment.
  • FIG. 1 is a block diagram showing an example of the overall configuration of an authentication system 1 according to the first embodiment.
  • the authentication system 1 performs biometric authentication by acquiring biometric information of a person to be authenticated (hereinafter also referred to as an authentication target person) and comparing the biometric information with registered biometric information registered in advance. In addition to biometric authentication, the authentication system 1 also performs person authentication based on the person's height information estimated from the captured image. The authentication system 1 performs two-factor authentication. Note that the term "object” includes not only people but also animals such as dogs and snakes, plants, robots, and the like. In the case of objects other than living things, such as robots, for example, the phrase "biological information" may be replaced with "appearance information.”
  • height information mainly means the height of a person, but is not limited to this.
  • the phrase "height information" is used to include, for example, the height from the ground to the position of a predetermined part of a person (eyes, nose, ears, mouth, etc.), but is not limited thereto.
  • the height information includes not only the distance from the ground but also the length from the target's feet to a predetermined part (eyes, nose, ears, mouth, etc.).
  • the predetermined parts to be estimated for height information are eyes, nose, ears, mouth, chin, etc. In this case, there is an advantage that the position of the predetermined region can be easily calculated from the face image.
  • the authentication system 1 is applied to, for example, identity verification for entering and leaving the country at airports, identity verification at administrative agencies, identity verification for entering and exiting factories and business offices, identity verification for entering and exiting at event venues, etc. obtain.
  • the authentication system 1 includes an authentication device 10, an authentication server 20, and a gate device 30. Each device is connected to networks NW1 and NW2 such as a LAN (Local Area Network) or the Internet.
  • NW1 and NW2 such as a LAN (Local Area Network) or the Internet.
  • the authentication device 10 captures an image of the person to be authenticated in a predetermined area, and outputs the captured image to the authentication server 20.
  • predetermined area means a three-dimensional space in a predetermined range located in front of the authentication device 10.
  • the authentication server 20 is a computer that performs biometric authentication, and includes an authentication engine 21 and a database 22.
  • the authentication engine 21 executes a process of matching the biometric information (or feature amount) of the authentication subject imaged by the authentication device 10 with the registered biometric information (or feature amount) of the registrant registered in advance in the database 22. , performs facial recognition of the person to be authenticated based on the matching results.
  • the database 22 is a storage device that stores various information such as a registrant's biometric image, height information, and attribute information in association with the registrant ID.
  • the registrant's biometric information and height information are registered in advance in the database 22 based on the registrant's request.
  • a person who wishes to use the authentication system 1 stands in front of a registration terminal (not shown) that has the same functions as the authentication device 10, and operates the terminal to capture an image of his or her face.
  • the captured facial image is registered in the database 22 as a registered biometric image.
  • the registration terminal calculates height information based on the captured image of the person, the imaging angle of the camera 107, and the distance to the person using a height information estimation method described later.
  • the calculated height information is registered in the database 22 as registered height information.
  • the gate device 30 is a traffic control device that opens and closes a gate (not shown) based on control information from the authentication device 10 and controls the passage of people.
  • the gate device 30 shifts from the closed state during standby, which blocks the passage of the person, to the open state, which allows the passage of the person.
  • the type of gate is not particularly limited, and examples thereof include a flapper gate in which a flapper provided on one or both sides of the passage opens and closes, a turnstile gate in which three bars rotate, and the like.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the authentication device 10 according to the first embodiment.
  • the authentication device 10 includes a processor 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, a storage 104, a communication I/F (Interface) 105, a display 106, and a camera as a computer that performs calculation, control, and storage. 107, a distance sensor 108, a motor 109, and a lighting device 110.
  • the devices are connected to each other via a bus, wiring, drive device, etc. (not shown).
  • the processor 101 has a function of performing predetermined calculations according to programs stored in the ROM 103, storage 104, etc., and controlling each part of the authentication device 10. Further, as the processor 101, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), a DSP (Digital ASIC (Application Specific Integrated Circuit), etc. are used. Further, one of the above-mentioned examples may be used, or a plurality of them may be used in parallel.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field Programmable Gate Array
  • DSP Digital ASIC (Application Specific Integrated Circuit), etc.
  • the RAM 102 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the processor 101.
  • the RAM 102 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 103 is composed of a non-volatile storage medium and stores necessary information such as programs used for the operation of the authentication device 10.
  • the ROM 103 may be, for example, a P-ROM (Programmable ROM).
  • the storage 104 is composed of a nonvolatile storage medium, and stores data, programs for operating the authentication device 10, and the like.
  • the storage 104 is configured by, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the communication I/F 105 is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), 4G, or 5G, and is a module for communicating with other devices.
  • the processor 101 loads programs stored in the ROM 103, storage 104, etc. into the RAM 102 and executes them.
  • the display 106 is a display device that displays moving images, still images, characters, etc.
  • the display 106 displays, for example, guidance information regarding authentication and authentication results.
  • a liquid crystal display, an organic light emitting diode (OLED) display, or the like is used as the display 106.
  • the camera 107 is an imaging device that captures an image of a subject by receiving light incident from the subject via an optical system with a light receiving element.
  • the camera 107 of the first embodiment captures an image of the person to be authenticated who is present in a predetermined area in front of the device.
  • a digital camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge Coupled Device) image sensor, etc. is used so as to be suitable for image processing in the authentication device 10.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the distance sensor 108 is a measuring device that measures the distance from the camera 107 to the person to be authenticated.
  • the distance sensor 108 may be capable of optically measuring the distance from the camera 107 to the person to be authenticated.
  • Examples of the distance sensor 108 that can optically measure distance include a TOF (Time of Flight) sensor, a triangulation sensor, and a LiDAR (Light Detection and Ranging) sensor.
  • a proximity sensor that detects the proximity of an object without contact can also be used as the distance sensor 108.
  • the motor 109 is a drive device that drives an object connected to a rotating shaft.
  • a camera 107 is connected to a rotating shaft of a motor 109.
  • the camera 107 does not need to be directly connected to the rotating shaft of the motor 109.
  • the camera 107 may be indirectly connected to a rotating shaft via a gear, a belt, or the like, and may be driven by the motor 109.
  • the illumination device 110 is a light source that emits illumination light forward.
  • the timing of illumination light irradiation in the illumination device 110 is synchronized with the timing of image capturing in the camera 107.
  • FIG. 2 the hardware configuration shown in FIG. 2 is an example, and devices other than these may be added, or some devices may not be provided. Further, some of the devices may be replaced with other devices having similar functions. Further, some of the functions of the first embodiment may be provided by other devices via a network, and the functions of the first embodiment may be distributed and realized by a plurality of devices.
  • the illustrated hardware configuration can be modified as appropriate.
  • FIG. 3 is a front view showing the appearance of the authentication device 10 according to the first embodiment.
  • the positional relationship of the components constituting the authentication device 10 will be explained using a three-dimensional coordinate system composed of an X axis, a Y axis, and a Z axis that are orthogonal to each other.
  • the X-axis and Y-axis are axes in the horizontal plane.
  • the X-axis and Y-axis are orthogonal to each other.
  • the Z axis is an axis perpendicular to the horizontal plane.
  • a display 106, a distance sensor 108, and a camera 107 are arranged in order from the top along the center line of the authentication device 10. Furthermore, a pair of illumination devices 110 are arranged on both sides of the camera 107. The center point of the light receiving area of the camera 107 is located at a height H from the ground Gr in the vertical direction.
  • FIG. 4 is a perspective view illustrating the internal structure of the authentication device 10 according to the first embodiment.
  • the camera 107 and the motor 109 are placed inside the case 112. Since the camera 107 is connected to the rotation axis A of the motor 109, it rotates together with the rotation axis A.
  • the rotation axis A extends in the X-axis direction. By rotating around the rotation axis A, the optical axis Ax of the camera 107 changes up and down.
  • the imaging angle of the camera 107 means the angle of the optical axis Ax with respect to the horizontal plane.
  • the camera 107 rotates about the rotation axis A in the direction of the arrow UP or the arrow DW.
  • the imaging range of the camera 107 moves upward.
  • the imaging range of the camera 107 moves downward.
  • FIG. 5 is a flowchart outlining the processing executed by the authentication system 1 according to the first embodiment.
  • step S101 the authentication device 10 acquires a captured image of a predetermined area by capturing an image in front of the device with the camera 107.
  • step S102 the authentication device 10 performs human face detection processing on the captured image. Specifically, the authentication device 10 detects an area that matches the shape pattern of a person's face from the captured image.
  • step S103 the authentication device 10 determines whether or not a person's face is detected from the captured image. Here, if the authentication device 10 determines that a person's face has been detected (step S103: YES), the process moves to step S104.
  • step S103 determines that a person's face has not been detected.
  • step S104 the authentication device 10 issues the authentication target ID of the person whose face has been detected.
  • the authentication subject ID is identification information unique to each person.
  • step S105 the authentication device 10 measures the distance in the horizontal direction from the authentication device 10 (camera 107) to the person using the distance sensor 108.
  • step S106 the authentication device 10 calculates the height of the person based on the measured distance and the height of the camera 107 from the ground.
  • Information on the height of the camera 107 is stored in advance in the storage 104, ROM 103, etc., for example.
  • FIG. 6 is a schematic diagram illustrating the imaging angle and imaging range of the camera 107 when imaging the person P1 in the authentication system 1 according to the first embodiment.
  • the camera 107 is arranged so that the optical axis Ax of the camera 107 is horizontal, and the imaging angle is 0 degrees.
  • the imaging range R1 in FIG. 6 includes the face and upper body of the person P1.
  • FIG. 7 shows a captured image IMG-01 captured at the imaging angle shown in FIG.
  • the center point O of the captured image IMG-01 is located below the face detection area F of the person P1.
  • the length L shown in FIG. 6 is calculated from the distance in the image from the center point O to the top of the head T of the person P1.
  • step S107 the authentication device 10 identifies the position of the person's face within the captured image.
  • the position of the center point of the face detection area F of the person P1 is the position of the person's face.
  • step S108 the authentication device 10 drives the camera 107 so that the face of the person identified in step S107 is located at the center of the captured image.
  • step S109 the authentication device 10 captures an image in front of the device using the camera 107 to obtain a captured image including the person's face.
  • step S110 the authentication device 10 extracts a face image of the person from the captured image acquired in step S109, and sends the face image to the authentication server 20.
  • the authentication engine 21 of the authentication server 20 compares the facial image with registered facial images registered in advance in the database 22, and performs facial authentication of the person.
  • the authentication server 20 transmits the authentication result to the authentication device 10.
  • the authentication result includes an authentication score indicating the degree of matching between the person's facial image and the registrant's registered facial image.
  • FIG. 8 is a schematic diagram illustrating the imaging angle and imaging range of the camera 107 when imaging the person P1 in the authentication system 1 according to the first embodiment.
  • FIG. 8 compared to the case of FIG. 6, the optical axis Ax of the camera 107 is driven upward, and the imaging angle changes from 0 degrees to + ⁇ 1. Therefore, the imaging range R2 of the camera 107 in FIG. 8 has been moved vertically upward from the imaging range R1 shown in FIG. 6.
  • FIG. 9 shows a captured image IMG-02 captured at the imaging angle shown in FIG.
  • the center point O of the captured image IMG-02 coincides with the center point of the face detection area F of the person P1.
  • a high-quality face image that can improve the accuracy of face recognition can be obtained from the face detection area F of the person P1.
  • the distance L between the center point O and the top of the head T of the person P1 can be calculated from the imaging angle, the angle of view of the camera 107, the distance in the horizontal direction, and the distance in the image. Therefore, even if the photographing angle of the camera 107 is changed, the height of the top of the person's head can be easily calculated.
  • FIG. 10 is a schematic diagram illustrating the imaging angle and imaging range of the camera 107 when imaging the person P2 in the authentication system 1 according to the first embodiment.
  • the optical axis Ax of the camera 107 is driven downward, and the imaging angle changes from 0 degrees to - ⁇ 2. ing. Therefore, the imaging range R3 of the camera 107 in FIG. 10 is moved vertically downward from the imaging range R1 shown in FIG. 6.
  • FIG. 11 shows a captured image IMG-03 captured at the imaging angle shown in FIG.
  • the center point O of the captured image IMG-03 coincides with the center point of the face detection area F of the person P2.
  • a high-quality face image that can improve the accuracy of face recognition can be acquired from the face detection area F of the person P2.
  • the distance L between the center point O and the top of the head T of the person P2 can be calculated from the imaging angle, the angle of view of the camera 107, the distance in the horizontal direction, and the distance in the image.
  • step S111 the authentication device 10 determines whether the person is a registrant based on the authentication result received from the authentication server 20. Here, if the authentication device 10 determines that the person is a registrant (step S111: YES), the process moves to step S112.
  • step S111 determines that the person is not a registrant
  • step S118 an authentication error message is displayed on the display 106 (step S118), and the process ends.
  • step S112 the authentication device 10 acquires registration height information regarding the registrant from the authentication server 20.
  • step S113 the authentication device 10 matches the height value calculated in step S106 with the registered height information, and calculates a matching score indicating the degree of matching of heights.
  • the biometric authentication score and the height comparison score are temporarily stored in, for example, RAM or storage in association with the authentication subject ID.
  • step S114 the authentication device 10 calculates a total score from the authentication score included in the authentication result received from the authentication server 20 and the matching score calculated in step S111. Note that the method for calculating the total score can be arbitrarily determined.
  • step S115 the authentication device 10 determines whether the calculated total score is greater than or equal to a predetermined threshold.
  • the predetermined threshold step S115: YES
  • step S115 determines that the total score is less than the predetermined threshold
  • step S118 displays an authentication error message on the display 106 (step S118), and the process ends.
  • step S116 the authentication device 10 displays a message of successful authentication on the display 106 and outputs control information to the gate device 30.
  • step S117 the gate device 30 opens the gate based on the control information from the authentication device 10.
  • the authentication system 1 even when the imaging angle of the camera 107 is changed, a predetermined part of the person is detected based on the imaging angle of the camera 107 when the captured image is captured. Height can be easily estimated. Further, by driving the camera 107, a facial image used for biometric authentication can be captured at an appropriate imaging angle. Furthermore, since the information on the imaging angle is managed in the control system of the authentication device 10, even if the imaging range is changed by driving the camera 107, the height can be calculated based on the changed imaging angle.
  • the distance within the image from the center of the captured image to the position of a predetermined part of the person, the horizontal distance from the person to the authentication device 10, and the imaging angle is estimated based on the height of the person. Therefore, the height of the person can be estimated with high accuracy.
  • the authentication system 1 by simple calculation, information useful for identifying a person, such as height information (height information), is obtained, and a biometric image of the person and a registered biometric image are combined.
  • first biometric authentication face authentication using the image
  • second biometric authentication second biometric authentication
  • Factor authentication can be performed.
  • the authentication system 1 can provide highly accurate personal authentication with a low probability of acceptance by a third party or rejection by the user.
  • the authentication system 1 executes face authentication using a face image and a registered face image as the first biometric authentication.
  • Facial images can be obtained from captured images, and height information up to a predetermined region such as the top of the head can be easily calculated.
  • the authentication system 1 uses the angle of the optical axis of the camera 107 (imaging section) with respect to the horizontal plane as the imaging angle. Thereby, the predetermined part of the target can be easily calculated.
  • FIG. 12 is a block diagram showing an example of the hardware configuration of the authentication device 10 according to the second embodiment. Further, FIGS. 13 and 14 are schematic diagrams illustrating the imaging method and imaging range of the authentication device 10 according to the second embodiment.
  • the authentication device 10 is different from the hardware configuration shown in FIG. 2 and further includes a rotating mirror 111.
  • the rotating mirror 111 is a member that is provided so as to be movable in the vertical direction with respect to the horizontal, and reflects light incident from outside the authentication device 10 toward the camera 107.
  • the rotating mirror 111 is connected to the rotating shaft 109a of the motor 109, and rotates together with the rotating shaft 109a.
  • the camera 107 is driven by the motor 109 to rotate integrally around the rotation axis 109a.
  • the rotating mirror 111 does not need to be directly connected to the rotating shaft 109a of the motor 109.
  • the camera 107 may be indirectly connected to the rotating shaft 109a via a gear, a belt, etc., and may be driven by the motor 109.
  • the camera 107 is not connected to the motor 109 and is fixed within the authentication device 10. Further, the lens surface of the camera 107 is arranged vertically downward so as to face the reflective surface of the rotating mirror 111.
  • FIG. 13 shows a state in which the rotating mirror 111 is tilted at 45 degrees with respect to the horizontal plane HP. Further, the imaging angle of the camera 107 is the angle at which the optical axis Ax of the camera 107 and the horizontal plane HP intersect, and is 0 degrees.
  • the rotating mirror 111 is rotating more clockwise than in the state shown in FIG. Therefore, the angle at which the optical axis Ax of the camera 107 and the horizontal plane HP intersect is ⁇ 3. That is, the imaging angle of the camera 107 in FIG. 14 is ⁇ 3.
  • FIG. 15 is a flowchart outlining the processing executed by the authentication system 1 according to the second embodiment. The process in FIG. 15 differs from the flowchart shown in FIG. 5 only in part.
  • step S201 the authentication device 10 drives the rotating mirror 111 so that the face of the person identified in step S107 is located at the center of the captured image. That is, the authentication device 10 adjusts the relative position between the person's face and the rotating mirror 111 by rotating the rotating mirror 111. Thereby, the authentication device 10 can capture a captured image in which the entire face of the person to be authenticated is reflected. After that, the process moves to step S109.
  • the processing after step S109 is the same as that in FIG. 5.
  • the authentication system 1 there is no need to drive the camera 107 itself in order to change the imaging angle of the camera 107.
  • a facial image used for biometric authentication can be captured at an appropriate imaging angle.
  • information on the rotation angle of the rotating mirror 111 is managed by the control system of the authentication device 10. Since the imaging angle can be determined from the rotation angle of the rotating mirror 111, the height of a predetermined part of the authentication subject in the captured image can be easily estimated, as in the first embodiment.
  • FIG. 16 is a block diagram showing an example of the hardware configuration of the authentication device 10 according to the third embodiment. As shown in FIG. 16, the authentication device 10 includes a first camera 107A and a second camera 107B instead of the camera 107 shown in FIG.
  • the first camera 107A is an imaging device that captures an overall bird's-eye view of a predetermined area.
  • a digital camera using a CMOS image sensor, a CCD image sensor, etc. is used so as to be suitable for image processing in the authentication device 10.
  • the second camera 107B is an imaging device consisting of an infrared light irradiation device (not shown) and an infrared light camera (not shown), and captures an image of a person's eyes using infrared light.
  • the infrared light irradiation device includes a light emitting element that emits infrared light, such as an infrared LED.
  • the wavelength of the infrared light emitted from the infrared light irradiation device may be, for example, in the near-infrared region of about 800 nm.
  • the infrared light camera includes a light receiving element configured to be sensitive to infrared light.
  • a digital camera using a CMOS image sensor, a CCD image sensor, etc. can be used as the infrared light camera.
  • An infrared light irradiation device irradiates a person's eyes with infrared light, and an infrared camera captures the infrared light reflected by the iris to obtain an image of the eye, including the iris image used for iris authentication. .
  • a high-contrast image can be obtained regardless of the color of the iris, and the influence of reflection by the cornea can be reduced.
  • FIGS. 17 and 18 are schematic diagrams illustrating the imaging angle and imaging range of the authentication device 10 according to the third embodiment.
  • the first camera 107A is arranged horizontally.
  • the first camera 107A is not connected to the rotating shaft of the motor 109. That is, the imaging angle of the first camera 107A is constant.
  • the light receiving surface of the second camera 107B is arranged vertically downward so as to face the reflective surface of the rotating mirror 111.
  • the second camera 107B is connected to the rotating shaft 109a of the motor 109 and can rotate together with the rotating shaft 109a.
  • FIG. 17 shows the state before the second camera 107B is driven.
  • FIG. 18 shows a state in which the second camera 107B is rotated counterclockwise from the state shown in FIG. 17.
  • the angle at which the optical axis Ax of the second camera 107B and the horizontal plane HP intersect is - ⁇ 4. That is, the imaging angle of the second camera 107B in FIG. 18 is - ⁇ 4.
  • the imaging range R21 of the first camera 107A is wider than the imaging range R22 of the second camera 107B. That is, the angle of view of the first camera 107A is larger than the angle of view of the second camera 107B.
  • the authentication device 10 may move the imaging range R22 of the iris camera 12 by rotating the rotating mirror 111 using a motor.
  • the authentication device 10 moves the imaging range R22 of the second camera 107B by changing the inclination angle of the rotating mirror 111 using the motor 109.
  • the authentication device 10 can move the imaging range R22 of the second camera 107B up and down along the vertical direction by rotating the rotating mirror 111.
  • the authentication device 10 transmits the face image and iris image of the person to be authenticated to the authentication server 20.
  • iris authentication is further combined with face authentication and authentication based on height information. Three-factor authentication can be performed.
  • FIG. 19 is a flowchart outlining the processing executed by the authentication system 1 according to the fourth embodiment.
  • the processing in FIG. 19 differs from the flowchart shown in FIG. 5 only in part.
  • step S301 the authentication device 10 determines whether the distance measured in step S105 is less than or equal to a predetermined threshold.
  • the authentication device 10 determines that the distance is less than or equal to the threshold (step S301: YES)
  • the process moves to step S302.
  • step S301 determines that the distance exceeds the threshold
  • step S302 if the authentication device 10 selects the biometric authentication mode as the setting mode for the imaging process, the authentication device 10 drives the camera 107 to obtain an imaging angle corresponding to the biometric authentication mode, and executes the imaging process. For example, in the biometric authentication mode, imaging is performed at a first imaging angle in which the center of the captured image is set to the face of the authentication target.
  • step S303 the authentication device 10 acquires a face image of the person from the captured image captured in step S302, and transmits the face image to the authentication server 20.
  • the authentication engine 21 of the authentication server 20 performs facial authentication of the person by comparing the facial image with registered facial images registered in advance in the database 22.
  • the authentication server 20 transmits the authentication result to the authentication device 10. After that, the process moves to step S306.
  • the authentication accuracy is improved by the configuration in which the authentication server 20 performs face authentication based on the face image extracted from the captured image captured in the biometric authentication mode.
  • step S304 when the authentication device 10 selects the height estimation mode as the setting mode for the imaging process, the authentication device 10 drives the camera 107 to obtain an imaging angle corresponding to the height estimation mode, and executes the imaging process. For example, in the height estimation mode, imaging is performed at a second imaging angle in which the center of the captured image is set at the top of the head of the authentication target.
  • step S305 the authentication device 10 calculates the height of the person from the distance measured in step S105. Specifically, as explained in FIG. 6, the position of the center coordinates of the captured image and the length L to the top of the face detection area F are calculated, and the height to the center point of the camera 107 is added to the length L. By adding H, the height of the person is calculated. After that, the process moves to step S306.
  • step S306 the authentication device 10 determines whether the imaging process has been performed in both the biometric authentication mode and the height estimation mode. Here, if the authentication device 10 determines that the imaging process has been executed in both modes (step S306: YES), the process moves to step S111.
  • the processing after step S111 is the same as in the first embodiment.
  • step S306 NO
  • the process returns to step S105.
  • the processes in step S105 and steps S301 to S306 are repeatedly executed until the imaging processes in the two types of modes are completed. Note that regarding the biometric authentication (step S303) process, the second and subsequent processes may be omitted based on the first authentication result.
  • the biometric authentication mode is executed when the distance is less than the threshold value, and the height estimation mode is executed when the distance exceeds the threshold value, but the setting mode to be executed is reversed.
  • the threshold value may also be set arbitrarily. That is, the height estimation mode may be executed when the distance is less than or equal to a threshold value, and the biometric authentication mode may be executed when the distance exceeds the threshold value.
  • biometric authentication is performed on the condition that the distance from the authentication device 10 to the person to be authenticated is equal to or less than a threshold value.
  • the execution conditions for biometric authentication were constant regardless of the length of the distance.
  • a part of the process may be changed so that the threshold value in at least one of the biometric authentication mode (first biometric authentication) and the height estimation mode (second biometric authentication) is changed depending on the distance.
  • first biometric authentication the higher the quality of the facial image that can be obtained.
  • second biometric authentication the greater the distance, the lower the quality of the facial image that can be obtained. Therefore, by changing the threshold according to the distance, the conditions for performing biometric authentication are changed according to the quality of the facial image used. Therefore, the accuracy of biometric authentication can be further improved.
  • a setting mode corresponding to an appropriate imaging angle is selected depending on the distance from the authentication device 10 to the person to be authenticated, and while switching the imaging angle. Imaging processing can be executed. Thereby, the accuracy of face recognition can be further improved.
  • FIG. 20 is a flowchart outlining the processing executed by the authentication system 1 according to the fifth embodiment.
  • the process in FIG. 20 may be executed within the process in FIG. 5, or may be executed in parallel with the process in FIG.
  • step S401 the authentication device 10 images a person using the camera 107 whose imaging angle has been changed.
  • step S402 the authentication device 10 measures the distance in the horizontal direction from the authentication device 10 (camera 107) to the person using the distance sensor 108.
  • step S403 the authentication device 10 calculates the height of the person based on the captured image, the imaging angle, and the distance.
  • step S404 the authentication device 10 stores the calculated height as time series data in the storage area.
  • the storage area of the storage destination is the storage 104, the database 22 of the authentication server 20, or the like.
  • step S405 the authentication device 10 determines whether to complete acquisition of time-series data. Here, if the authentication device 10 determines that the acquisition of time-series data has been completed (step S405: YES), the process moves to step S406.
  • step S405 NO
  • the process returns to step S401.
  • the processes from step S401 to step S404 are repeatedly executed at a predetermined cycle.
  • Time-series data is data that shows a change (transition) in a person's height over time.
  • step S407 the authentication device 10 creates the person's gait data based on the analysis result in step S406, and ends the process. Normally, when a person moves on foot, the height of the top of the head changes in the vertical direction. Therefore, a person's gait can be determined by calculating the height of a predetermined part of the person multiple times at a predetermined period.
  • gait data of a person can be easily created by acquiring the height of the person as time-series data. Furthermore, by calculating the height of a person multiple times, the height of the person can be estimated with high accuracy.
  • FIG. 21 is a flowchart outlining the processing executed by the authentication system 1 according to the sixth embodiment. The processing in FIG. 21 differs from the flowchart shown in FIG. 20 only in part.
  • step S501 the authentication device 10 determines whether the time-series data matches a specific displacement pattern.
  • step S501: YES the process moves to step S502.
  • step S501 NO
  • the process ends.
  • the authentication device 10 identifies the state of the person at the time of movement based on the matched displacement pattern.
  • the state of a person when moving includes a state in which walking is difficult, a state in which a person uses a specific item while moving, and the like. Examples of the article include a wheelchair, a cane, and a push cart.
  • the state of the person can be identified from time-series data.
  • step S503 the authentication device 10 notifies the person in charge depending on the state of the person at the time of movement. For example, when the authentication device 10 determines that the person is using a wheelchair, it is preferable that the authentication device 10 outputs a notification to call the person in charge of the facility to the entrance/exit gate.
  • the state of the article and the person that the person is using for transportation is identified based on the temporal change in the height of a predetermined part of the person. be able to. This makes it possible to automatically detect a person who requires assistance from an attendant when passing through the gate and performing authentication, and to respond quickly.
  • FIG. 22 is a functional block diagram showing the overall configuration of the information processing device 100 according to the seventh embodiment.
  • the information processing device 100 includes an imaging section 100A, a driving section 100B, and an estimating section 100C.
  • the imaging unit 100A images a target and generates a captured image.
  • the drive unit 100B changes the imaging angle of the imaging unit 100A.
  • the estimation unit 100C estimates height information of a predetermined part of the target based on the captured image of the target and the imaging angle.
  • an information processing device 100 that can acquire a biometric image suitable for biometric authentication is provided.
  • biometric authentication and height estimation were performed based on captured images captured by the same camera, but images may be captured by different imaging devices depending on the purpose of the image.
  • the authentication device 10 includes an authentication camera and a height estimation camera
  • biometric authentication based on the first captured image captured by the authentication camera and height estimation are performed.
  • the height information estimation process based on the second captured image captured by the estimation camera may be performed in parallel.
  • the height information estimation process was executed only once.
  • the height information estimation process may be executed every time the photographing angle is changed. That is, after the height information has been estimated once, if the imaging angle changes due to driving of the camera 107, the height information is re-acquired. For example, when a person moves toward the gate, the distance between the camera 107 and the person gradually becomes shorter. In such a case, it is preferable to perform two-factor authentication based on the most recently captured image and imaging angle. Thereby, further improvement in authentication accuracy is achieved.
  • entrance and exit using a gate was given as an example, but it can also be used in situations where individuals are authenticated for payment at financial institutions or retail stores, entrance/exit management at hotels and condominiums, and car parking. It can also be applied to keyless entry systems, etc.
  • the authentication server 20 external to the authentication device 10 includes the authentication engine 21 and the database 22 for extracting biometric information and calculating the matching score. 22 functions may be provided inside the authentication device 10.
  • a processing method of recording a program that operates the configuration of the embodiment in a storage medium to realize the functions of the embodiment described above, reading out the program recorded on the storage medium as a code, and executing it on a computer also applies to each embodiment. included in the category. That is, computer-readable storage media are also included within the scope of each embodiment. Furthermore, each embodiment includes not only the storage medium on which the above-described program is recorded, but also the program itself. Further, one or more of the components included in the above-described embodiments may be a circuit such as an ASIC or an FPGA configured to realize the functions of each component.
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk)-ROM, a magnetic tape, a nonvolatile memory card, and a ROM
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk)-ROM, a magnetic tape, a nonvolatile memory card, and a ROM
  • OS Operating System
  • SaaS Software as a Service
  • An information processing device comprising:
  • the driving section changes the imaging angle by driving the imaging section.
  • the information processing device according to supplementary note 1.
  • the imaging unit includes a mirror that reflects light incident from the object toward a light receiving unit of the imaging unit,
  • the driving unit changes the imaging angle by driving the mirror.
  • the information processing device according to supplementary note 1.
  • (Appendix 6) a storage unit that stores a registered biometric image and registered height information of a registrant; an authentication unit that performs first biometric authentication using the registered biometric image and the biometric image of the target included in the captured image; and second biometric authentication using the registered height information and the height information.
  • the information processing device according to supplementary note 4 or 5, further comprising:
  • the registered biometric image is a registered face image of the registrant
  • the imaging unit captures the captured image including a face image of the target
  • the authentication unit executes face authentication using the face image and the registered face image as the first biometric authentication.
  • the information processing device according to appendix 6 or 7.
  • the registered biometric image is a registered face image and a registered iris image of the registrant
  • the imaging unit includes a first imaging unit that captures the captured image including a face image of the target, and a second imaging unit that captures an iris image of the target
  • the authentication unit executes, as the first biometric authentication, face authentication using the face image and the registered face image, and iris authentication using the iris image and the registered iris image.
  • the information processing device according to appendix 6 or 7.
  • the driving unit changes the imaging angle according to the distance.
  • the information processing device according to any one of Supplementary Notes 6 to 9.
  • the imaging unit When the distance is equal to or greater than a predetermined threshold, the imaging unit performs imaging at a first imaging angle that sets the center of the captured image to the face of the target, and when the distance is less than the threshold, , the information processing device according to supplementary note 10, wherein imaging is performed at a second imaging angle in which the center of the captured image is set at the top of the head of the target.
  • the imaging unit When the distance is less than a predetermined threshold, the imaging unit performs imaging at a first imaging angle that sets the center of the captured image to the face of the target, and when the distance is equal to or greater than the threshold, , performing imaging at a second imaging angle in which the center of the captured image is set at the top of the subject's head;
  • the information processing device according to appendix 10.
  • the predetermined region is any one of the top of the head, eyes, nose, ears, mouth, and chin.
  • the information processing device according to any one of Supplementary Notes 1 to 12.
  • the estimating unit re-estimates the height information when the driving unit changes the imaging angle after estimating the height information.
  • the information processing device according to any one of Supplementary Notes 1 to 13.
  • the estimation unit estimates the target's gait based on a temporal change in the height information.
  • the information processing device according to any one of Supplementary Notes 1 to 14.
  • the estimating unit estimates an article that the target is using for movement based on a temporal change in the height information.
  • the information processing device according to any one of Supplementary Notes 1 to 14.
  • the imaging angle is an angle of the optical axis of the imaging unit with respect to a horizontal plane.
  • the information processing device according to any one of Supplementary Notes 1 to 16.
  • An information processing method comprising:
  • Authentication system 10 Authentication device 101... Processor 102... RAM 103...ROM 104...Storage 105...Communication I/F 106...Display 107...Camera 107A...First camera 107B...Second camera 108...Motor 109...Distance sensor 110...Lighting device 111...Rotating mirror 20... ⁇ Authentication server 21...Authentication engine (authentication section) 22...Database (storage unit) 30... Gate device 100... Information processing device 100A... Imaging section 100B... Drive section 100C... Estimating section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

この開示の情報処理装置は、対象を撮像し、撮像画像を生成する撮像部と、前記撮像部の撮像角度を変化させる駆動部と、前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定する推定部と、を備える。

Description

情報処理装置、情報処理方法及び記録媒体
 この開示は、情報処理装置、情報処理方法及び記録媒体に関する。
 特許文献1には、対象人物の顔を撮像することで生成された顔画像を用いて対象人物を認証する認証システムが記載されている。
国際公開第2015-136938号
 特許文献1に記載されているような認証システムでは、カメラは固定されているため、認証対象者の高さによっては、生体認証の精度が低下する可能性があった。
 この開示は、生体認証に適した生体画像を取得できる情報処理装置、情報処理方法及び記録媒体を提供することを目的とする。
 この開示の一観点によれば、対象を撮像し、撮像画像を生成する撮像部と、前記撮像部の撮像角度を変化させる駆動部と、前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定する推定部と、を備える情報処理装置が提供される。
 この開示の他の一観点によれば、撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、前記撮像装置の撮像角度を変化させるステップと、前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、を備える情報処理方法が提供される。
 この開示の他の一観点によれば、撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、前記撮像装置の撮像角度を変化させるステップと、前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、を実行させるプログラムが記録された記録媒体が提供される。
第1実施形態に係る認証システムの全体構成の一例を示すブロック図である。 第1実施形態に係る認証装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る認証装置の外観を示す正面図である。 第1実施形態に係る認証装置の内部構造を説明する斜視図である。 第1実施形態に係る認証システムで実行される処理の概略を示すフローチャートである。 第1実施形態に係る認証装置におけるカメラの撮像角度及び撮像範囲を説明する模式図である。 第1実施形態に係る撮像画像の一例を示す図である。 第1実施形態に係る認証装置におけるカメラの撮像角度及び撮像範囲を説明する模式図である。 第1実施形態に係る撮像画像の一例を示す図である。 第1実施形態に係る認証装置におけるカメラの撮像角度及び撮像範囲を説明する模式図である。 第1実施形態に係る撮像画像の一例を示す図である。 第2実施形態に係る認証装置のハードウェア構成の一例を示すブロック図である。 第2実施形態に係る認証装置の撮像角度及び撮像範囲を説明する模式図である。 第2実施形態に係る認証装置の撮像角度及び撮像範囲を説明する模式図である。 第2実施形態に係る認証システムで実行される処理の概略を示すフローチャートである。 第3実施形態に係る認証装置のハードウェア構成の一例を示すブロック図である。 第3実施形態に係る認証装置の撮像角度及び撮像範囲を説明する模式図である。 第3実施形態に係る認証装置の撮像角度及び撮像範囲を説明する模式図である。 第4実施形態に係る認証システムで実行される処理の概略を示すフローチャートである。 第5実施形態に係る認証システムで実行される処理の概略を示すフローチャートである。 第6実施形態に係る認証システムで実行される処理の概略を示すフローチャートである。 第7実施形態に係る情報処理装置の全体構成を示す機能ブロック図である。
 以下、図面を参照して、この開示の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
 [第1実施形態]
 先ず、第1実施形態における認証システム1の構成について説明する。図1は、第1実施形態に係る認証システム1の全体構成の一例を示すブロック図である。
 認証システム1は、認証の対象である人物(以下、認証対象者とも呼ぶ。)の生体情報を取得し、生体情報を予め登録されている登録生体情報とを照合することにより生体認証を行う。また、認証システム1は、生体認証とは別に、撮像画像から推定された人物の高さ情報に基づいて、人物の認証も行う。認証システム1は、2要素認証を行う。なお、「対象」には、人物だけでなく、犬や蛇等の動物や、植物、ロボット等も含まれるものとする。ロボット等の生物以外の物体の場合には、例えば「生体情報」の語句は「外観情報」と読み替えればよい。
 本明細書において高さ情報とは、主に人物の身長を意味するが、これに限られない。高さ情報の語句は、例えば、地面から人物の所定部位(目、鼻、耳、口等)の位置までの高さを含む意味で使用が、これに限られない。高さ情報には、地面からだけでなく、対象の足から所定部位(目、鼻、耳、口等)までの長さも含まれる。高さ情報の推定の対象となる所定部位は、目、鼻、耳、口、顎等であると好適である。この場合、顔画像から所定部位の位置を容易に算出できる利点がある。
 認証システム1は、例えば、空港における入出国のための本人確認、行政機関における本人確認、工場・事業所における入退場のための本人確認、イベント会場における入退場のための本人確認等に適用され得る。
 図1に示されるように、認証システム1は、認証装置10、認証サーバ20及びゲート装置30から構成されている。各装置は、LAN(Local Area Network)やインターネット等のネットワークNW1、NW2に接続されている。
 認証装置10は、所定領域に存在する認証対象者を撮像し、その撮像画像を認証サーバ20へ出力する。第1実施形態において、「所定領域」の語句は、認証装置10の前方に位置する所定の範囲の3次元空間を意味する。
 認証サーバ20は、生体認証を実行するコンピュータであり、認証エンジン21及びデータベース22を備える。認証エンジン21は、認証装置10によって撮像された認証対象者の生体情報(あるいは特徴量)と、データベース22に予め登録された登録者の登録生体情報(あるいは特徴量)との照合処理を実行し、その照合結果に基づいて認証対象者の顔認証を行う。
 データベース22は、登録者の生体画像、高さ情報、属性情報等の各種の情報を登録者IDに関連付けて記憶する記憶装置である。登録者の生体情報や高さ情報は、登録者の要求に基づいて、予めデータベース22に登録されている。
 例えば、認証システム1の利用を希望する人物が、認証装置10と同様の機能を備える登録用端末(不図示)の前に立ち、当該端末を操作して自身の顔画像を撮像する。撮像された顔画像は登録生体画像としてデータベース22に登録される。また、登録用端末が、後述する高さ情報の推定方法を用いて、人物の撮像画像、カメラ107の撮像角度、及び人物までの距離に基づいて高さ情報を算出する。算出された高さ情報は、登録高さ情報としてデータベース22に登録される。
 ゲート装置30は、認証装置10からの制御情報に基づいてゲート(不図示)を開閉し、人物の通行を制御する通行制御装置である。認証装置10が人物の認証に成功した場合に、ゲート装置30は人物の通行を遮る待機時の閉鎖状態から、人物の通行を許可する開放状態に移行する。ゲートの方式は、特に限定されるものではなく、例えば、通路の片側又は両側から設けられたフラッパーが開閉するフラッパーゲート、3本バーが回転するターンスタイルゲート等である。
 図2は、第1実施形態に係る認証装置10のハードウェア構成の一例を示すブロック図である。認証装置10は、演算、制御及び記憶を行うコンピュータとして、プロセッサ101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、ストレージ104、通信I/F(Interface)105、ディスプレイ106、カメラ107、距離センサ108、モーター109及び照明装置110を備える。各装置は、図示しないバス、配線、駆動装置等を介して相互に接続される。
 プロセッサ101は、ROM103、ストレージ104等に記憶されたプログラムに従って所定の演算を行い、認証装置10の各部を制御する機能を有する。また、プロセッサ101としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等が用いられる。また、上述した一例のうち一つを用いてもよいし、複数を並列で用いてもよい。
 RAM102は、揮発性記憶媒体から構成され、プロセッサ101の動作に必要な一時的なメモリ領域を提供する。RAM102は、例えば、D-RAM(Dynamic RAM)であってもよい。ROM103は、不揮発性記憶媒体から構成され、認証装置10の動作に用いられるプログラム等の必要な情報を記憶する。ROM103は、例えば、P-ROM(Programmable ROM)であってもよい。
 ストレージ104は、不揮発性記憶媒体から構成され、データの記憶、認証装置10の動作用プログラムの記憶等を行う。ストレージ104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)により構成される。
 通信I/F105は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G又は5G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。
 プロセッサ101は、ROM103、ストレージ104等に記憶されたプログラムをRAM102にロードして実行する。
 ディスプレイ106は、動画、静止画、文字等を表示する表示装置である。ディスプレイ106は、例えば、認証に関する案内情報や認証結果を表示する。ディスプレイ106としては、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等が用いられる。
 カメラ107は、被写体から入射する光を、光学系を介して受光素子で受光することで、被写体を撮像する撮像装置である。第1実施形態のカメラ107は、装置の前方の所定領域に存在する認証対象者の画像を撮像する。カメラ107としては、認証装置10における画像処理に適するように、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等を用いたデジタルカメラが用いられる。
 距離センサ108は、カメラ107から認証対象者までの距離を計測する計測装置である。距離センサ108は、カメラ107から認証対象者までの距離を光学的に計測可能であってもよい。距離を光学的に計測可能な距離センサ108の一例として、TOF(Time Of Flight)方式のセンサ、三角測量方式のセンサ、LiDAR(Light Detection and Ranging)等が挙げられる。また、距離センサ108としては、対象が接近したことを非接触で検出する近接センサを用いることもできる。
 モーター109は、回転軸に接続された物体を駆動する駆動装置である。第1実施形態では、モーター109の回転軸にカメラ107が接続されている。なお、カメラ107は、モーター109の回転軸に直接的に接続されなくてもよい。例えば、カメラ107は、ギアやベルト等を介して回転軸に間接的に接続され、モーター109により駆動されてもよい。
 照明装置110は、前方に向けて照明光を照射する光源である。照明装置110における照明光の照射のタイミングは、カメラ107における撮像のタイミングと同期している。
 なお、図2に示されているハードウェア構成は一例であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、第1実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、第1実施形態の機能が複数の装置に分散されて実現されてもよい。図示されているハードウェア構成は適宜変更可能である。
 図3は、第1実施形態に係る認証装置10の外観を示す正面図である。尚、図3では、互いに直交するX軸、Y軸及びZ軸から構成される3次元座標系を用いて、認証装置10を構成する構成要素の位置関係について説明する。X軸、Y軸は、水平面における軸である。X軸およびY軸は、互いに直交する。Z軸は、水平面に直交する軸である。
 図3では、認証装置10の中心線に沿うように、上から順にディスプレイ106、距離センサ108、カメラ107が配置されている。また、カメラ107の両側には、一対の照明装置110が配置されている。カメラ107の受光領域の中心点は、鉛直方向において地面Grから高さHに位置している。
 図4は、第1実施形態に係る認証装置10の内部構造を説明する斜視図である。図4に示すように、カメラ107は、モーター109と共にケース112内に配置されている。カメラ107は、モーター109の回転軸Aに接続されているため、回転軸Aと共に回転する。回転軸Aは、X軸方向に延びる。回転軸Aを中心とする回転によりカメラ107の光軸Axは上下に変化する。第1実施形態においては、カメラ107の撮像角度とは水平面に対する光軸Axの角度を意味する。
 具体的には、モーター109が駆動することにより、カメラ107は、回転軸Aを中心にして矢印UP又は矢印DWの方向に回転する。カメラ107が矢印UPの方向に回転した場合、カメラ107の撮像範囲は上方向に移動する。逆に、カメラ107が矢印DWの方向に回転した場合、カメラ107の撮像範囲は下方向に移動する。
 図5は、第1実施形態に係る認証システム1で実行される処理の概略を示すフローチャートである。
 ステップS101において、認証装置10は、カメラ107によって装置の前方を撮像することにより、所定領域の撮像画像を取得する。
 ステップS102において、認証装置10は、撮像画像に対して人物の顔検出処理を実行する。具体的には、認証装置10は、撮像画像の中から人物の顔の形状パターンと一致する領域を検出する。
 ステップS103において、認証装置10は、撮像画像の中から人物の顔を検出したか否かを判定する。ここで、認証装置10が、人物の顔を検出したと判定した場合(ステップS103:YES)には、処理はステップS104へ移行する。
 これに対し、認証装置10が、人物の顔を検出していないと判定した場合(ステップS103:NO)には、処理はステップS101へ戻る。
 ステップS104において、認証装置10は、顔が検出された人物の認証対象者IDを発行する。認証対象者IDは、人物ごとに固有な識別情報である。
 ステップS105において、認証装置10は、距離センサ108によって認証装置10(カメラ107)から人物までの水平方向の距離を測定する。
 ステップS106において、認証装置10は、測定された距離と、カメラ107の地面からの高さに基づいて、人物の高さを算出する。カメラ107の高さの情報は、例えばストレージ104やROM103等に予め記憶されている。
 図6は、第1実施形態に係る認証システム1において人物P1を撮像する場合のカメラ107の撮像角度及び撮像範囲を説明する模式図である。図6では、カメラ107は、カメラ107の光軸Axが水平となるように、配置されて、撮像角度は0度である。図6における撮像範囲R1には、人物P1の顔と、上半身が含まれている。
 図7は、図6に示す撮像角度で撮像された撮像画像IMG-01を示している。撮像画像IMG-01の中心点Oは、人物P1の顔検出領域Fよりも下側に位置している。図6で示した長さLは、中心点Oから人物P1の頭頂部Tまでの画像内距離から算出される。
 ステップS107において、認証装置10は、撮像画像内における人物の顔の位置を特定する。図7の例では、人物P1の顔検出領域Fの中心点の位置が、人物の顔の位置である。
 ステップS108において、認証装置10は、ステップS107で特定された人物の顔の位置が撮像画像の中心点に位置するように、カメラ107を駆動する。
 ステップS109において、認証装置10は、カメラ107によって装置の前方を撮像することにより、人物の顔を含む撮像画像を取得する。
 ステップS110において、認証装置10は、ステップS109で取得された撮像画像から人物の顔画像を抽出し、顔画像を認証サーバ20へ送信する。これにより、認証サーバ20の認証エンジン21は、顔画像と、データベース22に予め登録されている登録顔画像とを照合し、人物の顔認証を実行する。認証サーバ20は、顔認証を完了した場合、その認証結果を認証装置10へ送信する。認証結果には、人物の顔画像と登録者の登録顔画像との一致の度合いを示す認証スコアが含まれる。
 図8は、第1実施形態に係る認証システム1において人物P1を撮像する場合のカメラ107の撮像角度及び撮像範囲を説明する模式図である。
 図8では、図6の場合と比べて、カメラ107の光軸Axは上向きに駆動し、撮像角度は0度から+θ1に変化している。このため、図8におけるカメラ107の撮像範囲R2は、図6で示した撮像範囲R1よりも鉛直上方向に移動されている。
 図9は、図8に示す撮像角度で撮像された撮像画像IMG-02を示している。撮像画像IMG-02の中心点Oは、人物P1の顔検出領域Fの中心点と一致している。これにより、人物P1の顔検出領域Fの中から、顔認証の精度を向上し得る高品質の顔画像が取得され得る。また、中心点Oと人物P1の頭頂部Tとの距離Lは、撮像角度、カメラ107の画角、水平方向における距離、及び画像内距離から算出できる。このため、カメラ107の撮影角度が変更された場合でも、人物の頭頂部の高さを容易に算出できる。
 図10は、第1実施形態に係る認証システム1において人物P2を撮像する場合のカメラ107の撮像角度及び撮像範囲を説明する模式図である。
 人物P2の背丈は、人物P1の背丈よりも低いため、図10では、図6の場合と比べて、カメラ107の光軸Axは下向きに駆動し、撮像角度は0度から-θ2に変化している。このため、図10におけるカメラ107の撮像範囲R3は、図6で示した撮像範囲R1よりも鉛直下方向に移動されている。
 図11は、図10に示す撮像角度で撮像された撮像画像IMG-03を示している。図9の場合と同様に、撮像画像IMG-03の中心点Oは、人物P2の顔検出領域Fの中心点と一致している。これにより、人物P2の顔検出領域Fの中から、顔認証の精度を向上し得る高品質の顔画像が取得され得る。また、中心点Oと人物P2の頭頂部Tとの距離Lは、撮像角度、カメラ107の画角、水平方向における距離、及び画像内距離から算出できる。
 ステップS111において、認証装置10は、認証サーバ20から受信した認証結果に基づいて、人物が登録者であるか否かを判定する。ここで、認証装置10が、人物は登録者であると判定した場合(ステップS111:YES)、処理はステップS112へ移行する。
 これに対し、認証装置10が、人物は登録者ではないと判定した場合(ステップS111:NO)、認証エラーのメッセージをディスプレイ106へ表示し(ステップS118)、処理は終了する。
 ステップS112において、認証装置10は、認証サーバ20から登録者に関する登録高さ情報を取得する。
 ステップS113において、認証装置10は、ステップS106で算出した高さの値と登録高さ情報とを照合し、高さの一致の度合いを示す照合スコアを算出する。なお、生体認証の認証スコア及び高さの照合スコアは、例えばRAMやストレージに認証対象者IDと関連付けて一時的に記憶される。
 ステップS114において、認証装置10は、認証サーバ20から受信した認証結果に含まれる認証スコアと、ステップS111で算出した照合スコアから総合スコアを算出する。なお、総合スコアの算出方法は、任意に定められる。
 ステップS115において、認証装置10は、算出された総合スコアが所定の閾値以上であるか否かを判定する。ここで、認証装置10は、総合スコアが所定の閾値以上であると判定した場合(ステップS115:YES)、処理はステップS116へ移行する。
 これに対し、認証装置10は、総合スコアが所定の閾値未満であると判定した場合(ステップS115:NO)、認証エラーのメッセージをディスプレイ106へ表示し(ステップS118)、処理は終了する。
 ステップS116において、認証装置10は、認証成功のメッセージをディスプレイ106へ表示し、ゲート装置30に制御情報を出力する。
 ステップS117において、ゲート装置30は、認証装置10からの制御情報に基づいて、ゲートを開放する。
 以上のように、第1実施形態に係る認証システム1によれば、カメラ107における撮像角度を変化させた場合でも、撮像画像を撮像したときのカメラ107の撮像角度に基づいて人物の所定部位の高さを容易に推定することができる。また、カメラ107が駆動することで、生体認証に用いられる顔画像を適切な撮像角度で撮像することができる。また、撮像角度の情報は認証装置10の制御系において管理されているため、カメラ107の駆動により撮像範囲が変更された場合でも、変更後の撮像角度に基づいて高さを算出できる。
 また、第1実施形態に係る認証システム1によれば、撮像画像内における中心から人物の所定部位の位置との画像内距離と、人物から認証装置10までの水平方向の距離と、撮像角度に基づいて人物の高さが推定される。このため、人物の高さを高精度に推定することができる。
 第1実施形態に係る認証システム1によれば、簡単な計算により、人物の高さ情報(身長情報)という個人の特定のために有益な情報を入手し、人物の生体画像と登録生体画像とを用いた顔認証(第1生体認証)と、画像から算出された高さ情報及びデータベース22に記憶された登録高さ情報とを用いた認証(第2生体認証)の2つを組み合わせた二要素認証を実行することができる。これにより、認証システム1は、他人受入や本人拒否の確率が低い、高精度な本人認証を提供することができる。
 また、第1実施形態に係る認証システム1は、第1生体認証として、顔画像と登録顔画像とを用いた顔認証を実行している。顔画像は撮像画像から取得でき、かつ、頭頂部等の所定部位までの高さ情報を容易に算出できる利点を有する。
 更に、第1実施形態に係る認証システム1は、水平面に対するカメラ107(撮像部)の光軸の角度を撮像角度としている。これにより、対象の所定部位の算出を容易に行える。
 [第2実施形態]
 以下、第2実施形態に係る認証システム1について説明する。以下では主として第1実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図12は、第2実施形態に係る認証装置10のハードウェア構成の一例を示すブロック図である。また、図13及び図14は、第2実施形態に係る認証装置10の撮像方法及び撮像範囲を説明する模式図である。
 図12に示すように、認証装置10は、図2に示したハードウェア構成と異なり、回転ミラー111を更に備えている。
 回転ミラー111は、水平を基準として上下方向に駆動可能に設けられ、認証装置10の外部から入射した光をカメラ107に向けて反射する部材である。
 図13及び図14に示すように、回転ミラー111は、モーター109の回転軸109aに接続され、回転軸109aと共に回転する。具体的には、カメラ107は、モーター109が駆動することにより、回転軸109aを中心にして一体的に回転する。なお、回転ミラー111は、モーター109の回転軸109aに直接的に接続されなくてもよい。例えば、カメラ107は、ギアやベルト等を介して回転軸109aに間接的に接続され、モーター109により駆動されてもよい。
 第1実施形態の場合と異なり、カメラ107はモーター109には接続されておらず、認証装置10内で固定されているものとする。また、カメラ107のレンズ面は、回転ミラー111の反射面と対向するように、鉛直下方向に配置されている。
 図13では、回転ミラー111が、水平面HPに対して45度傾斜した状態を示している。また、カメラ107の撮像角度は、カメラ107の光軸Axと水平面HPとが交差する角度であり、0度である。
 一方、図14では、図13の状態よりも回転ミラー111が時計周りに回転している。このため、カメラ107の光軸Axと水平面HPとが交差する角度はθ3である。すなわち、図14におけるカメラ107の撮像角度は、θ3である。
 図15は、第2実施形態に係る認証システム1で実行される処理の概略を示すフローチャートである。図15の処理は、図5に示したフローチャートと一部についてのみ異なる。
 ステップS201において、認証装置10は、ステップS107で特定された人物の顔の位置が撮像画像の中心に位置するように、回転ミラー111を駆動する。すなわち、認証装置10は、回転ミラー111を回転させることで、人物の顔と回転ミラー111との相対位置を調整する。これにより、認証装置10は、認証対象の人物の顔全体が写り込んだ撮像画像を撮像し得る。その後、処理はステップS109へ移行する。ステップS109以降の処理は、図5と同様である。
 以上のように、第2実施形態に係る認証システム1によれば、カメラ107の撮像角度を変更するために、カメラ107自体を駆動させる必要がない。カメラ107の代わりに、回転ミラー111を駆動することで、生体認証に用いられる顔画像を適切な撮像角度で撮像することができる。また、回転ミラー111の回転角度の情報は認証装置10の制御系で管理されている。回転ミラー111の回転角度から撮像角度を決定できるため、第1実施形態の場合と同様に、撮像画像における認証対象者の所定部位の高さを容易に推定できる。
 [第3実施形態]
 以下、第3実施形態に係る認証システム1について説明する。以下では主として第2実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図16は、第3実施形態に係る認証装置10のハードウェア構成の一例を示すブロック図である。図16に示すように、認証装置10は、図12に示したカメラ107の代わりに、第1カメラ107A及び第2カメラ107Bを備えている。
 第1カメラ107Aは、所定領域を全体的に俯瞰する画像を撮像する撮像装置である。第1カメラ107Aとしては、認証装置10における画像処理に適するように、CMOSイメージセンサ、CCDイメージセンサ等を用いたデジタルカメラが用いられる。
 第2カメラ107Bは、赤外光照射装置(不図示)及び赤外光カメラ(不図示)からなる撮像装置であり、人物の目の画像を赤外光により撮像する。赤外光照射装置は、赤外光LED等の赤外光を発する発光素子を含む。赤外光照射装置から照射される赤外光の波長は、例えば、800nm程度の近赤外領域であり得る。
 赤外光カメラは、赤外光に対して感度を有するように構成された受光素子を含む。赤外光カメラは、CMOSイメージセンサ、CCDイメージセンサ等を用いたデジタルカメラが用いられ得る。赤外光照射装置から赤外光を人物の目に照射し、虹彩で反射した赤外光を赤外光カメラで撮像することにより、虹彩認証に用いられる虹彩画像を含む目の画像を取得する。赤外光により撮像された虹彩画像を取得することにより、虹彩の色によらず高コントラストな画像が得られ、かつ角膜による反射の影響を低減することができる。
 図17及び図18は、第3実施形態に係る認証装置10の撮像角度及び撮像範囲を説明する模式図である。図17及び図18に示すように、第1カメラ107Aは、水平方向に配置されている。第1カメラ107Aはモーター109の回転軸には接続されていない。すなわち、第1カメラ107Aの撮像角度は一定である。
 一方、第2カメラ107Bの受光面は、回転ミラー111の反射面と対向するように、鉛直下方向に配置されている。第2カメラ107Bは、モーター109の回転軸109aに接続され、回転軸109aと共に回転できる。図17は、第2カメラ107Bが駆動する前の状態を示している。一方、図18は、図17の状態から第2カメラ107Bが反時計周りに回転した状態を示している。第2カメラ107Bの光軸Axと水平面HPとが交差する角度は-θ4である。すなわち、図18における第2カメラ107Bの撮像角度は、-θ4である。
 また、第1カメラ107Aの撮像範囲R21は、第2カメラ107Bの撮像範囲R22よりも広い。つまり、第1カメラ107Aの画角は、第2カメラ107Bの画角よりも大きい。認証装置10は、モーターを用いて回転ミラー111を回転させることで、虹彩カメラ12の撮像範囲R22を移動させてもよい。認証装置10は、モーター109を用いて回転ミラー111の傾斜角度を変えることで、第2カメラ107Bの撮像範囲R22を移動させる。例えば、認証装置10は、回転ミラー111を回転させることで、第2カメラ107Bの撮像範囲R22を鉛直方向に沿って上下に移動できる。
 また、第3実施形態のデータベース22には、顔認証及び虹彩認証を実行するために、登録者の顔画像及び虹彩画像が予め登録されているものとする。認証装置10は、認証サーバ20に認証を要求する際、認証対象者の顔画像及び虹彩画像を認証サーバ20へ送信する。
 以上のように、第3実施形態に係る認証システム1によれば、生体情報として人物の虹彩画像を更に取得することができるため、顔認証と高さ情報に基づく認証に虹彩認証を更に組み合わせた三要素認証を実行することができる。
 [第4実施形態]
 以下、第4実施形態に係る認証システム1について説明する。以下では主として第1実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図19は、第4実施形態に係る認証システム1で実行される処理の概略を示すフローチャートである。図19の処理は、図5に示したフローチャートと一部についてのみ異なる。
 ステップS301において、認証装置10は、ステップS105で測定された距離が所定の閾値以下であるか否かを判定する。ここで、認証装置10は、距離が閾値以下であると判定した場合(ステップS301:YES)、処理はステップS302へ移行する。
 これに対し、認証装置10は、距離が閾値を超えると判定した場合(ステップS301:NO)、処理はステップS304へ移行する。
 ステップS302において、認証装置10は、撮像処理の設定モードとして生体認証モードを選択した場合、生体認証モードに対応する撮像角度となるようにカメラ107を駆動し、撮像処理を実行する。例えば、生体認証モードでは、撮像画像の中心を認証対象の顔に設定する第1撮影角度での撮像を行う。
 ステップS303において、認証装置10は、ステップS302で撮像された撮像画像から人物の顔画像を取得し、その顔画像を認証サーバ20へ送信する。これにより、認証サーバ20の認証エンジン21は、顔画像と、データベース22に予め登録されている登録顔画像とを照合することで人物の顔認証を実行する。認証サーバ20は、顔認証を完了した場合、認証結果を認証装置10へ送信する。その後、処理はステップS306へ移行する。
 このように、認証サーバ20が、生体認証モードで撮像された撮像画像から抽出された顔画像に基づいて顔認証を実行する構成により、認証精度の向上が図られる。
 ステップS304において、認証装置10は、撮像処理の設定モードとして高さ推定モードを選択した場合、高さ推定モードに対応する撮像角度となるようにカメラ107を駆動し、撮像処理を実行する。例えば、高さ推定モードにおいては、撮像画像の中心を認証対象の頭頂部に設定する第2撮影角度での撮像を行う。
 高さ推定モードで撮像された撮像画像を高さ推定の処理に用いることにより、算出時のコストが抑制される。
 ステップS305において、認証装置10は、ステップS105で測定された距離から、人物の高さを算出する。具体的には、図6で説明したように、撮像画像の中心座標の位置と顔検出領域Fの最上部までの長さLを算出し、長さLにカメラ107の中心点までの高さHを足すことで、人物の高さを算出する。その後、処理はステップS306へ移行する。
 ステップS306において、認証装置10は、生体認証モードと高さ推定モードの両方のモードで撮像処理が実行されたか否かを判定する。ここで、認証装置10が、両方のモードで撮像処理が実行されたと判定した場合(ステップS306:YES)、処理はステップS111へ移行する。ステップS111以降の処理は、第1実施形態と同様である。
 これに対し、認証装置10が、両方のモードで撮像処理が実行されていないと判定した場合(ステップS306:NO)、処理はステップS105へ戻る。ステップS105、ステップS301~ステップS306の処理は、2種類のモードでの撮像処理が完了するまで繰り返し実行される。なお、生体認証(ステップS303)の処理については、1回目の認証結果に基づいて、2回目以降の処理は省略してもよい。
 なお、上述のフローチャートでは、距離が閾値以下の場合に生体認証モードを実行し、距離が閾値を超える場合に高さ推定モードを実行するように構成されていたが、実行される設定モードを逆にしてもよく、閾値も任意に設定してよい。すなわち、距離が閾値以下の場合に高さ推定モードを実行し、距離が閾値を超える場合に生体認証モードを実行するように構成してもよい。
 また、上述のフローチャートでは、認証装置10から認証対象者まで距離が閾値以下となることを条件として生体認証を実行している。生体認証の実行条件は、距離の長短とは関係なく、一定であった。しかし、距離に応じて生体認証モード(第1生体認証)及び高さ推定モード(第2生体認証)の少なくとも一方における閾値を変更するように処理を一部変更してもよい。一般的に、距離が近くなる程、高品質な顔画像を取得できる。逆に、距離が遠くなる程、取得できる顔画像の品質は下がる。したがって、距離に応じて閾値を変更することにより、生体認証の実行条件は使用される顔画像の品質に対応して変更される。このため、生体認証の精度を更に向上させることができる。
 以上のように、第4実施形態に係る認証システム1によれば、認証装置10から認証対象者までの距離に応じて、適切な撮像角度に対応する設定モードを選択し、撮像角度を切り替えながら撮像処理を実行することができる。これにより、顔認証の精度を更に向上させることができる。
 [第5実施形態]
 以下、第5実施形態に係る認証システム1について説明する。以下では主として第1実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図20は、第5実施形態に係る認証システム1で実行される処理の概略を示すフローチャートである。図20の処理は、図5の処理の中で実行してもよいし、図5の処理と並列に実行してもよい。
 ステップS401において、認証装置10は、撮像角度が変更されたカメラ107によって人物を撮像する。
 ステップS402において、認証装置10は、距離センサ108によって認証装置10(カメラ107)から人物までの水平方向の距離を測定する。
 ステップS403において、認証装置10は、撮像画像、撮像角度及び距離に基づいて、人物の高さを算出する。
 ステップS404において、認証装置10は、算出された高さを時系列データとして記憶領域に保存する。保存先の記憶領域は、ストレージ104あるいは認証サーバ20のデータベース22等である。
 ステップS405において、認証装置10は、時系列データの取得を完了するか否かを判定する。ここで、認証装置10が、時系列データの取得を完了したと判定した場合(ステップS405:YES)、処理はステップS406へ移行する。
 これに対し、認証装置10が、時系列データの取得を完了していない判定した場合(ステップS405:NO)、処理はステップS401へ戻る。ステップS401~ステップS404の処理は、所定の周期で繰り返し実行される。
 ステップS406において、認証装置10は、高さの時系列データを解析する。時系列データは、時系列での人物の高さの時間変化(推移)を示すデータである。
 ステップS407において、認証装置10は、ステップS406における解析結果に基づいて、人物の歩容データを作成し、処理を終了する。通常、人間が徒歩で移動する場合、頭頂部の高さは上下方向に変化する。このため、所定の周期で人物の所定部位の高さを複数回算出することで、人の歩容を求めることができる。
 以上のように、第5実施形態に係る認証システム1によれば、人物の高さを時系列データとして取得することにより、人物の歩容データを容易に作成できる。また、人物の高さを複数回算出することにより、人物の高さを高精度で推定することができる。
 [第6実施形態]
 以下、第6実施形態に係る認証システム1について説明する。以下では主として第5実施形態との相違点について説明するものとし、共通部分については説明を省略又は簡略化する。
 図21は、第6実施形態に係る認証システム1で実行される処理の概略を示すフローチャートである。図21の処理は、図20に示したフローチャートと一部についてのみ異なる。
 ステップS501において、認証装置10は、時系列データが特定の変位パターンと一致するか否かを判定する。ここで、認証装置10が、時系列データが特定の変位パターンと一致すると判定した場合(ステップS501:YES)、処理はステップS502へ移行する。
 これに対し、認証装置10が、時系列データが特定の変位パターンと一致しないと判定した場合(ステップS501:NO)、処理は終了する。
 ステップS502において、認証装置10は、一致した変位パターンに基づいて、移動時における人物の状態を特定する。移動時における人物の状態としては、歩行が困難である状態、移動時に特定の物品を使用している状態等が該当する。物品としては、例えば、車いす、杖、手押しカート等が該当する。
 具体的には、人物が移動のために車いすを使用している場合には、当該人物の頭頂部の高さの時系列における変位幅は通常の歩行時よりも小さくなることが予想される。一方、杖を使用している人物や足が不自由な人物の場合には、当該人物の頭頂部の高さの時系列における変位幅は、通常の歩行時よりも大きくなることが予想される。したがって、移動時における人物の状態と人物の所定部位の高さの時間変化との関係を変位パターンとして登録しておくことで、時系列データから人物の状態を特定し得る。
 ステップS503において、認証装置10は、移動時における人物の状態に応じて、係員に通知を行う。例えば、認証装置10は、人物が車いすを使用していると判定した場合には、施設を管理している係員を入退場ゲートまで呼び出すための通知を出力すると好適である。
 以上のように、第6実施形態に係る認証システム1によれば、人物が移動のために使用している物品及び人物の状態を、人物の所定部位の高さの時間変化に基づいて特定することができる。これにより、ゲートの通行及び認証を行う際に係員のサポートが必要な人物を自動的に検出して、迅速に対応することが可能となる。
 [第7実施形態]
 図22は、第7実施形態に係る情報処理装置100の全体構成を示す機能ブロック図である。情報処理装置100は、撮像部100Aと、駆動部100Bと、推定部100Cとを備える。撮像部100Aは、対象を撮像し、撮像画像を生成する。駆動部100Bは、撮像部100Aの撮像角度を変化させる。推定部100Cは、対象の撮像画像と撮像角度とに基づいて対象の所定部位の高さ情報を推定する。
 第7実施形態によれば、生体認証に適した生体画像を取得できる情報処理装置100が提供される。
 [変形実施形態]
 この開示は、上述の実施形態に限定されることなく、この開示の趣旨を逸脱しない範囲において適宜変更可能である。例えば、いずれかの実施形態の一部の構成を他の実施形態に追加した例や、他の実施形態の一部の構成と置換した例も、この開示の実施形態である。
 上述の第1実施形態では、生体認証及び高さ推定を同じカメラが撮像した撮像画像に基づいて実行したが、画像の用途ごとに異なる撮像装置で撮像してもよい。具体的には、認証装置10が、認証用のカメラと、高さ推定用のカメラとを備えている場合には、認証用のカメラが撮像した第1撮像画像に基づく生体認証と、高さ推定用のカメラが撮像した第2撮像画像に基づく高さ情報の推定処理とを並列に実行してもよい。
 上述の第1実施形態では、高さ情報の推定処理は一回のみ実行されていた。しかし、高さ情報の推定処理は、撮影角度が変更される度に実行されてもよい。すなわち、高さ情報が一度推定された後に、カメラ107が駆動されることで撮像角度が変化した場合には、高さ情報を再取得する。例えば、人物がゲートに向かって移動する場合、カメラ107と人物との距離が次第に短くなる。このような場合には、直近の撮像画像及び撮像角度に基づいて2要素認証を実行するとよい。これにより、認証精度の更なる向上が図られる。
 上述の第1乃至第7実施形態では、ゲートを使った入退場を例に挙げたが、金融機関や小売店舗での決済に個人を認証するシーンや、ホテルやマンションの入退管理、車のキーレスエントリシステム等にも適用できる。
 上述の第1乃至第7実施形態では、生体情報の抽出や照合スコアを算出するための認証エンジン21とデータベース22を認証装置10の外部の認証サーバ20が備えているが、認証エンジン21とデータベース22の機能を認証装置10の内部に持たせてもよい。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC、FPGA等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。
 なお、上述の実施形態は、いずれもこの開示を実施するにあたっての具体化の例を示したものに過ぎず、これらによってこの開示の技術的範囲が限定的に解釈されてはならないものである。すなわち、この開示はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象を撮像し、撮像画像を生成する撮像部と、
 前記撮像部の撮像角度を変化させる駆動部と、
 前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定する推定部と、
 を備える情報処理装置。
 (付記2)
 前記駆動部は、前記撮像部を駆動することにより、前記撮像角度を変化させる、
 付記1に記載の情報処理装置。
 (付記3)
 前記撮像部は、前記対象から入射した光を前記撮像部の受光部に向けて反射するミラーを含み、
 前記駆動部は、前記ミラーを駆動することにより、前記撮像角度を変化させる、
 付記1に記載の情報処理装置。
 (付記4)
 前記対象から前記撮像部までの距離を取得する取得部を更に備え、
 前記推定部は、前記距離、前記撮像角度、及び前記撮像画像における前記所定部位の位置に基づいて前記高さ情報を推定する、
 付記1乃至3のいずれかに記載の情報処理装置。
 (付記5)
 前記所定部位の位置は、前記撮像画像における中心点からの画像内距離により決定される、
 付記4に記載の情報処理装置。
 (付記6)
 登録者の登録生体画像及び登録高さ情報を記憶する記憶部と、
 前記登録生体画像と前記撮像画像に含まれる前記対象の生体画像とを用いた第1生体認証と、前記登録高さ情報と前記高さ情報とを用いた第2生体認証とを実行する認証部と、
 を更に備える付記4又は5に記載の情報処理装置。
 (付記7)
 前記認証部は、前記距離に基づいて、前記第1生体認証及び前記第2生体認証の少なくとも一方における閾値を変化させる
 付記6に記載の情報処理装置。
 (付記8)
 前記登録生体画像は、前記登録者の登録顔画像であり、
 前記撮像部は、前記対象の顔画像を含む前記撮像画像を撮像し、
 前記認証部は、前記第1生体認証として、前記顔画像と前記登録顔画像とを用いた顔認証を実行する、
 付記6又は7に記載の情報処理装置。
 (付記9)
 前記登録生体画像は、前記登録者の登録顔画像及び登録虹彩画像であり、
 前記撮像部は、前記対象の顔画像を含む前記撮像画像を撮像する第1撮像部と前記対象の虹彩画像を撮像する第2撮像部とを含み、
 前記認証部は、前記第1生体認証として、前記顔画像と前記登録顔画像とを用いた顔認証、前記虹彩画像と前記登録虹彩画像とを用いた虹彩認証をそれぞれ実行する、
 付記6又は7に記載の情報処理装置。
 (付記10)
 前記駆動部は、前記距離に応じて前記撮像角度を変化させる、
 付記6乃至9のいずれかに記載の情報処理装置。
 (付記11)
 前記撮像部は、前記距離が所定の閾値以上である場合は、前記撮像画像の中心を前記対象の顔に設定する第1撮影角度での撮像を行い、前記距離が前記閾値未満である場合は、前記撮像画像の中心を前記対象の頭頂部に設定する第2撮影角度での撮像を行う
 付記10に記載の情報処理装置。
 (付記12)
 前記撮像部は、前記距離が所定の閾値未満である場合は、前記撮像画像の中心を前記対象の顔に設定する第1撮影角度での撮像を行い、前記距離が前記閾値以上である場合は、前記撮像画像の中心を前記対象の頭頂部に設定する第2撮影角度での撮像を行う、
 付記10に記載の情報処理装置。
 (付記13)
 前記所定部位は、頭頂部、目、鼻、耳、口、顎のいずれかである、
 付記1乃至12のいずれかに記載の情報処理装置。
 (付記14)
 前記推定部は、前記高さ情報を推定した後に前記駆動部が前記撮像角度を変化させた場合に、前記高さ情報を再度推定する、
 付記1乃至13のいずれかに記載の情報処理装置。
 (付記15)
 前記推定部は、前記高さ情報の時間変化に基づいて前記対象の歩容を推定する、
 付記1乃至14のいずれかに記載の情報処理装置。
 (付記16)
 前記推定部は、前記高さ情報の時間変化に基づいて前記対象が移動に使用している物品推定する、
 付記1乃至14のいずれかに記載の情報処理装置。
 (付記17)
 前記撮像角度は、水平面に対する前記撮像部の光軸の角度である、
 付記1乃至16のいずれかに記載の情報処理装置。
 (付記18)
 撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、
 前記撮像装置の撮像角度を変化させるステップと、
 前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、
 を備える情報処理方法。
 (付記19)
 コンピュータに、
 撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、
 前記撮像装置の撮像角度を変化させるステップと、
 前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、
 を実行させるプログラムが記録された記録媒体。
1・・・認証システム
10・・・認証装置
101・・・プロセッサ
102・・・RAM
103・・・ROM
104・・・ストレージ
105・・・通信I/F
106・・・ディスプレイ
107・・・カメラ
107A・・・第1カメラ
107B・・・第2カメラ
108・・・モーター
109・・・距離センサ
110・・・照明装置
111・・・回転ミラー
20・・・認証サーバ
21・・・認証エンジン(認証部)
22・・・データベース(記憶部)
30・・・ゲート装置
100・・・情報処理装置
100A・・・撮像部
100B・・・駆動部
100C・・・推定部

Claims (19)

  1.  対象を撮像し、撮像画像を生成する撮像部と、
     前記撮像部の撮像角度を変化させる駆動部と、
     前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定する推定部と、
     を備える情報処理装置。
  2.  前記駆動部は、前記撮像部を駆動することにより、前記撮像角度を変化させる、
     請求項1に記載の情報処理装置。
  3.  前記撮像部は、前記対象から入射した光を前記撮像部の受光部に向けて反射するミラーを含み、
     前記駆動部は、前記ミラーを駆動することにより、前記撮像角度を変化させる、
     請求項1に記載の情報処理装置。
  4.  前記対象から前記撮像部までの距離を取得する取得部を更に備え、
     前記推定部は、前記距離、前記撮像角度、及び前記撮像画像における前記所定部位の位置に基づいて前記高さ情報を推定する、
     請求項1乃至3のいずれか1項に記載の情報処理装置。
  5.  前記所定部位の位置は、前記撮像画像における中心点からの画像内距離により決定される、
     請求項4に記載の情報処理装置。
  6.  登録者の登録生体画像及び登録高さ情報を記憶する記憶部と、
     前記登録生体画像と前記撮像画像に含まれる前記対象の生体画像とを用いた第1生体認証と、前記登録高さ情報と前記高さ情報とを用いた第2生体認証とを実行する認証部と、
     を更に備える請求項4又は5に記載の情報処理装置。
  7.  前記認証部は、前記距離に基づいて、前記第1生体認証及び前記第2生体認証の少なくとも一方における閾値を変化させる
     請求項6に記載の情報処理装置。
  8.  前記登録生体画像は、前記登録者の登録顔画像であり、
     前記撮像部は、前記対象の顔画像を含む前記撮像画像を撮像し、
     前記認証部は、前記第1生体認証として、前記顔画像と前記登録顔画像とを用いた顔認証を実行する、
     請求項6又は7に記載の情報処理装置。
  9.  前記登録生体画像は、前記登録者の登録顔画像及び登録虹彩画像であり、
     前記撮像部は、前記対象の顔画像を含む前記撮像画像を撮像する第1撮像部と前記対象の虹彩画像を撮像する第2撮像部とを含み、
     前記認証部は、前記第1生体認証として、前記顔画像と前記登録顔画像とを用いた顔認証、前記虹彩画像と前記登録虹彩画像とを用いた虹彩認証をそれぞれ実行する、
     請求項6又は7に記載の情報処理装置。
  10.  前記駆動部は、前記距離に応じて前記撮像角度を変化させる、
     請求項6乃至9のいずれか1項に記載の情報処理装置。
  11.  前記撮像部は、前記距離が所定の閾値以上である場合は、前記撮像画像の中心を前記対象の顔に設定する第1撮影角度での撮像を行い、前記距離が前記閾値未満である場合は、前記撮像画像の中心を前記対象の頭頂部に設定する第2撮影角度での撮像を行う
     請求項10に記載の情報処理装置。
  12.  前記撮像部は、前記距離が所定の閾値未満である場合は、前記撮像画像の中心を前記対象の顔に設定する第1撮影角度での撮像を行い、前記距離が前記閾値以上である場合は、前記撮像画像の中心を前記対象の頭頂部に設定する第2撮影角度での撮像を行う、
     請求項10に記載の情報処理装置。
  13.  前記所定部位は、頭頂部、目、鼻、耳、口、顎のいずれかである、
     請求項1乃至12のいずれか1項に記載の情報処理装置。
  14.  前記推定部は、前記高さ情報を推定した後に前記駆動部が前記撮像角度を変化させた場合に、前記高さ情報を再度推定する、
     請求項1乃至13のいずれか1項に記載の情報処理装置。
  15.  前記推定部は、前記高さ情報の時間変化に基づいて前記対象の歩容を推定する、
     請求項1乃至14のいずれか1項に記載の情報処理装置。
  16.  前記推定部は、前記高さ情報の時間変化に基づいて前記対象が移動に使用している物品推定する、
     請求項1乃至14のいずれか1項に記載の情報処理装置。
  17.  前記撮像角度は、水平面に対する前記撮像部の光軸の角度である、
     請求項1乃至16のいずれか1項に記載の情報処理装置。
  18.  撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、
     前記撮像装置の撮像角度を変化させるステップと、
     前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、
     を備える情報処理方法。
  19.  コンピュータに、
     撮像装置を用いて対象を撮像し、撮像画像を生成するステップと、
     前記撮像装置の撮像角度を変化させるステップと、
     前記撮像画像と前記撮像角度とに基づいて前記対象の所定部位の高さ情報を推定するステップと、
     を実行させるプログラムが記録された記録媒体。
PCT/JP2022/013118 2022-03-22 2022-03-22 情報処理装置、情報処理方法及び記録媒体 WO2023181110A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/013118 WO2023181110A1 (ja) 2022-03-22 2022-03-22 情報処理装置、情報処理方法及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/013118 WO2023181110A1 (ja) 2022-03-22 2022-03-22 情報処理装置、情報処理方法及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023181110A1 true WO2023181110A1 (ja) 2023-09-28

Family

ID=88100210

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/013118 WO2023181110A1 (ja) 2022-03-22 2022-03-22 情報処理装置、情報処理方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023181110A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107587A (ja) * 2003-09-26 2005-04-21 Toshiba Corp 顔認証装置および通行制御装置
JP2008123100A (ja) * 2006-11-09 2008-05-29 Omron Corp 情報処理装置および方法、並びにプログラム
JP2010239992A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物同定装置、人物同定方法、及び人物同定プログラム
JP2016173813A (ja) * 2015-03-16 2016-09-29 株式会社リコー 情報処理装置、情報処理システム、認証方法、及びプログラム
JP2019179401A (ja) * 2018-03-30 2019-10-17 大日本印刷株式会社 取引操作端末、監視システム及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107587A (ja) * 2003-09-26 2005-04-21 Toshiba Corp 顔認証装置および通行制御装置
JP2008123100A (ja) * 2006-11-09 2008-05-29 Omron Corp 情報処理装置および方法、並びにプログラム
JP2010239992A (ja) * 2009-03-31 2010-10-28 Sogo Keibi Hosho Co Ltd 人物同定装置、人物同定方法、及び人物同定プログラム
JP2016173813A (ja) * 2015-03-16 2016-09-29 株式会社リコー 情報処理装置、情報処理システム、認証方法、及びプログラム
JP2019179401A (ja) * 2018-03-30 2019-10-17 大日本印刷株式会社 取引操作端末、監視システム及びプログラム

Similar Documents

Publication Publication Date Title
US10796514B2 (en) System and method for optimizing a facial recognition-based system for controlling access to a building
US20190213309A1 (en) Facial authentication systems and methods utilizing time of flight sensing
US6775397B1 (en) Method and apparatus for user recognition using CCD cameras
US7660444B2 (en) Method and apparatus for user recognition using CCD cameras
US20140341440A1 (en) Identity caddy: a tool for real-time determination of identity in the mobile environment
WO2005057472A1 (fr) Procede de reconnaissance des visages et systeme d'acquisition d'images
JP4476744B2 (ja) 撮像システム、及びプログラム
US20150097936A1 (en) Non-Contact Fingerprinting Systems with Afocal Optical Systems
US20130088685A1 (en) Iris Cameras
WO2018038158A1 (ja) 虹彩撮像装置、虹彩撮像方法および記録媒体
US11756338B2 (en) Authentication device, authentication method, and recording medium
KR20140053647A (ko) 3차원 얼굴 인식 시스템 및 그의 얼굴 인식 방법
US20200043188A1 (en) Communication terminal, communication system, communication control method, and recording medium
US11882354B2 (en) System for acquisiting iris image for enlarging iris acquisition range
WO2023181110A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7223303B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
Boehnen et al. A multi-sample standoff multimodal biometric system
KR20180100890A (ko) 원거리 멀티 생체 인식 방법 및 장치
JP7482380B2 (ja) 撮像装置
KR102089618B1 (ko) 생체정보를 이용한 대중교통 무임승차 작동 방법 및 그의 처리 시스템
WO2005064525A1 (en) A method and apparatus for providing information relating to a body part of a person, such as for identifying the person
JP2019159372A (ja) 認証装置、認証システム、認証方法、コンピュータプログラム、及び記憶媒体
WO2024047737A1 (ja) 情報処理装置、情報処理方法及び記録媒体
Beumier et al. Automatic face recognition
Camus et al. Sensar... secure/sup TM/Iris identification system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22933258

Country of ref document: EP

Kind code of ref document: A1