WO2020183732A1 - 情報処理装置、情報処理システム、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理システム、情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2020183732A1
WO2020183732A1 PCT/JP2019/010697 JP2019010697W WO2020183732A1 WO 2020183732 A1 WO2020183732 A1 WO 2020183732A1 JP 2019010697 W JP2019010697 W JP 2019010697W WO 2020183732 A1 WO2020183732 A1 WO 2020183732A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
iris
information processing
target person
image
Prior art date
Application number
PCT/JP2019/010697
Other languages
English (en)
French (fr)
Inventor
井上 晃
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2021505476A priority Critical patent/JP7223303B2/ja
Priority to EP19919135.4A priority patent/EP3940627A4/en
Priority to US17/436,220 priority patent/US20220130173A1/en
Priority to BR112021016773A priority patent/BR112021016773A2/pt
Priority to PCT/JP2019/010697 priority patent/WO2020183732A1/ja
Priority to CN201980093922.2A priority patent/CN113557519A/zh
Priority to TW109107229A priority patent/TW202040426A/zh
Priority to ARP200100711A priority patent/AR118356A1/es
Publication of WO2020183732A1 publication Critical patent/WO2020183732A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to an information processing device, an information processing system, an information processing method and a recording medium.
  • Patent Document 1 discloses a system in which a user's iris image is taken by a near-infrared camera and the user is authenticated based on the degree of similarity between the iris code generated from the iris image and the registered iris code of the registrant. ing.
  • Patent Document 1 The system illustrated in Patent Document 1 is based on the premise that the user himself / herself aligns his / her eyes with respect to the near-infrared camera and takes an iris image while the user is stationary. Therefore, there is room for improvement from the viewpoint of user convenience.
  • an object of the present invention is to provide an information processing device, an information processing system, an information processing method, and a recording medium that can improve the convenience of the user in iris recognition.
  • an information processing device that controls an iris matching system, and is obtained from an acquisition unit that acquires line-of-sight information of a collation target person from an image taken by the first photographing device, and from the line-of-sight information.
  • An information processing device including a control unit that controls an iris matching system so that the obtained line-of-sight direction and the shooting direction in the second photographing device that captures the iris image used for the iris matching of the collation target person face each other.
  • a first photographing device that captures a first image including at least a part of the face of the collation target person and a second photographing device that captures a second image including the iris of the collation target person.
  • An information processing system including an apparatus and an information processing apparatus, wherein the information processing apparatus obtains from an acquisition unit that acquires line-of-sight information of the collation target person based on the first image, and the line-of-sight information.
  • an information processing system including a control unit that controls the information processing system so that the line-of-sight direction of the collation target person and the photographing direction in the second photographing apparatus face each other.
  • an information processing method for controlling the iris matching system from the step of acquiring the line-of-sight information of the collation target person from the image taken by the first photographing device, and from the line-of-sight information.
  • An information processing method including a step of controlling the iris matching system so that the obtained line-of-sight direction and the shooting direction in the second photographing device for shooting the iris image used for the iris matching of the collation target person face each other.
  • the computer controlling the iris matching system has a step of acquiring the line-of-sight information of the collation target person from the image taken by the first photographing device, and the line-of-sight direction obtained from the line-of-sight information.
  • a program for executing the step of controlling the iris matching system so that the shooting direction in the second photographing device for shooting the iris image used for the iris matching of the collation target person faces each other is recorded. Recording medium is provided.
  • FIG. 1 is a diagram showing an overall configuration example of the iris matching system 1 according to the present embodiment.
  • the iris matching system 1 has a function of iris matching, which is a kind of biological matching.
  • the iris collation system 1 performs iris collation by photographing the iris of the user who is the collation target person and collating it with the registered iris image.
  • the pattern of the iris is invariant to all and is immutable for life. Therefore, the identity can be confirmed by collating the iris pattern acquired at the time of collation with the iris image registered in advance in the database.
  • the iris verification system 1 in the present embodiment is, for example, identity verification for entry / exit at an airport / seaport / border, identity verification at an administrative agency, identity verification for entry / exit to a factory / business establishment, or to an event venue. It can be applied to identity verification at the time of admission.
  • the iris collation system 1 includes an information processing device 10, a line-of-sight detection camera 20, an iris photographing camera 30, a distance sensor 40, a notification device 50, a collation device 60, and an iris database. 70 and.
  • a network NW such as a LAN (Local Area Network) or the Internet.
  • the information processing device 10 controls the iris photographing camera 30 to photograph the iris image of the collation target person. Then, the information processing device 10 controls the collation device 60 to collate the photographed iris image of the collation target person with the iris image of the registrant stored in advance in the iris database 70. On the contrary, when the angle does not satisfy a predetermined determination criterion (allowable range), the information processing device 10 controls the notification device 50 to call attention to the collation target person, and the line-of-sight direction of the collation target person. Is directed toward the iris photographing camera 30 side. That is, the information processing device 10 of the present embodiment controls the notification device 50 so as to reduce the angle formed by the line-of-sight direction of the collation target person and the photographing direction in the photographing device.
  • the line-of-sight detection camera 20 is a photographing device (first photographing device) capable of photographing the face, eyes, and the like of the collation target person with visible light and acquiring an image.
  • the line-of-sight detection camera 20 captures a first image including at least a part of the face of the collation target person.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the line-of-sight detection camera 20 may include a light source that irradiates the collation target with illumination light.
  • the iris photographing camera 30 is a photographing device (second photographing device) including an infrared irradiation device 30a and an infrared camera 30b, and photographs a second image including the iris of the collation target person.
  • the infrared irradiation device 30a includes a light emitting element that emits infrared light such as an infrared LED.
  • the shooting wavelength of the iris shooting camera 30 is different from the shooting wavelength of the line-of-sight detection camera 20.
  • the wavelength of infrared rays emitted from the infrared irradiation device 30a can be, for example, a near infrared region of about 800 nm.
  • the infrared camera 30b a digital camera using a CMOS image sensor, a CCD image sensor, or the like provided with a light receiving element configured to have sensitivity to infrared rays can be used.
  • the iris image used for the iris matching can be photographed.
  • the resolution of the second image is higher than the resolution of the first image.
  • the distance sensor 40 irradiates an object with light rays such as infrared rays, detects the distance based on the time required for the irradiated light rays to reciprocate between the distance sensor 40 and the object, and determines the detected distance.
  • the indicated signal is output to the information processing device 10.
  • the notification device 50 is a device that alerts the collation target person to direct the line-of-sight direction toward the iris photographing camera 30 side based on the notification control information from the information processing device 10.
  • the notification device 50 includes at least one of a display 50a, an LED 50b, and a speaker 50c.
  • the notification control information in the present embodiment includes information for guiding the line-of-sight direction of the collation target person toward the iris photographing camera 30 side.
  • the display 50a, the LED 50b, and the speaker 50c give the following notifications based on the notification control information.
  • the display 50a determines whether or not the angle formed by the line-of-sight direction of the collation target person and the shooting direction of the iris photographing camera 30 satisfies a predetermined determination criterion. Notify to. For example, on the display 50a, it is possible to notify that the screen color is OK when the screen color is green, caution when the screen color is yellow, and correction is required when the screen color is red.
  • the LED 50b collates whether or not the angle formed by the line-of-sight direction of the collation target person and the shooting direction of the iris photographing camera 30 satisfies a predetermined determination criterion by switching lighting / non-lighting and switching the lighting color. Notify the target person. For example, in the LED 50b, when the lighting color is green, it can be notified that it is OK, when it is yellow, it is caution, and when it is red, it can be notified that correction is required.
  • the speaker 50c outputs an alarm sound and a guidance voice to notify the collation target person whether or not the angle formed by the line-of-sight direction of the collation target person and the shooting direction of the iris photographing camera 30 satisfies a predetermined determination criterion. .. For example, it is advisable to output guidance voices such as "Look at the camera with the lamp on" and "Please shift your line of sight slightly to the right.”
  • the collation device 60 includes an iris image (or feature amount) taken by the iris photographing camera 30 and a registered iris image (or feature amount) registered in the iris database 70 based on the control information from the information processing device 10. Executes the collation process with and authenticates the collation target person.
  • the iris database 70 is a database that stores an image of the registrant's eye as a collation destination, an iris image detected from the eye image, an iris feature amount calculated from the iris image, and the like in association with the registrant's ID. ..
  • the collation device 60 and the iris database 70 may be configured as an integrated device with the information processing device 10.
  • FIG. 2 is a block diagram showing a hardware configuration example of the information processing device 10 and the collation device 60 according to the present embodiment.
  • the information processing device 10 is a computer that performs arithmetic, control, and storage, and includes a CPU (Central Processing Unit) 151, a RAM (Random Access Memory) 152, a ROM (Read Only Memory) 153, and an HDD (Hard Disk Drive) 154.
  • the communication I / F (interface) 155, the display device 156, and the input device 157 are provided.
  • the CPU 151, RAM 152, ROM 153, HDD 154, communication I / F 155, display device 156, and input device 157 are connected to each other via a bus 158.
  • the display device 156 and the input device 157 may be connected to the bus 158 via a drive device (not shown) for driving these devices.
  • the CPU 151 is a processor having a function of performing a predetermined operation according to a program stored in the ROM 153, the HDD 154, etc., and controlling each part of the information processing device 10.
  • the RAM 152 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the CPU 151.
  • the ROM 153 is composed of a non-volatile storage medium and stores necessary information such as a program used for the operation of the information processing apparatus 10.
  • the HDD 154 is a storage device composed of a non-volatile storage medium and storing data required for processing, an operation program of the information processing device 10, and the like.
  • Communication I / F155 is a communication interface based on standards such as Ethernet (registered trademark), Wi-Fi (registered trademark), and 4G, and is a module for communicating with other devices.
  • the display device 156 is a liquid crystal display, an OLED (Organic Light Emitting Diode) display, or the like, and is used for displaying moving images, still images, characters, and the like.
  • the input device 157 is a keyboard, a pointing device, or the like, and is used for the user to operate the information processing device 10. Examples of pointing devices include mice, trackballs, touch panels, pen tablets and the like.
  • the display device 156 and the input device 157 may be integrally formed as a touch panel.
  • the collation device 60 includes a CPU 651, a RAM 652, a ROM 653, an HDD 654, and a communication I / F 655 as a computer that performs calculation, control, and storage. Since these devices are the same as the CPU 151, RAM 152, ROM 153, HDD 154 and communication I / F 155 of the information processing device 10, detailed description thereof will be omitted.
  • the CPU 651, RAM 652, ROM 653, HDD 654 and communication I / F 655 are connected to each other via bus 658.
  • the hardware configuration shown in FIG. 2 is an example, and devices other than these may be added, and some devices may not be provided. Further, some devices may be replaced with another device having the same function. Further, some functions of the present embodiment may be provided by other devices via the network NW, or the functions of the present embodiment may be distributed and realized by a plurality of devices.
  • the HDD 154 may be replaced with an SSD (Solid State Drive) using a semiconductor memory, or may be replaced with a cloud storage.
  • FIG. 3 is a block diagram showing the functions of the information processing device 10 and the collation device 60 in the present embodiment.
  • the information processing device 10 includes an image acquisition unit 11, a line-of-sight information acquisition unit 12, a distance information acquisition unit 13, a control unit 14, and a storage unit 15.
  • the CPU 151 loads the program stored in the ROM 153, the HDD 154, etc. into the RAM 152 and executes the program.
  • the CPU 151 has an image acquisition unit 11, a line-of-sight information acquisition unit 12, a distance information acquisition unit 13, and a control unit 14 (line-of-sight direction estimation unit 14a, angle detection unit 14b, determination unit 14c, notification control unit 14d, drive control unit). 14e) and other functions are realized.
  • the CPU 151 realizes the function of the storage unit 15 by controlling the HDD 154.
  • the storage unit 15 stores data such as an image acquired by the image acquisition unit 11, a determination criterion of the line-of-sight direction, and line-of-sight information acquired from a face image.
  • the collation device 60 includes an image acquisition unit 61, an iris image extraction unit 62, a coordinate conversion unit 63, a block division unit 64, a feature amount calculation unit 65, a collation unit 66, and a storage unit 67. ..
  • the CPU 651 loads the program stored in the ROM 653 or the like into the RAM 652 and executes the program. As a result, the CPU 651 realizes the functions of the image acquisition unit 61, the iris image extraction unit 62, the coordinate conversion unit 63, the block division unit 64, the feature amount calculation unit 65, and the collation unit 66. Details of the processing performed in each of these parts will be described later.
  • the CPU 651 realizes the function of the storage unit 67 by controlling the HDD 654.
  • the storage unit 67 stores data such as an eye image acquired by the image acquisition unit 61, an iris image extracted from the eye image, and a feature amount calculated from the iris image.
  • FIG. 4 is a flowchart showing an example of the control process of the information processing apparatus 10 according to the present embodiment.
  • the process of FIG. 4 is an example, and the order of the processes can be changed as appropriate.
  • the image acquisition unit 11 receives the captured image captured by the line-of-sight detection camera 20 (step S101). Since the captured image is used for estimating the line-of-sight direction, it is assumed that the captured image includes at least a part of the face of the collation target person.
  • the distance information acquisition unit 13 receives a signal indicating the distance between the collation target person and the iris photographing camera 30 from the distance sensor 40 as distance information (step S102).
  • the line-of-sight information acquisition unit 12 analyzes the captured image received in step S101 and acquires the line-of-sight information of the collation target person (step S103).
  • the line-of-sight information in the present embodiment includes the face direction of the collation target person, the position information of the eye region in the image, the position information of the outer corner of the eye, the pupil, and the iris.
  • the control unit 14 selects a method for estimating the line-of-sight direction of the collation target person based on the distance between the collation target person and the iris photographing camera 30 (step S104).
  • two types of methods can be selected as the method for estimating the line-of-sight direction.
  • the control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction based on the face direction of the collation target person included in the line-of-sight information when the distance is equal to or greater than a predetermined reference distance (first). Method 1).
  • control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction based on the position information of the pupil or iris of the collation target person included in the line-of-sight information when the distance is less than the reference distance (second). the method of).
  • the first method is, for example, as follows. First, the line-of-sight information acquisition unit 12 extracts the face direction from the face region extracted from the face image by an arbitrary method. The line-of-sight information acquisition unit 12 acquires the positions of the left and right eyes (pupils) and the positions of the nose from the face region extracted from the face image by template matching. Next, the line-of-sight information acquisition unit 12 uses the line connecting the midpoints of the left and right eye positions and the position of the nose as the center line of the face, the distance from the center line to the left end of the face region, and the face from the center line. Find the ratio to the distance to the right edge of the area.
  • the line-of-sight information acquisition unit 12 calculates the face direction in the left-right direction using the left-right ratio in the face region based on the table showing the relationship between the left-right ratio and the face direction recorded in advance.
  • the table showing the relationship between the left-right ratio and the face direction is determined in advance by experiments and simulations and is stored in the storage area.
  • the line-of-sight information acquisition unit 12 calculates the face direction in the vertical direction using the positions of the constituent parts of the face.
  • the line connecting the positions of the left and right eyes is defined as the horizontal line of the face, and the ratio of the distance from the horizontal line to the upper end of the face area and the distance from the horizontal line to the lower end of the face area is obtained.
  • the line-of-sight direction estimation unit 14a calculates the face direction in the vertical direction using the vertical ratio in the face region based on the table showing the relationship between the vertical ratio and the face direction recorded in advance.
  • the face direction is represented by three angles, for example, a pan angle, a chill angle, and a roll angle.
  • the line-of-sight information acquisition unit 12 holds the detected face direction as line-of-sight information in the storage area. Then, when the distance is equal to or greater than a predetermined reference distance, the control unit 14 (line-of-sight direction estimation unit 14a) calculates (estimates) the line-of-sight direction based on the face direction of the collation target person included in the line-of-sight information.
  • FIG. 5 shows a case where the line-of-sight direction is estimated based on the face direction of the collation target person.
  • the line-of-sight detection camera 20 is present in the front direction (X-axis direction in the drawing) of the collation target person, the face direction of the collation target person is directed upward by an angle ⁇ .
  • it is detected how much the face is tilted based on the time when the collation target person faces straight forward in an upright state, and the line-of-sight direction is estimated from the face direction.
  • the face direction and the line-of-sight direction of the collation target person do not always match. Therefore, the method of estimating the line-of-sight direction based on the face direction of the collation target person is not in the iris imaging section but when the collation target person is located in a section far from the camera (for example, near the entrance of the line-of-sight adjustment section). It is preferable to apply it and prepare the collation target person for shooting.
  • the second method is, for example, as follows.
  • the line-of-sight information acquisition unit 12 acquires, for example, the positions of the pupils of the left and right eyes as line-of-sight information from the face region extracted from the face image by template matching.
  • the control unit 14 calculates the line-of-sight direction for each of the left and right eyes based on the relative position of the pupil from a predetermined reference point on the human face.
  • the predetermined reference point is, for example, the position of the Purkinje image, which is the reflection point of light on the cornea, the position of the inner corner of the eye, and the like.
  • control unit 14 (line-of-sight direction estimation unit 14a) starts from a predetermined reference point in the face region based on a table showing the relationship between the relative position of the pupil from the predetermined reference point and the line-of-sight direction recorded in advance.
  • the line-of-sight direction is calculated using the relative position of the pupil of.
  • the table showing the relationship between the relative position of the pupil and the line-of-sight direction is determined in advance by experiments and simulations and is stored in the storage area.
  • the line-of-sight direction is represented by two angles, for example, an azimuth angle and an elevation angle, for each of the left and right eyes.
  • the line-of-sight direction may be represented by the average value of the line-of-sight directions of the left and right eyes.
  • the line-of-sight direction estimation unit 14a holds the calculated line-of-sight direction in the storage area.
  • FIG. 6A and 6B show a case where the line-of-sight direction of the collation target person is estimated based on the positional relationship between the inner corner C and the iris I with the inner corner C as the reference point and the iris I as the moving point in the eye image of the collation target person. ing.
  • the iris I is separated from the inner corner C in the left eye of the collation target. In this case, it is presumed that the collation target person is looking at the outer corner of the eye.
  • FIG. 6B the iris I is located on the inner corner C side of the left eye of the collation target. In this case, it is presumed that the collation target person is looking at the inner corner C side of the eye.
  • FIG. 7A and 7B show a corneal reflex point with the corneal reflex point R as a reference point and the pupil P as a moving point in the eye image of the collation target person when the face of the collation target person is irradiated with irradiation light such as an infrared LED.
  • irradiation light such as an infrared LED.
  • FIG. 7A the pupil P is located on the outer corner of the eye with respect to the corneal reflex point R in the left eye of the collation target. In this case, it is presumed that the collation target person is looking at the outer corner of the eye.
  • FIG. 7B the pupil P is located closer to the inner corner C of the corneal reflex point R in the left eye of the collation target. In this case, it is presumed that the collation target person is looking at the inner corner C side of the eye.
  • FIGS. 5, 6A, 6B, 7A, and 7B Although a plurality of methods for estimating the line-of-sight directions have been described in FIGS. 5, 6A, 6B, 7A, and 7B, these methods comprehensively consider the distance between the collation target person and the camera and the introduction cost. It is preferable to select.
  • the estimation method based on the face direction shown in FIG. 5 is effective when the distance to the collation target person is long and the inside of the eye cannot be photographed with high resolution.
  • the estimation methods of FIGS. 6A, 6B, 7A and 7B have an advantage that they can be estimated with higher accuracy than the estimation method of FIG. 5, and in particular, the collation target person exists at a short distance. It is effective when it is. Further, since the estimation methods shown in FIGS.
  • FIGS. 7A and 7B can be mounted only by the line-of-sight detection camera 20 (visible camera), there is an advantage that the cost at the time of mounting can be suppressed.
  • the estimation methods of FIGS. 7A and 7B require an infrared LED or the like as a separate light source, but have the advantage of higher estimation accuracy than the estimation methods shown in FIGS. 6A and 6B.
  • control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction of the collation target person from the line-of-sight information based on the selected estimation method (step S105).
  • control unit 14 detects the angle (hereinafter, referred to as “detection angle”) formed by the line-of-sight direction estimated in step S105 and the shooting direction of the iris shooting camera 30 (step). S106).
  • step S107 determines whether or not the detection angle satisfies a predetermined determination criterion.
  • step S107 determines whether or not the detection angle satisfies a predetermined determination criterion.
  • step S107: YES determines whether or not the detection angle satisfies a predetermined determination criterion.
  • step S109: NO determines whether or not the detection angle satisfies a predetermined determination criterion.
  • FIG. 8 and 9 are diagrams for explaining the angle formed by the line-of-sight direction of the collation target person and the shooting direction of the iris shooting camera 30 in the present embodiment.
  • FIG. 8 it is shown that the collation target person T exists in the line-of-sight adjustment section S1 and the detection angle is ⁇ .
  • the notification control unit 14d described above outputs control information to the notification device 50 and adjusts the line-of-sight direction to the collation target person T in the line-of-sight adjustment section S1.
  • the collation target person T exists in the iris photographing section S2 set closer to the iris photographing camera 30 than the line-of-sight adjustment section S1. Further, since the line-of-sight direction of the collation target person and the shooting direction of the iris shooting camera 30 are aligned on substantially a straight line, it is shown that the detection angle ⁇ (not shown) is sufficiently small. That is, the line-of-sight direction is within a predetermined range. In such a case, the eye portion of the collation target person fits in the angle of view of the iris photographing camera 30.
  • the drive control unit 14e described above receives the determination result of the determination unit 14c and outputs control information for causing the iris photographing camera 30 to capture an iris image.
  • step S108 the control unit 14 (determination unit 14c) determines whether or not the collation target person exists in the iris imaging section.
  • the control unit 14 determines that the collation target person exists in the iris photographing section (step S108: YES)
  • the process proceeds to step S110.
  • the control unit 14 determines that the collation target person does not exist in the iris imaging section (step S108: NO)
  • the process returns to step S101.
  • step S109 the control unit 14 (notification control unit 14d) generates notification control information for notifying the collation target person of various information based on the detection angle, and when the notification device 50 is controlled, the process proceeds to step S101.
  • the control unit 14 determines the notification method in the notification device 50, and iris the line-of-sight direction to the collation target person by the notification method such as screen display, sound, and light in the notification device 50. A warning is given so that the camera 30 is directed toward the shooting camera 30.
  • step S110 the control unit 14 (drive control unit 14e) outputs control information to the iris photographing camera 30. That is, the control unit 14 (drive control unit 14e) causes the iris photographing camera 30 to capture an iris image when the angle is equal to or less than a predetermined angle and the distance is equal to or less than a predetermined distance.
  • control unit 14 (drive control unit 14e) outputs control information to the collation device 60 (step S111), and registers the iris image taken by the iris photographing camera 30 and the iris database 70 in advance.
  • the collation process with the iris image is executed, and the process is completed.
  • FIG. 10 is a flowchart showing an example of processing of the collating device 60 in the present embodiment. Further, FIG. 11 is a schematic diagram showing an outline of the iris matching process. The process of FIG. 10 is started when the collation device 60 receives control information from the information processing device 10.
  • step S201 the image acquisition unit 61 acquires an image of the eyes of the collation target person. This process corresponds to FIG. 11 (a).
  • the acquired image is stored in the storage unit 67. Typically, this image is taken by infrared and is a grayscale image.
  • step S202 the iris image extraction unit 62 determines the iris region from the image of the eye of the collation target person and extracts the iris image. This process corresponds to FIGS. 11 (b) and 11 (c).
  • the iris image extraction unit 62 detects the pupil from the image of the eye and identifies the position thereof.
  • the position of the identified pupil is stored in the storage unit 67.
  • the shape of the pupil can be approximated as a circle. Therefore, the position of the pupil can be expressed by, for example, the center coordinates and the radius of the pupil.
  • the pupil region can be detected, for example, by extracting pixels having a brightness lower than a predetermined value.
  • the iris image extraction unit 62 detects the iris from the image of the eye and identifies the position of the iris.
  • the identified iris position is stored in the storage unit 67.
  • the shape of the iris can be approximated as an annular shape containing the pupil, so that the position of the iris can be represented, for example, by the center coordinates of the iris, the outer peripheral radius and the inner peripheral radius. Since the inner radius of the iris corresponds to the radius of the pupil, it may be omitted from the information indicating the position of the iris.
  • the iris can be detected, for example, by extracting the change in brightness at the boundary between the outer circumference of the iris and the sclera (so-called white eye).
  • the iris image extraction unit 62 extracts the iris image by cutting out the specified iris portion.
  • the extracted iris image is stored in the storage unit 67.
  • step S203 the coordinate conversion unit 63 transforms the iris image by converting the coordinates.
  • This process corresponds to FIGS. 11 (d) and 11 (e).
  • the coordinate conversion unit 63 converts the annular iris image into a rectangle. This process can be performed, for example, by converting the coordinate system of the iris image from the xy plane coordinate system to the r ⁇ polar coordinate system. Since the shape of the iris image is simplified by this coordinate transformation, the feature amount calculation process is simplified.
  • step S204 the block division unit 64 divides the iris image converted into a rectangle into a plurality of blocks.
  • This process corresponds to FIG. 11 (f).
  • the number of divisions may be, for example, 128 in the horizontal direction, 16 in the vertical direction (that is, 2048 in total), and the like.
  • the iris image itself is expressed as being cut and divided into a plurality of images for easy understanding, but it is not essential to divide the image into a plurality of images.
  • the process of step S204 may be, for example, a process of acquiring the correspondence between the brightness of each block of the iris image and the coordinates of each block.
  • step S205 the feature amount calculation unit 65 performs a process of calculating the feature amount for the iris image divided into a plurality of blocks. This process corresponds to FIG. 11 (g).
  • FIG. 11 (g) an example of a specific processing method for calculating the feature amount will be described.
  • the feature amount calculation unit 65 acquires the brightness of the iris image in each block.
  • the code of the feature amount of a certain block (hereinafter, referred to as "first block") is the magnitude of the brightness with the block to the right of the first block (hereinafter, referred to as "second block”).
  • first block is the magnitude of the brightness with the block to the right of the first block (hereinafter, referred to as "second block”).
  • the feature amount code may be set to "4".
  • the feature code has four kinds of values. In the following description, it is assumed that the feature amount codes are the above-mentioned four types.
  • FIG. 11 (g) shows a feature amount image in which the feature amount code is illustrated at the position of each block.
  • the feature amount code values "1", “2", “3", and "4" are displayed in different patterns.
  • This display may be a pattern in which an image pattern such as a color, brightness, or pattern is changed according to a code value.
  • the extracted feature amount or feature amount image is stored in the storage unit 67.
  • the positional relationship that the second block is to the right of the first block is illustrated, but it may be to the left or the like, and more generally, the second block is the first block. It can be a positional relationship that is adjacent to a block.
  • step S206 the collating unit 66 performs a process of collating the feature amount calculated in step S205 with the pre-registered feature amount.
  • the feature amount calculated in step S205 is compared with the feature amount registered in advance, and a matching area (matching area), a non-matching area (mismatching area), and a non-matching area (non-matching area) are compared. ) Is determined. For example, an area in which the codes to be compared are both "1" or "3" can be determined to be a matching area. A region in which one of the codes to be compared is "1" and the other is "3" can be determined to be a mismatched region.
  • the collation unit 66 outputs the collation result in step S206 to the information processing apparatus 10, and ends the process.
  • the iris collation system 1 in the present embodiment notifies the user of voice, screen display, etc. when the line-of-sight direction of the collation target person deviates from the photographing direction of the iris photographing camera 30 by exceeding a predetermined threshold value. Attention can be given to the collation target person by the method. As a result, even if the collation target person is not in a stationary state, the iris image can be efficiently taken by the walk-through. As a result, the time required for iris recognition can be shortened.
  • the iris collation system 1 in the present embodiment can switch the method of estimating the line-of-sight direction depending on whether the collation target person exists at a position far from the iris photographing camera 30 or near the iris photographing camera 30.
  • the iris matching system 1 can select an appropriate estimation method according to the distance.
  • FIG. 12 is a diagram showing an overall configuration example of the iris collation system 2 according to the present embodiment.
  • the iris collation system 2 in the present embodiment includes a plurality of (N ⁇ 2) iris photographing cameras 30 instead of one.
  • FIG. 13 is a diagram illustrating an angle formed by the line-of-sight direction of the collation target person and the shooting direction of the plurality of iris shooting cameras 30 in the present embodiment.
  • the four iris photographing cameras 30 (30a to 30d) have different photographing directions.
  • the angle formed by the photographing direction of the iris photographing camera 30c and the line-of-sight direction of the collation target person is the minimum value.
  • the information processing device 10 (control unit 14) in the present embodiment is selected from among a plurality of iris photographing cameras 30 having different imaging directions based on the detection angle.
  • the control information is output to the iris photographing camera 30c so as to capture the iris image.
  • FIG. 14 is a flowchart showing an example of the control process of the information processing device 10 in the present embodiment.
  • the process of FIG. 14 is an example, and the order of the processes can be changed as appropriate.
  • the image acquisition unit 11 receives the captured image captured by the line-of-sight detection camera 20 (step S301). Since the captured image is used for estimating the line-of-sight direction, it is assumed that the captured image includes at least a part of the face of the collation target person.
  • the distance information acquisition unit 13 receives a signal indicating the distance between the collation target person and the iris photographing camera 30 from the distance sensor 40 as distance information (step S302).
  • the line-of-sight information acquisition unit 12 analyzes the captured image received in step S301 and acquires the line-of-sight information of the collation target person (step S303).
  • the line-of-sight information in the present embodiment includes the face direction of the collation target person, the position information of the eye region in the image, the position information of the outer corner of the eye, the pupil, and the iris.
  • control unit 14 selects a method for estimating the line-of-sight direction of the collation target person based on the distance between the collation target person and the iris photographing camera 30 (step S304). Specifically, when the distance is equal to or greater than a predetermined reference distance, the control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction based on the face direction of the collation target person included in the line-of-sight information.
  • control unit 14 estimates the line-of-sight direction based on the position information of the pupil or iris of the collation target person included in the line-of-sight information.
  • control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction of the collation target person from the line-of-sight information for each of the plurality of iris photographing cameras 30 based on the selected estimation method (step S305). .. That is, the control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight directions in N ways when N iris photographing cameras 30 are installed.
  • control unit 14 detects the angle formed by the plurality of line-of-sight directions estimated in step S305 and the shooting direction of the iris shooting camera 30 (step S306).
  • control unit 14 determines the iris photographing camera 30 corresponding to the minimum detection angle from the plurality of iris photographing cameras 30 (step S307).
  • control unit 14 determines whether or not the detection angle satisfies a predetermined determination criterion (step S308).
  • step S308 determines that the detection angle satisfies a predetermined determination criterion
  • step S309 determines that the detection angle does not satisfy the predetermined determination criterion
  • step S309 the control unit 14 (determination unit 14c) determines whether or not the collation target person exists in the iris imaging section.
  • the control unit 14 determines that the collation target person exists in the iris photographing section (step S309: YES)
  • the process proceeds to step S311.
  • the control unit 14 determines that the collation target person does not exist in the iris photographing section (step S309: NO)
  • the process returns to step S301.
  • step S310 the control unit 14 (notification control unit 14d) generates notification control information for notifying the collation target person of the information based on the angle, and when the notification device 50 is controlled, the process returns to step S301. That is, the control unit 14 (notification control unit 14d) determines the notification method in the notification device 50, and determines the line-of-sight direction with respect to the collation target person by the notification method such as screen display, sound, and light in the notification device 50. Attention is given to the iris photographing camera 30 side corresponding to the minimum detection angle. Examples of notifications in this embodiment include a method of displaying a message such as "Look at the camera with the LED lit" or "Look at the camera No. 3" on the display 50a. Be done.
  • step S311 the control unit 14 (drive control unit 14e) outputs control information to the iris photographing camera. That is, the control unit 14 (drive control unit 14e) causes the iris photographing camera 30 to capture an iris image when the angle is equal to or less than a predetermined angle and the distance is equal to or less than a predetermined distance.
  • control unit 14 (drive control unit 14e) outputs control information to the collation device 60 (step S312), and the iris image taken by the iris photographing camera and the registered iris registered in advance in the iris database 70.
  • the collation process with the image is executed, and the process is completed.
  • the iris matching system 2 in the present embodiment selects the iris photographing camera 30 that actually photographs the iris image based on the detection angle from the plurality of iris photographing cameras 30 having different photographing directions. To do. Since the iris photographing camera 30 corresponding to the photographing direction close to the line-of-sight direction of the collation target person is selected, the collation target person can easily adjust the line-of-sight direction as compared with the case of the first embodiment. As a result, the convenience of the collation target person at the time of iris recognition can be further improved.
  • the control unit 14 determines unit 14c. faces the line-of-sight direction of the collation target person and the shooting direction of the iris shooting camera 30 based on the detected distance (reduces the detection angle). It differs from the first and second embodiments in that the determination reference value used for control is changed.
  • FIG. 15 is a graph showing the relationship between the distance between the iris photographing camera 30 and the collation target person in the embodiment and the determination reference value of the detection angle.
  • an example of the relationship between the distance and the determination reference value is shown with the distance between the iris photographing camera 30 and the collation target person as the horizontal axis and the determination reference value according to the distance as the vertical axis.
  • the section between the distances D1 and D2 indicates the line-of-sight adjustment section S1. Further, the section from the distance D3 to D2 indicates the iris photographing section S2.
  • the determination reference value decreases from C1 to C2 as the collation target person approaches the camera in the line-of-sight adjustment section S1. Then, in the iris photographing section S2, the determination reference value is constant at C2.
  • FIG. 16 is a flowchart showing an example of the control process of the information processing device 10 in the present embodiment.
  • the process of FIG. 16 is an example, and the order of the processes can be changed as appropriate.
  • the image acquisition unit 11 receives the captured image captured by the line-of-sight detection camera 20 (step S401). Since the captured image is used for estimating the line-of-sight direction, it is assumed that the captured image includes at least a part of the face of the collation target person.
  • the distance information acquisition unit 13 receives a signal indicating the distance between the collation target person and the iris photographing camera 30 from the distance sensor 40 as distance information (step S402).
  • the line-of-sight information acquisition unit 12 analyzes the captured image received in step S401 and acquires the line-of-sight information of the collation target person (step S403).
  • the line-of-sight information in the present embodiment includes the face direction of the collation target person, the position information of the eye region in the image, the position information of the outer corner of the eye, the pupil, and the iris.
  • control unit 14 estimates the line-of-sight direction based on the position information of the pupil or iris of the collation target person included in the line-of-sight information. ..
  • control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight direction of the collation target person from the line-of-sight information based on the selected estimation method (step S405).
  • the control unit 14 (line-of-sight direction estimation unit 14a) estimates the line-of-sight directions in N ways when N iris photographing cameras 30 are installed.
  • control unit 14 detects the angle formed by the line-of-sight direction estimated in step S405 and the shooting direction of the iris shooting camera 30 (step S406).
  • control unit 14 determines whether or not the detection angle satisfies a predetermined determination criterion (step S408).
  • step S408 determines that the detection angle satisfies a predetermined determination criterion
  • step S409 determines that the detection angle does not satisfy the predetermined determination criterion
  • step S410 proceeds to step S410.
  • step S409 the control unit 14 (determination unit 14c) determines whether or not the collation target person exists in the iris imaging section.
  • the control unit 14 (determination unit 14c) determines that the collation target person exists in the iris photographing section (step S409: YES)
  • the process proceeds to step S411.
  • the control unit 14 (determination unit 14c) determines that the collation target person does not exist in the iris photographing section (step S409: NO)
  • the process returns to step S401.
  • step S410 the control unit 14 (notification control unit 14d) generates notification control information for notifying the collation target person of the information based on the angle, and when the notification device 50 is controlled, the process returns to step S401. That is, the control unit 14 (notification control unit 14d) determines the notification method in the notification device 50, and iris the line-of-sight direction to the collation target person by the notification method such as screen display, sound, and light in the notification device 50. A warning is given so that the camera 30 is directed toward the shooting camera 30.
  • step S411 the control unit 14 (drive control unit 14e) outputs control information to the iris photographing camera. That is, the control unit 14 (drive control unit 14e) causes the iris photographing camera 30 to capture an iris image when the angle is equal to or less than a predetermined angle and the distance is equal to or less than a predetermined distance.
  • the angle formed by the line-of-sight direction of the collation target person and the imaging direction of the iris photographing camera 30, that is, the determination reference value for determining the suitability of the deviation amount is the distance. Can be changed according to. For this reason, by slowly defining the judgment reference value at the position where accuracy is not required and strictly defining the judgment reference value at the position where accuracy is required, the adjustment of the line-of-sight direction is made more efficient and the iris image with high accuracy is displayed. Shooting becomes possible.
  • FIG. 17 is a block diagram showing the functions of the information processing apparatus 100 according to the present embodiment.
  • the information processing device 100 is an information processing device that controls an iris matching system, and is an acquisition unit 110 that acquires the line-of-sight information of a collation target person from an image captured by the first photographing device, and a line-of-sight direction obtained from the line-of-sight information.
  • a control unit 120 that controls the iris matching system so that the shooting directions in the second photographing device that captures the iris image used for the iris matching of the collation target person are opposed to each other.
  • the convenience of the user in iris authentication can be improved.
  • FIG. 18 is a block diagram showing the functions of the information processing system 500 according to the present embodiment.
  • the information processing system 500 includes a first photographing device 510 that captures a first image including at least a part of the face of the collation target person, a second photographing device 520 that captures a second image including the iris of the collation target person, and the like. It includes an information processing device 530.
  • the acquisition unit 531 that acquires the line-of-sight information of the collation target person based on the first image, the line-of-sight direction of the collation target person obtained from the line-of-sight information, and the shooting direction in the second photographing device face each other.
  • the control unit 532 for controlling the information processing system 500 is provided. According to the information processing system 500 in the present embodiment, the convenience of the user in iris authentication can be improved.
  • the iris photographing camera 30 has been described on the premise that it is in a fixed state.
  • the control unit 14 (drive control unit 14e) may drive the iris photographing camera 30 in a direction in which the angle is reduced based on the line-of-sight information.
  • it is not necessary to call attention to the collation target person. Therefore, there is an advantage that the user of the facility (verification target person) can pass through without being aware of the authentication process.
  • the control unit 14 selects an iris image based on an angle from a group of iris images taken by a plurality of iris photographing cameras 30 having different shooting directions, and collates the iris image with the collating device 60 based on the selected image. May be executed.
  • the control unit 14 may select an iris image captured by the iris imaging camera 30 corresponding to the minimum detection angle from a group of iris images captured by a plurality of imaging devices having different imaging directions. In this case, there is an advantage that the image can be easily selected.
  • an iris image taken by the iris photographing camera 30 whose angle is within an allowable range may be selected.
  • the angle is not the minimum, there is an advantage that the image quality is high and an image more suitable for iris matching can be selected.
  • the line-of-sight direction of the collation target person may be estimated based on the second image.
  • the resolution of the second image captured by the iris photographing camera 30 is higher than the resolution of the first image captured by the line-of-sight detection camera 20. Therefore, there is an advantage that the accuracy of estimation of the line-of-sight direction can be improved.
  • the distance to the collation target person may be acquired by the line-of-sight detection camera 20 (first photographing device). That is, the line-of-sight detection and the distance detection may be performed by the same camera. For example, when an object whose distance and size are known is included in the captured image taken by the line-of-sight detection camera 20, the distance can be determined by comparing the size of the object with the collation target person in the image. Can be estimated. In this case, since the distance sensor 40 can be omitted, there is an advantage that the hardware configuration can be simplified.
  • the collation device 60 is based on the face authentication that authenticates the collation target person based on the collation result of the first image and the registered face image of the registrant, and the collation result of the second image and the registered iris image of the registrant.
  • Two-element authentication consisting of iris authentication for authenticating the collation target person may be executed. By executing two-factor authentication, the authentication accuracy can be improved.
  • the verification device 60 may execute two-step authentication in which the verification target person authenticated as the registrant in the face authentication is the authentication target in the iris authentication. Since the number of matching targets is narrowed down by face recognition, the speed of 1-to-N iris image recognition can be improved.
  • the collation target person has an advantage that the adjustment of the line-of-sight direction is not required.
  • the line-of-sight direction is represented by an angle, and a case where it is determined whether or not to take an iris image based on the angle formed by the line-of-sight direction and the shooting direction has been described.
  • the line-of-sight direction may be represented by the difference in position between the center of the pupil and the reflected image reflected in the pupil. That is, when the center of the pupil and the reflected image reflected in the pupil match, it can be determined that the line-of-sight direction of the collation target person and the shooting direction of the iris shooting camera 30 are opposite to each other.
  • the information processing device 10 does not necessarily have to calculate the angle as the line-of-sight direction.
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, or a ROM can be used.
  • a floppy (registered trademark) disk for example, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, or a ROM
  • a CD Compact Disk
  • An information processing device that controls the iris matching system.
  • An acquisition unit that acquires the line-of-sight information of the collation target person from the image captured by the first imaging device, and A control unit that controls the iris matching system so that the line-of-sight direction obtained from the line-of-sight information and the shooting direction in the second photographing device that shoots the iris image used for the iris matching of the collation target person face each other.
  • Information processing device equipped with An information processing device that controls the iris matching system.
  • the control unit generates notification control information for notifying the collation target person of information based on the line-of-sight direction.
  • the information processing device according to Appendix 1.
  • the notification control information includes information for guiding the line-of-sight direction to the second photographing apparatus side.
  • the information processing device according to Appendix 2.
  • the control unit causes the second imaging device selected based on the line-of-sight direction to capture the iris image from the plurality of second imaging devices having different imaging directions.
  • the information processing device according to any one of Appendix 1 to 3.
  • the control unit causes the second imaging device, which minimizes the angle between the line-of-sight direction and the imaging direction, to capture the iris image from among the plurality of second imaging devices having different imaging directions.
  • the information processing device according to Appendix 4.
  • the control unit Based on the line-of-sight information, the control unit drives the second photographing device in a direction in which the angle between the line-of-sight direction and the photographing direction is reduced.
  • the information processing device according to any one of Appendix 1 to 3.
  • the control unit selects the iris image having the smallest angle between the line-of-sight direction and the photographing direction from the iris image group photographed by the plurality of second photographing devices having different photographing directions.
  • the information processing device according to Appendix 7.
  • a distance information acquisition unit for acquiring the distance to the collation target person is further provided.
  • the control unit changes a determination criterion used for controlling the line-of-sight direction and the photographing direction to face each other based on the distance.
  • the information processing device according to any one of Appendix 1 to 8.
  • a distance information acquisition unit for acquiring the distance to the collation target person is further provided.
  • the control unit causes the second imaging device to capture the iris image when the line-of-sight direction is included in a predetermined range and the distance is equal to or less than a predetermined distance.
  • the information processing device according to any one of Appendix 1 to 8.
  • a distance information acquisition unit for acquiring the distance to the collation target person is further provided.
  • the control unit estimates the line-of-sight direction based on the face direction of the collation target person included in the line-of-sight information, and the distance is less than the reference distance.
  • the line-of-sight direction is estimated based on the position information of the pupil or iris of the collation target person included in the line-of-sight information.
  • the control unit estimates the line-of-sight direction based on the position information of the pupil or iris of the collation target person included in the line-of-sight information.
  • the information processing device according to any one of Appendix 1 to 10.
  • a first photographing device that captures a first image including at least a part of the face of the collation target person, and A second photographing device that captures a second image including the iris of the collation target person, and Information processing device and It is an information processing system equipped with The information processing device An acquisition unit that acquires line-of-sight information of the collation target person based on the first image, and A control unit that controls the information processing system so that the line-of-sight direction of the collation target person obtained from the line-of-sight information and the image-taking direction in the second imaging device face each other. Information processing system with.
  • the photographing wavelength in the second photographing apparatus is different from the photographing wavelength in the first photographing apparatus.
  • the control unit estimates the line-of-sight direction based on the first image when the distance to the collation target person is equal to or greater than a predetermined reference distance, and when the distance is less than the predetermined reference distance. Estimates the line-of-sight direction of the collation target person based on the second image.
  • the information processing system according to any one of Appendix 13 to 15.
  • Appendix 17 A distance sensor that detects the distance and outputs it to the information processing device is further provided.
  • Appendix 18 The distance is acquired by the first photographing apparatus.
  • the collation device sets the collation target person authenticated as the registrant in the face authentication as the authentication target in the iris authentication.
  • the information processing system according to Appendix 19.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

本発明に係る情報処理装置は、虹彩照合システムを制御する情報処理装置であって、第1撮影装置により撮影された画像から照合対象者の視線情報を取得する取得部と、前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、虹彩照合システムを制御する制御部と、を備える。

Description

情報処理装置、情報処理システム、情報処理方法及び記録媒体
 本発明は、情報処理装置、情報処理システム、情報処理方法及び記録媒体に関する。
 特許文献1には、近赤外線カメラによって利用者の虹彩画像を撮影し、当該虹彩画像から生成した虹彩コードと登録者の登録虹彩コードとの類似度に基づいて利用者を認証するシステムが開示されている。
特開2008-197713号公報
 特許文献1に例示されているシステムは、利用者自身が近赤外線カメラに対する眼の位置合わせを行い、利用者が静止している状態で虹彩画像を撮影することを前提としている。そのため、利用者の利便性の観点から改善の余地があった。
 そこで、本発明は、上述の課題に鑑み、虹彩認証における利用者の利便性を向上できる情報処理装置、情報処理システム、情報処理方法及び記録媒体を提供することを目的とする。
 本発明の一つの観点によれば、虹彩照合システムを制御する情報処理装置であって、第1撮影装置により撮影された画像から照合対象者の視線情報を取得する取得部と、前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、虹彩照合システムを制御する制御部と、を備える情報処理装置が提供される。
 本発明の他の観点によれば、照合対象者の顔の少なくとも一部を含む第1画像を撮影する第1撮影装置と、前記照合対象者の虹彩を含む第2画像を撮影する第2撮影装置と、情報処理装置と、を備えた情報処理システムであって、前記情報処理装置は、前記第1画像に基づいて前記照合対象者の視線情報を取得する取得部と、前記視線情報から得られる前記照合対象者の視線方向と、前記第2撮影装置における撮影方向とが対向するように前記情報処理システムを制御する制御部と、を有する情報処理システムが提供される。
 本発明のさらに他の観点によれば、虹彩照合システムを制御する情報処理方法であって、第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、を備える情報処理方法が提供される。
 本発明のさらに他の観点によれば、虹彩照合システムを制御するコンピュータに、第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、を実行させるためのプログラムが記録された記録媒体が提供される。
 本発明によれば、虹彩認証における利用者の利便性を向上できる情報処理装置、情報処理システム、情報処理方法及び記録媒体を提供することができる。
第1実施形態における虹彩照合システムの全体構成例を示す図である。 第1実施形態における情報処理装置及び照合装置のハードウェア構成を示すブロック図である。 第1実施形態における情報処理装置及び照合装置の機能を示すブロック図である。 第1実施形態における情報処理装置の処理の一例を示すフローチャートである。 第1実施形態における照合対象者の視線方向の推定方法を説明する図である。 第1実施形態における照合対象者の視線方向の推定方法を説明する図である。 第1実施形態における照合対象者の視線方向の推定方法を説明する図である。 第1実施形態における照合対象者の視線方向の推定方法を説明する図である。 第1実施形態における照合対象者の視線方向の推定方法を説明する図である。 第1実施形態において照合対象者の視線方向と虹彩撮影用カメラの撮影方向とのなす角度を説明する図である。 第1実施形態において照合対象者の視線方向と虹彩撮影用カメラの撮影方向とのなす角度を説明する図である。 第1実施形態における照合装置の処理の一例を示すフローチャートである。 第1実施形態における虹彩照合処理の概略を示す模式図である。 第2実施形態における虹彩照合システムの全体構成例を示す図である。 第2実施形態における照合対象者の視線方向と虹彩撮影用カメラの撮影方向とのなす角度を説明する図である。 第2実施形態における情報処理装置の処理の一例を示すフローチャートである。 第3実施形態における虹彩撮影用カメラと照合対象者との間の距離と検出角度の判定基準値との関係を示すグラフである。 第3実施形態における情報処理装置の処理の一例を示すフローチャートである。 第4実施形態における情報処理装置の機能を示すブロック図である。 第5実施形態における情報処理システムの機能を示すブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
[第1実施形態]
 図1は、本実施形態における虹彩照合システム1の全体構成例を示す図である。虹彩照合システム1は、生体照合の一種である虹彩照合の機能を備える。虹彩照合システム1は、照合対象者であるユーザの虹彩を撮影し、登録されている虹彩画像と照合することにより虹彩照合を行う。虹彩の模様は、万人不同かつ終生不変である。そのため、照合時に取得した虹彩の模様と、データベースに予め登録されている虹彩の画像とを照合することにより本人確認が可能である。
 本実施形態における虹彩照合システム1は、例えば、空港・海港・国境における入出国のための本人確認、行政機関における本人確認、工場・事業所への入退場のための本人確認、イベント会場への入場時の本人確認等に適用され得る。
 図1に示すように、虹彩照合システム1は、情報処理装置10と、視線検出用カメラ20と、虹彩撮影用カメラ30と、距離センサ40と、通知装置50と、照合装置60と、虹彩データベース70とを備える。各装置は、LAN(Local Area Network)やインターネット等のネットワークNWに接続されている。
 情報処理装置10は、虹彩照合システム1の中核をなす制御装置である。情報処理装置10は、例えば、サーバコンピュータである。情報処理装置10は、視線検出用カメラ20から受信した照合対象者の画像に基づいて、照合対象者の視線情報を取得する。情報処理装置10は、視線情報から得られる視線方向と、照合対象者の虹彩照合に用いられる虹彩画像を撮影する撮影装置における撮影方向とを対向させるように虹彩照合システム1の構成機器を制御する。
 また、情報処理装置10は、当該角度が所定の判定基準(角度の許容範囲)を満たす値である場合、虹彩撮影用カメラ30を制御し、照合対象者の虹彩画像を撮影させる。そして、情報処理装置10は、照合装置60を制御し、撮影された照合対象者の虹彩画像と虹彩データベース70に予め記憶されている登録者の虹彩画像とを照合させる。逆に、情報処理装置10は、当該角度が所定の判定基準(許容範囲)を満たさない値である場合、通知装置50を制御して照合対象者に注意喚起を行い、照合対象者の視線方向を虹彩撮影用カメラ30側に向けさせる。すなわち、本実施形態の情報処理装置10は、照合対象者の視線方向と撮影装置における撮影方向とのなす角度を低減させるように、通知装置50を制御する。
 視線検出用カメラ20は、照合対象者の顔、眼等を可視光により撮影し、画像を取得することができる撮影装置(第1撮影装置)である。視線検出用カメラ20は、照合対象者の顔の少なくとも一部を含む第1画像を撮影する。視線検出用カメラ20には、撮影後の画像処理に適するように、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等を用いたデジタルカメラが用いられ得る。なお、視線検出用カメラ20は、照合対象者に向けて照明光を照射する光源を備え得る。
 虹彩撮影用カメラ30は、赤外線照射装置30a及び赤外線カメラ30bからなる撮影装置(第2撮影装置)であり、照合対象者の虹彩を含む第2画像を撮影する。赤外線照射装置30aは、赤外線LED等の赤外光を発する発光素子を含む。虹彩撮影用カメラ30における撮影波長は、視線検出用カメラ20における撮影波長と異なる。具体的には、赤外線照射装置30aから照射される赤外線の波長は、例えば、800nm程度の近赤外領域であり得る。
 赤外線カメラ30bには、赤外線に対して感度を有するように構成された受光素子を備えたCMOSイメージセンサ、CCDイメージセンサ等を用いたデジタルカメラが用いられ得る。赤外線照射装置30aから赤外光を照合対照者の眼に照射し、虹彩で反射した赤外線を赤外線カメラ30bで撮影することにより、虹彩照合に用いられる虹彩画像を撮影することができる。虹彩画像を赤外線により取得することにより、虹彩の色によらず高コントラストな画像が得られ、かつ角膜による反射の影響を低減することができる。なお、本実施形態において、第2画像の解像度は、第1画像の解像度よりも高いものとする。
 距離センサ40は、赤外線等の光線を対象物に向けて照射し、照射された光線が距離センサ40と対象物との間を往復するのに要する時間に基づいて距離を検出し、検出距離を示す信号を情報処理装置10へ出力する。
 通知装置50は、情報処理装置10からの通知制御情報に基づいて、照合対象者に対して視線方向を虹彩撮影用カメラ30側に向けさせるように注意喚起を行う装置である。通知装置50は、ディスプレイ50a、LED50b、及びスピーカ50cの少なくとも一つを含む。本実施形態における通知制御情報は、照合対象者の視線方向を虹彩撮影用カメラ30側に誘導するための情報を含む。例えば、ディスプレイ50a、LED50b、及びスピーカ50cは、通知制御情報に基づいて以下のような通知を行う。
 ディスプレイ50aは、表示領域にテキストメッセージや画像を表示することで、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度が所定の判定基準を満たすか否かを照合対象者に通知する。例えば、ディスプレイ50aにおいて、画面の色が緑色の場合にはOK、黄色の場合には注意、赤色の場合には要修正であることを通知できる。
 LED50bは、点灯/非点灯の切り替えや、点灯色の切り替えを行うことで、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度が所定の判定基準を満たすか否か照合対象者に通知する。例えば、LED50bにおいて、点灯色が緑色の場合にはOK、黄色の場合には注意、赤色の場合には要修正であることを通知できる。
 スピーカ50cは、アラーム音や案内音声を出力することで、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度が所定の判定基準を満たすか否か照合対象者に通知する。例えば、「ランプが点灯しているカメラの方を見てください。」、「視線を少し右にずらしてください。」のような案内音声を出力するとよい。
 照合装置60は、情報処理装置10からの制御情報に基づいて、虹彩撮影用カメラ30で撮影された虹彩画像(あるいは特徴量)と、虹彩データベース70に登録された登録虹彩画像(あるいは特徴量)との照合処理を実行し、照合対象者の認証を行う。
 虹彩データベース70は、照合先となる登録者の眼の画像、眼の画像から検出された虹彩画像、虹彩画像から算出された虹彩の特徴量等を登録者のIDと関連付けて記憶するデータベースである。なお、照合装置60及び虹彩データベース70は、情報処理装置10と一体の装置として構成される場合もあり得る。
 図2は、本実施形態における情報処理装置10及び照合装置60のハードウェア構成例を示すブロック図である。情報処理装置10は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)151と、RAM(Random Access Memory)152と、ROM(Read Only Memory)153と、HDD(Hard Disk Drive)154と、通信I/F(インターフェース)155と、表示装置156と、入力装置157とを備える。CPU151、RAM152、ROM153、HDD154、通信I/F155、表示装置156及び入力装置157は、バス158を介して相互に接続される。なお、表示装置156及び入力装置157は、これらの装置を駆動するための不図示の駆動装置を介してバス158に接続されてもよい。
 CPU151は、ROM153、HDD154等に記憶されたプログラムに従って所定の動作を行うとともに、情報処理装置10の各部を制御する機能を有するプロセッサである。RAM152は、揮発性記憶媒体から構成され、CPU151の動作に必要な一時的なメモリ領域を提供する。ROM153は、不揮発性記憶媒体から構成され、情報処理装置10の動作に用いられるプログラム等の必要な情報を記憶する。HDD154は、不揮発性記憶媒体から構成され、処理に必要なデータ、情報処理装置10の動作用プログラム等の記憶を行う記憶装置である。
 通信I/F155は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。表示装置156は、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、動画、静止画、文字等の表示に用いられる。入力装置157は、キーボード、ポインティングデバイス等であって、ユーザが情報処理装置10を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル、ペンタブレット等が挙げられる。表示装置156及び入力装置157は、タッチパネルとして一体に形成されていてもよい。
 同様に、照合装置60は、演算、制御及び記憶を行うコンピュータとして、CPU651と、RAM652と、ROM653と、HDD654と、通信I/F655とを備える。これらの装置は、情報処理装置10のCPU151、RAM152、ROM153、HDD154及び通信I/F155と同様であるため、詳細な説明は省略する。CPU651、RAM652、ROM653、HDD654及び通信I/F655は、バス658を介して相互に接続される。
 なお、図2に示すハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。さらに、本実施形態の一部の機能がネットワークNWを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されるものであってもよい。例えば、HDD154は、半導体メモリを用いたSSD(Solid State Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
 図3は、本実施形態における情報処理装置10及び照合装置60の機能を示すブロック図である。情報処理装置10は、画像取得部11と、視線情報取得部12と、距離情報取得部13と、制御部14と、記憶部15とを備える。CPU151は、ROM153、HDD154等に記憶されたプログラムをRAM152にロードして実行する。これにより、CPU151は、画像取得部11、視線情報取得部12、距離情報取得部13、制御部14(視線方向推定部14a、角度検出部14b、判定部14c、通知制御部14d、駆動制御部14e)等の機能を実現する。これらの各部で行われる処理の詳細については後述する。さらに、CPU151は、HDD154を制御することにより記憶部15の機能を実現する。記憶部15は、画像取得部11により取得された画像、視線方向の判定基準、顔画像から取得された視線情報等のデータ等を記憶する。
 一方、照合装置60は、画像取得部61と、虹彩画像抽出部62と、座標変換部63と、ブロック分割部64と、特徴量算出部65と、照合部66と、記憶部67とを備える。CPU651は、ROM653等に記憶されたプログラムをRAM652にロードして実行する。これにより、CPU651は、画像取得部61、虹彩画像抽出部62、座標変換部63、ブロック分割部64、特徴量算出部65及び照合部66の機能を実現する。これらの各部で行われる処理の詳細については後述する。さらに、CPU651は、HDD654を制御することにより記憶部67の機能を実現する。記憶部67は、画像取得部61により取得された眼の画像、眼の画像から抽出された虹彩画像、虹彩画像から算出された特徴量等のデータ等を記憶する。
 続いて、上述のように構成された虹彩照合システム1の各装置の動作について説明する。図4は、本実施形態における情報処理装置10の制御処理の一例を示すフローチャートである。なお、図4の処理は一例であり、処理の順序は適宜変更可能である。
 先ず、画像取得部11は、視線検出用カメラ20において撮影された撮影画像を受信する(ステップS101)。なお、当該撮影画像は、視線方向の推定に用いられることから、照合対象者の少なくとも顔の一部を含むものとする。
 次に、距離情報取得部13は、距離センサ40から照合対象者と虹彩撮影用カメラ30との間の距離を示す信号を距離情報として受信する(ステップS102)。
 次に、視線情報取得部12は、ステップS101において受信された撮影画像を解析し、照合対象者の視線情報を取得する(ステップS103)。なお、本実施形態における視線情報は、照合対象者の顔方向、画像内における眼領域の位置情報、目尻、瞳孔及び虹彩の位置情報等を含むものとする。
 次に、制御部14(視線方向推定部14a)は、照合対象者と虹彩撮影用カメラ30との間の距離に基づいて照合対象者の視線方向の推定方法を選択する(ステップS104)。本実施形態では、視線方向の推定方法として2種類の方法を選択できる。具体的には、制御部14(視線方向推定部14a)は、距離が所定の基準距離以上である場合に、視線情報に含まれる照合対象者の顔方向に基づいて視線方向を推定する(第1の方法)。また、制御部14(視線方向推定部14a)は、距離が基準距離未満である場合に、視線情報に含まれる照合対象者の瞳孔又は虹彩の位置情報に基づいて視線方向を推定する(第2の方法)。
 第1の方法は、例えば以下の通りである。先ず、視線情報取得部12は、顔画像から抽出された顔領域から、任意の方法によって顔方向を抽出する。視線情報取得部12は、顔画像から抽出された顔領域から、テンプレー卜マッチングによって左右の目(瞳孔)の位置及び鼻の位置を取得する。次に、視線情報取得部12は、左右の目の位置の中点と鼻の位置とを結ぶ線を顔の中心線とし、該中心線から顔領域の左端までの距離と該中心線から顔領域の右端までの距離との比率を求める。そして、視線情報取得部12は、予め記録された左右の比率と顔方向との関係を示すテーブルに基づき、顔領域における左右の比率を用いて左右方向の顔方向を算出する。左右の比率と顔方向との関係を示すテ一ブルは、予め実験やシミュレーションによって決定され、記憶領域に保持される。
 同様に、視線情報取得部12は、顔の構成部分の位置を用いて上下方向の顔方向を算出する。例えば、左右の目の位置を結ぶ線を顔の水平線とし、該水平線から顔領域の上端までの距離と該水平線から顔領域の下端までの距離との比率を求める。そして、視線方向推定部14aは、予め記録された上下の比率と顔方向との関係を示すテーブルに基づき、顔領域における上下の比率を用いて上下方向の顔方向を算出する。顔方向は、例えばパン角、チル卜角、及びロール角の3つの角度により表される。視線情報取得部12は、検出した顔方向を視線情報として記憶領域に保持する。そして、制御部14(視線方向推定部14a)は、距離が所定の基準距離以上である場合には、視線情報に含まれる照合対象者の顔方向に基づいて視線方向を算出(推定)する。
 図5は、照合対象者の顔方向に基づいて視線方向を推定する場合を示している。ここでは、照合対象者の正面方向(図中X軸方向)に視線検出用カメラ20が存在する場合に、照合対象者の顔方向が角度θだけ上方を向いている状態を示している。当該方法では、照合対象者が直立状態で真っ直ぐ前を向いたときを基準として、顔がどれだけ傾いているかを検出し、顔方向から視線方向を推定する。
 ただし、照合対象者の顔方向と視線方向とは、必ずしも一致するものではない。このため、照合対象者の顔方向に基づく視線方向の推定方法は、虹彩撮影区間内ではなく、照合対象者がカメラから遠い区間(例えば、視線調整区間の入口付近)に位置しているときに適用し、照合対象者に撮影準備を整えさせると好適である。
 第2の方法は、例えば以下の通りである。先ず、視線情報取得部12は、例えば、顔画像から抽出された顔領域から、テンプレー卜マッチングによって左右の目の瞳孔の位置を視線情報として取得する。次に、制御部14(視線方向推定部14a)は、左右の目のそれぞれについて、人の顔上の所定の基準点からの瞳孔の相対的な位置に基づいて、視線の方向を算出する。所定の基準点は、例えば角膜上での光の反射点であるプルキニエ像の位置や、目頭の位置等である。
 そして、制御部14(視線方向推定部14a)は、予め記録された所定の基準点からの瞳孔の相対的な位置と視線方向との関係を示すテーブルに基づき、顔領域における所定の基準点からの瞳孔の相対的な位置を用いて視線方向を算出する。
 瞳孔の相対的な位置と視線方向との関係を示すテーブルは、予め実験やシミュレーションによって決定され、記憶領域に保持される。視線方向は、左右の目のそれぞれについて、例えば方位角及び仰角の2つの角度により表される。視線方向は左右の目の視線方向の平均値により表されてもよい。視線方向推定部14aは、算出した視線方向を記憶領域に保持する。
 図6A及び図6Bは、照合対象者の眼画像において、目頭Cを基準点、虹彩Iを動点として目頭Cと虹彩Iの位置関係に基づいて照合対象者の視線方向を推定する場合を示している。図6Aでは、照合対象者の左眼において、虹彩Iが目頭Cから離れている。この場合、照合対象者は目尻側を見ていると推定される。これに対し、図6Bでは、照合対象者の左眼において、虹彩Iが目頭C側に位置している。この場合、照合対象者は目頭C側を見ていると推定される。
 図7A及び図7Bは、赤外線LED等の照射光を照合対象者の顔に照射したときに、照合対象者の眼画像において、角膜反射点Rを基準点、瞳孔Pを動点として角膜反射点Rと瞳孔Pの位置関係に基づいて照合対象者の視線方向を推定する場合を示している。図7Aでは、照合対象者の左眼において、瞳孔Pが角膜反射点Rよりも目尻側に位置する。この場合、照合対象者は目尻側を見ていると推定される。これに対し、図7Bでは、照合対象者の左眼において、瞳孔Pが角膜反射点Rよりも目頭C側に位置する。この場合、照合対象者は目頭C側を見ていると推定される。
 図5、図6A、図6B、図7A及び図7Bにおいて、複数の視線方向の推定方法を説明したが、これらの方法は照合対象者とカメラとの距離や導入コストを総合的に勘案して選択すると好適である。例えば、図5に示す顔方向に基づく推定方法は、照合対象者までの距離が遠く、眼の内部を高解像度で撮影できない場合に有効である。これに対し、図6A、図6B、図7A及び図7Bの推定方法は、図5の推定方法よりも高精度での推定が可能である利点があり、特に照合対象者が近距離に存在している場合に有効である。さらに、図6A及び図6Bに示す推定方法は、視線検出用カメラ20(可視カメラ)のみで実装できるため、実装時のコストを抑制できる利点がある。図7A及び図7Bの推定方法は、別途の光源として赤外線LED等を必要とするが、図6A及び図6Bに示す推定方法よりも推定の精度が高くなる利点がある。
 次に、制御部14(視線方向推定部14a)は、選択された推定方法に基づいて視線情報から照合対象者の視線方向を推定する(ステップS105)。
 次に、制御部14(角度検出部14b)は、ステップS105において推定された視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度(以下、「検出角度」という。)を検出する(ステップS106)。
 次に、制御部14(判定部14c)は、検出角度が所定の判定基準を満たすか否かを判定する(ステップS107)。ここで、制御部14(判定部14c)が、検出角度は所定の判定基準を満たすと判定した場合(ステップS107:YES)には、処理はステップS108に移行する。これに対し、制御部14(判定部14c)が、検出角度は所定の判定基準を満たさないと判定した場合(ステップS107:NO)には、処理はステップS109に移行する。
 図8及び図9は、本実施形態における照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度を説明する図である。図8では、照合対象者Tは、視線調整区間S1内に存在しており、検出角度がθであることが示されている。検出角度θが所定の判定基準を満たしていない場合には、上述した通知制御部14dは、通知装置50に制御情報を出力し、視線調整区間S1内において照合対象者Tに視線方向を調整するように注意喚起を行う。
 これに対し、図9では、照合対象者Tは、視線調整区間S1よりも虹彩撮影用カメラ30寄りに設定された虹彩撮影区間S2内に存在している。また、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とがほぼ一直線上に揃っていることから、検出角度θ(不図示)は十分に小さいことが示されている。すなわち、視線方向は所定の範囲内に収まっている。このような場合、虹彩撮影用カメラ30の画角に照合対象者の目部分が収まることになる。上述した駆動制御部14eは、判定部14cの判定結果を受けて、虹彩撮影用カメラ30に対して虹彩画像を撮影させるために制御情報を出力する。
 ステップS108において、制御部14(判定部14c)は、照合対象者が虹彩撮影区間内に存在するか否かを判定する。ここで、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在すると判定した場合(ステップS108:YES)には、処理はステップS110に移行する。これに対し、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在しないと判定した場合(ステップS108:NO)には、処理はステップS101に戻る。
 ステップS109において、制御部14(通知制御部14d)は、検出角度に基づく各種の情報を照合対象者に通知するための通知制御情報を生成し、通知装置50を制御すると、処理はステップS101に戻る。すなわち、制御部14(通知制御部14d)は、通知装置50における通知方法を決定するとともに、通知装置50において画面表示、音、光等の通知方法によって、照合対象者に対して視線方向を虹彩撮影用カメラ30側に向けるように注意喚起を行う。
 ステップS110において、制御部14(駆動制御部14e)は、虹彩撮影用カメラ30に制御情報を出力する。すなわち、制御部14(駆動制御部14e)は、角度が所定角度以下、かつ、距離が所定距離以下である場合に虹彩撮影用カメラ30に虹彩画像を撮影させる。
 そして、制御部14(駆動制御部14e)は、照合装置60に対して制御情報を出力し(ステップS111)、虹彩撮影用カメラ30で撮影された虹彩画像と虹彩データベース70に予め登録された登録虹彩画像との照合処理を実行させ、処理を終了する。
 図10は、本実施形態における照合装置60の処理の一例を示すフローチャートである。また、図11は、虹彩照合処理の概略を示す模式図である。図10の処理は、照合装置60が情報処理装置10から制御情報を受信したときに開始される。
 ステップS201において、画像取得部61は、照合対象者の眼の画像を取得する。この処理は図11(a)に対応する。取得された画像は記憶部67に記憶される。典型的には、この画像は赤外線により取得されたものであり、グレースケールの画像である。
 ステップS202において、虹彩画像抽出部62は、照合対象者の眼の画像の中から、虹彩の領域を判別し、虹彩画像の抽出を行う。この処理は図11(b)及び図11(c)に対応する。
 虹彩の領域の判別方法の一例を説明する。虹彩画像抽出部62は、眼の画像から、瞳孔を検出して、その位置を特定する。特定された瞳孔の位置は、記憶部67に記憶される。瞳孔の形状は、円形として近似することができる。そのため、瞳孔の位置は、例えば、瞳孔の中心座標と半径により表現することができる。なお、瞳孔の領域は、例えば、所定値よりも低い輝度のピクセルを抽出することにより検出することができる。
 その後、虹彩画像抽出部62は、眼の画像から、虹彩を検出し、虹彩の位置を特定する。特定された虹彩の位置は、記憶部67に記憶される。虹彩の形状は、瞳孔を内包する円環形状として近似することができ、そのため、虹彩の位置は、例えば、虹彩の中心座標、外周半径及び内周半径により表現することができる。虹彩の内周半径は、瞳孔の半径に相当するため、虹彩の位置を示す情報から省略してもよい。なお、虹彩は、例えば、虹彩の外周と強膜(いわゆる白目)との境界における輝度変化を抽出することにより検出することができる。
 その後、虹彩画像抽出部62は、特定された虹彩の部分を切り出すことにより虹彩画像を抽出する。抽出された虹彩画像は記憶部67に記憶される。
 ステップS203において、座標変換部63は、座標を変換することにより、虹彩画像の変形を行う。この処理は図11(d)及び図11(e)に対応する。座標変換部63は、図11(d)及び図11(e)に示されるように、円環状をなしている虹彩画像を長方形に変換する。この処理は、例えば、虹彩画像の座標系をxy平面座標系からrθ極座標系に変換することにより行われ得る。この座標変換により、虹彩画像の形状が単純化されるので、特徴量算出の処理が簡略化される。
 ステップS204において、ブロック分割部64は、長方形に変換された虹彩画像を複数のブロックに分割する。この処理は図11(f)に対応する。分割数は、例えば、横方向に128個、縦方向に16個(すなわち、合計2048個)等であり得る。なお、図11(f)では理解を容易にするために、虹彩画像自体を切断して複数個に分割しているように表現されているが、画像を複数個に分けることは必須ではない。ステップS204の処理は、例えば、虹彩画像の各ブロックの輝度と各ブロックの座標の対応関係を取得するという処理であってもよい。
 ステップS205において、特徴量算出部65は、複数のブロックに分割された虹彩画像に対して特徴量を算出する処理を行う。この処理は図11(g)に対応する。以下、特徴量算出の具体的な処理方法の一例を説明する。
 特徴量算出部65は、各ブロックにおける虹彩画像の輝度を取得する。このとき、あるブロック(以下、「第1のブロック」という。)の特徴量のコードは、第1のブロックの右隣のブロック(以下、「第2のブロック」という。)との輝度の大小関係により設定される。第1のブロックの輝度から第2のブロックの輝度を減算した差分が第1の閾値よりも大きい場合、第1のブロックの特徴量のコードは「1」となる。第1のブロックの輝度から第2のブロックの輝度を減算した差分が第1の閾値以下であり、第2の閾値よりも大きい場合、第1のブロックの特徴量のコードは「2」となる。第1のブロックの輝度から第2のブロックの輝度を減算した差分が第2の閾値以下である場合、第1のブロックの特徴量のコードは「3」となる。このように、特徴量のコードは、少なくとも3種類の値を有する。
 また、第1のブロック又は第2のブロックがまつげ、まぶた等に覆われていて特徴量の算出に用いることができない場合に特徴量のコードを「4」としてもよい。この場合、特徴量のコードは、4種類の値を有する。以下の説明では特徴量のコードは、上述の4種類であるものとする。
 図11(g)には、特徴量のコードを各ブロックの位置に図示した特徴量画像が示されている。図11(g)の特徴量画像では、特徴量のコードの値「1」、「2」、「3」、「4」がそれぞれ異なるパターンで表示されている。この表示は、例えば色、明るさ、模様等の画像のパターンをコードの値に応じて変えたものであり得る。抽出された特徴量又は特徴量画像は記憶部67に記憶される。
 なお、上述の例では、第2のブロックは第1のブロックの右隣という位置関係を例示したが、左隣等であってもよく、より一般的には、第2のブロックは第1のブロックに隣接しているという位置関係であり得る。
 ステップS206において、照合部66は、ステップS205で算出された特徴量と、予め登録されている特徴量とを照合する処理を行う。この処理では、ステップS205で算出された特徴量と予め登録されている特徴量とを比較して、一致する領域(一致領域)、一致しない領域(不一致領域)、照合ができない領域(照合不能領域)を判定する。例えば、比較対象のコードがいずれも「1」又は「3」である領域は、一致領域であると判定され得る。比較対象のコードの一方が「1」であり、他方が「3」である領域は、不一致領域であると判定され得る。比較対象のコードのうちのいずれかが「4」である領域は照合に用いることができないため照合不能領域と判定され得る。一致領域及び不一致領域の大きさ等から算出される一致度のスコアが所定の閾値を超えている場合に比較対象である2つの特徴量に対応する2つの虹彩画像は同一人物のものであると判定される。照合結果並びに一致領域、不一致領域及び照合不能領域の情報は、記憶部67に記憶される。なお、特徴量、一致領域、不一致領域及び照合不能領域の情報は、より一般的に虹彩照合に関する照合情報と呼ばれることもある。
 ステップS207において、照合部66は、ステップS206における照合結果を情報処理装置10に出力し、処理を終了する。
 以上のように、本実施形態における虹彩照合システム1は、照合対象者の視線方向が虹彩撮影用カメラ30の撮影方向から所定の閾値を超えて外れている場合に、音声や画面表示等の通知方法によって照合対象者に注意喚起を行える。これにより、照合対象者が静止状態でなくても、ウォークスルーで虹彩画像の撮影を効率的に行える。その結果、虹彩認証に要する時間を短縮できる。
 また、本実施形態における虹彩照合システム1は、照合対象者が虹彩撮影用カメラ30から遠い位置に存在する場合と、近い位置に存在する場合とで視線方向の推定方法を切替えることができる。これにより、虹彩照合システム1は、距離に応じて適切な推定方法を選択できる。
[第2実施形態]
 以下、第2実施形態における虹彩照合システム2について説明する。なお、第1実施形態の図中において付与した符号と共通する符号は同一の対象を示す。第1実施形態と共通する箇所の説明は省略し、異なる箇所について詳細に説明する。
 図12は、本実施形態における虹彩照合システム2の全体構成例を示す図である。図12に示すように、本実施形態における虹彩照合システム2は、虹彩撮影用カメラ30を1台ではなく、複数(N≧2)台備えている。
 図13は、本実施形態における照合対象者の視線方向と複数の虹彩撮影用カメラ30の撮影方向とのなす角度を説明する図である。ここでは、4台の虹彩撮影用カメラ30(30a~30d)は、撮影方向がそれぞれ異なっている。4台の虹彩撮影用カメラ30のうち、虹彩撮影用カメラ30cの撮影方向と照合対象者の視線方向とのなす角度が最小値となる。このような場合、本実施形態における情報処理装置10(制御部14)は、撮影方向が互いに異なる複数の虹彩撮影用カメラ30のうちから、検出角度に基づいて選択された虹彩撮影用カメラ30cに虹彩画像を撮影させるように、制御情報を虹彩撮影用カメラ30cに出力する。
 図14は、本実施形態における情報処理装置10の制御処理の一例を示すフローチャートである。なお、図14の処理は一例であり、処理の順序は適宜変更可能である。
 先ず、画像取得部11は、視線検出用カメラ20において撮影された撮影画像を受信する(ステップS301)。なお、当該撮影画像は、視線方向の推定に用いられることから、照合対象者の少なくとも顔の一部を含むものとする。
 次に、距離情報取得部13は、距離センサ40から照合対象者と虹彩撮影用カメラ30との間の距離を示す信号を距離情報として受信する(ステップS302)。
 次に、視線情報取得部12は、ステップS301において受信された撮影画像を解析し、照合対象者の視線情報を取得する(ステップS303)。なお、本実施形態における視線情報は、照合対象者の顔方向、画像内における眼領域の位置情報、目尻、瞳孔及び虹彩の位置情報等を含むものとする。
 次に、制御部14(視線方向推定部14a)は、照合対象者と虹彩撮影用カメラ30との間の距離に基づいて照合対象者の視線方向の推定方法を選択する(ステップS304)。具体的には、制御部14(視線方向推定部14a)は、距離が所定の基準距離以上である場合には、視線情報に含まれる照合対象者の顔方向に基づいて視線方向を推定する。また、制御部14(視線方向推定部14a)は、距離が基準距離未満である場合には、視線情報に含まれる照合対象者の瞳孔又は虹彩の位置情報に基づいて視線方向を推定する。
 次に、制御部14(視線方向推定部14a)は、選択された推定方法に基づいて、複数の虹彩撮影用カメラ30のそれぞれについて視線情報から照合対象者の視線方向を推定する(ステップS305)。すなわち、制御部14(視線方向推定部14a)は、虹彩撮影用カメラ30がN台設置されている場合には、N通りの視線方向を推定する。
 次に、制御部14(角度検出部14b)は、ステップS305において推定された複数の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度をそれぞれ検出する(ステップS306)。
 次に、制御部14(判定部14c)は、複数の虹彩撮影用カメラ30の中から、最小の検出角度に対応する虹彩撮影用カメラ30を選択する(ステップS307)。
 次に、制御部14(判定部14c)は、検出角度が所定の判定基準を満たすか否かを判定する(ステップS308)。ここで、制御部14(判定部14c)が、検出角度は所定の判定基準を満たすと判定した場合(ステップS308:YES)には、処理はステップS309に移行する。これに対し、制御部14(判定部14c)が、検出角度は所定の判定基準を満たさないと判定した場合(ステップS309:NO)には、処理はステップS310に移行する。
 ステップS309において、制御部14(判定部14c)は、照合対象者が虹彩撮影区間内に存在するか否かを判定する。ここで、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在すると判定した場合(ステップS309:YES)には、処理はステップS311に移行する。これに対し、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在しないと判定した場合(ステップS309:NO)には、処理はステップS301に戻る。
 ステップS310において、制御部14(通知制御部14d)は、角度に基づく情報を照合対象者に通知するための通知制御情報を生成し、通知装置50を制御すると、処理はステップS301に戻る。すなわち、制御部14(通知制御部14d)は、通知装置50における通知方法を決定するとともに、通知装置50において画面表示、音、光等の通知方法によって、照合対象者に対して視線方向を、最小の検出角度に対応する虹彩撮影用カメラ30側に向けるように注意喚起を行う。本実施形態における通知例としては、例えば、ディスプレイ50a上に「LEDが点灯しているカメラを見てください。」、「3番のカメラを見てください。」等のメッセージを表示する方法が挙げられる。
 ステップS311において、制御部14(駆動制御部14e)は、虹彩撮影用カメラに制御情報を出力する。すなわち、制御部14(駆動制御部14e)は、角度が所定角度以下、かつ、距離が所定距離以下である場合に虹彩撮影用カメラ30に虹彩画像を撮影させる。
 そして、制御部14(駆動制御部14e)は、照合装置60に対して制御情報を出力し(ステップS312)、虹彩撮影用カメラで撮影された虹彩画像と虹彩データベース70に予め登録された登録虹彩画像との照合処理を実行させ、処理を終了する。
 以上のように、本実施形態における虹彩照合システム2は、撮影方向が互いに異なる複数の虹彩撮影用カメラ30の中から、検出角度に基づいて実際に虹彩画像を撮影する虹彩撮影用カメラ30を選択する。照合対象者の視線方向に近い撮影方向に対応する虹彩撮影用カメラ30が選択されるため、第1実施形態の場合よりも照合対象者は視線方向を調整し易くなる。これにより、虹彩認証時における照合対象者の利便性をさらに向上させることができる。
[第3実施形態]
 以下、第3実施形態における虹彩照合システムについて説明する。なお、上述した実施形態の図中において付与した符号と共通する符号は同一の対象を示す。上述した実施形態と共通する箇所の説明は省略し、異なる箇所について詳細に説明する。
 上述した実施形態では、検出角度の判定基準値は照合対象者までの距離にかかわらず、一定であることを前提として説明した。一方、本実施形態は、制御部14(判定部14c)が、検出された距離に基づいて照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とを対向させる(検出角度を低減させる)制御に用いられる判定基準値を変更する点で第1及び第2実施形態と異なっている。
 図15は、実施形態における虹彩撮影用カメラ30と照合対象者との間の距離と検出角度の判定基準値との関係を示すグラフである。ここでは、虹彩撮影用カメラ30と照合対象者との間の距離を横軸に、距離に応じた判定基準値を縦軸として、距離と判定基準値との関係性の一例を示している。距離D1からD2の区間は、視線調整区間S1を示している。また、距離D3からD2の区間は、虹彩撮影区間S2を示している。なお、距離がD3よりも短い場合や距離がD1よりも長い場合には、虹彩撮影及び視線検出を行わないため、判定基準値は定義されていない。図15の例では、視線調整区間S1内で照合対象者がカメラに近付くにつれて、判定基準値はC1からC2に減少していくことを示している。そして、虹彩撮影区間S2においては、判定基準値はC2で一定となっている。
 図16は、本実施形態における情報処理装置10の制御処理の一例を示すフローチャートである。なお、図16の処理は一例であり、処理の順序は適宜変更可能である。
 先ず、画像取得部11は、視線検出用カメラ20において撮影された撮影画像を受信する(ステップS401)。なお、当該撮影画像は、視線方向の推定に用いられることから、照合対象者の少なくとも顔の一部を含むものとする。
 次に、距離情報取得部13は、距離センサ40から照合対象者と虹彩撮影用カメラ30との間の距離を示す信号を距離情報として受信する(ステップS402)。
 次に、視線情報取得部12は、ステップS401において受信された撮影画像を解析し、照合対象者の視線情報を取得する(ステップS403)。なお、本実施形態における視線情報は、照合対象者の顔方向、画像内における眼領域の位置情報、目尻、瞳孔及び虹彩の位置情報等を含むものとする。
 次に、制御部14(視線方向推定部14a)は、照合対象者と虹彩撮影用カメラ30との間の距離に基づいて照合対象者の視線方向の推定方法を選択する(ステップS404)。具体的には、本実施形態の制御部14(視線方向推定部14a)は、距離が所定の基準距離以上である場合には、視線情報に含まれる照合対象者の顔方向に基づいて視線方向を推定する。これに対し、制御部14(視線方向推定部14a)は、距離が基準距離未満である場合には、視線情報に含まれる照合対象者の瞳孔又は虹彩の位置情報に基づいて視線方向を推定する。
 次に、制御部14(視線方向推定部14a)は、選択された推定方法に基づいて、視線情報から照合対象者の視線方向を推定する(ステップS405)。なお、制御部14(視線方向推定部14a)は、虹彩撮影用カメラ30がN台設置されている場合には、N通りの視線方向を推定する。
 次に、制御部14(角度検出部14b)は、ステップS405において推定された視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度を検出する(ステップS406)。
 次に、制御部14(判定部14c)は、検出された距離に基づいて検出角度の判定基準値を選択する(ステップS407)。
 次に、制御部14(判定部14c)は、検出角度が所定の判定基準を満たすか否かを判定する(ステップS408)。ここで、制御部14(判定部14c)が、検出角度は所定の判定基準を満たすと判定した場合(ステップS408:YES)には、処理はステップS409に移行する。これに対し、制御部14(判定部14c)が、検出角度は所定の判定基準を満たさないと判定した場合(ステップS409:NO)には、処理はステップS410に移行する。
 ステップS409において、制御部14(判定部14c)は、照合対象者が虹彩撮影区間内に存在するか否かを判定する。ここで、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在すると判定した場合(ステップS409:YES)には、処理はステップS411に移行する。これに対し、制御部14(判定部14c)が、照合対象者は虹彩撮影区間内に存在しないと判定した場合(ステップS409:NO)には、処理はステップS401に戻る。
 ステップS410において、制御部14(通知制御部14d)は、角度に基づく情報を照合対象者に通知するための通知制御情報を生成し、通知装置50を制御すると、処理はステップS401に戻る。すなわち、制御部14(通知制御部14d)は、通知装置50における通知方法を決定するとともに、通知装置50において画面表示、音、光等の通知方法によって、照合対象者に対して視線方向を虹彩撮影用カメラ30側に向けるように注意喚起を行う。
 ステップS411において、制御部14(駆動制御部14e)は、虹彩撮影用カメラに制御情報を出力する。すなわち、制御部14(駆動制御部14e)は、角度が所定角度以下、かつ、距離が所定距離以下である場合に虹彩撮影用カメラ30に虹彩画像を撮影させる。
 そして、制御部14(駆動制御部14e)は、照合装置60に対して制御情報を出力し(ステップS412)、虹彩撮影用カメラで撮影された虹彩画像と虹彩データベース70に予め登録された登録虹彩画像との照合処理を実行させ、処理を終了する。
 以上のように、本実施形態における虹彩照合システムは、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とのなす角度、すなわち、ずれ量の適否を判定するための判定基準値を距離に応じて変更できる。このため、精度が要求されない位置では判定基準値を緩やかに、精度が要求される位置では判定基準値を厳しく定義することで、視線方向の調整を効率化するとともに、高精度での虹彩画像の撮影が可能となる。
[第4実施形態]
 図17は、本実施形態における情報処理装置100の機能を示すブロック図である。情報処理装置100は、虹彩照合システムを制御する情報処理装置であって、第1撮影装置により撮影された画像から照合対象者の視線情報を取得する取得部110と、視線情報から得られる視線方向と、照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように虹彩照合システムを制御する制御部120と、を備える。本実施形態における情報処理装置100によれば、虹彩認証における利用者の利便性を向上できる。
[第5実施形態]
 図18は、本実施形態における情報処理システム500の機能を示すブロック図である。情報処理システム500は、照合対象者の顔の少なくとも一部を含む第1画像を撮影する第1撮影装置510と、照合対象者の虹彩を含む第2画像を撮影する第2撮影装置520と、情報処理装置530と、を備える。情報処理装置530は、第1画像に基づいて照合対象者の視線情報を取得する取得部531と、視線情報から得られる照合対象者の視線方向と、第2撮影装置における撮影方向とが対向するように、情報処理システム500を制御する制御部532と、を有する。本実施形態における情報処理システム500によれば、虹彩認証における利用者の利便性を向上できる。
[変形実施形態]
 以上、実施形態を参照して本発明を説明したが、本発明は上述の実施形態に限定されるものではない。本願発明の構成及び詳細には本発明の要旨を逸脱しない範囲で、当業者が理解し得る様々な変形をできる。例えば、いずれかの実施形態の一部の構成を、他の実施形態に追加した実施形態、あるいは他の実施形態の一部の構成と置換した実施形態も本発明を適用し得る実施形態であると理解されるべきである。
 上述した実施形態では、虹彩撮影用カメラ30は固定された状態であることを前提として説明した。制御部14(駆動制御部14e)は、視線情報に基づいて、角度が低減される方向に虹彩撮影用カメラ30を駆動させてもよい。この場合、上述の実施形態とは異なり、照合対象者に対する注意喚起を行う必要がなくなる。このため、施設の利用者(照合対象者)は、認証処理を意識せずに通行できるようになる利点がある。
 上述した第2実施形態では、複数の虹彩撮影用カメラ30のうち、検出角度が最小となる撮影装置において虹彩画像を撮影する場合について説明した。しかし、制御部14は、撮影方向が互いに異なる複数の虹彩撮影用カメラ30が撮影した虹彩画像群のうちから、角度に基づいて虹彩画像を選択し、選択画像に基づいて照合装置60に照合処理を実行させてもよい。例えば、制御部14は、撮影方向が互いに異なる複数の撮影装置が撮影した虹彩画像群のうちから、最小の検出角度に対応する虹彩撮影用カメラ30が撮影した虹彩画像を選択してもよい。この場合、画像の選択が容易となる利点がある。同様に、角度が許容範囲にある虹彩撮影用カメラ30が撮影した虹彩画像を選択してもよい。この場合、角度が最小ではないものの、画像の品質が高く、より虹彩照合に適する画像を選択できる利点がある。
 上述の実施形態では、視線検出用カメラ20(第1撮影装置)により撮影された撮像画像(以下、「第1画像」という。)を解析することで、照合対象者の視線方向を検出する方法について説明した。しかし、視線検出用カメラ20ではなく、虹彩撮影用カメラ30により撮影された画像(以下、「第2画像」という。)に基づいて視線方向を推定してもよい。例えば、制御部14(視線方向推定部14a)は、照合対象者までの距離が所定の基準距離以上である場合には、第1画像に基づいて視線方向を推定し、距離が所定の基準距離未満である場合には、第2画像に基づいて照合対象者の視線方向を推定してもよい。虹彩撮影用カメラ30が撮影した第2画像の解像度は、視線検出用カメラ20が撮影した第1画像の解像度よりも高い。このため、視線方向の推定の精度を向上できる利点がある。
 上述の実施形態では、距離センサ40によって照合対象者までの距離を検出する場合について説明したが、距離の検出方法はこれに限られない。照合対象者までの距離は、視線検出用カメラ20(第1撮影装置)により取得される構成としてもよい。すなわち、視線検出と距離検出を同一カメラで行う場合もあり得る。例えば、視線検出用カメラ20が撮影した撮影画像の中に、距離及び大きさが既知である物体が含まれている場合、同画像における照合対象者と物体の大きさを比較することで距離を推定できる。この場合、距離センサ40を省略できるため、ハードウェア構成を簡略化できる利点がある。
 上述の実施形態では、虹彩画像に基づく認証処理のみを実行していたが、他の認証方法と組み合わせてもよい。例えば、照合装置60は、第1画像と登録者の登録顔画像との照合結果に基づいて照合対象者を認証する顔認証と、第2画像と登録者の登録虹彩画像との照合結果に基づいて照合対象者を認証する虹彩認証からなる二要素認証を実行してもよい。二要素認証を実行することにより、認証精度を向上させることができる。
 また、照合装置60は、顔認証において登録者として認証された照合対象者を、虹彩認証における認証対象とする二段階認証を実行してもよい。顔認証によって照合対象者の数が絞り込まれるため、1対Nの虹彩画像認証における速度を向上させることができる。
 上述の第2実施形態においては、虹彩撮影用カメラ30の選択処理と併せて、照合対象者に対する通知処理を実行する場合について説明したが、通知処理を省略したシステム構成もあり得る。この場合、照合対象者は視線方向の調整が不要となる利点がある。
 上述した実施形態では、視線方向は角度により表され、視線方向と撮影方向とのなす角度に基づいて虹彩画像を撮影するか否かを判定する場合について説明した。しかし、視線方向は、瞳孔の中心と瞳に写った反射像との位置の差により表されてもよい。すなわち、瞳孔の中心と瞳に写った反射像とが一致する場合には、照合対象者の視線方向と虹彩撮影用カメラ30の撮影方向とが対向していると判定できる。情報処理装置10は、視線方向として、必ずしも角度を算出しなくてもよい。
 上述の第1の実施形態では、撮影する虹彩撮影用カメラ30が1台である場合について説明したが、N(N≧2)台の虹彩撮影用カメラ30のうち、撮影するカメラが予め1台に仮決めしておく構成も有り得る。この場合、照合対象者の視線方向と既定の虹彩撮影用カメラ30の撮影方向とのなす角度が所定の範囲にない場合にのみ、照合対象者の視線方向と他の虹彩撮影用カメラ30の撮影方向とのなす角度を算出し、適切なカメラを選択するとよい。また、第2実施形態と同様に、視線方向と撮影方向とのなす角度をN通り算出し、照合対象者の視線方向に最も近い撮影方向に対応するカメラを選択してもよい。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 虹彩照合システムを制御する情報処理装置であって、
 第1撮影装置により撮影された画像から照合対象者の視線情報を取得する取得部と、
 前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、虹彩照合システムを制御する制御部と、
 を備える情報処理装置。
(付記2)
 前記制御部は、前記視線方向に基づく情報を前記照合対象者に通知するための通知制御情報を生成する、
付記1に記載の情報処理装置。
(付記3)
 前記通知制御情報は、前記視線方向を前記第2撮影装置側に誘導するための情報を含む、
付記2に記載の情報処理装置。
(付記4)
 前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置のうちから、前記視線方向に基づいて選択された前記第2撮影装置に前記虹彩画像を撮影させる、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記5)
 前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置のうちから、前記視線方向と前記撮影方向とのなす角度が最小となる前記第2撮影装置に前記虹彩画像を撮影させる、
 付記4に記載の情報処理装置。
(付記6)
 前記制御部は、前記視線情報に基づいて、前記視線方向と前記撮影方向とのなす角度が低減される方向に前記第2撮影装置を駆動させる、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記7)
 前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置が撮影した虹彩画像群のうちから、前記視線方向と前記撮影方向とのなす角度に基づいて前記虹彩画像を選択する、
 付記1乃至3のいずれかに記載の情報処理装置。
(付記8)
 前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置が撮影した虹彩画像群のうちから、前記視線方向と前記撮影方向とのなす角度が最小である前記虹彩画像を選択する、
 付記7に記載の情報処理装置。
(付記9)
 前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
 前記制御部は、前記距離に基づいて前記視線方向と前記撮影方向とを対向させる制御に用いられる判定基準を変更する、
 付記1乃至8のいずれかに記載の情報処理装置。
(付記10)
 前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
 前記制御部は、前記視線方向が所定の範囲に含まれ、かつ、前記距離が所定距離以下である場合に前記第2撮影装置に前記虹彩画像を撮影させる、
 付記1乃至8のいずれかに記載の情報処理装置。
(付記11)
 前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
 前記制御部は、前記距離が所定の基準距離以上である場合には、前記視線情報に含まれる前記照合対象者の顔方向に基づいて前記視線方向を推定し、前記距離が前記基準距離未満である場合には、前記視線情報に含まれる前記照合対象者の瞳孔又は虹彩の位置情報に基づいて前記視線方向を推定する、
 付記1乃至8のいずれかに記載の情報処理装置。
(付記12)
 前記制御部は、前記視線情報に含まれる前記照合対象者の瞳孔又は虹彩の位置情報に基づいて前記視線方向を推定する、
 付記1乃至10のいずれかに記載の情報処理装置。
(付記13)
 照合対象者の顔の少なくとも一部を含む第1画像を撮影する第1撮影装置と、
 前記照合対象者の虹彩を含む第2画像を撮影する第2撮影装置と、
 情報処理装置と、
 を備えた情報処理システムであって、
 前記情報処理装置は、
 前記第1画像に基づいて前記照合対象者の視線情報を取得する取得部と、
 前記視線情報から得られる前記照合対象者の視線方向と、前記第2撮影装置における撮影方向とが対向するように前記情報処理システムを制御する制御部と、
 を有する情報処理システム。
(付記14)
 前記第2画像の解像度は、前記第1画像の解像度よりも高い、
 付記13に記載の情報処理システム。
(付記15)
 前記第2撮影装置における撮影波長は、前記第1撮影装置における撮影波長と異なる、
 付記14に記載の情報処理システム。
(付記16)
 前記制御部は、前記照合対象者までの距離が所定の基準距離以上である場合には、前記第1画像に基づいて前記視線方向を推定し、前記距離が所定の基準距離未満である場合には、前記第2画像に基づいて前記照合対象者の前記視線方向を推定する、
 付記13乃至15のいずれかに記載の情報処理システム。
(付記17)
 前記距離を検出し、前記情報処理装置へ出力する距離センサをさらに備える、
 付記16に記載の情報処理システム。
(付記18)
 前記距離は、前記第1撮影装置により取得される、
 付記17に記載の情報処理システム。
(付記19)
 前記第1画像と登録者の登録顔画像との照合結果に基づいて前記照合対象者を認証する顔認証と、前記第2画像と前記登録者の登録虹彩画像との照合結果に基づいて前記照合対象者を認証する虹彩認証とを実行する照合装置をさらに備える、
 付記13乃至18のいずれかに記載の情報処理システム。
(付記20)
 前記照合装置は、前記顔認証において前記登録者として認証された前記照合対象者を、前記虹彩認証における認証対象とする、
 付記19に記載の情報処理システム。
(付記21)
 虹彩照合システムを制御する情報処理方法であって、
 第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、
 前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、
 を備える情報処理方法。
(付記22)
 虹彩照合システムを制御するコンピュータに、
 第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、
 前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、
 を実行させるためのプログラムが記録された記録媒体。
NW・・・ネットワーク     1,2・・・虹彩照合システム
10・・・情報処理装置     11・・・画像取得部
12・・・視線情報取得部    13・・・距離情報取得部
14・・・制御部        14a・・・視線方向推定部
14b・・・角度検出部     14c・・・判定部
14d・・・通知制御部     14e・・・駆動制御部
15・・・記憶部
20・・・視線検出用カメラ(第1撮影装置)
30・・・虹彩撮影用カメラ(第2撮影装置)
40・・・距離センサ      
50・・・通知装置       50a・・・ディスプレイ
50b・・・LED       50c・・・スピーカ
60・・・照合装置       61・・・画像取得部
62・・・虹彩画像抽出部    63・・・座標変換部
64・・・ブロック分割部    65・・・特徴量算出部
66・・・照合部        67・・・記憶部
70・・・虹彩データベース
100・・・情報処理装置    110・・・取得部
120・・・制御部
151,651・・・CPU   152,652・・・RAM
153,653・・・ROM   154,654・・・HDD
155,655・・・通信I/F 156・・・表示装置
157・・・入力装置      158,658・・・バス
500・・・情報処理システム  510・・・第1撮影装置
520・・・第2撮影装置    530・・・情報処理装置
531・・・取得部       532・・・制御部

Claims (22)

  1.  虹彩照合システムを制御する情報処理装置であって、
     第1撮影装置により撮影された画像から照合対象者の視線情報を取得する取得部と、
     前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、虹彩照合システムを制御する制御部と、
     を備える情報処理装置。
  2.  前記制御部は、前記視線方向に基づく情報を前記照合対象者に通知するための通知制御情報を生成する、
    請求項1に記載の情報処理装置。
  3.  前記通知制御情報は、前記視線方向を前記第2撮影装置側に誘導するための情報を含む、
    請求項2に記載の情報処理装置。
  4.  前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置のうちから、前記視線方向に基づいて選択された前記第2撮影装置に前記虹彩画像を撮影させる、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置のうちから、前記視線方向と前記撮影方向とのなす角度が最小となる前記第2撮影装置に前記虹彩画像を撮影させる、
     請求項4に記載の情報処理装置。
  6.  前記制御部は、前記視線情報に基づいて、前記視線方向と前記撮影方向とのなす角度が低減される方向に前記第2撮影装置を駆動させる、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  7.  前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置が撮影した虹彩画像群のうちから、前記視線方向と前記撮影方向とのなす角度に基づいて前記虹彩画像を選択する、
     請求項1乃至3のいずれか一項に記載の情報処理装置。
  8.  前記制御部は、前記撮影方向が互いに異なる複数の前記第2撮影装置が撮影した虹彩画像群のうちから、前記視線方向と前記撮影方向とのなす角度が最小である前記虹彩画像を選択する、
     請求項7に記載の情報処理装置。
  9.  前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
     前記制御部は、前記距離に基づいて前記視線方向と前記撮影方向とを対向させる制御に用いられる判定基準を変更する、
     請求項1乃至8のいずれか一項に記載の情報処理装置。
  10.  前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
     前記制御部は、前記視線方向が所定の範囲に含まれ、かつ、前記距離が所定距離以下である場合に前記第2撮影装置に前記虹彩画像を撮影させる、
     請求項1乃至8のいずれか一項に記載の情報処理装置。
  11.  前記照合対象者までの距離を取得する距離情報取得部をさらに備え、
     前記制御部は、前記距離が所定の基準距離以上である場合には、前記視線情報に含まれる前記照合対象者の顔方向に基づいて前記視線方向を推定し、前記距離が前記基準距離未満である場合には、前記視線情報に含まれる前記照合対象者の瞳孔又は虹彩の位置情報に基づいて前記視線方向を推定する、
     請求項1乃至8のいずれか一項に記載の情報処理装置。
  12.  前記制御部は、前記視線情報に含まれる前記照合対象者の瞳孔又は虹彩の位置情報に基づいて前記視線方向を推定する、
     請求項1乃至10のいずれか一項に記載の情報処理装置。
  13.  照合対象者の顔の少なくとも一部を含む第1画像を撮影する第1撮影装置と、
     前記照合対象者の虹彩を含む第2画像を撮影する第2撮影装置と、
     情報処理装置と、
     を備えた情報処理システムであって、
     前記情報処理装置は、
     前記第1画像に基づいて前記照合対象者の視線情報を取得する取得部と、
     前記視線情報から得られる前記照合対象者の視線方向と、前記第2撮影装置における撮影方向とが対向するように前記情報処理システムを制御する制御部と、
     を有する情報処理システム。
  14.  前記第2画像の解像度は、前記第1画像の解像度よりも高い、
     請求項13に記載の情報処理システム。
  15.  前記第2撮影装置における撮影波長は、前記第1撮影装置における撮影波長と異なる、
     請求項14に記載の情報処理システム。
  16.  前記制御部は、前記照合対象者までの距離が所定の基準距離以上である場合には、前記第1画像に基づいて前記視線方向を推定し、前記距離が所定の基準距離未満である場合には、前記第2画像に基づいて前記照合対象者の前記視線方向を推定する、
     請求項13乃至15のいずれか一項に記載の情報処理システム。
  17.  前記距離を検出し、前記情報処理装置へ出力する距離センサをさらに備える、
     請求項16に記載の情報処理システム。
  18.  前記距離は、前記第1撮影装置により取得される、
     請求項17に記載の情報処理システム。
  19.  前記第1画像と登録者の登録顔画像との照合結果に基づいて前記照合対象者を認証する顔認証と、前記第2画像と前記登録者の登録虹彩画像との照合結果に基づいて前記照合対象者を認証する虹彩認証とを実行する照合装置をさらに備える、
     請求項13乃至18のいずれか一項に記載の情報処理システム。
  20.  前記照合装置は、前記顔認証において前記登録者として認証された前記照合対象者を、前記虹彩認証における認証対象とする、
     請求項19に記載の情報処理システム。
  21.  虹彩照合システムを制御する情報処理方法であって、
     第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、
     前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、
     を備える情報処理方法。
  22.  虹彩照合システムを制御するコンピュータに、
     第1撮影装置により撮影された画像から照合対象者の視線情報を取得するステップと、
     前記視線情報から得られる視線方向と、前記照合対象者の虹彩照合に用いられる虹彩画像を撮影する第2撮影装置における撮影方向とが対向するように、前記虹彩照合システムを制御するステップと、
     を実行させるためのプログラムが記録された記録媒体。
PCT/JP2019/010697 2019-03-14 2019-03-14 情報処理装置、情報処理システム、情報処理方法及び記録媒体 WO2020183732A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2021505476A JP7223303B2 (ja) 2019-03-14 2019-03-14 情報処理装置、情報処理システム、情報処理方法及びプログラム
EP19919135.4A EP3940627A4 (en) 2019-03-14 2019-03-14 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND RECORDING MEDIA
US17/436,220 US20220130173A1 (en) 2019-03-14 2019-03-14 Information processing device, information processing system, information processing method, and storage medium
BR112021016773A BR112021016773A2 (pt) 2019-03-14 2019-03-14 Dispositivo de processamento de informações, sistema de processamento de informações, método de proces-samento de informações e meio de armazenamento
PCT/JP2019/010697 WO2020183732A1 (ja) 2019-03-14 2019-03-14 情報処理装置、情報処理システム、情報処理方法及び記録媒体
CN201980093922.2A CN113557519A (zh) 2019-03-14 2019-03-14 信息处理设备、信息处理系统、信息处理方法以及记录介质
TW109107229A TW202040426A (zh) 2019-03-14 2020-03-05 資訊處理裝置、資訊處理系統、資訊處理方法以及非暫時性儲存媒體
ARP200100711A AR118356A1 (es) 2019-03-14 2020-03-13 Dispositivo de procesamiento de información, sistema de procesamiento de información, método de procesamiento de información y medio de almacenamiento

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010697 WO2020183732A1 (ja) 2019-03-14 2019-03-14 情報処理装置、情報処理システム、情報処理方法及び記録媒体

Publications (1)

Publication Number Publication Date
WO2020183732A1 true WO2020183732A1 (ja) 2020-09-17

Family

ID=72426651

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010697 WO2020183732A1 (ja) 2019-03-14 2019-03-14 情報処理装置、情報処理システム、情報処理方法及び記録媒体

Country Status (8)

Country Link
US (1) US20220130173A1 (ja)
EP (1) EP3940627A4 (ja)
JP (1) JP7223303B2 (ja)
CN (1) CN113557519A (ja)
AR (1) AR118356A1 (ja)
BR (1) BR112021016773A2 (ja)
TW (1) TW202040426A (ja)
WO (1) WO2020183732A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234003A1 (ja) * 2022-06-02 2023-12-07 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US12072964B2 (en) 2021-02-18 2024-08-27 Nec Corporation Biometric authentication system, biometric authentication method, and recording medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210872B2 (ja) * 2017-07-19 2023-01-24 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
FR3144376A1 (fr) * 2022-12-23 2024-06-28 Idemia Identity & Security France Système d'acquisition d’image pour la reconnaissance biométrique d'iris d’un individu

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040386A (ja) * 1996-07-25 1998-02-13 Oki Electric Ind Co Ltd 虹彩認識システム
JP2000011163A (ja) * 1998-06-18 2000-01-14 Matsushita Electric Ind Co Ltd 虹彩撮像装置及び、その虹彩撮像方法
JP2007011667A (ja) * 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
JP2008197713A (ja) 2007-02-08 2008-08-28 Toyama Prefecture 画像識別方法
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2010267121A (ja) * 2009-05-15 2010-11-25 Oki Electric Ind Co Ltd アイリス撮影装置
JP2012216180A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2017208638A (ja) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド 虹彩認証装置、虹彩認証方法、及びプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262919B1 (en) * 1994-06-13 2007-08-28 Canon Kabushiki Kaisha Head-up display device with curved optical surface having total reflection
US6700998B1 (en) * 1999-04-23 2004-03-02 Oki Electric Industry Co, Ltd. Iris registration unit
JP2003141516A (ja) * 2001-10-31 2003-05-16 Matsushita Electric Ind Co Ltd 虹彩撮像装置及び虹彩認証装置
JP2005031711A (ja) * 2003-05-12 2005-02-03 Omron Corp 車載端末装置、車載端末制御プログラム、車載端末制御プログラムを記録した記録媒体、車載端末装置の通信決済方法、決済管理システム、決済管理プログラム、決済管理プログラムを記録した記録媒体、決済管理方法、料金収受システム、料金収受プログラム、料金収受プログラムを記録した記録媒体、および料金収受方法
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP4604190B2 (ja) * 2004-02-17 2010-12-22 国立大学法人静岡大学 距離イメージセンサを用いた視線検出装置
JP2005334402A (ja) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
JP4622702B2 (ja) 2005-05-27 2011-02-02 株式会社日立製作所 映像監視装置
US8159519B2 (en) * 2007-05-31 2012-04-17 Eastman Kodak Company Personal controls for personal video communications
EP2351668A4 (en) * 2008-09-12 2013-03-13 Toshiba Kk IMAGE RADIATION SYSTEM AND IMAGE RADIATION PROCESS
CN102149325B (zh) * 2008-09-26 2013-01-02 松下电器产业株式会社 视线方向判定装置及视线方向判定方法
US8570423B2 (en) * 2009-01-28 2013-10-29 Hewlett-Packard Development Company, L.P. Systems for performing visual collaboration between remotely situated participants
JP5361618B2 (ja) * 2009-09-04 2013-12-04 キヤノン株式会社 画像処理装置及びその制御方法
JP2011113196A (ja) 2009-11-25 2011-06-09 Olympus Corp 顔方向特定装置及び撮像装置
EP3002752A1 (en) * 2010-01-15 2016-04-06 LG Electronics, Inc. Method and apparatus for processing an audio signal
DE102010017837A1 (de) * 2010-04-22 2011-10-27 Carl Zeiss Meditec Ag Anordnung zur Erzielung hochgenauer Messwerte am Auge
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
KR101544524B1 (ko) * 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
EP2907453B1 (en) * 2012-09-28 2018-11-21 JVC Kenwood Corporation Diagnosis assistance device and diagnosis assistance method
CN104780834B (zh) * 2012-11-12 2016-12-28 阿尔卑斯电气株式会社 生物体信息计测装置及使用该装置的输入装置
KR101382772B1 (ko) * 2012-12-11 2014-04-08 현대자동차주식회사 디스플레이 시스템 및 방법
JP6217445B2 (ja) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP6176070B2 (ja) * 2013-11-13 2017-08-09 株式会社デンソー 視線方向検知装置
US9525817B2 (en) * 2013-11-22 2016-12-20 Samsung Electro-Mechanics Co., Ltd. System and method of controlling imaging direction and angle of view of camera
US20150346814A1 (en) * 2014-05-30 2015-12-03 Vaibhav Thukral Gaze tracking for one or more users
KR20160051411A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 외부의 물체를 제어하는 전자 장치 및 그 방법
US10048749B2 (en) * 2015-01-09 2018-08-14 Microsoft Technology Licensing, Llc Gaze detection offset for gaze tracking models
JP6613740B2 (ja) * 2015-09-09 2019-12-04 富士通コネクテッドテクノロジーズ株式会社 表示制御装置、表示制御方法および表示制御プログラム
CN108885117A (zh) * 2016-03-29 2018-11-23 三菱电机株式会社 语音引导装置和语音引导方法
US10698481B1 (en) * 2017-09-28 2020-06-30 Apple Inc. Glint-assisted gaze tracker
EP3856008A1 (en) * 2018-09-26 2021-08-04 Essilor International Method for determining at least one geometrico-morphological parameter of a subject
US10825245B1 (en) * 2019-06-03 2020-11-03 Bank Of America Corporation Three dimensional rendering for a mobile device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040386A (ja) * 1996-07-25 1998-02-13 Oki Electric Ind Co Ltd 虹彩認識システム
JP2000011163A (ja) * 1998-06-18 2000-01-14 Matsushita Electric Ind Co Ltd 虹彩撮像装置及び、その虹彩撮像方法
JP2007011667A (ja) * 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
JP2008197713A (ja) 2007-02-08 2008-08-28 Toyama Prefecture 画像識別方法
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2010267121A (ja) * 2009-05-15 2010-11-25 Oki Electric Ind Co Ltd アイリス撮影装置
JP2012216180A (ja) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2017208638A (ja) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド 虹彩認証装置、虹彩認証方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3940627A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12072964B2 (en) 2021-02-18 2024-08-27 Nec Corporation Biometric authentication system, biometric authentication method, and recording medium
WO2023234003A1 (ja) * 2022-06-02 2023-12-07 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
TW202040426A (zh) 2020-11-01
EP3940627A4 (en) 2022-03-23
JPWO2020183732A1 (ja) 2020-09-17
EP3940627A1 (en) 2022-01-19
CN113557519A (zh) 2021-10-26
AR118356A1 (es) 2021-09-29
BR112021016773A2 (pt) 2021-11-16
JP7223303B2 (ja) 2023-02-16
US20220130173A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
WO2020183732A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び記録媒体
US9798927B2 (en) Mobile terminal iris recognition method and device having human-computer interaction mechanism
CN103383723B (zh) 用于生物特征验证的电子欺骗检测的方法和系统
US8831295B2 (en) Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods
US7369759B2 (en) Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function
US11227170B2 (en) Collation device and collation method
CN111598065B (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
WO2019163066A1 (ja) なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体
US20210256244A1 (en) Method for authentication or identification of an individual
US11375133B2 (en) Automatic exposure module for an image acquisition system
JP2015138449A (ja) 個人認証装置、個人認証方法及びプログラム
JP5766096B2 (ja) 顔画像認証装置
US12118826B2 (en) Information processing system, information processing method, and storage medium
JP2022033267A (ja) 画像処理システム、画像処理方法及び記憶媒体
JP2009015518A (ja) 眼画像撮影装置及び認証装置
WO2021166289A1 (ja) データ登録装置、生体認証装置、および記録媒体
JP7482380B2 (ja) 撮像装置
JP7207506B2 (ja) なりすまし検知装置、なりすまし検知方法、及びプログラム
WO2023012900A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
WO2024214289A1 (ja) 表示装置、認証システム、認証方法、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19919135

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112021016773

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2021505476

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019919135

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019919135

Country of ref document: EP

Effective date: 20211014

ENP Entry into the national phase

Ref document number: 112021016773

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20210824