WO2023175939A1 - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2023175939A1
WO2023175939A1 PCT/JP2022/012736 JP2022012736W WO2023175939A1 WO 2023175939 A1 WO2023175939 A1 WO 2023175939A1 JP 2022012736 W JP2022012736 W JP 2022012736W WO 2023175939 A1 WO2023175939 A1 WO 2023175939A1
Authority
WO
WIPO (PCT)
Prior art keywords
iris authentication
information processing
pattern
iris
area
Prior art date
Application number
PCT/JP2022/012736
Other languages
English (en)
French (fr)
Inventor
亮磨 大網
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/012736 priority Critical patent/WO2023175939A1/ja
Publication of WO2023175939A1 publication Critical patent/WO2023175939A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to the technical field of information processing devices, information processing methods, and recording media.
  • the image of the iris region extracted from the eyeball image for registration is subjected to polar coordinate transformation to create a registered iris pattern image (normalized image), and the image of the iris region extracted from the eyeball image for verification is polar coordinate transformed to create a verification iris pattern image (
  • BLPOC band-limited phase-only correlation method
  • Patent Document 3 describes a technique for effectively identifying a living body even for a spherical counterfeit object similar to a living body's eye, such as a false eye. Multiple eye images of the subject are photographed, each of the photographed eye images is evaluated, and iris authentication processing is performed on the eye image evaluated as the best among the multiple eye images. Patent Document 4 describes a technique in which iris authentication processing or registration processing is performed for each iris authentication target person using an eye image photographed under the best conditions.
  • Patent Document 5 describes a technique for extracting a determination target image including the side part of the outer periphery of the iris from an image including the eye, and determining whether or not a colored contact lens is being worn based on the determination target image. .
  • the colored pattern of the colored contact lenses worn by the subject is identified, and the colored pattern of the iris area of the eye is identified.
  • Patent Document 6 describes a technique for identifying a subject using characteristics in areas other than the colored area and suppressing a decrease in authentication accuracy of iris authentication even if the subject wears colored contact lenses.
  • An object of this disclosure is to provide an information processing device, an information processing method, and a recording medium that aim to improve the techniques described in prior art documents.
  • the apparatus when a person to be iris authenticated is wearing a pattern contact lens including a predetermined pattern area, from an eye image including the eyes of the iris authentication subject, the information contained in the eye image is
  • the apparatus includes a determining means for determining an inner boundary of the pattern area, and an iris authentication means for performing iris authentication of the person to be iris authenticated based on the inner boundary.
  • the information processing method when a person to be iris authenticated is wearing a pattern contact lens including a predetermined pattern area, from an eye image including the eyes of the iris authentication subject, the information contained in the eye image is An inner boundary of the pattern area is determined, and iris authentication of the iris authentication subject is performed based on the inner boundary.
  • the computer when a person to be iris-identified is wearing a pattern contact lens including a predetermined pattern area, the computer can store an eye image including the eyes of the person to be iris-authenticated.
  • a computer program is recorded for executing an information processing method for determining an inner boundary of the included pattern area and performing iris authentication of the person to be iris authenticated based on the inner boundary.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus in the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of an information processing device in the second embodiment.
  • FIG. 3 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the second embodiment.
  • FIG. 4 is a conceptual diagram of the eyeball of an iris authentication subject wearing pattern contact lenses.
  • FIG. 5 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the third embodiment.
  • FIG. 6 is a conceptual diagram of the inner boundary determination operation in the third embodiment.
  • FIG. 7 is a block diagram showing the configuration of an information processing device in the fourth embodiment.
  • FIG. 8 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the fourth embodiment.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus in the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of an information processing device in the second embodiment.
  • FIG. 3 is a
  • FIG. 9 is a conceptual diagram of the inner boundary determination operation in the fourth embodiment.
  • FIG. 10 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the fifth embodiment.
  • FIG. 11 is a conceptual diagram of the inner boundary determination operation in the fifth embodiment.
  • FIG. 12 is a flowchart showing the flow of the inner boundary determination operation performed by the information processing apparatus in the fifth embodiment.
  • FIG. 13 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the sixth embodiment.
  • FIG. 14 is a block diagram showing the configuration of an information processing device in the seventh embodiment.
  • FIG. 15 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the seventh embodiment.
  • FIG. 16 is a block diagram showing the configuration of an information processing device in the eighth embodiment.
  • FIG. 17 is a flowchart showing the flow of information processing operations performed by the information processing apparatus in the eighth embodiment.
  • a first embodiment of an information processing device, an information processing method, and a recording medium will be described. Below, a first embodiment of an information processing device, an information processing method, and a recording medium will be described using an information processing device 1 to which the first embodiment of the information processing device, information processing method, and recording medium is applied. . [1-1: Configuration of information processing device 1]
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1 in the first embodiment.
  • the information processing device 1 in the first embodiment includes a determination section 11 and an iris authentication section 12.
  • the determination unit 11 determines the pattern area included in the eye image from the eye image including the eye of the iris authentication subject.
  • the method is configured to determine an inner boundary.
  • the predetermined pattern area included in the patterned contact lens may be a ring-shaped pattern area.
  • the predetermined pattern area may be a U-shaped area, or may be an area containing a star-shaped pattern at one point, for example.
  • the iris authentication unit 12 is configured to perform iris authentication of a person to be iris authenticated based on the inner boundary. [1-2: Technical effects of information processing device 1]
  • the information processing device 1 in the first embodiment can perform iris authentication on a person to be iris-authenticated even if the person is wearing a pattern contact lens.
  • a second embodiment of an information processing device, an information processing method, and a recording medium will be described.
  • a second embodiment of the information processing apparatus, the information processing method, and the recording medium will be described using an information processing apparatus 2 to which the second embodiment of the information processing apparatus, the information processing method, and the recording medium is applied.
  • FIG. 2 is a block diagram showing the configuration of the information processing device 2 in the second embodiment.
  • the information processing device 2 includes a calculation device 21 and a storage device 22. Furthermore, the information processing device 2 may include a communication device 23, an input device 24, and an output device 25. However, the information processing device 2 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the arithmetic device 21, the storage device 22, the communication device 23, the input device 24, and the output device 25 may be connected via a data bus 26.
  • the arithmetic unit 21 is, for example, one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array). Contains at least one.
  • Arithmetic device 21 reads a computer program.
  • the arithmetic device 21 may read a computer program stored in the storage device 22.
  • the arithmetic device 21 reads a computer program stored in a computer-readable and non-temporary recording medium using a recording medium reading device (not shown) provided in the information processing device 2 (for example, an input device 24 described later). You can also read it using .
  • the arithmetic device 21 may acquire a computer program from a device (not shown) located outside the information processing device 2 via the communication device 23 (or other communication device) (that is, it may not be downloaded). (or may be loaded). The arithmetic device 21 executes the loaded computer program. As a result, within the arithmetic device 21, a logical functional block for executing the operations that the information processing device 2 should perform is implemented. That is, the arithmetic device 21 can function as a controller for realizing a logical functional block for executing operations (in other words, processing) that the information processing device 2 should perform.
  • FIG. 2 shows an example of logical functional blocks implemented within the arithmetic unit 21 to execute information processing operations.
  • the computing device 21 includes a determination unit 211, which is a specific example of the "determination means” described in the appendix described later, and a determination unit 211, which is a specific example of the "determination means” described in the appendix described later.
  • An iris authentication unit 212 which is a specific example, is realized.
  • the storage device 22 can store desired data.
  • the storage device 22 may temporarily store a computer program executed by the arithmetic device 21.
  • the storage device 22 may temporarily store data that is temporarily used by the arithmetic device 21 when the arithmetic device 21 is executing a computer program.
  • the storage device 22 may store data that the information processing device 2 stores for a long period of time.
  • the storage device 22 may include at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device. good. That is, the storage device 22 may include a non-temporary recording medium.
  • the storage device 22 may store registered iris data ID.
  • the registered iris data ID may be data including an eye image of the registered authentication subject, an iris image extracted from the eye image, a feature amount calculated from the iris image, and the like.
  • the registered iris data ID may be used in an iris authentication operation by the iris authentication unit 212. However, the storage device 22 does not need to store the registered iris data ID.
  • the communication device 23 is capable of communicating with devices external to the information processing device 2 via a communication network (not shown).
  • the communication device 23 may acquire the eye image used for the iris authentication operation from the imaging device via the communication network.
  • the imaging device may be an infrared camera that captures infrared images.
  • the imaging device may be a visible light camera that captures visible light images.
  • the input device 24 is a device that accepts information input to the information processing device 2 from outside the information processing device 2.
  • the input device 24 may include an operating device (for example, at least one of a keyboard, a mouse, and a touch panel) that can be operated by the operator of the information processing device 2.
  • the input device 24 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the information processing device 2.
  • the output device 25 is a device that outputs information to the outside of the information processing device 2.
  • the output device 25 may output the information as an image.
  • the output device 25 may include a display device (so-called display) capable of displaying an image indicating information desired to be output.
  • the output device 25 may output the information as audio.
  • the output device 25 may include an audio device (so-called speaker) that can output audio.
  • the output device 25 may output information on paper. That is, the output device 25 may include a printing device (so-called printer) that can print desired information on paper. [2-2: Information processing operation performed by information processing device 2]
  • FIG. 3 is a flowchart showing the flow of information processing operations performed by the information processing device 2 in the second embodiment.
  • the determination unit 211 determines whether the iris authentication subject's eyes are The inner boundary of the pattern area included in the image is determined (step S20).
  • the ring-shaped pattern area included in the patterned contact lens may include a colored area.
  • the ring-shaped pattern area may include an area in which a pattern is formed.
  • the inner boundary of the patterned area may be a boundary between the patterned area and the inner transparent area of the patterned contact lens.
  • the iris authentication unit 212 performs iris authentication of the person to be iris authenticated based on the inner boundary (step S21). For example, the iris authentication unit 212 may extract a pattern area included in the pattern contact lens based on the inner boundary, mask the pattern area in the eye image, and perform iris authentication of the iris authentication subject. That is, the iris authentication unit 212 may perform iris authentication using an iris image in which pattern areas included in patterned contact lenses do not overlap. The iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris image in which the pattern areas included in the pattern contact lens do not overlap.
  • the iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris image in which the pattern areas included in the pattern contact lens do not overlap with the feature amount included in the registered iris data ID.
  • the masking process may be performed after extracting the feature amounts.
  • the feature values used for matching are extracted from an unmasked image, and after the feature values are extracted, the feature values corresponding to the pattern area of the patterned contact lens are masked and matched. Good too.
  • the matching process is performed for each partial area of the iris, the matching process is performed on the feature values before masking, and the matching results corresponding to the pattern area of the pattern contact lens are masked.
  • the verification may be performed by
  • the information processing device 2 in the second embodiment can perform iris authentication on a person to be iris-authenticated even if the person is wearing a pattern contact lens.
  • the information processing device 2 can identify a person to be iris authenticated using the iris with high accuracy compared to the iris authentication device of the comparative example which iris authenticates the person to be iris authenticated without using the inner boundary of the pattern area included in the eye image. Can be authenticated. This is because the iris authentication device of the comparative example performs iris authentication of the iris authentication subject without masking the pattern area included in the pattern contact lens in the eye image.
  • the iris authentication device of the comparative example not only uses the iris pattern of the authentication subject reflected in the eye image, but also uses the pattern area of the pattern contact lens reflected in the eye image to Perform iris authentication. Therefore, the iris authentication device of the comparative example may erroneously recognize the pattern formed in the pattern area of the pattern contact lens as the iris pattern of the iris authentication subject. As a result, the iris authentication device of the comparative example may incorrectly determine that the iris authentication target is not a certain person A in a situation where the iris authentication target should be determined to be a certain person A. be.
  • the information processing device 2 in the second embodiment can mask the pattern area included in the patterned contact lens in the eye image based on the inner boundary, and then perform iris authentication of the iris authentication target person.
  • the information processing device 2 uses the iris pattern of the authentication subject reflected in the eye image based on the inner boundary, while using the iris pattern without using the pattern area of the contact lens reflected in the eye image. It is possible to perform iris authentication of the person to be authenticated. Therefore, the information processing device 2 can perform iris authentication on the iris authentication target without erroneously recognizing the pattern formed in the pattern area of the pattern contact lens as the iris pattern of the iris authentication target. .
  • the authentication accuracy of the information processing device 2 is higher than that of the iris authentication device of the comparative example. Therefore, the information processing device 2 can reduce the risk that iris authentication will not be possible when the iris authentication target person is wearing pattern contact lenses, and can improve usability. In other words, the information processing device 2 can solve the technical problem that iris authentication cannot be performed when the iris authentication target person is wearing a patterned contact lens.
  • a third embodiment of an information processing device, an information processing method, and a recording medium will be described.
  • a third embodiment of the information processing apparatus, the information processing method, and the recording medium will be described using an information processing apparatus 3 to which the third embodiment of the information processing apparatus, the information processing method, and the recording medium is applied. .
  • the information processing device 3 in the third embodiment includes an arithmetic device 21 and a storage device 22 similarly to the information processing device 2 in the second embodiment. Furthermore, the information processing device 3 may include a communication device 23, an input device 24, and an output device 25 similarly to the information processing device 2. However, the information processing device 3 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 3 in the third embodiment differs in the determination operation by the determination unit 211 from the information processing device 2 in the second embodiment. Other features of the information processing device 3 may be the same as other features of the information processing device 2. [3-1: Information processing operation performed by information processing device 3]
  • FIG. 4 is a conceptual diagram of the eyeball of an iris authentication subject wearing pattern contact lenses.
  • FIG. 5 is a flowchart showing the flow of information processing operations performed by the information processing device 3 in the third embodiment.
  • FIG. 6 is a conceptual diagram of an example of determining the inner boundary of the pattern area Pa.
  • the pattern contact lens is worn by the person subject to iris authentication so that the pattern area Pa overlaps the outer area of the iris area Ir. Therefore, when a pattern contact lens is worn by a person subject to iris authentication, the area outside the iris area Ir overlapping the pattern area Pa in the eye image including the eyes of the person subject to iris authentication cannot be used for iris authentication. .
  • the iris region Ir and the pattern region Pa are often similar in color, pattern, etc.
  • the iris region Ir and the pattern region Pa are similar, it becomes difficult to distinguish between them, and it is difficult to determine the inner boundary of the pattern region Pa from the boundary Bb between the iris region Ir and the pattern region Pa.
  • the pupil area Pu and the pattern area Pa are rarely similar in color, pattern, etc., so it is relatively easy to distinguish between them. Therefore, it is relatively easy to determine the inner boundary of the pattern area Pa from the boundary Bc between the pupil area Pu and the pattern area Pa.
  • the boundary between the pupil area Pu and the pattern area Pa can be used as a reference for the inner radius of the pattern area Pa.
  • the pupil region Pu and the pattern The boundary Bd with the area Pa is easier to distinguish. Therefore, when the pupil area Pu and the pattern area Pa overlap, it is more preferable to use the overlapping area to determine the inner boundary of the pattern area Pa. Therefore, in the third embodiment, the inner boundary is determined using the area where the pupil area Pu and the pattern area Pa overlap.
  • the determination unit 211 determines, from an eye image including the eyes of the iris authentication subject, the inner boundary of the pattern area Pa included in the eye image (step S30).
  • the iris authentication unit 212 performs iris authentication of the person to be iris authenticated based on the inner boundary of the pattern area Pa (step S21).
  • step S30 The operation of step S30 is shown in FIG. 5(b).
  • the determination unit 211 detects the pupil region Pu of the iris authentication subject included in the eye image (step S31).
  • the determination unit 211 may detect the pupil area Pu and the iris area Ir of the iris authentication subject included in the eye image.
  • the determining unit 211 determines the inner boundary of the pattern area Pa using the area where the pupil area Pu of the iris authentication subject and the pattern area Pa included in the eye image overlap (step S32). [3-2: Example of determining the inner boundary of pattern area Pa]
  • FIG. 6 is a conceptual diagram of an example of determining the inner boundary of the pattern area Pa.
  • the pupil area Pu is shown in white for ease of understanding.
  • the determination unit 211 calculates the inner radius of the pattern area Pa based on the distance from the center PaC of the pattern contact lens to the inside of the overlapping area, and calculates the inner radius of the pattern area Pa.
  • the inner boundary of the pattern area Pa may be determined based on the inner radius.
  • the determination unit 211 detects the inner part B of the region where the pupil region Pu of the iris authentication subject and the pattern region Pa included in the eye image overlap.
  • the determination unit 211 may detect the inner portion B, for example, by extracting a brightness change at the boundary between the pupil area Pu and the pattern area Pa.
  • the determination unit 211 detects the center PaC of the patterned contact lens.
  • the pattern contact lens is circular, and the boundary between the outer boundary OB of the pattern area Pa of the pattern contact lens and the white part of the eyeball is clear. Therefore, the determination unit 211 can determine the center PaC of the patterned contact lens from the outer boundary OB of the pattern area.
  • the outer boundary OB of the pattern area Pa may be detected, for example, by extracting a change in brightness at the boundary between the outer periphery of the pattern area Pa and the white part of the eyeball.
  • the boundary between the outer boundary OB of the pattern area Pa of the patterned contact lens and the white part of the eyeball can be used as a reference for the outer radius of the pattern area Pa.
  • the determination unit 211 determines the distance d from the center PaC to the inner side B of the patterned contact lens. As shown in FIG. 6D, the determination unit 211 may determine a circle whose center is the center PaC of the patterned contact lens and whose radius is the distance d as the inner boundary IB of the pattern area Pa. Since the inner boundary of the pattern area Pa is approximately circular, the determining unit 211 may determine the inner boundary IB of the pattern area Pa from the center PaC of the pattern contact lens and the distance d.
  • the iris authentication unit 212 may mask the pattern area Pa in the eye image and extract the iris feature amount. As shown in FIG. 6E, the pattern area Pa may be masked by a region M surrounded by the outer boundary OB and the inner boundary IB of the pattern area Pa. The iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris image in which the pattern areas included in the pattern contact lens do not overlap. The iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris image in which the pattern areas included in the pattern contact lens do not overlap with the feature amount included in the registered iris data ID. Furthermore, as described in the second embodiment, the iris authentication unit 212 performs feature extraction using an unmasked image, and performs mask processing after feature extraction or after matching processing. It may be . [3-3: Technical effects of information processing device 3]
  • the information processing device 3 in the third embodiment uses the overlapping area to determine the inner boundary of the pattern area Pa.
  • the inner boundary of the pattern area Pa can be determined with high accuracy. Further, the information processing device 3 can relatively easily determine the inner boundary IB of the pattern area Pa from the center PaC of the pattern contact lens and the distance d by using the shape characteristics of the pattern contact lens. .
  • the information processing device 3 in the third embodiment can perform iris authentication even when the iris region Ir and the pattern region Pa are similar and the boundary between the iris region Ir and the pattern region Pa is unclear.
  • a fourth embodiment of an information processing device, an information processing method, and a recording medium will be described. Below, a fourth embodiment of the information processing apparatus, the information processing method, and the recording medium will be described using an information processing apparatus 4 to which the fourth embodiment of the information processing apparatus, the information processing method, and the recording medium is applied. . [4-1: Configuration of information processing device 4]
  • FIG. 7 is a block diagram showing the configuration of the information processing device 4 in the fourth embodiment.
  • the information processing device 4 in the fourth embodiment includes an arithmetic device 21 and a storage device, similar to at least one of the information processing device 2 in the second embodiment and the information processing device 3 in the third embodiment.
  • a device 22 is provided.
  • the information processing device 4 may include a communication device 23, an input device 24, and an output device 25, like at least one of the second information processing device and the information processing device 3.
  • the information processing device 4 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the arithmetic device 21 has a change unit 413 and an acquisition unit 414.
  • FIG. 8 is a flowchart showing the flow of information processing operations performed by the information processing device 4 in the fourth embodiment.
  • FIG. 9 is a conceptual diagram when the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that images the iris authentication subject is changed.
  • the imaging device may capture an image of the person to be iris-authenticated to generate an eye image.
  • the determination unit 211 determines, from an eye image including the eye of the iris authentication subject, the inner boundary of the pattern area Pa included in the eye image (step S40).
  • the iris authentication unit 212 performs iris authentication of the person to be iris authenticated based on the inner boundary of the pattern area Pa (step S21).
  • step S40 The operation of step S40 is shown in FIG. 8(b).
  • the changing unit 413 changes the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that images the iris authentication subject (step S41).
  • the changing unit 413 performs a first action of prompting the iris authentication subject to change the direction of the line of sight, a second action of prompting the iris authentication subject to change the direction of the face while fixing the direction of the line of sight, and
  • the positional relationship may be changed by performing at least one of the third operations of moving the imaging device that captures an image of the iris authentication subject relative to the iris authentication subject.
  • the changing unit 413 may control the output device 25 when performing at least one of the first operation and the second operation.
  • the changing unit 413 may cause the speaker serving as the output device 25 to output a voice such as "Please look further to the right" in order to urge the iris authentication subject to change the direction of his or her line of sight.
  • the changing unit 413 may display images, characters, etc. on the display serving as the output device 25 in order to urge the iris authentication subject to change the direction of his or her line of sight.
  • the changing unit 413 may move the image displayed on the display to follow the line of sight of the iris authentication subject. In the vertical direction of the eye, the pattern area Pa and the iris area Ir may be hidden by the eyelids. Therefore, the changing unit 413 may change the direction of the line of sight of the iris authentication subject in the left-right direction or diagonal direction.
  • the changing unit 413 may cause the speaker serving as the output device 25 to output audio in order to urge the iris authentication subject to change the direction of the face while keeping the direction of the line of sight fixed.
  • the changing unit 413 may display an image, text, etc. on the display serving as the output device 25 in order to urge the iris authentication subject to change the direction of the face while keeping the direction of the line of sight fixed.
  • the changing unit 413 may control the imaging device to move relative to the iris authentication target via the communication device 23.
  • the changing unit 413 may change the pupil area Pu of the iris authentication subject included in the eye image from the position shown in FIGS. 9(a) and 9(b) to the position shown in FIG. 9(c).
  • the changing unit 413 may perform different output controls depending on the degree to which the line of sight of the iris authentication subject is changed. For example, if the changing unit 413 wants the user to look more to the right than a predetermined value, the changing unit 413 may control the right arrow to be displayed longer as illustrated in FIG. 9(a). Further, if the changing unit 413 wants the user to look a little further to the right than a predetermined value, the changing unit 413 may control the arrow to be displayed shorter as illustrated in FIG. 9(b).
  • the acquisition unit 414 acquires the eye image generated by the imaging device (step S42).
  • the determination unit 211 detects the pupil area Pu of the iris authentication subject included in the eye image (step S31).
  • the determining unit 211 determines whether the pupil area Pu of the iris authentication subject and the pattern area Pa included in the eye image overlap (step S43).
  • step S42 If the pupil area Pu of the iris authentication subject and the pattern area Pa included in the eye image do not overlap (step S42: No), the process moves to step S41.
  • the changing unit 413 changes the positional relationship between the line of sight direction of the iris authentication subject and the imaging direction of the imaging device that images the iris authentication subject, but as shown in FIG. 9(b), the eye image If the pupil area Pu of the iris authentication subject included in the pattern area Pa does not overlap, the changing unit 413 may further change the positional relationship.
  • the process proceeds to step S41, and the changing unit 413 may further change the positional relationship.
  • the pupil area Pu becomes smaller.
  • the process moves to step S41, and the changing unit 413 further changes the positional relationship. It's okay.
  • the determination unit 211 determines whether the pupil area Pu of the iris authentication subject included in the eye image and the pattern area Pa overlap.
  • the inner boundary of the pattern area Pa is determined using the area overlapping with the area Pa (step S32).
  • the iris authentication unit 212 masks the pattern area Pa in the eye image, extracts the iris feature amount, and performs matching. Note that, as described in the second embodiment, the masking process may be performed after the feature amount extraction and after the matching process.
  • the iris authentication unit 212 captures an eye image by changing the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that captures the image of the iris authentication subject. may be used, or an image with the above-mentioned positional relationship may be used.
  • the iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris area in which the pattern area included in the pattern contact lens does not overlap.
  • the iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris area where the pattern area included in the pattern contact lens does not overlap with the feature amount included in the registered iris data ID.
  • the information processing device 4 in the fourth embodiment creates a pupil area Pu and a pattern area Pa by changing the positional relationship between the line of sight direction of the iris authentication subject and the imaging direction of the imaging device that images the iris authentication subject. It is possible to promote the overlap between the two. Further, the information processing device 4 changes the positional relationship when the pupil area Pu of the iris authentication subject included in the eye image is larger than a predetermined size compared to the size of the iris. When it is difficult for the pupil area Pu of the iris authentication subject to overlap the pattern area Pa, unnecessary movements can be suppressed. Further, the information processing device 4 can change the positional relationship by an operation suitable for the situation by performing at least one of the first operation, the second operation, and the third operation. [5: Fifth embodiment]
  • a fifth embodiment of an information processing device, an information processing method, and a recording medium will be described.
  • a fifth embodiment of the information processing apparatus, the information processing method, and the recording medium will be described using an information processing apparatus 5 to which the fifth embodiment of the information processing apparatus, the information processing method, and the recording medium is applied. .
  • the information processing device 5 in the fifth embodiment includes an arithmetic device 21 and a storage device 22 similarly to the information processing device 4 in the fourth embodiment. Furthermore, the information processing device 5 may include a communication device 23, an input device 24, and an output device 25 similarly to the information processing device 4. However, the information processing device 5 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 5 in the fifth embodiment differs in the determination operation by the determination unit 211 from the information processing device 4 in the fourth embodiment. Other features of the information processing device 5 may be the same as other features of the information processing device 4. [5-1: Information processing operation performed by information processing device 5]
  • FIG. 10 is a flowchart showing the flow of information processing operations performed by the information processing device 5 in the fifth embodiment.
  • FIG. 11 is a conceptual diagram of an example of determining the inner boundary of the pattern area Pa.
  • FIG. 12 is a flowchart showing the flow of the operation for determining the inner boundary of the pattern area Pa performed by the information processing device 5 in the fifth embodiment.
  • the determining unit 211 determines, from an eye image including the eye of the iris authentication subject, the inner boundary of the pattern area Pa included in the eye image (step S50).
  • the iris authentication unit 212 performs iris authentication of the person to be iris authenticated based on the inner boundary of the pattern area Pa (step S21).
  • step S50 is shown in FIG. 10(b).
  • the changing unit 413 changes the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that captures an image of the iris authentication subject (step S41).
  • the acquisition unit 414 acquires the eye image generated by the imaging device (step S42).
  • the determination unit 211 is configured so that the acquisition unit 414 obtains a first eye image in which the line of sight of the iris authentication subject is directed in a first direction, and a first eye image in which the line of sight of the iris authentication subject is directed in a second direction different from the first direction. It is determined whether a plurality of eye images including at least the facing second eye image have been acquired (step S51). Multiple eye images were captured by having the person subject to iris authentication change the direction of their line of sight; images were captured by having the person subject to iris authentication fix their line of sight and having the person subject to iris authentication change the direction of their face. It may include at least one of a plurality of eye images, a plurality of eye images captured by moving an imaging device that captures the eye images, and a plurality of eye images captured by a plurality of imaging devices.
  • the acquisition unit 414 obtains a first eye image in which the iris authentication subject's line of sight is directed in a first direction, and a second eye image in which the iris authentication subject's line of sight is directed in a second direction different from the first direction. If a plurality of eye images including at least an eye image have not been acquired (step S51: No), the process moves to step S41.
  • the acquisition unit 414 obtains a first eye image in which the iris authentication subject's line of sight is directed in a first direction, and a second eye image in which the iris authentication subject's line of sight is directed in a second direction different from the first direction. If a plurality of eye images including at least an eye image have been acquired (step S51: Yes), the determining unit 211 performs the operation of determining the inner boundary of the pattern area Pa in the fifth embodiment (step S52). [5-2: Determination operation of inner boundary of pattern area Pa]
  • FIG. 11 is a conceptual diagram of an example of determining the inner boundary of the pattern area Pa.
  • the pupil area Pu is shown in white to facilitate visual recognition.
  • FIG. 11A illustrates a first eye image in which the line of sight of the iris authentication subject is directed in the first direction.
  • FIG. 11(b) illustrates a second eye image in which the line of sight of the iris authentication subject is directed in a second direction different from the first direction.
  • FIGS. 11(a) and 11(b) are eye images of the same iris authentication subject, the pattern area Pa of the patterned contact lens is shown in different patterns to facilitate visual recognition.
  • the iris region Ir has a planar shape within the eyeball. Therefore, it is easy to perform image matching even if the iris regions Ir are imaged from different directions by rotating the eyeball.
  • the comparison of two eye images may also be referred to as image matching.
  • patterned contact lenses have a spherical shape because they are worn on the eyeball. Therefore, when observed from a different direction other than the front, the pattern in the pattern area Pa looks different. Therefore, it is difficult to perform image matching between pattern areas Pa imaged from different directions by rotating the eyeball, compared to a planar iris.
  • the area including the pupil periphery where the image matching of the eye images was successful is the iris area Ir, and at that time, the image matching of the eye images was not successful.
  • the area can be determined to be a pattern area Pa.
  • the above characteristics are utilized to create a first eye image in which the line of sight of the iris authentication subject is directed in the first direction, and a first eye image in which the line of sight of the iris authentication subject is directed in the first direction.
  • the inner boundary of the pattern area Pa is determined using a plurality of eye images including at least a second eye image facing in the second direction. Note that in image matching of eye images, iris feature amounts may be extracted from each eye image in advance, and matching may be performed between the feature amounts.
  • the iris region Ir and the pattern region Pa can be distinguished, The inner boundary of the pattern area Pa can be determined.
  • the determination unit 211 detects the pupil area Pu from the plurality of eye images (step S53).
  • the determination unit 211 aligns the centers PuC of the pupils of the plurality of eye images (step S54).
  • FIG. 11C is a conceptual diagram of alignment of the pupil centers PuC of the pupils of the first eye image and the pupils of the second eye image. Note that if the sizes of the pupils and irises differ between the eye images, alignment may be performed after deforming the eye images so that the sizes match.
  • the determination unit 211 uses the pattern of the iris region Ir of the iris authentication subject that is close to the pupil region Pu of the iris authentication subject included in the plurality of eye images to rotate the plurality of eye images around the pupil as the center PuC. The corners are matched (step S55).
  • the plurality of eye images are of the same iris authentication subject. At least the area close to the pupil area Pu is the iris area Ir, so image matching is successful between the areas close to the pupil area Pu. Therefore, at the beginning of image matching between the first eye image and the second eye image, the determination unit 211 determines the pupil area Pu of the iris authentication subject included in the first eye image and the second eye image. Image matching is performed using the pattern of the iris region Ir of the iris authentication subject in a nearby region, and the rotation angles of the two eye images with the pupil as the center PuC are matched.
  • the determination unit 211 determines that the iris authentication subject is unable to perform iris authentication. It may be determined that the state is appropriate. For example, if the person to be iris-identified is wearing a patterned contact lens that overlaps the entire iris region Ir, image matching between regions close to the pupil region Pu will not be successful.
  • the determination unit 211 compares the first eye image and the second eye image with one of the first eye image and the second eye image and one of the first eye image and the second eye image.
  • a rotation angle with a high degree of matching may be identified by performing the rotation while rotating with respect to the other. For example, the determination unit 211 rotates one of the first eye image and the second eye image by a predetermined angle in a predetermined rotation direction around a position corresponding to the center PuC of the pupil region Pu. However, the degree of matching at each rotation angle may be calculated.
  • the determination unit 211 may rotate one of the first eye image and the second eye image at every predetermined angle in a predetermined rotation direction to perform alignment in the rotation direction. Any method may be used as the image matching method.
  • the total sum of differences between each pixel in the corresponding area between the first eye image and the second eye image, the number of pixels for which the number of differences between each pixel is equal to or less than a threshold, and the correlation coefficient between images. may be calculated.
  • extract iris features for matching from each of the first eye image and second eye image perform matching between the feature amounts, and calculate the size of the area where the degree of matching is greater than or equal to a predetermined threshold. You may.
  • the determination unit 211 not only rotates one of the first eye image and the second eye image with respect to the other of the first eye image and the second eye image, but also rotates the first eye image and the second eye image.
  • One of the first eye image and the second eye image may be enlarged or reduced relative to the other of the first eye image and the second eye image.
  • the determination unit 211 performs image matching between the first eye image and the second eye image, and detects a common area between the first eye image and the second eye image (step S56).
  • the determination unit 211 converts the iris region Ir, which is not hidden in either the pattern region Pa included in the first eye image or the pattern region Pa included in the second eye image, into a common region. It may be detected as
  • the determination unit 211 may detect a common area common to the first eye image and the second eye image in order toward the outside of the area close to the pupil area Pu of the iris authentication subject. This is because if there is a position where a common area cannot be detected, areas outside of that position are often not detected as a common area.
  • the determination unit 211 may detect a common area in areas in several directions. For example, the determination unit 211 determines the area to the right of the pupil area Pu (also referred to as a “0° area”), the area above the pupil area Pu (also referred to as a “90° area”), and the left side of the pupil area Pu. A common area may be detected for the area in the direction (also referred to as the "180° area”) and the area below the pupil area Pu (also referred to as the "270° area”). The determination unit 211 does not need to detect common areas in areas in all directions. The determining unit 211 may detect a common area among areas suitable for determining the inner boundary.
  • the determination unit 211 calculates the distance from the center of the pupil area Pu to the outer boundary of the common area (step S57).
  • FIG. 11(d) illustrates a case where a common area of areas in four directions is detected.
  • the determination unit 211 determines the distance d1 to the outer boundary of the common area of the area in the first direction, the distance d1 to the outer boundary of the common area of the area in the second direction.
  • d2 a distance d3 to the outer boundary of the common area of the area in the third direction, and a distance d4 to the outer boundary of the common area of the area in the fourth direction.
  • the determination unit 211 calculates the inner radius of the pattern area based on the longest length of the distances (step S58).
  • FIG. 11(e) illustrates the longest distance d1 among the distances from the center of the pupil area Pu illustrated in FIG. 11(d) to the outer boundary of the common area.
  • the determination unit 211 determines the inner boundary of the pattern area Pa based on the calculated inner radius.
  • the determining unit 211 may determine the inner boundary of the pattern area Pa as a circle with an inner radius centered on the center PaC of the patterned contact lens.
  • the inner radius of the pattern contact lens may be determined to be the longest distance d1.
  • FIG. 11(f) illustrates the center PaC of one patterned contact lens and a region at a distance d1 from the center PaC, that is, the inner boundary of the pattern region Pa.
  • iris authentication it is preferable to use a large iris region Ir. That is, it is preferable to accurately determine the inner boundary of the pattern area Pa and use the largest iris area Ir that does not include the pattern area Pa for iris authentication.
  • the determining unit 211 calculates the distance from the center of the pupil area Pu to the outer boundary of the common area in all directions, it can be expected that the accuracy of determining the inner boundary of the pattern area Pa will be high.
  • the determination unit 211 calculates the distance from the center of the pupil area Pu to the outer boundary of the common area for areas in several directions, processing costs can be suppressed.
  • the direction in which the distance from the center of the pupil area Pu to the outer boundary of the common area increases is related to the orientation of the eyes included in the eye image. For this reason, the determination unit 211 may estimate which direction the line of sight is facing, and determine which angular distance to measure according to the result.
  • the changing unit 413 changes the direction of the line of sight of the iris authentication subject and the imaging device that captures the image of the iris authentication subject so that the distance from the center of the pupil area Pu to the outer boundary of the common area becomes longer in a specific direction. The positional relationship with the direction may be changed.
  • the changing unit 413 changes the direction of the iris authentication subject's line of sight and the iris authentication subject so that the distance from the center of the pupil area Pu to the outer boundary of the common area becomes longer in the 0° area or the 180° area.
  • the positional relationship with the imaging direction of the imaging device that images the person may be changed.
  • both the iris area Ir and the pattern area Pa may be partially hidden by the eyelids, so distances are calculated for the 0° area and 180° area.
  • the changing unit 413 may operate so as to be used as a region.
  • the inner boundary determination operation in step S52 shown in FIG. 10 has been described above.
  • the iris authentication unit 212 extracts the iris feature amount from the iris region Ir inside the inner boundary of the pattern region Pa at a distance d1 from the center PaC of the patterned contact lens in the eye image. Good too.
  • the iris authentication unit 212 may mask the pattern area Pa in an area surrounded by the outer boundary OB and the inner boundary IB of the pattern area Pa.
  • the iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris image in which the pattern areas included in the pattern contact lens do not overlap.
  • the iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris image in which the pattern areas included in the pattern contact lens do not overlap with the feature amount included in the registered iris data ID.
  • the iris authentication unit 212 uses an eye image captured by changing the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that captures the image of the iris authentication subject, based on the inner boundary, Iris authentication may also be used.
  • the iris authentication unit 212 performs iris authentication based on the inner boundary using an image that matches the positional relationship between the line of sight direction of the iris authentication subject and the imaging direction of the imaging device that images the iris authentication subject. Good too.
  • the iris authentication unit 212 may perform iris authentication based on the inner boundary using a plurality of eye images.
  • the iris authentication unit 212 extracts the iris region Ir inside the inner boundary of the pattern region Pa from each of the plurality of eye images, synthesizes the images of the plurality of extracted iris regions Ir, and uses the synthesized image for iris authentication. good.
  • Each of the eye images with the line of sight shifted in different directions includes a different iris region Ir.
  • the iris authentication unit 212 can perform iris authentication using a larger iris region Ir.
  • the compositing process may be performed after extracting the feature amounts. That is, iris feature amounts may be extracted from each of a plurality of eye images, and the extracted feature amounts may be combined.
  • the iris region Ir is imaged from a direction other than the front. There is. Therefore, when using an image of the iris region Ir captured from a direction other than the front for any of inner boundary determination, image synthesis, feature amount synthesis, and iris authentication, the image of the iris region Ir captured from the front is It may be corrected to be equivalent to . That is, the image of the elliptical iris region Ir may be corrected to the image of the circular iris region Ir. For example, an image of an elliptical iris region Ir may be converted into an image of a circular iris region Ir by affine transformation. [5-3: Technical effects of information processing device 5]
  • the information processing device 5 in the fifth embodiment can perform iris authentication even when the iris region Ir and the pattern region Pa are similar and the boundary between the iris region Ir and the pattern region Pa is unclear.
  • the information processing device 5 can determine the inner boundary of the pattern area Pa by utilizing the fact that the iris area Ir and the pattern area Pa have different three-dimensional shapes, and can appropriately perform iris authentication.
  • the information processing device 5 uses the pattern of the iris region Ir of the iris authentication subject adjacent to the pupil region Pu of the iris authentication subject included in the eye image to match the plurality of eye images. Since the rotation angles of the eye images around the pupil are matched, it is possible to perform image matching between the eye images with high accuracy.
  • the information processing device 5 performs image matching between the first eye image and the second eye image, extracts a common area between the first eye image and the second eye image, and extracts a common area of the pupil area Pu.
  • the distance from the center to the outer boundary of the common area is calculated, the inner radius of the pattern area Pa is calculated based on the longest length of the distance, and the inner boundary is determined based on the inner radius.
  • Iris authentication can be performed using the large iris area Ir.
  • the plurality of eye images used by the information processing device 5 include a plurality of eye images captured by having the iris authentication target person change the direction of his or her line of sight, and a plurality of eye images captured by having the iris authentication target person change the line of sight, and a plurality of eye images captured by having the iris authentication target person fix the line of sight.
  • a sixth embodiment of an information processing device, an information processing method, and a recording medium will be described. Below, a sixth embodiment of the information processing device, the information processing method, and the recording medium will be described using an information processing device 6 to which the sixth embodiment of the information processing device, the information processing method, and the recording medium is applied. .
  • the information processing device 6 in the sixth embodiment includes an arithmetic device 21 and a storage device 22, similar to at least one of the information processing device 4 in the fourth embodiment and the information processing device 5 in the fifth embodiment. . Furthermore, the information processing device 6 may include a communication device 23, an input device 24, and an output device 25, like the fourth information processing device and at least one of the information processing device 5. However, the information processing device 6 does not need to include at least one of the communication device 23, the input device 24, and the output device 25. The information processing device 6 in the sixth embodiment differs in the determination operation by the determination unit 211 from at least one of the information processing device 4 in the fourth embodiment and the information processing device 5 in the fifth embodiment. Other features of the information processing device 6 may be the same as other features of at least one of the information processing device 4 and the information processing device 5. [6-1: Information processing operation performed by information processing device 6]
  • FIG. 13 is a flowchart showing the flow of information processing operations performed by the information processing device 6 in the sixth embodiment.
  • the determining unit 211 determines, from an eye image including the eye of the iris authentication subject, the inner boundary of the pattern area Pa included in the eye image (step S60).
  • the iris authentication unit 212 performs iris authentication of the person to be iris authenticated based on the inner boundary of the pattern area Pa (step S21).
  • step S60 The operation of step S60 is shown in FIG. 13(b).
  • the changing unit 413 changes the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of the imaging device that captures an image of the iris authentication subject (step S41).
  • the acquisition unit 414 acquires the eye image generated by the imaging device (step S42).
  • the determination unit 211 detects the pupil area Pu of the iris authentication subject included in the eye image (step S31).
  • the changing unit 413 determines whether the pupil area Pu of the iris authentication subject and the pattern area Pa included in the eye image overlap (step S43).
  • the determination unit 211 determines whether the pupil area Pu and pattern area Pa of the iris authentication subject included in the eye image overlap.
  • the inner boundary of the pattern area Pa is determined using the area where the area is located (step S32).
  • the determination unit 211 determines that the acquisition unit 414 detects the iris authentication subject's line of sight directed in the first direction. It is determined whether a plurality of eye images including at least a first eye image and a second eye image in which the line of sight of the iris authentication subject is directed in a second direction different from the first direction have been acquired (step S51).
  • the acquisition unit 414 obtains a first eye image in which the iris authentication subject's line of sight is directed in a first direction, and a second eye image in which the iris authentication subject's line of sight is directed in a second direction different from the first direction. If a plurality of eye images including at least an eye image have not been acquired (step S51: No), the process moves to step S41.
  • the acquisition unit 414 obtains a first eye image in which the iris authentication subject's line of sight is directed in a first direction, and a second eye image in which the iris authentication subject's line of sight is directed in a second direction different from the first direction. If a plurality of eye images including at least an eye image have been acquired (step S51: Yes), the determination unit 211 performs an operation of determining the inner boundary of the pattern area Pa (step S52).
  • step S21 in the sixth embodiment if the pupil area Pu and pattern area Pa of the iris authentication subject overlap (step S43: Yes), iris authentication is performed as in step S21 in the third embodiment.
  • the unit 212 may extract the iris feature amount by masking the pattern area Pa in the eye image. As shown in FIG. 6E, the pattern area Pa may be masked by a region M surrounded by the outer boundary OB and the inner boundary IB of the pattern area Pa.
  • the iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris image in which the pattern areas included in the pattern contact lens do not overlap.
  • the iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris image in which the pattern areas included in the pattern contact lens do not overlap with the feature amount included in the registered iris data ID.
  • the iris authentication unit 212 detects the pattern contact in the eye image, similar to step S21 in the fifth embodiment.
  • the iris feature amount may be extracted from the iris region Ir inside the inner boundary of the pattern region Pa at a distance d1 from the center PaC of the lens.
  • the pattern area Pa may be masked by a region surrounded by the outer boundary OB and the inner boundary IB of the pattern area Pa.
  • the iris authentication unit 212 may perform iris authentication by comparing the registered iris data ID with an iris image in which the pattern areas included in the pattern contact lens do not overlap.
  • the iris authentication unit 212 may perform iris authentication by comparing the feature amount extracted from the iris image in which the pattern areas included in the pattern contact lens do not overlap with the feature amount included in the registered iris data ID. Furthermore, as described in the second embodiment, the iris authentication unit 212 performs feature extraction using an unmasked image, and performs mask processing after feature extraction or after matching processing. It may be .
  • the boundary between the pupil area Pu and the pattern area Pa is based on the inner radius of the pattern area Pa, but the boundary is not limited to this.
  • the boundary between the white of the eye (ie, sclera) and the pattern area Pa may be used as a reference for the inner radius of the pattern area Pa.
  • the information processing device 6 in the sixth embodiment basically determines the inner boundary of the pattern area Pa using the area where the pupil area Pu of the iris authentication subject and the pattern area Pa included in the eye image overlap.
  • Use the method of The information processing device 6 can improve iris authentication accuracy by adopting a method of determining the inner boundary using a plurality of eye images as an alternative when the pupil area Pu and the pattern area Pa do not overlap.
  • a seventh embodiment of an information processing device, an information processing method, and a recording medium will be described.
  • the seventh embodiment of the information processing apparatus, the information processing method, and the recording medium will be described below using an information processing apparatus 7 to which the seventh embodiment of the information processing apparatus, the information processing method, and the recording medium is applied. .
  • FIG. 14 is a block diagram showing the configuration of the information processing device 7 in the seventh embodiment.
  • the information processing device 7 in the seventh embodiment like at least one of the information processing devices 4 in the fourth embodiment to the information processing device 6 in the sixth embodiment, includes an arithmetic device 21 and a memory.
  • a device 22 is provided.
  • the information processing device 7 may include a communication device 23, an input device 24, and an output device 25, like at least one of the information processing devices 4 to 6.
  • the information processing device 7 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 7 in the seventh embodiment is different from at least one of the information processing device 4 in the fourth embodiment to the information processing device 6 in the sixth embodiment, in that the arithmetic device 21 has an input/output control unit 715 and a separate The difference is that a degree determination section 716 is provided.
  • the input device 24 also accepts input of pattern contact wearing information indicating that the iris authentication subject is wearing pattern contact lenses.
  • the input device 24 may include an operating device (for example, at least one of a keyboard, a mouse, and a touch panel) that can be operated by the iris authentication subject. Further, the output device 25 may output a prompt to the iris authentication target person to input pattern contact wearing information.
  • the output device 25 may include at least one of a display device (so-called display) capable of displaying an image indicating information prompting input of pattern contact wearing information, and an audio device (so-called speaker) capable of outputting sound. good.
  • a display device so-called display
  • an audio device so-called speaker
  • Other features of the information processing device 7 may be the same as at least one other feature of the information processing devices 4 to 6. Details of the input/output control section 715 and the degree of separation determination section 716 will be described later. [7-2: Information processing operation performed by information processing device 7]
  • FIG. 15 is a flowchart showing the flow of information processing operations performed by the information processing device 7 in the seventh embodiment.
  • the acquisition unit 414 acquires an eye image of the iris authentication subject (step S70).
  • the input/output control unit 715 determines whether input information indicating that the person subject to iris authentication is wearing pattern contact lenses has been input to the input device 24 (step S71). If the input information is input (step S71: Yes), the degree of separation determining unit 716 determines that the degree of separation between the pattern in the pattern area Pa included in the patterned contact lens and the pattern in the iris area Ir of the iris authentication subject is less than a predetermined value. It is determined whether or not (step S72). For example, the degree of separation determination unit 716 determines the pattern of the white part of the eyeball and the adjacent part as the pattern of the pattern area Pa, and the pattern of the part adjacent to the pupil area Pu as the pattern of the iris area Ir of the iris authentication subject.
  • a method for calculating the degree of separation it is possible to use various existing methods based on statistics of pixel values and their frequency components.
  • step S73 determines the inner boundary (step S73).
  • the inner boundary determination operation in step S73 in the seventh embodiment is the inner boundary determination operation in step S20 in the second embodiment, the inner boundary determination operation in step S30 in the third embodiment, and the inner boundary determination operation in step S40 in the fourth embodiment.
  • the inner boundary determining operation in step S50 in the fifth embodiment, and the inner boundary determining operation in step S60 in the sixth embodiment may be the same.
  • the iris authentication unit 212 performs iris authentication (step S21). If the determining unit 211 determines the inner boundary in step S73, the iris authentication unit 212 performs iris authentication of the iris authentication subject based on the inner boundary.
  • the iris authentication unit 212 may perform iris authentication using all iris regions Ir included in the eye image (step S21).
  • the changing unit 413 inputs input information indicating that the iris authentication target person is wearing a pattern contact lens into the information processing device 7 and changes the pattern of the pattern area Pa included in the pattern contact lens and the iris authentication target person.
  • the degree of separation of the iris region Ir from the pattern is less than a predetermined value, the positional relationship is changed.
  • the changing unit 413 does not change the positional relationship when the input information is not input to the information processing device 7 or when the input information is input to the information processing device 7 and the degree of separation is equal to or greater than a predetermined value.
  • iris authentication may be performed using the entire iris area included in the normal eye image. Furthermore, if the pattern in the iris area Ir and the pattern in the pattern area Pa can be distinguished, iris authentication may be performed using an eye image captured from the front of the iris. If the pattern in the iris area Ir and the pattern in the pattern area Pa cannot be distinguished, the inner boundary determination operation in any one of the second to sixth embodiments may be performed. [7-3: Technical effects of information processing device 7]
  • the accuracy of iris authentication can be improved by using a large iris region Ir.
  • the information processing device 7 in the seventh embodiment performs iris authentication using the entire iris area Ir included in the eye image as usual when the iris authentication target person is not wearing pattern contact lenses, so the accuracy of iris authentication is good. Further, if the iris pattern and the pattern of the pattern contact lens can be distinguished, the information processing device 7 may perform iris authentication using an image captured from the front of the iris. In other words, the information processing device 7 does not prompt the person to be iris-authenticated to move his or her line of sight, so convenience for the person to be iris-authenticated is good.
  • the information processing device 7 performs the inner boundary determination operation according to any one of the second to sixth embodiments, so that the iris pattern cannot be distinguished from the pattern of the pattern contact lens.
  • the success rate of iris authentication of the person to be authenticated can be improved.
  • FIG. 16 is a block diagram showing the configuration of the information processing device 8 in the eighth embodiment.
  • the information processing device 8 in the eighth embodiment like at least one of the information processing device 4 in the fourth embodiment to the information processing device 6 in the sixth embodiment, includes an arithmetic device 21 and a memory.
  • a device 22 is provided.
  • the information processing device 8 may include a communication device 23, an input device 24, and an output device 25, like at least one of the information processing devices 4 to 6.
  • the information processing device 8 does not need to include at least one of the communication device 23, the input device 24, and the output device 25.
  • the information processing device 8 in the eighth embodiment is different from at least one of the information processing device 4 in the fourth embodiment to the information processing device 6 in the sixth embodiment, in that the arithmetic device 21 includes a pattern contact lens wearing determination unit 817, and a degree of separation determining section 716.
  • Other features of the information processing device 8 may be the same as at least one other feature of the information processing devices 4 to 6. Details of the pattern contact lens wearing determination section 817 and the degree of separation determination section 716 will be described later.
  • FIG. 17 is a flowchart showing the flow of information processing operations performed by the information processing device 8 in the eighth embodiment.
  • the acquisition unit 414 acquires an eye image of the iris authentication subject (step S80).
  • the iris authentication unit 212 performs iris authentication using all iris regions included in the eye image (step S81).
  • the iris authentication unit 212 determines whether the iris authentication in step S81 has failed (step S82). If the iris authentication fails (step S82: Yes), the pattern contact lens wearing determination unit 817 determines whether or not the person subject to iris authentication is wearing a pattern contact lens (step S83). For example, if there is a difference between the movement of the white part of the eyeball and the adjacent part and the movement of the pupil area Pu, the pattern contact lens wearing determination unit 817 determines that the iris authentication subject is wearing a pattern contact lens. You may judge.
  • the white part of the eyeball may be the so-called white of the eye, or the sclera, which is the white outer covering of the eyeball.
  • step S83: Yes the degree of separation determination unit 716 distinguishes between the pattern of the pattern area Pa included in the pattern contact lens and the pattern of the iris area Ir of the person subject to iris authentication. It is determined whether the degree of separation is less than a predetermined value (step S72). The determination method is the same as step S72 of the seventh embodiment.
  • step S73 determines the inner boundary (step S73).
  • the inner boundary determination operation in step S73 in the seventh embodiment is the inner boundary determination operation in step S20 in the second embodiment, the inner boundary determination operation in step S30 in the third embodiment, and the inner boundary determination operation in step S40 in the fourth embodiment.
  • the inner boundary determining operation in step S50 in the fifth embodiment, and the inner boundary determining operation in step S60 in the sixth embodiment may be the same.
  • the iris authentication unit 212 performs iris authentication (step S21).
  • iris authentication of the iris authentication target person is performed based on the inner boundary.
  • step S81 fails (step S82: No), if the iris authentication target person is not wearing a pattern contact lens (step S83: No), and if the pattern in the pattern area Pa and the iris authentication target person If the degree of separation of the iris region Ir from the pattern is equal to or greater than the predetermined value (step S72: No), the information processing operation ends.
  • the changing unit 413 changes the pattern of the pattern area Pa included in the pattern contact lens and the iris.
  • the degree of separation of the iris region Ir of the authentication subject from the pattern is less than a predetermined value, the positional relationship is changed.
  • the inner boundary determination operation in any one of the second to sixth embodiments is performed, To improve the success rate of iris authentication of a person subject to iris authentication.
  • step S82 Yes
  • step S71 of the seventh embodiment is performed instead of the determination in step S83, and it is determined that the person subject to iris authentication is wearing a pattern contact lens. may be self-reported. Furthermore, at least one of step S82, step S83, and step S72 may not be performed.
  • the accuracy of iris authentication can be improved by using a large iris region Ir.
  • the information processing device 8 in the eighth embodiment first performs iris authentication using the entire iris area included in the normal eye image, so the accuracy of iris authentication is good.
  • the information processing device 8 also performs iris authentication even when the iris authentication fails due to the person wearing a patterned contact lens in which the pattern in the pattern area Pa and the pattern in the iris area Ir are difficult to distinguish. Since the inner boundary determination operation in any one of the second to sixth embodiments is performed, the risk that iris authentication will not be possible when the person to be iris authentication wears pattern contact lenses is reduced, The success rate of iris authentication of a person to be iris-authenticated can be improved, and usability can be improved. [9: Additional notes]
  • the inner boundary of the pattern area included in the eye image is determined from an eye image including the eye of the iris authentication subject.
  • the iris authentication means extracts a pattern area included in the patterned contact lens based on the inner boundary, and masks the pattern area in the eye image, or extracts a pattern area included in the patterned contact lens from among the iris features extracted from the eye image.
  • the information processing device By masking the feature amount corresponding to the pattern region, or by masking the result corresponding to the pattern region among the matching results performed using the iris feature amount extracted from the eye image,
  • the information processing device according to supplementary note 1, which performs the iris authentication of a person to be authenticated.
  • the determining means determines the inner boundary using the overlapping area when the pupil area of the iris authentication subject included in the eye image overlaps with the pattern area, according to appendix 1 or 2. information processing equipment.
  • the determining means calculates an inner radius of the pattern area based on a distance from the center of the pattern contact lens to the inside of the overlapping area, and The information processing device according to supplementary note 3, wherein the inner boundary is determined based on an inner radius.
  • the information processing device according to supplementary note 3 or 4 further comprising a changing unit that changes the positional relationship between the direction of the line of sight of the iris authentication subject and the imaging direction of an imaging device that captures an image of the iris authentication subject.
  • the changing means may be arranged such that when the pupil area of the iris authentication subject included in the eye image and the pattern area do not overlap, and the pupil area of the iris authentication subject included in the eye image is the same size as the iris.
  • the information processing device further comprising: changing the positional relationship when the size is larger than a predetermined value.
  • the changing means includes a first action for prompting the iris authentication subject to change the direction of his/her line of sight, a second action for prompting the iris authentication subject to change the direction of his/her face while fixing the direction of his/her line of sight; and changing the positional relationship by performing at least one of a third operation of moving an imaging device that captures an image of the iris authentication subject relative to the iris authentication subject.
  • Information processing device [Additional note 8]
  • the changing means inputs input information indicating that the iris authentication target person is wearing the pattern contact lens into the information processing device, and changes the pattern of the pattern area included in the pattern contact lens and the iris authentication target.
  • the changing means does not change the positional relationship when the input information is not input to the information processing device, or when the input information is input to the information processing device and the degree of separation is equal to or greater than the predetermined value.
  • the information processing device according to any one of Supplementary Notes 5 to 7. [Additional note 9]
  • the changing means may change the pattern when the iris authentication of the iris authentication target person fails, when the iris authentication target person is wearing the pattern contact lens, and/or the pattern of the pattern area included in the pattern contact lens.
  • the information processing device according to any one of appendices 5 to 8, wherein the positional relationship is changed when the degree of separation between the pattern of the iris region of the iris authentication subject and the pattern of the iris region of the iris authentication subject is less than a predetermined value.
  • the determining means includes a first eye image in which the iris authentication subject's line of sight is directed in a first direction, and a first eye image in which the iris authentication subject's line of sight is directed in a second direction different from the first direction.
  • the information processing device according to any one of Supplementary Notes 1 to 9, wherein the inner boundary is determined by matching a plurality of eye images including at least a second eye image.
  • the determining means selects a first eye image in which the iris authentication subject's line of sight is directed in a first direction. , and a plurality of eye images including at least a second eye image in which the line of sight of the iris authentication subject is directed in a second direction different from the first direction, and the inner boundary is determined.
  • the information processing device according to any one of items 1 to 9.
  • the determining means before matching the plurality of eye images, uses a pattern of an iris area of the iris authentication subject that is included in the eye image and is close to a pupil area of the iris authentication subject to match the plurality of eye images.
  • the information processing device according to appendix 10 or 11, wherein the rotation angles of the eye images around the pupil are matched.
  • the determining means performs matching between the first eye image and the second eye image, extracts a common area between the first eye image and the second eye image, and performs the iris authentication. Calculate the distance from the center of the subject's pupil area to the outer boundary of the common area, calculate the inner radius of the pattern area based on the longest length of the distance, and calculate the inner radius of the pattern area based on the inner radius.
  • the information processing device according to any one of Supplementary Notes 10 to 12, which determines an inner boundary.
  • the plurality of eye images are a plurality of eye images captured by having the iris authentication target person change the direction of his/her line of sight, and the iris authentication target person changing the direction of his/her face while fixing the line of sight of the iris authentication target person. at least one of a plurality of eye images taken by moving the eye images, a plurality of eye images taken by moving the imaging device that takes the eye images, and a plurality of eye images taken by the plurality of imaging devices.
  • the information processing device according to any one of Supplementary Notes 10 to 13.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理装置1は、所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域の内側境界を判定する判定部11と、内側境界に基づき、虹彩認証対象者の虹彩認証を行う虹彩認証部12とを備える。

Description

情報処理装置、情報処理方法、及び、記録媒体
 この開示は、情報処理装置、情報処理方法、及び、記録媒体の技術分野に関する。
 眼を撮影した原画像に対し、周波数帯域を制限する帯域制限処理を行い、処理後の画像から虹彩外縁および瞳孔外縁の位置を検出し、検出された虹彩外縁および瞳孔外縁の位置を基にして、原画像から虹彩領域を切り出し、特徴量を抽出して虹彩コードを生成することで、個人虹彩認証において、眼の画像を撮影するカメラの性能に起因した本人拒否の発生を、低減する技術が特許文献1に記載されている。登録用の眼球画像から抽出した虹彩領域の画像を極座標変換して登録虹彩パターン画像(正規化画像)とし、照合用の眼球画像から抽出した虹彩領域の画像を極座標変換して照合虹彩パターン画像(正規化画像)とし、登録虹彩パターン画像と照合虹彩パターン画像とをBLPOC(帯域制限位相限定相関法)により照合することにより、眼球画像からの領域の切り出しに多少の誤差があっても、正確に虹彩認証を行えるようにする技術が特許文献2に記載されている。被写体の眼を視線に対して斜め方向から撮影し、撮影された画像から、楕円形状の虹彩画像を検出し、虹彩画像が検出されたか否かによって、被写体が生体の眼であるか否かを判別して、偽眼等の生体の眼と同様の球体状の偽造物に対しても、効果的に生体判別を行う技術が特許文献3に記載されている。虹彩認証対象者の複数の眼画像を撮影し、撮影された複数の眼画像それぞれを評価し、複数の眼画像のうち、もっともよいと評価された眼画像に対して虹彩認証処理を行い、複数の虹彩認証対象者それぞれに対して、もっともよい条件で撮影された眼画像によって虹彩認証処理または登録処理を行う技術が特許文献4に記載されている。眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出し、判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する技術が特許文献5に記載されている。対象者の眼の画像を取得し、参照画像と、眼の画像と、を比較することにより、対象者が装着しているカラーコンタクトレンズの着色パターンを特定し、眼の虹彩領域のうち着色パターンの着色領域以外の領域における特徴を用いて、対象者を特定し、カラーコンタクトレンズを装着していても、虹彩認証の認証精度の低下を抑制する技術が特許文献6に記載されている。
特開2004-280221号公報 特開2007-034876号公報 特開2007-041831号公報 特開2007-159610号公報 国際公開第2019/044944号 国際公開第2020/065935号
 この開示は、先行技術文献に記載された技術の改良を目的とする情報処理装置、情報処理方法、及び、記録媒体を提供することを課題とする。
 情報処理装置の一の態様は、所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定する判定手段と、前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う虹彩認証手段とを備える。
 情報処理方法の一の態様は、所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う。
 記録媒体の一の態様は、コンピューターに、所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う情報処理方法を実行させるためのコンピュータプログラムが記録されている。
図1は、第1実施形態における情報処理装置の構成を示すブロック図である。 図2は、第2実施形態における情報処理装置の構成を示すブロック図である。 図3は、第2実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図4は、パターンコンタクトレンズを着用している虹彩認証対象者の眼球の概念図である。 図5は、第3実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図6は、第3実施形態における内側境界の判定動作の概念図である。 図7は、第4実施形態における情報処理装置の構成を示すブロック図である。 図8は、第4実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図9は、第4実施形態における内側境界の判定動作の概念図である。 図10は、第5実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図11は、第5実施形態における内側境界の判定動作の概念図である。 図12は、第5実施形態における情報処理装置が行う内側境界の判定動作の流れを示すフローチャートである。 図13は、第6実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図14は、第7実施形態における情報処理装置の構成を示すブロック図である。 図15は、第7実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。 図16は、第8実施形態における情報処理装置の構成を示すブロック図である。 図17は、第8実施形態における情報処理装置が行う情報処理動作の流れを示すフローチャートである。
 以下、図面を参照しながら、情報処理装置、情報処理方法、及び、記録媒体の実施形態について説明する。
 [1:第1実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第1実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第1実施形態が適用された情報処理装置1を用いて、情報処理装置、情報処理方法、及び記録媒体の第1実施形態について説明する。
 [1-1:情報処理装置1の構成]
 図1を参照しながら、第1実施形態における情報処理装置1の構成について説明する。図1は、第1実施形態における情報処理装置1の構成を示すブロック図である。
 図1に示すように、第1実施形態における情報処理装置1は、判定部11と、虹彩認証部12とを備えている。判定部11は、所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定するように構成されている。パターンコンタクトレンズに含まれる所定のパターン領域は、輪形状のおパターン領域であってもよい。所定のパターン領域は、Uの字形状の領域であってもよく、例えば星形の模様がワンポイントで入っている領域であってもよい。虹彩認証部12は、内側境界に基づき、虹彩認証対象者の虹彩認証を行うように構成されている。
 [1-2:情報処理装置1の技術的効果]
 第1実施形態における情報処理装置1は、虹彩認証対象者がパターンコンタクトレンズを着用している場合であっても、虹彩認証対象者を虹彩認証することができる。
 [2:第2実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第2実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第2実施形態が適用された情報処理装置2を用いて、情報処理装置、情報処理方法、及び記録媒体の第2実施形態について説明する。
 [2-1:情報処理装置2の構成]
 図2を参照しながら、第2実施形態における情報処理装置2の構成について説明する。図2は、第2実施形態における情報処理装置2の構成を示すブロック図である。
 図2に示すように、情報処理装置2は、演算装置21と、記憶装置22とを備えている。更に、情報処理装置2は、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置2は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。演算装置21と、記憶装置22と、通信装置23と、入力装置24と、出力装置25とは、データバス26を介して接続されていてもよい。
 演算装置21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも1つを含む。演算装置21は、コンピュータプログラムを読み込む。例えば、演算装置21は、記憶装置22が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置21は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、情報処理装置2が備える図示しない記録媒体読み取り装置(例えば、後述する入力装置24)を用いて読み込んでもよい。演算装置21は、通信装置23(或いは、その他の通信装置)を介して、情報処理装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置21は、読み込んだコンピュータプログラムを実行する。その結果、演算装置21内には、情報処理装置2が行うべき動作を実行するための論理的な機能ブロックが実現される。つまり、演算装置21は、情報処理装置2が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図2には、情報処理動作を実行するために演算装置21内に実現される論理的な機能ブロックの一例が示されている。図2に示すように、演算装置21内には、後述する付記に記載された「判定手段」の一具体例である判定部211と、後述する付記に記載された「虹彩認証手段」の一具体例である虹彩認証部212とが実現される。
 記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、演算装置21が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置22は、演算装置21がコンピュータプログラムを実行している場合に演算装置21が一時的に使用するデータを一時的に記憶してもよい。記憶装置22は、情報処理装置2が長期的に保存するデータを記憶してもよい。尚、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも1つを含んでいてもよい。つまり、記憶装置22は、一時的でない記録媒体を含んでいてもよい。
 記憶装置22は、登録虹彩データIDを記憶していてもよい。登録虹彩データIDは、登録されている認証対象者の目画像、目画像から抽出された虹彩画像、虹彩画像から算出された特徴量等を含んだデータであってもよい。登録虹彩データIDは、虹彩認証部212による虹彩認証動作に用いられてよい。但し、記憶装置22は、登録虹彩データIDを記憶していなくてもよい。
 通信装置23は、不図示の通信ネットワークを介して、情報処理装置2の外部の装置と通信可能である。通信装置23は、通信ネットワークを介して、虹彩認証動作に用いる目画像を撮像装置から取得してもよい。撮像装置は、赤外線画像を撮像する赤外線カメラであってもよい。撮像装置は、可視光画像を撮像する可視光線カメラであってもよい。
 入力装置24は、情報処理装置2の外部からの情報処理装置2に対する情報の入力を受け付ける装置である。例えば、入力装置24は、情報処理装置2のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも1つ)を含んでいてもよい。例えば、入力装置24は情報処理装置2に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置25は、情報処理装置2の外部に対して情報を出力する装置である。例えば、出力装置25は、情報を画像として出力してもよい。つまり、出力装置25は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。例えば、出力装置25は、情報を音声として出力してもよい。つまり、出力装置25は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置25は、紙面に情報を出力してもよい。つまり、出力装置25は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 [2-2:情報処理装置2が行う情報処理動作]
 図3を参照して、第2実施形態における情報処理装置2が行う情報処理動作の流れを説明する。図3は、第2実施形態における情報処理装置2が行う情報処理動作の流れを示すフローチャートである。
 図3に示すように、判定部211は、輪形状のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域の内側境界を判定する(ステップS20)。パターンコンタクトレンズに含まれる輪形状のパターン領域は、着色された領域を含んでいてもよい。輪形状のパターン領域は、模様が形成された領域を含んでいてもよい。パターン領域の内側境界は、パターン領域と、パターンコンタクトレンズの内側の透明領域との境界であってもよい。
 虹彩認証部212は、内側境界に基づき、虹彩認証対象者の虹彩認証を行う(ステップS21)。例えば、虹彩認証部212は、内側境界に基づいて、パターンコンタクトレンズが含むパターン領域を抽出し、目画像における当該パターン領域をマスクして、虹彩認証対象者の虹彩認証を行ってもよい。すなわち、虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像を用いた虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。なお、マスク処理は特徴量を抽出した後に行ってもよい。すなわち、照合に用いる特徴量の抽出自体はマスクしていない画像に対して行い、特徴量抽出後に、パターンコンタクトレンズのパターン領域に該当する特徴量をマスクして、照合を行うようになっていてもよい。あるいは、照合時のマッチング処理が虹彩の部分領域単位で行うようになっている場合は、マッチング処理まではマスク前の特徴量に対して行い、パターンコンタクトレンズのパターン領域に該当するマッチング結果をマスクして照合を行うようにしてもよい。
 [2-3:情報処理装置2の技術的効果]
 第2実施形態における情報処理装置2は、虹彩認証対象者がパターンコンタクトレンズを着用している場合であっても、虹彩認証対象者を虹彩認証することができる。特に、情報処理装置2は、目画像に含まれるパターン領域の内側境界を用いることなく虹彩認証対象者を虹彩認証する比較例の虹彩認証装置と比較して、虹彩認証対象者を高精度に虹彩認証することができる。何故ならば、比較例の虹彩認証装置は、目画像内でパターンコンタクトレンズが含むパターン領域をマスクすることなく、虹彩認証対象者の虹彩認証を行う。つまり、比較例の虹彩認証装置は、目画像に写り込んだ認証対象者の虹彩のパターンを用いるだけでなく、目画像に写り込んだパターンコンタクトレンズのパターン領域も用いて、虹彩認証対象者の虹彩認証を行う。このため、比較例の虹彩認証装置は、パターンコンタクトレンズのパターン領域に形成されたパターンを、虹彩認証対象者の虹彩のパターンであると誤認識する可能性がある。その結果、比較例の虹彩認証装置は、虹彩認証対象者がある人物Aであると判定されるべき状況下において、虹彩認証対象者が、ある人物Aではないと誤判定してしまう可能性がある。一方で、第2実施形態における情報処理装置2は、内側境界に基づいて、目画像内でパターンコンタクトレンズが含むパターン領域をマスクした上で、虹彩認証対象者の虹彩認証を行うことができる。つまり、情報処理装置2は、内側境界に基づいて、目画像に写り込んだ認証対象者の虹彩のパターンを用いる一方で、目画像に写り込んだパターンコンタクトレンズのパターン領域を用いることなく、虹彩認証対象者の虹彩認証を行うことができる。このため、情報処理装置2は、パターンコンタクトレンズのパターン領域に形成されたパターンを、虹彩認証対象者の虹彩のパターンであると誤認識することなく、虹彩認証対象者を虹彩認証することができる。その結果、情報処理装置2の認証精度は、比較例の虹彩認証装置の認証精度よりも高くなる。このため、情報処理装置2は、虹彩認証対象者がパターンコンタクトレンズを着用している場合に虹彩認証ができなくなるリスクを低減させ、ユーザビリティを向上させることができる。つまり、情報処理装置2は、虹彩認証対象者がパターンコンタクトレンズを着用している場合に虹彩認証ができなくなるという技術的課題を解決することができる。
 本人の口座からの決済、クレジットカードによる決済等の決済の場面、制限エリア等への入場制限の場面、並びに、PC等の機器へのログイン、及び車、バイク等の車両のロック解除等の装置の機能を発揮させる場面等において、虹彩認証が採用される場合が増えている。一方で、虹彩認証対象者が外出時にパターンコンタクトレンズを着用する場合が増えている。パターンコンタクトレンズは、サングラス、マスク等と比較すると、着脱は容易ではない。虹彩認証対象者がパターンコンタクトレンズを着用したままでできる虹彩認証の需要は増えている。このため、第2実施形態における情報処理装置2は、このような虹彩認証の需要にこたえることができる。
 [3:第3実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第3実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第3実施形態が適用された情報処理装置3を用いて、情報処理装置、情報処理方法、及び記録媒体の第3実施形態について説明する。
 第3実施形態における情報処理装置3は、第2実施形態における情報処理装置2と同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置3は、情報処理装置2と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置3は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第3実施形態における情報処理装置3は、第2実施形態における情報処理装置2と比較して、判定部211による判定動作が異なる。情報処理装置3のその他の特徴は、情報処理装置2のその他の特徴と同一であってもよい。
 [3-1:情報処理装置3が行う情報処理動作]
 図4から図6を参照して、第3実施形態における情報処理装置3が行う情報処理動作の流れを説明する。図4は、パターンコンタクトレンズを着用している虹彩認証対象者の眼球の概念図である。図5は、第3実施形態における情報処理装置3が行う情報処理動作の流れを示すフローチャートである。図6は、パターン領域Paの内側境界を判定例の概念図である。
 図4(a)に示すように、パターンコンタクトレンズは、虹彩領域Irの外側領域にパターン領域Paが重なるように虹彩認証対象者によって装着される。したがって、パターンコンタクトレンズを虹彩認証対象者が装着している場合、虹彩認証対象者の目を含む目画像の、パターン領域Paが重なった虹彩領域Irの外側領域は、虹彩認証に用いることはできない。
 図4(b)に示すように、虹彩領域Irとパターン領域Paとは、色、模様等が類似する場合が多い。虹彩領域Irとパターン領域Paとが類似する場合、両者を区別することが困難となり、虹彩領域Irとパターン領域Paとの境界Bbから、パターン領域Paの内側境界を判定することが困難である。
 一方、図4(c)に示すように、瞳孔領域Puとパターン領域Paとは、色、模様等が類似する場合は少ないので、両者を区別することは比較的容易である。したがって、瞳孔領域Puとパターン領域Paとの境界Bcから、パターン領域Paの内側境界を判定することは比較的容易である。瞳孔領域Puとパターン領域Paとの境界は、パターン領域Paの内側半径の基準にすることができる。
 また、図4(a)及び(d)を比較した場合、虹彩領域Irとパターン領域Paとが類似しない場合においても、虹彩領域Irとパターン領域Paとの境界Baよりも、瞳孔領域Puとパターン領域Paとの境界Bdの方がより判別しやすい。このため、瞳孔領域Puとパターン領域Paとが重なっている場合には、当該重なっている領域を用いてパターン領域Paの内側境界を判定することがより好ましい。そこで、第3実施形態においては、瞳孔領域Puとパターン領域Paとが重なっている領域を用いて内側境界を判定する。
 図5(a)に示すように、判定部211は、虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域Paの内側境界を判定する(ステップS30)。虹彩認証部212は、パターン領域Paの内側境界に基づき、虹彩認証対象者の虹彩認証を行う(ステップS21)。
 ステップS30の動作を、図5(b)に示す。図5(b)に示すように、判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puを検出する(ステップS31)。判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puと、虹彩領域Irとを検出してもよい。
 判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域を用いてパターン領域Paの内側境界を判定する(ステップS32)。
 [3-2:パターン領域Paの内側境界を判定例]
 図6は、パターン領域Paの内側境界を判定例の概念図である。図6では、理解しやすさのために、瞳孔領域Puを白色で示している。判定部211は、瞳孔領域Puとパターン領域Paとが重なっている場合、パターンコンタクトレンズの中心部PaCから重なっている領域の内側までの距離に基づいてパターン領域Paの内側半径を算出し、当該内側半径に基づいてパターン領域Paの内側境界を判定してもよい。
 図6(a)に示すように、判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域の内側部Bを検出する。判定部211は、内側部Bを、例えば、瞳孔領域Puとパターン領域Paとの境界における輝度変化を抽出することにより検出してもよい。
 図6(b)に示すように、判定部211は、パターンコンタクトレンズの中心部PaCを検出する。パターンコンタクトレンズは、円形であり、パターンコンタクトレンズのパターン領域Paの外側境界OBと眼球の白い部分との境界は明確である。したがって、判定部211は、パターンコンタクトレンズの中心部PaCを、パターン領域の外側境界OBから求めることができる。パターン領域Paの外側境界OBは、例えば、パターン領域Paの外周と眼球の白い部分との境界における輝度変化を抽出することにより検出してもよい。パターンコンタクトレンズのパターン領域Paの外側境界OBと眼球の白い部分との境界は、パターン領域Paの外側半径の基準にすることができる。
 図6(c)に示すように、判定部211は、パターンコンタクトレンズの中心部PaCから内側部Bまでの距離dを求める。図6(d)に示すように、判定部211は、パターンコンタクトレンズの中心部PaCを中心とし、半径が距離dである円を、パターン領域Paの内側境界IBと判定してもよい。パターン領域Paの内側境界は、略円形であるので、判定部211は、パターンコンタクトレンズの中心部PaC、及び距離dから、パターン領域Paの内側境界IBを判定してもよい。
 第3実施形態におけるステップS21では、虹彩認証部212は、目画像における当該パターン領域Paをマスクして、虹彩特徴量を抽出してもよい。図6(e)に示すように、パターン領域Paの外側境界OBと内側境界IBとで囲まれた領域Mにより、パターン領域Paをマスクしてもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。また、第2実施形態で述べたように、虹彩認証部212は、特徴量抽出はマスクしていない画像を用いて行い、マスク処理は、特徴量抽出後、あるいは、マッチング処理の後で行うようになっていてもよい。
 [3-3:情報処理装置3の技術的効果]
 第3実施形態における情報処理装置3は、虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている場合、当該重なっている領域を用いてパターン領域Paの内側境界を判定するので、より精度よくパターン領域Paの内側境界を判定することができる。また、情報処理装置3は、パターンコンタクトレンズの形状の特徴を利用して、パターンコンタクトレンズの中心部PaC、及び距離dから、比較的容易にパターン領域Paの内側境界IBを判定することができる。第3実施形態における情報処理装置3は、虹彩領域Irとパターン領域Paとが類似し、虹彩領域Irとパターン領域Paとの境界が不明瞭である場合でも、虹彩認証をすることができる。
 [4:第4実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第4実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第4実施形態が適用された情報処理装置4を用いて、情報処理装置、情報処理方法、及び記録媒体の第4実施形態について説明する。
 [4-1:情報処理装置4の構成]
 図7を参照しながら、第4実施形態における情報処理装置4の構成について説明する。図7は、第4実施形態における情報処理装置4の構成を示すブロック図である。
 図7に示すように、第4実施形態における情報処理装置4は、第2実施形態における情報処理装置2及び第3実施形態における情報処理装置3の少なくとも一方と同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置4は、情報処理装置2位及び情報処理装置3の少なくとも一方と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置4は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第4実施形態における情報処理装置4は、第2実施形態における情報処理装置2及び第3実施形態における情報処理装置3の少なくとも一方と比較して、演算装置21が変更部413、及び取得部414を備えている点で異なる。情報処理装置4のその他の特徴は、情報処理装置2及び情報処理装置3の少なくとも一方のその他の特徴と同一であってもよい。変更部413、及び取得部414の詳細については、後述する。
 [4-2:情報処理装置4が行う情報処理動作]
 図8及び図9を参照して、第4実施形態における情報処理装置4が行う情報処理動作の流れを説明する。図8は、第4実施形態における情報処理装置4が行う情報処理動作の流れを示すフローチャートである。図9は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変えた場合の概念図である。撮像装置は、虹彩認証対象者を撮像して目画像を生成してもよい。
 図8(a)に示すように、判定部211は、虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域Paの内側境界を判定する(ステップS40)。虹彩認証部212は、パターン領域Paの内側境界に基づき、虹彩認証対象者の虹彩認証を行う(ステップS21)。
 ステップS40の動作を、図8(b)に示す。図8(b)に示すように、変更部413は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更する(ステップS41)。変更部413は、視線の方向を変更するように虹彩認証対象者に促す第1動作、視線の方向を固定したまま顔の向きを変更するように虹彩認証対象者に促す第2動作、及び、虹彩認証対象者を撮像する撮像装置を虹彩認証対象者に対して移動させる第3動作の内の少なくとも一つを行うことで、位置関係を変更してもよい。
 変更部413は、上記第1動作、及び上記第2動作の少なくとも一方を行う場合、出力装置25を制御してもよい。変更部413は、視線の方向を変更するように虹彩認証対象者に促すべく、出力装置25としてのスピーカに、「もっと右を見てください」等の音声を出力させてもよい。または、変更部413は、視線の方向を変更するように虹彩認証対象者に促すべく、出力装置25としてのディスプレイに、画像、文字等を表示させてもよい。変更部413は、ディスプレイに表示する画像を移動させて、虹彩認証対象者の視線を追わせてもよい。目の上下方向は、瞼によってパターン領域Pa及び虹彩領域Irが隠されている場合がある。そこで、変更部413は、左右方向、斜め方向に虹彩認証対象者の視線の向きを変更させてもよい。
 また、変更部413は、視線の方向を固定したまま顔の向きを変更するように虹彩認証対象者に促すべく、出力装置25としてのスピーカに、音声を出力させてもよい。または、変更部413は、視線の方向を固定したまま顔の向きを変更するように虹彩認証対象者に促すべく、出力装置25としてのディスプレイに、画像、文字等を表示させてもよい。または、変更部413は、上記第3動作を行う場合、通信装置23を介し、撮像装置を虹彩認証対象者に対して移動させるように制御してもよい。
 変更部413は、目画像に含まれる虹彩認証対象者の瞳孔領域Puが、図9(a)及び(b)に示す位置から図9(c)に示す位置に変わるようにしてもよい。
 変更部413は、虹彩認証対象者の視線を変更する度合に応じて、異なる出力制御を行ってもよい。例えば、変更部413は、所定よりも大きく右を見て貰いたい場合には、図9(a)に例示するように右矢印を長く表示させるように制御してもよい。また、変更部413は、所定よりも少しだけ右を見て貰いたい場合には、図9(b)に例示するように矢印を短く表示させるように制御してもよい。
 取得部414は、撮像装置が生成した目画像を取得する(ステップS42)。判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puを検出する(ステップS31)。判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっているかを判定する(ステップS43)。
 目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっていない場合(ステップS42:No)、ステップS41に移行する。例えば、変更部413が虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更したのだが、図9(b)に示すように、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっていない場合に、変更部413はさらに位置関係を変更してもよい。
 目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっていない場合、かつ、目画像に含まれる虹彩認証対象者の瞳孔領域Puが、虹彩の大きさに比べて所定以上の大きさの場合に、ステップS41に移行し、変更部413はさらに位置関係を変更してもよい。例えば、明るい環境において、瞳孔領域Puは小さくなる。瞳孔領域Puが小さい場合、図9(d)に示すように、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変えた場合にも、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なることは困難である。このため、目画像に含まれる虹彩認証対象者の瞳孔領域Puが、虹彩の大きさに比べて所定以上の大きさの場合に、ステップS41に移行し、変更部413はさらに位置関係を変更してもよい。
 目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている場合(ステップS43:Yes)、判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域を用いてパターン領域Paの内側境界を判定する(ステップS32)。虹彩認証部212は、目画像における当該パターン領域Paをマスクして、虹彩特徴量を抽出し、照合を行う。なお、第2実施形態で述べたように、マスク処理は、特徴量抽出後、マッチング処理後に行ってもよい。
 第4実施形態におけるステップS21では、虹彩認証部212は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更して撮像された目画像を用いてもよいし、上記位置関係を合わせた画像を用いてもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩領域と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩領域から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。
 [4-3:情報処理装置4の技術的効果]
 第4実施形態における情報処理装置4は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更することにより、瞳孔領域Puとパターン領域Paとが重なることを促進することができる。また、情報処理装置4は、目画像に含まれる虹彩認証対象者の瞳孔領域Puが虹彩の大きさに比べて所定以上の大きさの場合に、位置関係を変更するので、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なることが困難な場合に、不要な動作をすることを抑制することができる。また、情報処理装置4は、上記第1動作、上記第2動作、及び上記第3動作の内の少なくとも一つを行うことで、状況に適した動作により位置関係を変更することができる。
 [5:第5実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第5実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第5実施形態が適用された情報処理装置5を用いて、情報処理装置、情報処理方法、及び記録媒体の第5実施形態について説明する。
 第5実施形態における情報処理装置5は、第4実施形態における情報処理装置4と同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置5は、情報処理装置4と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置5は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第5実施形態における情報処理装置5は、第4実施形態における情報処理装置4と比較して、判定部211による判定動作が異なる。情報処理装置5のその他の特徴は、情報処理装置4のその他の特徴と同一であってもよい。
 [5-1:情報処理装置5が行う情報処理動作]
 図10から図12を参照して、第5実施形態における情報処理装置5が行う情報処理動作の流れを説明する。図10は、第5実施形態における情報処理装置5が行う情報処理動作の流れを示すフローチャートである。図11は、パターン領域Paの内側境界を判定する例の概念図である。図12は、第5実施形態における情報処理装置5が行うパターン領域Paの内側境界の判定動作の流れを示すフローチャートである。
 図10(a)に示すように、判定部211は、虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域Paの内側境界を判定する(ステップS50)。虹彩認証部212は、パターン領域Paの内側境界に基づき、虹彩認証対象者の虹彩認証を行う(ステップS21)。
 ステップS50の動作を、図10(b)に示す。図10(b)に示すように、変更部413は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更する(ステップS41)。
 取得部414は、撮像装置が生成した目画像を取得する(ステップS42)。判定部211は、取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得したか判定する(ステップS51)。複数の目画像は、虹彩認証対象者に視線の方向を変更させて撮像した複数の目画像、虹彩認証対象者の視線を固定させて、虹彩認証対象者に顔の向きを変更させて撮像した複数の目画像、目画像を撮像する撮像装置を移動させて撮像した複数の目画像、及び目画像を複数の撮像装置が撮像した複数の目画像のうち少なくとも1つを含んでいてもよい。
 取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得していない場合(ステップS51:No)、ステップS41に移行する。
 取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得していた場合(ステップS51:Yes)、判定部211は、第5実施形態におけるパターン領域Paの内側境界の判定動作を実施する(ステップS52)。
 [5-2:パターン領域Paの内側境界の判定動作]
 図11は、パターン領域Paの内側境界を判定例の概念図である。図11では、視認を容易にするために、瞳孔領域Puを白く表している。図11(a)は、虹彩認証対象者の視線が第1の方向に向いた第1の目画像を例示している。図11(b)は、虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を例示している。図11(a)、及び(b)は、同一の虹彩認証対象者の目画像であるが、視認を容易にするために、パターンコンタクトレンズのパターン領域Paを異なるパターンで表している。
 虹彩領域Irは、眼球内において平面形状である。このため、眼球を回転させて異なる方向から撮像された虹彩領域Ir同士であっても、画像マッチングを行うことが容易である。2枚の目画像の照合を、画像マッチングと称してもよい。一方で、パターンコンタクトレンズは、眼球上に装着されるので、球面形状である。このため、正面以外の異なる方向きから観察すると、パターン領域Paの模様の見え方が異なる。このため、眼球を回転させて異なる方向から撮像されたパターン領域Pa同士のパターン領域同士は画像マッチングを行うことは、平面状の虹彩と比べると困難となる。また、瞳孔のすぐ外側の領域は虹彩が見えているため、瞳孔周辺を含んで目画像の画像マッチングが成功した領域は虹彩領域Irであり、その際に目画像の画像マッチングが成功しなかった領域はパターン領域Paであると判定することができる。
 第5実施形態では、上述の特性を利用して、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を用いて、パターン領域Paの内側境界を判定する。なお、目画像の画像マッチングでは、先にそれぞれの目画像から虹彩特徴量を抽出しておき、特徴量間でマッチングを行うようになっていてもよい。
 1枚の目画像だけで、虹彩領域Irとパターン領域Paとの境界を判定することは困難であるが、複数の目画像を用いることにより、虹彩領域Irとパターン領域Paとの区別を行い、パターン領域Paの内側境界の判定をすることができる。
 図12に示すように、判定部211は、複数の目画像から瞳孔領域Puを検出する(ステップS53)。
 判定部211は、複数の目画像同士の瞳孔の中心PuCの位置合わせを行う(ステップS54)。図11(c)は、第1の目画像の瞳孔と第2の目画像の瞳孔との瞳孔の中心PuCの位置合わせの概念図である。なお、目画像間で瞳孔と虹彩の大きさが異なる場合には、大きさが目画像間で一致するように変形してから位置合わせを行ってもよい。
 判定部211は、複数の目画像に含まれる虹彩認証対象者の瞳孔領域Puに近接する虹彩認証対象者の虹彩領域Irの模様を用いて、複数の目画像同士の瞳孔を中心PuCとした回転角を合わせる(ステップS55)。複数の目画像は同一の虹彩認証対象者の目画像である。少なくとも瞳孔領域Puに近接する領域は虹彩領域Irであるので、瞳孔領域Puに近接する領域同士は画像マッチングが成功する。そこで、判定部211は、第1の目画像と第2の目画像との画像マッチングの初めに、第1の目画像と第2の目画像とに含まれる虹彩認証対象者の瞳孔領域Puに近接する領域の、虹彩認証対象者の虹彩領域Irの模様を用いた画像マッチングを行い、2枚の目画像同士の瞳孔を中心PuCとした回転角を合わせる。
 一方で、同一の虹彩認証対象者の目画像であるにも関わらず、瞳孔領域Puに近接する領域同士の画像マッチングが成功しない場合は、判定部211は、虹彩認証対象者が虹彩認証に不適切な状態であると判定してもよい。例えば、虹彩領域Irの全ての領域に重なるタイプのパターンコンタクトレンズを虹彩認証対象者が着用している場合において、瞳孔領域Puに近接する領域同士の画像マッチングは成功しない。
 判定部211は、第1の目画像と第2の目画像との照合を、第1の目画像、及び第2の目画像の一方を、第1の目画像、及び第2の目画像の他方に対して回転させながら行うことにより、マッチング度合いの高い回転角を特定してもよい。例えば、判定部211は、第1の目画像、及び第2の目画像の一方を、瞳孔領域Puの中心部PuCに対応する位置を中心として、所定の回転方向に、所定の角度ずつ回転させながら、各回転角におけるマッチング度合いを算出してもよい。判定部211は、第1の目画像、及び第2の目画像の一方を、所定の回転方向に所定の角度毎に回転させて、回転方向の位置合わせを行ってもよい。画像マッチングの手法として、どのような手法を用いてもよい。例えば、第1の目画像と第2の目画像との対応する領域内の、各画素間の差分の総和、各画素間の差分の数が閾値以下である画素数、画像間の相関係数を算出してもよい。あるいは、第1の目画像と第2の目画像のそれぞれから照合用の虹彩特徴量を抽出し、特徴量間で照合を行い、照合の度合いが所定の閾値以上となる領域の大きさを算出してもよい。判定部211は、第1の目画像、及び第2の目画像の一方を、第1の目画像、及び第2の目画像の他方に対して回転させるだけでなく、第1の目画像、及び第2の目画像の一方を、第1の目画像、及び第2の目画像の他方に対して拡大、又は縮小を行ってもよい。
 判定部211は、第1の目画像と第2の目画像との画像マッチングを行い、第1の目画像と第2の目画像とで共通する共通領域を検出する(ステップS56)。判定部211は、図11(c)において、第1の目画像に含まれるパターン領域Paにも、第2の目画像に含まれるパターン領域Paにも、隠れていない虹彩領域Irを、共通領域として検出してもよい。
 判定部211は、虹彩認証対象者の瞳孔領域Puに近接する領域の外側に向かって順に、第1の目画像と第2の目画像とで共通する共通領域を検出してもよい。共通領域が検出できない位置があった場合は、その位置より外側は共通領域として検出されない場合が多いからである。
 判定部211は、幾つかの方向の領域について、共通領域を検出してもよい。判定部211は、例えば、瞳孔領域Puの右方向の領域(「0°の領域」とも称する)、瞳孔領域Puの上方向の領域(「90°の領域」とも称する)、瞳孔領域Puの左方向の領域(「180°の領域」とも称する)、及び瞳孔領域Puの下方向の領域(「270°の領域」とも称する)について、共通領域を検出してもよい。判定部211は、全ての方向の領域について共通領域を検出しなくてもよい。判定部211は、内側境界の判定に適した領域について、共通領域を検出してもよい。
 判定部211は、瞳孔領域Puの中心から共通領域の外側境界までの距離を算出する(ステップS57)。図11(d)は、4方向の領域の共通領域を検出した場合を例示している。図11(d)に例示する場合であれば、判定部211は、第1の方向の領域の共通領域の外側境界までの距離d1、第2の方向の領域の共通領域の外側境界までの距離d2、第3の方向の領域の共通領域の外側境界までの距離d3、第4の方向の領域の共通領域の外側境界までの距離d4を算出してもよい。
 判定部211は、距離のうちの最長の長さに基づき、パターン領域の内側半径を算出する(ステップS58)。図11(e)は、図11(d)に例示した瞳孔領域Puの中心から共通領域の外側境界までの距離のうちの、最長の距離d1を例示している。
 判定部211は、算出した内側半径に基づいてパターン領域Paの内側境界を判定する。判定部211は、パターンコンタクトレンズの中心PaCを中心とした、内側半径の円を、パターン領域Paの内側境界を判定してもよい。第5実施形態では、図11に例示する場合であれば、パターンコンタクトレンズの内側半径は、最長の距離d1であると判定してもよい。図11(f)は、1枚のパターンコンタクトレンズの中心PaCと、中心PaCから距離d1の領域、すなわち、パターン領域Paの内側境界を例示している。
 虹彩認証においては、大きい虹彩領域Irを用いることが好ましい。すなわち、パターン領域Paの内側境界を正確に判定し、パターン領域Paを含まない最大の虹彩領域Irを虹彩認証に用いることが好ましい。判定部211が、全ての方向について、瞳孔領域Puの中心から共通領域の外側境界までの距離を算出した場合、パターン領域Paの内側境界の判定の正確性は高くなることが期待できる。
 一方で、判定部211が、幾つかの方向の領域について、瞳孔領域Puの中心から共通領域の外側境界までの距離を算出した場合、処理コストを抑制することができる。瞳孔領域Puの中心から共通領域の外側境界までの距離が長くなる方向は、目画像に含まれる目の向きと関係する。このため、判定部211は、視線がどの方向に向いているかを推定し、その結果に応じて、どの角度の距離を測定するかを決定していもよい。特定の方向において瞳孔領域Puの中心から共通領域の外側境界までの距離が長くなるように、変更部413は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更してもよい。例えば、0°の領域又は180°の領域において瞳孔領域Puの中心から共通領域の外側境界までの距離が長くなるように、変更部413は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更してもよい。例えば90°の領域、及び/又は270°の領域は、瞼により虹彩領域Irもパターン領域Paも部分的に隠れる場合があるので、0°の領域、及び180°の領域が、距離を算出する領域として用いられるように、変更部413は動作してもよい。
 以上、図10に示すステップS52の内側境界の判定動作を説明した。
 第5実施形態におけるステップS21では、虹彩認証部212は、目画像における、パターンコンタクトレンズの中心PaCから距離d1のパターン領域Paの内側境界より内側の虹彩領域Irから、虹彩特徴量を抽出してもよい。図11(f)に示すように、虹彩認証部212は、パターン領域Paの外側境界OBと内側境界IBとで囲まれた領域で、パターン領域Paをマスクしてもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。
 虹彩認証部212は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更して撮像された目画像を用いて、内側境界に基づき、虹彩認証をしてもよい。虹彩認証部212は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を合わせた画像を用いて、内側境界に基づき、虹彩認証をしてもよい。
 虹彩認証部212は、複数の目画像を用いて、内側境界に基づき、虹彩認証をしてもよい。虹彩認証部212は、複数の目画像の各々について、パターン領域Paの内側境界より内側の虹彩領域Irを抽出し、抽出した複数の虹彩領域Irの画像を合成して、虹彩認証に用いてもよい。上述の通り、虹彩認証においては、大きい虹彩領域Irを用いることが好ましい。視線をずらせた目画像は、虹彩領域Irが小さくなってしまう場合があるので、複数の虹彩領域Irの画像を合成して、虹彩認証に用いてもよい。異なる方向に視線をずらした目画像の各々は、異なる虹彩領域Irを含んでいる。このため、複数の虹彩領域Irの画像を合成すると、虹彩認証部212は、より大きな虹彩領域Irを用いて虹彩認証をすることができる。なお、合成処理は特徴量を抽出した後に行ってもよい。すなわち、複数の目画像のそれぞれから虹彩特徴量を抽出し、抽出された特徴量同士を合成してもよい。
 虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更して撮像された目画像において、虹彩領域Irは、正面ではない方向から撮像されている。そこで、正面ではない方向から撮像された虹彩領域Irの画像を、内側境界の判定、画像合成、特徴量合成、及び虹彩認証の何れかに用いる場合は、正面から撮像された虹彩領域Irの画像と同等になるように補正してもよい。すなわち、楕円形状の虹彩領域Irの画像を、正円形状の虹彩領域Irの画像に補正してもよい。例えば、アフィン変換により、楕円形状の虹彩領域Irの画像を、正円形状の虹彩領域Irの画像に変換してもよい。
 [5-3:情報処理装置5の技術的効果]
 第5実施形態における情報処理装置5は、虹彩領域Irとパターン領域Paとが類似し、虹彩領域Irとパターン領域Paとの境界が不明瞭である場合でも、虹彩認証をすることができる。情報処理装置5は、虹彩領域Irとパターン領域Paとは、立体形状が異なることを利用して、パターン領域Paの内側境界を判定することができ、適切に虹彩認証をすることができる。情報処理装置5は、複数の目画像同士の画像マッチングの前に、目画像に含まれる虹彩認証対象者の瞳孔領域Puに近接する虹彩認証対象者の虹彩領域Irの模様を用いて、複数の目画像同士の瞳孔を中心とした回転角を合わせるので、精度よく目画像同士の画像マッチングをすることができる。情報処理装置5は、第1の目画像と第2の目画像との画像マッチングを行い、第1の目画像と前記第2の目画像とで共通する共通領域を抽出し、瞳孔領域Puの中心から共通領域の外側境界までの距離を算出し、当該距離のうちの最長の長さに基づき、パターン領域Paの内側半径を算出し、当該内側半径に基づいて内側境界を判定するので、より大きな虹彩領域Irを用いた虹彩認証をすることができる。
 また、情報処理装置5が用いる複数の目画像は、虹彩認証対象者に視線の方向を変更させて撮像した複数の目画像、虹彩認証対象者の視線を固定させて、虹彩認証対象者に顔の向きを変更させて撮像した複数の目画像、目画像を撮像する撮像装置を移動させて撮像した複数の目画像、及び目画像を複数の撮像装置で撮像した複数の目画像のうち少なくとも1つを含むので、状況に応じた方法により、複数の目画像を取得することができる。
 [6:第6実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第6実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第6実施形態が適用された情報処理装置6を用いて、情報処理装置、情報処理方法、及び記録媒体の第6実施形態について説明する。
 第6実施形態における情報処理装置6は、第4実施形態における情報処理装置4及び第5実施形態における情報処理装置5の少なくとも一方と同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置6は、情報処理装置4位及び情報処理装置5の少なくとも一方と同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置6は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第6実施形態における情報処理装置6は、第4実施形態における情報処理装置4及び第5実施形態における情報処理装置5の少なくとも一方と比較して、判定部211による判定動作が異なる。情報処理装置6のその他の特徴は、情報処理装置4及び情報処理装置5の少なくとも一方のその他の特徴と同一であってもよい。
 [6-1:情報処理装置6が行う情報処理動作]
 図13を参照して、第6実施形態における情報処理装置6が行う情報処理動作の流れを説明する。図13は、第6実施形態における情報処理装置6が行う情報処理動作の流れを示すフローチャートである。
 図13(a)に示すように、判定部211は、虹彩認証対象者の目を含む目画像から、当該目画像に含まれるパターン領域Paの内側境界を判定する(ステップS60)。虹彩認証部212は、パターン領域Paの内側境界に基づき、虹彩認証対象者の虹彩認証を行う(ステップS21)。
 ステップS60の動作を、図13(b)に示す。図13(b)に示すように、変更部413は、虹彩認証対象者の視線の方向と、虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更する(ステップS41)。取得部414は、撮像装置が生成した目画像を取得する(ステップS42)。判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puを検出する(ステップS31)。変更部413は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっているかを判定する(ステップS43)。
 虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている場合(ステップS43:Yes)、判定部211は、目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域を用いてパターン領域Paの内側境界を判定する(ステップS32)。
 虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっていない場合(ステップS43:No)、判定部211は、取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得したか判定する(ステップS51)。
 取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得していない場合(ステップS51:No)、ステップS41に移行する。
 取得部414が、虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び虹彩認証対象者の視線が第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像を取得していた場合(ステップS51:Yes)、判定部211は、パターン領域Paの内側境界の判定動作を実施する(ステップS52)。
 第6実施形態におけるステップS21では、虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっていた場合(ステップS43:Yes)、には、第3実施形態におけるステップS21と同様に、虹彩認証部212は、目画像におけるパターン領域Paをマスクして、虹彩特徴量を抽出してもよい。図6(e)に示すように、パターン領域Paの外側境界OBと内側境界IBとで囲まれた領域Mにより、パターン領域Paをマスクしてもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。
 虹彩認証対象者の瞳孔領域とパターン領域とが重なっていなかった場合(ステップS43:No)、には、第5実施形態におけるステップS21と同様に、虹彩認証部212は、目画像における、パターンコンタクトレンズの中心PaCから距離d1のパターン領域Paの内側境界より内側の虹彩領域Irから、虹彩特徴量を抽出してもよい。図11(f)に示すように、パターン領域Paの外側境界OBと内側境界IBとで囲まれた領域により、パターン領域Paをマスクしてもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像と登録虹彩データIDとを照合し、虹彩認証を行ってもよい。虹彩認証部212は、パターンコンタクトレンズが含むパターン領域が重なっていない虹彩画像から抽出した特徴量と登録虹彩データIDに含まれる特徴量とを照合し、虹彩認証を行ってもよい。また、第2実施形態で述べたように、虹彩認証部212は、特徴量抽出はマスクしていない画像を用いて行い、マスク処理は、特徴量抽出後、あるいは、マッチング処理の後で行うようになっていてもよい。
 なお、上述した各実施形態では、瞳孔領域Puとパターン領域Paとの境界は、パターン領域Paの内側半径の基準にする場合について説明したが、これに限らない。例えば、眼球を大きく動かした場合は、パターン領域Paの内側に虹彩領域の外側が入る場合がある。この場合、白目(すなわち強膜)領域とパターン領域Paとの境界を、パターン領域Paの内側半径の基準にしてもよい。
 [6-2:情報処理装置6の技術的効果]
 目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域を用いてパターン領域Paの内側境界を判定する手法の方が、より精度よくパターン領域Paを検出できる場合が多い。そこで、第6実施形態における情報処理装置6は、基本的に目画像に含まれる虹彩認証対象者の瞳孔領域Puとパターン領域Paとが重なっている領域を用いてパターン領域Paの内側境界を判定する手法を用いる。情報処理装置6は、瞳孔領域Puとパターン領域Paとが重ならなかった場合の代替として、複数の目画像を用いて内側境界を判定する手法を採用し、虹彩認証精度を向上させることができる。
 [7:第7実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第7実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第7実施形態が適用された情報処理装置7を用いて、情報処理装置、情報処理方法、及び記録媒体の第7実施形態について説明する。
 [7-1:情報処理装置7の構成]
 図14を参照しながら、第7実施形態における情報処理装置7の構成について説明する。図14は、第7実施形態における情報処理装置7の構成を示すブロック図である。
 図14に示すように、第7実施形態における情報処理装置7は、第4実施形態における情報処理装置4から第6実施形態における情報処理装置6の少なくとも一つと同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置7は、情報処理装置4から情報処理装置6の少なくとも一つと同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置7は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第7実施形態における情報処理装置7は、第4実施形態における情報処理装置4から第6実施形態における情報処理装置6の少なくとも一つと比較して、演算装置21が入出力制御部715、及び分離度判定部716を備えている点で異なる。また、入力装置24は、虹彩認証対象者がパターンコンタクトレンズを装着していることを示すパターンコンタクト装着情報の入力を受け付ける。入力装置24は、虹彩認証対象者が操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも1つ)を含んでいてもよい。また、出力装置25は、虹彩認証対象者に、パターンコンタクト装着情報の入力を促す出力してもよい。出力装置25は、パターンコンタクト装着情報の入力を促す情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)、及び音声を出力可能な音声装置(いわゆる、スピーカ)の少なくとも一方を含んでいてもよい。情報処理装置7のその他の特徴は、情報処理装置4から情報処理装置6の少なくとも一つのその他の特徴と同一であってもよい。入出力制御部715、及び分離度判定部716の詳細については、後述する。
 [7-2:情報処理装置7が行う情報処理動作]
 図15を参照して、第7実施形態における情報処理装置7が行う情報処理動作の流れを説明する。図15は、第7実施形態における情報処理装置7が行う情報処理動作の流れを示すフローチャートである。
 図15に示すように、取得部414は、虹彩認証対象者の目画像を取得する(ステップS70)。
 入出力制御部715は、入力装置24に、虹彩認証対象者がパターンコンタクトレンズを装着していることを示す入力情報が入力されたか否かを判定する(ステップS71)。入力情報が入力された場合(ステップS71:Yes)、分離度判定部716は、パターンコンタクトレンズが含むパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満であるか否かを判定する(ステップS72)。分離度判定部716は、例えば、眼球の白い部分と隣接する部分の模様をパターン領域Paの模様とし、瞳孔領域Puと隣接する部分の模様を虹彩認証対象者の虹彩領域Irの模様として、パターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度(区別のしやすさ)が所定値未満であるか否かを判定してもよい。分離度の算出方法としては、画素値やその周波数成分の統計量等に基づく既存の様々な手法を用いることが可能である。
 パターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満である場合(ステップS72:Yes)、判定部211は、内側境界の判定を行う(ステップS73)。第7実施形態におけるステップS73の内側境界の判定動作は、第2実施形態におけるステップS20の内側境界の判定動作、第3実施形態におけるステップS30の内側境界の判定動作、第4実施形態におけるステップS40の内側境界の判定動作、第5実施形態におけるステップS50の内側境界の判定動作、及び第6実施形態におけるステップS60の内側境界の判定動作の何れかと同一であってもよい。
 虹彩認証部212は、虹彩認証を行う(ステップS21)。ステップS73において判定部211が内側境界を判定した場合は、虹彩認証部212は、内側境界に基づき、虹彩認証対象者の虹彩認証を行う。
 一方、入力情報が入力されなかった場合(ステップS71:No)、及びパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値以上である場合(ステップS72:No)は、虹彩認証部212は、目画像に含まれるすべての虹彩領域Irを用いた虹彩認証を行ってもよい(ステップS21)。
 すなわち、変更部413は、虹彩認証対象者がパターンコンタクトレンズを装着していることを示す入力情報が情報処理装置7に入力され且つパターンコンタクトレンズが含むパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満である場合に、位置関係を変更する。一方で、変更部413は、入力情報が情報処理装置7に入力されない、又は、入力情報が情報処理装置7に入力され且つ分離度が所定値以上の場合に、位置関係を変更しない。
 第7実施形態では、虹彩認証対象者がパターンコンタクトレンズを着用していない場合は、通常通りの目画像に含まれる虹彩領域全てを用いた虹彩認証行ってもよい。また、虹彩領域Irの模様とパターン領域Paの模様とが区別できる場合は、虹彩を正面から撮像した目画像を用いた虹彩認証を行ってもよい。そして、虹彩領域Irの模様とパターン領域Paの模様とが区別できない場合は、第2実施形態から第6実施形態の何れかの実施形態における内側境界の判定動作を行ってもよい。
 [7-3:情報処理装置7の技術的効果]
 虹彩認証においては、大きな虹彩領域Irを用いる方が、虹彩認証の精度を向上させることができる。第7実施形態における情報処理装置7は、虹彩認証対象者がパターンコンタクトレンズを着用していない場合は、通常通りの目画像に含まれる虹彩領域Ir全てを用いる虹彩認証行うので、虹彩認証の精度が良好である。また、情報処理装置7は、虹彩の模様とパターンコンタクトレンズの模様とが区別できる場合は、虹彩を正面から撮像した画像を用いて虹彩認証を行ってもよい。すなわち、情報処理装置7は、虹彩認証対象者に視線の移動を促す等をしないので、虹彩認証対象者の利便性が良好である。そして、情報処理装置7は、虹彩の模様とパターンコンタクトレンズの模様とが区別できない場合は、第2実施形態から第6実施形態の何れかの実施形態における内側境界の判定動作を行うので、虹彩認証対象者の虹彩認証の成功率を向上させることができる。
 [8:第8実施形態]
 情報処理装置、情報処理方法、及び、記録媒体の第8実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第8実施形態が適用された情報処理装置8を用いて、情報処理装置、情報処理方法、及び記録媒体の第8実施形態について説明する。
 [8-1:情報処理装置8の構成]
 図16を参照しながら、第8実施形態における情報処理装置8の構成について説明する。図16は、第8実施形態における情報処理装置8の構成を示すブロック図である。
 図16に示すように、第8実施形態における情報処理装置8は、第4実施形態における情報処理装置4から第6実施形態における情報処理装置6の少なくとも一つと同様に、演算装置21と、記憶装置22とを備えている。更に、情報処理装置8は、情報処理装置4から情報処理装置6の少なくとも一つと同様に、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置8は、通信装置23、入力装置24及び出力装置25のうちの少なくとも1つを備えていなくてもよい。第8実施形態における情報処理装置8は、第4実施形態における情報処理装置4から第6実施形態における情報処理装置6の少なくとも一つと比較して、演算装置21がパターンコンタクトレンズ装着判定部817、及び分離度判定部716を備えている点で異なる。情報処理装置8のその他の特徴は、情報処理装置4から情報処理装置6の少なくとも一つのその他の特徴と同一であってもよい。パターンコンタクトレンズ装着判定部817、及び分離度判定部716の詳細については、後述する。
 [8-2:情報処理装置8が行う情報処理動作]
 図17を参照して、第8実施形態における情報処理装置8が行う情報処理動作の流れを説明する。図17は、第8実施形態における情報処理装置8が行う情報処理動作の流れを示すフローチャートである。
 図17に示すように、取得部414は、虹彩認証対象者の目画像を取得する(ステップS80)。虹彩認証部212は、目画像に含まれるすべての虹彩領域を用いて虹彩認証を行う(ステップS81)。
 虹彩認証部212は、ステップS81における虹彩認証が失敗したか否かを判定する(ステップS82)。虹彩認証が失敗した場合(ステップS82:Yes)、パターンコンタクトレンズ装着判定部817は、虹彩認証対象者がパターンコンタクトレンズを装着しているか否かを判定する(ステップS83)。パターンコンタクトレンズ装着判定部817は、例えば、眼球の白い部分と隣接する部分の動きと、瞳孔領域Puの動きとに差異がある場合に、虹彩認証対象者がパターンコンタクトレンズを装着していると判定してもよい。眼球の白い部分とは、所謂白目、眼球の外側の白色の被膜である強膜であってもよい。
 虹彩認証対象者がパターンコンタクトレンズを装着していた場合(ステップS83:Yes)、分離度判定部716は、パターンコンタクトレンズが含むパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満であるか否かを判定する(ステップS72)。判定方法は第7実施形態のステップS72と同様である。
 パターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満である場合(ステップS72:Yes)、判定部211は、内側境界の判定を行う(ステップS73)。第7実施形態におけるステップS73の内側境界の判定動作は、第2実施形態におけるステップS20の内側境界の判定動作、第3実施形態におけるステップS30の内側境界の判定動作、第4実施形態におけるステップS40の内側境界の判定動作、第5実施形態におけるステップS50の内側境界の判定動作、及び第6実施形態におけるステップS60の内側境界の判定動作の何れかと同一であってもよい。
 虹彩認証部212は、虹彩認証を行う(ステップS21)。ステップS73において判定部211が内側境界を判定した場合は、内側境界に基づき、虹彩認証対象者の虹彩認証を行う。
 一方、ステップS81における虹彩認証が失敗した場合(ステップS82:No)、虹彩認証対象者がパターンコンタクトレンズを装着していない場合(ステップS83:No)及びパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値以上である場合(ステップS72:No)は、情報処理動作が終了する。
 すなわち、変更部413は、虹彩認証対象者の虹彩認証が失敗した場合、虹彩認証対象者がパターンコンタクトレンズを装着している場合、及び/又は、パターンコンタクトレンズが含むパターン領域Paの模様と虹彩認証対象者の虹彩領域Irの模様との分離度が所定値未満である場合に、位置関係を変更する。
 第8実施形態では、通常通りの目画像に含まれる虹彩領域全てを用いる虹彩認証に失敗した場合、第2実施形態から第6実施形態の何れかの実施形態における内側境界の判定動作を行い、虹彩認証対象者の虹彩認証の成功率を向上させる。
 なお、虹彩認証が失敗した場合(ステップS82:Yes)、ステップS83の判定に代えて、第7実施形態のステップS71の判定を実施し、虹彩認証対象者にパターンコンタクトレンズを装着していることを自己申告させてもよい。
 また、ステップS82、ステップS83、及びステップS72の少なくとも1つのステップを実施しなくてもよい。
 [8-3:情報処理装置8の技術的効果]
 虹彩認証においては、大きな虹彩領域Irを用いる方が、虹彩認証の精度を向上させることができる。第8実施形態における情報処理装置8は、まずは、通常通りの目画像に含まれる虹彩領域全てを用いる虹彩認証行うので、虹彩認証の精度が良好である。そして、情報処理装置8は、虹彩認証対象者がパターン領域Paの模様と虹彩領域Irの模様とが区別しにくいパターンコンタクトレンズを装着していることが原因で虹彩認証に失敗した場合にも、第2実施形態から第6実施形態の何れかの実施形態における内側境界の判定動作を行うので、虹彩認証対象者がパターンコンタクトレンズを着用している場合に虹彩認証ができなくなるリスクを低減させ、虹彩認証対象者の虹彩認証の成功率を向上させて、ユーザビリティを向上させることができる。
 [9:付記]
 以上説明した実施形態に関して、更に以下の付記を開示する。
 [付記1]
 所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定する判定手段と、
 前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う虹彩認証手段と
 を備える情報処理装置。
 [付記2]
 前記虹彩認証手段は、前記内側境界に基づいて、前記パターンコンタクトレンズが含むパターン領域を抽出し、前記目画像における当該パターン領域をマスクするか、あるいは前記目画像から抽出した虹彩特徴量の中で当該パターン領域に対応する特徴量をマスクするか、あるいは、前記目画像から抽出した虹彩特徴量を使って行ったマッチング結果の中で当該パターン領域に対応する結果をマスクするかして、前記虹彩認証対象者の前記虹彩認証を行う
 付記1に記載の情報処理装置。
 [付記3]
 前記判定手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっている場合、当該重なっている領域を用いて前記内側境界を判定する
 付記1又は2に記載の情報処理装置。
 [付記4]
 前記判定手段は、前記瞳孔領域と前記パターン領域とが重なっている場合、前記パターンコンタクトレンズの中心から前記重なっている領域の内側までの距離に基づいて前記パターン領域の内側半径を算出し、当該内側半径に基づいて前記内側境界を判定する
 付記3に記載の情報処理装置。
 [付記5]
 前記虹彩認証対象者の視線の方向と、前記虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更する変更手段を更に備える
 付記3又は4に記載の情報処理装置。
 [付記6]
 前記変更手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっていない場合、かつ、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域が虹彩の大きさに比べて所定以上の大きさの場合に、前記位置関係を変更する
 を更に備える付記5に記載の情報処理装置。
 [付記7]
 前記変更手段は、視線の方向を変更するように前記虹彩認証対象者に促す第1動作、視線の方向を固定したまま顔の向きを変更するように前記虹彩認証対象者に促す第2動作、及び、前記虹彩認証対象者を撮像する撮像装置を前記虹彩認証対象者に対して移動させる第3動作の内の少なくとも一つを行うことで、前記位置関係を変更する
 付記5又は6に記載の情報処理装置。
 [付記8]
 前記変更手段は、前記虹彩認証対象者が前記パターンコンタクトレンズを装着していることを示す入力情報が前記情報処理装置に入力され且つ前記パターンコンタクトレンズが含む前記パターン領域の模様と前記虹彩認証対象者の虹彩領域の模様との分離度が所定値未満である場合に、前記位置関係を変更し、
 前記変更手段は、前記入力情報が前記情報処理装置に入力されない、又は、前記入力情報が前記情報処理装置に入力され且つ前記分離度が前記所定値以上である場合に、前記位置関係を変更しない
 付記5~7の何れか1項に記載の情報処理装置。
 [付記9]
 前記変更手段は、前記虹彩認証対象者の虹彩認証が失敗した場合、前記虹彩認証対象者が前記パターンコンタクトレンズを装着している場合、及び/又は、前記パターンコンタクトレンズが含む前記パターン領域の模様と前記虹彩認証対象者の虹彩領域の模様との分離度が所定値未満である場合に、前記位置関係を変更する
 付記5~8のいずれか1項に記載の情報処理装置。
 [付記10]
 前記判定手段は、前記虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び前記虹彩認証対象者の視線が前記第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像同士のマッチングを行い、前記内側境界を判定する
 付記1~9の何れか1項に記載の情報処理装置。
 [付記11]
 前記判定手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっていない場合、前記虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び前記虹彩認証対象者の視線が前記第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像同士のマッチングを行い、前記内側境界を判定する
 付記1~9の何れか1項に記載の情報処理装置。
 [付記12]
 前記判定手段は、前記複数の目画像同士のマッチングの前に、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域に近接する前記虹彩認証対象者の虹彩領域の模様を用いて、前記複数の目画像同士の瞳孔を中心とした回転角を合わせる
 付記10又は11に記載の情報処理装置。
 [付記13]
 前記判定手段は、前記第1の目画像と前記第2の目画像とのマッチングを行い、前記第1の目画像と前記第2の目画像とで共通する共通領域を抽出し、前記虹彩認証対象者の瞳孔領域の中心から前記共通領域の外側境界までの距離を算出し、当該距離のうちの最長の長さに基づき、前記パターン領域の内側半径を算出し、当該内側半径に基づいて前記内側境界を判定する
 付記10~12の何れか1項に記載の情報処理装置。
 [付記14]
 前記複数の目画像は、前記虹彩認証対象者に視線の方向を変更させて撮像した複数の目画像、前記虹彩認証対象者の視線を固定させて、前記虹彩認証対象者に顔の向きを変更させて撮像した複数の目画像、前記目画像を撮像する撮像装置を移動させて撮像した複数の目画像、及び前記目画像を複数の撮像装置で撮像した複数の目画像のうち少なくとも1つを含む
 付記10~13の何れか1項に記載の情報処理装置。
 [付記15]
 所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、
 前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う
 情報処理方法。
 [付記16]
 コンピューターに、
 所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、
 前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う
 情報処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述のこの開示で引用した全ての文献(例えば、公開公報)の開示を援用してこの開示の記載の一部とする。
 この開示は、請求の範囲及び明細書全体から読み取るこのできる技術的思想に反しない範囲で適宜変更可能である。そのような変更を伴う情報処理装置、情報処理方法、及び、記録媒体もまた、この開示の技術的思想に含まれる。
1,2,3,4,5,6,7,8 情報処理装置
11,211 判定部
12,212 虹彩認証部
413 変更部
414 取得部
715 入出力制御部
716 分離度判定部
817 パターンコンタクトレンズ装着判定部
Pu 瞳孔領域
Ir 虹彩領域
Pa パターン領域

Claims (16)

  1.  所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定する判定手段と、
     前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う虹彩認証手段と
     を備える情報処理装置。
  2.  前記虹彩認証手段は、前記内側境界に基づいて、前記パターンコンタクトレンズが含むパターン領域を抽出し、前記目画像における当該パターン領域をマスクするか、あるいは前記目画像から抽出した虹彩特徴量の中で当該パターン領域に対応する特徴量をマスクするか、あるいは、前記目画像から抽出した虹彩特徴量を使って行ったマッチング結果の中で当該パターン領域に対応する結果をマスクするかして、前記虹彩認証対象者の前記虹彩認証を行う
     請求項1に記載の情報処理装置。
  3.  前記判定手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっている場合、当該重なっている領域を用いて前記内側境界を判定する
     請求項1又は2に記載の情報処理装置。
  4.  前記判定手段は、前記瞳孔領域と前記パターン領域とが重なっている場合、前記パターンコンタクトレンズの中心から前記重なっている領域の内側までの距離に基づいて前記パターン領域の内側半径を算出し、当該内側半径に基づいて前記内側境界を判定する
     請求項3に記載の情報処理装置。
  5.  前記虹彩認証対象者の視線の方向と、前記虹彩認証対象者を撮像する撮像装置の撮像方向との位置関係を変更する変更手段を更に備える
     請求項3又は4に記載の情報処理装置。
  6.  前記変更手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっていない場合、かつ、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域が所定以上の大きさの場合に、前記位置関係を変更する
     を更に備える請求項5に記載の情報処理装置。
  7.  前記変更手段は、視線の方向を変更するように前記虹彩認証対象者に促す第1動作、視線の方向を固定したまま顔の向きを変更するように前記虹彩認証対象者に促す第2動作、及び、前記虹彩認証対象者を撮像する撮像装置を前記虹彩認証対象者に対して移動させる第3動作の内の少なくとも一つを行うことで、前記位置関係を変更する
     請求項5又は6に記載の情報処理装置。
  8.  前記変更手段は、前記虹彩認証対象者が前記パターンコンタクトレンズを装着していることを示す入力情報が前記情報処理装置に入力され且つ前記パターンコンタクトレンズが含む前記パターン領域の模様と前記虹彩認証対象者の虹彩領域の模様との分離度が所定値未満である場合に、前記位置関係を変更し、
     前記変更手段は、前記入力情報が前記情報処理装置に入力されない、又は、前記入力情報が前記情報処理装置に入力され且つ前記分離度が前記所定値以上である場合に、前記位置関係を変更しない
     請求項5~7の何れか1項に記載の情報処理装置。
  9.  前記変更手段は、前記虹彩認証対象者の虹彩認証が失敗した場合、前記虹彩認証対象者が前記パターンコンタクトレンズを装着している場合、及び/又は、前記パターンコンタクトレンズが含む前記パターン領域の模様と前記虹彩認証対象者の虹彩領域の模様との分離度が所定値未満である場合に、前記位置関係を変更する
     請求項5~8のいずれか1項に記載の情報処理装置。
  10.  前記判定手段は、前記虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び前記虹彩認証対象者の視線が前記第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像同士のマッチングを行い、前記内側境界を判定する
     請求項1~9の何れか1項に記載の情報処理装置。
  11.  前記判定手段は、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域と前記パターン領域とが重なっていない場合、前記虹彩認証対象者の視線が第1の方向に向いた第1の目画像、及び前記虹彩認証対象者の視線が前記第1の方向とは異なる第2の方向に向いた第2の目画像を少なくとも含む複数の目画像同士のマッチングを行い、前記内側境界を判定する
     請求項1~9の何れか1項に記載の情報処理装置。
  12.  前記判定手段は、前記複数の目画像同士のマッチングの前に、前記目画像に含まれる前記虹彩認証対象者の瞳孔領域に近接する前記虹彩認証対象者の虹彩領域の模様を用いて、前記複数の目画像同士の瞳孔を中心とした回転角を合わせる
     請求項10又は11に記載の情報処理装置。
  13.  前記判定手段は、前記第1の目画像と前記第2の目画像とのマッチングを行い、前記第1の目画像と前記第2の目画像とで共通する共通領域を抽出し、前記虹彩認証対象者の瞳孔領域の中心から前記共通領域の外側境界までの距離を算出し、当該距離のうちの最長の長さに基づき、前記パターン領域の内側半径を算出し、当該内側半径に基づいて前記内側境界を判定する
     請求項10~12の何れか1項に記載の情報処理装置。
  14.  前記複数の目画像は、前記虹彩認証対象者に視線の方向を変更させて撮像した複数の目画像、前記虹彩認証対象者の視線を固定させて、前記虹彩認証対象者に顔の向きを変更させて撮像した複数の目画像、前記目画像を撮像する撮像装置を移動させて撮像した複数の目画像、及び前記目画像を複数の撮像装置で撮像した複数の目画像のうち少なくとも1つを含む
     請求項10~13の何れか1項に記載の情報処理装置。
  15.  所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、
     前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う
     情報処理方法。
  16.  コンピューターに、
     所定のパターン領域を含むパターンコンタクトレンズを虹彩認証対象者が装着している場合に、当該虹彩認証対象者の目を含む目画像から、当該目画像に含まれる前記パターン領域の内側境界を判定し、
     前記内側境界に基づき、前記虹彩認証対象者の虹彩認証を行う
     情報処理方法を実行させるためのコンピュータプログラムが記録されている記録媒体。
PCT/JP2022/012736 2022-03-18 2022-03-18 情報処理装置、情報処理方法、及び、記録媒体 WO2023175939A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012736 WO2023175939A1 (ja) 2022-03-18 2022-03-18 情報処理装置、情報処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012736 WO2023175939A1 (ja) 2022-03-18 2022-03-18 情報処理装置、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2023175939A1 true WO2023175939A1 (ja) 2023-09-21

Family

ID=88022968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012736 WO2023175939A1 (ja) 2022-03-18 2022-03-18 情報処理装置、情報処理方法、及び、記録媒体

Country Status (1)

Country Link
WO (1) WO2023175939A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124733A (ja) * 2017-01-31 2018-08-09 ソニー株式会社 電子機器、情報処理方法およびプログラム
WO2019044943A1 (ja) * 2017-08-30 2019-03-07 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体
WO2020065935A1 (ja) * 2018-09-28 2020-04-02 日本電気株式会社 認証装置、認証方法、及び、記録媒体
JP2020531986A (ja) * 2017-08-30 2020-11-05 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124733A (ja) * 2017-01-31 2018-08-09 ソニー株式会社 電子機器、情報処理方法およびプログラム
WO2019044943A1 (ja) * 2017-08-30 2019-03-07 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体
JP2020531986A (ja) * 2017-08-30 2020-11-05 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体
WO2020065935A1 (ja) * 2018-09-28 2020-04-02 日本電気株式会社 認証装置、認証方法、及び、記録媒体

Similar Documents

Publication Publication Date Title
KR102359558B1 (ko) 얼굴 인증 방법 및 장치
KR101495430B1 (ko) 바이오메트릭 인증을 위한 품질 메트릭
US20210287026A1 (en) Method and apparatus with liveness verification
EP2883189B1 (en) Spoof detection for biometric authentication
KR101309889B1 (ko) 바이오메트릭 인증을 위한 텍스처 특징
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
KR101415287B1 (ko) 라이브니스 검출을 위한 방법, 컴퓨터 판독가능한 저장 디바이스 및 컴퓨팅 디바이스
KR20190136349A (ko) 3d 영상 기반의 얼굴 인증 방법 및 장치
CN111344703A (zh) 基于虹膜识别的用户认证设备和方法
CN110647955A (zh) 身份验证方法
JP6855872B2 (ja) 顔認識装置
KR20210069404A (ko) 라이브니스 검사 방법 및 라이브니스 검사 장치
US20210056291A1 (en) Method for analysis of an intrinsic facial feature of a face
JP4706377B2 (ja) 生体判別装置および認証装置ならびに生体判別方法
WO2023175939A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2022244357A1 (ja) 生体の認証システムおよび認証方法
KR102316587B1 (ko) 홍채들로부터의 생체정보 인식 방법
KR102579610B1 (ko) Atm 이상행동감지 장치 및 그 장치의 구동방법
KR102325251B1 (ko) 근태 메뉴의 활성화가 가능한 얼굴 인식 시스템 및 방법
WO2023079587A1 (ja) 生体認証装置、生体認証方法、及び、記録媒体
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932209

Country of ref document: EP

Kind code of ref document: A1