WO2019044944A1 - 画像処理システム、画像処理方法及び記憶媒体 - Google Patents

画像処理システム、画像処理方法及び記憶媒体 Download PDF

Info

Publication number
WO2019044944A1
WO2019044944A1 PCT/JP2018/032052 JP2018032052W WO2019044944A1 WO 2019044944 A1 WO2019044944 A1 WO 2019044944A1 JP 2018032052 W JP2018032052 W JP 2018032052W WO 2019044944 A1 WO2019044944 A1 WO 2019044944A1
Authority
WO
WIPO (PCT)
Prior art keywords
iris
contact lens
image
colored contact
determination target
Prior art date
Application number
PCT/JP2018/032052
Other languages
English (en)
French (fr)
Inventor
護 井上
ジニト バット
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP18851326.1A priority Critical patent/EP3678091A4/en
Priority to US16/485,594 priority patent/US11017226B2/en
Priority to JP2019539603A priority patent/JP7010295B2/ja
Priority to CN201880056307.XA priority patent/CN111033562B/zh
Publication of WO2019044944A1 publication Critical patent/WO2019044944A1/ja
Priority to US17/306,371 priority patent/US11636711B2/en
Priority to JP2022000319A priority patent/JP7298720B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Definitions

  • the present invention relates to an image processing system, an image processing method, and a storage medium.
  • Patent Document 1 discloses a personal authentication method using an iris image.
  • the personal identification method it is disclosed that the influence of the eyelashes on the identification accuracy is reduced by setting the mask area below the upper eyelid and performing authentication using the image of the iris area excluding the mask area. ing.
  • the present invention has been made in view of the above problems, and an image processing system, an image processing method, and a storage medium capable of accurately determining whether a person to be matched wears a colored contact lens. Intended to be provided.
  • an image processing system comprising: a determination unit that determines
  • a storage medium is provided, characterized in that it comprises the steps of:
  • an image processing system an image processing method, and a storage medium capable of accurately determining whether a person to be matched wears a colored contact lens.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of an iris comparison system 10 that performs iris comparison according to a first embodiment of the present invention.
  • the iris verification system 10 may be, for example, a computer such as a mobile phone, a smartphone, a tablet PC (Personal Computer), a laptop PC, a desktop PC, or a data communication terminal.
  • the iris matching system 10 has a function of iris matching, which is a type of biometric matching.
  • the iris collation system 10 performs iris collation by photographing an iris of a user who is a person to be collated and collating with a registered iris image.
  • the pattern of the iris that adjusts the aperture diameter of the pupil is inhomogeneous and lifelong.
  • identity verification is possible by matching the pattern of the iris acquired at the time of matching with the image of the iris registered in advance.
  • the iris collation system 10 is installed in a smartphone as an example, and iris collation is assumed to be performed for identity verification at the time of user login, but is not limited thereto. Absent.
  • the iris collation system 10 includes a central processing unit (CPU) 101, a random access memory (RAM) 102, a read only memory (ROM) 103, and a flash memory 104 in order to realize a function as a computer that performs calculation and storage. Further, the iris verification system 10 includes a communication I / F (interface) 105, a display device 106, an input device 107, a visible light irradiation device 108, a visible light camera 109, an infrared irradiation device 110, and an infrared camera 111.
  • CPU central processing unit
  • RAM random access memory
  • ROM read only memory
  • flash memory 104 in order to realize a function as a computer that performs calculation and storage.
  • the iris verification system 10 includes a communication I / F (interface) 105, a display device 106, an input device 107, a visible light irradiation device 108, a visible light camera 109, an infrared ir
  • the display device 106, the input device 107, the visible light irradiation device 108, the visible light camera 109, the infrared light irradiation device 110, and the infrared camera 111 are connected to the bus 112 via a drive device (not shown) for driving these devices. It may be connected.
  • each unit constituting the iris collation system 10 is illustrated as an integral device, but a part of these functions may be configured by an external device.
  • the visible light irradiation device 108, the visible light camera 109, the infrared light irradiation device 110, or the infrared camera 111 may be an external device different from the part that constitutes the function of the computer including the CPU 101 and the like.
  • the CPU 101 performs a predetermined operation according to a program stored in the ROM 103, the flash memory 104 or the like, and also has a function of controlling each part of the iris collation system 10.
  • the RAM 102 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the CPU 101.
  • the ROM 103 is composed of a non-volatile storage medium, and stores necessary information such as a program used for the operation of the iris matching system 10.
  • the flash memory 104 is a storage device configured from a non-volatile storage medium and storing an image captured by the infrared camera 111 or the like, an image to be collated, feature data, and the like.
  • the communication I / F 105 is a communication interface based on a standard such as Wi-Fi (registered trademark) or 4G, and is a module for communicating with another device.
  • the display device 106 is a liquid crystal display, an organic light emitting diode (OLED) display, or the like, and is used to display moving images, still images, characters, and the like.
  • the input device 107 is a button, a touch panel or the like, and is used by the user to operate the iris comparison system 10.
  • the display device 106 and the input device 107 may be integrally formed as a touch panel.
  • the visible light irradiation device 108 and the visible light camera 109 are provided, for example, on the display surface of the display device 106 or the like.
  • the visible light irradiation device 108 is used, for example, as a light source for photographing with the visible light camera 109.
  • the visible light irradiation device 108 can be used as a visible light irradiation unit that performs a process of contracting the pupil by irradiating the eye of the user with visible light and causing light reflection.
  • the visible light camera 109 can capture a landscape, a user's face, eyes, and the like with visible light to obtain an image.
  • a digital camera using a complementary metal oxide semiconductor (CMOS) image sensor, a charge coupled device (CCD) image sensor, or the like may be used so as to be suitable for image processing after shooting.
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the infrared irradiation device 110 is a light emitting element that emits infrared light such as an infrared LED.
  • the infrared camera 111 a digital camera using a CMOS image sensor provided with a light receiving element configured to have sensitivity to infrared light, a CCD image sensor or the like may be used.
  • the visible light camera 109 may be used to capture an iris image.
  • the infrared irradiation device 110 and the infrared camera 111 can be omitted.
  • the infrared camera 111 can also be omitted if the visible light camera is a camera capable of acquiring an infrared image in addition to visible light.
  • the wavelength of the infrared rays irradiated from the infrared irradiation apparatus 110 may be a near-infrared area
  • the hardware configuration illustrated in FIG. 1 is an example, and devices other than these may be added, or some devices may not be provided. Also, some devices may be replaced with other devices having similar functions. Furthermore, some functions may be provided by another device via a network, and the functions constituting the present embodiment may be distributed and realized in a plurality of devices.
  • the flash memory 104 may be replaced by a hard disk drive (HDD) or a cloud storage.
  • FIG. 2 is a functional block diagram of the iris matching system 10 according to the first embodiment.
  • the iris collation system 10 includes an image acquisition unit 121, a pupil detection unit 122, an iris detection unit 123, a determination target image extraction unit 124, a size change unit 125, an evaluation value calculation unit 126, a determination unit 127, a processing unit 128, and a display unit 129.
  • the extraction range setting unit 130, the feature amount calculation unit 131, the matching unit 132, and the storage unit 133 are included.
  • the CPU 101 implements the function of the image acquisition unit 121 that acquires an infrared image of the user's eye by controlling the infrared irradiation device 110 and the infrared camera 111.
  • the CPU 101 loads the program stored in the ROM 103 or the like into the RAM 102 and executes the program to execute the pupil detection unit 122, the iris detection unit 123, the determination target image extraction unit 124, the size change unit 125, the evaluation value calculation unit 126, and the determination.
  • the functions of the unit 127, the processing unit 128, the extraction range setting unit 130, the feature amount calculation unit 131, and the matching unit 132 are realized. The processing performed by each of these units will be described later.
  • the display unit 129 displays the acquired image, a message to the user, and the like.
  • the CPU 101 implements the function of the display unit 129 by controlling the display device 106.
  • the storage unit 133 stores data such as an iris image acquired by the image acquisition unit 121, an iris image registered in advance, and a feature amount calculated from these iris images.
  • the CPU 101 implements the function of the storage unit 133 by controlling the flash memory 104.
  • FIG. 3 is a flowchart showing an outline of processing performed by the iris matching system 10 according to the first embodiment.
  • the iris comparison system 10 determines whether the colored contact lens is worn on the user's eye based on the image including the user's eye.
  • a coloring contact lens is a contact lens in which a coloring part is provided in a part of lens.
  • Colored contact lenses are sometimes referred to as color contact lenses, circle contact lenses, and cosmetic contact lenses.
  • wearing a colored contact lens it is possible to obtain a decorative effect of changing the color of the iris or making the iris look large.
  • the colored area of the colored contact lens is mainly provided in the part corresponding to the vicinity of the outer periphery of the iris, and the part corresponding to the pupil is transparent. This is to prevent the visual field from being impaired while obtaining a decorative effect that makes the iris look large.
  • step S100 it is determined based on the image including the user's eyes whether or not the colored contact lens is worn, prior to iris collation. The content of the subsequent processing can be made more appropriate based on the wearing of the colored contact lens.
  • step S200 the iris comparison system 10 performs processing for improving the comparison accuracy. This process is mainly performed to reduce the accuracy degradation of the iris collation caused by the colored contact lens when it is determined in step S100 that the colored contact lens is worn.
  • step S300 the iris collation system 10 collates the image including the iris of the user captured at the time of collation with the image including the iris of the user registered in advance.
  • the processing content can be changed according to the determination result of wearing the colored contact lens of step S100.
  • the iris collation system 10 collates the iris using the feature value extracted from the area excluding the predetermined range including the outer periphery of the iris among the iris areas included in the image. I do.
  • step S100 it is not essential to execute all the processes from step S100 to step S300 shown in FIG. 3, and an embodiment in which a part is omitted is also included in the scope of the present invention.
  • the process may be simplified by omitting the matching accuracy improvement process of step S200.
  • the processing in step S100 may be omitted to simplify the processing by determining in advance whether or not the colored contact lens is worn by another device, or by having the user input whether or not to wear the colored contact lens. .
  • an image processing system that solely executes the process of determining wearing of the colored contact lens in step S100 is also included in the scope of the present invention.
  • the processing of steps S100 to S300 may be performed by a plurality of devices in cooperation.
  • FIG. 4 is a flowchart showing the wearing determination process of the colored contact lens according to the first embodiment.
  • the process of FIG. 4 is a more specific version of the process of step S100 of FIG.
  • step S101 the image acquisition unit 121 acquires an image including the eye of the user.
  • the acquired image is stored in the storage unit 133.
  • this image is a gray scale image as it was acquired by infrared radiation.
  • the size of the image is, for example, 640 pixels wide by 480 pixels high. However, since the size is changed by the processing described later, other sizes may be used.
  • terms that indicate the size of an image, the length of an object, etc. may be defined by a standardized dimensionless quantity such as the number of pixels, and the length of a millimeter etc. It is not limited to what is defined by a unit having the dimension of.
  • the image including the eyes of the user is not limited to one obtained by infrared light, and may be one obtained by visible light.
  • the pupil detection unit 122 detects a pupil from the image including the eye acquired in step S101, and specifies the position of the pupil.
  • the identified pupil position is stored in the storage unit 133.
  • the shape of the pupil can be approximated as a circle. Therefore, the position of the pupil can be expressed, for example, by the central coordinates and the radius of the pupil.
  • the pupil area can be detected, for example, by extracting a pixel having a luminance lower than a predetermined value.
  • the iris detection unit 123 detects an iris from the image including the eye acquired in step S101, and specifies the position of the iris.
  • the position of the identified iris is stored in the storage unit 133.
  • the pupil detection unit 122 and the iris detection unit 123 may be more generally referred to as a detection unit.
  • the shape of the iris can be approximated as a toric shape containing the pupil, so that the position of the iris can be expressed, for example, by the central coordinates of the iris, the outer radius, and the inner radius.
  • the inner radius of the iris may be omitted from the information indicating the position of the iris since it corresponds to the radius of the pupil.
  • the iris can be detected, for example, by extracting a change in luminance at the boundary between the outer periphery of the iris and the sclera (so-called white eyes).
  • the iris detected here includes not only the iris itself of the user but also a pattern that imitates the iris applied to the colored contact lens. Therefore, in the present specification, the entire area that looks like an iris in appearance, including the iris and the pattern applied to the colored contact lens, may be referred to as the iris.
  • the order of step S102 and step S103 may be reversed. Alternatively, steps S102 and S103 may be performed in parallel, or may be performed as one process.
  • step S104 the determination target image extraction unit 124 extracts two determination target images including the sides of the iris from the image including the eye acquired in step S101.
  • the side portion of the iris is the boundary between the outer periphery of the iris and the white eye, and refers to the left and right portions excluding the upper and lower portions hidden mainly in the eyelid.
  • the extracted determination target image is stored in the storage unit 133.
  • the two determination target images are used for the wearing determination of the colored contact lens. Extraction of the determination image will be described in detail with reference to FIG.
  • FIG. 5 is a view schematically showing extraction of a determination target image according to the first embodiment.
  • the eye 90, the pupil 91, and the iris 92 included in the image acquired in step S101 are schematically shown.
  • the determination target image extraction unit 124 extracts two determination target images R1 and R2 from the image of the eye 90.
  • the determination target image extraction unit 124 may be simply referred to as an extraction unit.
  • the determination target images R1 and R2 are extracted so as to include the left side and the right side of the iris 92, respectively.
  • the determination target images R1 and R2 are squares each having a side length of S (pixels). Further, one side of the square in the vertical direction with respect to the eye 90 among the sides of the square is a line segment passing the center of the iris 92.
  • m is a predetermined value set so that the determination target images R1 and R2 include the sides of the iris and neither the upper end nor the lower end of the iris 92, and is set to, for example, 30 pixels. .
  • the reason for setting the positions of the determination target images R1 and R2 in this manner will be described.
  • the pattern of the colored contact lens often has a distinctive feature near the outer periphery of the iris.
  • an eye wearing a colored contact lens often has a large change in luminance between the iris portion and the white eye portion. Therefore, the detection accuracy of the colored contact lens by the classifier is improved by performing the determination including the outer periphery of the iris in the determination target images R1 and R2.
  • the upper and lower parts of the iris may be hidden by the eyelids and eyelashes. If the determination target images R1 and R2 include eyelids or eyelashes, the determination accuracy may be degraded.
  • the positions of the determination target images R1 and R2 be set so as to include the sides of the iris and not include the upper end and the lower end of the iris. Further, since the determination target images R1 and R2 can be widely secured, it is preferable that one side in the vertical direction of the square be a line passing the center of the iris 92.
  • the determination target images R1 and R2 need not be square.
  • the determination target images R1 and R2 may be rectangular. That is, the shape of the determination target images R1 and R2 may be any shape that is not limited to a square or a rectangle, and as another example, the shape may include a polygon, a sector, or a curve.
  • the horizontal length of the determination target images R1 and R2 with respect to the eye 90 is, in order to include the sides of the iris and to include the iris as wide as possible. It is desirable to be larger than the outer peripheral radius of the iris 92.
  • step S105 the size changing unit 125 changes the sizes of the determination target images R1 and R2.
  • FIG. 6 is a view schematically showing size change of the determination target image according to the first embodiment.
  • the size changing unit 125 reduces the determination target images R1a and R2a by reducing the determination target images R1 and R2 having S pixels on one side to determination target images R1a and R2a having 32 sides on one side.
  • the reason for changing the size is to streamline processing by the later-described discriminator by setting the image to a fixed number of pixels so as to be suitable for the subsequent discrimination processing.
  • the determination target images R1a and R2a after the size change are stored in the storage unit 133.
  • the fact that one side is 32 pixels is an example, and the present invention is not particularly limited thereto. If it is not essential to limit the size in the processing of the discriminator, the processing of step S105 may be omitted.
  • FIG. 7 is a diagram schematically showing the determination process in steps S106 to S109.
  • the subsequent processing will be described with reference to FIGS. 4 and 7.
  • the evaluation value calculation unit 126 that executes this process includes, for example, a discriminator configured by a convolutional neural network (CNN).
  • the discriminator machine-trains a large number of images including an image of an eye wearing a colored contact lens and an image of an eye not wearing a colored contact lens in advance as teacher data, whereby a colored contact lens It is comprised so that the presence or absence of wearing of can be discriminate
  • an evaluation value indicating the possibility of wearing a colored contact lens is output.
  • the evaluation value is, for example, a continuous value from 0 to 1. In this case, the evaluation value approaches 0 as the possibility of not wearing the colored contact lens increases, and the evaluation value approaches 1 as the possibility of wearing the colored contact lens increases.
  • step S106 the discriminator of the evaluation value calculator 126 calculates two evaluation values V1 and V2 based on the two determination target images R1a and R2a, respectively.
  • the evaluation value is stored in the storage unit 133.
  • the determination unit 127 determines the presence or absence of a colored contact lens on the basis of the two evaluation values V1 and V2. More specifically, in step S107, the determination unit 127 determines whether each of the evaluation value V1 and the evaluation value V2 is 0.9 or more. If the evaluation value V1 and the evaluation value V2 are both 0.9 or more (YES in step S107), the determination unit 127 determines that a colored contact lens is worn (step S108). If at least one of the evaluation value V1 and the evaluation value V2 is less than 0.9 (NO in step S107), the determination unit 127 determines that the colored contact lens is not worn (step S109).
  • the colored contact lens is worn only when the determination results from the two determination target images R1a and R2a indicate that both are wearing a colored contact lens. It is determined that There are various types of colored contact lenses, and there are individual differences in the design of the iris and the like. Therefore, even when learning is performed using a sufficient amount of teacher data, the discriminator may misjudge. Therefore, in order to improve the determination accuracy, it is desirable to input both of the two determination target images R1a and R2a as described above, and to make a determination by integrating the determination results of these.
  • the discriminator of the evaluation value calculation unit 126 calculates one evaluation value from one determination target image. Thereafter, the determination unit 127 determines that the colored contact lens is worn when the evaluation value is 0.9 or more, and determines that the colored contact lens is not worn when the evaluation value is less than 0.9. Thus, the presence or absence of wearing can be determined. Thus, the number of determination target images may be one.
  • the presence or absence of the wearing of the colored contact lens is accurately determined by performing the determination based on the determination target image including the side portion of the outer periphery of the iris. It can be determined.
  • the present invention is not limited to this.
  • the change in luminance at the boundary of the iris with the white eye The wearing judgment of the colored contact lens may be made based on it.
  • step S107 when at least one of the evaluation value V1 and the evaluation value V2 is 0.9 or more, it is determined that the colored contact lens is worn, and both the evaluation value V1 and the evaluation value V2 If it is less than 0.9, it may be determined that the colored contact lens is not worn. Further, in the determination of step S107, one or more evaluation values are selected from among a plurality of evaluation values such as the evaluation value V1 and the evaluation value V2 according to the reliability of the determination target image, etc. It may be For example, when there is a plurality of determination target images whose reliability is not sufficient due to noise or the like, the accuracy of the determination is improved by excluding the evaluation value of such a determination target image from the determination processing. be able to. In the above-mentioned example, 0.9 which is a threshold for judgment of evaluation value V1 and evaluation value V2 is an example to the last, and may be set as any value other than this.
  • step S200 of FIG. 3 a specific example of the matching accuracy improvement processing in step S200 of FIG. 3 will be described.
  • FIG. 8 is a flowchart showing a first example of the matching accuracy improvement processing according to the first embodiment.
  • the processing unit 128 refers to the determination result of step S100. If it is determined that the user wears a colored contact lens (YES in step S201), the process proceeds to step S202. If it is determined that the user does not wear a colored contact lens (NO in step S201), the process ends.
  • step S202 the processing unit 128 controls the visible light emitting device 108 to emit visible light to the user's eye. Thereafter, in step S203, the processing unit 128 causes the image acquisition unit 121 to reacquire an image including an eye.
  • FIG. 9 is a flowchart illustrating a second example of the matching accuracy improvement processing according to the first embodiment. Descriptions of processes similar to those in FIG. 8 will be omitted as appropriate.
  • the processing unit 128 causes the display unit 129 to display a message prompting the user to view a bright one. An example of a specific message may be "Please look at the bright one and look at the camera again to perform authentication again". After the user looks bright according to this message, in step S203, the processing unit 128 causes the image acquisition unit 121 to reacquire an image including an eye.
  • the visible light irradiation device 108 when the user looks at something bright, the light reflection causes the pupil to shrink and the area of the iris to widen. Therefore, it is possible to reduce the accuracy degradation of the iris matching by the colored contact lens.
  • the message may be a content that indicates more specifically what to look like, "Please look at the light once and then look at the camera again to perform authentication again".
  • step S100 If it is determined in step S100 that the colored contact lens is worn, processing may be performed to exclude the vicinity of the outer periphery of the iris from the extraction range of the feature amount in iris matching in step S300. At this time, it may be a problem that the area contributing to the extraction of the feature amount is reduced and the accuracy of iris matching is reduced. In such a situation, if the processing in FIGS. 8 and 9 is performed to reduce the pupil size, the area on the inner peripheral side of the iris that is not on the periphery of the outer periphery of the iris but on the opposite side can be enlarged. As a result, even when the vicinity of the outer periphery of the iris is excluded from the feature quantity extraction range, it is possible to perform iris matching with high accuracy.
  • FIG. 10 is a flowchart illustrating a third example of the matching accuracy improvement processing according to the first embodiment. Descriptions of processes similar to those in FIG. 8 will be omitted as appropriate.
  • the processing unit 128 displays a message prompting the display unit 129 to blink. An example of a specific message may be "Please blink and then look at the camera again to perform authentication again". After the user blinks according to this message, in step S206, the processing unit 128 causes the image acquisition unit 121 to additionally acquire an image including an eye.
  • the colored contact lens is rotated by causing the user to blink, and the position of the pattern of the colored contact lens changes before and after the blink.
  • the pattern of the iris itself of the user's eye does not change even when blinking. Therefore, it is possible to separate the pattern of the colored contact lens and the pattern of the iris of the user's eye by calculating the difference between the two images acquired before and after blinking, and to extract the pattern of the iris of the user's eye Matching can be performed accurately. Therefore, it is possible to reduce the accuracy degradation of the iris matching by the colored contact lens.
  • accuracy improvement processing can be performed.
  • the process of the flowchart of FIG. 10 may be modified into a process of acquiring an image a plurality of times by repeating the process of step S206 a plurality of times. Furthermore, in this case, the process of step S205 may be omitted. Since a person blinks unconsciously, even if a message prompting to blink is not displayed, the unconscious blink may rotate the colored contact lens. Therefore, even if the message is not displayed, it is possible to obtain an image for separating the pattern of the colored contact lens and the pattern of the iris of the user's eye by acquiring the image repeatedly. The same effect is obtained.
  • FIG. 11 is a flowchart showing a modification of the third example of the matching accuracy improvement processing according to the first embodiment.
  • the content of the message may prompt the user to move the eyes, such as instructing to look at the left and right.
  • An example of a specific message may be "Please look at the left and right once and look at the camera again to perform authentication again".
  • the movement of the eyeball rotates the colored contact lens, so that the same effect as in the case of prompting the above-described blink can be obtained in this modification as well.
  • the matching accuracy improvement processing of the present embodiment it is possible to reduce the accuracy degradation of iris matching caused by wearing a colored contact lens.
  • FIG. 12 is a flowchart showing iris matching processing according to the first embodiment.
  • the process of FIG. 12 is a more specific version of the process of step S300 of FIG.
  • step S301 the extraction range setting unit 130 refers to the determination result of step S100. If it is determined that the user wears a colored contact lens (YES in step S301), the process proceeds to step S302. If it is determined that the user does not wear a colored contact lens (NO in step S301), the process proceeds to step S303.
  • the extraction range setting unit 130 sets the extraction range of the feature amount excluding the vicinity of the outer periphery of the iris.
  • FIG. 13 is a diagram schematically illustrating the setting of the extraction range of the feature amount according to the first embodiment.
  • the area of the iris in the image is divided into a mask area 93 and a feature extraction area 94.
  • the mask area 93 is an area determined in accordance with the position of the outer periphery and the inner periphery of the iris, and is a range in which the feature amount used for the subsequent matching process is not extracted from the iris area.
  • the feature quantity extraction area 94 is an area for extracting the feature quantity in the area of the iris, and is an area excluding the mask area 93.
  • the mask area 93 is disposed near the outer periphery of the iris. That is, the feature quantity extraction region 94 is a range excluding a predetermined range including the outer periphery of the iris.
  • the range of the mask area 93 is defined as an annular ring including the outer peripheral end of the iris and having a width of 60% or more from the outer periphery of the iris toward the inner periphery. More specifically, when the outer peripheral radius of the iris is Ir1 and the inner peripheral radius is Ir2, the mask area 93 has an outer peripheral radius of Ir1 and an inner peripheral radius of ⁇ Ir2 + 0.4 ⁇ (Ir1-Ir2) ⁇ . It is a ring.
  • the reason for setting the mask area 93 and the feature extraction area 94 in this way will be described.
  • a large number of colored portions (patterns) are arranged at positions corresponding to the vicinity of the outer periphery of the iris. Therefore, when the colored contact lens is worn, if the feature amount is extracted from a region including the vicinity of the outer periphery of the iris and iris authentication is performed, the iris in a state in which the pattern of the colored contact lens overlaps the iris pattern As a result of matching, there is a problem that the matching accuracy may be reduced.
  • the same person is determined as the other person because the pattern of the iris not wearing the colored contact lens at the time of registration does not match the pattern of the state where the pattern of the colored contact lens overlaps on the pattern of the iris at the time of matching. It could have been.
  • the feature amount extraction region 94 By defining the feature amount extraction region 94 as a range excluding a predetermined range including the outer periphery of the iris, the vicinity of the outer periphery of the iris on which many patterns of colored contact lenses are arranged is excluded from the extraction of the feature amount.
  • a pattern is not often arranged in order to secure a field of view, which hardly affects iris collation. Therefore, it is possible to reduce the accuracy degradation of the iris matching caused by wearing the colored contact lens.
  • step S303 when the user does not wear a colored contact lens, the mask area 93 is not provided, and the feature quantity extraction area 94 is set for the entire iris.
  • the colored contact lens is not worn, it is not necessary to exclude the outer periphery from the feature extraction area, but rather the feature extraction area can be widened if not excluded, so the matching accuracy can be increased. it can. Therefore, it is desirable to perform different treatments depending on the presence or absence of the colored contact lens.
  • step S304 the feature amount calculation unit 131 calculates a feature amount using the iris pattern and the like included in the image of the set feature amount extraction area 94.
  • the calculated feature amount is stored in the storage unit 133.
  • step S305 the matching unit 132 matches the feature amount acquired in step S304 with the feature amount of the iris of the user registered in advance in the storage unit 133. If it is determined by collation that the iris is the same person, the iris collation system 10 determines that the identity verification has been completed, and performs processing such as login.
  • the person to be matched wears the colored contact lens by setting the range excluding the predetermined range including the outer periphery of the iris as the feature quantity extraction range. The impact on the matching accuracy of the case may be reduced.
  • the feature amount extraction region 94 is set by excluding the vicinity of the outer periphery of the iris by the method of step S302, it is more effective to combine any of the matching accuracy improvement processes described using FIG. 8 and FIG. .
  • the feature quantity extraction area 94 is narrowed by the amount of the mask area 93.
  • the mask area 93 is determined regardless of the pattern of the colored contact lens, so there is no need to perform the process of detecting the pattern of the colored contact lens, and high speed processing is possible.
  • processing to determine a colored portion of the colored contact lens by discriminating the pattern of the colored contact lens and the pattern of the user's iris itself may be added.
  • the colored portion of the colored contact lens is set as the mask area 93.
  • the mask area 93 which is the area near the outer periphery of the iris at the time of performing the iris collation It can be set based on the colored part of the lens.
  • the apparatus described in the above embodiments can be configured as in the following second to fourth embodiments.
  • FIG. 14 is a functional block diagram of the iris matching system 20 according to the second embodiment.
  • the iris comparison system 20 includes a determination unit 201 and a comparison unit 202.
  • the determination unit 201 determines whether or not the colored contact lens is worn based on the image including the eye of the person to be matched.
  • the matching unit 202 extracts the feature amount extracted from the area of the iris included in the image excluding the predetermined range including the outer periphery of the iris. Perform iris matching using.
  • the iris collation system 20 capable of reducing the influence on the collation accuracy when the person to be collated wears the colored contact lens.
  • FIG. 15 is a functional block diagram of an image processing system 30 according to the third embodiment.
  • the image processing system 30 includes an extraction unit 301 and a determination unit 302.
  • the extraction unit 301 extracts a determination target image including the side portion of the outer periphery of the iris from the image including the eye.
  • the determination unit 302 determines whether or not the colored contact lens is worn based on the determination target image.
  • the image processing system 30 capable of accurately determining the presence or absence of the colored contact lens.
  • FIG. 16 is a functional block diagram of an iris comparison system 40 according to the fourth embodiment.
  • the iris comparison system 40 includes a determination unit 401 and a processing unit 402.
  • the determination unit 401 determines whether or not the colored contact lens is worn based on the image including the eyes of the person to be matched.
  • the processing unit 402 performs a process for improving the accuracy of iris matching on the person to be matched.
  • the iris collation system 40 capable of reducing the accuracy deterioration of the iris collation caused by wearing the colored contact lens.
  • the iris collation system of the above-mentioned embodiment can be used not only for authentication at the time of login given as an example but also for various person verification.
  • the iris verification system according to the above-described embodiment includes identity verification for entering and leaving the country at an airport, a seaport and a border, identity verification for an administrative organization, identity verification for entering and leaving a factory or business, and event venues. It can be applied to identity verification at admission.
  • acquisition of an image used for iris matching may be performed on one eye of a person to be authenticated or on both eyes.
  • acquisition of an image used for iris matching may be performed on one eye of a person to be authenticated or on both eyes.
  • the above-described embodiments a scene in which the feature amount of the acquired iris image and the feature amount of the iris registered in advance are compared, that is, processing in the iris matching is illustrated.
  • the above-described embodiments can also be applied to a scene of registration of an iris image or a feature of the iris by appropriately modifying the embodiment. Specifically, it is possible to transform into the scene of registration by replacing the iris verification process of step S300 with the iris registration process.
  • the iris registration process may be, for example, a process of acquiring an iris image, calculating a feature amount, and storing the iris feature amount.
  • step S202, S204 or S205 when it is determined that the user wears a colored contact lens in the process of step S201, the process of step S202, S204 or S205 is performed. It may be something other than the above. For example, when it is determined that the user wears a colored contact lens, a message may be displayed to instruct the user to remove the colored contact lens. Alternatively, if it is determined that the user wears a colored contact lens, the matching or registration may be treated as a failure. In this case, the user may be notified of a process failure by a message, an alarm, etc. to prompt re-matching or registration, or may be notified of a process failure to end the process. Note that these processes may be performed instead of the process of step S202, S204 or S205, or may be performed in parallel with the process of step S202, S204 or S205.
  • a program for operating the configuration of the embodiment to realize the function of the above embodiment is recorded on a storage medium, a program recorded on the storage medium is read as a code, and a processing method executed on a computer is also described in each embodiment. It is included in the category. That is, a computer readable storage medium is also included in the scope of each embodiment. Moreover, not only the storage medium in which the above-mentioned program is recorded, but the program itself is included in each embodiment.
  • one or more components included in the above-described embodiment are circuits such as an application specific integrated circuit (ASIC) and a field programmable gate array (FPGA) configured to realize the function of each component. It may be.
  • ASIC application specific integrated circuit
  • FPGA field programmable gate array
  • the storage medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, and a ROM can be used.
  • the program is not limited to one in which processing is executed by a single program recorded in the storage medium, but is executed on OS (Operating System) in cooperation with other software and expansion board functions. Are also included in the category of each embodiment.
  • SaaS software as a service
  • An extraction unit that extracts a determination target image including a side portion of an outer periphery of an iris from an image including an eye;
  • a determination unit that determines whether a colored contact lens is worn based on the determination target image;
  • An image processing system comprising:
  • the judgment target image is a square
  • the image processing system according to appendix 3 wherein one side of the square has a length obtained by adding a predetermined value to an outer peripheral radius of the iris.
  • An evaluation value calculator for calculating an evaluation value indicating a possibility of wearing the colored contact lens by having a classifier configured by a convolutional neural network and inputting the determination target image to the classifier;
  • the image processing system according to any one of appendices 1 to 5, further comprising:
  • the determination unit determines whether the colored contact lens is worn or not based on a change in luminance of a portion of the outer periphery of the iris at a boundary with the white eye.
  • Appendix 9 The image processing system according to any one of appendices 1 to 8, wherein the extraction unit extracts two determination target images respectively including side portions on both sides of the iris.
  • the determination unit determines that the colored contact lens is worn when each of the two determination target images indicates that the colored contact lens is worn.
  • the image processing system according to any one of to 9.
  • the determination unit determines that the colored contact lens is worn when at least one of the two determination target images indicates that the colored contact lens is worn.
  • the image processing system according to any one of 1 to 9.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出する抽出部と、前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する判定部と、を備える。

Description

画像処理システム、画像処理方法及び記憶媒体
 本発明は、画像処理システム、画像処理方法及び記憶媒体に関する。
 特許文献1には、虹彩画像を用いた個人認証方法が開示されている。当該個人認証方法では、上まぶたの下方にマスク領域を設定し、マスク領域を除外した虹彩領域の画像を用いて認証を行うことにより、まつげが認証精度に及ぼす影響が低減される旨が開示されている。
特開2004-206444号公報
 近年、コンタクトレンズの一部に着色領域が設けられた着色コンタクトレンズが市販されている。着色コンタクトレンズを眼に装用することにより、虹彩の色を変化させたり、虹彩を大きく見せたりする装飾効果が得られることから、着色コンタクトレンズの普及が進んでいる。
 特許文献1のような虹彩の照合を行う際に、照合対象者が着色コンタクトレンズを装用していると、虹彩の一部の外観が変化する。そのため、適切な照合を行うためには、着色コンタクトレンズを装用しているか否かを検出する必要がある。
 本発明は、上述の課題に鑑みてなされたものであって、照合対象者が着色コンタクトレンズを装用しているか否かを精度良く判定することができる画像処理システム、画像処理方法及び記憶媒体を提供することを目的とする。
 本発明の一観点によれば、眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出する抽出部と、前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する判定部と、を備えることを特徴とする画像処理システムが提供される。
 本発明の他の観点によれば、眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、を備えることを特徴とする画像処理方法が提供される。
 本発明の更に他の観点によれば、コンピュータに、眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、を実行させることを特徴とする記憶媒体が提供される。
 本発明によれば、照合対象者が着色コンタクトレンズを装用しているか否かを精度良く判定することができる画像処理システム、画像処理方法及び記憶媒体を提供することができる。
第1実施形態に係る虹彩照合システムのハードウェア構成例を示すブロック図である。 第1実施形態に係る虹彩照合システムの機能ブロック図である。 第1実施形態に係る虹彩照合システムにより行われる処理の概略を示すフローチャートである。 第1実施形態に係る着色コンタクトレンズの装用判定処理を示すフローチャートである。 第1実施形態に係る判定対象画像の抽出を模式的に示す図である。 第1実施形態に係る判定対象画像のサイズ変更を模式的に示す図である。 第1実施形態に係る判定処理を模式的に示す図である。 第1実施形態に係る照合精度向上処理の第1の例を示すフローチャートである。 第1実施形態に係る照合精度向上処理の第2の例を示すフローチャートである。 第1実施形態に係る照合精度向上処理の第3の例を示すフローチャートである。 第1実施形態に係る照合精度向上処理の第3の例の変形例を示すフローチャートである。 第1実施形態に係る虹彩照合処理を示すフローチャートである。 第1実施形態に係る特徴量の抽出範囲の設定を模式的に示す図である。 第2実施形態に係る虹彩照合システムの機能ブロック図である。 第3実施形態に係る画像処理システムの機能ブロック図である。 第4実施形態に係る虹彩照合システムの機能ブロック図である。
 以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
 [第1実施形態]
 図1は、本発明の第1実施形態に係る虹彩の照合を行う虹彩照合システム10のハードウェア構成例を示すブロック図である。虹彩照合システム10は、例えば、携帯電話、スマートフォン、タブレットPC(Personal Computer)、ラップトップPC、デスクトップPC等のコンピュータ又は情報通信端末であり得る。虹彩照合システム10は生体照合の一種である虹彩照合の機能を備える。虹彩照合システム10は、照合対象者であるユーザの虹彩を撮影し、登録されている虹彩画像と照合することにより虹彩照合を行う。瞳孔の開口径を調整する虹彩の模様は万人不同かつ終生不変である。そのため、照合時に取得した虹彩の模様をあらかじめ登録されている虹彩の画像と照合することにより本人確認が可能である。以下の説明では、虹彩照合システム10は、一例としてスマートフォンに搭載されているものとし、虹彩照合は、ユーザのログイン時の本人確認のために行われるものを想定するが、これに限られるものではない。
 虹彩照合システム10は、演算及び記憶を行うコンピュータとしての機能を実現するため、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103及びフラッシュメモリ104を備える。また、虹彩照合システム10は、通信I/F(インターフェース)105、表示装置106、入力装置107、可視光照射装置108、可視光カメラ109、赤外線照射装置110及び赤外線カメラ111を備える。CPU101、RAM102、ROM103、フラッシュメモリ104、通信I/F105、表示装置106、入力装置107、可視光照射装置108、可視光カメラ109、赤外線照射装置110及び赤外線カメラ111は、バス112を介して相互に接続される。なお、表示装置106、入力装置107、可視光照射装置108、可視光カメラ109、赤外線照射装置110及び赤外線カメラ111は、これらの装置を駆動するための不図示の駆動装置を介してバス112に接続されてもよい。
 図1では、虹彩照合システム10を構成する各部が一体の装置として図示されているが、これらの機能の一部は外付け装置により構成されていてもよい。例えば、可視光照射装置108、可視光カメラ109、赤外線照射装置110又は赤外線カメラ111は、CPU101等を含むコンピュータの機能を構成する部分とは別の外付け装置であってもよい。
 CPU101は、ROM103、フラッシュメモリ104等に記憶されたプログラムに従って所定の動作を行うとともに、虹彩照合システム10の各部を制御する機能をも有する。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。ROM103は、不揮発性記憶媒体から構成され、虹彩照合システム10の動作に用いられるプログラム等の必要な情報を記憶する。フラッシュメモリ104は、不揮発性記憶媒体から構成され、赤外線カメラ111等で撮影された画像、照合対象の画像、特徴量データ等の記憶を行う記憶装置である。
 通信I/F105は、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。表示装置106は、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、動画、静止画、文字等の表示に用いられる。入力装置107は、ボタン、タッチパネル等であって、ユーザが虹彩照合システム10を操作するために用いられる。表示装置106及び入力装置107は、タッチパネルとして一体に形成されていてもよい。
 可視光照射装置108及び可視光カメラ109は、例えば、表示装置106の表示面等に設けられる。可視光照射装置108は、例えば、可視光カメラ109による撮影のための光源として用いられる。また、一部の処理においては、可視光照射装置108は、ユーザの眼に可視光を照射し、対光反射を起こさせることにより、瞳孔を収縮させる処理を行う可視光照射部として用いられ得る。可視光カメラ109は、風景、ユーザの顔、眼等を可視光により撮影し、画像を取得することができる。可視光カメラ109には、撮影後の画像処理に適するように、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等を用いたデジタルカメラが用いられ得る。
 赤外線照射装置110は、赤外線LED等の赤外光を発する発光素子である。赤外線カメラ111には、赤外線に対して感度を有するように構成された受光素子を備えたCMOSイメージセンサ、CCDイメージセンサ等を用いたデジタルカメラが用いられ得る。赤外線照射装置110から赤外光をユーザの眼に照射し、虹彩で反射した赤外線を赤外線カメラ111で撮影することにより、虹彩照合に用いられる虹彩画像を撮影することができる。虹彩画像を赤外線により取得することにより、虹彩の色によらず高コントラストな画像が得られ、かつ角膜による反射の影響を低減することができる。しかしながら、これらの影響が問題とならない場合には、可視光カメラ109を用いて虹彩画像を撮影してもよい。この場合、赤外線照射装置110及び赤外線カメラ111を省略することができる。また、可視光カメラが可視光に加えて赤外線による画像を取得可能なカメラである場合にも赤外線カメラ111を省略することができる。なお、赤外線照射装置110から照射される赤外線の波長は、例えば、800nm程度の近赤外領域であり得る。
 なお、図1に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。更に、一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態を構成する機能が複数の装置に分散されて実現されるものであってもよい。例えば、フラッシュメモリ104は、HDD(Hard Disk Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
 図2は、第1実施形態に係る虹彩照合システム10の機能ブロック図である。虹彩照合システム10は、画像取得部121、瞳孔検出部122、虹彩検出部123、判定対象画像抽出部124、サイズ変更部125、評価値算出部126、判定部127、処理部128、表示部129、抽出範囲設定部130、特徴量算出部131、照合部132及び記憶部133を有する。
 CPU101は、赤外線照射装置110及び赤外線カメラ111を制御することにより、ユーザの眼の赤外線画像を取得する画像取得部121の機能を実現する。CPU101は、ROM103等に記憶されたプログラムをRAM102にロードして実行することにより、瞳孔検出部122、虹彩検出部123、判定対象画像抽出部124、サイズ変更部125、評価値算出部126、判定部127、処理部128、抽出範囲設定部130、特徴量算出部131及び照合部132の機能を実現する。これらの各部で行われる処理については後述する。表示部129は、取得した画像、ユーザへのメッセージ等を表示する。CPU101は、表示装置106を制御することにより表示部129の機能を実現する。記憶部133は、画像取得部121により取得された虹彩画像、あらかじめ登録されている虹彩画像、これらの虹彩画像から算出された特徴量等のデータを記憶する。CPU101は、フラッシュメモリ104を制御することにより記憶部133の機能を実現する。
 図3は、第1実施形態に係る虹彩照合システム10により行われる処理の概略を示すフローチャートである。ステップS100において、虹彩照合システム10は、ユーザの眼を含む画像に基づいて、ユーザの眼に着色コンタクトレンズが装用されているか否かを判定する。
 着色コンタクトレンズとは、レンズの一部に着色部が設けられているコンタクトレンズである。着色コンタクトレンズは、カラーコンタクトレンズ、サークルコンタクトレンズ、コスメティックコンタクトレンズと呼ばれることもある。着色コンタクトレンズを装用することにより、虹彩の色を変化させたり、虹彩を大きく見せたりする装飾効果を得ることができる。多くの場合、着色コンタクトレンズの着色領域は、主として虹彩の外周の近傍に対応する部分に設けられており、瞳孔に対応する部分は透明である。これは、虹彩を大きく見せる装飾効果を得つつ、視界を損なわないようにするためである。
 ユーザが着色コンタクトレンズを装用することにより虹彩の模様等が変化するため、虹彩照合の精度に影響を与える場合がある。虹彩の画像の登録は、通常着色コンタクトレンズを装用せずに行われる。そのため、照合時に着色コンタクトレンズを装用していると、登録時と照合時の虹彩の模様等が一致しなくなるためである。そのため、ステップS100では、虹彩照合に先立って、ユーザの眼を含む画像に基づいて、着色コンタクトレンズが装用されているか否かの判定を行う。着色コンタクトレンズの装用の有無に基づいて、後続する処理の内容をより適したものにすることができる。
 ステップS200において、虹彩照合システム10は、照合精度を向上させるための処理を行う。この処理は、主として、ステップS100において、着色コンタクトレンズが装用されていると判定された場合に、着色コンタクトレンズに起因する虹彩照合の精度劣化を低減するために行われるものである。
 ステップS300において、虹彩照合システム10は、照合時に撮影したユーザの虹彩を含む画像と、あらかじめ登録されているユーザの虹彩を含む画像とを照合する。本ステップの照合処理において、ステップS100の着色コンタクトレンズの装用の判定結果に応じて処理内容を変化させることができる。着色コンタクトレンズが装用されている場合には、虹彩照合システム10は、画像に含まれる虹彩の領域のうち虹彩の外周を含む所定範囲を除いた領域から抽出された特徴量を用いて虹彩の照合を行う。
 図3に示したステップS100からステップS300の処理のすべてを実行することは必須ではなく、一部を省略した実施形態も本発明の範疇に含まれる。例えば、ステップS200の照合精度向上処理を省略して処理を簡略化してもよい。また、別の装置により着色コンタクトレンズの装用有無をあらかじめ判定しておくこと、あるいはユーザに着色コンタクトレンズの装用有無を入力させることにより、ステップS100の処理を省略して処理を簡略化してもよい。また、ステップS100の着色コンタクトレンズの装用を判定する処理を単独で実行する画像処理システムも本発明の範疇に含まれる。また、ステップS100からステップS300の処理は複数の装置が協働して実行するものであってもよい。
 図4乃至図7を参照しつつ、図3のステップS100における着色コンタクトレンズの装用判定処理の具体例を説明する。図4は、第1実施形態に係る着色コンタクトレンズの装用判定処理を示すフローチャートである。図4の処理は、図3のステップS100の処理をより具体化したものである。
 ステップS101において、画像取得部121は、ユーザの眼を含む画像を取得する。取得された画像は記憶部133に記憶される。典型的には、この画像は赤外線により取得されたものであるため、グレースケールの画像である。また、画像のサイズは、例えば、横640ピクセル×縦480ピクセルである。ただし、後述の処理によりサイズの変更が行われるので、これ以外のサイズであってもよい。なお、本明細書において、画像の大きさ、対象物の長さ等のサイズを示す用語は、ピクセル数のような規格化された無次元量で規定される場合があり、ミリメートル等の長さの次元を有する単位により規定されるものに限られない。また、ユーザの眼を含む画像は、赤外線により取得されたものに限られず、可視光により取得されたものであってもよい。
 ステップS102において、瞳孔検出部122は、ステップS101で取得された眼を含む画像から、瞳孔を検出し、瞳孔の位置を特定する。特定された瞳孔の位置は、記憶部133に記憶される。瞳孔の形状は、円形として近似することができる。そのため、瞳孔の位置は、例えば、瞳孔の中心座標と半径により表現することができる。なお、瞳孔の領域は、例えば、所定値よりも低い輝度のピクセルを抽出することにより検出することができる。
 ステップS103において、虹彩検出部123は、ステップS101で取得された眼を含む画像から、虹彩を検出し、虹彩の位置を特定する。特定された虹彩の位置は、記憶部133に記憶される。瞳孔検出部122及び虹彩検出部123はより一般的に検出部と呼ばれることもある。虹彩の形状は、瞳孔を内包する円環形状として近似することができ、そのため、虹彩の位置は、例えば、虹彩の中心座標、外周半径及び内周半径により表現することができる。虹彩の内周半径は、瞳孔の半径に相当するため、虹彩の位置を示す情報から省略してもよい。なお、虹彩は、例えば、虹彩の外周と強膜(いわゆる白目)との境界における輝度変化を抽出することにより検出することができる。ここで検出される虹彩は、ユーザの虹彩自体だけでなく、着色コンタクトレンズに施されている虹彩を模した模様を含む。そのため、本明細書では、虹彩と着色コンタクトレンズに施されている模様とを含む、外見上虹彩に見える領域全体を虹彩と呼ぶことがある。なお、ステップS102及びステップS103の順序は逆であってもよい。あるいは、ステップS102及びステップS103は、並行して行われるものであってもよく、1つの処理として行われてもよい。
 ステップS104において、判定対象画像抽出部124は、ステップS101で取得された眼を含む画像から虹彩の側部を含む2つの判定対象画像を抽出する。ここで、虹彩の側部とは、虹彩の外周における白目との境界であって、主にまぶたに隠れる上下を除いた左右の部分を指す。抽出された判定対象画像は記憶部133に記憶される。2つの判定対象画像は、着色コンタクトレンズの装用判定に用いられる。図5を参照して、判定画像の抽出について詳細に説明する。
 図5は、第1実施形態に係る判定対象画像の抽出を模式的に示す図である。図5には、ステップS101で取得された画像に含まれる眼90、瞳孔91及び虹彩92が模式的に示されている。判定対象画像抽出部124は、眼90の画像から2つの判定対象画像R1、R2を抽出する。なお、判定対象画像抽出部124は、単に抽出部と呼ばれることもある。
 図5に示されるように、判定対象画像R1、R2は、虹彩92の左側の側部及び右側の側部をそれぞれ含むように抽出される。判定対象画像R1、R2は、一辺の長さがS(ピクセル)の正方形である。また、当該正方形の辺のうちの眼90に対して上下方向の一辺は虹彩92の中心を通過する線分である。一辺の長さであるSは、虹彩の外周半径をIr1(ピクセル)としたとき、S=Ir1+mとなるように設定される。ここで、mは、判定対象画像R1、R2が虹彩の側部を含み、かつ虹彩92の上端及び下端をいずれも含まないように設定された所定の値であり、例えば30ピクセルに設定される。
 判定対象画像R1、R2の位置をこのように設定する理由を説明する。着色コンタクトレンズの模様には、虹彩の外周付近に顕著な特徴がある場合が多い。例えば、着色コンタクトレンズを装用している眼は、虹彩の部分と白目の部分との間の輝度変化が大きい場合が多い。そのため、判定対象画像R1、R2に、虹彩の外周を含めて判定を行うことにより判別器による着色コンタクトレンズの検出精度が向上する。また、虹彩の上下はまぶた及びまつげにより隠れる場合がある。判定対象画像R1、R2にまぶた又はまつげが含まれると、判定精度が劣化する場合がある。そのため、判定対象画像R1、R2の位置は、虹彩の側部を含むようにするとともに、虹彩の上端及び下端をいずれも含まないように設定することが望ましい。また、判定対象画像R1、R2を広く確保することができるため、正方形の上下方向の一辺を虹彩92の中心を通過する線分とすることが望ましい。
 なお、判定対象画像R1、R2は、正方形であることは必須ではない。例えば、判定対象画像R1、R2は、長方形であり得る。すなわち、判定対象画像R1、R2の形状は、正方形、長方形に限定されないあらゆる形状であり得るものであり、他の例としては、多角形、扇形、曲線を含む図形であってもよい。判定対象画像R1、R2が正方形以外の図形の場合、虹彩の側部を含み、かつ虹彩をなるべく広く含むようにするために、判定対象画像R1、R2の眼90に対する水平方向の長さが、虹彩92の外周半径よりも大きいことが望ましい。
 判定対象画像R1、R2は、虹彩92の左右から2つ取得されているが、いずれか1つであってもよい。しかしながら、より精度の高い判定が可能になるため、2つの判定対象画像R1、R2を用いることが望ましい。
 ステップS105において、サイズ変更部125は、判定対象画像R1、R2のサイズを変更する。図6は、第1実施形態に係る判定対象画像のサイズ変更を模式的に示す図である。図6に示されるように、サイズ変更部125は、一辺がSピクセルの判定対象画像R1、R2を一辺が32ピクセルの判定対象画像R1a、R2aに縮小することにより、判定対象画像R1a、R2aを生成する。サイズを変更する理由は、後続の判別の処理に適するように画像を一定のピクセル数とすることにより後述の判別器による処理を効率化するためである。サイズ変更後の判定対象画像R1a、R2aは記憶部133に記憶される。一辺が32ピクセルであることは例示であり、特にこれに限定されるものでない。また、判別器の処理においてサイズを限定することが必須でない場合にはステップS105の処理は省略してもよい。
 図7はステップS106からステップS109における判定処理を模式的に示す図である。図4と図7を相互に参照しつつ以降の処理を説明する。本処理を実行する評価値算出部126は、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)により構成された判別器を含む。判別器は、着色コンタクトレンズを装用している眼の画像と、着色コンタクトレンズを装用していない眼の画像とを含む多数の画像を教師データとしてあらかじめ機械学習させておくことにより、着色コンタクトレンズの装用の有無を判別できるように構成されている。眼を含む画像を判別器に入力すると、着色コンタクトレンズを装用している可能性を示す評価値を出力する。評価値は、一例として、0から1までの連続値とする。この場合、着色コンタクトレンズを装用していない可能性が高いほど評価値は0に近くなり、着色コンタクトレンズを装用している可能性が高いほど評価値は1に近くなる。
 ステップS106において、評価値算出部126の判別器は、2つの判定対象画像R1a、R2aのそれぞれに基づいて、2つの評価値V1、V2を算出する。評価値は、記憶部133に記憶される。
 ステップS107からステップS109において、判定部127は、2つの評価値V1、V2に基づいて、着色コンタクトレンズの装用の有無を判定する。より具体的には、ステップS107において、判定部127は、評価値V1と評価値V2がいずれも0.9以上であるか否かを判断する。評価値V1と評価値V2がいずれも0.9以上である場合(ステップS107においてYES)、判定部127は、着色コンタクトレンズが装用されていると判定する(ステップS108)。評価値V1と評価値V2の少なくとも一方が0.9未満である場合(ステップS107においてNO)、判定部127は、着色コンタクトレンズが装用されていないと判定する(ステップS109)。
 このように、ステップS106からステップS109における判定処理では、2つの判定対象画像R1a、R2aによる判定結果がいずれも着色コンタクトレンズを装用していることを示している場合にのみ着色コンタクトレンズを装用していると判定される。着色コンタクトレンズには様々な種類があり、虹彩の模様等にも個人差がある。そのため、十分な量の教師データを用いて学習を行った場合であっても判別器は誤判別することがある。そこで、判定精度を向上させるため、上述のように2つの判定対象画像R1a、R2aの両方を入力し、これらによる判別結果を総合して判定を行うことが望ましい。
 ステップS106からステップS109における判定処理を1つの判定対象画像を用いて行う場合の処理の例を説明する。評価値算出部126の判別器は、1つの判定対象画像から1つの評価値を算出する。その後、判定部127は、評価値が0.9以上の場合に着色コンタクトレンズが装用されていると判定し、評価値が0.9未満の場合に着色コンタクトレンズが装用されていないと判定することにより、装用の有無を判定することができる。このように、判定対象画像は1つであってもよい。
 以上のように、本実施形態の着色コンタクトレンズの装用判定処理によれば、虹彩の外周の側部を含む判定対象画像に基づいて判定を行うことにより、精度よく着色コンタクトレンズの装用の有無を判定することができる。
 なお、図7に示した判定処理には、畳み込みニューラルネットワークによる判別器が用いられているが、これに限定されるものではなく、例えば、虹彩の外周における白目との境界の部分の輝度変化に基づいて着色コンタクトレンズの装用の判定を行ってもよい。
 また、ステップS107の判断は、評価値V1と評価値V2の少なくとも一方が0.9以上である場合に、着色コンタクトレンズが装用されていると判定し、評価値V1と評価値V2の両方が0.9未満である場合に、着色コンタクトレンズが装用されていないと判定するものであってもよい。また、ステップS107の判断は、判定対象画像の信頼性等に応じて、評価値V1、評価値V2等の複数の評価値の中から1又は2以上の評価値を選択し、判定に用いるものであってもよい。例えば、複数の判定対象画像のうちにノイズ等により信頼性が十分ではないものがある場合には、そのような判定対象画像の評価値を判定の処理から除外することにより判定の精度を向上させることができる。なお、上述の例において、評価値V1、評価値V2の判定のための閾値である0.9はあくまでも一例であり、これ以外のあらゆる値に設定され得る。
 次に、図8乃至図10を参照しつつ、図3のステップS200における照合精度向上処理の具体例を説明する。
 図8は、第1実施形態に係る照合精度向上処理の第1の例を示すフローチャートである。ステップS201において、処理部128は、ステップS100の判定結果を参照する。ユーザが着色コンタクトレンズを装用していると判定された場合(ステップS201においてYES)、処理はステップS202に移行する。ユーザが着色コンタクトレンズを装用していないと判定された場合(ステップS201においてNO)、処理は終了する。
 ステップS202において、処理部128は、可視光照射装置108を制御してユーザの眼に可視光を照射させる。その後、ステップS203において、処理部128は、画像取得部121に眼を含む画像を再取得させる。
 眼の網膜に可視光が照射されると、瞳孔が縮小する対光反射が起こる。そのため、虹彩の領域が広くなり、虹彩の模様を取得できる面積が広くなる。したがって、着色コンタクトレンズによる虹彩照合の精度劣化を低減することができる。また、本例では、無意識に起こる反射を利用しているため、照合対象者に何らかの行動を行わせる必要がない。例えば、行政機関での本人確認の場面等において、照合対象者が虹彩照合に協力的でない場合、照合対象者と言葉が通じない場合のように、照合対象者に何らかの行動を行わせることが難しい場合にも本例は適用可能である。
 いずれか一方の眼に対して可視光が照射された場合であっても、対光反射による瞳孔の縮小は両方の眼に対して起こる。そのため、可視光を照射させる眼と画像を再取得する眼が異なる眼であってもよい。これにより、照射した可視光の反射による影響を抑制することができる。
 図9は、第1実施形態に係る照合精度向上処理の第2の例を示すフローチャートである。図8と同様の処理については適宜説明を省略する。ステップS204において、処理部128は、表示部129に明るいものを見るよう促すメッセージを表示させる。具体的なメッセージの例は、「もう一度認証を行うため、一旦明るいものを見てから再びカメラを見てください」というものであり得る。このメッセージに応じてユーザが明るいものを見た後、ステップS203において、処理部128は、画像取得部121に眼を含む画像を再取得させる。
 本例においても、ユーザが明るいものを見ることにより、対光反射により、瞳孔が縮小し、虹彩の領域が広くなる。したがって、着色コンタクトレンズによる虹彩照合の精度劣化を低減することができる。本例では、上述の第1の例とは異なり、可視光照射装置108が設けられていなくても対光反射を利用した照合精度向上処理を行うことができる。なお、メッセージは、「もう一度認証を行うため、一旦照明を見てから再びカメラを見てください」のように見るべきものをより具体的に指示する内容であってもよい。
 図8及び図9における瞳孔の縮小を利用した構成において、照合精度がより顕著に向上する例を説明する。ステップS100において着色コンタクトレンズが装用されていると判定された場合、ステップS300の虹彩照合において虹彩の外周付近を特徴量の抽出範囲から除外する処理が行われることがある。このとき、特徴量の抽出に寄与する領域が減少し、虹彩照合の精度が低下することが問題となり得る。このような状況において、図8及び図9における処理を行って瞳孔を縮小させると、虹彩の外周付近ではなく、その反対側である虹彩の内周側の面積を拡大することができる。これにより、虹彩の外周付近が特徴量の抽出範囲から除外された場合にも精度よく虹彩照合を行うことができる。
 図10は、第1実施形態に係る照合精度向上処理の第3の例を示すフローチャートである。図8と同様の処理については適宜説明を省略する。ステップS205において、処理部128は、表示部129にまばたきをするよう促すメッセージを表示させる。具体的なメッセージの例は、「もう一度認証を行うため、まばたきをしてから再びカメラを見てください」というものであり得る。このメッセージに応じてユーザがまばたきをした後、ステップS206において、処理部128は、画像取得部121に眼を含む画像を追加取得させる。
 本例では、ユーザにまばたきをさせることにより着色コンタクトレンズが回転し、着色コンタクトレンズの模様の位置がまばたきの前後で変化する。一方、ユーザの眼の虹彩自体の模様はまばたきをしても変化しない。したがって、まばたきの前後に取得した2つの画像の差分を演算することにより、着色コンタクトレンズの模様とユーザの眼の虹彩の模様とを分離することができ、ユーザの眼の虹彩の模様を抜き出すことで精度よく照合を行うことができる。したがって、着色コンタクトレンズによる虹彩照合の精度劣化を低減することができる。
 本例においても、精度向上処理を行うことができる。本例では、明るさの変化による対光反射を利用しないため、明るい場所でも効果が減退しない利点がある。
 なお、図10のフローチャートの処理は、ステップS206の処理を複数回繰り返すことにより画像を複数回取得する処理に変形してもよい。更に、この場合には、ステップS205の処理は省略してもよい。人は無意識にまばたきをするので、まばたきを促すメッセージを表示しなくても無意識のまばたきにより着色コンタクトレンズが回転することがある。したがって、メッセージを表示しなくても、繰り返し画像を取得することで、着色コンタクトレンズの模様とユーザの眼の虹彩の模様とを分離するための画像の取得ができることもあり、その場合には上述と同様の効果が得られる。
 図11は、第1実施形態に係る照合精度向上処理の第3の例の変形例を示すフローチャートである。図11のステップS207に示されるように、メッセージの内容は、左右を見ることを指示する等、眼を動かすことを促すものであってもよい。具体的なメッセージの例は、「もう一度認証を行うため、一旦左右を見てから再びカメラを見てください」というものであり得る。眼球が動くことにより、着色コンタクトレンズが回転するため、本変形例においても上述のまばたきを促す場合と同様の効果が得られる。
 以上のように、本実施形態の照合精度向上処理によれば、着色コンタクトレンズを装用していることによる虹彩照合の精度劣化を低減することができる。
 なお、上述の処理において、種々のメッセージは表示部129への表示によりユーザに報知されるものとしているが、メッセージの報知方法はこれに限定されるものではない。例えば、音声による報知であってもよい。
 図12及び図13を参照しつつ、図3のステップS300における虹彩照合処理の具体例を説明する。図12は、第1実施形態に係る虹彩照合処理を示すフローチャートである。図12の処理は、図3のステップS300の処理をより具体化したものである。
 ステップS301において、抽出範囲設定部130は、ステップS100の判定結果を参照する。ユーザが着色コンタクトレンズを装用していると判定された場合(ステップS301においてYES)、処理はステップS302に移行する。ユーザが着色コンタクトレンズを装用していないと判定された場合(ステップS301においてNO)、処理はステップS303に移行する。
 ステップS302において、抽出範囲設定部130は、虹彩の外周付近を除外して特徴量の抽出範囲を設定する。図13は、第1実施形態に係る特徴量の抽出範囲の設定を模式的に示す図である。図13に示されるように画像中の虹彩の領域は、マスク領域93と特徴量抽出領域94とに区分されている。マスク領域93は、虹彩の外周及び内周の位置に応じて定められる領域であり、虹彩の領域のうち、後続する照合の処理に用いられる特徴量を抽出しない範囲である。特徴量抽出領域94は、虹彩の領域のうち、特徴量を抽出する領域であり、マスク領域93を除く範囲となる。マスク領域93は、虹彩の外周付近に配される。すなわち、特徴量抽出領域94は、虹彩の外周を含む所定範囲を除外した範囲となる。
 マスク領域93の範囲は、虹彩の外周端部を含み、かつ虹彩の外周から内周に向かって6割以上の幅を有する円環として定められる。より具体的には、前記虹彩の外周半径をIr1、内周半径をIr2としたとき、マスク領域93は、外周半径がIr1、内周半径が{Ir2+0.4×(Ir1-Ir2)}となる円環である。
 マスク領域93及び特徴量抽出領域94をこのように定める理由について説明する。着色コンタクトレンズにおいて、虹彩の外周付近に対応する箇所には、着色箇所(模様)が多く配されている。そのため、着色コンタクトレンズを装用している状態で、虹彩の外周付近を含む領域から特徴量を抽出して虹彩認証を行うと、虹彩の模様の上に着色コンタクトレンズの模様が重なった状態で虹彩照合がなされることとなり、照合精度が低下し得るという問題があった。例えば、登録時の着色コンタクトレンズを装用していない虹彩の模様と、照合時の虹彩の模様の上に着色コンタクトレンズの模様が重なった状態の模様とが合致しないため、同一人物を他人と判定することがあり得た。
 特徴量抽出領域94を虹彩の外周を含む所定範囲を除外した範囲と定めることにより、着色コンタクトレンズの模様が多く配される虹彩の外周付近が特徴量の抽出から除外される。一方、着色コンタクトレンズの虹彩の内周付近に対応する領域には、視界を確保するために模様が配されていないことが多く虹彩照合には影響を与えにくい。そのため、着色コンタクトレンズを装用していることによる虹彩照合の精度劣化を低減することができる。
 ユーザが着色コンタクトレンズを装用していない場合におけるステップS303においては、マスク領域93は設けられず、虹彩全体に対して特徴量抽出領域94が設定される。着色コンタクトレンズを装用していない場合には、外周付近を特徴量抽出領域から除外する必要はなく、むしろ除外しない方が特徴量抽出領域を広くすることができるため、照合精度を高くすることができる。そのため、着色コンタクトレンズの装用の有無により、異なる処理を行うことが望ましい。
 ステップS304において、特徴量算出部131は、設定された特徴量抽出領域94の画像に含まれる虹彩の模様等を用いて特徴量を算出する。算出された特徴量は、記憶部133に記憶される。
 ステップS305において、照合部132は、ステップS304において取得された特徴量と、あらかじめ記憶部133に登録されているユーザの虹彩の特徴量とを照合する。照合により、同一人物の虹彩であると判定された場合、虹彩照合システム10は、本人確認ができたものと判断し、ログイン等の処理を行う。
 以上のように、本実施形態の虹彩照合処理によれば、虹彩の外周を含む所定範囲を除外した範囲を特徴量の抽出範囲とすることにより、照合対象者が着色コンタクトレンズを装用している場合の照合精度に対する影響を低減し得る。
 ステップS302の手法により虹彩の外周付近を除外して特徴量抽出領域94を設定する場合には、図8及び図9を用いて説明した照合精度向上処理のいずれかを組み合わせることがより有効である。ステップS302の手法では、マスク領域93の分だけ特徴量抽出領域94が狭くなる。図8又は図9の処理を併用することにより、虹彩の範囲を広くすることができるため、特徴量抽出領域94が狭くなった影響を補償することができる。
 上述の処理では、マスク領域93は、着色コンタクトレンズの模様によらず決定されるので、着色コンタクトレンズの模様を検出する処理を行う必要がなく、高速な処理が可能である。しかしながら、処理速度よりも精度を重視する場合には、着色コンタクトレンズの模様とユーザの虹彩自体の模様とを判別することにより着色コンタクトレンズの着色箇所を判定する処理を追加してもよい。この場合、着色コンタクトレンズの着色箇所がマスク領域93として設定される。このように、着色コンタクトレンズの着色箇所(模様の形状又は模様が配される領域)を特定できる場合には、虹彩照合を行う際の虹彩の外周付近の領域であるマスク領域93を、着色コンタクトレンズの着色箇所に基づいて設定することができる。
 着色コンタクトレンズの模様とユーザの虹彩自体の模様とを判別する処理の例としては、snakes法、Level Set法といった動的輪郭モデルを用いて着色コンタクトレンズの模様の輪郭を探索する手法が挙げられる。また、別の例としては、虹彩を複数の矩形領域に分割し、矩形領域ごとに畳み込みニューラルネットワークを用いて着色コンタクトレンズの模様があるか否かを判別する手法、同心円上に規則的な図形があるか否かを検出する手法、放射状の直線があるか否かを検出する手法等も挙げられる。
 上述の実施形態において説明した装置は以下の第2実施形態乃至第4実施形態のようにも構成することができる。
 [第2実施形態]
 図14は、第2実施形態に係る虹彩照合システム20の機能ブロック図である。虹彩照合システム20は、判定部201及び照合部202を備える。判定部201は、照合対象者の眼を含む画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する。照合部202は、判定部201により着色コンタクトレンズが装用されていると判定された場合に、画像に含まれる虹彩の領域のうち虹彩の外周を含む所定範囲を除いた領域から抽出された特徴量を用いて虹彩の照合を行う。
 本実施形態によれば、照合対象者が着色コンタクトレンズを装用している場合の照合精度に対する影響を低減することができる虹彩照合システム20を提供することができる。
 [第3実施形態]
 図15は、第3実施形態に係る画像処理システム30の機能ブロック図である。画像処理システム30は、抽出部301及び判定部302を備える。抽出部301は、眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出する。判定部302は、判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する。
 本実施形態によれば、精度よく着色コンタクトレンズの装用の有無を判定することができる画像処理システム30を提供することができる。
 [第4実施形態]
 図16は、第4実施形態に係る虹彩照合システム40の機能ブロック図である。虹彩照合システム40は、判定部401及び処理部402を備える。判定部401は、照合対象者の眼を含む画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する。処理部402は、判定部401により着色コンタクトレンズが装用されていると判定された場合に、虹彩照合の精度を向上させる処理を前記照合対象者に対して行う。
 本実施形態によれば、着色コンタクトレンズを装用していることによる虹彩照合の精度劣化を低減することができる虹彩照合システム40を提供することができる。
 [変形実施形態]
 本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
 上述の実施形態の虹彩照合システムは、一例として挙げたログイン時の認証だけでなく、種々の本人確認に用いられ得る。例えば、上述の実施形態の虹彩照合システムは、空港・海港・国境における入出国のための本人確認、行政機関における本人確認、工場・事業所への入退場のための本人確認、イベント会場への入場時の本人確認等に適用され得る。
 上述の各実施形態において、虹彩照合に用いられる画像の取得は、認証対象者の片目に対して行ってもよく、両目に対して行ってもよい。片目の画像のみを取得する場合、処理速度の向上、記憶容量の削減の効果があり、両目の画像を取得する場合、認証精度が向上する効果がある。
 上述の各実施形態においては、取得した虹彩の画像の特徴量とあらかじめ登録されている虹彩の特徴量とを照合する場面、すなわち虹彩照合における処理を例示している。しかしながら、上述の各実施形態は、適宜変形を施すことにより、虹彩の画像又は虹彩の特徴量の登録の場面にも適用可能である。具体的にはステップS300の虹彩照合処理を虹彩登録処理に置き換えることにより登録の場面に変形することが可能である。ここで、虹彩登録処理は、例えば、虹彩の画像を取得して特徴量を算出し、虹彩の特徴量を記憶する処理であり得る。
 上述の各実施形態においては、ステップS201の処理においてユーザが着色コンタクトレンズを装用していると判定された場合には、ステップS202、S204又はS205の処理が行われているが、この処理は例示した以外のものであってもよい。例えば、ユーザが着色コンタクトレンズを装用していると判定された場合に、ユーザに対して着色コンタクトレンズを外すように指示するメッセージを表示するものであってもよい。あるいは、ユーザが着色コンタクトレンズを装用していると判定された場合に、照合又は登録が失敗したものとして扱ってもよい。この場合、処理の失敗をメッセージ、アラーム等でユーザに通知して再度の照合又は登録を促してもよく、処理の失敗を通知して処理を終了してもよい。なお、これらの処理は、ステップS202、S204又はS205の処理に代えて行われるものであってもよく、ステップS202、S204又はS205の処理と並行して行われるものであってもよい。
 上述のように、着色コンタクトレンズを外す指示又は照合を行う処理又は登録が失敗したものとして扱う処理を行うことによる効果について、虹彩の登録の場面の例で説明する。虹彩の登録の場面では、本人確認の重要性が高いため、登録された虹彩が本人のものであることの確実性を高める必要がある。この確実性の要求は、特に、入国管理又は国民ID(Identification)のような重要な認証を行う場面でより顕著である。着色コンタクトレンズを装用した状態で登録がなされてしまうと、本人確認の機能が損なわれる。そのため、着色コンタクトレンズを装用した状態で登録をしようとした場合には、何らかの警告を発するとともに登録できないようにすることで、本人確認の確実性を維持することができる。これにより、虹彩照合システムの精度が向上される。また、着色コンタクトレンズを利用した多重登録を防止することもできる。
 上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路であってもよい。
 該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。
 なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
 上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出する抽出部と、
 前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する判定部と、
 を備えることを特徴とする画像処理システム。
 (付記2)
 前記判定対象画像は、前記虹彩の外周の上端及び下端をいずれも含まないことを特徴とする付記1に記載の画像処理システム。
 (付記3)
 前記判定対象画像の前記眼に対する水平方向の長さが、前記虹彩の外周半径よりも大きい
 ことを特徴とする付記1又は2に記載の画像処理システム。
 (付記4)
 前記判定対象画像は正方形であり、
 前記正方形の一辺は、前記虹彩の外周半径に所定の値を加えた長さである
 ことを特徴とする付記3に記載の画像処理システム。
 (付記5)
 前記正方形の一辺は、前記虹彩の中心を通過する線分である
 ことを特徴とする付記4に記載の画像処理システム。
 (付記6)
 畳み込みニューラルネットワークにより構成された判別器を有し、前記判定対象画像を前記判別器に入力することにより、前記着色コンタクトレンズが装用されている可能性を示す評価値を算出する評価値算出部を更に備える
 ことを特徴とする付記1乃至5のいずれか1項に記載の画像処理システム。
 (付記7)
 前記判定部は、前記虹彩の外周における白目との境界の部分の輝度変化に基づいて前記着色コンタクトレンズが装用されているか否かを判定する
 ことを特徴とする付記1乃至5のいずれか1項に記載の画像処理システム。
 (付記8)
 前記判定部による判定に先立って、前記判定対象画像のピクセル数を所定のピクセル数に変更するサイズ変更部を更に備えることを特徴とする付記1乃至7のいずれか1項に記載の画像処理システム。
 (付記9)
 前記抽出部は、前記虹彩の両側の側部をそれぞれ含む2つの前記判定対象画像を抽出することを特徴とする付記1乃至8のいずれか1項に記載の画像処理システム。
 (付記10)
 前記判定部は、2つの前記判定対象画像のそれぞれがいずれも前記着色コンタクトレンズが装用されていることを示す場合に、前記着色コンタクトレンズが装用されていると判定する
 ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理システム。
 (付記11)
 前記判定部は、2つの前記判定対象画像のうちの少なくとも1つが前記着色コンタクトレンズが装用されていることを示す場合に、前記着色コンタクトレンズが装用されていると判定する
 ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理システム。
 (付記12)
 眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、
 前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、
 を備えることを特徴とする画像処理方法。
 (付記13)
 コンピュータに、
 眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、
 前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、
 を実行させることを特徴とするプログラムが記憶された記憶媒体。
 この出願は、2017年8月30日に出願された日本出願特願2017-165404を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10、20、40         虹彩照合システム
30               画像処理システム
90               眼
91               瞳孔
92               虹彩
93               マスク領域
94               特徴量抽出領域
121              画像取得部
122              瞳孔検出部
123              虹彩検出部
124              判定対象画像抽出部
125              サイズ変更部
126              評価値算出部
127、201、302、401  判定部
128、402          処理部
129              表示部
130              抽出範囲設定部
131              特徴量算出部
132、202          照合部
133              記憶部
301              抽出部
R1、R2、R1a、R2a    判定対象画像

Claims (13)

  1.  眼を含む画像から虹彩の外周の側部を含む判定対象画像を抽出する抽出部と、
     前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定する判定部と、
     を備えることを特徴とする画像処理システム。
  2.  前記判定対象画像は、前記虹彩の外周の上端及び下端をいずれも含まないことを特徴とする請求項1に記載の画像処理システム。
  3.  前記判定対象画像の前記眼に対する水平方向の長さが、前記虹彩の外周半径よりも大きい
     ことを特徴とする請求項1又は2に記載の画像処理システム。
  4.  前記判定対象画像は正方形であり、
     前記正方形の一辺は、前記虹彩の外周半径に所定の値を加えた長さである
     ことを特徴とする請求項3に記載の画像処理システム。
  5.  前記正方形の一辺は、前記虹彩の中心を通過する線分である
     ことを特徴とする請求項4に記載の画像処理システム。
  6.  畳み込みニューラルネットワークにより構成された判別器を有し、前記判定対象画像を前記判別器に入力することにより、前記着色コンタクトレンズが装用されている可能性を示す評価値を算出する評価値算出部を更に備える
     ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理システム。
  7.  前記判定部は、前記虹彩の外周における白目との境界の部分の輝度変化に基づいて前記着色コンタクトレンズが装用されているか否かを判定する
     ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理システム。
  8.  前記判定部による判定に先立って、前記判定対象画像のピクセル数を所定のピクセル数に変更するサイズ変更部を更に備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理システム。
  9.  前記抽出部は、前記虹彩の両側の側部をそれぞれ含む2つの前記判定対象画像を抽出することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理システム。
  10.  前記判定部は、2つの前記判定対象画像のそれぞれがいずれも前記着色コンタクトレンズが装用されていることを示す場合に、前記着色コンタクトレンズが装用されていると判定する
     ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  11.  前記判定部は、2つの前記判定対象画像のうちの少なくとも1つが前記着色コンタクトレンズが装用されていることを示す場合に、前記着色コンタクトレンズが装用されていると判定する
     ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  12.  眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、
     前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、
     を備えることを特徴とする画像処理方法。
  13.  コンピュータに、
     眼を含む画像から虹彩の側部を含む判定対象画像を抽出するステップと、
     前記判定対象画像に基づいて、着色コンタクトレンズが装用されているか否かを判定するステップと、
     を実行させることを特徴とするプログラムが記憶された記憶媒体。
PCT/JP2018/032052 2017-08-30 2018-08-30 画像処理システム、画像処理方法及び記憶媒体 WO2019044944A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP18851326.1A EP3678091A4 (en) 2017-08-30 2018-08-30 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND RECORDING MEDIA
US16/485,594 US11017226B2 (en) 2017-08-30 2018-08-30 Image processing system, image processing method, and storage medium
JP2019539603A JP7010295B2 (ja) 2017-08-30 2018-08-30 画像処理システム、画像処理方法及び記憶媒体
CN201880056307.XA CN111033562B (zh) 2017-08-30 2018-08-30 图像处理系统、图像处理方法和存储介质
US17/306,371 US11636711B2 (en) 2017-08-30 2021-05-03 Image processing system, image processing method, and storage medium
JP2022000319A JP7298720B2 (ja) 2017-08-30 2022-01-05 画像処理システム、画像処理方法及び記憶媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-165404 2017-08-30
JP2017165404 2017-08-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/485,594 A-371-Of-International US11017226B2 (en) 2017-08-30 2018-08-30 Image processing system, image processing method, and storage medium
US17/306,371 Continuation US11636711B2 (en) 2017-08-30 2021-05-03 Image processing system, image processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2019044944A1 true WO2019044944A1 (ja) 2019-03-07

Family

ID=65525726

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032052 WO2019044944A1 (ja) 2017-08-30 2018-08-30 画像処理システム、画像処理方法及び記憶媒体

Country Status (5)

Country Link
US (2) US11017226B2 (ja)
EP (1) EP3678091A4 (ja)
JP (2) JP7010295B2 (ja)
CN (1) CN111033562B (ja)
WO (1) WO2019044944A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021245932A1 (ja) * 2020-06-05 2021-12-09
WO2022014001A1 (ja) * 2020-07-16 2022-01-20 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194856A (ja) * 1998-12-25 2000-07-14 Oki Electric Ind Co Ltd 輪郭抽出方法及び装置
JP2002279402A (ja) * 2001-03-22 2002-09-27 Oki Electric Ind Co Ltd コンタクトレンズ辞書作成装置および個人認証システム
JP2004206444A (ja) 2002-12-25 2004-07-22 Matsushita Electric Ind Co Ltd 個人認証方法および虹彩認証装置
JP2006302276A (ja) * 1994-09-02 2006-11-02 Sarnoff Corp 自動化された非侵入的な虹彩認識システムおよびその方法
JP2006343995A (ja) * 2005-06-09 2006-12-21 Oki Electric Ind Co Ltd 生体情報の登録装置または照合装置
JP2013522754A (ja) * 2010-05-13 2013-06-13 イリテック インコーポレイテッド 複数の虹彩テンプレートを用いた虹彩認識装置及び方法
JP2017165404A (ja) 2016-03-14 2017-09-21 本田技研工業株式会社 車両のフレームおよびその組立方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP3424913B2 (ja) 1999-02-23 2003-07-07 ノーリツ鋼機株式会社 写真処理方法及び写真処理装置
EP1829479A1 (en) * 2005-02-16 2007-09-05 Matsushita Electric Industrial Co., Ltd. Biometric discrimination device, authentication device, and biometric discrimination method
JP4650386B2 (ja) * 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
CN101923640B (zh) * 2010-08-04 2013-03-20 北京中科虹霸科技有限公司 基于鲁棒纹理特征和机器学习对伪造虹膜图像判别的方法
US9811729B2 (en) * 2015-05-12 2017-11-07 Ut-Battelle, Llc Iris recognition via plenoptic imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302276A (ja) * 1994-09-02 2006-11-02 Sarnoff Corp 自動化された非侵入的な虹彩認識システムおよびその方法
JP2000194856A (ja) * 1998-12-25 2000-07-14 Oki Electric Ind Co Ltd 輪郭抽出方法及び装置
JP2002279402A (ja) * 2001-03-22 2002-09-27 Oki Electric Ind Co Ltd コンタクトレンズ辞書作成装置および個人認証システム
JP2004206444A (ja) 2002-12-25 2004-07-22 Matsushita Electric Ind Co Ltd 個人認証方法および虹彩認証装置
JP2006343995A (ja) * 2005-06-09 2006-12-21 Oki Electric Ind Co Ltd 生体情報の登録装置または照合装置
JP2013522754A (ja) * 2010-05-13 2013-06-13 イリテック インコーポレイテッド 複数の虹彩テンプレートを用いた虹彩認識装置及び方法
JP2017165404A (ja) 2016-03-14 2017-09-21 本田技研工業株式会社 車両のフレームおよびその組立方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021245932A1 (ja) * 2020-06-05 2021-12-09
WO2021245932A1 (ja) * 2020-06-05 2021-12-09 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
JP7359303B2 (ja) 2020-06-05 2023-10-11 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2022014001A1 (ja) * 2020-07-16 2022-01-20 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
JPWO2022014001A1 (ja) * 2020-07-16 2022-01-20
JP7400977B2 (ja) 2020-07-16 2023-12-19 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
EP3678091A1 (en) 2020-07-08
EP3678091A4 (en) 2020-11-25
JP7010295B2 (ja) 2022-02-10
US11017226B2 (en) 2021-05-25
CN111033562A (zh) 2020-04-17
US11636711B2 (en) 2023-04-25
JPWO2019044944A1 (ja) 2020-04-09
JP2022033267A (ja) 2022-02-28
US20210256242A1 (en) 2021-08-19
CN111033562B (zh) 2024-03-22
US20200184186A1 (en) 2020-06-11
JP7298720B2 (ja) 2023-06-27

Similar Documents

Publication Publication Date Title
JP7011784B2 (ja) 虹彩照合システム、虹彩照合方法及び記憶媒体
JP7351375B2 (ja) 虹彩照合システム、虹彩照合方法及び記憶媒体
JP7298720B2 (ja) 画像処理システム、画像処理方法及び記憶媒体
JP7226477B2 (ja) 情報処理システム、情報処理方法及び記憶媒体
US11977279B2 (en) Colored contact lens, manufacturing method of colored contact lens, and iris recognition system
US20230280601A1 (en) Colored contact lens, manufacturing method of colored contact lens, and iris recognition system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18851326

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019539603

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018851326

Country of ref document: EP

Effective date: 20200330