WO2024018591A1 - 情報処理装置、情報処理システム、認証方法、記憶媒体 - Google Patents

情報処理装置、情報処理システム、認証方法、記憶媒体 Download PDF

Info

Publication number
WO2024018591A1
WO2024018591A1 PCT/JP2022/028343 JP2022028343W WO2024018591A1 WO 2024018591 A1 WO2024018591 A1 WO 2024018591A1 JP 2022028343 W JP2022028343 W JP 2022028343W WO 2024018591 A1 WO2024018591 A1 WO 2024018591A1
Authority
WO
WIPO (PCT)
Prior art keywords
different partial
feature amount
partial regions
similarity
different
Prior art date
Application number
PCT/JP2022/028343
Other languages
English (en)
French (fr)
Inventor
悠歩 庄司
貴裕 戸泉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/028343 priority Critical patent/WO2024018591A1/ja
Publication of WO2024018591A1 publication Critical patent/WO2024018591A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to an information processing device, an information processing system, an authentication method, and a storage medium.
  • ensemble learning method that generates multiple learning devices and uses these multiple different learning devices to output a predetermined estimation result for the input.
  • this ensemble learning method a plurality of individual learning devices perform learning using the same or different data sets to generate models. These learners are called weak learners.
  • weak learners When calculating the estimation result, the estimation results of the individual weak learning devices are integrated and used as the overall estimation result.
  • Such ensemble learning may be used for authentication.
  • Patent Document 1 discloses a technique (bagging) in which a plurality of sub-data sets are created from a training data set by sampling that allows overlap, and the sub-data sets are used to train separate weak learners.
  • Patent Document 2 discloses a technique (boosting) that, when training a certain weak learning device, determines and learns loss weights for training data from the output results of other learning devices.
  • boosting boosting
  • a new learning device is trained so that it has a high discrimination ability for input data for which other learning devices have incorrectly estimated results.
  • Patent Document 3 discloses a technique in which, when training a weak learner, learning is performed using partial images that are randomly cut out from part of the original image.
  • Patent Document 4 discloses a technique that includes a weak learning device that receives an iris image as an input and a weak learning device that receives an image around the eye as an input, and that integrates the results of each and outputs an estimation result.
  • This disclosure aims to provide an information processing device, an information processing system, an authentication method, and a storage medium that improve the above-mentioned documents.
  • the information processing device includes a region selection unit that selects a plurality of different partial regions including at least some iris regions based on eye characteristics included in an acquired image; a feature amount calculating means that calculates a feature amount of each of the different partial regions, and a feature amount calculation means for calculating a feature amount of each of the different partial regions based on the relationship between the feature amount of each of the different partial regions and the feature amount of each of the different partial regions of a person stored in advance.
  • the image processing apparatus includes a similarity calculating means for calculating a degree of similarity, and an authentication means for authenticating a person whose eyes are included in the acquired image based on the degree of similarity of each of the different partial regions.
  • the information processing device includes: a region selection unit that selects one region including at least a part of the iris region based on eye characteristics included in an acquired image; size conversion means for converting a region into different partial regions having different numbers of pixels; feature amount calculation means for calculating feature amounts of each of the different partial regions; similarity calculation means for calculating the similarity of each of the different partial regions based on the relationship with the feature amount of each of the partial regions; An authentication means for performing authentication.
  • the information processing system includes: a region selection unit that selects a plurality of different partial regions including at least some iris regions based on eye characteristics included in an acquired image; a feature amount calculating means that calculates a feature amount of each of the different partial regions, and a feature amount calculation means for calculating a feature amount of each of the different partial regions based on the relationship between the feature amount of each of the different partial regions and the feature amount of each of the different partial regions of a person stored in advance.
  • the image processing apparatus includes a similarity calculating means for calculating a degree of similarity, and an authentication means for authenticating a person whose eyes are included in the acquired image based on the degree of similarity of each of the different partial regions.
  • the information processing system includes: a region selection unit that selects one region including at least a part of the iris region based on eye characteristics included in an acquired image; size conversion means for converting a region into different partial regions having different numbers of pixels; feature amount calculation means for calculating feature amounts of each of the different partial regions; similarity calculation means for calculating the similarity of each of the different partial regions based on the relationship with the feature amount of each of the partial regions; An authentication means for performing authentication.
  • the authentication method selects a plurality of different partial areas including at least some iris areas based on eye characteristics included in an acquired image, and selects a plurality of different partial areas including at least some iris areas, and calculating the similarity of each of the different partial regions based on the relationship between the feature amount of each of the different partial regions and the feature amount of each of the different partial regions of the person stored in advance; The person whose eyes are included in the acquired image is authenticated based on the respective degrees of similarity.
  • the authentication method includes selecting one area including at least a part of the iris area based on the eye characteristics included in the acquired image, and dividing the one area into different numbers of pixels. , and calculates the feature amount of each of the different partial regions, and calculates the feature amount of each of the different partial regions, and calculates the feature amount of each of the different partial regions based on the relationship between the feature amount of each of the different partial regions and the feature amount of each of the different partial regions of the person stored in advance.
  • the degree of similarity of each partial area is calculated, and the person whose eyes are included in the acquired image is authenticated based on the degree of similarity of each of the different partial areas.
  • the storage medium causes the computer of the information processing device to select a plurality of different partial regions including at least some iris regions based on eye characteristics included in the acquired image.
  • a region selection means a feature amount calculation means for calculating the feature amount of each of the different partial regions, and a feature amount calculation means for calculating the feature amount of each of the different partial regions;
  • a program is stored that functions as a similarity calculation means for calculating the degree of similarity of each of the partial areas, and an authentication means for authenticating the person whose eyes are included in the acquired image based on the degree of similarity of each of the different partial areas.
  • the storage medium causes the computer of the information processing device to select one area including at least a part of the iris area based on the eye characteristics included in the acquired image.
  • size conversion means for converting the one region into different partial regions having different numbers of pixels
  • feature amount calculation means for calculating the feature amount of each of the different partial regions, and a person who stores in advance the feature amount of each of the different partial regions.
  • a similarity calculation means for calculating the degree of similarity of each of the different partial areas based on the relationship with the feature amount of each of the different partial areas; Stores a program that functions as an authentication means for authenticating a person.
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1 in a first embodiment.
  • FIG. 3 is a diagram illustrating an overview of feature point detection processing in the first embodiment.
  • FIG. 3 is a first diagram showing an overview of region selection processing in the first embodiment.
  • FIG. 3 is a second diagram showing an overview of area selection processing in the first embodiment.
  • FIG. 7 is a third diagram showing an overview of region selection processing in the first embodiment.
  • FIG. 4 is a fourth diagram showing an overview of area selection processing in the first embodiment.
  • FIG. 3 is a diagram showing a processing flow of feature amount recording processing performed by the information processing device 1 in the first embodiment.
  • FIG. 3 is a diagram showing a processing flow of authentication processing performed by the information processing device 1 in the first embodiment.
  • FIG. 3 is a diagram illustrating an overview of feature point detection processing in the first embodiment.
  • FIG. 3 is a first diagram showing an overview of region selection processing in the first embodiment.
  • FIG. 3 is a second diagram showing an overview of area
  • FIG. 2 is a block diagram showing the configuration of an information processing device 1 in a second embodiment.
  • FIG. 7 is a diagram illustrating an overview of region selection processing in the second embodiment. It is a block diagram showing the composition of information processing device 1 in a 3rd embodiment.
  • FIG. 7 is a diagram showing an overview of area selection and size conversion processing in the third embodiment.
  • FIG. 7 is a diagram showing a processing flow of feature amount recording processing performed by the information processing device 1 in the third embodiment.
  • FIG. 7 is a diagram showing a processing flow of authentication processing performed by the information processing device 1 in the third embodiment.
  • FIG. 7 is a diagram showing an outline of region selection processing in a fourth embodiment.
  • 1 is a hardware configuration diagram of an information processing device 1.
  • FIG. 1 is a diagram showing the minimum configuration of an information processing device 1.
  • the information processing device 1 according to the present embodiment improves the accuracy of target authentication in an authentication technique using ensemble learning.
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1 in the first embodiment.
  • the information processing device 1 includes an image acquisition unit 10, a feature point detection unit 11, and image area selection units 12.1, . . . , 12.1. N, feature extraction unit 13.1,...,13. N, matching feature amount storage unit 14, score calculation unit 15.1,...,15. N, a score integration section 16, and an authentication determination section 17.
  • the image acquisition unit 10 acquires an image that includes at least the iris of the eye of the living body to be authenticated.
  • the image may include not only the iris of the eye, but also the sclera and surrounding area of the eye.
  • the iris shows the pattern of eye muscle fibers that surround the pupil in a circle.
  • the muscle fiber pattern of the iris is unique to each individual.
  • the information processing device 1 of this embodiment performs target authentication using at least iris pattern information. This is called iris recognition.
  • the feature point detection unit 11 detects feature points, which are eye feature information, from the acquired image.
  • Image area selection section 12.1,...,12. N selects a plurality of different partial regions including at least a part of the iris region from the image based on feature information such as eye feature points detected by the feature point detection unit 11.
  • Image area selection section 12.1,...,12. N operate in parallel, each selecting a different subregion in the acquired image.
  • Image area selection section 12.1,...,12. N may select a partial area that includes the iris area.
  • Image area selection section 12.1,...,12. Any one or more of N may select different partial regions of the eye including the entire region of the iris.
  • Image area selection section 12.1,...,12. N is collectively referred to as an image area selection section 12.
  • Feature extraction unit 13.1,...,13. N is the image area selection unit 12.1,...,12.
  • the feature amounts f1,..., feature amounts fn are extracted for the partial areas a1,..., partial area an selected in N.
  • the feature amount is a value representing the feature of the iris.
  • Feature extraction unit 13.1,...,13. N is collectively referred to as a feature quantity extraction unit 13.
  • the matching feature amount storage unit 14 stores matching feature amounts indicating the feature amounts of the target registered in advance.
  • the matching feature is, for example, the M-th feature of a plurality of matching features of a person registered in advance before authentication, and is extracted by the feature extracting unit 13 in the pre-feature registration process. M is the feature extracted and recorded in the matching feature storage unit 14.
  • Score calculation unit 15.1,...,15. N is the feature quantity f1,..., feature quantity fn extracted by the feature quantity extraction unit 13.1,...,13.N and the matching feature quantity f1,..., matching feature stored in the matching feature quantity storage unit 14. Using the quantity fn, scores SC1,..., score SCn, which are scores for the respective partial regions, are calculated. The score here refers to the degree of similarity with corresponding feature amounts registered in advance. Score calculation unit 15.1,...,15. N is collectively referred to as a score calculation unit 15.
  • the score integration unit 16 includes score calculation units 15.1,...,15. An integrated score is calculated using the scores SC1,..., score SCn obtained from N. The integrated score is calculated by the score calculation unit 15.1,...,15. N is the statistical value of each calculated score.
  • the authentication determination unit 17 makes an authentication determination based on the integrated score obtained from the score integration unit 16.
  • the object to be authenticated by the information processing device 1 of this embodiment may be an animal such as a human, a dog, or a snake.
  • FIG. 2 is a diagram showing an overview of feature point detection processing.
  • the feature point detection unit 11 detects arbitrary coordinates p in the contour of the eyelid included in the acquired image, center coordinates O1 of the pupil circle, center coordinates O2 of the iris circle, pupil radius r1, iris radius r2, etc. Features may be detected and vectors of those values may be calculated as feature point information. The positions of the center coordinates O1 of the pupil circle and the center coordinates O2 of the iris circle may be shifted.
  • An arbitrary coordinate p in the contour of the eyelid (upper eyelid, lower eyelid) included in the acquired image may be, for example, a value calculated with a predetermined position of the eye as the center of the image.
  • the predetermined position may be a point at the corner of the eye or the middle of the eye, or a midpoint of a line connecting the corner of the eye or the point at the middle of the eye.
  • FIG. 3 is a first diagram showing an overview of area selection processing.
  • Image area selection section 12.1,...,12. N will be referred to as an image area selection unit 12.
  • the image area selection unit 12 identifies a point p1 at the corner of the eye and a point p2 at the inner corner of the eye in the acquired image (G11), calculates the angle ⁇ formed by the straight line L1 passing through these points and the horizontal direction L2 of the image, and calculates the angle ⁇ between the straight line L1 passing through these points and the horizontal direction L2 of the image.
  • An image (G12) is generated by rotationally transforming the image using the angle ⁇ formed so that the straight line L1 connecting the corner point and the inner corner point coincides with the horizontal direction L2 of the image.
  • the image area selection unit 12 identifies a predetermined partial area including the iris area in the image (G12) (G13), and cuts out an image (G14) of the partial area.
  • Image area selection section 12.1,...,12. N is set in advance to cut out images of partial regions at different positions based on eye characteristic information.
  • FIG. 4 is a second diagram showing an overview of region selection processing.
  • the image area selection unit 12 identifies the diameter of the pupil in the eyeball and the diameter of the iris of the eye reflected in the acquired image (G21), and reduces or reduces the image so that the diameter of the pupil or iris becomes a predetermined value.
  • An enlarged image (G22) is generated.
  • the image area selection unit 12 specifies the number of pixels corresponding to the length of the diameter of the pupil based on the center coordinates of the circle of the pupil, and the number of pixels corresponding to the length of the diameter of the iris.
  • a reduced or enlarged image may be generated by performing image processing such as affine transformation so that the ratio of the number of pixels for the length and the number of pixels for the length of the pupil diameter is constant.
  • Generation of this reduced or enlarged image (G22) is a form of image normalization.
  • the image area selection unit 12 identifies the radius of the pupil in the eyeball and the radius of the iris of the eye reflected in the acquired image (G21), and adjusts the image so that the radius of the pupil and iris becomes a predetermined value.
  • a reduced or enlarged image (G22) may be generated.
  • the image area selection unit 12 identifies a predetermined partial area including the iris area in the image (G22) (G23), and cuts out an image (G24) of the partial area.
  • Image area selection section 12.1,...,12. N cuts out images of partial regions at different positions based on eye characteristic information.
  • FIG. 5 is a third diagram showing an overview of region selection processing.
  • the image area selection unit 12 generates an image (G32) that is converted so that the position of the eye appearing in the acquired image (G31) is located at the center of the image.
  • the image area selection unit 12 converts the image (G32 ) is generated.
  • Generation of this converted image (G32) is a form of image normalization.
  • the image area selection unit 12 performs image processing such as affine transformation so that the number of pixels corresponding to the length of the radius of the iris based on the center coordinates of the circle of the iris becomes constant, and the converted image (G32 ) may be generated.
  • the image area selection unit 12 identifies a predetermined partial area including the iris area in the image (G32) (G33), and cuts out an image (G34) of the partial area.
  • Image area selection section 12.1,...,12. N cuts out images of partial regions at different positions based on eye characteristic information.
  • the processing shown in FIGS. 3, 4, and 5 is a mode of processing in which the area of the specific part of the eye in the acquired image is normalized to a specified orientation or a specified size.
  • FIG. 6 is a fourth diagram showing an overview of region selection processing.
  • the image area selection unit 12 selects a predetermined partial area based on the eye characteristic information. You may cut out the image.
  • image area selection units 12.1, . . . , 12. N cuts out images of partial regions at different positions based on eye characteristic information.
  • the partial areas selected by each of the image area selection units 12 may be a plurality of different partial areas having different center positions.
  • the partial areas selected by each of the image area selection units 12 may be a plurality of different partial areas having different sizes.
  • Each of the image area selection units 12 may select a plurality of different partial areas, including a partial area that includes the inside of the eyeball, and a partial area that includes the skin around the eyeball.
  • the image area selection unit 12 may select a plurality of different areas including feature points around the eyeball of the eye.
  • the information processing device 1 according to the present embodiment performs ensemble learning using the feature amounts of images of different partial regions in this way, and uses the feature amounts of images of the different partial regions for authentication processing, thereby improving the accuracy of authentication. Improve.
  • FIG. 7 is a diagram showing a processing flow of feature amount recording processing performed by the information processing device 1 in the first embodiment. Next, with reference to FIG. 7, the feature amount recording process of the information processing apparatus 1 in the first embodiment will be described.
  • a person inputs his or her own facial image into the information processing device 1.
  • the information processing device 1 may use a predetermined camera to photograph a range including the eyes of a person, and obtain an image generated at the time of photographing.
  • the image acquisition unit 10 acquires an image including the eyes of a person (step S11).
  • the image acquisition unit 10 may acquire an image taken by a predetermined camera of a range of the eyes of a person, or may acquire an image including the face of the person and cut out an image of a predetermined range including the eyes from the image. Good too. It is assumed that the image includes at least one eye of the target. It is also assumed that the image shows the pupil and iris of the eye.
  • the image acquisition unit 10 includes a feature point detection unit 11 and an image area selection unit 12.1,...,12. Output the image to N.
  • the feature point detection unit 11 detects feature points of the eye based on the acquired image (step S12).
  • the feature point detection unit 11 may calculate a vector including the central coordinates and radius of the iris circle from the acquired image as information indicating the feature point. This vector is information representing the feature points of the eye.
  • the feature point detection unit 11 may detect other features in the iris region as eye feature points. As explained using FIG. 2, as information representing the eye feature points, the feature point detection unit 11 includes the center coordinates of the pupil circle included in the acquired image, the center coordinates of the iris circle, the radius of the pupil, Information representing eye feature points may be generated using the radius of the iris, arbitrary coordinates on the contour of the eyelids (upper eyelid, lower eyelid), and the like.
  • the feature point detection unit 11 detects not only the center position of the iris circle and the numerical value of the radius of the iris circle, but also the vector representing the center position of the pupil circle, the numerical value of the radius of the pupil, and the position coordinates of the feature point on the eyelid. may be output as information indicating feature points.
  • the feature point detection unit 11 may calculate information indicating a feature point including the center coordinates of the outer circle of the iris, the radius of the outer circle of the iris, the coordinates of the corner of the eye, and the coordinates of the inner corner of the eye as a vector.
  • the feature point detection unit 11 also performs segmentation of the outer and inner circular areas of the iris, the circular area of the pupil, and the eyelid area (skin) around the eyes, and performs circle detection etc. on the two-dimensional map.
  • Information indicating feature points including the center coordinates of the outer circle of the iris, the radius of the outer circle of the iris, the coordinates of the corner of the eye, and the coordinates of the inner corner of the eye may be calculated and output as a vector.
  • the feature point detection unit 11 If the feature point detection unit 11 cannot detect the circle of the iris, it removes information on the iris region such as the center coordinates of the outer circle of the iris and the radius of the outer circle of the iris, and detects the coordinates of the outer corner of the eye, the coordinates of the inner corner of the eye, etc. Information indicating other included feature points may be calculated and output as a vector.
  • the feature point detection unit 11 may be configured with a recurrent neural network (RNN), for example.
  • RNN includes multiple convolutional layers and multiple activation layers, extracts feature points from an input image, converts the extracted feature points into a vector representing the corresponding region using a linear layer, and generates feature points. It may be output as information representing.
  • any neural network structure can be used as long as it meets the requirements.
  • the structure of the neural network structures similar to those of VGG (Visual Geometry Group), ResNet (Residual Network), DenseNet, etc. can be mentioned, but structures other than these may be used.
  • the feature point detection unit 11 may be an image processing mechanism other than a neural network.
  • the feature point detection unit 11 may generate information representing the feature point of the eye using the image after performing the conversion process (normalization) described using FIGS. 3, 4, and 5.
  • the feature point detection unit 11 sends information indicating feature points to the image area selection units 12.1, . . . , 12.1. Output to N.
  • Image area selection section 12.1,...,12. N inputs the image input from the image acquisition section 10 and the information indicating the feature points input from the feature point detection section 11.
  • Image area selection section 12.1,...,12. Each of N selects a different partial region using the image and the information indicating the feature points using the method described in FIG. 3, FIG. 4, and FIG. 5 (step S13).
  • Image area selection section 12.1,...,12. Images of N selected partial regions are generated.
  • the images of N selected partial areas are respectively called images of partial areas a1, . . . , partial area an.
  • Image region selection section 12.1 outputs partial region a1 to feature amount extraction section 13.1.
  • Image region selection section 12.2 outputs partial region a2 to feature amount extraction section 13.2.
  • image area selection units 12.3,...,12. N outputs the generated image of the partial region to the corresponding feature extraction unit 13.
  • Feature extraction unit 13.1,...,13. N is calculated by performing image preprocessing on the input partial region image, such as normalizing the brightness histogram, masking other than the iris circle, and polar coordinate expansion with the center of the iris circle as the origin. The amount is extracted (step S14).
  • Feature extraction unit 13.1,...,13. N receives images of partial areas a1, . . . , partial area an as input, and extracts feature amounts f1, .
  • the feature extraction units 13.1,...,13. N may extract feature amounts using different methods.
  • Feature extraction unit 13.1,...,13. N may be constructed, for example, by a convolutional neural network.
  • N is selected by the image area selection units 12.1,...,12.N so that feature quantities can be extracted appropriately. Learning may be performed in advance using the image of the partial region selected in N.
  • the feature amount extraction unit 13 may be a weak learning device using a model that can generate feature amounts with high accuracy, or may be another trained neural network.
  • the feature extraction unit is 13.1,...,13.
  • N may be an image processing mechanism that extracts feature amounts that are not configured by a neural network.
  • N is the extracted feature quantity f1,..., feature quantity fn (verification feature quantity), such as an identifier of a person appearing in the image used in the feature quantity recording process, an identifier of the feature quantity extraction unit 13 that extracted the feature quantity, etc. , and is recorded in the matching feature storage unit 14 (step S15).
  • the feature amounts of the eyes of the object appearing in the image used in the feature amount recording process, and the feature amounts of different partial regions of the eyes are recorded in the matching feature amount storage section 14, respectively.
  • the information processing device 1 performs the same processing as described above for each of the left and right eyes in the image, and stores the feature quantities f1,..., feature quantities fn in the matching feature quantity storage unit 14 by further linking them to the left eye or right eye identifier. May be recorded.
  • the information processing device 1 performs similar feature recording processing using images of many objects to be authenticated and provides predetermined services and processing functions, and similarly records feature amounts f1,..., feature amounts fn. It is recorded in the matching feature amount storage section 14. The above process completes the explanation of the preliminary feature amount recording process.
  • FIG. 8 is a diagram showing a processing flow of authentication processing performed by the information processing device 1 in the first embodiment. Next, the authentication process of the information processing device 1 in the first embodiment will be described with reference to FIG. 8.
  • a person inputs his or her own facial image into the information processing device 1.
  • the information processing device 1 may photograph a person using a predetermined camera and obtain an image generated at the time of photographing.
  • the image acquisition unit 10 acquires an image including the eyes of a person (step S21). It is assumed that the image includes at least one eye of the target. Further, it is assumed that the image includes the iris of the eye.
  • the image acquisition unit 10 includes a feature point detection unit 11 and an image area selection unit 12.1,...,12. Output the image to N.
  • the feature point detection unit 11 detects feature points of the eye based on the acquired image (step S22). This process is similar to the process in step S12 described in the feature amount recording process described above.
  • Image area selection section 12.1,...,12. N inputs the image input from the image acquisition section 10 and the information indicating the feature points input from the feature point detection section 11.
  • Each of N selects a different partial region using the image and the information indicating the feature points using the method described in FIG. 3, FIG. 4, and FIG. 5 (step S23). This process is similar to the process in step S13 described in the feature quantity recording process described above.
  • Feature extraction unit 13.1,...,13. N extracts feature amounts from the input partial region image (step S24). This process is similar to the process in step S14 described in the feature amount recording process described above. Feature extraction unit 13.1,...,13. N outputs the extracted feature amounts f1, . . . , feature amount fn to the corresponding score calculation unit 15.
  • Score calculation unit 15.1,...,15. N acquires the feature amounts f1, . Also, the score calculation unit 15.1,...,15. N acquires the corresponding feature amount (feature amount f1,..., feature amount fn) of one person extracted in the feature amount recording process recorded in the matching feature amount storage unit 14. Score calculation unit 15.1,...,15. N calculates a score using the feature amount extracted in the authentication process and the feature amount extracted in the feature amount recording process, respectively (step S25). Score calculation unit 15.1,...,15. The scores calculated by N are respectively defined as score SC1, . . . score SCn.
  • Score calculation unit 15.1,...,15. N may be calculated using, for example, the cosine similarity between the feature amount extracted in the authentication process and the feature amount extracted in the feature amount recording process to calculate the scores SC1, . . . , SCn.
  • the score calculation unit 15.1,...,15. N is a score calculated using the L2 distance (Eugrid distance) function or the L1 distance (Manhattan distance) function between the feature extracted in the authentication process and the feature extracted in the feature recording process. You can.
  • Score calculation unit 15.1,...,15. N determines whether the feature values of data related to the same person are similar by utilizing the property that cosine similarity, L2 distance function, L1 distance function, etc. tend to be close in distance. You may.
  • Score calculation unit 15.1,...,15. N may be constructed using a neural network, for example. Also, the score calculation units 15.1,...,15. N may be a score calculation processing mechanism that is not configured by a neural network, for example, the score is calculated by the Hamming distance between the feature amount extracted in the authentication process and the feature amount extracted in the feature amount recording process. Good too. Score calculation unit 15.1,...,15. N outputs the calculated score to the score integration section 16. Score calculation unit 15.1,...,15. The scores calculated by N are respectively called score SC1,..., score SCn.
  • the score integration unit 16 calculates an integrated score using the scores SC1,..., score SCn (step S26).
  • the score integration unit 16 may calculate the integrated score by, for example, selecting the maximum value from the scores SC1, . . . SCn as the integrated score.
  • the score integration unit 16 may calculate the integrated score using a representative value such as an average or a mode of the scores SC1,..., score SCn.
  • the score integration unit 16 may calculate the integrated score using an estimation method such as a regression neural network (RNN) that receives the scores SC1, . . . , and scores SCn, or a support vector machine.
  • RNN regression neural network
  • the score integration unit 16 may use an average of each score or a weighted average as a means for calculating the integrated score. Alternatively, the score integration unit 16 may select the largest score among the scores and calculate it as the integrated score. Further, the score integration unit 16 may be constructed using a neural network, for example. Moreover, the score integration unit 16 may be a processing mechanism that is not configured with a neural network, and may use, for example, logistic regression or Ridge regression. The score integration unit 16 outputs the integrated score to the authentication determination unit 17.
  • the authentication determination unit 17 acquires the integrated score.
  • the authentication determination unit 17 authenticates the target person appearing in the image using the integrated score (step S27). For example, if the integrated score is equal to or greater than the threshold, the authentication determination unit 17 determines that the person in the image is a registered person and outputs information indicating successful authentication. If the integrated score is less than the threshold, the authentication determination unit 17 determines that the person in the image is an unregistered person and outputs information indicating that the authentication was unsuccessful.
  • the authentication determination unit 17 identifies, in the verification feature storage unit 14, the matching feature used to calculate the highest integrated score among the integrated scores equal to or higher than the threshold, and uses the identification feature of the person associated with the matching feature. Based on this, the person in the image may be identified.
  • the authentication determination unit 17 determines that the authentication is unsuccessful if the difference between the highest integrated score and the next highest integrated score among the integrated scores that are equal to or greater than the threshold is less than or equal to a predetermined threshold. You can also do this.
  • the image region selection unit 12 selects a plurality of different partial regions including at least a part of the iris region based on the characteristics of the target eye included in the acquired image
  • the feature amount extraction unit 13 calculates the feature amount of each of the different partial regions.
  • the score calculation unit 15 calculates the degree of similarity between the pre-stored feature amount and each different partial region based on the feature amount of each of the different partial regions and the pre-stored feature amount, and the authentication determination unit 17
  • the target is authenticated based on the degree of similarity between different partial areas. According to such processing, since authentication is performed using ensemble learning using different weak learners according to different partial regions including the iris of the eye, it is possible to easily improve the authentication accuracy of the target.
  • Iris recognition technology requires high authentication accuracy for actual operation.
  • One way to improve authentication accuracy is to use images with higher resolution and better focus, but acquiring images with a large number of pixels requires a more expensive camera or has severe constraints on the imaging environment. There is a problem that may occur. Therefore, there is a need for a method that improves the accuracy of authentication by improving the iris authentication process without satisfying such constraints.
  • Ensemble learning is a means of increasing the accuracy of estimating whether or not an object is a pre-memorized object in authentication.
  • Ensemble learning is a method that allows estimation with higher accuracy than the estimation results of individual learning devices by integrating the estimation results of multiple learning devices. For effective ensemble learning, each learning device must be able to estimate with high accuracy, and the correlation between the estimation results must be small.
  • Typical ensemble learning methods use random numbers to divide and generate training data or connect weak learners together to increase the effectiveness of the ensemble, but these methods improve performance. There is a problem in that trial and error is required and the learning cost is high.
  • the information processing device 1 performs feature point detection when an image including eyes is input, and selects a predetermined partial region using the obtained feature points.
  • a plurality of partial regions each having different characteristics can be obtained regardless of the iris position or rotation state. Since the images of these partial regions have iris information but also include different regions, it is possible to reliably extract feature amounts that have small correlations with each other.
  • the information processing device 1 in this embodiment can perform effective ensemble learning without performing trial and error using random numbers as in a general ensemble learning method.
  • FIG. 9 is a block diagram showing the configuration of the information processing device 1 in the second embodiment.
  • the information processing device 1 includes an image acquisition unit 10, a feature point detection unit 11, and image area selection units 22.1, . . . , 22.1. N, feature extraction unit 13.1,...,13. N, matching feature amount storage unit 14, score calculation unit 15.1,...,15. N, a score integration section 16, and an authentication determination section 17.
  • the information processing device 1 of the second embodiment includes image area selection units 22.1, . . . , 22.
  • the processing of N is performed by the image area selection unit 12.1, . . . , 12.1 of the information processing device 1 of the first embodiment. This is different from the processing of N. Processing of other processing units is similar to the processing described in the first embodiment.
  • Image area selection section 22.1,...,22. N is collectively referred to as an image area selection section 22.
  • FIG. 10 is a diagram showing an overview of area selection processing in the second embodiment.
  • Image area selection section 22.1,...,22. Based on the center position of the iris detected by the feature point detection unit 11, N selects a partial region having the same position as the center of the iris and having a different area, as shown in FIG. In the example of FIG. 10, the image area selection units 22.1, . . . , 22.1, 22.1, . N chooses.
  • Image area selection section 22.1,...,22. N may be a partial region of a triangle or a polygon of pentagon or more, each having the same position as the center of the iris and having vertices at different distances from the center.
  • N may select partial areas of a circle having the same position as the center of the iris and having different radii from the center.
  • Each partial region may include the entire iris.
  • one or more of the partial areas having a smaller area may include a part of the iris.
  • the example shown in FIG. 10 is a mode of processing in which the image area selection unit 22 selects a plurality of different partial areas having the same center position and different sizes.
  • the preliminary feature amount recording process (steps S11 to S15) and the authentication process (steps S21 to S27) performed by the information processing device 1 in the second embodiment are the same as in the first embodiment, and as described above.
  • Each of N selects a rectangular, polygonal, or circular partial area of a predetermined size to be the center position of the iris based on a predetermined program.
  • Each of N selects a partial region of a different area whose center position is the center of the iris.
  • Image area selection unit 22.1,...,22. according to the second embodiment.
  • N may select a partial region using an image after performing the conversion process (normalization) described using FIGS. 3, 4, and 5. .
  • the image area selection units 22.1,...,22 Since each of N selects a partial region of a different area whose center position is the center of the iris, a different feature amount is extracted from each partial region, and authentication using ensemble learning is performed for each feature amount. Thereby, the information processing device 1 can perform iris authentication with higher accuracy than when authentication is performed using only the feature amount of an image including a single iris.
  • FIG. 11 is a block diagram showing the configuration of the information processing device 1 in the third embodiment.
  • the information processing device 1 includes an image acquisition section 10, a feature point detection section 11, an image region selection section 32, and size conversion sections 33.1, . . . , 33.1. N, feature extraction unit 13.1,...,13. N, matching feature amount storage unit 14, score calculation unit 15.1,...,15. N, a score integration section 16, and an authentication determination section 17.
  • the information processing device 1 of the third embodiment includes one image area selection section 32, and size conversion sections 33.1, . . . , 33. This embodiment differs from the first and second embodiments in that N is provided. Image area selection section 32, size conversion section 33.1,...,33.
  • the processing of the processing units other than N is the same as the processing described in the first embodiment.
  • FIG. 12 is a diagram showing an overview of area selection and size conversion processing.
  • the image area selection unit 32 selects a partial area (iris area) including the iris in the acquired image using the feature point information including the center position of the iris and the radius of the iris acquired from the feature point detection unit 11. This partial region may be selected to include the entire region of the iris. A part of the iris may not be included in the selected partial area. In other words, the partial region may be at least a part of the iris.
  • the image area selection unit 32 has selected a circular area surrounded by the outer circle of the iris.
  • the image area selection unit 32 converts the partial area indicating the selected circular area into size conversion units 33.1, . . . , 33.
  • the image processed by the image area selection unit 32 is an image that has been subjected to the conversion process (normalization) described using FIGS. 3, 4, and 5, as described in the first embodiment. good. Although only one image area selection unit 32 is shown in FIG. 11, a plurality of image area selection units 32 similarly select the same partial area and convert the image information into size conversion units 33.1, . . . , 33. It may also be output to N.
  • Size conversion section 33.1,...,33. N acquires image information of the same partial area from the image area selection unit 32.
  • Size converter 33.1,...,33. N respectively size-converts the acquired image information of the same partial area to a different size.
  • Size converter 33.1,...,33. The number of pixels in the image of the partial regions after size conversion of N may be different.
  • Size converter 33.1,...,33. N may be size-converted using, for example, a technique such as Nearest Neighbor interpolation, Bilinear interpolation, or Bicubic interpolation as an image interpolation method that maintains the individuality of the iris.
  • Size converter 33.1,...,33. N may be resized using other interpolation techniques.
  • the size conversion units 33.1,...,33. N may be configured using a neural network.
  • FIG. 13 is a diagram showing a processing flow of feature amount recording processing performed by the information processing device 1 in the third embodiment.
  • the image area selection unit 32 selects a portion of the acquired image that includes the iris by the process described using FIG. A region (iris region) is selected (step S33).
  • Size converter 33.1,...,33. N respectively size-convert the acquired image information of the same partial area (iris area) into different sizes (step S34).
  • the feature extraction unit 13.1,...,13 Similar to the process in step S14 of the first embodiment, N is applied to the input partial region image by, for example, normalizing the brightness histogram, masking other than the iris circle, or using the center of the iris circle as the origin. After performing image preprocessing such as polar coordinate expansion, feature amounts are extracted (step S14). Also, the feature quantity extraction units 13.1,...,13.
  • N is the extracted feature quantity f1,..., feature quantity fn (matching feature quantity), such as an identifier of a person appearing in the image used in the feature quantity recording process,
  • the feature amount is recorded in the matching feature storage section 14 in association with the identifier of the feature amount extraction section 13 that extracted the feature amount (step S15).
  • FIG. 14 is a diagram showing a processing flow of authentication processing performed by the information processing device 1 in the third embodiment.
  • the image area selection unit 32 performs the process described using FIG. A partial area (iris area) including the iris is selected (step S43).
  • Size converter 33.1,...,33. N respectively size-convert the acquired image information of the same partial area (iris area) into different sizes (step S44).
  • the feature extraction units 13.1,...,13. N extracts feature amounts from the input image of the partial region (iris region) (step S24).
  • Score calculation unit 15.1,...,15. N calculates a score using the feature amount extracted in the authentication process and the feature amount extracted in the feature amount recording process, respectively (step S25).
  • the scores calculated by N are respectively defined as score SC1, . . . score SCn.
  • the score integration unit 16 calculates an integrated score using the scores SC1,..., score SCn (step S26).
  • the authentication determination unit 17 authenticates the target person appearing in the image using the integrated score (step S27).
  • the size conversion units 33.1, ..., 33 Based on the size-converted image of the partial region including the iris outputted by N, the feature extraction units 13.1,...,13. N is a feature quantity that has individuality, and a plurality of different feature quantities can be extracted.
  • the information processing device 1 performs authentication using ensemble learning using each of these feature amounts. Thereby, the information processing device 1 can perform iris authentication with higher accuracy than when authentication is performed using only the feature amount of an image including a single iris.
  • FIG. 15 is a block diagram showing the configuration of the information processing device 1 in the fourth embodiment.
  • the information processing device 1 includes an image acquisition unit 10, a feature point detection unit 11, image area selection units 42.1 and 42.2, feature extraction units 13.1 and 13.2, and matching features. It includes a quantity storage section 14, score calculation sections 15.1 and 15.2, a score integration section 16, and an authentication determination section 17.
  • the processing of the image area selection units 42.1, 42.2 is the same as that of the image area selection units 12.1, . . . , 12.1 of the information processing apparatus 1 of the first embodiment. This is different from the processing of N. Processing of other processing units is similar to the processing described in the first embodiment.
  • FIG. 16 is a diagram showing an overview of region selection processing in the fourth embodiment.
  • the image area selection units 42.1 and 42.2 use the feature point information including the center position of the iris and the radius of the iris obtained from the feature point detection unit 11 to select an iris including the outer circle of the iris in the obtained image.
  • Each person selects a partial area (iris area) that has the same size as the outer circle of the eye, and a partial area (periphery of the eye area) that includes the periphery of the eye such as the corner of the eye, eyelids, and eyelashes other than the iris (see Figure 16).
  • Processing in processing units other than the image area selection units 42.1 and 42.2 is the same as in the first embodiment.
  • the process of the fourth embodiment is a process in which the image area selection unit 42 selects a plurality of different partial areas including a partial area that includes the inside of the eyeball and a partial area that includes the area around the eyeball. It is a mode.
  • the iris region can be used to distinguish between large numbers of people if high-resolution images can be obtained, and changes over time are extremely small. There are challenges.
  • images around the eyes include information about the eyelids, and although they cannot distinguish between large numbers of people as well as the iris area, they do not lose their individual characteristics even at relatively low resolution and have characteristics different from those of the iris.
  • the information processing device 1 performs authentication using ensemble learning using each of these feature amounts. As a result, the information processing device 1 can perform iris authentication with higher accuracy and perform robust authentication processing compared to the case where authentication is performed using only the feature amount of an image including a single iris. .
  • the information processing device 1 that performs authentication printing using an iris image has been described as an example, but this ensemble learning technique is also applicable to fraudulent authentication (presentation) using forgeries that simulate biological information. It can also be applied to other image processing fields, such as attack detection (PAD) and face recognition.
  • PAD attack detection
  • face recognition face recognition
  • learning cost can be reduced by performing ensemble learning using images that include at least the iris and showing different partial regions using feature information such as the position of the eyes.
  • Estimation processing including authentication processing can be executed in a small and highly accurate manner.
  • highly accurate estimation processing is possible is that, unlike methods that create training datasets using random numbers, weak learners are trained using images of partial regions selected using detected eye position information. This is because the correlation between the outputs can be reliably reduced by learning each weak learning device using images of different partial regions while making use of characteristics unique to the target such as an individual.
  • the reason why the learning cost is low is that the learning of the weak learner in the above-described embodiment can be performed in parallel, and there is no need for repeated learning.
  • FIG. 17 is a hardware configuration diagram of the information processing device 1.
  • the information processing device 1 is a computer equipped with various hardware such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a database 104, and a communication module 105. It may be.
  • the functions of the information processing device 1 according to each of the above-described embodiments are performed by an information processing system in which a plurality of information processing devices are provided with one or more of the above-mentioned functions and are configured so that the overall processing functions in cooperation with each other. May be realized.
  • FIG. 18 is a diagram showing the minimum configuration of the information processing device 1.
  • the information processing device 1 exhibits at least the functions of an area selection means 81, a feature quantity calculation means 82, a similarity calculation means 83, and an authentication means 84.
  • the area selection means 81 selects a plurality of different partial areas including at least a part of the iris area based on the characteristics of the target eye included in the acquired image.
  • the feature amount calculation means 82 calculates the feature amount of each of the different partial regions.
  • the similarity calculating means 83 calculates the degree of similarity between the pre-stored feature amount and each of the different partial regions, based on the feature amount of each of the different partial regions and the pre-stored feature amount.
  • the authentication means 84 authenticates the target based on the degree of similarity between the different partial areas.
  • the above program may be for realizing some of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
  • difference file difference program
  • region selection means for selecting a plurality of different partial regions including at least a part of the iris region based on the characteristics of the target eye included in the acquired image;
  • Feature amount calculation means for calculating feature amounts of each of the different partial regions;
  • similarity calculation means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount; authentication means for authenticating the object based on the similarity of each of the different partial areas;
  • region selection means for selecting one region including at least a part of the iris region based on the characteristics of the target eye included in the acquired image; size conversion means for converting the one area into different partial areas with different numbers of pixels; Feature amount calculation means for calculating feature amounts of each of the different partial regions; similarity calculation means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount; authentication means for authenticating the object based on the similarity of each of the different partial areas;
  • An information processing device comprising:
  • region selection means for selecting a plurality of different partial regions including at least a part of the iris region based on the characteristics of the target eye included in the acquired image;
  • Feature amount calculation means for calculating feature amounts of each of the different partial regions;
  • similarity calculation means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount; authentication means for authenticating the object based on the similarity of each of the different partial areas;
  • region selection means for selecting one region including at least a part of the iris region based on the characteristics of the target eye included in the acquired image; size conversion means for converting the one area into different partial areas with different numbers of pixels; Feature amount calculation means for calculating feature amounts of each of the different partial regions; similarity calculation means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount; authentication means for authenticating the object based on the similarity of each of the different partial areas; An information processing system equipped with.
  • (Appendix 11) selecting a plurality of different partial regions including at least part of the iris region based on the characteristics of the target eye included in the acquired image; Calculating the feature amount of each of the different partial regions, Based on the feature amount of each of the different partial regions and the pre-stored feature amount, calculate the degree of similarity between the pre-stored feature amount and each of the different partial regions; authenticating the target based on the similarity of each of the different partial areas; Authentication method.
  • (Appendix 12) selecting one region including at least a part of the iris region based on the characteristics of the target eye included in the acquired image; converting the one region into different partial regions with different numbers of pixels, Calculating the feature amount of each of the different partial regions, Based on the feature amount of each of the different partial regions and the pre-stored feature amount, calculate the degree of similarity between the pre-stored feature amount and each of the different partial regions; authenticating the target based on the similarity of each of the different partial areas; Authentication method.
  • region selection means for selecting a plurality of different partial regions including at least a part of the iris region based on the characteristics of the target eye included in the acquired image
  • feature amount calculation means for calculating feature amounts of each of the different partial regions
  • similarity calculating means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount
  • authentication means for authenticating the object based on the similarity of each of the different partial areas
  • a storage medium that stores programs that function as
  • region selection means for selecting one region including at least a part of the iris region based on the characteristics of the target eye included in the acquired image; size conversion means for converting the one area into different partial areas with different numbers of pixels; feature amount calculation means for calculating feature amounts of each of the different partial regions; similarity calculation means for calculating the similarity between the pre-stored feature amount and each of the different partial regions based on the feature amount of each of the different partial regions and the pre-stored feature amount; authentication means for authenticating the object based on the similarity of each of the different partial areas;
  • a storage medium that stores programs that function as
  • Information processing device 1 information processing device, information processing system
  • 10 ... Image acquisition unit, 11... Feature point detection unit, 12 (12.1, 12.2,...12.N) , 22 (22.1, 22.2,...22.N), 32, 42 (42.1, 42.4)... image area selection section (area selection means), 13 (13.1, 13. 2,...13.N).
  • feature quantity extraction unit feature quantity calculation means
  • 14 ...Verification feature quantity storage unit, 15 (15.1, 15.2,...15.N).
  • Score Calculation section similarity calculation means
  • 16 Score integration section (similarity calculation means)
  • 17... Authentication determination section authentication means

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する。異なる部分領域それぞれの特徴量を算出する。異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と異なる部分領域それぞれとの類似度を算出する。異なる部分領域それぞれの類似度に基づいて対象の認証を行う。

Description

情報処理装置、情報処理システム、認証方法、記憶媒体
 本開示は、情報処理装置、情報処理システム、認証方法、記憶媒体に関する。
 複数の学習器を生成し、それら複数の異なる学習器を用いて入力に対する所定の推定結果を出力するアンサンブル学習手法がある。このアンサンブル学習手法において複数の個々の学習器は、同じまたは異なるデータセットを用いて学習を行い、モデルを生成する。これら学習器は弱学習器と呼ばれる。推定結果の算出時は、個々の弱学習器の推定結果を統合し、それを全体の推定結果とする。このようなアンサンブル学習を認証に用いてもよい。
 関連する技術が非特許文献1~非特許文献4に開示されている。特許文献1には、訓練用のデータセットから、重複を許すようなサンプリングによりサブデータセットを複数作成し、それらを用いて別々の弱学習器を訓練する技術(バギング)が開示されている。
 特許文献2には、ある弱学習器を訓練するとき、他の学習器の出力結果から訓練データに対する損失の重みを決定し、学習する技術(ブースティング)が開示されている。この手法では、例えば、他の学習器が推定結果を間違えた入力データに対して識別能力が高くなるように新しい学習器を訓練する。
 特許文献3には、弱学習器を訓練するとき、元の画像の一部をランダムに切り取った部分画像を用いて学習する技術が開示されている。
 特許文献4には、虹彩画像を入力とする弱学習器と、目周辺画像を入力とする弱学習器があり、それぞれの結果を統合して推定結果を出力する技術が開示されている。
L. Breiman. Bagging predictors. Machine Learning, 24, 123-140, 1996. R.E. Schapire. A brief introduction to Boosting. In Proceedings of the Sixteenth International Joint Conference on Artificial Intelligence, 1999. B. Cheng, W. Wu, D. Tao, S. Mei, T. Mao and J. Cheng, "Random Cropping Ensemble Neural Network for Image Classification in a Robotic Arm Grasping System," in IEEE Transactions on Instrumentation and Measurement, vol. 69, no. 9, pp. 6795-6806, Sept. 2020, doi: 10.1109/TIM.2020.2976420. Oishi, S., Ichino, M., Yoshiura, H.: Fusion of iris and periocular user authentication by AdaBoost for mobile devices. In: 2015 IEEE International Conference on Consumer Electronics (ICCE), 9-12 Jan. 2015, Piscataway, NJ, USA, pp. 428-429. (2015)
 この開示は、上記の文献を改良する情報処理装置、情報処理システム、認証方法、記憶媒体を提供することを目的としている。
 本開示の第1の態様によれば、情報処理装置は、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む複数の異なる部分領域を選択する領域選択手段と、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段と、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段と、を備える。
 本開示の第2の態様によれば、情報処理装置は、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む一つの領域を選択する領域選択手段と、前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段と、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段と、を備える。
 本開示の第3の態様によれば、情報処理システムは、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む複数の異なる部分領域を選択する領域選択手段と、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段と、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段と、を備える。
 本開示の第4の態様によれば、情報処理システムは、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む一つの領域を選択する領域選択手段と、前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段と、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段と、を備える。
 本開示の第5の態様によれば、認証方法は、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む複数の異なる部分領域を選択し、前記異なる部分領域それぞれの特徴量を算出し、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出し、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う。
 本開示の第6の態様によれば、認証方法は、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む一つの領域を選択し、前記一つの領域を異なる画素数の異なる部分領域に変換し、前記異なる部分領域それぞれの特徴量を算出し、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出し、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う。
 本開示の第7の態様によれば、記憶媒体は、情報処理装置のコンピュータを、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む複数の異なる部分領域を選択する領域選択手段、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段、として機能させるプログラムを記憶する。
 本開示の第8の態様によれば、記憶媒体は、情報処理装置のコンピュータを、取得画像に含まれる目の特徴に基づいて少なくとも一部の虹彩の領域を含む一つの領域を選択する領域選択手段、前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段、前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、前記異なる部分領域それぞれの特徴量と予め記憶する人物の前記異なる部分領域それぞれの特徴量との関係に基づいて前記異なる部分領域それぞれの類似度を算出する類似度算出手段、前記異なる部分領域それぞれの類似度に基づいて前記取得画像に含まれる目の人物の認証を行う認証手段、として機能させるプログラムを記憶する。
第1実施形態における情報処理装置1の構成を示すブロック図である。 第1実施形態における特徴点検出の処理概要を示す図である。 第1実施形態における領域選択の処理概要を示す第一の図である。 第1実施形態における領域選択の処理概要を示す第二の図である。 第1実施形態における領域選択の処理概要を示す第三の図である。 第1実施形態における領域選択の処理概要を示す第四の図である。 第1実施形態における情報処理装置1が行う特徴量記録処理の処理フローを示す図である。 第1実施形態における情報処理装置1が行う認証処理の処理フローを示す図である。 第2実施形態における情報処理装置1の構成を示すブロック図である。 第2実施形態における領域選択の処理概要を示す図である。 第3実施形態における情報処理装置1の構成を示すブロック図である。 第3実施形態における領域選択とサイズ変換の処理概要を示す図である。 第3実施形態における情報処理装置1が行う特徴量記録処理の処理フローを示す図である。 第3実施形態における情報処理装置1が行う認証処理の処理フローを示す図である。 第4実施形態における情報処理装置1の構成を示すブロック図である。 第4実施形態における領域選択の処理概要を示す図である。 情報処理装置1のハードウェア構成図である。 情報処理装置1の最小構成を示す図である。
 以下、本開示の一実施形態による情報処理装置1を図面を参照して説明する。本実施形態による情報処理装置1は、アンサンブル学習を用いた認証技術において、対象の認証精度を向上させる。
<第1実施形態>
 図1は、第1実施形態における情報処理装置1の構成を示すブロック図である。
 図1に示すように、情報処理装置1は、画像取得部10、特徴点検出部11、画像領域選択部12.1,…,12.N、特徴量抽出部13.1,…,13.N、照合特徴量記憶部14、スコア算出部15.1,…,15.N、スコア統合部16、認証判定部17を備える。
 画像取得部10は、認証の対象の生体のうち、少なくとも目の虹彩を含む画像を取得する。画像は目の虹彩だけでなく、強膜や目の周囲を含んでも良い。虹彩は、瞳孔の周りを円状に囲む目の筋繊維のパターンを示す。虹彩の筋繊維パターンは、個々人に固有な特徴を持つ。本実施形態の情報処理装置1は少なくとも虹彩のパターン情報を用いて対象の認証を行う。これを虹彩認証と呼ぶ。
 特徴点検出部11は、取得した画像から目の特徴情報である特徴点を検出する。
 画像領域選択部12.1,…,12.Nは、特徴点検出部11で検出した目の特徴点などの特徴情報に基づいて、少なくとも一部の虹彩の領域を含む複数の異なる部分領域を画像から選択する。画像領域選択部12.1,…,12.Nは、それぞれ並列に動作し、それぞれが取得した画像において異なる部分領域を選択する。画像領域選択部12.1,…,12.Nは、虹彩領域を含むような部分領域を選択してよい。画像領域選択部12.1,…,12.Nの何れか一つまたは複数は、虹彩の全体の領域を含む目の異なる部分領域を選択してもよい。画像領域選択部12.1,…,12.Nを総称して画像領域選択部12と呼ぶ。
 特徴量抽出部13.1,…,13.Nは、画像領域選択部12.1,…,12.Nで選択された部分領域a1,…,部分領域anについての、特徴量f1,…,特徴量fnを抽出する。特徴量とは、虹彩の特徴を表す値である。特徴量抽出部13.1,…,13.Nを総称して特徴量抽出部13と呼ぶ。
 照合特徴量記憶部14は、事前に登録した対象の特徴量を示す照合特徴量を記憶する。照合特徴量は、例えば認証の前に事前に登録した人物の複数の照合特徴量のうちのM番目の特徴量であり、事前の特徴量の登録処理において、特徴量抽出部13.Mが抽出して照合特徴量記憶部14に記録した特徴量である。
 スコア算出部15.1,…,15.Nは特徴量抽出部13.1,…,13.Nで抽出された特徴量f1,…,特徴量fnと、照合特徴量記憶部14に記憶されている照合特徴量f1,…,照合特徴量fnとを用いて、それぞれの部分領域についてのスコアであるスコアSC1,…,スコアSCnを算出する。ここでいうスコアとは、事前に登録された対応する特徴量との類似度である。スコア算出部15.1,…,15.Nを総称してスコア算出部15と呼ぶ。
 スコア統合部16は、スコア算出部15.1,…,15.Nから得られたスコアSC1,…,スコアSCnを用いて統合スコアを算出する。統合スコアは、スコア算出部15.1,…,15.Nがそれぞれ算出したスコアの統計値である。
 認証判定部17は、スコア統合部16から得られた統合スコアに基づいて認証の判定を行う。
 なお本実施形態の情報処理装置1が認証を行う対象は、人間や犬、蛇等の動物であってよい。
 図2は特徴点検出の処理概要を示す図である。
 特徴点検出部11は、取得した画像に含まれる瞼の輪郭における任意の座標pや、瞳孔の円の中心座標O1、虹彩の円の中心座標O2、瞳孔の半径r1、虹彩の半径r2などの特徴を検出して、それらの値のベクトルを特徴点の情報として算出してよい。瞳孔の円の中心座標O1、虹彩の円の中心座標O2の位置はずれていてよい。取得した画像に含まれる瞼(上瞼、下瞼)の輪郭における任意の座標pは、例えば、目の所定の位置を画像の中心として算出した値であってよい。所定の位置は、目じりや目がしらの点であってもよいし、目じりや目がしらの点を結ぶ線の中点などであってもよい。
 図3は領域選択の処理概要を示す第一の図である。
 画像領域選択部12.1,…,12.Nを画像領域選択部12と呼ぶこととする。画像領域選択部12は、取得した画像(G11)に写る目の目じりの点p1と目頭の点p2を特定し、それら点を通る直線L1と画像の水平方向L2のなす角θを求め、そのなす角θを用いて目じりの点と目頭の点を結ぶ直線L1が画像の水平方向L2に一致するように画像を回転変換した画像(G12)を生成する。この回転変換した画像(G12)の生成は、画像の正規化の一態様である。画像領域選択部12は、画像(G12)において、虹彩の領域を含む所定の部分領域を特定し(G13)、その部分領域の画像(G14)を切り出す。画像領域選択部12.1,…,12.Nは、目の特徴情報に基づいて、それぞれ異なる位置の部分領域の画像を切り出すように予め設定されている。
 図4は領域選択の処理概要を示す第二の図である。
 画像領域選択部12は、取得した画像(G21)に写る目の眼球内の瞳孔の直径や、虹彩の直径を特定し、その瞳孔や虹彩の直径が所定の値になるように画像の縮小または拡大した画像(G22)を生成する。このとき画像領域選択部12は、瞳孔の円の中心座標を基準とする瞳孔の直径の長さ分の画素数と、虹彩の直径の長さ分の画素数とを特定し、虹彩の直径の長さ分の画素数と瞳孔の直径の長さ分の画素数との割合が一定になるようにaffine変換などの画像処理を行って、縮小または拡大した画像を生成してよい。この縮小または拡大した画像(G22)の生成は、画像の正規化の一態様である。なお、画像領域選択部12は、取得した画像(G21)に写る目の眼球内の瞳孔の半径や、虹彩の半径を特定し、その瞳孔や虹彩の半径が所定の値になるように画像の縮小または拡大した画像(G22)を生成してもよい。画像領域選択部12は、画像(G22)において、虹彩の領域を含む所定の部分領域を特定し(G23)、その部分領域の画像(G24)を切り出す。画像領域選択部12.1,…,12.Nは、目の特徴情報に基づいて、それぞれ異なる位置の部分領域の画像を切り出す。
 図5は領域選択の処理概要を示す第三の図である。
 画像領域選択部12は、取得した画像(G31)に写る目の位置が画像の中心に来るように変換した画像(G32)を生成する。この時、画像領域選択部12は、虹彩の円の中心座標の位置が画像内の所定の位置となるよう、また瞳孔や虹彩の直径または半径が所定の値になるように変換した画像(G32)を生成する。この変換した画像(G32)の生成は、画像の正規化の一態様である。このとき画像領域選択部12は、虹彩の円の中心座標を基準とする虹彩の半径の長さ分の画素数が一定になるようにaffine変換などの画像処理を行って、変換した画像(G32)を生成してよい。画像領域選択部12は、画像(G32)において、虹彩の領域を含む所定の部分領域を特定し(G33)、その部分領域の画像(G34)を切り出す。画像領域選択部12.1,…,12.Nは、目の特徴情報に基づいて、それぞれ異なる位置の部分領域の画像を切り出す。
 図3、図4、図5に示す処理は、取得した画像における、目の特定部位の領域が、規定の向きまたは規定の大きさに正規化させる処理の一態様である。
 図6は領域選択の処理概要を示す第四の図である。
 画像領域選択部12は、上述の図3、図4、図5を用いて説明した処理のいずれか一つまたは複数の処理を順に行った後に、目の特徴情報に基づいて、所定の部分領域の画像を切り出してもよい。図6で示すように、画像領域選択部12.1,…,12.Nは、目の特徴情報に基づいて、それぞれ異なる位置の部分領域の画像を切り出す。画像領域選択部12それぞれが選択する部分領域は、中心位置が異なる複数の異なる部分領域であってよい。画像領域選択部12それぞれが選択する部分領域は、大きさの異なる複数の異なる部分領域であってよい。画像領域選択部12それぞれは、眼球の範囲内を領域に含む部分領域と、眼球の周囲の皮膚等を領域に含む部分領域とからなる複数の異なる部分領域を選択してよい。画像領域選択部12は、目の眼球の周囲の特徴点を含む複数の異なる領域を選択してよい。本実施形態による情報処理装置1は、このように異なる部分領域の画像の特徴量を用いてアンサンブル学習を行い、当該異なる部分領域の画像の特徴量を認証処理に用いることで、認証の精度を向上させる。
 図7は、第1実施形態における情報処理装置1が行う特徴量記録処理の処理フローを示す図である。続いて、図7を参照しながら、第1実施形態における情報処理装置1の特徴量記録処理について説明する。
 事前の特徴量記録処理において、ある人物は情報処理装置1に自身の顔画像を入力する。情報処理装置1は所定のカメラを用いて人物の目を含む範囲を撮影し、その撮影時に生成された画像を取得してよい。画像取得部10は人物の目を含む画像を取得する(ステップS11)。画像取得部10は、所定のカメラが人物の目の範囲を撮影した画像を取得してもよいし、人物の顔を含む画像を取得しその画像から目を含む所定の範囲の画像を切り出してもよい。当該画像には少なくとも対象の片目が含まれているものとする。また当該画像は目の瞳孔や虹彩が映っているものとする。画像取得部10は、特徴点検出部11と画像領域選択部12.1,…,12.Nに画像を出力する。
 特徴点検出部11は、取得した画像に基づいて目の特徴点を検出する(ステップS12)。特徴点検出部11は、取得した画像から虹彩円の中心座標と半径の数値を含むベクトルを、特徴点を示す情報として算出してよい。このベクトルは目の特徴点を表す情報である。特徴点検出部11は、虹彩領域における他の特徴を目の特徴点として検出してよい。図2を用いて説明したように、目の特徴点を表す情報として、特徴点検出部11は、取得した画像に含まれる瞳孔の円の中心座標、虹彩の円の中心座標、瞳孔の半径、虹彩の半径、瞼(上瞼、下瞼)の輪郭における任意の座標などを用いて目の特徴点を表す情報を生成してよい。例えば、特徴点検出部11は、虹彩の円の中心位置と虹彩の円の半径の数値のほかに、瞳孔円の中心位置と瞳孔の半径の数値や瞼上の特徴点の位置座標を表すベクトルを、特徴点を示す情報として出力してもよい。特徴点検出部11は、虹彩の外円の中心座標、虹彩の外円の半径、目じりの座標、目頭の座標を含む特徴点を示す情報をベクトルとして算出してよい。また、特徴点検出部11は、虹彩の外円と内円の円領域、瞳孔の円領域、目の周囲の瞼領域(皮膚)のセグメンテーションを行い、その二次元マップに対して円検出などを行い、虹彩の外円の中心座標、虹彩の外円の半径、目じりの座標、目頭の座標を含む特徴点を示す情報を算出し、ベクトルとして出力してもよい。特徴点検出部11は虹彩の円検出が出来ない場合には、虹彩の外円の中心座標、虹彩の外円の半径などの虹彩領域の情報を除いて、目じりの座標、目頭の座標等を含む他の特徴点を示す情報を算出してベクトルとして出力してもよい。特徴点検出部11は、例えば、回帰ニューラルネットワーク(RNN:Recurrent Neural Network)で構成されていてもよい。RNNは、複数の畳み込み層と、複数の活性化層とを含み、入力した画像における特徴点を抽出し、抽出した特徴点を、線形層により、該当領域を表すベクトルに変換して、特徴点を表す情報として出力してもよい。特徴点検出部11をニューラルネットワークとして構築する場合、要件にあっていれば、いかなる構造のニューラルネットワークを用いることができる。例えば、ニューラルネットワークの構造としては、VGG(Visual Geometry Group),ResNet(Residual Network),DenseNetなどの構造と同様のものを挙げることができるが、これら以外の構造を用いてもよい。特徴点検出部11は、ニューラルネットワークで構成されない画像処理の機構であってもよい。特徴点検出部11は、図3、図4、図5を用いて説明した変換処理(正規化)を行った後の画像を用いて、目の特徴点を表す情報を生成してもよい。特徴点検出部11は、特徴点を示す情報を画像領域選択部12.1,…,12.Nへ出力する。
 画像領域選択部12.1,…,12.Nは、画像取得部10から入力した画像と、特徴点検出部11から入力した特徴点を示す情報とを入力する。画像領域選択部12.1,…,12.Nはそれぞれ、画像と特徴点を示す情報とを用いて、図3、図4、図5で説明したような手法を用いて、異なる部分領域を選択する(ステップS13)。画像領域選択部12.1,…,12.Nの選択した部分領域の画像を生成する。画像領域選択部12.1,…,12.Nの選択した部分領域の画像を、それぞれ、部分領域a1,…,部分領域anの画像と呼ぶ。画像領域選択部12.1は部分領域a1を特徴量抽出部13.1に出力する。画像領域選択部12.2は部分領域a2を特徴量抽出部13.2に出力する。同様に画像領域選択部12.3,…,12.Nは、生成した部分領域の画像を対応する特徴量抽出部13へ出力する。
 特徴量抽出部13.1,…,13.Nは、入力した部分領域の画像に対して、例えば、輝度ヒストグラムの正規化や、虹彩円以外のマスク処理、虹彩円の中心を原点とした極座標展開などの画像前処理を行った上で特徴量の抽出を行う(ステップS14)。特徴量抽出部13.1,…,13.Nは、部分領域a1,…,部分領域anの画像を入力とし、特徴量f1,…,特徴量fnを抽出する。また、特徴量抽出部13.1,…,13.Nは、それぞれが異なる手法を用いて特徴量の抽出を行ってもよい。特徴量抽出部13.1,…,13.Nは、例えば畳み込みニューラルネットワークで構築されていてもよい。特徴量抽出部13.1,…,13.Nは、適切に特徴量が抽出できるように、画像領域選択部12.1,…,12.Nにおいて選択された部分領域の画像を用いて、事前に学習しておいてもよい。特徴量抽出部13は、精度よく特徴量が生成できるモデルを用いた弱学習器であればよく、他の学習済みニューラルネットワークであってもよい。また、特徴量抽出部は13.1,…,13.Nは、ニューラルネットワークで構成されない特徴量を抽出する画像処理の処理機構であってもよい。
 特徴量抽出部13.1,…,13.Nは、抽出した特徴量f1,…,特徴量fn(照合特徴量)を、特徴量記録処理で用いた画像に写る人物の識別子等や、特徴量を抽出した特徴量抽出部13の識別子等に紐づけて、照合特徴量記憶部14へ記録する(ステップS15)。これにより、特徴量記録処理において用いた画像に写る対象の、目の特徴量であって、目の異なる部分領域の特徴量がそれぞれ照合特徴量記憶部14に記録される。
 情報処理装置1は、上記の同様の処理を画像に写る左右の目それぞれについて行い、左目または右目の識別子にさらに紐づけて、特徴量f1,…,特徴量fnを照合特徴量記憶部14に記録してよい。また情報処理装置1は、認証を行って所定のサービスや処理機能を提供する多くの対象の画像を用いて、同様の特徴量記録処理を行い、同様に特徴量f1,…,特徴量fnを照合特徴量記憶部14に記録する。以上の処理により、事前の特徴量記録処理の説明を終了する。
 図8は、第1実施形態における情報処理装置1が行う認証処理の処理フローを示す図である。続いて、図8を参照しながら、第1実施形態における情報処理装置1の認証処理について説明する。
 認証処理において、ある人物は情報処理装置1に自身の顔画像を入力する。情報処理装置1は所定のカメラを用いて人物を撮影し、その撮影時に生成された画像を取得してよい。画像取得部10は人物の目を含む画像を取得する(ステップS21)。当該画像には少なくとも対象の片目が含まれているものとする。また当該画像は目の虹彩が映っているものとする。画像取得部10は、特徴点検出部11と画像領域選択部12.1,…,12.Nに画像を出力する。
 特徴点検出部11は、取得した画像に基づいて目の特徴点を検出する(ステップS22)。この処理は、上述の特徴量記録処理において説明したステップS12の処理と同様である。
 画像領域選択部12.1,…,12.Nは、画像取得部10から入力した画像と、特徴点検出部11から入力した特徴点を示す情報とを入力する。画像領域選択部12.1,…,12.Nはそれぞれ、画像と特徴点を示す情報とを用いて、図3、図4、図5で説明したような手法を用いて、異なる部分領域を選択する(ステップS23)。この処理は、上述の特徴量記録処理において説明したステップS13の処理と同様である。
 特徴量抽出部13.1,…,13.Nは、入力した部分領域の画像に対して、特徴量の抽出を行う(ステップS24)。この処理は、上述の特徴量記録処理において説明したステップS14の処理と同様である。特徴量抽出部13.1,…,13.Nは、抽出した特徴量f1,…,特徴量fnを、対応するスコア算出部15へ出力する。
 スコア算出部15.1,…,15.Nは、対応する特徴量抽出部13からそれぞれ認証処理において抽出された特徴量f1,…,特徴量fnを取得する。またスコア算出部15.1,…,15.Nは、照合特徴量記憶部14に記録されている特徴量記録処理において抽出された一人の人物の対応する特徴量(特徴量f1,…,特徴量fn)を取得する。スコア算出部15.1,…,15.Nは、それぞれ、認証処理において抽出された特徴量と、特徴量記録処理において抽出され特徴量とを用いて、スコアを算出する(ステップS25)。スコア算出部15.1,…,15.Nの算出したスコアを、それぞれ、スコアSC1,…スコアSCnとする。
 スコア算出部15.1,…,15.Nは、スコアSC1,…スコアSCnの算出に、例えば、認証処理において抽出した特徴量と、特徴量記録処理において抽出された特徴量とのコサイン類似度を用いて算出してもよい。または、スコア算出部15.1,…,15.Nは、認証処理において抽出した特徴量と、特徴量記録処理において抽出された特徴量とのL2距離(ユーグリッド距離)関数、あるいは、L1距離(マンハッタン距離)関数等を用いてスコアを算出してもよい。スコア算出部15.1,…,15.Nは、同一の人物に関するデータの特徴量について、コサイン類似度、L2距離関数、或いはL1距離関数等は距離が近くなりやすいという性質を利用して、各々の特徴量が類似しているかを判定してもよい。
 スコア算出部15.1,…,15.Nは、例えばニューラルネットで構築されていてもよい。また、スコア算出部15.1,…,15.Nはニューラルネットで構成されないスコア算出の処理の機構であってもよく、例えば認証処理において抽出した特徴量と、特徴量記録処理において抽出された特徴量のハミング距離によりスコアを算出するようにしてもよい。スコア算出部15.1,…,15.Nは、算出したスコアをスコア統合部16へ出力する。スコア算出部15.1,…,15.Nの算出したスコアをそれぞれ、スコアSC1,…,スコアSCnと呼ぶ。
 スコア統合部16は、スコアSC1,…,スコアSCnを用いて統合スコアを算出する(ステップS26)。スコア統合部16は統合スコアを、例えば、スコアSC1,…SCnから最大値を統合スコアとして選ぶ方法で統合スコアを算出してもよい。または、スコア統合部16は、統合スコアを、スコアSC1,…,スコアSCnの平均や最頻値などの代表値を用いて算出してもよい。または、スコア統合部16は統合スコアを、スコアSC1,…,スコアSCnを入力とする回帰ニューラルネットワーク(RNN)、或いはサポートベクターマシンなどの推定手法を用いて算出してもよい。
 スコア統合部16は、統合スコアを算出する手段として、各スコアの平均を用いたり、加重平均を用いたりしてよい。また、スコア統合部16は、スコアの中で最大のものを選択し、それを統合スコアとして算出してもよい。また、スコア統合部16は、例えばニューラルネットで構築されていてもよい。また、スコア統合部16は、ニューラルネットで構成されていない処理機構であってもよく、例えば、ロジスティック回帰やRidge回帰を用いてもよい。スコア統合部16は統合スコアを認証判定部17へ出力する。
 認証判定部17は統合スコアを取得する。認証判定部17は統合スコアを用いて画像に写る対象の人物の認証を行う(ステップS27)。例えば認証判定部17は、統合スコアが閾値以上の場合には、画像に写る人物は、登録されている人物と判定し認証成功の情報を出力する。認証判定部17は、統合スコアが閾値未満の場合には、画像に写る人物は、登録されていない人物と判定し認証不成功の情報を出力する。認証判定部17は、閾値以上の統合スコアのうち、最も値の高い統合スコアの算出に用いた照合特徴量を照合特徴量記憶部14において特定し、その照合特徴量に紐づく人物の識別子に基づいて、画像に写る人物を特定してもよい。認証判定部17は、閾値以上の統合スコアのうち、最も値の高い統合スコアと次に値の高い統合スコアとの差が、所定の閾値以下である場合には、認証不成功と判定するようにしてもよい。
 上述の情報処理装置1は、画像領域選択部12が、取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択し、特徴量抽出部13が、異なる部分領域それぞれの特徴量を算出する。またスコア算出部15が、異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と異なる部分領域それぞれとの類似度を算出し、認証判定部17が、異なる部分領域それぞれの類似度に基づいて対象の認証を行っている。このような処理によれば、目の虹彩を含む異なる部分領域に応じた異なる弱学習器によるアンサンブル学習を用いて認証を行う為、簡易に対象の認証精度を向上させることができる。
 虹彩認証技術において、実運用のために高い認証精度が求められる。認証精度を高めるための方法として、より高解像度でピントのあった画像を用いる方法があるが、画素数の多い画像の取得にはより高価なカメラが必要になったり、撮像環境の制約が厳しくなったりする問題がある。そこで、そのような制約を満たさずとも、虹彩認証の処理に工夫することで、認証の精度を高める手法が求められる。認証において予め記憶する対象であるかどうかの推定精度を高める手段として、アンサンブル学習がある。アンサンブル学習は、複数の学習器による推定結果を統合することで、個々の学習器による推定結果よりも高い精度で推定可能な手法である。効果的なアンサンブル学習には、各々の学習器が精度よく推定可能で、かつ互いの推定結果の相関が小さくなる必要がある。一般的なアンサンブル学習手法は、アンサンブルの効果を高めるために乱数を用いて学習データを分割・生成したり、弱学習器同士を連結して学習したりするが、これらの手法は性能を向上させるためには試行錯誤が必要であり学習コストが大きいという問題がある。
 本実施形態による情報処理装置1は、目を含む画像が入力された場合に、特徴点検出を行い、得られた特徴点を用いて所定の部分領域を選択することで、目の画像中の虹彩位置や回転の状態などによらず、それぞれ異なる特徴を持つ複数の部分領域を得ることができる。これらの部分領域の画像は、虹彩の情報を持ちつつ、異なる領域を含むため、互いに相関の小さい特徴量を確実に抽出することができる。これにより、本実施形態における情報処理装置1は、一般的なアンサンブル学習手法のように乱数を用いて試行錯誤を行うことなく、効果的なアンサンブル学習を行うことができる。
<第2実施形態>
 図9は、第2実施形態における情報処理装置1の構成を示すブロック図である。
 図9に示すように、情報処理装置1は、画像取得部10、特徴点検出部11、画像領域選択部22.1,…,22.N、特徴量抽出部13.1,…,13.N、照合特徴量記憶部14、スコア算出部15.1,…,15.N、スコア統合部16、認証判定部17を備える。第2実施形態の情報処理装置1は、画像領域選択部22.1,…,22.Nの処理が、第1実施形態の情報処理装置1の画像領域選択部12.1,…,12.Nの処理と異なる。他の処理部の処理は、第1実施形態で説明した処理と同様である。画像領域選択部22.1,…,22.Nを総称して画像領域選択部22と呼ぶ。
 図10は第2実施形態における領域選択の処理概要を示す図である。
 画像領域選択部22.1,…,22.Nは、特徴点検出部11で検出した虹彩の中心位置に基づいて、図10に示すように、虹彩の中心と同じ位置を中心に持ち、面積の異なる部分領域を選択する。図10の例では、虹彩の中心と同じ位置を中心に持ち、当該中心との距離が異なる各頂点を有する矩形(四角形)を、部分領域として画像領域選択部22.1,…,22.Nが選択する。画像領域選択部22.1,…,22.Nは、虹彩の中心と同じ位置を中心に持ち、当該中心との距離が異なる各頂点を有する三角形や5角形以上の多角形の部分領域を、それぞれで選択するようにしてもよい。画像領域選択部22.1,…,22.Nは、虹彩の中心と同じ位置を中心に持ち、当該中心との距離が異なる半径の円の部分領域を、それぞれで選択するようにしてもよい。各部分領域には虹彩の全体が含まれるようにしてよい。または各部分領域のうちの面積の小さい一つまたは複数の部分領域には、虹彩の一部が含まれるようにしてもよい。図10の例は、画像領域選択部22が、中心位置が一致し大きさの異なる複数の異なる部分領域を選択する処理の一態様である。
 第2実施形態における情報処理装置1が行う事前の特徴量記録処理(ステップS11~ステップS15)と、認証処理(ステップS21~ステップS27)は、第1実施形態と同様であり、上述したように画像領域選択部22.1,…,22.Nにおける部分領域の選択手法のみが異なる。画像領域選択部22.1,…,22.Nそれぞれは、事前に定められたプログラムに基づいて、虹彩の中心位置とする所定の大きさの面積の矩形や多角形、円形の部分領域を選択する。これにより画像領域選択部22.1,…,22.Nそれぞれは、中心の位置が虹彩の中心となる異なる面積の部分領域を選択する。第2実施形態による画像領域選択部22.1,…,22.Nは、第1実施形態で説明したように、図3、図4、図5を用いて説明した変換処理(正規化)を行った後の画像を用いて、部分領域の選択を行ってよい。
 上述の第2実施形態の情報処理装置1の処理によれば、画像領域選択部22.1,…,22.Nそれぞれは、中心の位置が虹彩の中心となる異なる面積の部分領域を選択するので、それぞれの部分領域で異なる特徴量を抽出し、各特徴量でアンサンブル学習を用いた認証を行う。これにより、情報処理装置1は、単一の虹彩を含む画像による特徴量のみで認証を行う場合と比較して、高い精度で虹彩認証を行うことができる。
<第3実施形態>
 図11は、第3実施形態における情報処理装置1の構成を示すブロック図である。
 図11に示すように、情報処理装置1は、画像取得部10、特徴点検出部11、画像領域選択部32、サイズ変換部33.1,…,33.N、特徴量抽出部13.1,…,13.N、照合特徴量記憶部14、スコア算出部15.1,…,15.N、スコア統合部16、認証判定部17を備える。第3実施形態の情報処理装置1は、一つの画像領域選択部32を備え、サイズ変換部33.1,…,33.Nを備える点で第1、第2実施形態と異なる。画像領域選択部32、サイズ変換部33.1,…,33.N以外の処理部の処理は、第1実施形態で説明した処理と同様である。
 図12は領域選択とサイズ変換の処理概要を示す図である。
 画像領域選択部32は、特徴点検出部11より取得した虹彩の中心位置と、虹彩の半径を含む特徴点情報を用いて、取得した画像における虹彩を含む部分領域(虹彩領域)を選択する。この部分領域は、虹彩の領域全体が含まれるように選択してよい。当該選択される部分領域において一部の虹彩が含まれなくてもよい。つまり部分領域は少なくとも虹彩の一部を領域であってよい。以下の説明では、虹彩の外円で囲まれる円領域を画像領域選択部32が選択したものとして説明する。画像領域選択部32は、選択した円領域を示す部分領域をサイズ変換部33.1,…,33.Nそれぞれに出力する。なお画像領域選択部32が処理する画像は、第1実施形態で説明したように、図3、図4、図5を用いて説明した変換処理(正規化)を行った後の画像であってよい。図11には一つの画像領域選択部32のみ示しているが、複数の画像領域選択部32が同様に同じ部分領域を選択し、その画像情報をサイズ変換部33.1,…,33.Nへ出力してもよい。
 サイズ変換部33.1,…,33.Nは画像領域選択部32から同一の部分領域の画像情報を取得する。サイズ変換部33.1,…,33.Nはそれぞれ、取得した同一の部分領域の画像情報を異なるサイズにサイズ変換する。サイズ変換部33.1,…,33.Nがそれぞれサイズ変換した後の部分領域の画像内画素の数は異なっていてよい。サイズ変換部33.1,…,33.Nは、例えば、虹彩の持つ個人性が保持されるような画像補間手段として、Nearest Neighbor補間法やBilinear補間法、Bicubic補間法などの手法を用いてサイズ変換してよい。サイズ変換部33.1,…,33.Nは、他の補間法の手法を用いてサイズ変換してよい。また、サイズ変換部33.1,…,33.Nはニューラルネットワークを用いて構成されていてもよい。
 図13は、第3実施形態における情報処理装置1が行う特徴量記録処理の処理フローを示す図である。
 第3実施形態の特徴量記録処理において情報処理装置1がステップS11、ステップS12を行った後、画像領域選択部32は、図12を用いて説明した処理により、取得した画像における虹彩を含む部分領域(虹彩領域)を選択する(ステップS33)。サイズ変換部33.1,…,33.Nはそれぞれ、取得した同一の部分領域(虹彩領域)の画像情報を異なるサイズにサイズ変換する(ステップS34)。
 そして、特徴量抽出部13.1,…,13.Nは、第1実施形態のステップS14の処理と同様に、入力した部分領域の画像に対して、例えば、輝度ヒストグラムの正規化や、虹彩円以外のマスク処理、虹彩円の中心を原点とした極座標展開などの画像前処理を行った上で特徴量の抽出を行う(ステップS14)。また特徴量抽出部13.1,…,13.Nは、第1実施形態のステップS15の処理と同様に、抽出した特徴量f1,…,特徴量fn(照合特徴量)を、特徴量記録処理において用いた画像に写る人物の識別子等や、特徴量を抽出した特徴量抽出部13の識別子等に紐づけて、照合特徴量記憶部14へ記録する(ステップS15)。
 図14は、第3実施形態における情報処理装置1が行う認証処理の処理フローを示す図である。
 第3実施形態の認証処理において情報処理装置1が第1実施形態と同様にステップS21、ステップS22を行った後、画像領域選択部32は、図12を用いて説明した処理により、取得した画像における虹彩を含む部分領域(虹彩領域)を選択する(ステップS43)。サイズ変換部33.1,…,33.Nはそれぞれ、取得した同一の部分領域(虹彩領域)の画像情報を異なるサイズにサイズ変換する(ステップS44)。
 以降の処理は第1実施形態と同様である。つまり、特徴量抽出部13.1,…,13.Nは、入力した部分領域(虹彩領域)の画像に対して、特徴量の抽出を行う(ステップS24)。スコア算出部15.1,…,15.Nは、それぞれ、認証処理において抽出された特徴量と、特徴量記録処理において抽出され特徴量とを用いて、スコアを算出する(ステップS25)。スコア算出部15.1,…,15.Nの算出したスコアを、それぞれ、スコアSC1,…スコアSCnとする。スコア統合部16は、スコアSC1,…,スコアSCnを用いて統合スコアを算出する(ステップS26)。認証判定部17は統合スコアを用いて画像に写る対象の人物の認証を行う(ステップS27)。
 上述の第3実施形態の情報処理装置1の処理によれば、サイズ変換部33.1,…,33.Nにより出力されたサイズ変換後の虹彩を含む部分領域の画像に基づいて、特徴量抽出部13.1,…,13.Nは、個人性を持つ特徴量であって、かつそれぞれ異なる特徴量を複数抽出することができる。情報処理装置1はこれらの各特徴量でアンサンブル学習を用いた認証を行う。これにより、情報処理装置1は、単一の虹彩を含む画像による特徴量のみで認証を行う場合と比較して、高い精度で虹彩認証を行うことができる。
<第4実施形態>
 図15は、第4実施形態における情報処理装置1の構成を示すブロック図である。
 図15に示すように、情報処理装置1は、画像取得部10、特徴点検出部11、画像領域選択部42.1,42.2、特徴量抽出部13.1,13.2、照合特徴量記憶部14、スコア算出部15.1, 15.2、スコア統合部16、認証判定部17を備える。第4実施形態の情報処理装置1は、画像領域選択部42.1,42.2の処理が、第1実施形態の情報処理装置1の画像領域選択部12.1,…,12.Nの処理と異なる。他の処理部の処理は、第1実施形態で説明した処理と同様である。
 図16は第4実施形態における領域選択の処理概要を示す図である。
 画像領域選択部42.1,42.2は、特徴点検出部11より取得した虹彩の中心位置と虹彩の半径とを含む特徴点情報を用いて、取得した画像における虹彩の外円を含む虹彩の外円と同様の大きさの部分領域(虹彩領域)と、虹彩以外の目じりや瞼、まつ毛などの目の周辺を含む部分領域(目周辺領域)とをそれぞれが選択する(図16参照)。画像領域選択部42.1,42.2以外の処理部における処理は、第1実施形態と同様である。なお画像領域選択部42.1,42.2が処理する画像は、第1実施形態で説明したように、図3、図4、図5を用いて説明した変換処理(正規化)を行った後の画像であってよい。第4実施形態の処理は、画像領域選択部42が、眼球の範囲内を領域に含む部分領域と、眼球の周囲を領域に含む部分領域とからなる複数の異なる部分領域を選択する処理の一態様である。
 虹彩領域は、高解像度の画像を取得ができれば多人数を見分けることができ、経年変化が極めて小さいが、低解像度化やピントのずれや手振れ等による画像の劣化が顕著に表れやすい領域であるという課題がある。一方、目周辺画像は、瞼の情報を含み、虹彩領域ほど多人数を見分けるはできないが、比較的低解像度でも個人性の特徴を失わず、虹彩とは異なる特徴を持つ。虹彩画像と、目周辺を含む部分領域の画像から、それぞれ特徴量を抽出することで、個人性を持ちつつ、互いに補完するような特徴量を得ることができる。情報処理装置1はこれらの各特徴量でアンサンブル学習を用いた認証を行う。これにより、情報処理装置1は、単一の虹彩を含む画像による特徴量のみで認証を行う場合と比較して、高い精度で虹彩認証を行うことができ、頑健な認証処理を行うことができる。
 なお、上記の各実施形態においては、虹彩画像を用いて認証刷る情報処理装置1を例に挙げて説明したが、このアンサンブル学習の技術は、生体情報を模擬した偽造物による不正な認証(プレゼンテーションアタック)の検知(PAD)や顔認証等、他の画像処理分野にも適用することができる。
 上述の各実施形態における情報処理装置1の処理によれば、目に関する位置などの特徴情報を用いて、少なくとも虹彩を含み異なる部分領域を示す画像を用いたアンサンブル学習を行うことで、学習コストが小さく、かつ高精度に認証処理を含む推定処理を実行することができる。高精度に推定処理が行える理由は、乱数などを用いて訓練データセットを作成する手法と異なり、検出した目位置情報を用いて選択した部分領域の画像を用いて弱学習器の訓練を行うことで、個人等の対象に固有な特徴を利用しつつ、各々の弱学習器を異なる部分領域の画像を用いて学習することで、出力の相関を確実に小さくすることができるからである。学習コストが小さい理由は、上述の実施形態における弱学習器の学習は、並列で実行可能であり、反復して学習する必要がないためである。
 図17は情報処理装置1のハードウェア構成図である。
 この図が示すように情報処理装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータであってよい。上述の各実施形態による情報処理装置1の機能は、複数の情報処理装置が上述の何れか一つまたは複数の機能を備えて連携して全体の処理が機能するように構成した情報処理システムによって実現されてもよい。
 図18は情報処理装置1の最小構成を示す図である。
 この図が示すように情報処理装置1は少なくとも、領域選択手段81、特徴量算出手段82、類似度算出手段83、認証手段84の各機能を発揮する。
 領域選択手段81は、取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する。
 特徴量算出手段82は、異なる部分領域それぞれの特徴量を算出する。
 類似度算出手段83は、異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と異なる部分領域それぞれとの類似度を算出する。
 認証手段84は、異なる部分領域それぞれの類似度に基づいて対象の認証を行う。
 上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 上記実施形態の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
 (付記1)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段と、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
 を備える情報処理装置。
 (付記2)
 前記領域選択手段は、中心位置が異なる前記複数の異なる部分領域を選択する
 付記1に記載の情報処理装置。
 (付記3)
 前記領域選択手段は、大きさの異なる前記複数の異なる部分領域を選択する付記2に記載の情報処理装置。
 (付記4)
 前記領域選択手段は、中心位置が一致し大きさの異なる前記複数の異なる部分領域を選択する
 付記1に記載の情報処理装置。
 (付記5)
 前記領域選択手段は、眼球の範囲内を領域に含む部分領域と、眼球の周囲を領域に含む部分領域とからなる複数の異なる部分領域を選択する
 付記1に記載の情報処理装置。
 (付記6)
 前記領域選択手段は、前記目の眼球の周囲の特徴点を含む前記複数の異なる領域を選択する付記1から付記4の何れか一つに記載の情報処理装置。
 (付記7)
 前記取得画像は、前記目の特定部位の領域が、規定の向きまたは規定の大きさの少なくとも一方に基づいて正規化さる
 付記1から付記4の何れか一つに記載の情報処理装置。
 (付記8)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段と、
 前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
 を備える情報処理装置。
 (付記9)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段と、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
 を備える情報処理システム。
 (付記10)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段と、
 前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
 を備える情報処理システム。
 (付記11)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択し、
 前記異なる部分領域それぞれの特徴量を算出し、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出し、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う、
 認証方法。
 (付記12)
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択し、
 前記一つの領域を異なる画素数の異なる部分領域に変換し、
 前記異なる部分領域それぞれの特徴量を算出し、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出し、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う、
 認証方法。
 (付記13)
 情報処理装置のコンピュータを、
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段、
 として機能させるプログラムを記憶する記憶媒体。
 (付記14)
 情報処理装置のコンピュータを、
 取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段、
 前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段、
 前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、
 前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段、
 前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段、
 として機能させるプログラムを記憶する記憶媒体。
 1・・・情報処理装置1(情報処理装置、情報処理システム),10・・・画像取得部,11・・・特徴点検出部,12(12.1,12.2,…12.N),22(22.1,22.2,…22.N),32,42(42.1,42.4)・・・画像領域選択部(領域選択手段),13(13.1,13.2,…13.N)・・・特徴量抽出部(特徴量算出手段),14・・・照合特徴量記憶部,15(15.1,15.2,…15.N)・・・スコア算出部(類似度算出手段),16・・・スコア統合部(類似度算出手段),17・・・認証判定部(認証手段)

Claims (14)

  1.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段と、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
     を備える情報処理装置。
  2.  前記領域選択手段は、中心位置が異なる前記複数の異なる部分領域を選択する
     請求項1に記載の情報処理装置。
  3.  前記領域選択手段は、大きさの異なる前記複数の異なる部分領域を選択する請求項2に記載の情報処理装置。
  4.  前記領域選択手段は、中心位置が一致し大きさの異なる前記複数の異なる部分領域を選択する
     請求項1に記載の情報処理装置。
  5.  前記領域選択手段は、眼球の範囲内を領域に含む部分領域と、眼球の周囲を領域に含む部分領域とからなる複数の異なる部分領域を選択する
     請求項1に記載の情報処理装置。
  6.  前記領域選択手段は、前記目の眼球の周囲の特徴点を含む前記複数の異なる領域を選択する請求項1から請求項4の何れか一項に記載の情報処理装置。
  7.  前記取得画像は、前記目の特定部位の領域が、規定の向きまたは規定の大きさの少なくとも一方に基づいて正規化さる
     請求項1から請求項4の何れか一項に記載の情報処理装置。
  8.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段と、
     前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
     を備える情報処理装置。
  9.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段と、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
     を備える情報処理システム。
  10.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段と、
     前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段と、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段と、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段と、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段と、
     を備える情報処理システム。
  11.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択し、
     前記異なる部分領域それぞれの特徴量を算出し、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出し、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う、
     認証方法。
  12.  取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択し、
     前記一つの領域を異なる画素数の異なる部分領域に変換し、
     前記異なる部分領域それぞれの特徴量を算出し、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出し、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う、
     認証方法。
  13.  情報処理装置のコンピュータを、
     取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む部分領域について、複数の異なる部分領域を選択する領域選択手段、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段、
     として機能させるプログラムを記憶する記憶媒体。
  14.  情報処理装置のコンピュータを、
     取得画像に含まれる対象の目の特徴に基づいて、少なくとも虹彩領域の一部を含む一つの領域を選択する領域選択手段、
     前記一つの領域を異なる画素数の異なる部分領域に変換するサイズ変換手段、
     前記異なる部分領域それぞれの特徴量を算出する特徴量算出手段、
     前記異なる部分領域それぞれの特徴量と予め記憶する特徴量とに基づいて、予め記憶された特徴量と前記異なる部分領域それぞれとの類似度を算出する類似度算出手段、
     前記異なる部分領域それぞれの類似度に基づいて前記対象の認証を行う認証手段、
     として機能させるプログラムを記憶する記憶媒体。
PCT/JP2022/028343 2022-07-21 2022-07-21 情報処理装置、情報処理システム、認証方法、記憶媒体 WO2024018591A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028343 WO2024018591A1 (ja) 2022-07-21 2022-07-21 情報処理装置、情報処理システム、認証方法、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028343 WO2024018591A1 (ja) 2022-07-21 2022-07-21 情報処理装置、情報処理システム、認証方法、記憶媒体

Publications (1)

Publication Number Publication Date
WO2024018591A1 true WO2024018591A1 (ja) 2024-01-25

Family

ID=89617552

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028343 WO2024018591A1 (ja) 2022-07-21 2022-07-21 情報処理装置、情報処理システム、認証方法、記憶媒体

Country Status (1)

Country Link
WO (1) WO2024018591A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213163A (ja) * 1998-01-28 1999-08-06 Oki Electric Ind Co Ltd 個体識別装置
JP2001167275A (ja) * 1999-12-13 2001-06-22 Oki Electric Ind Co Ltd 個体識別装置
JP2008521122A (ja) * 2004-11-22 2008-06-19 イリテック・インコーポレーテッド 虹彩識別のためのマルチスケール可変領域分解方法及びシステム
JP2022000764A (ja) * 2017-08-30 2022-01-04 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213163A (ja) * 1998-01-28 1999-08-06 Oki Electric Ind Co Ltd 個体識別装置
JP2001167275A (ja) * 1999-12-13 2001-06-22 Oki Electric Ind Co Ltd 個体識別装置
JP2008521122A (ja) * 2004-11-22 2008-06-19 イリテック・インコーポレーテッド 虹彩識別のためのマルチスケール可変領域分解方法及びシステム
JP2022000764A (ja) * 2017-08-30 2022-01-04 日本電気株式会社 虹彩照合システム、虹彩照合方法及び記憶媒体

Similar Documents

Publication Publication Date Title
Menotti et al. Deep representations for iris, face, and fingerprint spoofing detection
US11281756B2 (en) Method of classification of an input image representative of a biometric trait by means of a convolutional neural network
Chen et al. Human ear recognition in 3D
JP4217664B2 (ja) 画像処理方法、画像処理装置
KR101901591B1 (ko) 얼굴 인식 장치 및 그 제어방법
US20060222212A1 (en) One-dimensional iris signature generation system and method
Diwakar et al. An extraction and recognition of tongue-print images for biometrics authentication system
CN111783748A (zh) 人脸识别方法、装置、电子设备及存储介质
Bhanu et al. Human ear recognition by computer
Soltane et al. Multi-modal biometric authentications: concept issues and applications strategies
Sujana et al. An effective CNN based feature extraction approach for iris recognition system
Wang et al. Iris recognition based on multialgorithmic fusion
El Madmoune et al. Robust face recognition using convolutional neural networks combined with Krawtchouk moments.
WO2024018591A1 (ja) 情報処理装置、情報処理システム、認証方法、記憶媒体
Ozkaya et al. Discriminative common vector based finger knuckle recognition
Kadhim et al. A multimodal biometric database and case study for face recognition based deep learning
JP5279007B2 (ja) 照合システム、照合方法、プログラム及び記録媒体
WO2024018593A1 (ja) 情報処理装置、情報処理システム、情報処理方法、記憶媒体
Lin et al. A novel framework for automatic 3D face recognition using quality assessment
Goranin et al. Evolutionary Algorithms Application Analysis in Biometric Systems.
CN112380966A (zh) 基于特征点重投影的单眼虹膜匹配方法
JP2009009404A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Anitta et al. CNN—Forest Based Person Identification and Head Pose Estimation for AI Based Applications
Belen Moreno et al. Robust representation of 3D faces for recognition
Abu-Zanona Identifying humans based on biometric iris recognition using an interactive transfer learning framework

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22951976

Country of ref document: EP

Kind code of ref document: A1