WO2024069671A1 - 情報処理方法、情報処理プログラム、及び情報処理装置 - Google Patents
情報処理方法、情報処理プログラム、及び情報処理装置 Download PDFInfo
- Publication number
- WO2024069671A1 WO2024069671A1 PCT/JP2022/035593 JP2022035593W WO2024069671A1 WO 2024069671 A1 WO2024069671 A1 WO 2024069671A1 JP 2022035593 W JP2022035593 W JP 2022035593W WO 2024069671 A1 WO2024069671 A1 WO 2024069671A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- hand
- palm
- information processing
- images
- width
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 33
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims description 92
- 230000008569 process Effects 0.000 claims description 88
- 210000003811 finger Anatomy 0.000 claims description 57
- 210000003462 vein Anatomy 0.000 claims description 6
- 210000004932 little finger Anatomy 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 20
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000011156 evaluation Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 230000006698 induction Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Definitions
- Biometric authentication technology is a technology that uses biometric characteristics such as fingerprints, faces, and veins to verify a person's identity. It compares (matches) the biometric characteristics acquired from a person's body with a pre-registered biometric template and determines whether the two match.
- Biometric authentication technology is already being used in a variety of fields, such as bank ATMs (Automatic Teller Machines) and room entry and exit management. In recent years, biometric authentication technology has also come to be used as a means of ensuring security when operating mobile devices and accessing important data over networks.
- biometric authentication technology has a lower risk of theft or loss compared to authentication using cards or PIN numbers, there is a possibility of false recognition due to spoofing using non-biometric objects (imitation of a biometric object), such as a display showing an image of a biometric object or paper with an image of a biometric object printed on it.
- non-biometric objects such as a display showing an image of a biometric object or paper with an image of a biometric object printed on it.
- several technologies have been proposed that determine whether the subject of the acquisition of biometric characteristics is actually a biometric object (for example, see Patent Documents 1 to 9).
- the present invention aims to determine with high accuracy whether an object is a living organism.
- an information processing device acquires multiple images of a hand taken at different times, and determines whether the object is a living body based on the relationship between the thickness of the fingers and the width of the palm of the hand shown in each of the multiple images.
- FIG. 13 is a diagram for explaining how to distinguish between a living hand and an image of a hand.
- FIG. 13 is a diagram (part 1) showing an example of how the finger thickness and palm width change when the inclination of the hand is changed.
- FIG. 2 is a diagram (part 2) showing an example of how the finger thickness and palm width change when the inclination of the hand is changed.
- FIG. 3 is a diagram (part 3) showing an example of how the finger thickness and palm width change when the inclination of the hand is changed.
- FIG. 13 is a schematic diagram showing how a plurality of images of a time series in which the tilt of a hand changes can be obtained by inducing a change in the hand posture.
- FIG. 1 illustrates a configuration of an exemplary authentication device.
- FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device.
- 11 is a flowchart (part 1) showing the contents of authentication processing; 13 is a second flowchart showing the contents of the authentication process;
- an authentication device e.g., a smartphone, a laptop computer, an ATM, etc.
- biometric information about the hand such as a palm vein pattern, palm print, or palm shape, determines whether or not a target object is a living body.
- the characteristics of the shape of a human hand are used to determine whether or not the object is a real hand, i.e., whether or not the object is a living body.
- a determination is made as to whether or not the object is a living body based on the relationship between the thickness of the fingers on the hand and the lateral width of the palm, which is shown in multiple images of the hand obtained by photographing the same object at different times. This determination method will be explained below.
- the horizontal width of the palm will simply be referred to as "palm width.”
- Figure 1 is a diagram that explains how to distinguish between a living hand and an image of a hand.
- [A] shows a schematic representation of the shape of a human hand.
- the shape of a human hand can be characterized as having a flat palm and cylindrical fingers.
- [B] is a schematic representation of a living human hand tilted sideways, that is, rotated around an axis extending from the arm to the tip of the middle finger. As such, in the case of a living hand, the palm appears to shrink in width, but there is no noticeable change in the thickness of the fingers.
- [C] is a schematic representation of a hand in an image depicted on a non-living object, more specifically, a flat image of a hand depicted on a display object, such as an image of a hand printed on paper or an image of a hand displayed on a display device, tilted sideways in the same manner as [B].
- a hand in such an image not only does the width of the palm appear to shrink, but the thickness of the fingers also appears to become thinner in a proportion equivalent to the change in the width of the palm.
- Figures 2, 3, and 4 show examples of how finger thickness and palm width change when the lateral tilt of the hand is changed.
- each graph in Figures 2, 3, and 4 represents the angle of rotation when the hand is tilted sideways, i.e., when the hand is rotated around the forearm as the axis of rotation.
- the graph in Figure 2 shows an example where the target is a living hand.
- the graph in Figure 3 shows an example where the target is a non-living hand, or more specifically, an example where the target is a display object that shows an image of a hand.
- the vertical axis of these graphs shows apparent length (palm width or finger thickness).
- the vertical axis value is normalized based on the vertical length of the palm (for example, the distance between the base of the middle finger and the wrist). The vertical length of the palm is used for this normalization because, in both living and non-living hands, this length shows almost no change with respect to the lateral rotation of the hand.
- the graph in Figure 4 shows the relationship between the angle of rotation when the hand is rotated to tilt it sideways and the ratio of the palm width to the finger thickness, for both living and non-living hands. As can be seen from this graph, this ratio changes significantly with changes in the rotation angle when the object is a living hand, but changes little with changes in the rotation angle when the object is a non-living hand, remaining almost constant.
- the ratio of the palm width to the finger thickness of a hand depicted in each of a number of time-series images of the hand obtained by repeatedly photographing the same subject is calculated as an evaluation value. That is, the following formula (1) is calculated for each of the images to calculate an evaluation value for each image.
- the calculated evaluation value i.e., the ratio of palm width to finger thickness
- changes significantly with changes in the rotation angle when the object is a living hand whereas it changes little with changes in the rotation angle when the object is a non-living hand. Therefore, by determining whether there is a difference in the evaluation values calculated for each of the multiple images using a predetermined threshold as a criterion, it becomes possible to determine whether the object is a living body. That is, in this embodiment, if the difference in the evaluation values for each image is greater than the threshold, the object is determined to be a living body. On the other hand, if the difference in the evaluation values for each image is not greater than the threshold, the object is determined to be not a living body (non-living body).
- the difference between the maximum and minimum evaluation values of the multiple images may be used, or the variance of the evaluation values among the multiple images may be used.
- this embodiment is for determining whether or not the target is a living hand when performing biometric authentication using biometric information about the hand.
- biometric authentication using biometric information about the hand in order to obtain biometric information from the hand image that is sufficiently good for performing authentication, the hand posture (position and inclination) is induced before capturing an image from which biometric information to be used for biometric authentication is extracted.
- FIG. 5 is a schematic diagram showing how multiple images in a time series in which the inclination of the hand changes can be obtained by induction to encourage a change in the hand posture.
- the vertical length of the palm hardly changes with changes in the horizontal tilt of the hand. Therefore, the magnitude of difference in the horizontal tilt of the hand between multiple images can be estimated from the magnitude of difference in the aspect ratio of the palm, that is, the ratio of the horizontal width to the vertical length of the palm, between the multiple images.
- the difference in this aspect ratio is greater than the threshold, it is determined that it is possible to determine whether the target object is a living body, and a determination is made as to whether the target object is a living body.
- the difference in this aspect ratio is not greater than the threshold, it is determined that it is impossible to determine whether the target object is a living body, and identity confirmation by biometric authentication is not performed.
- the decision on whether to perform identity verification through biometric authentication may be left to the discretion of the biometric authentication system. Also, in order to ensure that images of a time series in which the lateral tilt of the hand changes are acquired, the person to be authenticated may be prompted to change the lateral tilt of their hand before photographing the hand.
- the difference between the multiple images in terms of the aspect ratio calculated for each image for example, the difference between the maximum and minimum aspect ratios for each of the multiple images may be used, or the variance of the aspect ratios among the multiple images may be used.
- the ratio of the width of the palm to the average thickness of the index finger, middle finger, ring finger, and little finger out of the five fingers on the hand may be used as the evaluation value used to determine whether or not the target object is a living body.
- the method for calculating this evaluation value will be explained with reference to Figure 6.
- the dashed line between the middle finger and the ring finger represents the axis of rotation when the hand is tilted sideways, i.e., when the hand is rotated around the forearm.
- the four fingers mentioned above can be considered to be arranged at roughly equal intervals across the width of the palm.
- the horizontal width of the palm is w
- the arrangement interval d of the four fingers is expressed as w/4.
- the dashed line representing the rotation axis mentioned above is the line indicating the center of the palm, and the right direction is the positive direction
- the positions of the four fingers relative to the palm are expressed as follows: index finger: +3 ⁇ d/2, middle finger: +d/2, ring finger: -d/2, little finger: -3 ⁇ d/2.
- the evaluation value used to determine whether the target object is a human hand or an object representing an image of a hand may be calculated using the following formula (2).
- an image of the object obtained by an imaging device used to perform biometric authentication is reused to determine with good accuracy whether the object is a living body or not, as described above.
- This determination does not require a dedicated sensor, nor does it require special optical elements for photographing the object, such as polarized lighting on the object.
- it is possible to determine whether the object is a living body or not without contacting the object, and no stimulation of the object is required.
- Figure 7 shows the configuration of an exemplary authentication device 1.
- the authentication device 1 determines whether the target object 2 is a living body before performing biometric authentication of the target object 2.
- This authentication device 1 includes an image capture unit 10, a processing unit 20, and an output unit 30.
- the photographing unit 10 is equipped with a camera 11 and a lighting device 12.
- Camera 11 is, for example, a digital still camera or a video camera, and is an imaging device that continuously and repeatedly captures object 2 to obtain multiple images of object 2 in time series. Note that camera 11 may be either a color or monochrome camera.
- the lighting device 12 irradiates light onto the object 2 when the camera 11 photographs the object 2, and is, for example, an LED (Light Emitting Diode) that irradiates light including visible light.
- the biometric information can be obtained from an image of the hand obtained by photographing using visible light for illumination. Note that if the image captured by the camera 11 provides biometric information that is sufficiently good for performing biometric authentication, it is not necessary to illuminate the object 2 with the lighting device 12.
- the processing unit 20 includes an acquisition unit 21, a determination unit 22, and a biometric authentication unit 23.
- the acquisition unit 21 acquires a number of images obtained by photographing the object 2 at different times using the imaging unit 10. Whether the object 2 is a living body's hand or the object 2 is a display object that shows an image of a hand, the image acquired by the acquisition unit 21 is an image of the hand.
- the determination unit 22 determines whether the object 2 is a living body or not based on the relationship between the thickness of the fingers and the width of the palm of the hand depicted in each of the multiple images acquired by the acquisition unit 21.
- the biometric authentication unit 23 performs biometric authentication on the target object 2 using biometric information acquired from at least one of the multiple images acquired by the acquisition unit 21.
- biometric information acquired from at least one of the multiple images acquired by the acquisition unit 21.
- at least one of the palm vein pattern, palm print, and palm shape is used as the biometric information.
- the output unit 30 is a device that outputs the results of various processes performed by the processing unit 20, and is, for example, a display device that displays the processing results, or an audio device that outputs audio that reads out sentences representing the processing results.
- Figure 8 shows an example of the hardware configuration of an information processing device 40 used as the processing unit 20 in the authentication device 1 of Figure 7.
- the information processing device 40 has the following hardware components: a processor 41, a memory 42, a storage device 43, a reading device 44, a communication interface 46, and an input/output interface 47. These components are connected via a bus 48, allowing data to be exchanged between the components.
- the processor 41 may be, for example, a single processor, or a multi-processor and multi-core.
- the processor 41 uses the memory 42 to execute, for example, a processing program that describes the procedure of the authentication process described below, thereby providing the functions of the determination unit 22 and the biometric authentication unit 23.
- Memory 42 may be, for example, a semiconductor memory, and may include a RAM area and a ROM area. Note that RAM is an abbreviation for Random Access Memory. Also, ROM is an abbreviation for Read Only Memory.
- the storage device 43 is, for example, a semiconductor memory such as a flash memory, or a hard disk device.
- the reader 44 accesses the removable storage medium 45 according to instructions from the processor 41.
- the removable storage medium 45 is realized, for example, by a semiconductor device (such as a USB memory), a medium where information is input and output by magnetic action (such as a magnetic disk), or a medium where information is input and output by optical action (such as a CD-ROM or DVD).
- a semiconductor device such as a USB memory
- a medium where information is input and output by magnetic action such as a magnetic disk
- optical action such as a CD-ROM or DVD.
- USB is an abbreviation for Universal Serial Bus.
- CD is an abbreviation for Compact Disc.
- DVD is an abbreviation for Digital Versatile Disk.
- the communication interface 46 transmits and receives data via a communication network (not shown), for example, according to instructions from the processor 41.
- the input/output interface 47 provides an interface with various input devices and output devices including the image capture unit 10 and the output unit 30. Under the control of the processor 41, the input/output interface 47 provides the function of the acquisition unit 21, which acquires images captured by the camera 11 of the image capture unit 10, for example. Also, under the control of the processor 41, the input/output interface 47 transmits, for example, control data for controlling the operation of the lighting device 12 of the image capture unit 10, and various information to be output by the output unit 30.
- the hardware configuration of the information processing device 40 is similar to that of a standard computer. Therefore, a computer may be used as the information processing device 40.
- the program executed by the processor 41 of this information processing device 40 is provided, for example, in the following form:
- the hardware configuration of the information processing device 40 is an example, and the embodiment is not limited to this.
- some or all of the functions of the above-mentioned functional units may be implemented as hardware using FPGAs, SoCs, etc.
- FPGA is an abbreviation for Field Programmable Gate Array.
- SoC is an abbreviation for System-on-a-chip.
- Figures 9 and 10 are flowcharts showing the processing contents of this authentication process.
- the processing unit 20 in the authentication device 1 in Figure 7 is configured by combining the information processing device 40 in Figure 8 with software, the processor 41 is caused to execute an information processing program that describes the processing contents of this authentication process.
- a process is performed in which an instruction to photograph the palm is output to the output unit 30.
- an instruction to photograph the palm is output to the output unit 30.
- a sentence such as "Please take a photograph of your palm" (by the camera 11) is displayed on the display device which is the output unit 30, or a voice reading out the sentence is output by the audio device which is the output unit 30.
- a process is performed in which the lighting device 12 of the image capture unit 10 is controlled to start irradiating the target object 2 with visible light.
- This process causes, for example, the aforementioned LED, which is the lighting device 12, to light up.
- the captured image obtained in the process of S113 is obtained from the image capture unit 10 and stored. If the processing unit 20 is configured using the information processing device 40 of FIG. 8, this process causes the captured image obtained in the process of S113 to be stored in the storage device 43.
- S115 a process is performed to determine whether the hand posture shown in the captured image acquired in the most recent process of S114 is appropriate, that is, whether the posture is such that sufficient good biometric information can be obtained for biometric authentication by the biometric authentication unit 23.
- the process proceeds to S116.
- the process proceeds to S117.
- a process is performed in which the output unit 30 is controlled to output an instruction to change the hand posture to an appropriate one.
- an arrow indicating the direction in which the hand will be moved or an arrow including an arc-shaped arrowhead representing the direction in which the degree of hand tilt will be changed is displayed on the display device which is the output unit 30.
- a sentence expressing the direction in which the hand will be moved or the direction in which the degree of hand tilt will be changed is displayed by the display device which is the output unit 30, or a voice reading out the sentence is output by the audio device which is the output unit 30.
- the authentication process is suspended for a predetermined period of time (e.g., several seconds) to wait for the hand posture to change in accordance with the guidance process in S117. After this waiting period, the process returns to S113, and the process of photographing the object 2 and saving the photographed image is performed again.
- a predetermined period of time e.g., several seconds
- the aspect ratio of the palm shown in the image is calculated, i.e., the ratio of the horizontal width to the vertical length of the palm, for each of the multiple captured images stored by repeating the process of S114.
- a process is performed to calculate the difference between the maximum and minimum aspect ratios calculated for each of the multiple captured images by the process in S121, or the variance of the aspect ratios among the multiple captured images.
- a process is performed to determine whether the value calculated in the process of S122 is equal to or greater than a predetermined threshold.
- a predetermined threshold for example, a relationship between the aspect ratio of the palm shown in the image and the accuracy rate of the result of determining whether the hand shown in the image is a living body is determined in advance through an experiment, and an appropriate value is adopted based on the result of this experiment.
- a process is performed in which information indicating that it is impossible to determine whether the target object 2 is a living body is output to the output unit 30, and thereafter, the authentication process is terminated without performing identity confirmation through biometric authentication by the biometric authentication unit 23.
- the authentication process is terminated without performing identity confirmation through biometric authentication by the biometric authentication unit 23.
- a sentence saying "It is impossible to determine whether the target object 2 is a living body" is displayed on the display device which is the output unit 30, or a voice reading the sentence is output by the audio device which is the output unit 30.
- the decision as to whether or not to perform identity verification through biometric authentication may be left to the discretion of the biometric authentication unit 23.
- the process proceeds to FIG. 10, where in S125, the process calculates the aforementioned evaluation value used to determine whether or not the object 2 is a living body for each of the multiple captured images stored by repeating the process of S114, using the above-mentioned formula (1) or formula (2).
- a process is performed to calculate the difference between the maximum and minimum evaluation values calculated for each of the multiple captured images by the process in S125, or the variance of the evaluation values across the multiple captured images.
- a process is performed to determine whether the value calculated in the process of S126 is equal to or greater than a predetermined threshold value.
- a predetermined threshold value for example, the relationship between the value calculated in the process of S126 and whether the object 2 is a living organism is obtained by experiment, and an appropriate value is adopted based on the results of this experiment.
- the process proceeds to S131. On the other hand, if it is determined in the determination process of S127 that the value calculated in the process of S126 is less than the threshold value (if the determination result is NO), the process proceeds to S128.
- a process is performed in which information indicating the determination result that the target object 2 is not a living organism is output to the output unit 30, and thereafter, the authentication process is terminated without performing biometric authentication by the biometric authentication unit 23.
- the sentence "The target object 2 is not a living organism" is displayed on the display device which is the output unit 30, or a voice reading the sentence is output by the audio device which is the output unit 30.
- the determination result of S127 is YES when it is determined that the object 2 is a living body.
- the processes of S131 to S136 are executed to perform biometric authentication on the object 2.
- a process is performed to obtain an image of the hand posture determined to be appropriate in the process of S115, which is one of the multiple captured images stored by repeating the process of S114.
- a process is performed to extract biometric features, more specifically, features regarding the palm vein pattern, palm print, or palm shape, from the hand image acquired in the process of S131.
- a process is performed in which the biometric features extracted in the process of S132 are compared with a template of the biometric features of the person to be authenticated that has been registered in advance (e.g., stored in advance in the storage device 43 of FIG. 8).
- This process performs identity verification to confirm whether the biometrics of the hand, which is the object 2, belong to the person to be authenticated that has been registered in advance.
- general existing matching technology may be applied for this matching process.
- the process determines whether the biometric feature extracted in the process of S132 matches the biometric feature template through the matching process of S133.
- the process proceeds to S135, where an authentication result indicating that identity verification has been successful is output to the output unit 30.
- an authentication result indicating that identity verification has been successful is output to the output unit 30.
- the process proceeds to S136, where an authentication result indicating that identity verification has failed is output to the output unit 30.
- an authentication result indicating that identity verification has failed is output to the output unit 30.
- This authentication process is performed by the processing unit 20, which enables the authentication device 1 to determine with good accuracy whether the target object 2 is a living body or not.
- the authentication device 1 determines whether the object 2 is a living hand based on the ratio of the palm width to the finger thickness in a captured image including an image of the entire finger.
- an image of the entire finger is not necessarily required to obtain the finger thickness; it is possible to obtain the finger thickness from an image of only a portion of the finger, for example, an image of the part from the base of the finger to near the second joint. Therefore, for example, the captured image obtained by the camera 11 of the imaging unit 10 capturing an image of the object 2 may be an image including the palm of the hand and the parts of the fingers from the base to near the second joint.
- the authentication device 1 determines whether the object 2 is a living body by examining the change in the relationship between the thickness of the fingers and the width of the palm when the inclination of the hand changes. This determination takes into account that the palm is flat and the fingers are cylindrical.
- the above-described determination may be made using the thickness of the wrist instead of the thickness of the fingers.
- the wrist has a lower flatness than the palm, and is shaped like a cylinder, although not as flat as the fingers. Therefore, the authentication device 1 may determine whether the object 2 is a living body by examining the change in the relationship between the thickness of the wrist and the width of the palm when the inclination of the hand changes.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
生体である手を正面から横方向に傾けると、平面状である手のひらは幅が縮んで見えるが、円柱状である指の太さには顕著な変化が見られない。一方、手の画像を表している平らな表示物を正面から横方向に傾けると、手の画像における指の太さは、手のひらの幅とほぼ同一の比率で変化する。そこで、対象物を異なる時間に撮影して得られた、手についての複数の画像を取得し、当該複数の画像のそれぞれに表されている当該手における、指の太さと手のひらの幅との関係に基づいて、当該対象物が生体か否かを判定することを情報処理装置が行う。
Description
本発明は、情報処理方法、情報処理プログラム、及び情報処理装置に関する。
生体認証技術は、指紋、顔、静脈などの生体特徴を用いて本人確認を行う技術であり、生体から取得した生体特徴と予め登録しておいた生体特徴のテンプレートとを比較(照合)し、両者が一致するか否かを判定することによって本人確認を行うというものである。
生体認証技術は、銀行のATM(Automatic Teller Machine)や部屋の入退室の管理など、様々な分野で既に利用されている。また、近年では、モバイル端末の操作や、重要なデータへのネットワーク越しのアクセスなどにおいての、セキュリティを確保する手段としても、生体認証技術が用いられるようになってきている。
生体認証技術は、カードや暗証番号を用いる認証と比べて盗難や紛失の危険性が低いものの、生体の画像を表示したディスプレイや生体の画像を印刷した用紙などといった非生体(生体の模造物)を用いた、なりすましによる誤認証の可能性が指摘されている。このような、なりすましの生体に対する誤認証を防止するための技術として、生体特徴の取得の対象物が本当に生体であるか否かの判定を行う技術が幾つか提案されている(例えば、特許文献1~特許文献9参照)。
1つの側面において、本発明は、対象物が生体か否かを良好な精度で判定することを目的とする。
1つの案では、対象物を異なる時間に撮影して得られた、手についての複数の画像を取得し、当該複数の画像のそれぞれに表されている当該手における、指の太さと手のひらの幅との関係に基づいて、当該対象物が生体か否かを判定することを情報処理装置が行う。
1つの側面によれば、対象物が生体か否かを良好な精度で判定することができる。
以下、図面を参照しながら実施形態を説明する。ここでは、手のひらの静脈パターン、掌紋、若しくは掌形といった、手についての生体情報を用いて生体認証を実施する認証装置(例えばスマートフォン、ノートパソコン、ATM等)において、対象物が生体か否かの判定を行う実施形態の一例について説明する。
本実施形態では、人の手の形状の特徴を利用して、対象物が本当の手であるか否か、すなわち、対象物が生体の手であるか否かを判定する。このために、本実施形態では、同一の対象物を異なる時間に撮影して得られた、手についての複数の画像のそれぞれに表されている、当該手における指の太さと手のひらの横方向の幅との関係に基づいて、当該対象物が生体か否かの判定を行う。この判定の手法について説明する。
なお、以下の説明では、手のひらの横方向の幅を、単に「手のひらの幅」と称することとする。
図1は、生体である手と画像である手との見分け方を説明する図である。
[A]は人の手の形状を模式的に表している。このように、人の手の形状の特徴として、手のひらは平面状であり、手の指は円柱状であるといえる。
[B]は、生体である人の手を横方向に傾けたときの様子、すなわち、腕から中指の指先への方向を軸として手を回転させたときの様子を、模式的に表している。このように、生体である手の場合には、手のひらは幅が縮んで見える一方で、指の太さには顕著な変化が見られない。
これに対し、[C]は、非生体に表された画像の手、より具体的には、用紙に印刷した手の画像や表示装置に表示した手の画像などといった、表示物に表された平面の画像における手の像を、[B]と同様に横方向に傾けた様子を模式的に表している。このような画像の手の場合には、手のひらの幅が縮んで見えるだけではなく、指の太さも、手のひらの幅の変化と同等の比率で細くなったように見える。
本実施形態では、このような違いに着目し、手の傾きが変化したときの指の太さと手のひらの幅との関係の変化を調べることによって、対象物が生体であるか否かを判定する。
以下、本実施形態を更に詳細に説明する。
図2、図3、及び図4は、それぞれ、手の横方向の傾きを変化させたときの指の太さと手のひらの幅とのそれぞれの変化の様子の例を示している。
図2、図3、及び図4の各グラフの横軸は、手を横方向に傾けたとき、すなわち、前腕を回転の軸として手を回転させたときの回転角度を表している。
図2のグラフは、生体の手が対象物である場合の例を表している。一方、図3のグラフは、非生体の手が対象物の場合の例、より具体的には、手の画像が表されている表示物が対象物である場合の例を表している。これらのグラフの縦軸は見かけ上の長さ(手のひらの幅若しくは指の太さ)を表している。但し、対象物と当該対象物の観察位置との間の距離の違いが見え方に及ぼす影響を無くすために、縦軸の値は、手のひらの縦方向の長さ(例えば中指の付け根と手首との間の距離)に基づいて正規化されている。なお、この正規化に手のひらの縦方向の長さを用いるようにしたのは、生体の手と非生体の手とのどちらであっても、この長さには手の横方向の回転に対する変化がほとんど見られないからである。
図2と図3とを比較すると分かるように、回転角度の変化に対する手のひらの幅の変化については、対象物が生体の手の場合と非生体の手の場合とで傾向がほぼ同一である。その一方で、指の太さについては、対象物が生体の手の場合(図2の場合)には回転角度の変化に対する変化が殆んどないのに対し、対象物が非生体の手の場合(図3の場合)には、回転角度の変化に対して、手のひらの幅の変化とほぼ同一の比率で変化する。
図4のグラフは、手を横方向に傾けるために回転させたときの回転角度と、指の太さに対する手のひらの幅の比率との関係を、対象物が生体の手の場合と非生体の手の場合とのそれぞれについて表したものである。このグラフから分かるように、この比率は、対象物が生体の手の場合には回転角度の変化に対して大きく変化するが、対象物が非生体の手の場合には回転角度の変化に対しては変化が小さく、ほぼ一定である。
そこで、本実施形態では、同一の撮影対象を繰り返し続けて撮影して得られた、手についての時系列の複数の画像のそれぞれに表されている手における、指の太さに対する手のひらの幅の比率を、評価値として算出する。すなわち、当該複数の画像のそれぞれについて下記の式(1)の計算を行って、各画像についての評価値を算出する。
評価値 = (手のひらの幅)/(指の太さ)………式(1)
ここで、前述したように、算出した評価値、すなわち、指の太さに対する手のひらの幅の比率は、対象物が生体の手である場合には回転角度の変化に対して大きく変化する一方で、対象物が非生体の手である場合には回転角度の変化に対する変化は小さい。従って、複数の画像それぞれについて算出した評価値に違いがあるか否かを、所定の閾値を基準として判定することで、対象物が生体であるか否かの判定が可能になる。すなわち、本実施形態では、各画像についての評価値の違いが当該閾値よりも大きい場合には、対象物は生体であるとの判定を下すようにする。一方、各画像についての評価値の違いが当該閾値よりも大きくはない場合には、対象物は生体ではない(非生体である)との判定を下すようにする。
なお、各画像について算出した評価値についての複数の画像の間での違いを示す値として、例えば、複数の画像のそれぞれの評価値のうちの最大値と最小値との差を用いてもよく、また、評価値についての複数の画像での分散を用いてもよい。
また、本実施形態では、手についての時系列の複数の画像の撮影時には、手の横方向の傾き(前腕を回転の軸として手を回転させたときの回転角度)が変化することを前提としている。前述したように、本実施形態は、手についての生体情報を用いる生体認証を実施する際に、対象物が生体の手であるか否かの判定を行うものである。手についての生体情報を用いる生体認証では、認証の実行に十分に良好な生体情報が手の画像から得られるようにするために、手の姿勢(位置や傾き)の誘導が、生体認証に用いる生体情報を抽出する画像の撮影前に行われる。この誘導の前から適切な手の姿勢が得られることは稀であり、通常は、手の姿勢を最初の姿勢から誘導に従って少しずつ変化させていくことによって、適切な姿勢に近づけていく。従って、手の傾きが異なる時系列の複数の画像は、この誘導の期間に取得できることが期待される。図5は、手の姿勢の変更を促す誘導によって、手の傾きが変化する時系列の複数の画像が得られる様子を模式的に示した図である。
なお、このような誘導によっても、手の横方向の傾きが異なる複数の画像が得られなかった場合には、対象物が生体であるか否かが判定不能であるとの結果を提供するようにしてもよい。
前述したように、手のひらの縦方向の長さは、手の横方向の傾きの変化に対してほとんど変化しない。従って、複数の画像間での手の横方向の傾きの違いの大きさは、手のひらの縦横比率、すなわち、手のひらの縦方向の長さに対する横方向の幅の比率についての当該複数の画像での違いの大きさから推定することができる。つまり、各画像についての当該縦横比率の違いが大きいか否かを、所定の閾値を基準として判定することで、複数の画像間で手の横方向の傾きが十分に変化しているか否かの判定が可能になる。そこで、本実施形態では、この縦横比率の違いの大きさが当該閾値よりも大きい場合には、対象物が生体か否かが判定可能と判断して、対象物が生体か否かの判定を実施するようにする。一方、この縦横比率の違いの大きさが当該閾値よりも大きくはない場合には、対象物が生体か否かの判定は不能と判断して、生体認証による本人確認を実施しないようにする。
なお、対象物が生体か否かを判定不能と判断した場合に、生体認証による本人確認の実施可否を、生体認証システムの判断に委ねるようにしてもよい。また、手の横方向の傾きが変化する時系列の画像の取得を確実なものにするために、手の横方向の傾きを変えることを認証対象者に促す誘導を行った上で、手の撮影を行うようにしてもよい。
なお、各画像について算出した縦横比率についての複数の画像の間での違いを示す値として、例えば、複数の画像のそれぞれについての縦横比率の最大値と最小値との差を用いてもよく、また、縦横比率についての複数の画像での分散を用いてもよい。
ところで、対象物が生体か否かの判定に用いる評価値として、手の5つの指のうちの示指、中指、薬指、及び子指の4つの指のそれぞれの太さの平均値に対する手のひらの幅の比率を用いるようにしてもよい。この評価値の算出手法について、図6を参照しながら説明する。
図6に示されている手の模式図において、中指と薬指との間に表されている破線は、手を横方向に傾けるとき、すなわち、前腕を回転の軸として手を回転させるときにおける回転軸を表している。
個人差はあるものの、上述した4つの指は手のひらの幅方向に概ね等間隔で配置されているとみなすことができる。このとき、手のひらの横方向の幅をwとすると、この4つの指の配置間隔dはw/4で表される。図6において、上述した回転軸を表している破線を手のひらの中央を示す線とし、右方向を正の方向とすると、手のひらに対する4つの指の位置は、示指:+3×d/2、中指:+d/2、薬指:-d/2、小指:-3×d/2でそれぞれ表される。
例えば、親指側を遠ざける向きになるように手を横方向に傾けた場合、示指は手を観察する位置から遠ざかる向きに移動するので細く見えるようになり、小指は当該位置に近づく向きに移動するので太く見えるようになる。ここで、手を傾けたときの手の回転角度をθとすると、手を傾ける前における手のひらで表される平面と、手を傾けたときにおける4つの指のそれぞれの位置との間の距離は、各指の位置にsinθの値を乗算することで得られる。但し、手を傾けたことによって生じるこの距離の変化が観察位置における各指の太さの見え方に与える影響は、4つの指の平均を取ることによって相殺される。そこで、対象物が人の手であるか手の画像を表している表示物であるかの判定に用いる評価値を、下記の(2)式により算出するようにしてもよい。
評価値 = (手のひらの幅)/
(4つの指の各指の太さの平均値)………式(2)
(4つの指の各指の太さの平均値)………式(2)
本実施形態では、生体認証の実施のために用いる撮像装置で得られる対象物の画像を流用して、上述のようにして対象物が生体か否かを良好な精度で判定する。この判定には、専用のセンサは不要であり、また、対象物への偏光照明のような撮影用の特殊な光学要素も不要である。また、本実施形態では、対象物が生体か否かの判定を対象物とは非接触で行うことが可能であり、対象物への刺激も不要である。
次に図7について説明する。図7は、例示的な認証装置1の構成を示している。
認証装置1は、対象物2の生体認証を実施する前に、対象物2が生体か否かの判定を行う。この認証装置1は、撮影部10、処理部20、及び出力部30を備えている。
撮影部10はカメラ11と照明装置12とを備えている。
カメラ11は、例えばデジタルスチルカメラやビデオカメラであり、対象物2を連続して繰り返し撮影して、対象物2についての時系列の複数の画像を得る撮影装置である。なお、カメラ11は、カラー用・モノクロ用のどちらであってもよい。
照明装置12は、カメラ11が対象物2を撮影するときに対象物2に光を照射するものであり、例えば可視光を含む光を照射するLED(Light Emitting Diode)である。手のひらの静脈パターン、掌紋、若しくは掌形のいずれを生体情報として用いる生体認証を実施する場合でも、これらの生体情報は、照明に可視光を用いた撮影により得られる手の画像から得ることが可能である。なお、カメラ11が撮影して得られる画像から生体認証の実施のために十分に良好な生体情報が得られる場合には、照明装置12による対象物2への照明を行わなくてもよい。
処理部20は、取得部21、判定部22、及び生体認証部23を備えている。
取得部21は、撮影部10によって対象物2を異なる時間に撮影して得られた複数の画像を取得する。生体の手が対象物2である場合と、手の画像が表されている表示物が対象物2である場合とのどちらであっても、取得部21により取得される画像は手についての画像である。
判定部22は、取得部21により取得された複数の画像のそれぞれに表されている手における、指の太さと手のひらの幅との関係に基づいて、対象物2が生体か否かの判定を行う。
生体認証部23は、判定部22が対象物2を生体と判定した場合に、対象物2に対する生体認証を、取得部21が取得した複数の画像のうちの少なくとも1枚から取得した生体情報を用いて行う。本実施形態では、この生体認証部23による生体認証において、生体情報として、手のひらの静脈パターン、掌紋、及び掌形のうちの少なくともいずれか1つを用いる。
出力部30は、処理部20による各種の処理の結果を出力する装置であり、例えば、処理結果を表示するディスプレイ装置や、処理結果を表している文を読み上げる音声を出力するオーディオ装置である。
次に図8について説明する。図8は、図7の認証装置1における処理部20として用いられる情報処理装置40のハードウェア構成例を示している。
情報処理装置40は、構成要素として、プロセッサ41、メモリ42、記憶装置43、読取装置44、通信インタフェース46、及び入出力インタフェース47の各ハードウェアを備えている。これらの構成要素はバス48を介して接続されており、構成要素間で相互にデータの授受を行える。
プロセッサ41は、例えば、シングルプロセッサであっても、マルチプロセッサ及びマルチコアであってもよい。プロセッサ41は、メモリ42を利用して、例えば、後述する認証処理の手順を記述した処理プログラムを実行することで、判定部22及び生体認証部23の機能を提供する。
メモリ42は、例えば半導体メモリであり、RAM領域及びROM領域を含んでよい。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。
記憶装置43は、例えばフラッシュメモリ等の半導体メモリ、またはハードディスク装置である。
読取装置44は、プロセッサ41の指示に従って着脱可能記憶媒体45にアクセスする。着脱可能記憶媒体45は、例えば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD-ROM、DVD等)などにより実現される。なお、USBは、Universal Serial Busの略称である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。
通信インタフェース46は、例えば、プロセッサ41の指示に従って通信ネットワーク(不図示)を介してデータを送受信する。
入出力インタフェース47は、撮影部10及び出力部30を含む各種の入力装置や出力装置とのインタフェースを提供する。プロセッサ41による制御の下で、入出力インタフェース47は、例えば、撮影部10のカメラ11により撮影された画像を取得する取得部21の機能を提供する。また、プロセッサ41による制御の下で、入出力インタフェース47は、例えば、撮影部10の照明装置12の動作制御のための制御データや、出力部30に出力させる各種の情報の送出を行う。
以上のように、情報処理装置40が備えているハードウェア構成は標準的なコンピュータが有している構成と同様のものである。従って、コンピュータを情報処理装置40として利用してもよい。
この情報処理装置40のプロセッサ41により実行されるプログラムは、例えば、下記の形態で提供される。
(1)記憶装置43に予めインストールされている。
(2)着脱可能記憶媒体45により提供される。
(3)プログラムサーバなどのサーバから通信ネットワークを介して通信インタフェース46へ提供される。
(2)着脱可能記憶媒体45により提供される。
(3)プログラムサーバなどのサーバから通信ネットワークを介して通信インタフェース46へ提供される。
なお、情報処理装置40のハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の機能部の一部または全部の機能がFPGA及びSoCなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。
次に、認証処理について説明する。図9及び図10は、この認証処理の処理内容を示すフローチャートである。図8の情報処理装置40とソフトウェアとの組合せにより図7の認証装置1における処理部20を構成する場合には、この認証処理の処理内容を記述した情報処理プログラムをプロセッサ41に実行させるようにする。
図9及び図10のフローチャートにおいて、S111からS118までの処理、S121からS128までの処理、及び、S131からS136までの処理は、それぞれ、図7の処理部20における取得部21、判定部22、及び、生体認証部23により行われる。
この認証処理が開始されると、まず、図9のS111において、手のひらを撮影する指示を出力部30に出力させる処理が行われる。この処理により、例えば、(カメラ11で)「手のひらの撮影を行って下さい。」という文が、出力部30であるディスプレイ装置により表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
次に、S112では、撮影部10の照明装置12を制御して対象物2への可視光の照射を開始させる処理が行われる。この処理により、例えば、照明装置12である前述したLEDが点灯する。
次に、S113では、撮影部10のカメラ11を制御して対象物2を撮影させる処理が行われる。
次に、S114では、S113の処理より得られた撮影画像を撮影部10から取得して保存する処理が行われる。図8の情報処理装置40を用いて処理部20を構成している場合には、この処理により、S113の処理より得られた撮影画像は記憶装置43で保存される。
次に、S115では、直近のS114の処理により取得した撮影画像に表されている手の姿勢が適切か否か、すなわち、当該姿勢が、生体認証部23による生体認証の実行に十分に良好な生体情報が得られる姿勢となっているか否かを判定する処理が行われる。この判定処理において、手の姿勢は適切と判定された場合(判定結果がYESの場合)にはS116に処理を進める。一方、この判定処理において、手の姿勢は不適切と判定された場合(判定結果がNOの場合)にはS117に処理を進める。
S116では、撮影画像に表されている手の姿勢が適切であったので、撮影部10の照明装置12を制御して、S112の処理により開始されていた対象物2への可視光の照射を終了させる処理が行われる。この処理により、対象物2の撮影画像の取得の処理が終了し、その後はS121に処理を進める。
一方、S117では、出力部30を制御して、適切な手の姿勢への変更を誘導するための出力を行わせる処理が行われる。この処理により、例えば、手を移動させる向きを示す矢印や、手の傾きの程度を変化させる向きを表した、円弧形状の矢柄を含む矢印が、出力部30であるディスプレイ装置に表示される。また、この処理により、例えば、手を移動させる向きや手の傾きの程度を変化させる向きを表現する文が、出力部30であるディスプレイ装置により表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
次に、S118では、この認証処理の進行を、予め定めておいた所定の時間(例えば数秒間)待機して、S117の誘導の処理に従って手の姿勢が変化することを待つ処理が行われる。この処理による待機の後はS113に処理を戻して、対象物2を撮影して撮影画像を保存する処理が再度行われる。
以上までのS111からS118までの処理によって、図5に示したような、対象物2を異なる時間に撮影して得られた複数の手の画像が取得される。
S121において、画像に表されている手のひらについての前述した縦横比率、すなわち、手のひらの縦方向の長さに対する横方向の幅の比率を、S114の処理の繰り返しによって保存されている複数の撮影画像のそれぞれについて算出する処理が行われる。
次に、S122では、S121の処理によって複数の撮影画像のそれぞれについて算出した縦横比率のうちの最大値と最小値との差分の値、若しくは、当該縦横比率についての複数の撮影画像での分散の値を算出する処理が行われる。
次に、S123では、S122の処理により算出した値が、予め定めておいた閾値以上であるか否かを判定する処理が行われる。この閾値としては、例えば、画像に表されている手のひらの縦横比率と、当該画像に表されている手が生体か否かの判定の結果の正答率との関係を実験により予め求めておき、この実験結果に基づいて妥当な値を採用するようにする。
S123の判定処理において、S122の処理により算出した値が閾値以上であると判定されたとき(判定結果がYESのとき)にはS125(図10)に処理を進める。一方、S123の判定処理において、S122の処理により算出した値が閾値に満たないと判定されたとき(判定結果がNOのとき)にはS124に処理を進める。
S124では、対象物2が生体か否かの判定が不能であることを示す情報を出力部30に出力させる処理が行われ、その後は、生体認証部23による生体認証による本人確認を実行することなく、この認証処理を終了する。この処理により、例えば、(対象物2が)「生体か否かの判定ができません。」という文が、出力部30であるディスプレイ装置に表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
なお、前述したように、対象物2が生体か否かの判定が不能と判断した場合に、生体認証による本人確認の実施可否を、生体認証部23の判断に委ねるようにしてもよい。
図10に処理が進み、S125では、S114の処理の繰り返しによって保存されている複数の撮影画像のそれぞれについて、対象物2が生体か否かの判定に用いる前述した評価値を、前掲した式(1)若しくは式(2)を用いて算出する処理が行われる。
次に、S126において、S125の処理によって複数の撮影画像のそれぞれについて算出した評価値のうちの最大値と最小値との差分の値、若しくは、当該評価値についての複数の撮影画像での分散の値を算出する処理が行われる。
次に、S127では、S126の処理により算出した値が、予め定めておいた閾値以上であるか否かを判定する処理が行われる。この閾値としては、例えば、S126の処理により算出された値と、対象物2が生体か否かとの関係を実験により求め、この実験結果に基づいて妥当な値を採用するようにする。
S127の判定処理において、S126の処理により算出した値が閾値以上であると判定されたとき(判定結果がYESのとき)にはS131に処理を進める。一方、S127の判定処理において、S126の処理により算出した値が閾値に満たないと判定されたとき(判定結果がNOのとき)にはS128に処理を進める。
S128では、対象物2が生体ではないとの判定結果を示す情報を出力部30に出力させる処理が行われ、その後は、生体認証部23による生体認証を実行することなく、この認証処理を終了する。この処理により、例えば、(対象物2は)「生体ではありません。」という文が、出力部30であるディスプレイ装置に表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
S127の判定結果がYESとなる場合とは、対象物2が生体であると判定した場合である。この場合には、S131からS136の処理の実行によって、対象物2に対する生体認証で行われる。
まず、S131において、S114の処理の繰り返しによって保存されている複数の撮影画像のうちの1枚である、S115の処理によって手の姿勢が適切と判定した画像を取得する処理が行われる。
次に、S132では、S131の処理により取得した手の画像から、生体の特徴量、より具体的には、手のひらの静脈パターン、掌紋、若しくは掌形についての特徴量を抽出する処理が行われる。
次に、S133において、S132の処理により抽出した生体の特徴量を、予め登録しておいた(例えば図8の記憶装置43に予め記憶させておいた)認証対象者の生体特徴のテンプレートと照合する処理が行われる。この処理により、対象物2である手の生体が、予め登録されている認証対象者のものであるか否かを確認する本人確認が行われる。なお、この照合の処理として、一般的な既存の照合技術を適用してもよい。
S134では、S133の照合の処理によって、S132の処理により抽出した生体の特徴量が生体特徴のテンプレートと一致したか否かを判定する処理が行われる。
このS134の判定処理において、生体の特徴量が生体特徴のテンプレートと一致したと判定されたとき(判定結果がYESのとき)には、S135に処理を進め、本人確認に成功したことを表している認証結果を出力部30に出力させる処理が行われる。この処理により、例えば、「本人確認に成功しました。」という文が、出力部30であるディスプレイ装置により表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
一方、S134の判定処理において、生体の特徴量が生体特徴のテンプレートと一致しないと判定されたとき(判定結果がNOのとき)には、S136に処理を進め、本人確認に失敗したことを表している認証結果を出力部30に出力させる処理が行われる。この処理により、例えば、「本人確認に失敗しました。」という文が、出力部30であるディスプレイ装置により表示され、あるいは、当該文を読み上げている音声が、出力部30であるオーディオ装置により出力される。
以上のS135若しくはS136の処理を終えると、この認証処理を終了する。
以上までの処理が認証処理である。この認証処理が処理部20により行われることによって、対象物2が生体か否かを認証装置1が良好な精度で判定することを可能にする。
以上、開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
例えば、前述した実施形態では、認証装置1は、指全体の像を含む撮影画像における指の太さに対する手のひらの幅の比率に基づいて対象物2が生体の手であるか否かの判定を行うようにしていた。ここで、指の太さを得るには指全体の像は必ずしも必要ではなく、指の一部分の像、例えば、指のうちの付け根から第二関節付近の部分の像からでも指の太さを得ることは可能である。従って、例えば、撮影部10のカメラ11が対象物2を撮影して得る撮影画像は、手のうちの、手のひらと指のうちの付け根から第二関節付近までの部分とを含む画像であってもよい。
また、前述した実施形態では、手の傾きが変化したときの指の太さと手のひらの幅との関係の変化を調べることによって、対象物2が生体であるか否かを認証装置1が判定するようにしていた。この判定は、手のひらは平面状であり、手の指は円柱状であることに着目したものである。ここで、手首の太さを手の指の太さの代わりに用いて上述の判定を行うようにしてもよい。一般に、手首は、手のひらよりも扁平率が低く、また、手の指ほどではないが円柱に近い形状を有している。そこで、手の傾きが変化したときの手首の太さと手のひらの幅との関係の変化を調べることによって、対象物2が生体であるか否かを認証装置1が判定するようにしてもよい。
1 認証装置
2 対象物
10 撮影部
11 カメラ
12 照明装置
20 処理部
21 取得部
22 判定部
23 生体認証部
30 出力部
40 情報処理装置
41 プロセッサ
42 メモリ
43 記憶装置
44 読取装置
45 着脱可能記憶媒体
46 通信インタフェース
47 入出力インタフェース
48 バス
2 対象物
10 撮影部
11 カメラ
12 照明装置
20 処理部
21 取得部
22 判定部
23 生体認証部
30 出力部
40 情報処理装置
41 プロセッサ
42 メモリ
43 記憶装置
44 読取装置
45 着脱可能記憶媒体
46 通信インタフェース
47 入出力インタフェース
48 バス
Claims (10)
- 対象物を異なる時間に撮影して得られた、手についての複数の画像を取得し、
前記複数の画像のそれぞれに表される前記手における、指の太さと手のひらの幅との関係に基づいて、前記対象物が生体か否かを判定する、
ことを情報処理装置が行う情報処理方法。 - 前記判定を、前記指の太さと前記手のひらの幅との比率についての前記複数の画像の間での違いの大きさに基づいて行う請求項1に記載の情報処理方法。
- 前記判定において、前記複数の画像のそれぞれの前記比率のうちの最大値と最小値との差が閾値よりも大きい場合に、若しくは、前記比率についての前記複数の画像での分散が閾値よりも大きい場合に、前記対象物は生体であると判定する請求項2に記載の情報処理方法。
- 前記手における示指、中指、薬指、及び子指それぞれの太さの平均値と前記手のひらの幅との比率についての前記複数の画像の間での違いの大きさに基づいて、前記判定を行う請求項2に記載の情報処理方法。
- 前記複数の画像のそれぞれにおける前記手のひらの縦方向の長さと前記手のひらの幅との比率のうちの最大値と最小値との差が閾値よりも大きい場合に、若しくは、前記手のひらの縦方向の長さと前記手のひらの幅との比率についての前記複数の画像での分散が閾値よりも大きい場合に、前記判定を行う請求項1に記載の情報処理方法。
- 前記対象物を生体と判定した場合に、前記対象物に対する生体認証を、前記複数の画像のうちの少なくとも1枚から取得した生体情報を用いて行うことを前記情報処理装置が更に行う請求項1から5のうちのいずれか一項に記載の情報処理方法。
- 前記生体認証では、手のひらの静脈パターン、掌紋、及び掌形のうちの少なくともいずれか1つが、前記生体情報として用いられることを特徴とする請求項6に記載の情報処理方法。
- 撮影装置を制御して、可視光を用いて前記対象物についての前記複数の画像を撮影させることを前記情報処理装置が更に行う請求項6に記載の情報処理方法。
- 対象物を異なる時間に撮影して得られた、手についての複数の画像を取得する処理と、
前記複数の画像のそれぞれに表される前記手における、指の太さと手のひらの幅との関係に基づいて、前記対象物が生体か否かを判定する処理と、
を情報処理装置に行わせる情報処理プログラム。 - 対象物を異なる時間に撮影して得られた、手についての複数の画像を取得する取得部と、
前記複数の画像のそれぞれに表される前記手における、指の太さと手のひらの幅との関係に基づいて、前記対象物が生体か否かを判定する判定部と、
を備える情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/035593 WO2024069671A1 (ja) | 2022-09-26 | 2022-09-26 | 情報処理方法、情報処理プログラム、及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/035593 WO2024069671A1 (ja) | 2022-09-26 | 2022-09-26 | 情報処理方法、情報処理プログラム、及び情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024069671A1 true WO2024069671A1 (ja) | 2024-04-04 |
Family
ID=90476551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/035593 WO2024069671A1 (ja) | 2022-09-26 | 2022-09-26 | 情報処理方法、情報処理プログラム、及び情報処理装置 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024069671A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09102046A (ja) * | 1995-08-01 | 1997-04-15 | Matsushita Electric Ind Co Ltd | 手形状認識方法および手形状認識装置 |
WO2009101702A1 (ja) * | 2008-02-15 | 2009-08-20 | Fujitsu Limited | 生体認証用の撮影装置及び生体認証装置 |
-
2022
- 2022-09-26 WO PCT/JP2022/035593 patent/WO2024069671A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09102046A (ja) * | 1995-08-01 | 1997-04-15 | Matsushita Electric Ind Co Ltd | 手形状認識方法および手形状認識装置 |
WO2009101702A1 (ja) * | 2008-02-15 | 2009-08-20 | Fujitsu Limited | 生体認証用の撮影装置及び生体認証装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11188734B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US10902104B2 (en) | Biometric security systems and methods | |
US11657133B2 (en) | Systems and methods of multi-modal biometric analysis | |
KR101242304B1 (ko) | 무선 디바이스의 기능에 대한 제어되는 액세스 | |
CN105917358B (zh) | 三维形状测定装置及方法 | |
JP7004059B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
JP6984724B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
US11756338B2 (en) | Authentication device, authentication method, and recording medium | |
US11682236B2 (en) | Iris authentication device, iris authentication method and recording medium | |
JP2017010322A (ja) | 認証処理装置及び認証処理方法 | |
JP2004118677A (ja) | 指紋認証方法/プログラム/装置 | |
JP2007159610A (ja) | 登録装置、認証装置、登録認証装置、登録方法、認証方法、登録プログラムおよび認証プログラム | |
KR20180090798A (ko) | 복굴절 기반의 생체 인증을 위한 방법 및 장치 | |
JP2006318374A (ja) | 眼鏡判別装置および認証装置ならびに眼鏡判別方法 | |
WO2024069671A1 (ja) | 情報処理方法、情報処理プログラム、及び情報処理装置 | |
JP2008210328A (ja) | 眼底画像認証装置及び眼底画像認証プログラム | |
US11507646B1 (en) | User authentication using video analysis | |
KR101794727B1 (ko) | 홍채 검증 방법 | |
JP5768441B2 (ja) | 生体情報取得装置、生体情報取得方法、および生体情報取得プログラム | |
JPWO2020066776A1 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
KR101606351B1 (ko) | 모조생체 판별 방법 및 장치 | |
JP7457991B1 (ja) | なりすまし検知システムおよびなりすまし検知プログラム | |
JP7272418B2 (ja) | なりすまし検知装置、なりすまし検知方法、及びプログラム | |
KR100924271B1 (ko) | 홍채를 이용한 신원확인 시스템 및 방법과 그 방법에 대한컴퓨터 프로그램 소스를 저장한 기록매체 | |
JP5079727B2 (ja) | 静脈認証装置における登録静脈画像作成方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22960736 Country of ref document: EP Kind code of ref document: A1 |